BETÆNKNING med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

8.10.2020 - (2020/2012(INL))

Retsudvalget
Ordfører: Ibán García Del Blanco
Ordførere for udtalelse (*):
Urmas Paet, Udenrigsudvalget
Alexandra Geese, Udvalget om det Indre Marked og Forbrugerbeskyttelse
Valter Flego, fra Transport- og Turismeudvalget
Assita Kanko, fra Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender
(*) Associerede udvalg – forretningsordenens artikel 57
(Initiativ - forretningsordenens artikel 47)


Procedure : 2020/2012(INL)
Forløb i plenarforsamlingen
Dokumentforløb :  
A9-0186/2020

FORSLAG TIL EUROPA-PARLAMENTETS BESLUTNING

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Europa-Parlamentet,

 der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde,

 der henviser til artikel 114 i traktaten om Den Europæiske Unions funktionsmåde,

 der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde,

 der henviser til artikel 114 i traktaten om Den Europæiske Unions funktionsmåde,

 der henviser til Den Europæiske Unions charter om grundlæggende rettigheder,

 der henviser til Rådets forordning (EU) 2018/1488 af 28. september 2018 om oprettelse af et europæisk fællesforetagende for højtydende databehandling[1],

 der henviser til Rådets direktiv 2000/43/EF af 29. juni 2000 om gennemførelse af princippet om ligebehandling af alle uanset race eller etnisk oprindelse[2] (direktivet om racelighed),

 der henviser til Rådets direktiv 2000/78/EF af 27. november 2000 om generelle rammebestemmelser om ligebehandling med hensyn til beskæftigelse og erhverv[3] (direktivet om ligebehandling med hensyn til beskæftigelse),

 der henviser til Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger, og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse)[4] og til Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA[5],

 der henviser til den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning[6],

 der henviser til forslag af 6. juni 2018 til Europa-Parlamentets og Rådets forordning om programmet for et digitalt Europa for perioden 2021-2027 (COM(2018)0434),

 der henviser til Kommissionens meddelelse til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget af 11. december 2019 om den europæiske grønne pagt (COM(2019)0640),

 der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om kunstig intelligens – en europæisk tilgang til ekspertise og tillid (COM(2020)0065),

 der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om en europæisk strategi for data (COM(2020)0066),

 der henviser til Kommissionens meddelelse af 19. februar 2020 til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget om Europas digitale fremtid i støbeskeen (COM(2020)0067),

 der henviser til Rådet for Den Europæiske Unions konklusioner om Europas digitale fremtid i støbeskeen fra juni 2020,

 der henviser til sin beslutning af 16. februar 2017 med henstillinger til Kommissionen om civilretlige bestemmelser om robotteknologi[7],

 der henviser til sin beslutning af 1. juni 2017 om digitalisering af den europæiske industri[8],

 der henviser til sin beslutning af 12. september 2018 om autonome våbensystemer[9],

 der henviser til sin beslutning af 11. september 2018 om ligebehandling af sprog i en digital tidsalder[10],

 der henviser til sin beslutning af 12. februar 2019 om en omfattende europæisk industripolitik om kunstig intelligens og robotteknologi[11],

 der henviser til rapporten af 8. april 2019 fra ekspertgruppen på højt plan om kunstig intelligens nedsat af Kommissionen med titlen "Ethics Guidelines for Trustworthy AI" (Etiske retningslinjer vedrørende pålidelig kunstig intelligens),

 der henviser til de briefinger og undersøgelser, der er udarbejdet på anmodning fra Europa-Parlamentets Panel for Fremtidens Videnskab og Teknologi (STOA-panelet), der forvaltes af Enheden for Videnskabeligt Fremsyn under Europa-Parlamentets Forskningstjeneste, med titlen: "What if algorithms could abide by ethical principles?" (hvad hvis algoritmer kunne efterleve etiske principper?), "Artificial Intelligence ante portas: Legal & ethical reflections" (kunstig intelligens står for døren: juridiske og etiske overvejelser), "Should we fear artificial intelligence?" (skal vi være bange for kunstig intelligens?) og "The ethics of artificial intelligence: Issues and initiatives" (de etiske aspekter ved kunstig intelligens: Spørgsmål og initiativer"),

 der henviser til Europarådets rammekonvention om beskyttelse af nationale mindretal, protokol nr. 12 til konventionen til beskyttelse af menneskerettigheder og grundlæggende frihedsrettigheder samt den europæiske pagt om regionale sprog eller mindretalssprog,

 der henviser til OECD-Rådets henstilling vedrørende kunstig intelligens, som blev vedtaget 22. maj 2019,

 der henviser til forretningsordenens artikel 47 og 54,

 der henviser til udtalelser fra Udenrigsudvalget, Udvalget om det Indre Marked og Forbrugerbeskyttelse, Transport- og Turismeudvalget, Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender, Udvalget om Beskæftigelse og Sociale Anliggender, Udvalget om Miljø, Folkesundhed og Fødevaresikkerhed og Kultur- og Uddannelsesudvalget,

 der henviser til betænkning fra Retsudvalget (A9-0186/2020),

Indledning

A. der henviser til, at udvikling, udbredelse og anvendelse af "kunstig intelligens" (også kaldet "AI"), robotteknologi og relaterede teknologier udføres af mennesker, og at deres valg afgør teknologiens potentiale for at være til gavn for samfundet;

B. der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier, der har potentiale til at skabe muligheder for virksomheder og fordele for borgerne, og som direkte kan påvirke alle aspekter af vores samfund, herunder grundlæggende rettigheder og sociale og økonomiske principper og værdier, og som ligeledes har varig indflydelse på alle aktivitetsområder, fremmes og udvikles i hastigt tempo;

C. der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier medfører store ændringer på arbejdsmarkedet og på arbejdspladserne; der henviser til, at de potentielt kan erstatte arbejdstagere, der udfører repetitivt arbejde, fremme arbejdssystemer, hvor menneske og maskine arbejder sammen, øge konkurrenceevnen og den økonomiske fremgang og skabe nye jobmuligheder for kvalificerede arbejdstagere, samtidig med at de udgør en alvorlig udfordring med hensyn til omstrukturering af arbejdsstyrken;

D. der henviser til, at udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier også kan bidrage til at nå bæredygtighedsmålene fra den europæiske grønne pagt inden for mange forskellige sektorer; der henviser til, at digitale teknologier kan booste effekten af politikker for så vidt angår miljøbeskyttelse; der henviser til, at de også kan bidrage til at reducere trafikpropper og emissioner af drivhusgasser og luftforurenende stoffer;

E. der henviser til, at AI‑understøttede intelligente transportsystemer i sektorer såsom offentlig transport kan anvendes til at minimere køer, optimere rutelægning, gøre personer med handicap mere uafhængige og øge energieffektiviteten og dermed intensivere dekarboniseringsbestræbelserne og reducere miljøaftrykket;

F. der henviser til, at disse teknologier skaber nye forretningsmuligheder, som kan bidrage til genopretningen af EU's industri efter den nuværende sundhedsmæssige og økonomiske krise, hvis vi gør mere brug af dem, f.eks. inden for transportindustrien; der henviser til, at sådanne muligheder kan skabe nye arbejdspladser, eftersom udbredelsen af disse teknologier har potentiale til at øge virksomhedernes produktivitetsniveauer og bidrage til effektivitetsgevinster; der henviser til, at innovationsprogrammer på dette område kan få regionale klynger til at blomstre;

G. der henviser til, at Unionen og medlemsstaterne har et særligt ansvar for at udnytte, fremme og øge merværdien af kunstig intelligens og sikre, at AI-teknologier er sikre og bidrager til deres borgeres velfærd og almene interesse, da de kan yde et stort bidrag til at nå det fælles mål om at forbedre borgernes liv og fremme velstanden i Unionen ved at bidrage til udviklingen af bedre strategier og innovation inden for en række områder og sektorer; der henviser til, at det for at udnytte den kunstige intelligens fulde potentiale og gøre brugerne opmærksomme på de fordele og udfordringer, som AI-teknologier medfører, er nødvendigt at inddrage AI eller digitale færdigheder i undervisningsmæssig sammenhæng, herunder med henblik på at fremme digital inklusion, og at det er nødvendigt at gennemføre informationskampagner på EU‑plan, der giver et nøjagtigt billede af alle aspekter af udviklingen af AI;

H. der henviser til, at en fælles EU-retlig ramme for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier (en "lovgivningsmæssig ramme for AI") bør give borgerne mulighed for at nyde godt af fordelene ved deres potentiale, men samtidig beskytte borgerne mod de eventuelle risici ved sådanne teknologier og fremme pålideligheden af sådanne teknologier både i EU og andre steder; der henviser til, at denne ramme bør være baseret på Unionens love og værdier og styret af principperne om gennemsigtighed og forklarlighed, retfærdighed, ansvarlighed og ansvar;

I. der henviser til, at en sådan lovgivningsmæssig ramme er af afgørende betydning for at undgå en opsplitning af det indre marked som følge af forskellig national lovgivning, og at den vil bidrage til at fremme hårdt tiltrængte investeringer, udvikle datainfrastruktur og støtte forskning; der henviser til, at den bør bestå af fælles retlige forpligtelser og etiske principper som skitseret i det forslag til forordning, som der anmodes om i bilaget til denne beslutning; der henviser til, at den bør udarbejdes i henhold til princippet om bedre lovgivning;

J. der henviser til, at Unionen har en streng lovgivningsmæssig ramme på plads til at sikre bl.a. beskyttelsen af personoplysninger og privatlivets fred og beskyttelsen mod diskrimination, samt for at fremme ligestilling mellem kønnene, miljøbeskyttelse og forbrugernes rettigheder; der henviser til, at en sådan lovgivningsmæssig ramme, der består af en omfattende mængde horisontal og sektorbaseret lovgivning, herunder de eksisterende regler for produktsikkerhed og produktansvar, fortsat vil være gældende i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier, omend det kan være nødvendigt at udføre visse justeringer af specifikke juridiske instrumenter med henblik på at afspejle den digitale omstilling og håndtere nye udfordringer, der opstår som følge af brugen af kunstig intelligens;

K. der henviser til, at der er alvorlige bekymringer for, at den nuværende lovgivningsmæssige ramme i EU, herunder den gældende forbrugerlovgivning, regelsættet på beskæftigelsesområdet og det sociale område, databeskyttelseslovgivningen, lovgivningen om produktsikkerhed og markedsovervågning samt lovgivningen om bekæmpelse af forskelsbehandling, muligvis ikke længere vil være tilstrækkelige til effektivt at håndtere de risici, der skabes ved brug af kunstig intelligens, robotteknologi og relaterede teknologier.

L. der henviser til, at juridiske og etiske spørgsmål vedrørende AI-teknologier ud over ændringer af eksisterende lovgivning også bør håndteres gennem en effektiv, omfattende og fremtidssikret lovgivningsmæssig ramme for EU, der afspejler Unionens principper og værdier som nedfældet i traktaterne og chartret om grundlæggende rettigheder, der bør afstå fra overregulering og udelukkende lukke eksisterende juridiske smuthuller og skabe øget retssikkerhed for både virksomheder og borgere, navnlig ved at omfatte obligatoriske tiltag til at forhindre praksisser, der utvivlsomt ville undergrave grundlæggende rettigheder;

M. der henviser til, at der i enhver form for ny lovgivningsmæssig ramme skal tages højde for alle interesser; der henviser til, at en grundig undersøgelse af konsekvenserne af enhver ny lovgivningsmæssig ramme for alle aktører gennem en konsekvensanalyse bør være en forudsætning for yderligere retlige skridt; der henviser til, at den afgørende rolle, som små og mellemstore virksomheder (SMV'er) og nystartede virksomheder spiller, særligt inden for den europæiske økonomi, retfærdiggør en strengt forholdsmæssig tilgang for at give dem mulighed for udvikling og innovation;

 

N. der henviser til, at kunstig intelligens, robotteknologi og relaterede teknologier kan have alvorlige konsekvenser for enkeltpersoners, gruppers og hele samfundets materielle og immaterielle integritet, og at en sådan individuel og kollektiv skade skal imødegås med lovgivningsinitiativer;

O. der henviser til, at det kan blive nødvendigt at vedtage specifikke regler for Unionens transportsektor for at respektere Unionens lovgivningsmæssige ramme for AI;

P. der henviser til, at AI-teknologier er af strategisk betydning for transportsektoren, bl.a. fordi de øger sikkerheden og tilgængeligheden til alle transportformer og skaber nye beskæftigelsesmuligheder og mere bæredygtige forretningsmodeller; der henviser til, at en EU-tilgang til udviklingen af AI, robotteknologi og relaterede teknologier inden for transportsektoren har potentiale til at øge EU's økonomis globale konkurrenceevne og strategiske autonomi;

Q. der henviser til, at der stadig er menneskelige fejl involveret i ca. 95 % af alle trafikulykker i EU; der henviser til, at EU havde til hensigt at reducere det årlige antal trafikdræbte i EU med 50 % i 2020 i forhold til 2010, men på baggrund af stagnerende fremskridt fornyede sine bestræbelser i sin rammepolitik for færdselssikkerhed 2021-2030 ("EU Road Safety Policy Framework 2021-2030 – Next steps towards "Vision Zero"); der henviser til, at AI, automatisering og andre nye teknologier i denne henseende har stort potentiale til og er yderst vigtig for at øge færdselssikkerheden ved at reducere risikoen for menneskelige fejl;

R. der henviser til, at Unionens lovgivningsmæssige ramme for AI også bør afspejle behovet for at sikre, at arbejdstagernes rettigheder respekteres; der henviser til, at der bør tages hensyn til de europæiske arbejdsmarkedsparters rammeaftale om digitalisering fra juni 2020;

S. der henviser til, at EU's lovgivningsmæssige ramme om AI bør være tilstrækkelig, forholdsmæssig og grundigt evalueret; der henviser til, at den bør omfatte en bred vifte af teknologier og komponenter hertil, herunder algoritmer, software og data, der anvendes eller produceres af disse, og at det er nødvendigt at have en målrettet risikobaseret tilgang for at undgå at hæmme fremtidig innovation og skabelse af unødige byder, specielt for SMV'er; der henviser til, at diversiteten af applikationer drevet af kunstig intelligens, robotteknologi og relaterede teknologier gør det mere vanskeligt at finde én løsning, som er velegnet til hele risikospekret;

T. der henviser til, at dataanalyse og AI i stigende grad har indflydelse på de oplysninger, der stilles til rådighed for borgerne; der henviser til, at disse teknologier, hvis de misbruges, kan true de grundlæggende rettigheder til ytringsfrihed, information såvel som mediefrihed og -pluralisme;

U. der henviser til, at det geografiske anvendelsesområde for EU's lovgivningsmæssige ramme for AI bør omfatte alle elementer af kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, herunder i tilfælde, hvor en del af teknologierne kan være placeret uden for Unionen eller ikke hører til et specifikt sted;

V. der henviser til, at EU's lovgivningsmæssige ramme for AI bør omfatte alle relevante faser, nemlig udvikling, udbredelse og anvendelse af de relevante teknologier og komponenter heraf, hvilket kræver behørig hensyntagen til de relevante retlige forpligtelser og etiske principper, og bør fastsætte betingelserne for at sikre, at udviklere, udbredere og brugere er i fuld overensstemmelse med sådanne forpligtelser og principper;

W. der henviser til, at en harmoniseret tilgang til etiske principper vedrørende kunstig intelligens, robotteknologi og relaterede teknologier kræver en fælles forståelse i Unionen af de koncepter, der danner grundlag for teknologierne såsom algoritmer, software, data eller biometrisk genkendelse;

X. der henviser til, at foranstaltninger på EU-plan er begrundet i behovet for at undgå uensartet lovgivning eller en række nationale lovbestemmelser uden fællesnævner og at sikre en ensartet anvendelse af fælles etiske lovfæstede principper i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko; der henviser til, at der er behov for klare regler, hvis der er betydelige risici;

Y. der henviser til, at fælles etiske principper kun er effektive, hvis de også er nedfældet i lovgivningen, og hvis de, der skal være ansvarlige for at sikre, at reglerne overholdes, identificeres;

Z. der henviser til, at etiske retningslinjer, såsom de principper, der er vedtaget af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, giver et godt udgangspunkt, men at de ikke kan sikre, at udviklere, udbredere og brugere handler redeligt og garanterer effektiv beskyttelse af privatpersoner; der henviser til, at sådanne retningslinjer er så meget desto mere relevante med hensyn til kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko;

AA. der henviser til, at hver enkelt medlemsstat bør udpege en national tilsynsmyndighed, der skal være ansvarlig for at sikre, vurdere og kontrollere, at udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko overholder EU's lovgivningsmæssige ramme for AI, og for at muliggøre drøftelse og udveksling af synspunkter i tæt samarbejde med de berørte interessenter og civilsamfundet; der henviser til, at de nationale tilsynsmyndigheder bør samarbejde med hinanden;

AB. der henviser til, at det med henblik på at sikre en harmoniseret tilgang i hele EU og et velfungerende digitalt indre marked bør sikres, at koordinering på EU-plan foretaget af Kommissionen og alle/eller relevante EU-institutioner, -organer, -kontorer og -agenturer, som måtte blive udpeget i denne forbindelse, evalueres med hensyn til de nye muligheder og udfordringer, navnlig muligheder og udfordringer på tværs af grænserne, der opstår som følge af den løbende teknologiske udvikling; med henblik herpå bør Kommissionen have til opgave at finde en passende løsning med henblik på at strukturere denne koordinering på EU-plan;

Menneskecentreret og menneskeskabt kunstig intelligens

1. er af den opfattelse, at det med forbehold af sektorspecifik lovgivning er nødvendigt med effektive og harmoniserede lovgivningsmæssige rammer baseret på EU-retten, Den Europæiske Unions charter om grundlæggende rettigheder ("chartret") og den internationale menneskerettighedslovgivning, der navnlig finder anvendelse på højrisikoteknologier, med henblik på at fastsætte ensartede standarder i hele Unionen og effektivt beskytte Unionens værdier;

2. mener, at enhver ny lovgivningsmæssig ramme for AI, der består af retlige forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, fuldt ud bør respektere chartret og derved respektere individets menneskelige værdighed, autonomi og selvbestemmelse, forhindre skade, fremme retfærdighed, inklusion og gennemsigtighed, eliminere forudindtagethed og forskelsbehandling, herunder i forbindelse med minoritetsgrupper, samt respektere og overholde principperne om begrænsning af de negative eksterne virkninger af den anvendte teknologi, sikring af teknologiernes forklarlighed og garantien for, at teknologierne er til for at tjene mennesker, ikke for at erstatte dem eller tage beslutninger for dem, med det ultimative mål at øge den menneskelige trivsel for alle;

3. fremhæver asymmetrien mellem dem, der anvender AI-teknologier, og dem, der interagerer med dem og er underlagt dem; understreger i denne forbindelse, at borgernes tillid til AI kun kan være baseret på indbyggede rammer for etiske standarder og etisk design, der sikrer, at enhver AI-teknologi, der tages i brug, fuldt ud respekterer og efterlever traktaterne, chartret og afledt EU-ret; mener, at en sådan strategi bør være i overensstemmelse med det forsigtighedsprincip, der er retningsgivende for EU-lovgivningen, og bør være kernen i enhver lovgivningsmæssig ramme for AI; opfordrer i den henseende til etablering af en klar og sammenhængende styringsmodel, der sætter virksomheder og innovatorer i stand til at videreudvikle kunstig intelligens, robotteknologi og relaterede teknologier;

4. mener, at enhver juridisk handling, navnlig i forbindelse med kunstig intelligens og relaterede teknologier, bør være i tråd med principperne om nødvendighed og proportionalitet;

5.  mener, at en sådan tilgang vil give virksomheder mulighed for at introducere innovative produkter på markedet og skabe nye muligheder, samtidig med, at de europæiske værdier beskyttes, idet den vil føre til udvikling af AI-systemer, der inkorporerer Unionens etiske principper som standard; mener, at en sådan værdibaseret lovgivningsmæssig ramme ville udgøre en merværdi, idet den ville give Unionen en unik konkurrencefordel og yde et vigtigt bidrag til de europæiske borgeres og virksomheders trivsel og velstand og sætte skub i det indre marked; understreger, at en sådan lovgivningsmæssig ramme for AI også vil udgøre en merværdi for så vidt angår fremme af innovation på det indre marked; mener, at denne tilgang f.eks. i transportsektoren giver EU-virksomheder mulighed for at blive førende på verdensplan på dette område;

6. bemærker, at EU's lovgivningsmæssige ramme bør gælde for kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier:

7. bemærker, at de muligheder, der baserer sig på kunstig intelligens, robotteknologi og relaterede teknologier, er afhængige af "big data", idet der er behov for en kritisk mængde data til at træne algoritmer og forfine deres resultater; bifalder i den forbindelse Kommissionens forslag om, at der oprettes et fælles dataområde i EU for at styrke dataudveksling og støtte forskning med fuld respekt for EU's databeskyttelsesregler.

8. mener, at EU's nuværende lovgivningsmæssige rammer, navnlig vedrørende beskyttelse af privatlivets fred og personoplysninger, vil skulle finde fuld anvendelse på AI, robotteknologi og relaterede teknologier, og at de regelmæssigt skal revideres og gennemgås og om nødvendigt ajourføres for effektivt at tackle de risici, der skabes af disse teknologier, ligesom de i denne forbindelse kunne have gavn af at blive suppleret med solide vejledende principper af etisk karakter; påpeger, at der bør anvendes en blød lovgivningsmæssig ramme, hvis det er for tidligt at vedtage retsakter;

9. forventer, at Kommissionen indarbejder en stærk etisk tilgang i det lovgivningsforslag, der anmodes om i bilaget til denne beslutning som opfølgning på hvidbogen om kunstig intelligens, herunder om sikkerhed, ansvar og grundlæggende rettigheder, med henblik på at maksimere mulighederne og minimere risiciene ved AI-teknologier; forventer, at det lovgivningsforslag, der anmodes om, vil omfatte politiske løsninger på de største anerkendte risici ved kunstig intelligens, herunder bl.a. om etisk indsamling og brug af big data samt spørgsmålet om algoritmisk gennemsigtighed og algoritmisk forudindtagethed; opfordrer Kommissionen til at udvikle kriterier og indikatorer for mærkning af AI-teknologi med henblik på at fremme gennemsigtighed, forklarlighed og ansvarlighed og tilskynde udviklere til at træffe ekstra forholdsregler; understreger behovet for at investere i integrering af ikke-tekniske discipliner i AI-studier og -forskning under hensyntagen til den sociale kontekst;

10. mener, at kunstig intelligens, robotteknologi og relaterede teknologier skal skræddersys til menneskelige behov i overensstemmelse med princippet om, at deres udvikling, udbredelse og anvendelse altid bør være til gavn for mennesker og aldrig omvendt, og at de bør søge at øge trivslen og den individuelle frihed samt bevare freden, forebygge konflikter og styrke den internationale sikkerhed og samtidig maksimere de fordele, der tilbydes, og forebygge og mindske risiciene;

11. erklærer, at udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder, men ikke udelukkende foretaget af mennesker, altid bør følge etiske retningslinjer og være udarbejdet til at respektere og give mulighede for menneskelig indgriben og demokratisk kontrol, når det er nødvendigt, gennem implementering af tilstrækkelige kontrolforanstaltninger;

Risikovurdering

12. understreger, at enhver fremtidig regulering bør følge en differentieret og fremtidsorienteret risikobaseret tilgang til regulering af kunstig intelligens, robotteknologi og relaterede teknologier, herunder teknologineutrale standarder for alle sektorer, med sektorspecifikke standarder, hvor det er relevant; bemærker, at der er behov for en udtømmende og kumulativ liste over højrisikosektorer og højrisikoanvendelser eller -formål for at sikre en ensartet gennemførelse af systemet med risikovurdering, og at de tilknyttede retlige forpligtelser overholdes for at sikre lige vilkår mellem medlemsstaterne og forhindre fragmentering af det indre marked; understreger, at en sådan liste skal evalueres med jævne mellemrum, og bemærker, at det i betragtning af den vekslende karakter af disse teknologier kan være nødvendigt at tage den måde, hvorpå deres risikovurdering foretages, op til fornyet overvejelse i fremtiden;

13. mener, at fastlæggelsen af, hvorvidt kunstig intelligens, robotteknologi og relaterede teknologier bør anses for at være højrisikobetonede og dermed skal være underlagt obligatorisk overholdelse af retlige forpligtelser og etiske principper som fastsat i den lovgivningsmæssige ramme for AI, altid bør følge af en upartisk, reguleret og ekstern forhåndsvurdering baseret på konkrete og fastlagte kriterier;

14. mener i den forbindelse, at kunstig intelligens, robotteknologi og relaterede teknologier bør betragtes som højrisikobetonede, hvis deres udvikling, udbredelse og anvendelse indebærer en betydelig risiko for kvæstelser eller anden skade på enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten; mener, at den sektor, hvor de udvikles, udbredes eller anvendes, deres specifikke anvendelse eller formål samt alvoren af de kvæstelser eller den skade, der kan forventes at forekomme, bør tages i betragtning for at vurdere, om AI-teknologier indebærer en sådan risiko; det første og andet kriterium, nemlig sektoren og den specifikke anvendelse eller formålet, bør betragtes samlet;

15. understreger, at risikovurderingen af disse teknologier bør foretages på grundlag af en udtømmende og kumulativ liste over højrisikosektorer og højrisikoanvendelser og -formål; er stærkt overbevist om, at der bør være sammenhæng inden for Unionen for så vidt angår risikovurderingen af disse teknologier, navnlig hvis de vurderes både på baggrund af deres overensstemmelse med den lovgivningsmæssige ramme for AI og i overensstemmelse med enhver anden gældende sektorspecifik lovgivning.

16. mener, at denne risikobaserede tilgang bør udarbejdes på en måde, der begrænser den administrative byrde for virksomheder, særligt for SMV'er, mest muligt ved at anvende eksisterende værktøjer; sådanne værktøjer omfatter, men er ikke begrænset til, den i forordning (EU) 2016/679 omhandlede liste over konsekvensanalyser vedrørende databeskyttelse;

Sikkerhedsaspekter, gennemsigtighed og ansvarlighed

17. minder om, at forbrugeres ret til information er forankret som et nøgleprincip i EU-retten og understreger, at dette derfor bør implementeres fuldt ud i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier; mener, at det navnlig bør omfatte gennemsigtighed med hensyn til interaktion med systemer for kunstig intelligens, herunder automatisering, og med hensyn til deres funktionsmåde og kapacitet, f.eks. hvordan information filtreres og præsenteres, samt deres nøjagtighed og begrænsninger; mener, at sådanne oplysninger bør gives til de nationale tilsynsmyndigheder og de nationale forbrugerbeskyttelsesmyndigheder;

18. understreger, at forbrugernes tillid er afgørende for udviklingen og implementeringen af disse teknologier, som kan være forbundet med iboende risici, når de er baseret på uigennemskuelige algoritmer og forudindtagede datasæt; mener, at forbrugerne bør have ret til at blive tilstrækkeligt informeret på en forståelig, rettidig, standardiseret, præcis og tilgængelig måde om algoritmiske systemers eksistens, hvordan de tænker, mulige output og følger for forbrugerne samt om, hvordan man kan få fat i en person med beslutningsbeføjelser, og hvordan systemets afgørelser kan kontrolleres, bestrides på meningsfuld vis og korrigeres; understreger i denne forbindelse, at det er nødvendigt at tage hensyn til og respektere de principper om information og offentliggørelse, som forbrugerlovgivningen er bygget på; mener, at det er nødvendigt at give slutbrugerne detaljerede oplysninger om driften af transportsystemer og AI-baserede køretøjer;

19. bemærker, at det er af afgørende betydning, at de algoritmer og datasæt, der anvendes eller fremstilles af kunstig intelligens, robotteknologi og relaterede teknologier, kan forklares og – hvor det er strengt nødvendigt, og under fuld overholdelse af EU-lovgivningen om databeskyttelse, privatlivets fred og intellektuelle ejendomsrettigheder og forretningshemmeligheder – er tilgængelige for offentlige myndigheder såsom nationale tilsynsmyndigheder og markedsovervågningsmyndigheder; bemærker endvidere, at der i overensstemmelse med de højest mulige og gældende branchestandarder bør opbevares dokumentation hos dem, der er involveret i de forskellige faser af udviklingen af højrisikoteknologier; bemærker, at markedsovervågningsmyndigheder kan have yderligere beføjelser i denne henseende; understreger den rolle lovlig reverse-engineering spiller i denne kontekst; mener, at det kan være nødvendigt med en undersøgelse af den gældende lovgivning om markedsovervågning for at sikre, at den på en etisk forsvarlig måde kan håndtere den stigende anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier;

20. opfordrer til, at der stilles krav om, at udviklere og udbydere af højrisikoteknologier skal forsyne offentlige myndigheder med relevant dokumentation om deres brugs- og design- og sikkerhedsinstrukser, hvis en risikovurdering taler derfor, herunder, når det er strengt nødvendigt og under fuld overholdelse af EU-lovgivningen om databeskyttelse, privatlivets fred, intellektuelle ejendomsrettigheder og forretningshemmeligheder, kildekode, udviklingsværktøjer og data anvendt af systemet; bemærker, at en sådan forpligtelse vil gøre det muligt at vurdere, om de overholder EU-retten og de etiske principper, og bemærker i denne forbindelse eksemplet med et nationalbiblioteks pligtaflevering af publikationer; bemærker den vigtige skelnen mellem gennemsigtighed af algoritmer og gennemsigtighed i brugen af algoritmer;

21. bemærker endvidere, at der for at respektere den menneskelige værdighed, autonomi og sikkerhed bør tages behørigt hensyn til vitale og avancerede medicinske apparater og behovet for, at uafhængige betroede myndigheder bevarer de midler, der er nødvendige for at yde tjenesteydelser til personer, der bærer disse apparater, hvis den oprindelige udvikler eller udbreder ikke længere yder dem; for eksempel: sådanne tjenester omfatter vedligeholdelse, reparation og forbedringer, herunder softwareopdateringer, der afhjælper fejl og mangler.

22. fastholder, at kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, uanset på hvilket felt de udvikles, udbredes og anvendes, som standard bør designes på en sikker, sporbar, teknisk robust, pålidelig, etisk og juridisk bindende måde og være underlagt uafhængig kontrol og uafhængigt tilsyn; mener især, at alle deltagere i udviklings- og forsyningskæderne i forbindelse med produkter og tjenester forbundet med kunstig intelligens, skal være juridisk ansvarlige, og understreger, at der er brug for mekanismer til at sikre ansvar og ansvarlighed;

23. understreger, at der skal være regulering og retningslinjer vedrørende forklarlighed, mulighed for revision, sporbarhed og gennemsigtighed samt, hvor det er påkrævet på grund af en risikovurdering og strengt nødvendigt og under fuld overholdelse af EU-retten om bl.a. databeskyttelse, privatlivets fred, intellektuelle ejendomsrettigheder og forretningshemmeligheder, da adgang for offentlige myndigheder til teknologier, data og computersystemer, der ligger til grund for sådanne teknologier, er afgørende for at sikre borgernes tillid til disse teknologier, selv om graden af forklarlighed er afhængig af teknologiernes kompleksitet; påpeger, at det ikke altid er muligt at forklare, hvorfor en model har ført til et bestemt resultat eller en bestemt afgørelse, som det er tilfældet med black box-algoritmer; mener derfor, at respekten for disse principper er en forudsætning for at kunne garantere ansvarlighed;

24. mener, at borgere, herunder forbrugere, hvis de interagerer med et system, der anvender kunstig intelligens, navnlig til at personliggøre et produkt eller en tjeneste over for brugeren, bør informeres om, hvorvidt og hvordan denne personliggørelse kan slås fra eller begrænses;

25. påpeger i denne sammenhæng, at kunstig intelligens, robotteknologi og relaterede teknologier bør være teknisk robuste og præcise, hvis de skal være pålidelige.

26. understreger, at det er vigtigt at beskytte netværk af indbyrdes forbundne AI- og robotteknologier, at der skal træffes vigtige og stærke foranstaltninger for at forhindre sikkerhedsbrud, dataudslip, dataforgiftning, cyberangreb og misbrug af personoplysninger, og at dette vil kræve, at de relevante agenturer, organer og institutioner på såvel europæisk som nationalt plan samarbejder indbyrdes og med slutbrugerne af disse teknologier; opfordrer Kommissionen og medlemsstaterne til at sikre, at Unionens værdier og respekten for grundlæggende rettigheder til enhver tid iagttages, når der udvikles og indføres AI-teknologi med henblik på at sikre EU's digitale infrastrukturs sikkerhed og modstandsdygtighed;

Ikke-forudindtagethed og ikke-forskelsbehandling

27. minder om, at kunstig intelligens, afhængigt af hvordan den udvikles og anvendes, har potentiale til at skabe og styrke forudindtagethed, herunder gennem en forudindtagethed, der er indbygget i de underliggende datasæt, og dermed skabe forskellige former for automatiseret forskelsbehandling, herunder indirekte forskelsbehandling, navnlig af særlige grupper af personer med beslægtede karakteristika; opfordrer Kommissionen og medlemsstaterne til at træffe alle mulige foranstaltninger for at undgå en sådan forudindtagethed og sikre fuld beskyttelse af de grundlæggende rettigheder;

28. er bekymret over risikoen for forudindtagethed og forskelsbehandling i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier; minder om, at de under alle omstændigheder skal overholde EU-retten samt alle menneskerettigheder og respektere den menneskelige værdighed, selvstændighed og uafhængighed og sikre ligebehandling af alle uden forskelsbehandling;

29. understreger, at AI-teknologier bør være designet til at respektere, tjene og beskytte Unionens værdier og fysiske og mentale integritet, fremme Unionens kulturelle og sproglige mangfoldighed og bidrage til at opfylde essentielle behov; understreger nødvendigheden af at undgå enhver anvendelse, der kan føre til uacceptabel direkte eller indirekte tvang, true med at undergrave den psykologiske autonomi og det mentale helbred eller føre til uberettiget overvågning, vildledning eller uacceptabel manipulation;

30. er af den faste overbevisning, at de grundlæggende menneskerettigheder, der er nedfældet i chartret, nøje bør respekteres for at sikre, at disse fremspirende teknologier ikke skaber mangler med hensyn til beskyttelse;

31. bekræfter, at eventuel forudindtagethed og forskelsbehandling i software, algoritmer og data kan forårsage åbenbar skade på individer og på samfundet, og at de derfor bør imødegås ved at opfordre til udvikling og deling af strategier som modvirker disse, f.eks. datasæt, der modvirker forudindtagethed inden for forskning og udvikling, og udvikling af regler for databehandling; mener, at denne tilgang potentielt kan gøre software, algoritmer og data til et aktiv i bekæmpelsen af forudindtagethed og forskelsbehandling i visse situationer og en drivkraft for lige rettigheder og positiv social forandring;

32. fastholder, at de etiske værdier retfærdighed, nøjagtighed, fortrolighed og gennemsigtighed bør ligge til grund for disse teknologier, hvilket i denne sammenhæng betyder, at de skal operere på en måde, så de ikke genererer forudindtagede resultater;

33. understreger vigtigheden af kvaliteten af de datasæt, der anvendes i forbindelse med kunstig intelligens, robotteknologi og relaterede teknologier, afhængigt af deres kontekst, særligt hvad angår den repræsentative karakter af de anvendte læringsdata, af datasæt, der modvirker forudindtagethed, af de anvendte algoritmer og af data- og aggregeringsstandarder; understreger, at disse datasæt bør kunne revideres af de kompetente tilsynsmyndigheder, når de anmodes om at sikre deres overensstemmelse med de tidligere nævnte principper;

34. fremhæver, at AI-teknologier i forbindelse med den udbredte desinformationskrig, der især drives af ikke-europæiske aktører, kan have etisk negative virkninger ved at udnytte forudindtagethed i data og algoritmer eller ved bevidst at ændre læringsdata fra et tredjeland, og at de også risikerer at blive udsat for andre former for farlig, ondsindet manipulation på uforudsigelige måder og med uoverskuelige konsekvenser; der er derfor et stigende behov for, at Unionen fortsætter med at investere i forskning, analyse, innovation og overførsel af viden på tværs af grænser og sektorer med henblik på at udvikle AI-teknologier, som tydeligt vil være uden nogen form for profilering, forudindtagethed og forskelsbehandling, og som effektivt kan bidrage til at bekæmpe falske nyheder og desinformation og samtidig respektere databeskyttelse og Unionens lovgivningsmæssige rammer;

35. minder om, at det er vigtigt at sikre, at individer har adgang til effektive retsmidler, og opfordrer medlemsstaterne til at sikre, at der er tilgængelige, økonomisk overkommelige, uafhængige og effektive procedurer og gennemgangsmekanismer til rådighed for at sikre en upartisk menneskelig gennemgang af alle påstande om krænkelser af borgeres rettigheder som f.eks. forbrugerrettigheder eller borgerlige rettigheder gennem brug af algoritmiske systemer, hvad enten de kan tilskrives aktører i den offentlige eller den private sektor; understreger vigtigheden af udkastet til Europa-Parlamentets og Rådets direktiv om adgang til indbringelse af sager til varetagelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF, som der blev nået politisk enighed om den 22. juni 2020, for så vidt angår fremtidige sager, hvor der gøres indsigelse mod indførelse eller igangværende anvendelse af et AI-system, der indebærer en risiko for krænkelse af forbrugernes rettigheder, eller for at rette op på en krænkelse af rettigheder; anmoder Kommissionen og medlemsstaterne om at sikre, at nationale og europæiske forbrugerorganisationer har tilstrækkelige midler til at hjælpe forbrugerne med at udøve deres ret til adgang til retsmidler i tilfælde, hvor deres rettigheder er blevet krænket;

36. mener derfor, at enhver fysisk eller juridisk person skal kunne søge erstatning i forbindelse med en afgørelse, der er truffet med brug af kunstig intelligens, robotteknologi eller relateret teknologi, til skade for vedkommende og i strid med EU-retten eller national ret;

37. mener, at de nationale tilsynsmyndigheder som et første kontaktpunkt i tilfælde af formodede overtrædelser af EU's lovgivningsmæssige ramme i denne forbindelse ligeledes bør kunne modtage henvendelser fra forbrugere med anmodninger om erstatning med henblik på at sikre en effektiv håndhævelse af ovennævnte ramme;

Social ansvarlighed og ligestilling mellem kønnene

38. understreger, at socialt ansvarlig kunstig intelligens, robotteknologi og relaterede teknologier spiller en rolle med hensyn til at bidrage til at finde løsninger, der sikrer og fremmer grundlæggende rettigheder og værdier i vores samfund såsom demokrati, retsstatsprincippet, forskelligartede og uafhængige medier og objektive og frit tilgængelige oplysninger, sundhed og økonomisk velstand, lige muligheder, arbejdstagerrettigheder og sociale rettigheder, uddannelse af høj kvalitet, beskyttelse af børn, kulturel og sproglig mangfoldighed, ligestilling mellem kønnene, digitale færdigheder, innovation og kreativitet; understreger, at det er nødvendigt at sikre, at der tages tilstrækkeligt hensyn til alle borgeres interesser, også interesser hos personer, der er marginaliserede eller i sårbare situationer såsom personer med handicap, og at disse interesser bliver repræsenteret;

39. understreger, at det er vigtigt at opnå et højt niveau af generelle digitale færdigheder og at uddanne velkvalificerede fagfolk på dette område og sikre gensidig anerkendelse af sådanne kvalifikationer i hele Unionen; understreger, at der er behov for at have forskellige hold af udviklere og ingeniører, der arbejder sammen med samfundets hovedaktører for at forebygge, at kønsskævheder og kulturelle fordomme utilsigtet bliver inkluderet i AI-algoritmer, -systemer og -applikationer; bakker op om udviklingen af undervisningsplaner og oplysningskampagner om de samfundsmæssige, juridiske og etiske konsekvenser af kunstig intelligens;

40. understreger den afgørende betydning af at garantere tanke- og ytringsfriheden, men sikre, at disse teknologier ikke fremmer hadefuld tale eller vold, og anser det således for ulovligt at forhindre eller begrænse udøvelsen af ytringsfrihed digitalt i overensstemmelse med Unionens grundlæggende principper, medmindre udøvelsen af denne grundlæggende ret indebærer ulovlige handlinger;

41. understreger, at kunstig intelligens, robotteknologi og relaterede teknologier kan bidrage til at mindske sociale uligheder og gør gældende, at den europæiske udviklingsmodel skal være baseret på borgernes tillid og større social samhørighed;

42. understreger, at udbredelsen af enhver form for systemer baseret på kunstig intelligens ikke unødigt må begrænse brugernes adgang til offentlige tjenester som f.eks. social sikring; opfordrer derfor Kommissionen til at vurdere, hvordan dette mål kan nås;

43. understreger vigtigheden af ansvarlig forskning og udvikling med henblik på at maksimere det fulde potentiale, der ligger inden for kunstig intelligens, robotteknologi og relaterede teknologier til fordel for borgere og offentligheden; opfordrer Unionen og medlemsstaterne til at mobilisere ressourcer med henblik på udvikling og understøttelse af ansvarlig innovation;

44. understreger, at teknologiske kvalifikationer bliver stadig vigtigere, og at det derfor er nødvendigt løbende at ajourføre uddannelsesudbuddet, specielt for de kommende generationer, og fremme omskolingen af allerede erhvervsaktive personer; fastholder i denne forbindelse, at innovation og uddannelse må fremmes, ikke kun i den private sektor, men også i den offentlige;

45. insisterer på, at udvikling, udbredelse og anvendelse af disse teknologier ikke må forvolde kvæstelser eller skade af nogen art for enkeltpersoner, samfundet eller miljøet, og at udviklere, udbredere og brugere af disse teknologier derfor bør holdes ansvarlige for disse kvæstelser eller denne skade i overensstemmelse med de relevante EU-regler og nationale regler om erstatningsansvar;

46. opfordrer medlemsstaterne til at vurdere, om tab af arbejdspladser som følge af anvendelsen af disse teknologier bør føre til passende offentlige politikker såsom en nedsættelse af arbejdstiden;

47. fastholder, at en designtilgang baseret på Unionens værdier og etiske principper er stærkt påkrævet for at skabe betingelserne for udbredt social accept af kunstig intelligens, robotteknologi og relaterede teknologier; mener, at denne tilgang, der sigter mod at udvikle pålidelig, etisk forsvarlig og teknisk robust kunstig intelligens er en vigtig katalysator for bæredygtig og intelligent mobilitet, der er sikker og tilgængelig;

48. henleder opmærksomheden på den store merværdi, som selvkørende biler giver personer med nedsat bevægelighed, fordi sådanne biler giver dem mulighed for at deltage mere effektivt i den individuelle vejtransport og dermed letter deres dagligdag; understreger betydningen af tilgængelighed, især i forbindelse med udformningen af MaaS‑systemer (mobilitet som en tjenesteydelse);

49. opfordrer Kommissionen til yderligere at støtte udviklingen af pålidelige AI‑systemer for at gøre transport sikrere, mere effektiv, tilgængelig, prismæssigt overkommelig og inklusiv, herunder for personer med nedsat mobilitet, navnlig personer med handicap, idet der tages hensyn til Europa-Parlamentets og Rådets direktiv (EU) 2019/882 om passagerers rettigheder;

50. mener, at AI kan bidrage til en bedre udnyttelse af handicappedes færdigheder og kompetencer, og at anvendelsen af AI på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og højere beskæftigelsesfrekvenser for personer med handicap;

Miljø og bæredygtighed

51. fastslår, at kunstig intelligens, robotteknologi og relaterede teknologier bør anvendes af regeringer og virksomheder til gavn for befolkningen og planeten, bidrage til opnåelse af bæredygtig udvikling, miljøbeskyttelse, klimaneutralitet og mål for den cirkulære økonomi; mener, at udviklingen, udbredelsen og anvendelsen af disse teknologier bør bidrage til den grønne omstilling, være miljøvenlig og minimere og udligne eventuelle skader på miljøet i løbet af deres livscyklus og i hele deres forsyningskæde i overensstemmelse med EU-lovgivningen;

52. i betragtning af den betydelige indvirkning på miljøet, jf. foregående stykke, kan den miljømæssige virkning af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, hvor det er relevant og hensigtsmæssigt, vurderes over hele deres levetid af sektorspecifikke myndigheder; en sådan vurdering kan omfatte et skøn over virkningerne af udvindingen af de nødvendige materialer og det energiforbrug og de drivhusgasemissioner, der er forårsaget af deres udvikling, udbredelse og anvendelse;

53. foreslår, for at få udviklet ansvarlige og banebrydende løsninger med kunstig intelligens, at det potentiale, der ligger i kunstig intelligens, robotteknologi og relaterede teknologier bør udforskes, stimuleres og maksimeres gennem ansvarlig forskning og innovation, der kræver mobilisering af ressourcer fra Unionen og medlemsstaterne;

54. fremhæver, at udviklingen, udbredelsen og anvendelsen af disse teknologier giver muligheder for at fremme verdensmålene for bæredygtig udvikling, som er fastsat af FN, global energiomstilling og dekarbonisering;

55. mener, at målene om social ansvarlighed, ligestilling mellem kønnene, miljøbeskyttelse og bæredygtighed skal være med forbehold for eksisterende generelle og sektionsrelevante forpligtelser inden for disse områder; mener, at der bør fastsættes ikke-bindende gennemførelsesretningslinjer for udviklere, udbredere og brugere, navnlig for så vidt angår højrisikoteknologier, for så vidt angår metoden til vurdering af deres overholdelse af denne forordning og opnåelsen af disse mål;

56. opfordrer Unionen til at fremme og finansiere udviklingen af menneskecentreret kunstig intelligens, robotteknologi og relaterede teknologier, som beskæftiger sig med miljø- og klimamæssige udfordringer, og som sikrer overholdelse af grundlæggende rettigheder gennem brugen af afgifter, udbud og andre incitamenter;

57. understreger, at udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder automatiserede afgørelser og maskinlæring, på trods af det nuværende høje CO2-fodaftryk godt kan bidrage til at mindske IKT-sektorens nuværende miljøaftryk; understreger, at disse og andre behørigt regulerede teknologier bør være vigtige katalysatorer for opfyldelse af målene i den grønne pagt, FN's verdensmål for bæredygtig udvikling og Parisaftalen inden for mange forskellige sektorer og bør fremme virkningerne af politikker, der sikrer miljøbeskyttelse, f.eks. politikker vedrørende affaldsreduktion og miljøforringelse;

58. opfordrer Kommissionen til at foretage en undersøgelse af indvirkningen fra AI-teknologiers CO2-fodaftryk og de positive og negative virkninger af forbrugernes omstilling til brug af AI-teknologi;

59. bemærker, at der bør ses på AI-systemers miljømæssige konsekvenser gennem hele deres livscyklus i betragtning af den stigende udvikling af AI-applikationer, som kræver ressourcer til beregning, lagring og energiforbrug;

60. mener, at ansvaret på bl.a. sundhedsområdet i sidste instans skal påhvile en fysisk eller juridisk person; fremhæver behovet for sporbare og offentligt tilgængelige indlæringsdata til algoritmer;

61. støtter kraftigt Kommissionens forslag om at oprette et europæisk sundhedsdataområde[12], der har til formål at fremme udveksling af sundhedsdata og støtte forskning under fuld hensyntagen til databeskyttelsen, bl.a. i forbindelse med behandling af data ved hjælp af AI-teknologi, og som styrker og udbreder anvendelsen og genanvendelsen af sundhedsdata; opfordrer til at opskalere den grænseoverskridende udveksling af sundhedsdata, og brugen af sådanne date og specifikke former for sundhedsoplysninger såsom elektroniske patientjournaler (EPJ'er), genominformationer og digitale diagnostiske billeder ved brug af sikre og forbundne registre for at fremme udbredelsen af interoperable registre eller databaser inden for bl.a. forsknings-, videnskabs- og sundhedssektorer i hele Unionen;

62. fremhæver fordelene ved AI i forbindelse med forebyggelse, behandling og bekæmpelse af sygdomme, hvilket illustreres ved, at AI varslede covid-19-epidemien før WHO; opfordrer indtrængende Kommissionen til at udstyre ECDC tilstrækkeligt med retlige rammer og ressourcer til uafhængigt og sammen med medlemsstaterne at indsamle de nødvendige anonymiserede overordnede sundhedsoplysninger i realtid, blandt andet for at løse nogle af de problemer, der kom frem i lyset under covid-19-krisen;

Privatlivets fred og biometrisk genkendelse

63. bemærker, at datafremstilling og -brug, herunder personoplysninger såsom biometriske data, der er resultatet af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, er hastigt stigende, hvilket understreger behovet for at respektere borgernes ret til privatlivets fred og beskyttelse af personoplysninger i overensstemmelse med EU-retten;

64. påpeger, at den mulighed, som disse teknologier giver for at anvende data af personlig og ikkepersonlig karakter til at kategorisere personer og mikromålrette indhold til dem, identificere enkeltpersoners sårbarheder eller udnytte præcis, forudsigelsesbaseret viden om dem, skal modvejes af effektiv håndhævelse af principperne om data- og privatlivsbeskyttelse, herunder princippet om dataminimering, retten til at gøre indsigelse mod profilering og til at have kontrol over egne data, retten til at få en forklaring på en afgørelse baseret på automatiseret behandling og databeskyttelse gennem design samt principperne om proportionalitet, nødvendighed og begrænsning i forhold til et præcist defineret formål i overensstemmelse med den generelle forordning om databeskyttelse;

65. understreger, at anvendelse af fjerngenkendelsesteknologier, f.eks. genkendelse af biometriske træk, særligt ansigtsgenkendelse, fra offentlige myndigheders side til væsentlige formål af almen interesse altid bør være åbenlys, forholdsmæssig, målrettet og begrænset til specifikke mål, tidsbegrænset og udført i henhold til EU-lovgivningen og tage behørigt hensyn til den menneskelige værdighed og selvstændighed samt de grundlæggende rettigheder som fastsat i chartret; mener, at kriterierne og begrænsningerne for den pågældende anvendelse bør underlagt domstolskontrol og demokratisk kontrol og skal tage hensyn til den psykologiske og sociokulturelle indvirkning på civilsamfundet.

66. påpeger, at anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i forbindelse med myndighedsbeslutninger ganske vist har fordele, men at den kan resultere i betydeligt misbrug, f.eks. masseovervågning, forudsigende politiarbejde og krænkelser af retten til en retfærdig rettergang;

67. mener, at teknologier, der kan træffe automatiserede afgørelser, der således erstatter afgørelser truffet af offentlige myndigheder, skal håndteres med størst mulig forsigtighed, inden for retspleje og retshåndhævelse;

68. mener, at medlemsstater kun bør anvende sådanne teknologier, hvis der er tilstrækkelig evidens af disses pålidelighed, og hvis der er mulighed for menneskelig indgriben eller verificering eller systematisk verificering, hvis der er tale om grundlæggende frihedsrettigheder; understreger vigtigheden af, at nationale myndigheder udfører strenge konsekvensanalyser for grundlæggende rettigheder i forbindelse med systemer baseret på kunstig intelligens, der anvendes i disse sager, navnlig i tilfælde, hvor disse teknologier vurderes som højrisikobetonede;

69. har den holdning, at enhver afgørelse, der træffes af kunstig intelligens, robotteknologi eller relaterede teknologier i offentlige myndigheders regi, skal give mulighed for meningsfuld menneskelig indgriben og retfærdig proces, navnlig i tilfælde, hvor disse teknologier vurderes som højrisikobetonede;

70. mener, at den teknologiske udvikling ikke bør føre til, at der anvendes kunstig intelligens, robotteknologi og relaterede teknologier til selvstændigt at træffe afgørelser i den offentlige sektor, som har en direkte og væsentlig indvirkning på borgernes rettigheder og pligter;

71. bemærker, at AI, robotteknologi og relaterede teknologier inden for retshåndhævelse og grænsekontrol kan øge den offentlige sikkerhed, men også kræver omfattende og streng offentlig kontrol og den størst mulige grad af gennemsigtighed med hensyn til såvel risikovurderingen af individuelle applikationer som den generelle anvendelse af AI, robotteknologi og relaterede teknologier på området for retshåndhævelse og grænsekontrol; mener, at disse teknologier er forbundet med betydelige etiske risici, der skal imødegås på passende vis under hensyntagen til de mulige negative konsekvenser for enkeltpersoner, navnlig for deres ret til privatlivets fred, databeskyttelse og ikke-forskelsbehandling; understreger, at misbrug af disse teknologier kan blive en direkte trussel mod demokratiet, og at indførelsen og anvendelsen heraf skal overholde principperne om proportionalitet og nødvendighed, chartret om grundlæggende rettigheder samt den relevante afledte EU-ret, såsom databeskyttelsesregler; understreger, at AI aldrig bør erstatte mennesker i afsigelse af domme; mener, at afgørelser om eksempelvis løsladelse mod kaution eller prøveløsladelse med afhøring i en retssal eller afgørelser, der udelukkende er baseret på automatisk behandling og som har retsvirkning for enkeltpersoner eller berører dem i væsentlig grad, altid skal omfatte en meningsfuld vurdering og bedømmelse foretaget af et menneske;

God forvaltningspraksis

72. understreger, at hensigtsmæssig forvaltning af udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, navnlig højrisikoteknologier, gennem indførelse af foranstaltninger med fokus på ansvarlighed og håndtering af potentielle risici for forudindtagethed og forskelsbehandling, kan øge borgernes sikkerhed og tillid til disse teknologier;

73. mener, at en fælles ramme til styring af disse teknologier, som koordineres af Kommissionen og/eller andre relevante institutioner, organer, kontorer eller agenturer, der måtte være udpeget til denne opgave i det konkrete tilfælde, og som skal gennemføres af nationale tilsynsmyndigheder i den enkelte medlemsstat, ville sikre en sammenhængende europæisk tilgang og forhindre fragmentering af det indre marked;

74. bemærker, at der anvendes data i store mængder inden for udvikling af kunstig intelligens, robotteknologi og relaterede teknologier, og at behandling, deling af, adgang til og brug af sådanne data skal ske i overensstemmelse med loven og de krav om kvalitet, integritet, interoperabilitet, gennemsigtighed, sikkerhed, privatlivets fred og kontrol, som er fastsat deri;

75. minder om, at adgang til data er en vigtig komponent i den digitale økonomis vækst; påpeger i denne sammenhæng, at datainteroperabilitet ved at begrænse lock-in-effekter, spiller en vigtig rolle, hvis man vil sikre retfærdige markedsbetingelser og fremme et retfærdigt digitalt indre marked;

76. understreger, at der er behov for at sikre, at persondata beskyttes tilstrækkeligt, særligt data, der omhandler eller tilhører sårbare grupper såsom personer med handicap, patienter, børn, ældre, minoriteter, migranter og andre grupper, der er i risiko for eksklusion;

77. bemærker, at offentlige myndigheders udvikling, udbredelse og brug af kunstig intelligens, robotteknologi og relaterede teknologier ofte outsources til private parter; mener, at dette ikke bør kompromittere beskyttelsen af offentlige værdier og grundlæggende rettigheder på nogen måde; mener, at vilkår og betingelser for offentlige udbud bør afspejle de etiske standarder, der pålægges offentlige myndigheder, hvor dette er relevant;

Forbrugere og det indre marked

78. understreger, at det er vigtigt, at en lovgivningsmæssig ramme for AI finder anvendelse, når forbrugere i Unionen er brugere af, bliver genstand for, underlagt, udsat for eller styret mod et algoritmisk system, uanset hvor de enheder, der udvikler, sælger eller anvender systemet, er etableret; mener desuden, at de fastsatte regler i en sådan ramme af hensyn til retssikkerheden bør finde anvendelse på alle udviklere og i hele værdikæden, nemlig udvikling, udbredelse og anvendelse af de relevante teknologier og komponenter hertil, og bør garantere et højt niveau af forbrugerbeskyttelse;

79. bemærker den iboende forbindelse mellem kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, og områder som tingenes internet, maskindlæring, regelbaserede systemer eller automatiserede og assisterede beslutningsprocesser; bemærker desuden, at der bør udvikles standardiserede ikoner til at forklare disse systemer for forbrugerne, når disse systemer er karakteriseret ved kompleksitet eller i stand til at træffe afgørelser, der har en betydelig indvirkning på forbrugernes liv;

80. minder om, at Kommissionen bør undersøge den eksisterende lovgivningsmæssige ramme og dens anvendelse, herunder gældende forbrugerlovgivning, produktansvarslovgivning, produktsikkerhedslovgivning og markedsovervågningslovgivning med henblik på at identificere huller i lovgivningen samt eksisterende lovgivningsmæssige forpligtelser; mener, at dette er nødvendigt for at fastslå, om den er i stand til at reagere på de nye udfordringer, der opstår med fremkomsten af kunstig intelligens, robotteknologi og relaterede teknologier, og om den er i stand til at sikre et højt niveau af forbrugerbeskyttelse;

81. understreger, at det er nødvendigt effektivt at tackle de udfordringer, som kunstig intelligens, robotteknologi og relaterede teknologier giver anledning til, og sikre, at forbrugerne får indflydelse og beskyttes behørigt; understreger, at det er nødvendigt at se ud over de traditionelle principper om information og offentliggørelse, som ligger til grund for forbrugerlovgivningen, da der vil være brug for stærkere forbrugerrettigheder og klare grænser for udviklingen og brugen af kunstig intelligens, robotteknologi og relaterede teknologier for at sikre, at teknologien bidrager til at forbedre forbrugernes liv og udvikler sig på en måde, der respekterer de grundlæggende rettigheder og forbrugerrettighederne samt Unionens værdier;

82. påpeger, at det regelsæt, der blev indført med afgørelse nr. 768/2008/EF, fastsætter en harmoniseret liste over forpligtelser for producenter, importører og distributører, tilskynder til brug af standarder og fastsætter flere kontrolniveauer afhængigt af produktets farlighed; mener, at denne ramme også bør finde anvendelse på produkter med indbygget AI;

83. bemærker, at adgang til data med henblik på at analysere virkningerne af kunstig intelligens, robotteknologi og relaterede teknologier på forbrugerne kan udvides til at omfatte nationale kompetente myndigheder, når dette sker under fuld overholdelse af EU-retten såsom den, der vedrører databeskyttelse, privatlivets fred og forretningshemmeligheder; minder om, at forbrugerne har brug for uddannelse for at kunne håndtere kunstig intelligens, robotteknologi og relaterede teknologier på en mere informeret og kvalificeret måde, for at beskytte dem mod potentielle risici og for at beskytte deres rettigheder;

84. opfordrer Kommissionen til at foreslå foranstaltninger til sporbarhed af data under hensyntagen til både lovligheden af dataindsamling og beskyttelse af forbrugerrettigheder og grundlæggende rettigheder under fuld overholdelse af EU-retten såsom den, der vedrører databeskyttelse, privatlivets fred og forretningshemmeligheder;

85. bemærker, at disse teknologier bør være brugercentrerede og udformet på en måde, der gør det muligt for alle at bruge AI-produkter eller -tjenesteydelser, uanset alder, køn, evner eller egenskaber; bemærker, at deres tilgængelighed for personer med handicap er af særlig betydning; bemærker, at der ikke bør anvendes en standardtilgang, og at der bør tages højde for principperne om design for alle, der henvender sig til den bredest mulige brugergruppe og følger relevante standarder for tilgængelighed; understreger, at dette vil gøre det muligt for den enkelte at få lige adgang til og deltage aktivt i eksisterende og nye computerformidlede menneskelige aktiviteter og hjælpeteknologier;

86. understreger, at hvis midler fra offentlige kilder sammen med standarder for offentlige udbudsprocedurer og kontrakter betydeligt bidrager til udbredelse eller anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, kan det overvejes at lade koden, de genererede data – for så vidt som det ikke drejer sig om personoplysninger – og den afprøvede model automatisk være offentligt tilgængelige som standard efter aftale med udvikleren for at sikre gennemsigtighed, øge cybersikkerheden og muliggøre genbrug for at fremme innovation; understreger, at det indre markeds fulde potentiale dermed kan udnyttes, uden at der opstår markedsfragmentering;

87.  mener, at AI, robotteknologi og relaterede teknologier har enormt potentiale til at skabe muligheder for, at forbrugere kan få adgang til en lang række faciliteter inden for mange aspekter af deres liv samt bedre varer og tjenesteydelser og få gavn af bedre markedsovervågning, så længe de gældende principper, betingelser, herunder gennemsigtighed og mulighed for revision, og forskrifter fortsat finder anvendelse;

Sikkerhed og forsvar

88. fremhæver, at Den Europæiske Unions og dens medlemsstaters sikkerheds- og forsvarspolitik styres af principperne i Den Europæiske Unions charter om grundlæggende rettigheder og FN-pagten og af en fælles forståelse af de universelle værdier: respekt for det enkelte menneskes ukrænkelige og umistelige rettigheder, menneskelig værdighed samt frihed, demokrati, lighed og retsstaten; understreger, at alle forsvarsrelaterede bestræbelser inden for Unionens ramme skal respektere disse universelle værdier og samtidig fremme fred, sikkerhed og fremskridt i Europa og i verden;

89. glæder sig over godkendelsen på 2019-mødet mellem høje kontraherende parter i FN's konvention om visse konventionelle våben (CCW) af 11 vejledende principper for udvikling og anvendelse af autonome våbensystemer; beklager imidlertid, at der ikke er opnået enighed om et juridisk bindende instrument til regulering af dødbringende automatvåben med en effektiv håndhævelsesmekanisme; glæder sig over og støtter dokumentet "Etiske retningslinjer for pålidelig kunstig intelligens" fra Kommissionens Ekspertgruppe på Højt Niveau om Kunstig Intelligens, der blev offentliggjort den 9. april 2019, og dens holdning til dødbringende autonome våbensystemer; opfordrer indtrængende medlemsstaterne til at udvikle nationale strategier for definition af og status for dødbringende autonome våbensystemer hen imod en omfattende strategi på EU-plan og til sammen med Unionens højtstående repræsentant/næstformanden i Kommissionen ("HR/NF") og Rådet at fremme drøftelserne om dødbringende autonome våbensystemer i FN's CCW-ramme og andre relevante fora og indførelsen af internationale normer vedrørende de etiske og juridiske parametre for udvikling og anvendelse af fuld- og halvautonome og fjernstyrede dødbringende våbensystemer; minder i denne forbindelse om sin beslutning om autonome våbensystemer af 12. september 2018 og opfordrer endnu en gang til en hurtig udvikling og vedtagelse af en fælles holdning om dødbringende autonome våbensystemer, til et internationalt forbud mod udvikling, fremstilling og anvendelse af dødbringende autonome våbensystemer, der gør det muligt at udføre angreb uden meningsfuld menneskelig kontrol og uden respekt for princippet om menneskelig medvirken i overensstemmelse med erklæringen fra verdens mest fremtrædende AI-forskere i deres åbne brev fra 2015; glæder sig over, at Rådet og Parlamentet er blevet enige om at udelukke dødbringende autonome våben, "der ikke giver mulighed for en meningsfuld menneskelig kontrol over beslutningerne angående udvælgelse og angreb i forbindelse med gennemførelse af angreb" fra foranstaltninger, der finansieres under Den Europæiske Forsvarsfond; mener, at der ikke må ses bort fra etiske aspekter af AI-applikationer på forsvarsområdet, f.eks. efterretning, overvågning og rekognoscering eller cyberoperationer, og at der skal lægges særlig vægt på udvikling og anvendelse af droner i militære operationer;

90. understreger, at nye teknologier inden for forsvars- og sikkerhedssektoren, som ikke er omfattet af folkeretten, bør vurderes under hensyntagen til princippet om respekt for menneskeheden og de offentlige samvittighedsbud;

91. anbefaler, at enhver europæisk ramme, der regulerer anvendelsen af AI-baserede systemer inden for forsvaret, både i og uden for kamphandlinger, skal overholde alle gældende retlige ordninger, navnlig den humanitære folkeret og den internationale menneskerettighedslovgivning, og være i overensstemmelse med EU-retten og EU's principper og værdier, under hensyntagen til forskellene i tekniske og sikkerhedsmæssige infrastrukturer i hele Unionen;

92. anerkender, at kritiske AI-innovationer i modsætning til forsvarsindustrielle baser kunne komme fra små medlemsstater, og derfor bør en FSFP-standardiseret tilgang sikre, at mindre medlemsstater og SMV'er ikke fortrænges; understreger, at et sæt fælles EU-AI-kapaciteter, der matches med en medlemsstats driftskoncepter, kan afhjælpe de tekniske mangler, der kan efterlade stater uden den relevante teknologi, ekspertise inden for industrien eller evnen til at implementere AI-systemer i deres forsvarsministerier;

93. mener, at nuværende og fremtidige sikkerheds- og forsvarsrelaterede aktiviteter inden for Unionens ramme vil trække på AI, robotteknologi og autonomi samt relaterede teknologier, og at pålidelig og robust kunstig intelligens kan bidrage til et moderne og effektivt militær; mener, at EU derfor må indtage en førende rolle inden for forskning i og udvikling af AI-systemer på sikkerheds- og forsvarsområdet; mener, at anvendelsen af AI-baserede sikkerheds- og forsvarsapplikationer kan give en række direkte fordele for den øverstbefalende for en operation, såsom indsamlede data af højere kvalitet, større situationskendskab, øget hastighed for beslutningstagning, reduceret risiko for indirekte skader takket være bedre kabelføring, beskyttelse af styrker på stedet samt større pålidelighed af militært udstyr og dermed reduceret risiko for mennesker og tab af menneskeliv; understreger, at udviklingen af pålidelig AI på forsvarsområdet er af afgørende betydning for at sikre europæisk strategisk uafhængighed inden for de kapacitetsmæssige og operationelle områder; minder om, at AI-systemer også er ved at blive centrale elementer i bekæmpelsen af nye sikkerhedstrusler såsom cyberkrigsførelse og hybrid krigsførelse, både i online- og offlinesfærer; understreger samtidig alle risici og udfordringer i forbindelse med ureguleret anvendelse af AI; bemærker, at AI kan blive udsat for manipulation, fejl og unøjagtigheder;

94. understreger, at AI-teknologier i det væsentlige har dobbelt anvendelse, og at udviklingen af kunstig intelligens i forbindelse med forsvarsrelaterede aktiviteter drager fordel af udvekslinger mellem militære og civile teknologier; fremhæver, at AI i forbindelse med forsvarsrelaterede aktiviteter er en tværgående, disruptiv teknologi, hvis udvikling kan skabe muligheder for Unionens konkurrenceevne og strategiske autonomi;

95. anerkender, at i en tid med hybrid og avanceret krigsførelse kan mængden og hastigheden af oplysninger under de tidlige faser af en krise være overvældende for menneskelige analytikere, og at et AI-system kan behandle oplysningerne for at sikre, at de menneskelige beslutningstagere følger det fulde spektrum af information inden for en passende tidsramme for en hurtig indsats;

96. understreger betydningen af at investere i udvikling af menneskelig kapital til kunstig intelligens, fremme de nødvendige færdigheder og den nødvendige uddannelse inden for AI-teknologier på sikkerheds- og forsvarsområdet med særlig fokus på etik i forbindelse med halvautonome og autonome operationelle systemer, der er baseret på menneskelig ansvarlighed i en AI-baseret verden; understreger især, at det er vigtigt at sikre, at etikere på dette område har de rette kvalifikationer og modtager en passende uddannelse; opfordrer Kommissionen til snarest muligt at fremlægge sin "optrapning af dagsordenen for færdigheder", der blev bebudet i hvidbogen om kunstig intelligens den 19. februar 2020;

97. understreger, at kvantedatabehandling kan være den mest revolutionerende forandring i konflikter siden indførelsen af atomvåben, og opfordrer derfor indtrængende til, at den videre udvikling af kvantecomputerteknologier prioriteres højt af Unionen og medlemsstaterne; anerkender, at angrebshandlinger, herunder angreb på kritisk infrastruktur, hvortil der ydes kvantedatabehandling, vil skabe et konfliktmiljø, hvor fristen for at træffe beslutninger vil blive presset drastisk fra dage og timer til minutter og sekunder, hvilket vil tvinge medlemsstaterne til at udvikle kapaciteter, der beskytter sig selv, og uddanne både beslutningstagere og militært personale til at reagere effektivt inden for disse tidsrammer;

98. opfordrer til øgede investeringer i europæisk AI på forsvarsområdet og i den kritiske infrastruktur, som understøtter det;

99. minder om, at størstedelen af de nuværende militære magter på verdensplan allerede har været involveret i betydelige F&U-tiltag i forbindelse med den militære dimension af AI; mener, at Unionen må sørge for, at den ikke sakker agterud i denne henseende;

100. opfordrer Kommissionen til at indarbejde kapacitetsopbygning inden for cybersikkerhed i sin industripolitik for at sikre udvikling og udbredelse af sikre, modstandsdygtige og robuste AI-baserede og robotteknologiske systemer; opfordrer Kommissionen til at undersøge brugen af blockchainbaserede cybersikkerhedsprotokoller og -applikationer for at forbedre modstandsdygtigheden, pålideligheden og robustheden ved samt tilliden til AI-infrastrukturer gennem ikkeregistrerede modeller for datakryptering; opfordrer europæiske interessenter til at forske i og udvikle avancerede funktioner, der kan lette afsløringen af korrupte og ondsindede AI-baserede og robotteknologiske systemer, som kan undergrave sikkerheden for Unionen og borgerne;

101. understreger, at alle AI-systemer på forsvarsområdet skal have en konkret og veldefineret ramme for missionen, således at mennesker bevarer magten til at opdage og udskille eller deaktivere anvendte systemer, hvis de bevæger sig ud over den ramme for missionen, der er defineret og tildelt af en menneskelig øverstbefalende, eller foretager en eskalerende eller utilsigtet handling; mener, at systemer, produkter og teknologi, der er baseret på AI, og som er beregnet til militær anvendelse, bør forsynes med en "sort boks" til registrering af enhver datatransaktion udført af maskinen;

102. understreger, at hele ansvaret for beslutningen om at udforme, udvikle, anvende og benytte AI-systemer skal påhvile menneskelige operatører, da der skal være en meningsfuld menneskelig overvågning og kontrol af ethvert våbensystem og menneskelig hensigt i beslutningen om at anvende magt i forbindelse med gennemførelsen af enhver afgørelse om AI-baserede våbensystemer, der kan have dødelige konsekvenser; understreger, at den menneskelige kontrol fortsat bør være effektiv til kommando over og kontrol af AI-baserede systemer, i overensstemmelse med principperne for menneskelig medvirken, menneskelig overvågning og menneskelig kontrol på det militære ledelsesniveau; understreger, at AI-baserede systemer skal give hæres militære lederskab mulighed for at påtage sig det fulde ansvar for brugen af dødbringende magtmidler og udøve den grad af vurdering, der er nødvendig for at begå dødbringende eller storstilede destruktive handlinger gennem sådanne systemer, og som ikke kan overlades til maskiner, da en sådan vurdering skal være baseret på sondring, proportionalitet og forsigtighed; understreger behovet for at etablere klare og sporbare tilladelses- og ansvarlighedsrammer for indførelsen af intelligente våben og andre AI-baserede systemer ved hjælp af unikke brugerkarakteristika såsom biometriske specifikationer, der udelukkende giver autoriseret personale mulighed for at anvende dem;

Transport

103. fremhæver potentialet ved at anvende kunstig intelligens, robotteknologi og relaterede teknologier til alle selvkørende transportmidler til vej-, jernbane-, vandvejs- og lufttransport og også til at fremme trafikoverflytning og intermodalitet, eftersom sådanne teknologier kan bidrage til at finde den optimale kombination af transportformer til transport af gods og passagerer; understreger endvidere deres potentiale til at gøre transport, logistik og trafikstrømme mere effektive og gøre alle transportformer sikrere, mere intelligente og mere miljøvenlige; påpeger, at en etisk tilgang til AI også kan ses som et system for tidlig varsling, navnlig for så vidt angår transportsikkerhed og ‑effektivitet;

104. fremhæver, at den globale konkurrence mellem virksomheder og økonomiske regioner betyder, at Unionen er nødt til at fremme investeringer og styrke transportvirksomheders internationale konkurrenceevne ved at skabe et gunstigt miljø for udvikling og anvendelse af AI‑løsninger og andre innovationer, hvor EU-baserede virksomheder kan blive førende på verdensplan inden for udvikling af AI-teknologier;

105. understreger, at Unionens transportsektor har behov for en ajourføring af den reguleringsmæssige ramme for sådanne fremspirende teknologier og anvendelsen heraf i transportsektoren og en klar etisk ramme for opnåelsen af pålidelig AI, der omfatter sikkerhed, respekt for den menneskelige autonomi, tilsyn og ansvarsspørgsmål, hvilket vil øge de fordele, der er fælles for alle, og være afgørende for at fremme investeringer i forskning og innovation, udvikling af færdigheder og udbredelse af AI i offentlige tjenesteydelser, SMV'er, nystartede virksomheder og andre virksomheder, idet der samtidig sikres databeskyttelse og interoperabilitet, uden at virksomheder og forbrugere pålægges unødige administrative byrder;

106. bemærker, at udviklingen og indførelsen af AI i transportsektoren ikke er mulig uden en moderne infrastruktur, som er en vigtig del af intelligente transportsystemer; understreger, at de vedvarende forskelle i udviklingsniveauet mellem medlemsstaterne skaber en risiko for, at de mindst udviklede regioner og deres indbyggere ikke opnår de fordele, der følger af udviklingen af autonom mobilitet; opfordrer til, at moderniseringen af transportinfrastrukturen i Unionen, herunder integrationen heraf i 5G-netværket, finansieres tilstrækkeligt;

107. henstiller, at der udvikles EU-dækkende etiske standarder for alle transportformer, herunder bilindustrien, vedrørende sikkerhed, teknisk robusthed, privatlivets fred og gennemsigtighed og for testning af AI-baserede køretøjer samt relaterede produkter og tjenesteydelser;

108. bemærker, at AI‑systemer kan bidrage til at reducere antallet af trafikdræbte markant, f.eks. gennem bedre reaktionstider og bedre overholdelse af reglerne; mener imidlertid, at anvendelsen af selvkørende køretøjer umuligt kan føre til, at der ikke sker nogen ulykker, og understreger, at dette i stigende grad gør det vigtigt, at beslutninger om AI kan forklares, således at deres mangler og utilsigtede konsekvenser kan begrundes;

Beskæftigelse, arbejdstagerrettigheder, digitale færdigheder og arbejdspladsen

109. bemærker, at anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og indvirke på sundheden og sikkerheden på arbejdspladsen, samtidig med at det også kan anvendes til at overvåge, evaluere, forudsige og guide arbejdstagernes præstationer med direkte og indirekte konsekvenser for deres karriere; mener, at AI bør have en positiv indvirkning på arbejdsvilkårene og være styret af respekt for menneskerettighederne og Unionens grundlæggende rettigheder og værdier; påpeger, at AI bør være menneskecentreret, styrke folks trivsel og velfærdssamfundet og bidrage til en fair og retfærdig omstilling; mener, at sådanne teknologier derfor bør have en positiv indvirkning på arbejdsvilkårene og være styret af respekt for menneskerettighederne og Unionens grundlæggende rettigheder og værdier;

110. fremhæver behovet for kompetenceudvikling gennem uddannelse og information af arbejdstagere og deres repræsentanter med hensyn til AI på arbejdspladsen for bedre at forstå konsekvenserne af AI-løsninger; understreger, at ansøgere og arbejdstagere i forbindelse med ansættelsesprocedurer og andre HR-beslutninger, hvor der anvendes AI, skriftligt bør informeres behørigt herom, herunder om, hvordan der i givet fald kan anmodes om, at et menneske gennemgår sagen med henblik på at omgøre en automatisk afgørelse;

111. understreger, at det er nødvendigt at sikre, at produktivitetsgevinster som følge af udviklingen og anvendelsen af AI og robotteknologi ikke kun kommer virksomhedsejere og aktionærer til gode, men også gavner virksomheder og ansatte via en forbedring af arbejds- og beskæftigelsesforhold, herunder med hensyn til løn, økonomisk vækst og udvikling, og endvidere er til fordel for samfundet som helhed, navnlig når sådanne gevinster opnås på bekostning af arbejdspladser; opfordrer medlemsstaterne til nøje at undersøge den potentielle indvirkning af AI på arbejdsmarkedet og de sociale sikringsordninger og til at udvikle strategier til sikring af langsigtet stabilitet ved at reformere skatter og bidrag samt andre foranstaltninger i tilfælde af, at staten får færre indtægter;

112. understreger betydningen af virksomheders investeringer i formel og uformel uddannelse samt livslang læring for at sikre en retfærdig omstilling til den digitale økonomi; fremhæver i denne forbindelse, at de virksomheder, der anvender AI, har ansvaret for at sikre passende omskoling og opkvalificering af alle berørte ansatte, således at de kan lære at anvende digitale værktøjer og arbejde med cobotter og andre nye teknologier og dermed tilpasse sig arbejdsmarkedets skiftende behov og forblive i beskæftigelse;

113. mener, at der bør lægges særlig vægt på nye former for arbejde, såsom gig- og platformsarbejde, der er resultatet af anvendelsen af nye teknologier i denne forbindelse; understreger at reguleringen af vilkårene for telearbejde i hele Unionen og sikringen af anstændige arbejds- og ansættelsesvilkår i den digitale økonomi ligeledes skal tage højde for virkningen af AI; opfordrer Kommissionen til at høre arbejdsmarkedets parter, AI-udviklere, forskere og andre interessenter i denne henseende;

114. understreger, at kunstig intelligens, robotteknologi og relaterede teknologier på ingen måde må påvirke udøvelsen af de grundlæggende rettigheder, der anerkendes i medlemsstaterne og på EU-plan, herunder retten eller friheden til at strejke eller gribe til andre aktioner, der er omfattet af de specifikke arbejdsmarkedsordninger i medlemsstaterne i overensstemmelse med national lovgivning og/eller praksis, eller påvirke retten til at forhandle, indgå og håndhæve kollektive overenskomster eller til at tage kollektive skridt i overensstemmelse med national lovgivning og/eller praksis;

115. minder om betydningen af uddannelse og vedvarende læring for at udvikle de kvalifikationer, der er nødvendige i den digitale tidsalder, og for at imødegå digital udstødelse; opfordrer medlemsstaterne til at investere i velfungerende og inkluderende systemer af høj kvalitet for almen og erhvervsrettet uddannelse og livslang læring samt politikker for omskoling og opkvalificering for arbejdstagere i sektorer, der potentielt kan rammes hårdt af AI; fremhæver behovet for at sikre den nuværende og fremtidige arbejdsstyrke de nødvendige læse-, skrive- og regnefærdigheder samt digitale færdigheder og kompetencer inden for naturvidenskab, teknologi, ingeniørvirksomhed og matematik (STEM) og tværgående bløde færdigheder såsom kritisk tænkning, kreativitet og iværksætterånd; understreger, at der bør lægges særlig vægt på at inddrage dårligt stillede grupper i denne henseende;

116. minder om, at kunstig intelligens, robotteknologi og relaterede teknologier, som anvendes på arbejdspladsen, skal være tilgængelige for alle og bygge på princippet om design for alle;

Uddannelse og kultur

117. understreger, at det er nødvendigt at udvikle kriterier for udviklingen, udbredelsen og anvendelsen af AI i betragtning af dens indvirkning på uddannelse, medier, ungdom, forskning, sport og de kulturelle og kreative sektorer ved at udvikle benchmarks og fastlægge principper for etisk ansvarlige og acceptable anvendelser af AI-teknologier, der kan anvendes korrekt på disse områder, herunder en klar ansvarsordning vedrørende produkter, der stammer fra anvendelsen af AI;

118. bemærker, at ikke alle børn nyder godt af retten til offentlig undervisning af god kvalitet på alle niveauer; opfordrer derfor til udvikling, udbredelse og anvendelse af AI-systemer af god kvalitet, der letter brugen af og yder undervisningsværktøjer af god kvalitet for alle på alle niveauer, og understreger, at udbredelsen af nye AI-systemer i skoler ikke bør føre til, at der skabes en bredere digital kløft i samfundet; erkender det enorme potentielle bidrag, som AI og robotteknologi kan yde til uddannelse; bemærker, at AI-personaliserede læringssystemer ikke bør erstatte uddannelsesforhold, der involverer lærere, og at de traditionelle uddannelsesformer ikke bør glemmes, og påpeger samtidig, at økonomisk, teknologisk og uddannelsesmæssig støtte, herunder specialiseret uddannelse i informations- og kommunikationsteknologi, skal stilles til rådighed for lærere, der ønsker at tilegne sig passende færdigheder med henblik på at tilpasse sig de teknologiske forandringer og ikke kun udnytte AI's potentiale, men også forstå dens begrænsninger; opfordrer til, at der udarbejdes en strategi på EU-plan med henblik på at bidrage til at omdanne og opdatere vores uddannelsessystemer, forberede uddannelsesinstitutionerne på alle niveauer og udstyre lærere og elever med de nødvendige færdigheder og den nødvendige viden;

119. understreger, at uddannelsesinstitutioner bør sigte mod at anvende AI-systemer til uddannelsesformål, som har fået et europæisk certifikat for overholdelse af etiske principper;

120. understreger, at de muligheder, som digitaliseringen og de nye teknologier giver, ikke må føre til et generelt tab af arbejdspladser i de kulturelle og kreative sektorer, til tilsidesættelse af bevarelsen af originaler eller til bagatellisering af den traditionelle adgang til kulturarven, som ligeledes bør fremmes; bemærker, at de AI-systemer, der udvikles, udbredes og anvendes i EU, bør afspejle Unionens kulturelle mangfoldighed og flersprogethed;

121. anerkender AI's voksende potentiale inden for information, medier og onlineplatforme, herunder som et værktøj til at bekæmpe desinformation i overensstemmelse med EU-retten; understreger, at AI, såfremt der ikke sker en regulering af området, kan medføre etisk negative virkninger på grund af udnyttelsen af forudindtagethed i data og algoritmer, hvilket kan føre til spredning af desinformation og skabe informationsbobler; understreger betydningen af gennemsigtighed og ansvarlighed i forbindelse med algoritmer, der anvendes af videodelingsplatforme og streamingplatforme, med henblik på at sikre adgang til kulturelt og sprogligt mangfoldigt indhold;

Nationale tilsynsmyndigheder

122. bemærker merværdien af at have udpegede nationale tilsynsmyndigheder i hver medlemsstat med ansvar for at sikre, vurdere og overvåge overholdelsen af retlige forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, som dermed bidrager til, at disse teknologier overholder lovgivningen og etiske principper;

123. mener, at det må kræves, at disse myndigheder skal samarbejde med de myndigheder, som er ansvarlige for at implementere sektorbaseret lovgivning, uden at deres arbejde overlapper hinanden, med henblik på at udpege teknologier, der anses for at være forbundet med høj risiko ud fra et etisk perspektiv, og overvåge gennemførelsen af påkrævede og passende foranstaltninger i tilfælde, hvor sådanne teknologier påvises;

124. anfører, at disse myndigheder bør samarbejde ikke blot indbyrdes, men også med Europa-Kommissionen og andre relevante EU-institutioner, -organer, -kontorer og -agenturer for at sikre en sammenhængende grænseoverskridende indsats;

125. foreslår, at der i forbindelse med et sådant samarbejde udarbejdes fælles kriterier og en ansøgningsproces for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder efter anmodning fra enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere den positive vurdering af overholdelsen, der udføres af den respektive nationale tilsynsmyndighed;

126. opfordrer til, at disse myndigheder får til opgave at fremme regelmæssige udvekslinger med civilsamfundet og innovation i Unionen ved at yde bistand til forskere, udviklere og andre relevante interessenter samt virksomheder, som ikke er så langt på det digitale område, navnlig små og mellemstore virksomheder eller nystartede virksomheder, navnlig med hensyn til at skabe opmærksomhed omkring og støtte udvikling, udbredelse, uddannelse og talentdyrking for at sikre effektiv overdragelse af teknologi og adgang til teknologier, projekter, resultater og netværk;

127. opfordrer til, at hver medlemsstat afsætter tilstrækkelige midler til deres udpegede nationale tilsynsmyndigheder, og understreger, at det er nødvendigt at styrke de nationale markedsovervågningsmyndigheder med hensyn til kapacitet, færdigheder og kompetencer samt viden om de specifikke risici, der er forbundet med kunstig intelligens, robotteknologi og relaterede teknologier;

Koordinering på EU-plan

128. understreger betydningen af koordinering på EU-plan, der udføres af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, for at undgå fragmentering og sikre en harmoniseret tilgang i hele Unionen; mener, at koordineringen bør fokusere på de nationale tilsynsmyndigheders mandater og foranstaltninger i hver medlemsstat som omhandlet i det foregående underafsnit samt på udveksling af bedste praksis mellem disse myndigheder og bidrag til samarbejdet om forskning og udvikling på området i hele Unionen; opfordrer Kommissionen til at vurdere og finde den mest hensigtsmæssige løsning til at strukturere denne koordinering; eksempler på relevante eksisterende EU-institutioner, -organer, -kontorer og -agenturer er ENISA, Den Europæiske Tilsynsførende for Databeskyttelse og Den Europæiske Ombudsmand;

129. mener, at en sådan koordinering såvel som en europæisk certificering af overholdelse af etiske principper ikke blot vil gavne udviklingen af Unionens industri og innovation i denne sammenhæng, men også øge borgernes bevidsthed om de muligheder og risici, der er forbundet med disse teknologier;

130. foreslår, at der oprettes et ekspertisecenter med folk fra den akademiske verden, forskningsverdenen, industrien og individuelle eksperter på EU-niveau for at fremme udvekslingen af viden og teknisk ekspertise og for at lette samarbejdet både i og uden for Unionen; mener desuden, at dette ekspertisecenter bør inddrage interessentorganisationer såsom forbrugerbeskyttelsesorganisationer for at sikre omfattende forbrugerrepræsentation; mener, at de beslutningstagende instanser i en sådan struktur – som følge af de algoritmiske systemers eventuelt uforholdsmæssige virkning på kvinder og mindretal – bør være mangfoldige og sikre ligestilling mellem kønnene; understreger, at medlemsstaterne er nødt til at udvikle risikostyringsstrategier for AI i forbindelse med deres nationale markedsovervågningsstrategier;

131.  foreslår, at Kommissionen og/eller alle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, yder den nødvendige bistand til de nationale tilsynsmyndigheder vedrørende deres rolle som de første kontaktpunkter i tilfælde af mistanke om brud på de retlige forpligtelser og de etiske principper, der er fastlagt i Unionens regelsæt for AI, herunder princippet om ikkeforskelsbehandling; mener, at den også bør yde al nødvendig bistand til de nationale tilsynsmyndigheder i tilfælde, hvor sidstnævnte udfører overensstemmelsesvurderinger med henblik på at støtte borgernes ret til at anfægte beslutninger og til erstatning, navnlig ved at støtte høring af andre kompetente myndigheder i Unionen, navnlig netværket for forbrugerbeskyttelsessamarbejde og nationale forbrugerbeskyttelsesorganer, civilsamfundsorganisationer og arbejdsmarkedets parter i andre medlemsstater, når det er relevant;

132. anerkender de værdifulde resultater fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, der består af repræsentanter fra den akademiske verden, civilsamfundet og industrien samt Den Europæiske Alliance vedrørende Kunstig Intelligens, navnlig de "Etiske retningslinjer for pålidelig kunstig intelligens", og foreslår, at den kan bidrage med ekspertise til Kommissionen og/eller alle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse;

133. noterer sig inddragelsen af AI-relaterede projekter under programmet for udvikling af den europæiske forsvarsindustri (EDIDP); mener, at den fremtidige europæiske forsvarsfond og det permanente strukturerede samarbejde (PESCO) også kan give veldefinerede rammer for fremtidige AI-relaterede projekter, der kan bidrage til en bedre strømlining af Unionens bestræbelser på dette område, og samtidig fremmer Unionens mål om at styrke menneskerettighederne, folkeretten og multilaterale løsninger; understreger, at projekter i forbindelse med kunstig intelligens bør synkroniseres med Unionens bredere civile programmer om AI; bemærker, at i overensstemmelse med Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens bør der udvikles ekspertise- og testcentre, der fokuserer på forskning og udvikling af kunstig intelligens på området sikkerhed og forsvar med omhyggelige specifikationer, der understøtter private interessenters deltagelse og investeringer;

134. noterer sig Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens og beklager, at der ikke blev taget hensyn til militære aspekter; opfordrer Kommissionen og HR/NF til også som led i en overordnet strategi at fremlægge en sektorspecifik AI-strategi for forsvarsrelaterede aktiviteter inden for EU's rammer, der sikrer både respekten for borgernes rettigheder og Unionens strategiske interesser, og som er baseret på en konsekvent tilgang, der spænder fra indførelsen af AI-baserede systemer til deres militære anvendelse, og til at nedsætte en arbejdsgruppe om sikkerhed og forsvar under Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, der specifikt bør behandle politik- og investeringsspørgsmål samt etiske aspekter af AI på sikkerheds- og forsvarsområdet; opfordrer Rådet, Kommissionen og NF/HR til at indgå i en struktureret dialog med Europa-Parlamentet med henblik herpå.

Europæisk certificering af overholdelse af etiske principper

135. foreslår, at der i forbindelse med koordinering på EU-plan udarbejdes fælles kriterier og en ansøgningsproces for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder efter anmodning fra enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere den positive vurdering af overholdelsen, der udføres af den respektive nationale tilsynsmyndighed;

136. mener, at et sådant europæisk certifikat for overholdelse af etiske principper kan fremme etikken gennem hele forsyningskæden for AI-økosystemer; foreslår derfor, at denne certificering i forbindelse med teknologier med høj risiko kunne være en obligatorisk forudsætning for berettigelse til offentlige indkøbsprocedurer vedrørende kunstig intelligens, robotteknologi og relaterede teknologier;

Internationalt samarbejde

137. er af den opfattelse, at et effektivt grænseoverskridende samarbejde og effektive etiske standarder kun kan opnås, hvis alle interessenter forpligter sig til at sikre menneskelig kontrol og tilsyn, teknisk robusthed og sikkerhed, gennemsigtighed og ansvarlighed, mangfoldighed, ikkeforskelsbehandling og retfærdighed, samfundsmæssig og miljømæssig trivsel og respekterer de etablerede principper for privatlivets fred, datastyring og databeskyttelse - navnlig dem, der er fastsat i Europa-Parlamentets og Rådets forordning (EU) 2016/679;

138. understreger, at EU's juridiske forpligtelser og etiske principper for udvikling, udbredelse og anvendelse af disse teknologier kan gøre Europa førende i verden inden for sektoren for kunstig intelligens og derfor bør fremmes på verdensplan ved at samarbejde med internationale partnere og samtidig fortsætte den kritiske og etikbaserede dialog med tredjelande, der har alternative modeller for regulering af kunstig intelligens, udvikling og udrulning.

139. minder om, at de muligheder og risici, der følger med disse teknologier, har en global dimension, da den software og de data, de anvender, ofte importeres til og eksporteres ud af Unionen, og der er derfor behov for en konsekvent samarbejdsstrategi på internationalt plan; opfordrer Kommissionen til at tage initiativ til at vurdere, hvilke bilaterale og multilaterale traktater og aftaler der skal tilpasses for at sikre en ensartet tilgang og fremme den europæiske model for overholdelse af etiske principper på globalt plan;

140. påpeger merværdien af samarbejde på EU-plan som nævnt ovenfor i denne forbindelse også.

141. opfordrer til, at der etableres synergier og netværk mellem de forskellige europæiske forskningscentre om kunstig intelligens og andre multilaterale fora, såsom Europarådet, De Forenede Nationers Organisation for Uddannelse, Videnskab og Kultur (UNESCO), Organisationen for Økonomisk Samarbejde og Udvikling (OECD), Verdenshandelsorganisationen og Den Internationale Telekommunikationsunion (ITU), for at tilpasse deres indsats og koordinere udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier bedre;

142. understreger, at Unionen skal være i front med hensyn til at støtte den multilaterale indsats inden for rammerne af FN's CCW-regeringsekspertgruppe og andre relevante fora, drøfte en effektiv international reguleringsramme, der sikrer meningsfuld menneskelig kontrol over autonome våbensystemer for at beherske disse teknologier ved at etablere veldefinerede, benchmarkbaserede processer og vedtage lovgivning om deres etiske brug i samråd med militæret, industrien, retshåndhævelsesmyndighederne, den akademiske verden og civilsamfundet, forstå de relaterede etiske aspekter og dæmme op for de iboende risici ved sådanne teknologier og forhindre, at de anvendes til ondsindede formål;

143. anerkender NATO's rolle med hensyn til at fremme den euro-atlantiske sikkerhed og opfordrer til øget samarbejde inden for NATO om indførelse af fælles standarder og interoperabilitet af AI-systemer på forsvarsområdet; understreger, at det transatlantiske forhold er vigtigt for bevarelsen af fælles værdier og for at imødegå fremtidige og nye trusler;

144. understreger, at det er vigtigt at indføre en etisk adfærdskodeks, der understøtter indførelsen af AI-baserede våbensystemer i militære operationer, i lighed med de eksisterende lovgivningsmæssige rammer, der forbyder anvendelse af kemiske og biologiske våben; er af den opfattelse, at Kommissionen bør tage initiativ til at indføre standarder for anvendelse af AI-baserede våbensystemer i krig i overensstemmelse med den humanitære folkeret, og at Unionen bør arbejde for en international vedtagelse af sådanne standarder; mener, at EU bør deltage i AI-diplomati i internationale fora med ligesindede partnere som G7, G20 og OECD;

Afsluttende aspekter

145. konkluderer på baggrund af ovenstående overvejelser om aspekter vedrørende den etiske dimension af kunstig intelligens, robotteknologi og relaterede teknologier, at de retlige og etiske dimensioner bør forankres i en effektiv, fremadskuende og omfattende retlig ramme på EU-plan, som understøttes af nationale kompetente myndigheder, koordineres og forbedres af Kommissionen og/eller alle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, og støttes forskriftsmæssigt af det mulige førnævnte ekspertisecenter og behørigt respekteres og certificeres i det indre marked;

146. anmoder Kommissionen om i overensstemmelse med proceduren i artikel 225 i traktaten om Den Europæiske Unions funktionsmåde at forelægge et forslag til forordning om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier på grundlag af artikel 114 i traktaten om Den Europæiske Unions funktionsmåde og baseret på de detaljerede henstillinger i bilaget hertil; påpeger, at forslaget ikke bør undergrave den sektorspecifikke lovgivning, men kun bør dække konstaterede smuthuller;

147. anbefaler, at Kommissionen, efter høring af alle relevante interessenter, om nødvendigt reviderer gældende EU-ret vedrørende kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko med henblik på at håndtere den hastighed, hvormed de udvikler sig, i overensstemmelse med henstillingerne i bilaget, og samtidig undgår overregulering, herunder for SMV'er;

148. mener, at en regelmæssig vurdering og revision, hvis det er nødvendigt, af den EU-retlige ramme for kunstig intelligens, robotteknologi og relaterede teknologier vil være essentiel for at sikre, at den relevante lovgivning er opdateret i forhold til den teknologiske udviklings hurtige tempo;

149. mener, at lovforslaget vil få finansielle følgevirkninger, hvis et europæisk agentur tildeles de ovenfor nævnte koordineringsfunktioner for at sikre de nødvendige tekniske og menneskelige midler til opfyldelse af de nyligt tilskrevne opgaver;

150. pålægger sin formand at sende denne beslutning og henstillingerne i bilaget til Kommissionen og Rådet.

 


BILAG TIL FORSLAGET TIL BESLUTNING: DETALJEREDE HENSTILLINGER VEDRØRENDE INDHOLDET AF DET FORSLAG, DER ANMODES OM

A. PRINCIPPER OG MÅL FOR DET FORSLAG, DER ANMODES OM

I. Forslagets hovedprincipper og mål er følgende:

˗  at opbygge tillid på alle niveauer hos de involverede interessenter og i samfundet til kunstig intelligens, robotteknologi og relaterede teknologier, navnlig når de anses for at være forbundet med en høj risiko

˗  at støtte udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier i Unionen, herunder ved at hjælpe virksomheder, nystartede virksomheder og små og mellemstore virksomheder med at vurdere og tage hånd om de nuværende og fremtidige reguleringsmæssige krav og risici under innovations- og virksomhedsudviklingsprocessen samt i den efterfølgende brugsfase hos fagfolk og privatpersoner ved at minimere byrderne og bureaukratiet

˗  at støtte udbredelsen af kunstig intelligens, robotteknologi og relaterede teknologier i Unionen ved at tilvejebringe passende og forholdsmæssige lovgivningsmæssige rammer, der bør finde anvendelse, uden at det berører den eksisterende eller fremtidige sektorlovgivning, med henblik på at tilskynde til retlig sikkerhed og innovation, samtidig med at der gives garanti for grundlæggende rettigheder og forbrugerbeskyttelse

˗  at understøtte brugen af kunstig intelligens, robotteknologi og relaterede teknologier ved at sikre, at disse teknologier udvikles, udbredes og anvendes på en måde, der er i overensstemmelse med etiske principper

˗  at kræve gennemsigtighed og bedre informationsstrømme blandt borgere og i organisationer, der udvikler, udbreder eller anvender kunstig intelligens, robotteknologi og relaterede teknologier, som et middel til at sikre, at disse teknologier er i overensstemmelse med EU-lovgivningen, grundlæggende rettigheder og værdier samt de etiske principper i det forslag til forordning, der anmodes om.

II. Forslaget består af følgende elementer:

˗  en "forordning om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier"; koordinering på EU-plan, der udføres af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, og en europæisk certificering af overholdelse af etiske principper

˗  Kommissionens understøttende rolle

˗  den rolle, som "tilsynsmyndigheden" har i hver medlemsstat for at sikre, at der anvendes etiske principper for kunstig intelligens, robotteknologi og relaterede teknologier

 

˗  inddragelse og høring af samt støtte til relevante forsknings- og udviklingsprojekter og relevante interessenter, herunder nystartede virksomheder, små og mellemstore virksomheder, virksomheder, arbejdsmarkedets parter og andre repræsentanter for civilsamfundet

˗  et bilag, der indeholder en udtømmende og samlet liste over højrisikosektorer og anvendelser og formål med høj risiko;

III. "Forordningen om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier" bygger på følgende principper:

˗  menneskecentreret, menneskeskabt og menneskekontrolleret kunstig intelligens, robotteknologi og relaterede teknologier

˗  obligatorisk overholdelsesvurdering af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko

˗  sikkerhed, gennemsigtighed og ansvarlighed

˗  beskyttelse mod og afhjælpning af forudindtagethed og forskelsbehandling

˗  ret til at søge erstatning

˗  socialt ansvar og ligestilling mellem kønnene inden for kunstig intelligens, robotteknologi og relaterede teknologier

˗  miljømæssigt bæredygtig kunstig intelligens, robotteknologi og relaterede teknologier

˗  respekt for privatlivets fred og begrænsninger i anvendelsen af biometrisk genkendelse

˗  god forvaltning vedrørende kunstig intelligens, robotteknologi og relaterede teknologier, herunder de data, der anvendes eller produceres af sådanne teknologier.

IV. Med henblik på koordinering på EU-niveau bør Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, bør have følgende opgaver:

˗  samarbejde om overvågning af gennemførelsen af forslaget til forordning og relevant sektorspecifik EU-lovgivning

˗  samarbejde om udstedelse af retningslinjer vedrørende en ensartet anvendelse af det forslag til forordning, der anmodes om, nemlig anvendelsen af kriterierne for kunstig intelligens, robotteknologi og relaterede teknologier, som anses for at udgøre en høj risiko, og listen over højrisikosektorer og højrisikoanvendelser og -formål, der er fastsat i bilaget til forordningen

˗  samarbejde med "tilsynsmyndigheden" i hver medlemsstat om udviklingen af et europæisk certifikat for overensstemmelse med etiske principper og retlige forpligtelser som fastsat i det forslag til forordning, der anmodes om, og relevant EU-ret samt udvikling af en ansøgningsprocedure for enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere, at de overholder det forslag til forordning, der anmodes om

˗  samarbejde om at understøtte samarbejde på tværs af sektorer og grænser via regelmæssige udvekslinger med de berørte interessenter og civilsamfundet, i EU og i verden, særligt med virksomheder, arbejdsmarkedets parter, forskere og kompetente myndigheder, herunder vedrørende udvikling af tekniske standarder på internationalt plan

˗  samarbejde med "tilsynsmyndigheden" i hver medlemsstat vedrørende fastlæggelsen af bindende retningslinjer for den metode, der skal følges for den overensstemmelsesvurdering, der skal foretages af hver "tilsynsmyndighed"

˗  samarbejde vedrørende at kontakten til "tilsynsmyndigheden" i hver medlemsstat og koordineringen af deres mandat og opgaver

˗  samarbejde om bevidstgørelse, formidling af oplysninger og deltagelse i udvekslinger med udviklere, udbredere og brugere i hele Unionen

˗  samarbejde om bevidstgørelse, formidling af oplysninger, fremme af digitale færdigheder, uddannelse og færdigheder og udvekslinger med designere, udviklere, udbredere, borgere, brugere og institutionelle organer i Unionen og internationalt

˗  samarbejde vedrørende koordinering af en fælles ramme for styring af udviklingen, udbredelsen og anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, som skal implementeres af "tilsynsmyndigheden" i hver medlemsstat

˗  samarbejde om at fungere som ekspertisecenter ved at fremme udvekslingen af oplysninger og støtte udviklingen af en fælles forståelse på det indre marked

˗  samarbejde om at være vært for en arbejdsgruppe om sikkerhed og forsvar.

V. Endvidere bør Kommissionen udføre følgende opgaver:

˗  udarbejde og efterfølgende ved hjælp af delegerede retsakter ajourføre en fælles liste over teknologier med høj risiko, der er identificeret i Unionen i samarbejde med "tilsynsmyndigheden" i hver medlemsstat

˗  ved delegerede retsakter ajourføre den liste, der er omhandlet i bilaget til forordningen.

VI. "Tilsynsmyndigheden" i hver medlemsstat bør udføre følgende hovedopgaver:

˗  bidrage til en konsekvent anvendelse af de lovgivningsmæssige rammer, der er fastsat i det forslag til forordning, der anmodes om, i samarbejde med "tilsynsmyndigheden" i de øvrige medlemsstater, samt andre myndigheder med ansvar for gennemførelse af sektorspecifik lovgivning, Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, navnlig med hensyn til anvendelsen af de risikovurderingskriterier, der er fastsat i det forslag til forordning, der anmodes om, og listen over højrisikosektorer og højrisikoanvendelser og -formål, der er fastsat i bilaget, og det følgende tilsyn med gennemførelsen af de nødvendige og passende foranstaltninger, hvor der konstateres teknologier med høj risiko som følge af en sådan anvendelse

˗  vurdere, hvorvidt kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, og som udvikles, udbredes og anvendes i Unionen, skal betragtes som teknologier forbundet med høj risiko i henhold til de risikovurderingskriterier, der er defineret i det forslag til forordning, der anmodes om, og i den liste, der er fastsat i bilaget hertil

˗  udstede et europæisk certifikat for overensstemmelse med de etiske principper og retlige forpligtelser, der er fastsat i det forslag til forordning, der anmodes om, og relevant EU-lovgivning, herunder når det sker følge af en ansøgningsprocedure for enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere, at de overholder det forslag til forordning, der anmodes om, som udarbejdet af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse

˗  vurdere og overvåge overensstemmelsen med de etiske principper og retlige forpligtelser, der er fastsat i det forslag til forordning, der anmodes om, og relevant EU-lovgivning

˗  være ansvarlig for at fastlægge og gennemføre standarder for forvaltning af kunstig intelligens, robotteknologi og relaterede teknologier, herunder ved at indlede og fastholde en struktureret dialog med alle relevante interessenter og repræsentanter for civilsamfundet med henblik herpå samarbejde med Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, vedrørende koordinering af en fælles ramme på EU-plan

˗  øge bevidstheden, formidle oplysninger om kunstig intelligens, robotteknologi og relaterede teknologier til offentligheden og støtte uddannelse af relevante erhverv, herunder inden for retsvæsenet, hvorved borgerne og arbejdstagerne styrkes med opnåelse af de digitale færdigheder og værktøjer, der er nødvendige for en retfærdig omstilling

˗  fungere som første kontaktpunkt i tilfælde af mistanke om brud på de retlige forpligtelser og de etiske principper, der er fastsat i det forslag til forordning, der anmodes om, og foretage en overensstemmelsesvurdering i sådanne tilfælde; i forbindelse med denne overensstemmelsesvurdering kan den høre og/eller underrette andre kompetente myndigheder i Unionen, navnlig netværket for forbrugerbeskyttelsessamarbejde, nationale forbrugerbeskyttelsesorganer, civilsamfundsorganisationer og arbejdsmarkedets parter.

VII. Interessenternes vigtigste rolle bør være at samarbejde med Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, og "tilsynsmyndigheden" i hver medlemsstat;

B. ORDLYDEN AF DET LOVGIVNINGSFORSLAG, DER ANMODES OM

Forslag til

EUROPA-PARLAMENTETS OG RÅDETS FORORDNING

om etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier

under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 114,

under henvisning til forslag fra Europa-Kommissionen,

efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,

under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg,

efter den almindelige lovgivningsprocedure, og

ud fra følgende betragtninger:

(1) Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør være baseret på et ønske om at tjene samfundet. Sådanne teknologier kan indebære muligheder og risici, som bør imødegås og reguleres af en omfattende retlig ramme på EU-plan, som afspejler etiske principper, der skal overholdes fra tidspunktet for udvikling og udbredelse af sådanne teknologier til anvendelsen heraf.

(2) Overholdelsen af en sådan retlig ramme for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier i Unionen, bør være på et niveau, der er ækvivalent i alle medlemsstater, for effektivt at gribe mulighederne og konsekvent tackle risiciene ved sådanne teknologier samt undgå manglende ensartethed reglerne. Det bør sikres, at anvendelsen af bestemmelserne i denne forordning i hele Unionen er ensartet.

(3) I denne forbindelse udgør den nuværende mangfoldighed i de regler og praksisser, der skal følges i hele Unionen, en betydelig risiko for fragmentering af det indre marked og for både enkeltpersoners og samfundets trivsel og velstand og for en sammenhængende udforskning af det fulde potentiale, som kunstig intelligens, robotteknologi og relaterede teknologier har med hensyn til at fremme innovation og bevare denne trivsel og velstand. Forskelle med hensyn til, i hvilken grad udviklere, udbredere og brugere skal tage hensyn til den etiske dimension i disse teknologier, kan forhindre, at de udvikles frit, udbredes eller anvendes i Unionen, og sådanne forskelle kan udgøre en hindring for et retfærdigt marked og for bestræbelserne på teknologisk fremgang og økonomiske aktiviteter på EU-plan, forvride konkurrencen og hindre myndighederne i at opfylde deres forpligtelser i henhold til EU-retten. Desuden resulterer manglen på en fælles retlig ramme, der afspejler etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i retlig usikkerhed for alle involverede parter, nemlig udviklere, udbredere og brugere.

(4) Ikke desto mindre bør denne forordning, samtidig med at den bidrager til en konsekvent tilgang på EU-plan og inden for de grænser, den fastsætter, give medlemsstaterne en vis manøvremargen, herunder med hensyn til den måde, hvorpå deres respektive nationale tilsynsmyndigheders mandat skal udøves i lyset af det mål, der forfølges, som fastsat heri.

(5) Denne forordning berører ikke eksisterende eller fremtidig sektorlovgivning. Den bør stå i et rimeligt forhold til målet, så innovationen i Unionen ikke hindres i urimelig grad, og den bør være i overensstemmelse med en risikobaseret tilgang.

(6) Det geografiske anvendelsesområde for en sådan ramme bør omfatte alle elementer af kunstig intelligens, robotteknologi og relaterede teknologier i forbindelse med deres udvikling, udbredelse og anvendelse i Unionen, herunder i tilfælde, hvor en del af teknologierne kan være placeret uden for Unionen eller ikke har ét specifikt eller enkelt sted, f.eks. i tilfælde af cloud computing-tjenester.

(7) Der er behov for en fælles forståelse i Unionen af begreber som kunstig intelligens, robotteknologi, relaterede teknologier og biometrisk genkendelse for at muliggøre en ensartet lovgivningsmæssig tilgang og dermed retssikkerhed for borgere og ligeledes for virksomheder. De bør være teknologisk neutrale og underlægges gennemgang, hvis det vurderes at være nødvendigt.

(8) Endvidere bør det forhold overvejes, at der findes teknologier relateret til kunstig intelligens og robotteknologi, der sætter software i stand til at kontrollere fysiske eller virtuelle processer med en varierende grad af autonomi[13]. For eksempel er der for automatiseret kørsel af køretøjer foreslået seks niveauer af kørselsautomatisering under den internationale SAE-standard J3016.

(9) Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør supplere menneskelige funktioner, ikke erstatte dem, og sikre, at brugen heraf ikke er i strid med borgernes interesser, og at de overholder EU-lovgivningen, de grundlæggende rettigheder som fastsat i Den Europæiske Unions charter om grundlæggende rettigheder ("chartret"), Den Europæiske Unions Domstols faste retspraksis og andre europæiske og internationale instrumenter, der gælder i Unionen.

(10) Beslutninger, der træffes eller underbygges af kunstig intelligens, robotteknologi og relaterede teknologier bør være underlagt meningsfuld menneskelig gennemgang, vurdering, intervention og kontrol. Den tekniske og operationelle kompleksitet af sådanne teknologier bør aldrig forhindre, at deres udbreder eller bruger i det mindste kan aktivere en fejlsikret lukning, ændre eller standse deres drift eller vende tilbage til en tidligere tilstand, der genopretter sikre funktioner i tilfælde, hvor overholdelsen af etiske principper eller retlige forpligtelser, der er fastsat i denne forordning, er i fare.

(11) Kunstig intelligens, robotteknologi og relaterede teknologier, hvis udvikling, udbredelse og anvendelse indebærer en betydelig risiko for skade på enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten, bør betragtes som teknologier med høj risiko. Med henblik på at vurdere dem som sådan bør den sektor, hvor de udvikles, udbredes eller anvendes, deres specifikke anvendelse eller formål samt alvoren af de kvæstelser eller den skade, der kan forventes at forekomme, tages i betragtning. Graden af alvor bør fastlægges på grundlag af omfanget af de potentielle kvæstelser eller den potentielle skade, antallet af berørte personer, den samlede værdi af skaden samt skaden for samfundet som helhed. Alvorlige kvæstelser og skader er f.eks. krænkelser af børns, forbrugeres eller arbejdstageres rettigheder, der på grund af deres omfang, antallet af berørte børn, forbrugere eller arbejdstagere eller deres indvirkning på samfundet som helhed udgør en betydelig risiko for overtrædelse af grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten. Denne forordning bør indeholde en udtømmende og samlet liste over højrisikosektorer og højrisikoanvendelser og -formål.

(12) Forpligtelserne i denne forordning, særligt dem, der vedrører teknologier med høj risiko, bør kun finde anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – som udvikles, udbredes og anvendes i Unionen, og som efter den risikovurdering, der er fastsat i denne forordning, anses for at være teknologier med høj risiko Sådanne forpligtelser skal opfyldes, uden at det berører den generelle forpligtelse til, at al kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – bør udvikles, udbredes og anvendes i Unionen på en menneskecentreret måde og baseret på principperne om menneskers autonomi og menneskers sikkerhed i overensstemmelse med EU-retten og under fuld overholdelse af grundlæggende rettigheder såsom den menneskelige værdighed, retten til frihed og sikkerhed og retten til personlig integritet.

(13) Teknologier med høj risiko bør overholde principperne om sikkerhed, gennemsigtighed, ansvarlighed, ikkeforudindtagethed eller ikkeforskelsbehandling, socialt ansvar og ligestilling mellem kønnene, ret til erstatning, miljømæssig bæredygtighed, privatlivets fred og god regeringsførelse efter en upartisk, objektiv og ekstern risikovurdering foretaget af den nationale tilsynsmyndighed i overensstemmelse med kriterierne i denne forordning og listen i bilaget hertil. Denne vurdering bør tage hensyn til de synspunkter og den eventuelle selvevaluering, som er foretaget af udvikleren eller udbrederen.

(14) Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bør udarbejde ikkebindende gennemførelsesretningslinjer for udviklere, udbredere og brugere om metoden for overholdelse af denne forordning. I denne forbindelse bør de høre relevante interessenter.

(15) Der bør være sammenhæng inden for Unionen for så vidt angår risikovurderingen af disse teknologier, navnlig hvis de vurderes både på baggrund af denne forordning og i overensstemmelse med enhver gældende sektorspecifik lovgivning. De nationale tilsynsmyndigheder bør derfor underrette andre myndigheder, der foretager risikovurderinger i overensstemmelse med enhver sektorspecifik lovgivning, når disse teknologier vurderes til at være forbundet med høj risiko på grundlag af den risikovurdering, der er fastsat i denne forordning.

(16) Pålidelig kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør udvikles, udbredes og anvendes på en sikker, gennemsigtig og ansvarlig måde i overensstemmelse med sikkerhedsegenskaber som robusthed, modstandsdygtighed, sikkerhed, nøjagtighed og fejlidentifikation, forklarlighed, fortolkning, mulighed for revision, gennemsigtighed og identificerbarhed og på en måde, der gør det muligt at inaktivere de pågældende funktioner eller vende tilbage til en tidligere tilstand, der genopretter sikre funktioner, i tilfælde af manglende overensstemmelse med disse egenskaber. Gennemsigtighed bør sikres ved at give offentlige myndigheder adgang, når det er strengt nødvendigt, til teknologi, data og computersystemer, der ligger til grund for sådanne teknologier.

(17) Udviklere, udbredere og brugere af kunstig intelligens, robotteknologi og relaterede teknologier, navnlig teknologier med høj risiko, er i forskellig grad ansvarlige for overholdelse af principperne om sikkerhed, gennemsigtighed og ansvarlighed for så vidt angår deres engagement med de pågældende teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier. Udviklere bør sikre, at de pågældende teknologier er udformet og bygget i overensstemmelse med de sikkerhedsegenskaber, der er fastsat i denne forordning, mens udbredere og brugere bør udbrede og anvende de pågældende teknologier under fuld overholdelse af disse egenskaber. I denne forbindelse bør udviklere af teknologier med høj risiko vurdere og foregribe risikoen for misbrug, der med rimelighed kan forventes for så vidt angår de teknologier, de udvikler. De skal også sikre, at de systemer, som de udvikler, så vidt muligt og med passende midler, f.eks. ansvarsfraskrivelser, angiver sandsynligheden for fejl eller unøjagtigheder.

(18) Udviklere og udbredere bør stille alle efterfølgende opdateringer af de pågældende teknologier til rådighed for brugerne, navnlig for så vidt angår software, således som det er anført i kontrakten eller fastsat i EU-ret eller national ret. Hvis det fremgår af en risikovurdering, bør udviklere og udbredere desuden give offentlige myndigheder den relevante dokumentation om anvendelsen af de pågældende teknologier og sikkerhedsinstrukser i denne henseende, herunder, når det er strengt nødvendigt og under fuld overholdelse af EU-lovgivningen om databeskyttelse, privatlivets fred og intellektuelle ejendomsrettigheder samt forretningshemmeligheder, kildekoden, udviklingsværktøjer og de data, der anvendes af systemet.

 (19) Enkeltpersoner har ret til at forvente, at den teknologi, de anvender, fungerer på rimelig vis og respekterer deres tillid. Borgernes tillid til kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, afhænger af forståelsen og indsigten i de tekniske processer. Graden af sådanne processers forklarlighed bør afhænge af den sammenhæng, hvori disse tekniske processer anvendes, og af alvoren af de konsekvenser, som et fejlagtigt eller unøjagtigt output kan have, og skal være tilstrækkelig til at anfægte dem og søge erstatning. Mulighed for revision, sporbarhed og gennemsigtighed bør afhjælpe alle eventuelle uforståeligheder af sådanne teknologier.

(20) Samfundets tillid til kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, afhænger af, i hvilken grad vurderingen, muligheden for revision og sporbarheden er til stede i de pågældende teknologier. Udviklere bør, i det omfang deres deltagelse kræver det, sikre, at sådanne teknologier udformes og bygges på en måde, der muliggør en sådan vurdering, revision og sporbarhed. Inden for grænserne for, hvad der er teknisk muligt, bør udviklere, udbredere og brugere sikre, at kunstig intelligens, robotteknologi og relaterede teknologier udbredes og anvendes med fuld respekt for kravene om gennemsigtighed og med mulighed for revision og sporbarhed.

(21) For at sikre gennemsigtighed og ansvarlighed bør borgerne informeres, hvis et system anvender kunstig intelligens, hvis kunstig intelligens-systemer skræddersyer et produkt eller en tjeneste til brugerne, uanset om de kan slå personalisering fra eller begrænse den, og hvis de anvender en teknologi til automatisk beslutningstagning. Derudover bør gennemsigtighedsforanstaltninger, i det omfang det er teknisk muligt, ledsages af tydelige og forståelige forklaringer af de anvendte data og af algoritmen, dens formål, dens resultater og dens potentielle farer.

(22) Forudindtagethed og diskrimination i software, algoritmer og data er ulovlig og bør imødegås ved at regulere de processer, gennem hvilke de udformes og udbredes. Forudindtagethed kan stamme både fra beslutninger, der er blevet informeret om eller truffet af et automatiseret system og fra datasæt, som ligger til grund for en sådan beslutningstagning eller for systemets indlæring.

(23) Software, algoritmer og data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, bør anses for at være forudindtagede, hvis de f.eks. viser suboptimale resultater i relation til en hvilken som helst person eller gruppe af personer, på grundlag af en forudindtaget personlig eller social opfattelse og efterfølgende behandling af data vedrørende deres personlige træk.

(24) I overensstemmelse med EU-retten bør software, algoritmer og data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, betragtes som diskriminerende, når de producerer resultater, der har uforholdsmæssigt negative virkninger og resulterer i, at en person eller gruppe af personer behandles forskelligt, herunder ved at sætte dem i en ugunstig situation i forhold til andre personer baseret på grunde såsom deres personlige træk, uden objektiv eller rimelig begrundelse og uanset hvilke påstande om neutralitet, der fremsættes om teknologierne.

(25) I overensstemmelse med EU-retten er legitime mål – der inden for rammerne af denne forordning objektivt kan berettige enhver form for differentieret behandling af personer eller grupper af personer – beskyttelse af den offentlige sikkerhed og sundhed, forebyggelse af strafbare handlinger, beskyttelse af grundlæggende rettigheder og frihedsrettigheder, retfærdig repræsentation og objektive krav for udøvelse af et erhverv.

(26) Kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør bidrage til bæredygtige fremskridt. Sådanne teknologier bør ikke modvirke hensynet til miljøbeskyttelse eller den grønne omstilling. De kan også spille en vigtig rolle med hensyn til opfyldelsen af verdensmålene for bæredygtig udvikling, som FN har fastsat, så fremtidige generationer kan trives. Sådanne teknologier kan støtte overvågningen af passende fremskridt på grundlag af indikatorer for bæredygtighed og social samhørighed og gennem anvendelse af ansvarlige forsknings- og innovationsværktøjer, der kræver mobilisering af ressourcer fra Unionen og dens medlemsstater til at støtte og investere i projekter, der tager sigte på at nå disse mål.

(27) Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør på ingen måde forsætligt forårsage eller gennem sin udformning acceptere kvæstelser eller skader af nogen art på enkeltpersoner eller samfund. Navnlig teknologier med høj risiko bør derfor udvikles, udbredes og anvendes på en socialt ansvarlig måde.

(28) Derfor bør udviklere, udbredere og brugere holdes ansvarlige, alt efter omfanget af deres engagement med den pågældende kunstige intelligens, robotteknologi og de relaterede teknologier, og i henhold til EU-bestemmelser og nationale bestemmelser om erstatningsansvar, for enhver kvæstelse eller skade, der påføres enkeltpersoner og samfundet.

(29) Navnlig bør udviklere, der træffer beslutninger, som fastlægger og kontrollerer kursen eller den måde, hvorpå udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier foregår, samt de udbredere, der er involveret i udbredelsen af dem ved at træffe beslutninger vedrørende en sådan udbredelse og ved at udøve kontrol over de relaterede risici eller ved at nyde gavn af en sådan udbredelse, med en kontrol- eller driftsfunktion, generelt anses for at være ansvarlige for at undgå, at der indtræffer en sådan kvæstelse eller skade, ved henholdsvis at iværksætte passende foranstaltninger under udviklingsprocessen og omhyggeligt overholde disse foranstaltninger i udbredelsesfasen.

(30) Socialt ansvarlig kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, kan defineres som teknologier, der bidrager til at finde løsninger, som sikrer og fremmer forskellige mål med hensyn til samfundet, navnlig demokrati, sundhed og økonomisk velstand, lige muligheder, arbejdstagerrettigheder og sociale rettigheder, forskelligartede og uafhængige medier og objektive og frit tilgængelige oplysninger, der giver mulighed for offentlig debat, uddannelse af høj kvalitet, kulturel og sproglig mangfoldighed, ligestilling mellem kønnene, digitale færdigheder, innovation og kreativitet. Det er også dem, som udvikles, udbredes og anvendes under behørig hensyntagen til deres endelige indvirkning på borgernes fysiske og psykiske velbefindende, og som ikke fremmer hadefuld tale eller vold. Sådanne mål bør nås især ved hjælp af teknologier med høj risiko.

(31) Kunstig intelligens, robotteknologi og relaterede teknologier bør også udvikles, udbredes og anvendes med henblik på at støtte social inklusion, demokrati, pluralisme, solidaritet, retfærdighed, lighed og samarbejde, og deres potentiale i denne sammenhæng bør maksimeres og undersøges gennem forsknings- og innovationsprojekter. Unionen og dens medlemsstater bør derfor mobilisere deres kommunikationsmæssige, administrative og finansielle ressourcer med det formål at støtte og investere i sådanne projekter.

(32) Projekter vedrørende potentialet i kunstig intelligens, robotteknologi og relaterede teknologier til håndtering af spørgsmålet om social velfærd bør gennemføres på grundlag af ansvarlige forsknings- og innovationsværktøjer for at sikre, at disse projekter fra starten overholder de etiske principper.

(33) Udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør tage hensyn til deres miljøaftryk. I overensstemmelse med de forpligtelser, der er fastsat i gældende EU-ret, bør sådanne teknologier ikke skade miljøet i løbet af deres livscyklus og gennem hele deres forsyningskæde, og de bør udvikles, udbredes og anvendes på en måde, der bevarer miljøet, afbøder og afhjælper deres miljøaftryk, bidrager til den grønne omstilling og støtter målene om at opnå klimaneutralitet og en cirkulær økonomi.

(34) Med henblik på denne forordning bør udviklere, udbredere og brugere holdes ansvarlige, alt efter omfanget af deres deltagelse i udviklingen, udbredelsen eller anvendelsen af enhver form for kunstig intelligens, robotteknologi og relaterede teknologier, der anses for at være forbundet med høj risiko, for enhver miljøskade i overensstemmelse med de gældende regler om miljøansvar.

(35) Disse teknologier bør også udvikles, udbredes og anvendes med henblik på at støtte opfyldelsen af miljømæssige mål i overensstemmelse med de forpligtelser, der er fastsat i den gældende EU-lovgivning, såsom reduktion af affaldsproduktion, reduktion af CO2-fodaftrykket, bekæmpelse af klimaændringer og bevarelse af miljøet, og deres potentiale i denne sammenhæng bør maksimeres og undersøges gennem forsknings- og innovationsprojekter. Unionen og medlemsstaterne bør derfor mobilisere deres kommunikationsmæssige, administrative og finansielle ressourcer med det formål at støtte og investere i sådanne projekter.

(36) Projekter vedrørende potentialet i kunstig intelligens, robotteknologi og relaterede teknologier til håndtering af miljømæssige spørgsmål bør gennemføres på grundlag af ansvarlige forsknings- og innovationsværktøjer for fra starten at sikre, at disse projekter overholder de etiske principper.

(37) Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art, herunder software, algoritmer og data, som anvendes eller produceres af sådanne teknologier, og som udvikles, udbredes og anvendes i Unionen, bør fuldt ud respektere EU-borgernes ret til privatliv og beskyttelse af personoplysninger. Navnlig bør deres udvikling, udbredelse og anvendelse være i overensstemmelse med bestemmelserne i Europa-Parlamentets og Rådets forordning (EU) 2016/679[14] og Europa-Parlamentets og Rådets direktiv 2002/58/EF[15].

(38) De etiske grænser for anvendelsen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, bør især tages behørigt i betragtning, når der anvendes fjerngenkendelsesteknologier, såsom genkendelse af biometriske identifikatorer, navnlig ansigtsgenkendelse, for automatisk at identificere enkeltpersoner. Når disse teknologier benyttes af offentlige myndigheder af hensyn til væsentlige samfundsinteresser, navnlig for at sikre enkeltpersoners sikkerhed og for at håndtere nationale nødsituationer, og ikke for at garantere ejendommes sikkerhed, bør der altid informeres om anvendelsen, som bør være forholdsmæssigt afpasset, målrettet og begrænset til specifikke mål og tidsbegrænset i overensstemmelse med EU-retten og under behørig hensyntagen til den menneskelige værdighed og autonomi og de grundlæggende rettigheder, der er fastsat i chartret. Kriterierne og begrænsningerne for den pågældende anvendelse bør være genstand for domstolskontrol og underlagt demokratisk kontrol og debat, der inddrager civilsamfundet.

(39) Forvaltning baseret på relevante standarder øger sikkerheden og fremmer større tillid blandt borgerne til udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier.

(40) Offentlige myndigheder bør gennemføre konsekvensvurderinger vedrørende grundlæggende rettigheder, inden de udbreder teknologier med høj risiko, der støtter beslutninger, som træffes i den offentlige sektor, og som har en direkte og betydelig indvirkning på borgeres rettigheder og forpligtelser.

(41) Blandt de eksisterende relevante forvaltningsstandarder er f.eks. "Ethics Guidelines for Trustworthy AI" ("Etiske retningslinjer for pålidelig kunstig intelligens") udarbejdet af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens oprettet af Kommissionen og alle tekniske standarder såsom dem, der er vedtaget af Den Europæiske Standardiseringsorganisation (CEN), Den Europæiske Komité for Elektroteknisk Standardisering (CENELEC) og Det Europæiske Standardiseringsinstitut for Telekommunikation (ETSI) på europæisk plan, Den Internationale Standardiseringsorganisation (ISO) og Institute of Electrical and Electronics Engineers (IEEE) på internationalt plan.

(42) Udveksling og anvendelse af data fra flere deltagere er følsom, og udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier bør derfor være omfattet af relevante regler, standarder og protokoller, der afspejler kravene til kvalitet, integritet, sikkerhed, pålidelighed, privatlivets fred og kontrol. Datastyringsstrategien bør fokusere på behandling, deling af og adgang til sådanne data, herunder korrekt forvaltning, mulighed for revision og sporbarhed heraf, og sikre en passende beskyttelse af data, der tilhører sårbare grupper, herunder personer med handicap, patienter, børn, minoriteter og migranter eller andre grupper, der er i risiko for udstødelse. Ydermere bør udviklere, udbredere og brugere kunne, hvor det er relevant, forlade sig på centrale præstationsindikatorer i forbindelse med evalueringen af de datasæt, de benytter med henblik på at forbedre pålideligheden af de teknologier, som de udvikler, udbreder og anvender.

(43) Medlemsstaterne bør udpege en uafhængig administrativ myndighed til at fungere som tilsynsmyndighed. Navnlig bør de enkelte nationale tilsynsmyndigheder være ansvarlige for at identificere kunstig intelligens, robotteknologi og relaterede teknologier, der anses for at være forbundet med høj risiko, på baggrund af de risikovurderingskriterier, der er fastsat i denne forordning, og for at vurdere og overvåge, hvorvidt disse teknologier overholder de forpligtelser, der er fastsat i denne forordning.

(44) De enkelte nationale tilsynsmyndigheder bør også bære ansvaret for god forvaltning af disse teknologier under koordinering af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer eller -agenturer, der kan udpeges til dette formål. De spiller derfor en vigtig rolle med hensyn til at fremme EU-borgernes tillid og sikkerhed samt muliggøre et demokratisk, pluralistisk og retfærdigt samfund.

(45) Med henblik på at vurdere teknologier, som udgør en høj risiko i henhold til denne forordning, og på at overvåge, at de er i overensstemmelse med denne, bør de nationale tilsynsmyndigheder, hvor det er relevant, samarbejde med de myndigheder, der er ansvarlige for at vurdere og overvåge disse teknologier og håndhæve, at de overholder sektorspecifik lovgivning.

(46) De nationale tilsynsmyndigheder bør indgå i et omfattende og løbende samarbejde med hinanden samt med Europa-Kommissionen og andre relevante EU-institutioner, -organer, -kontorer og -agenturer for at sikre en sammenhængende grænseoverskridende indsats og muliggøre en ensartet udvikling, udbredelse og anvendelse af disse teknologier i Unionen i overensstemmelse med de etiske principper og retlige forpligtelser, der er fastlagt i denne forordning.

(47) I forbindelse med et sådant samarbejde og med henblik på at opnå fuld harmonisering på EU-plan bør de nationale tilsynsmyndigheder bistå Kommissionen med udarbejdelsen af en fælles og udtømmende liste over kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko i overensstemmelse med de kriterier, der er fastsat i denne forordning og dens bilag. Endvidere bør der udvikles en bevillingsprocedure for udstedelse af et europæisk certifikat for overholdelse af etiske principper, herunder en frivillig ansøgningsprocedure for enhver udvikler, udbreder eller bruger af teknologier, der ikke anses for at udgøre en høj risiko, som har til opgave at attestere, at de overholder denne forordning.

(48) De nationale tilsynsmyndigheder bør sikre, at der samles et maksimalt antal interessenter såsom erhvervslivet, virksomheder, arbejdsmarkedets parter, forskere, forbrugere og civilsamfundsorganisationer, og at der skabes et pluralistisk forum for overvejelser og udveksling af synspunkter for at nå frem til forståelige og præcise konklusioner med henblik på en vejledning om, hvordan forvaltningen kan reguleres.

(49) Nationale tilsynsmyndigheder bør sikre, at der samles et maksimalt antal interessenter såsom erhvervslivet, virksomheder, arbejdsmarkedets parter, forskere, forbrugere og civilsamfundsorganisationer, og at der skabes et pluralistisk forum for overvejelser og udveksling af synspunkter for at fremme samarbejde mellem interessenter, især den akademiske verden, forskningsverdenen, erhvervslivet, civilsamfundet og individuelle eksperter, med henblik på at nå frem til forståelige og præcise konklusioner med henblik på en vejledning om, hvordan forvaltningen kan reguleres.

(50) Disse nationale tilsynsmyndigheder bør desuden yde professionel administrativ vejledning og støtte til udviklere, udbredere og brugere, navnlig små og mellemstore virksomheder eller nystartede virksomheder, der møder udfordringer i forbindelse med overholdelsen af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning.

(51) Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bør udarbejde bindende retningslinjer om den metode, der skal anvendes af de nationale tilsynsmyndigheder, når de gennemfører deres overensstemmelsesvurdering.

(52) Whistleblowing gør myndighederne opmærksomme på potentielle og faktiske overtrædelser af EU-retten med henblik på at forhindre, at der forvoldes kvæstelser, tilskadekomster eller beskadigelser, der ellers ville forekomme. Desuden forbedrer indberetningsprocedurerne informationsstrømmen inden for virksomheder og organisationer og mindsker dermed risikoen for, at der udvikles mangelfulde eller fejlbehæftede produkter eller tjenester. Virksomheder og organisationer, der udvikler, udbreder eller anvender kunstig intelligens, robotteknologi og relaterede teknologier, herunder data, der anvendes eller produceres af disse teknologier, bør etablere indberetningskanaler, og personer, der indberetter overtrædelser, bør beskyttes mod repressalier.

(53) Den hurtige udvikling af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, samt af teknisk maskinlæring, ræsonnement og andre teknologier, der ligger til grund for denne udvikling, er uforudsigelig. Som sådan er det både hensigtsmæssigt og nødvendigt at indføre en revisionsmekanisme, i henhold til hvilken Kommissionen foruden sin rapportering om anvendelsen af forordningen regelmæssigt skal forelægge en rapport om den eventuelle ændring af denne forordnings anvendelsesområde.

(54) Målet for denne forordning, nemlig at etablere en fælles lovgivningsmæssig ramme for etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i EU, kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne, men kan på grund af dets omfang og virkninger bedre nås på EU-plan, og Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i traktaten om Den Europæiske Union. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå dette mål.

(55) Koordinering på EU-plan som fastsat i denne forordning opnås bedst af Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, for at undgå fragmentering og sikre en ensartet anvendelse af denne forordning. Kommissionen bør derfor have til opgave at finde en passende løsning med hensyn til at strukturere en sådan koordinering på EU-plan for at koordinere de nationale tilsynsmyndigheders mandat og foranstaltninger i hver medlemsstat, navnlig vedrørende risikovurdering af kunstig intelligens, robotteknologi og relaterede teknologier, etablering af en fælles ramme til forvaltning af udvikling, udbredelse og anvendelse af disse teknologier, udvikling og udstedelse af et certifikat for overholdelse af etiske principper og retlige forpligtelser, der er fastsat i denne forordning, støtte regelmæssige udvekslinger med de berørte interessenter og civilsamfundet og oprette et ekspertisecenter, som samler den akademiske verden, forskningsverdenen, erhvervslivet og individuelle eksperter på EU-plan med henblik på at fremme udvekslingen af viden og teknisk ekspertise, og fremme Unionens tilgang gennem internationalt samarbejde og på verdensplan sikre et ensartet svar på de muligheder og risici, der er forbundet med disse teknologier.


VEDTAGET DENNE FORORDNING:

 

Kapitel I

Generelle bestemmelser

Artikel 1

Formål

 

Formålet med denne forordning er at etablere en omfattende og fremtidssikker EU-lovramme for de etiske principper og retlige forpligtelser for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier i Unionen.

Artikel 2

Anvendelsesområde

 

Denne forordning finder anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, som udvikles, udbredes og anvendes i Unionen.

Artikel 3

Geografisk dækningsområde

Denne forordning finder anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier, hvor en del heraf udvikles, udbredes eller anvendes i Unionen, uanset om softwaren, algoritmerne eller de data, der anvendes eller produceres af sådanne teknologier, befinder sig uden for Unionen eller ikke har en specifik geografisk beliggenhed.

Artikel 4

Definitioner

I denne forordning forstås ved:

a) "kunstig intelligens": et system, som enten er baseret på funktionsprogrammer eller er integreret i materielenheder, og som udviser intelligent adfærd ved bl.a. at indsamle, behandle, analysere og fortolke sine omgivelser og ved at handle med en vis grad af autonomi for at nå specifikke mål[16]

b) "autonomi": et AI-system, der opererer ved at fortolke visse input og anvende en række på forhånd fastsatte instruktioner uden at være begrænset til disse instruktioner, selv om systemets adfærd er begrænset af og sigter mod at opfylde det tildelte mål og andre relevante designvalg truffet af systemudvikleren

c) "robotteknologi": teknologier, der sætter automatisk styrede, omprogrammerbare og multifunktionelle maskiner[17] i stand til at udføre handlinger i den fysiske verden, der traditionelt varetages eller indledes af mennesker, herunder ved hjælp af kunstig intelligens eller relaterede teknologier

d) "relaterede teknologier": teknologier, der gør det muligt for software med en delvis eller fuld grad af autonomi at kontrollere en fysisk eller virtuel proces, teknologier, der kan afsløre biometriske, genetiske eller andre data, og teknologier, der kopierer eller på anden måde gør brug af menneskelige træk

e) "høj risiko": en væsentlig risiko, der er forbundet med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier for at kvæste eller skade enkeltpersoner eller samfundet i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-lovgivningen, under hensyntagen til deres specifikke anvendelse eller formål, den sektor, hvor de udvikles, udbredes eller anvendes, og alvoren af de kvæstelser eller den skade, der kan forventes at forekomme

f) "udvikling": konstruktion og udformning af algoritmer, skrivning og udformning af software eller indsamling, lagring og forvaltning af data med det formål at skabe eller træne kunstig intelligens, robotteknologi og relaterede teknologier eller med det formål at skabe en ny applikation til eksisterende kunstig intelligens, robotteknologi og relaterede teknologier

g) "udvikler": enhver fysisk eller juridisk person, der træffer afgørelser, som fastlægger og kontrollerer den kurs eller den måde, hvorpå udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier sker

h) "udbredelse": drift og forvaltning af kunstig intelligens, robotteknologi og relaterede teknologier samt deres markedsføring, eller hvordan de på anden måde stilles til rådighed for brugerne

i) "udbreder": enhver fysisk eller juridisk person, der er involveret i den specifikke udbredelse af kunstig intelligens, robotteknologi og relaterede teknologier med en styrings- eller forvaltningsfunktion, ved at træffe afgørelser, udøve kontrol over risikoen og nyde gavn af en sådan udbredelse

j) "anvendelse": enhver handling i forbindelse med kunstig intelligens, robotteknologi og andre relaterede teknologier end udvikling eller udbredelse

k) "bruger": enhver fysisk eller juridisk person, der anvender kunstig intelligens, robotteknologi og andre relaterede teknologier til andre formål end udvikling eller udbredelse

l) "forudindtagethed": enhver forudindtaget eller personlig eller social opfattelse af en person eller en gruppe af personer på grundlag af deres personlige træk

m) "forskelsbehandling": enhver forskelsbehandling af en person eller en gruppe af personer på grundlag af forhold, som ikke har nogen objektiv eller rimelig begrundelse og derfor er forbudt i henhold til EU-retten

n) "kvæstelse eller skade": fysisk eller psykisk skade, materiel eller immateriel skade, herunder når den forårsages af hadefuld tale, forudindtagethed, forskelsbehandling eller stigmatisering, såsom finansielle eller økonomiske tab, tab af beskæftigelse eller uddannelsesmæssige muligheder, uberettiget begrænsning af valgfrihed eller ytringsfrihed samt tab af privatlivets fred og enhver overtrædelse af EU-retten, der er til skade for en person

o) "god forvaltning": den måde, hvorpå det sikres, at de passende og rimelige standarder og passende adfærdsprotokoller vedtages og iagttages af udviklere, udbredere og brugere på grundlag af et sæt formelle regler, procedurer og værdier, og som gør det muligt for dem at behandle etiske spørgsmål hensigtsmæssigt, når eller inden de opstår.

Artikel 5

Etiske principper for kunstig intelligens, robotteknologi og relaterede teknologier

1. Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – udvikles, udbredes og anvendes i Unionen i overensstemmelse med EU-lovgivningen og med fuld respekt for den menneskelige værdighed, autonomi, sikkerhed og andre grundlæggende rettigheder, der er fastsat i chartret.

2. Enhver behandling af personoplysninger, der gennemføres i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier – herunder personoplysninger, der stammer fra data, som ikke er personoplysninger, og biometriske data – gennemføres i overensstemmelse med forordning (EU) 2016/679 og direktiv 2002/58/EF.

3. Unionen og dens medlemsstater tilskynder til forskningsprojekter, der har til formål at tilvejebringe løsninger baseret på kunstig intelligens, robotteknologi og relaterede teknologier, som har til formål at fremme social inklusion, demokrati, pluralisme, solidaritet, retfærdighed, lighed og samarbejde.

Kapitel II

Forpligtelser for teknologier med høj risiko

Artikel 6

Forpligtelser for teknologier med høj risiko

1. Bestemmelserne i dette kapitel finder kun anvendelse på kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – som udvikles, udbredes og anvendes i Unionen, og som ikke anses for at være forbundet med høj risiko.

 

2. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – udvikles, udbredes og anvendes på en måde, der sikrer, at de ikke overtræder de etiske principper, der er fastlagt i denne forordning.

Artikel 7

Menneskecentreret og menneskeskabt kunstig intelligens

1. Enhver kunstig teknologi med høj risiko – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – udvikles, udbredes og anvendes på en måde, der til enhver tid sikrer fuldt menneskeligt tilsyn.

2. De i stk. 1 omhandlede teknologier udvikles, udbredes og anvendes på en sådan måde, at der er garanti for, at den menneskelige kontrol kan genvindes efter behov, herunder gennem ændring eller indstilling af disse teknologier.

 

Artikel 8

Sikkerhed, gennemsigtighed og ansvarlighed

1. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – udvikles, udbredes og anvendes på en måde, der sikrer, at de:

 a)udvikles, udbredes og anvendes på en modstandsdygtig måde, så de sikrer et tilstrækkeligt sikkerhedsniveau ved at overholde minimumsudgangspunktet for cybersikkerhed, der står i rimeligt forhold til den identificerede risiko, og på en sådan måde, som forhindrer, at eventuelle tekniske sårbarheder udnyttes til ondsindede eller ulovlige formål

b) udvikles, udbredes og anvendes på en sikker måde, der sikrer, at der er sikkerhedsforanstaltninger, som omfatter en alternativ plan og foranstaltninger i tilfælde af en sikkerheds- eller sikringsrisiko

c) udvikles, udbredes og anvendes på en sådan måde, at der sikres en funktionspålidelighed, som med rimelighed kan forventes af brugeren med hensyn til at nå de mål og gennemføre de aktiviteter, de er blevet udtænkt til, herunder ved at sikre, at alle operationer er reproducerbare

d) udvikles, udbredes og anvendes på en sådan måde, at der sikres nøjagtighed, hvad angår opfyldelsen af målene for de pågældende teknologier og udførelsen af deres aktiviteter; hvis det ikke er muligt at undgå lejlighedsvise unøjagtigheder, skal systemet, i videst muligt omfang, over for udbrederne og brugerne ved hjælp af passende midler angive, at der kan være fejl og unøjagtigheder

e) udvikles, udbredes og anvendes på en let forklarlig måde for at sikre, at der kan foretages en gennemgang af teknologiernes tekniske processer

f) udvikles, udbredes og anvendes på en sådan måde, at de informerer brugerne om, at de interagerer med systemer, der involverer kunstig intelligens, idet disse systemers kapaciteter, nøjagtighed og begrænsninger på behørig og omfattende vis oplyses til udviklere, udbredere og brugere af kunstig intelligens

g) i overensstemmelse med artikel 6 udvikles, udbredes og anvendes på en sådan måde, at det i tilfælde af manglende overholdelse af de i litra a)-g) fastsatte sikkerhedsforanstaltninger er muligt midlertidigt at inaktivere de pågældende funktioner og vende tilbage til en tidligere tilstand, der genopretter sikre funktioner. 

2. I overensstemmelse med artikel 6, stk. 1, udvikles, udbredes og anvendes de i stk. 1 nævnte teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – på en gennemsigtig og sporbar måde, således at deres elementer, processer og faser dokumenteres efter de højest mulige og anvendelige standarder, og således at det er muligt for de i artikel 14 omhandlede nationale tilsynsmyndigheder at vurdere, om disse teknologier er i overensstemmelse med de forpligtelser, der er fastsat i denne forordning. Navnlig er udvikleren, udbrederen eller brugeren af disse teknologier ansvarlig for og i stand til at påvise, at de er i overensstemmelse med de sikkerhedsforanstaltninger, der er fastsat i stk. 1.

3. Udvikleren, udbrederen eller brugeren af de teknologier, der er omhandlet i stk. 1, sikrer, at de foranstaltninger, der træffes for at sikre overensstemmelse med foranstaltningerne i stk. 1, kan revideres af de nationale tilsynsmyndigheder som omhandlet i artikel 14 eller, hvis det er relevant, andre nationale eller europæiske sektorspecifikke tilsynsmyndigheder.

Artikel 9

Ikkeforudindtagethed og ikkeforskelsbehandling

 

1. Software, algoritmer eller data af en hvilken som helst art, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, der udvikles, udbredes eller anvendes i Unionen, skal være objektive og må ikke, uden at det berører stk. 3, diskriminere på grund af f.eks. race, køn, seksuel orientering, graviditet, handicap, fysiske eller genetiske træk, alder, nationalt mindretal, etnisk eller social oprindelse, sprog, religion eller tro, politiske synspunkter eller aktivt medborgerskab, statsborgerskab, civil eller økonomisk status, uddannelse eller straffeattest.

 

2. Uanset stk. 1 og 2 og uden at det berører EU-retten om ulovlig forskelsbehandling, kan enhver forskelsbehandling af personer eller grupper af personer kun begrundes, hvis der foreligger et objektivt, rimeligt og legitimt mål, der både er forholdsmæssigt og nødvendigt, for så vidt som der ikke findes noget alternativ, som ville medføre et mindre indgreb i ligebehandlingsprincippet.

Artikel 10

Socialt ansvar og ligestilling mellem kønnene

Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko af en hvilken som helst art – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, der udvikles, udbredes og anvendes i Unionen – udvikles, udbredes og anvendes i overensstemmelse med den relevante EU-lovgivning og de relevante principper og værdier på en måde, der ikke griber ind i valg eller bidrager til udbredelse af desinformation, respekterer arbejdstageres rettigheder, fremmer uddannelse af høj kvalitet og digitale færdigheder, ikke øger kønsskævheden ved at forhindre lige muligheder for alle og ikke tilsidesætter intellektuelle ejendomsrettigheder og eventuelle begrænsninger eller undtagelser herfor.

Artikel 11

Miljømæssig bæredygtighed

Kunstig intelligens, robotteknologi og relaterede teknologier af en hvilken som helst art – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – vurderes med hensyn til deres miljømæssige bæredygtighed af de nationale tilsynsmyndigheder som omhandlet i artikel 14 eller, hvis det er relevant, andre nationale eller europæiske sektorspecifikke tilsynsmyndigheder, for at sikre, at der iværksættes foranstaltninger til at afbøde og afhjælpe deres generelle indvirkning på naturressourcer, energiforbrug, affaldsproduktion, CO2-fodaftryk, klimakrisen og miljøforringelse med henblik på at sikre overholdelse af gældende EU-ret eller national ret såvel som alle internationale miljøforpligtelser, som Unionen har indgået.

Artikel 12

Respekt for privatlivets fred og beskyttelse af personoplysninger

Anvendelse og indsamling af biometriske data til fjernidentifikation på offentlige områder som biometrisk genkendelse eller ansigtsgenkendelse indebærer specifikke risici for de grundlæggende rettigheder og må kun udbredes eller anvendes af medlemsstaternes offentlige myndigheder med henblik på væsentlige formål af offentlig interesse. Disse myndigheder sikrer, at en sådan udbredelse eller anvendelse offentliggøres, forholdsmæssigt afpasset, målrettet og begrænset til specifikke mål og geografisk placering og begrænset i tid, i overensstemmelse med EU-retten og national ret, navnlig forordning (EU) 2016/679 og direktiv 2002/58/EF, og under behørig hensyntagen til den menneskelige værdighed og autonomi og de grundlæggende rettigheder, der er fastsat i chartret, nemlig retten til respekt for privatlivets fred og retten til beskyttelse af personoplysninger.

 

Artikel 13

Ret til at søge erstatning

 Enhver fysisk eller juridisk person har ret til at søge erstatning for kvæstelse eller skade forårsaget af udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – i strid med EU-retten og de forpligtelser, der er fastsat i denne forordning.

Artikel 14

Risikovurdering

1. Ved anvendelsen af denne forordning anses kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – for at være teknologier med høj risiko, når den sektor, hvor de udvikles, udbredes eller anvendes og alvorligheden af den eventuelle forårsagede kvæstelse eller skade, deres udvikling, udbredelse eller anvendelse, efter en risikovurdering baseret på objektive kriterier, indebærer en betydelig risiko for at forårsage kvæstelse eller skade, som kan forventes at forekomme, på enkeltpersoner eller samfundet, i strid med de grundlæggende rettigheder og sikkerhedsregler som fastsat i EU-retten.

2. Uden at dette berører gældende sektorspecifik lovgivning, foretages risikovurderingen af kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – i overensstemmelse med de objektive kriterier, der er fastsat i stk. 1 i denne artikel og i den udtømmende og kumulative liste, der er fastsat i bilaget til denne forordning, af de i artikel 14 omhandlede nationale tilsynsmyndigheder under koordinering af Kommissionen og/eller andre relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål i forbindelse med deres samarbejde.

3. I samarbejde med de i stk. 2 omhandlede nationale tilsynsmyndigheder udarbejder Kommissionen og ajourfører efterfølgende, ved hjælp af delegerede retsakter i overensstemmelse med artikel 15a, en fælles liste over teknologier med høj risiko, der er identificeret inden for Unionen.

4. Kommissionen ajourfører også, ved hjælp af delegerede retsakter i overensstemmelse med artikel 15a, regelmæssigt listen i bilaget til denne forordning.

Artikel 15

Overensstemmelsesvurdering

1. Kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko underkastes en vurdering af overensstemmelsen med de forpligtelser, der er fastsat i artikel 6-12 i denne forordning, samt en efterfølgende overvågning, som begge gennemføres af de nationale tilsynsmyndigheder, der er omhandlet i artikel 17, under koordinering af Kommissionen og/eller andre relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål.

 

2. Software, algoritmer og data, der anvendes eller produceres af teknologier med høj risiko, som er blevet vurderet til at være i overensstemmelse med de forpligtelser, der er fastsat i denne forordning, i henhold til stk. 1, anses også for at være i overensstemmelse med disse forpligtelser, medmindre den relevante nationale tilsynsmyndighed beslutter at foretage en vurdering på eget initiativ eller efter anmodning fra udvikleren, udbrederen eller brugeren.

 

3. Uden at det berører den sektorspecifikke lovgivning, udarbejder Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, bindende retningslinjer om den metode, der skal anvendes af de nationale tilsynsmyndigheder til den overensstemmelsesvurdering, der er omhandlet i stk. 1, senest på datoen for denne forordnings ikrafttræden.

 

Artikel 16

Europæisk certifikat for overholdelse af etiske principper

1. Hvis der har været en positiv overensstemmelsesvurdering af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – som er foretaget i overensstemmelse med artikel 7a, udsteder den respektive nationale tilsynsmyndighed et europæisk certifikat for overholdelse af etiske principper.

 

2. Enhver udvikler, udbreder eller bruger af kunstig intelligens, robotteknologi og relaterede teknologier – herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier – som ikke anses for at være forbundet med høj risiko, og som derfor ikke er omfattet af de forpligtelser, der er fastsat i artikel 6-12, og af den risikovurdering og overensstemmelsesvurdering, der er omhandlet i artikel 13 og 14, kan også søge om attestering af, at de overholder de forpligtelser, der er fastsat i denne forordning, eller dele af dem, hvis det berettiges af arten af den pågældende teknologi, i overensstemmelse med de nationale tilsynsmyndigheders beslutning. Der udstedes kun et certifikat, hvis den relevante nationale tilsynsmyndighed har foretaget en overensstemmelsesvurdering, og denne vurdering er positiv.

 

3. Med henblik på udstedelsen af det i stk. 2 omhandlede certifikat udvikler Kommissionen og/eller andre relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges til dette formål, en ansøgningsprocedure.

 

Kapitel III

Institutionelt tilsyn

Artikel 17

Forvaltningsstandarder og gennemførelsesvejledning

1. Kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, skal overholde de relevante forvaltningsstandarder, der er fastsat i overensstemmelse med Unionens lovgivning, principper og værdier af de i artikel 17 omhandlede nationale tilsynsmyndigheder i overensstemmelse med Unionens lovgivning, principper og værdier, under koordinering af Kommissionen og/eller relevante EU-institutioner, -organer, -kontorer og -agenturer, som kan udpeges til dette formål og i samråd med relevante interessenter.

 

2. De standarder, der er omhandlet i stk. 1, omfatter ikkebindende gennemførelsesretningslinjer om metoden for at sikre, at udviklere, udbredere og brugere overholder denne forordning, og offentliggøres senest på datoen for denne forordnings ikrafttræden.

 

3. Data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, som udvikles, udbredes eller anvendes i Unionen, forvaltes af udviklere, udbredere og brugere i overensstemmelse med relevante regler og standarder, der anvendes på nationalt plan, inden for Unionen, af andre europæiske organisationer samt på internationalt plan, såvel som med relevante industri- og virksomhedsprotokoller. Navnlig foretager udviklere og udbredere, hvor det er muligt, kvalitetskontrol af de eksterne datakilder, der anvendes af kunstig intelligens, robotteknologi og relaterede teknologier, og indfører tilsynsmekanismer med hensyn til deres indsamling, opbevaring, forarbejdning og anvendelse.

 

4. Uden at det berører muligheden for overførsel af rettigheder og rettigheder for personer, hvis anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier har genereret data, skal indsamling, lagring, behandling, deling af og adgang til data, der anvendes eller produceres af kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, være i overensstemmelse med relevante de regler og standarder, der anvendes på nationalt plan, inden for Unionen, af andre europæiske organisationer samt på internationalt plan, såvel som med relevante industri- og virksomhedsprotokoller. Navnlig sikrer udviklere og udbredere, at disse protokoller anvendes under udviklingen og udbredelsen af kunstig intelligens, robotteknologi og relaterede teknologier, ved klart at definere kravene til behandling og tildeling af adgang til data, der anvendes eller produceres af disse teknologier, samt formålet med, omfanget af og adressaterne for behandlingen og tildelingen af adgang til sådanne data, som til enhver tid skal kunne revideres og spores.

 

Artikel 18

Tilsynsmyndigheder

1. De enkelte medlemsstater udpeger en uafhængig offentlig myndighed, der er ansvarlig for tilsynet med anvendelsen af denne forordning ("tilsynsmyndighed") og for udførelsen af de risiko- og overensstemmelsesvurderinger og det certifikat, der er omhandlet i artikel 13, 14 og 15, uden at det berører den sektorspecifikke lovgivning.

 

2. De enkelte nationale tilsynsmyndigheder bidrager til ensartet anvendelse af denne forordning i hele Unionen. Med henblik herpå samarbejder tilsynsmyndighederne i de enkelte medlemsstater med hinanden, med Kommissionen og/eller med andre relevante EU-institutioner, -organer, -kontorer og -agenturer, som kan udpeges til dette formål.

 

3. De enkelte nationale tilsynsmyndigheder fungerer som første kontaktpunkt i tilfælde af mistanke om overtrædelse af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning, herunder forskelsbehandling eller krænkelse af andre rettigheder, som følge af udvikling, udbredelse eller anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier. I sådanne tilfælde foretager den pågældende nationale tilsynsmyndighed en overensstemmelsesvurdering med henblik på at støtte borgernes ret til at gøre indsigelse og klage.

 

4. De enkelte nationale tilsynsmyndigheder er ansvarlige for at føre tilsyn med anvendelsen af de relevante nationale, europæiske og internationale forvaltningsregler og -standarder, der er omhandlet i artikel 13, inden for kunstig intelligens, robotteknologi og relaterede teknologier, herunder ved at samarbejde med det størst mulige antal relevante interessenter. Med henblik herpå tilvejebringer tilsynsmyndighederne i hver medlemsstat et forum for regelmæssig udveksling af synspunkter med og mellem interessenter fra den akademiske verden, forskningsverdenen, industrien og civilsamfundet.

 

5. De enkelte nationale tilsynsmyndigheder yder faglig og administrativ vejledning og støtte i forbindelse med den generelle gennemførelse af gældende EU-lovgivning om kunstig intelligens, robotteknologi og relaterede teknologier samt de etiske principper, der er fastsat i denne forordning, navnlig til relevante forsknings- og udviklingsorganisationer og små og mellemstore virksomheder eller nystartede virksomheder.

 

6. De enkelte medlemsstater meddeler Europa-Kommissionen de retlige bestemmelser, som de vedtager i henhold til denne artikel, senest den [EUT: indsæt venligst datoen et år efter ikrafttrædelsen] og snarest muligt eventuelle senere ændringer, der vedrører dem.

 

7. Medlemsstaterne træffer alle nødvendige foranstaltninger for at sikre gennemførelsen af de etiske principper og retlige forpligtelser, der er fastsat i denne forordning. Medlemsstaterne støtter de relevante interessenter og civilsamfundet på både EU-plan og nationalt plan i deres bestræbelser på at sikre en rettidig, etisk og velinformeret respons på de nye muligheder og udfordringer, navnlig grænseoverskridende muligheder og udfordringer, der opstår som følge af den teknologiske udvikling inden for kunstig intelligens, robotteknologi og relaterede teknologier.

 

Artikel 19

Indberetning af overtrædelser og beskyttelse af indberettende personer

 

Europa-Parlamentets og Rådets direktiv (EU) 2019/1937[18] finder anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af personer, der indberetter sådanne overtrædelser.

 

Artikel 20

Koordinering på EU-plan

1. Kommissionen og/eller eventuelle relevante EU-institutioner, -organer, -kontorer og -agenturer, der kan udpeges i denne forbindelse, har følgende opgaver:

 

 at sikre en sammenhængende risikovurdering af kunstig intelligens, robotteknologi og relaterede teknologier, der omhandlet i artikel 13, som skal foretages af de nationale tilsynsmyndigheder, der er omhandlet i artikel 17, på grundlag af de fælles objektive kriterier, der er fastlagt i artikel 7, stk. 1, og på listen over sektorer med høj risiko og over anvendelser eller formål med høj risiko, der er fastsat i bilaget til denne forordning

 

 at notere sig overensstemmelsesvurderingen og den efterfølgende overvågning af kunstig intelligens, robotteknologi og relaterede teknologier med høj risiko, der er omhandlet i artikel 14, som skal foretages af de nationale tilsynsmyndigheder, der er omhandlet i artikel 17

 

 at udvikle ansøgningsprocessen for det i artikel 15 omhandlede certifikat, der skal udstedes af de nationale tilsynsmyndigheder, som er omhandlet i artikel 17

 

 uden at det berører den sektorspecifikke lovgivning, at udarbejde de bindende retningslinjer, som er omhandlet i artikel 14, stk. 3, om den metode, der skal anvendes af de nationale tilsynsmyndigheder, der er omhandlet i artikel 17

 

 at koordinere de i artikel 17 omhandlede nationale tilsynsmyndigheders udarbejdelse af de relevante forvaltningsstandarder, der er omhandlet i artikel 16, herunder ikkebindende gennemførelsesretningslinjer for udviklere, udbredere og brugere om metoden for overholdelse af denne forordning

 

 at samarbejde med de nationale tilsynsmyndigheder, der er omhandlet i artikel 17, om deres bidrag til en ensartet anvendelse af denne forordning i hele Unionen i henhold til artikel 17, stk. 2

 

 at fungere som ekspertisecenter ved at fremme udvekslingen af oplysninger vedrørende kunstig intelligens, robotteknologi og relaterede teknologier og støtte udviklingen af en fælles forståelse på det indre marked, udstede yderligere retningslinjer, udtalelser og ekspertise til de i artikel 17 omhandlede nationale tilsynsmyndigheder, overvåge gennemførelsen af relevant EU-lovgivning, fastlægge standarder for bedste praksis og, hvor det er relevant, fremsætte anbefalinger til lovgivningsmæssige foranstaltninger; i den forbindelse bør det samarbejde med det størst mulige antal relevante interessenter og sikre, at sammensætningen af dets beslutningsniveauer er forskelligartet og sikrer ligestilling mellem kønnene

 

 at være vært for en arbejdsgruppe om sikkerhed og forsvar, der skal se nærmere på politik- og investeringsspørgsmål, der specifikt vedrører den etiske anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier inden for sikkerhed og forsvar.

 

Artikel 21

Udøvelse af de delegerede beføjelser

1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.

 

2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 7, stk. 3 og 4, tillægges Kommissionen for en periode på fem år fra (datoen for denne forordnings ikrafttræden).

 

3. Den i artikel 7, stk. 3 og 4, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen af afgørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.

 

4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen eksperter, som er udpeget af hver enkelt medlemsstat, i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.

 

5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.

 

6. En delegeret retsakt vedtaget i henhold til artikel 7, stk. 3 og 4, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på tre måneder fra meddelelsen af den pågældende retsakt til Europa-Parlamentet og Rådet, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har informeret Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre måneder på Europa-Parlamentets eller Rådets initiativ.

 

Artikel 22

Ændringer af direktiv (EU) nr. 2019/1937

 

I direktiv (EU) nr. 2019/1937 foretages følgende ændringer:

 

1) I artikel 2, stk. 1, tilføjes følgende litra:

 

"(xi) udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier"

 

2) I Del I i bilaget indsættes følgende litra:

 

"K. Artikel 2, stk. 1, litra a), nr. xi) – udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier.

 

"xxi) Europa-Parlamentets og Rådets forordning [XXX] om de etiske principper for udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier"."

Artikel 23

Revision

Kommissionen reviderer regelmæssigt udviklingen af kunstig intelligens, robotteknologi og relaterede teknologier, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier, og aflægger senest [EUT: indsæt datoen tre år efter ikrafttrædelsen], og derefter hvert tredje år, en rapport til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg om anvendelsen af denne forordning, herunder en vurdering af den mulige ændring af anvendelsesområdet for denne forordning.

Artikel 24

Ikrafttræden

1. Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende. Den anvendes fra den XX.

2. Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i medlemsstaterne i overensstemmelse med traktaten om oprettelse af Den Europæiske Union.

Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.


 

BILAG

 

En udtømmende og kumulativ liste over sektorer med høj risiko og over anvendelser eller formål med høj risiko, der indebærer en risiko for overtrædelse af grundlæggende rettigheder og sikkerhedsregler.

 

 

Sektorer med høj risiko

 

 Beskæftigelse

 Uddannelse

 Sundhedspleje

 Transport

 Energi

 Den offentlige sektor (asyl, migration, grænsekontrol, retsvæsen og socialsikringstjenester)

 Forsvar og sikkerhed

 Finans, bankvirksomhed, forsikring

 

 

Anvendelser eller formål med høj risiko

 

 Ansættelse

 Karaktergivning og bedømmelse af studerende

 Tildeling af offentlige midler

 Ydelse af lån

 Handel, mæglervirksomhed, beskatning osv.

 Lægelige behandlinger og medicinske procedurer

 Valgprocesser og politiske kampagner

 Den offentlige sektors beslutninger, der har en væsentlig og direkte indvirkning på fysiske eller juridiske personers rettigheder og forpligtelser

 Automatiseret kørsel

 Trafikstyring

 Autonome militærsystemer

 Energiproduktion og -distribution

 Affaldshåndtering

 Emissionsbegrænsning

 

 


 

BEGRUNDELSE

 

Under en scene i filmen "Blade Runner" fra 1982 udspiller der sig en dialog mellem Rachael, som er et replikat, der arbejder for en virksomhed, der fremstiller disse replikater, dvs. menneskelignende robotter med intelligens, og Deckard, en prisjæger, der lever af at eliminere kopier, som man har mistet kontrollen over. Hun siger:

 

-“It seems you feel our work is not a benefit to the public”.

 

Svaret lyder:

 

-“Replicants are like any other machine - they're either a benefit or a hazard. If they're a benefit, it's not my problem”.

 

Fordele og risici

 

Den massive anvendelse af kunstig intelligens i alle de maskiner, som vi interagerer med i det offentlige liv, arbejdslivet og det sociale liv, vil komme til at indebære - og gør det allerede - et stort spring fremad i den teknologiske udvikling, der kun kan sammenlignes med det, der skete under den industrielle revolution. Livet vil aldrig blive som før. Der kommer til at ske betydelige forandringer på arbejdsmarkedet, og i vores forhold til statsmagten, i vores personlige kontakter og endda i vores hjemmetilværelse - vi behøver blot at forestille os, hvad "tingenes internet" indebærer i alle de apparater, vi betjener os af i vores hjem. Et teknologisk spring af et sådant omfang stiller os over for et sådant dilemma, som vi blev præsenteret for i svaret i "Blade Runner", nemlig at al teknologi rummer fordele såvel som risici. Når vi taler om kunstig intelligens, taler vi om fordele eller risici i et hidtil uhørt omfang i betragtning af det enorme potentiale, den rummer.

 

Den Europæiske Unions rolle med hensyn til at fastlægge en retlig ramme

 

De offentlige myndigheder kan dog ikke forholde sig til dette fænomen med den samme professionelle kynisme som Deckard. Netop derfor er det for Europa-Parlamentet ligeså vigtigt at fremme det potentiale, som disse teknologier har for Europas velfærd og konkurrenceevne, som at kontrollere de iboende risici eller forudse, hvilke konsekvenser nogle af disse risici kan få. Vi vil derfor være pionerer med hensyn til at fastlægge en etisk tærskel, der på den ene side beskytter de europæiske borgere mod de problemer, som denne teknologiske udvikling fører med sig, og på den anden side bidrage med en merværdi i form af en generel tillid til den europæiske kunstige intelligens i verden. V må have en etisk tærskel, der er i overensstemmelse med vores europæiske principper og værdier, som afspejlet i Den Europæiske Unions charter om grundlæggende rettigheder, og som også er i overensstemmelse med vores civilisation. Lovgivningen skal bestå i et regelværk, der er inspireret af et humanistisk og menneskecentreret syn på den teknologiske udvikling. En forordning, der ikke kun gælder for kunstig intelligens, der udvikles i Europa, men som indeholder strenge regler for alle, der har til hensigt at drive virksomhed i Unionen.

 

Det er bydende nødvendigt, at rammerne for rettigheder og pligter er fælles for alle EU's medlemsstater. En række nationale bestemmelser uden en fælles reference kan føre til en forstyrrelse af det indre marked og hæmme vores kollektive indsats for at opnå en førende position i verden på det teknologiske område. Oprettelsen af et europæisk agentur til overvågning af udviklingen af denne forordning vil i sidste instans føre til en harmonisering af de retlige og tekniske rammer, der er udviklet i de enkelte medlemsstater.

 

En fleksibel regulering med fremtidsperspektiv

 

I modsætning til dem, der går ind for at bevæge sig væk fra regulering af denne sektor og overlade den til selvregulering, kan indledningen af en dialog tjene til også at illustrere behovet for inddragelse af offentligheden, hvilket vil kunne sikre, at man vil kunne nå mål, der rækker ud over økonomisk gevinst. Forebyggelse af forskelsbehandling (uanset hvad den bunder i) i beslutningsprocessen og udnyttelse af disse teknologiers evne til at gøre fremskridt i retning af et mere retfærdigt samfund med særlig fokus på at mindske kønsforskelle samt mod et mere miljømæssigt bæredygtigt samfund er nogle af de andre mål, som de offentlige institutioner i Europa skal sikre. Hvad angår de sidstnævnte spørgsmål, fastsættes der i teksten udtrykkelige mandater til de europæiske offentlige myndigheder.

 

Formålet med denne standard er også at kombinere en streng ramme samtidig med, at der skabes et enkelt regelværk, så man undgår komplicerede regelsystemer og/eller tungt bureaukrati for de involverede parter. Der arbejdes også på at skabe en tilstrækkelig fleksibel ramme for at kunne tage højde for udviklingen i en virkelighed, der er i hastig forandring, samtidig med at der gives mulighed for at udvikle sektorspecifikke standarder, der er afpasset efter de mere konkrete forhold.

 

En integreret tilgang med oprettelse af nationale tilsynsorganer

 

Formålet med denne forordning er at udvide tilsynet til at omfatte alle faser i en i yderst kompliceret teknologi. Hvordan denne teknologi udvikles og gennemføres, og hvordan den videreudvikles gennem maskinlæring eller "deep learning" er aspekter, der er omfattet af de relevante bestemmelser. Der sættes særligt fokus på forebyggelse af højrisikoteknologier, dvs. hvor der er stor sandsynlighed for, at der vil opstå negative eksterne virkninger og/eller hvor følsomme enmer, der kræver særlig beskyttelse, berøres. Disse defineres i forordningen. Hvad angår individuelle rettigheder, indføres der bestemmelser for et så følsomt spørgsmål som fjerngenkendelsesteknikker, og der fastlægges mange beskyttelsesforanstaltninger for anvendelsen heraf. Der fastlægges også meget strenge materielle og tidsmæssige rammer, således at teknikkerne undtagelsesvis kan anvendes af offentlige myndigheder i forbindelse med alvorlige nødsituationer.

 

Det er ligeledes meningen, at den brede offentlighed og især de mest berørte og udsatte kredse skal kunne deltage i udformningen, udviklingen, kontrollen og tilsynet med denne reguleringsramme. Teksten fastsætter, at alle de nationale tilsynsorganer, som skal oprettes i henhold til denne bestemmelse, skal have mandat til at sørge for det nødvendige samarbejde med civilsamfundet, som skal foregå regelmæssigt. På samme måde fastsættes der forpligtelser med hensyn til gennemsigtighed og ansvarlighed for udviklere, udbredere og brugere af kunstig intelligens. Der fastsættes også krav om aktivt medborgerskab for brugerne og den nødvendige beskyttelse, de skal være omfattet af, når de anvender disse teknologier i god tro.

 

Forståelighed, gennemsigtighed, regnskabspligt, ansvarlighed og forvaltning

 

Vi er stadig langt fra muligheden af, at en algoritme vil kunne skabe den "psykohistorie", som Isaac Asimov beskriver i "Stiftelsen". Den frie vilje, som er et så grundlæggende princip i det menneskelige vilkår, synes ikke at være under trussel på nuværende tidspunkt. Dette gælder endda også, når det drejer sig om at foregribe de vigtigste historiske strømninger. De demokratiske magthavere skal sikre, at de store og små beslutninger, som træffes ved hjælp af kunstig intelligens, ikke træffes på grundlag af dunkle og utilgængelige matematiske formler. Forståelighed, klarhed, regnskabspligt og ansvarlighed vil være en uundgåelig forudsætning for, at kunstig intelligens kan udvikles og udbredes i Den Europæiske Union.

 

Kort sagt stræber Den Europæiske Union efter at blive et område, hvor der hersker en nødvendig balance mellem nødvendigheden af at beskytte borgernes rettigheder og styrke den teknologiske udvikling. Vores regulering og den form, den vil antage, efterhånden som den udvikles af det eller de tilsynsførende organ(er), bør være et eksempel for resten af verden og det første skridt til at sikre, at dette fænomen håndteres på korrekt vis på verdensplan.

 


 

 

 

UDTALELSE FRA UDENRIGSUDVALGET (24.6.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier
(2020/2012(INL))

Ordfører for udtalelse (*): Urmas Paet

(*) Associeret udvalg – forretningsordenens artikel 57

(Initiativ – forretningsordenens artikel 47)


 

 

 

 

FORSLAG

Udenrigsudvalget opfordrer Retsudvalget, som er korresponderende udvalg,

 til at optage følgende forslag i det beslutningsforslag, det vedtager:

1. fremhæver, at Den Europæiske Unions og dens medlemsstaters sikkerheds- og forsvarspolitik styres af principperne i Den Europæiske Unions charter om grundlæggende rettigheder og FN-pagten og af en fælles forståelse af de universelle værdier: respekt for det enkelte menneskes ukrænkelige og umistelige rettigheder, menneskelig værdighed samt frihed, demokrati, lighed og retsstaten; fremhæver, at alle forsvarsrelaterede bestræbelser inden for EU's ramme skal overholde disse universelle værdier og samtidig fremme fred, sikkerhed og fremskridt i Europa og i verden; mener, at anvendelsen af kunstig intelligens (AI) bør baseres på et fælles sæt etiske principper, ifølge hvilke anvendelsen skal være: ansvarlig, retfærdig, sporbar, pålidelig og offentligt tilgængelig;

2. glæder sig over godkendelsen på 2019-mødet mellem høje kontraherende parter i FN's konvention om visse konventionelle våben (CCW) af 11 vejledende principper for udvikling og anvendelse af autonome våbensystemer; beklager imidlertid, at der ikke er opnået enighed om et juridisk bindende instrument til regulering af dødbringende autonome våben med en effektiv håndhævelsesmekanisme; glæder sig over og støtter Kommissionens ekspertgruppe på højt plan om kunstig intelligens "Etiske retningslinjer for pålidelig kunstig intelligens", der blev offentliggjort den 9. april 2019, og dens holdning til dødbringende autonome våbensystemer (også kaldet LAWS); opfordrer indtrængende medlemsstaterne til at udvikle nationale strategier for definition af og status for dødbringende autonome våben (LAWS) hen imod en omfattende strategi på EU-plan og til sammen med Unionens højtstående repræsentant/næstformanden i Kommissionen ("HR/NF") og Rådet at fremme drøftelserne om LAWS i FN's CCW-ramme og andre relevante fora og indførelsen af internationale normer vedrørende de etiske og juridiske parametre for udvikling og anvendelse af fuld- og halvautonome og fjernstyrede dødbringende våbensystemer; minder i denne forbindelse om sin resolution om autonome våbensystemer af 12. september 2018 og opfordrer endnu en gang til en hurtig udvikling og vedtagelse af en fælles holdning om dødbringende autonome våbensystemer, til et internationalt forbud mod udvikling, fremstilling og anvendelse af dødbringende autonome våbensystemer, der gør det muligt at udføre angreb uden meningsfuld menneskelig kontrol og uden respekt for princippet om menneskelig medvirken i overensstemmelse med erklæringen fra verdens mest fremtrædende AI-forskere i deres åbne brev fra 2015; glæder sig over, at Rådet og Parlamentet er blevet enige om at udelukke dødbringende autonome våben, "der ikke giver mulighed for en meningsfuld menneskelig kontrol over beslutningerne angående udvælgelse og angreb i forbindelse med gennemførelse af angreb" fra foranstaltninger, der finansieres under Den Europæiske Forsvarsfond; mener, at der ikke må ses bort fra etiske aspekter af AI-applikationer på forsvarsområdet, f.eks. efterretning, overvågning og rekognoscering eller cyberoperationer, og at der skal lægges særlig vægt på udvikling og anvendelse af droner i militære operationer;

3. anbefaler, at enhver europæisk ramme for anvendelse af forsvarssystemer baseret på kunstig intelligens (AI), både i og uden for kamphandlinger, skal overholde alle gældende retlige ordninger, navnlig den humanitære folkeret og den internationale menneskerettighedslovgivning, og være i overensstemmelse med EU-retten og EU's principper og værdier; understreger, at Unionen bør spille en global rolle med hensyn til at bane vejen for en troværdig og bindende lovgivningsmæssig ramme for kunstig intelligens, der er forankret i demokratiske værdier og en menneskecentreret tilgang; opfordrer Unionen og dens medlemsstater til at udvikle fælles mekanismer til hurtigt og grundigt at vurdere de indbyggede risici og muligheder i forbindelse med anvendelsen af EU-retten, der er inspireret af bedste praksis i de mere avancerede medlemsstater, og til at sørge for den nødvendige tilpasning og håndhævelse, hvor det er nødvendigt, under hensyntagen til forskellene i tekniske og sikkerhedsmæssige infrastrukturer i hele Unionen;

4. anerkender, at kritiske AI-innovationer i modsætning til forsvarsindustrielle baser kunne komme fra små medlemsstater, og derfor bør en FSFP-standardiseret tilgang sikre, at mindre medlemsstater og SMV'er ikke fortrænges; understreger, at et sæt fælles EU-AI-kapaciteter, der matches med en medlemsstats driftskoncepter, kan afhjælpe de tekniske mangler, der kan efterlade stater uden den relevante teknologi, industriens ekspertise eller evnen til at implementere AI-systemer i deres forsvarsministerier;

5. understreger, at det geografiske anvendelsesområde for en sådan ramme bør omfatte alle elementer af kunstig intelligens, robotteknologi og relaterede teknologier, der udvikles, udbredes eller anvendes i Unionen, herunder i tilfælde, hvor en del af teknologierne kan være placeret uden for Unionen eller ikke har et specifikt sted;

6. understreger, at nye teknologier, som ikke er omfattet af folkeretten, bør vurderes ud fra princippet om respekt for menneskeheden og de offentlige samvittighedsbud; understreger, at brugen af og etikken i de AI-baserede forsvarssystemer konstant skal vurderes ud fra et menneskerettighedssynspunkt, navnlig hvad angår menneskers sikkerhed, sundhed, frihed, privatliv, integritet og værdighed, og løbende overvåges, navnlig med hensyn til fordele og ulemper ved kunstig intelligens, samt dens indvirkning på beskyttelsen af universelle menneskerettigheder; mener, at teknologiske fordele i forbindelse med AI-baserede forsvarssystemer skal gå hånd i hånd med en omfattende diskussion om anvendelsen af kunstig intelligens og dens indvirkning på samfund og de potentielle økonomiske og samfundsmæssige fordele, og at de risici, der er forbundet med anvendelsen af kunstig intelligens, skal kommunikeres korrekt;

7. mener, at nuværende og fremtidige sikkerheds- og forsvarsrelaterede aktiviteter inden for EU's ramme vil trække på AI, robotteknologi og autonomi samt relaterede teknologier, og at pålidelig og robust kunstig intelligens kan bidrage til et moderne og effektivt militær; EU må derfor indtage en førende rolle inden for forskning i og udvikling af AI-systemer på sikkerheds- og forsvarsområdet; mener, at anvendelsen af AI-baserede sikkerheds- og forsvarsapplikationer kan give en række direkte fordele for den øverstbefalende for en operation, såsom indsamlede data af højere kvalitet, større situationskendskab, øget hastighed for beslutningstagning, reduceret risiko for sikkerhedsskader takket være bedre kabelføring, beskyttelse af styrker på stedet samt større pålidelighed af militært udstyr og dermed reduceret risiko for mennesker og tab af menneskeliv; understreger, at udviklingen af pålidelig kunstig intelligens på forsvarsområdet er af afgørende betydning for at sikre europæisk strategisk uafhængighed inden for de kapacitetsmæssige og operationelle områder; minder om, at AI-systemer også er ved at blive centrale elementer i bekæmpelsen af nye sikkerhedstrusler såsom cyberkrigsførelse og hybrid krigsførelse, både i online- og offlinesfærer; understreger samtidig alle risici og udfordringer i forbindelse med ureguleret anvendelse af kunstig intelligens; bemærker, at AI kan blive udsat for manipulation, fejl og unøjagtigheder;

8. opfordrer til, at der etableres synergier og netværk mellem de forskellige europæiske forskningscentre om kunstig intelligens og andre multilaterale fora, såsom Europarådet, De Forenede Nationers Organisation for Uddannelse, Videnskab og Kultur (UNESCO), Organisationen for Økonomisk Samarbejde og Udvikling (OECD), Verdenshandelsorganisationen og Den Internationale Telekommunikationsunion (ITU), for at tilpasse deres indsats og koordinere udviklingen af teknologien inden for kunstig intelligens bedre;

9. understreger, at AI-teknologier i det væsentlige har dobbelt anvendelse, og at udviklingen af kunstig intelligens i forbindelse med forsvarsrelaterede aktiviteter drager fordel af udvekslinger mellem militære og civile teknologier; fremhæver, at kunstig intelligens i forbindelse med forsvarsrelaterede aktiviteter er en tværgående, disruptiv teknologi, hvis udvikling kan skabe muligheder for konkurrenceevnen og strategisk autonomi i Unionen;

10. understreger på baggrund af Kommissionens meddelelse om opbygning af tillid til menneskecentreret kunstig intelligens af 8. april 2019 om, at teknologien fuldt ud respekterer menneskerettighederne, og at mennesker har autoriteten i forbindelse med brugen af automatiske beslutningssystemer, samtidig med at den supplerer og støtter menneskers autonomi og beslutningstagning, at Unionen har brug for solide lovgivningsmæssige rammer for kunstig intelligens med fokus på sikkerhed og forsvar, der følger en tilgang med ansvar og gennemsigtighed, med henblik på at beskytte vores borgere og deres oplysninger og forsvare vores værdier, at dens politikker tager sigte på at bevare freden, forebygge konflikter og styrke den internationale sikkerhed, samtidig med at man udnytter de muligheder, som disse teknologier tilbyder, og samtidig indse, at AI-baserede systemer vil være centrale i fremtidige forsvarsudviklinger og -kapaciteter;

11. opfordrer medlemsstaterne og Kommissionen til at sikre, at de algoritmer, der anvendes i forsvarssystemerne er underlagt princippet om gennemsigtighed, herunder en klar ansvarsordning for resultaterne af anvendelsen af AI, samtidig med at den nødvendige fortrolighed bevares; understreger, at disse algoritmer konstant skal tilpasses fremskridtene inden for AI-teknologier;

12. understreger, at Unionen skal være i front med hensyn til at støtte den multilaterale indsats inden for rammerne af FN's CCW-regeringsekspertgruppe og andre relevante fora, drøfte en effektiv international reguleringsramme, der sikrer meningsfuld menneskelig kontrol over autonome våbensystemer for at beherske disse teknologier ved at etablere veldefinerede, benchmarkbaserede processer og vedtage lovgivning om deres etiske brug i samråd med militæret, industrien, retshåndhævelsesmyndighederne, den akademiske verden og civilsamfundet, forstå de relaterede etiske aspekter og dæmme op for de iboende risici ved sådanne teknologier og forhindre, at de anvendes til ondsindede formål; understreger, at disse navnlig omfatter utilsigtet skade på personer, hvad enten det er af materiel eller immateriel art, såsom krænkelse af de grundlæggende rettigheder eller fysisk skade; mener, at Unionen i samarbejde med medlemsstaterne skal fastlægge passende ansvarsordninger for innovation inden for kunstig intelligens og andre immersive teknologier inden for sikkerhed og forsvar, hvorved der skabes et retsgrundlag for ansvarligheds- og sporbarhedsmekanismer; understreger, at Unionens lovgivning og normative rammer ikke må overhales af fremtidige teknologiske fremskridt, fremskridt inden for kunstig intelligens og nye krigsmetoder og derfor skal understøttes af relevante overvågningsordninger, der løbende tilpasses for at forhindre juridiske smuthuller eller gråzoner; understreger, at yderligere forskning og udvikling inden for kunstig intelligens bør sikre, at AI-baserede systemer er bedre rustet til at forstå unikke sammenhænge;

13. tilslutter sig det centrale princip "ethics-by-design", hvorved etiske principper indlejres i AI-produkter og -tjenester fra starten af konstruktionsprocessen;

14. minder om, at størstedelen af de nuværende militære beføjelser på verdensplan allerede har været involveret i betydelige F&U-tiltag i forbindelse med den militære dimension af kunstig intelligens; mener, at Unionen skal sørge for, at den ikke sakker agterud i denne henseende; understreger, at Unionen for enhver forsvarsanvendelse af AI-baserede systemer bør fastsætte tekniske og organisatoriske standarder i overensstemmelse med princippet om "security by design", der giver mulighed for specifik menneskelig overvågning, for at sikre sådanne systemers modstandsdygtighed over for sårbarheder, der kan udnyttes af eksterne angreb, cyberangreb og digital påvirkning, som er rettet mod data, model eller underliggende infrastruktur, både hvad angår software og hardware, samt deres overholdelse af de højest mulige pålidelighedsstandarder, aktiv overvågning og tilsyn med hensyn til indsamling, lagring og udnyttelse af operationelle data i hele systemets livscyklus; understreger betydningen af gennemsigtighed og ansvarlighed i AI-algoritmer; bemærker den vigtige skelnen mellem gennemsigtighed af algoritmer og gennemsigtighed i brugen af algoritmer; understreger, at AI-systemer og applikationer, der har til formål at udvinde og sammenfatte data og ekstrapolere de deraf følgende resultater med henblik på at danne grundlag for beslutninger om spørgsmål vedrørende forsvar og national sikkerhed, skal være specifikke og overholde de bestemmelser, der er fastsat i den nuværende lovgivningsmæssige ramme med hensyn til indsamling og behandling af data; understreger, at AI-applikationer, der er udformet til at behandle data til efterretningsformål i forsvarsrelaterede aktiviteter, bør overholde standarderne for databehandling for at undgå utilsigtet overvågning eller krænkelse af individuelle rettigheder; mener, at for højrisikoanvendelser af AI-baserede teknologier som f.eks. ansigtsgenkendelse, der mangler en endelig lovgivningsmæssig ramme på EU-plan, skal Unionen sikre, at deres udvikling og anvendelse er korrekt, forholdsmæssig og respekterer enkeltpersoners rettigheder; understreger, at de kompetente nationale retshåndhævende myndigheder skal respektere den relevante lovgivning og samtidig udvikle og anvende AI-baserede systemer og teknologier til at opretholde den offentlige orden med henblik på at afbøde de uforholdsmæssigt store risici for forudsigende politiarbejde; anerkender, at den primære garant for den euro-atlantiske sikkerhed er NATO, og opfordrer til øget samarbejde inden for NATO-alliancen for indførelse af fælles standarder og interoperabilitet af AI-systemer på forsvarsområdet; understreger, at det transatlantiske forhold er afgørende for at bevare fælles værdier og imødegå fremtidige og nye trusler;

15. understreger behovet for at vedtage klare foranstaltninger for og krav til ansvar og sikkerhed med passende certificeringer af AI-systemer på sikkerheds- og forsvarsområdet, indføre gennemsigtighedskriterier i de forskellige faser, nemlig design, produktion og drift, og foretage konstant overvågning, regelmæssige prøvninger og verifikation gennem hele livscyklussen; understreger nødvendigheden af at sikre overholdelse af gældende standarder og indhentede certificeringer, hvor kunstig intelligens f.eks. ved hjælp af maskinindlæring ændrer den funktionalitet og adfærd, der kendetegner systemer, som den er integreret i, med henblik på at sikre fuld sporbarhed, forklarlighed og ansvarlighed af de beslutninger, der træffes med inddragelse af kunstig intelligens, og resultaterne heraf, samt meningsfyldt menneskelig kontrol, når disse systemer kan slå mennesker ihjel;

16. opfordrer Kommissionen til at indarbejde kapacitetsopbygning inden for cybersikkerhed i sin industripolitik for at sikre udvikling og udbredelse af sikre, modstandsdygtige og robuste AI-baserede og robotteknologiske systemer; opfordrer Kommissionen til at undersøge brugen af blockchainbaserede cybersikkerhedsprotokoller og -applikationer for at forbedre modstandsdygtigheden og robustheden ved samt tilliden til AI-infrastrukturer gennem ikkeregistrerede modeller for datakryptering; opfordrer europæiske interessenter til at forske i og udvikle avancerede funktioner, der kan lette afsløringen af korrupte og ondsindede AI-baserede og robotteknologiske systemer, som kan undergrave sikkerheden for Unionen og borgerne;

17. understreger, at alle AI-systemer på forsvarsområdet skal have en konkret og veldefineret ramme for missionen, således at mennesker bevarer magten til at opdage og udskille eller deaktivere anvendte systemer, hvis de bevæger sig ud over den ramme for missionen, der er defineret og tildelt af en menneskelig øverstbefalende, eller går ind i en vilkårlig eller utilsigtet handling; mener, at systemer, produkter og teknologi, der er baseret på kunstig intelligens, og som er beregnet til militær anvendelse, bør forsynes med en sort boks til registrering af enhver datatransaktion udført af maskinen;

18. understreger, at hele ansvaret for beslutningen om at udforme, udvikle, anvende og benytte AI-systemer skal påhvile de menneskelige operatører, da der skal være en meningsfuld menneskelig overvågning og kontrol af ethvert våbensystem og menneskelig hensigt i beslutningen om at anvende magt i forbindelse med gennemførelsen af enhver afgørelse om AI-baserede våbensystemer, der kan have dødelige konsekvenser; understreger, at den menneskelige kontrol fortsat bør være effektiv til kommando over og kontrol med systemer, der er aktiveret ved kunstig intelligens, i overensstemmelse med principperne for human-in-the-loop, human-on-the-loop and human-in-command på det militære ledelsesniveau; understreger, at systemer, der anvender kunstig intelligens, skal give hæres militære lederskab mulighed for at påtage sig det fulde ansvar for brugen af dødelige magtmidler og udøve den grad af vurdering, der er nødvendig for at begå dødbringende eller storstilede destruktive handlinger gennem sådanne systemer, som ikke kan overlades til maskiner, da den skal være baseret på sondring, proportionalitet og forsigtighed; understreger behovet for at etablere klare og sporbare tilladelses- og ansvarlighedsrammer for indførelsen af intelligente våben og andre AI-baserede systemer ved hjælp af unikke brugerkarakteristika såsom biometriske specifikationer, der udelukkende skal muliggøre anvendelse af autoriseret personale;

19. opfordrer Kommissionen til at arbejde sammen med medlemsstaternes nationale kompetente myndigheder og andre interessenter, der deltager i udvikling og ibrugtagning af systemer, produkter og teknologier, der er baseret på kunstig intelligens, med henblik på at etablere en sikker, modstandsdygtig ramme, hvorved kildekoden for systemer, der er baseret på kunstig intelligens, deles, overvåges og kontrolleres for at afbøde eventuelle afvigelser fra de styrende principper og den etiske ramme, der ligger til grund for AI-teknologi på sikkerheds- og forsvarsområdet; foreslår Kommissionen, at Unionen bevarer den intellektuelle ejendomsret til EU-finansieret forskning i AI-baserede systemer, produkter og teknologier på sikkerheds- og forsvarsområdet;

20. understreger, at Unionen skal fremme en bedre forståelse af de militære implikationer, fordele, muligheder og svagheder ved kunstig intelligens, robotteknologi og autonome funktioner og karakteristika, herunder potentialet for den europæiske forsvarsindustri, ved at arbejde sammen med militærfolk; mener, at EU er nødt til at fremme erhvervelsen af de nødvendige færdigheder og den nødvendige viden om teknologiudviklingsprocesser og operationelle metoder i hele forsyningskæden og i hele livscyklussen for den militære kapacitet, der anvender kunstig intelligens; understreger det presserende behov for at skabe øget europæisk strategisk og teknologisk uafhængighed inden for AI-baserede systemer, herunder den kritiske infrastruktur, som den bygger på;

21. mener, at det er nødvendigt med et forstærket samarbejde mellem medlemsstaterne og Kommissionen for at sikre sammenhængende grænseoverskridende regler i Unionen, fremme samarbejdet mellem de europæiske industrier og muliggøre udvikling og ibrugtagning af AI-baserede teknologier i overensstemmelse med de fastsatte sikkerheds- og sikringsstandarder og den etiske ramme for udvikling og anvendelse af AI-teknologi;

22. anerkender, at i en tid med hybrid og avanceret krigsførelse kan mængden og hastigheden af oplysninger under de tidlige faser af en krise være overvældende for menneskelige analytikere, og at et AI-system kan behandle oplysningerne for at sikre, at de menneskelige beslutningstagere holder øje med det fulde spektrum af information inden for en passende tidsramme for en hurtig indsats;

23. understreger betydningen af at investere i udvikling af menneskelig kapital til kunstig intelligens, fremme de nødvendige færdigheder og den nødvendige uddannelse inden for AI-teknologier på sikkerheds- og forsvarsområdet med særlig fokus på etik i halvautonome og autonome operationelle systemer, der er baseret på menneskelig ansvarlighed i en AI-baseret verden; understreger især, at det er vigtigt at sikre, at etikere på dette område har de rette kvalifikationer og modtager en passende uddannelse; opfordrer Kommissionen til snarest muligt at forelægge sin "styrkelse af dagsordenen for færdigheder", der blev bebudet i hvidbogen om kunstig intelligens den 19. februar 2020;

24. understreger, at kvantedatabehandling kan være den mest revolutionerende forandring i konflikter siden indførelsen af atomvåben, og opfordrer derfor indtrængende til, at den videre udvikling af kvantecomputerteknologier prioriteres højt af Unionen og medlemsstaterne; anerkender, at angrebshandlinger, herunder angreb på kritisk infrastruktur, hvortil der ydes kvantedatabehandling, vil skabe et konfliktmiljø, hvor fristen for at træffe beslutninger vil blive presset drastisk fra dage og timer til minutter og sekunder, hvilket vil tvinge medlemsstaterne til at udvikle kapaciteter, der beskytter sig selv og uddanner både beslutningstagere og militært personale til at reagere effektivt inden for disse tidsrammer;

25. understreger behovet for at overvinde den nuværende fragmentering i Unionen for så vidt angår den nationale lovgivning om kunstig intelligens, forskning, innovation og ekspertise inden for kunstig intelligens, hvilket bringer det indre marked og målet om at sikre en pålidelig og sikker udvikling af kunstig intelligens i Europa i fare; glæder sig i denne forbindelse over inddragelsen af projekter inden for kunstig intelligens under programmet for udvikling af den europæiske forsvarsindustri (EDIDP); mener, at den fremtidige europæiske forsvarsfond og det permanente strukturerede samarbejde (PESCO) også giver veldefinerede rammer for fremtidige AI-relaterede projekter, der kan bidrage til en bedre strømlining af Unionens bestræbelser på dette område, og samtidig fremmer Unionens mål om at styrke menneskerettighederne, folkeretten og multilaterale løsninger; understreger, at projekter i forbindelse med kunstig intelligens bør synkroniseres med Unionens bredere civile programmer om kunstig intelligens; bemærker, at i overensstemmelse med Kommissionens hvidbog om kunstig intelligens bør der udvikles ekspertise- og testcentre, der fokuserer på forskning og udvikling af kunstig intelligens på området sikkerhed og forsvar med dynamiske specifikationer, der understøtter private interessenters deltagelse og investeringer;

26. understreger, at Unionen er nødt til at stræbe efter strategisk modstandsdygtighed, således at den aldrig igen er uforberedt i krisetider, og understreger, at dette er af afgørende betydning navnlig for så vidt angår kunstig intelligens og dens anvendelse på forsvar og sikkerhed; understreger, at forsyningskæder for AI-systemer på forsvars- og sikkerhedsområdet, der kan føre til teknologisk afhængighed, bør rekalibreres, og denne afhængighed udfases; opfordrer til øgede investeringer i europæisk kunstig intelligens på forsvarsområdet og i den kritiske infrastruktur, som understøtter den;

27. understreger, at udviklingen af kunstig intelligens, der respekterer de grundlæggende rettigheder og støtter den offentlige interesse, kræver strategisk samling og deling af data i Unionen mellem private og offentlige enheder samt en styrkelse af et AI-økosystem i Unionen, der involverer offentlige, private aktører og civilsamfundsaktører; opfordrer Kommissionen til at fremme dialog, tættere samarbejde og synergier mellem medlemsstaterne, forskere, akademikere, aktører i civilsamfundet og den private sektor, navnlig førende selskaber og virksomheder, og militæret for at have inkluderende politiske processer med hensyn til forsvarsrelaterede AI-regler, udnytte kunstig intelligens fuldt ud og samtidig sikre en bedre forståelse af risici og fordele samt sikre maksimal operationel sikkerhed;

28. fremhæver, at i forbindelse med den udbredte misinformationskrig, der især er drevet af ikke-europæiske aktører, kan AI-teknologier have etisk negative virkninger ved at udnytte fordomme i data og algoritmer eller ved bevidst at ændre læringsdata fra et tredjeland og risikerer også at blive udsat for andre former for farlig, ondsindet manipulation på uforudsigelige måder og med uoverskuelige konsekvenser; der er derfor et stigende behov for, at Unionen fortsætter med at investere i forskning, analyse, innovation og overførsel af viden på tværs af grænser og sektorer med henblik på at udvikle AI-teknologier, som tydeligvis vil være uden nogen form for profilering, forudindtagethed og forskelsbehandling og effektivt kan bidrage til at bekæmpe falske nyheder og misinformation og samtidig respektere databeskyttelse og den europæiske retlige ramme;

29. understreger, at det er vigtigt at indføre en etisk adfærdskodeks, der understøtter indførelsen af AI-baserede våbensystemer i militære operationer, i lighed med de eksisterende lovgivningsmæssige rammer, der forbyder anvendelse af kemiske og biologiske våben; er af den opfattelse, at Kommissionen bør tage initiativ til at indføre standarder for anvendelse af AI-baserede våbensystemer i krig i overensstemmelse med den humanitære folkeret, og at Unionen bør arbejde for en international vedtagelse af sådanne standarder; mener, at EU bør deltage i AI-diplomati i internationale fora med ligesindede partnere som G7, G20 og OECD;

30. noterer sig Kommissionens hvidbog om kunstig intelligens af 19. februar 2020 og beklager, at der ikke blev taget hensyn til militære aspekter; opfordrer Kommissionen og HR/NF til også som led i en overordnet strategi at fremlægge en sektorspecifik AI-strategi for forsvarsrelaterede aktiviteter inden for EU's rammer, der sikrer både respekten for borgernes rettigheder og Unionens strategiske interesser, og som er baseret på en konsekvent tilgang, der spænder fra indførelsen af AI-baserede systemer til deres militære anvendelse, og til at nedsætte en arbejdsgruppe om sikkerhed og forsvar i ekspertgruppen på højt plan om kunstig intelligens, der specifikt bør behandle politik- og investeringsspørgsmål samt etiske aspekter af kunstig intelligens på sikkerheds- og forsvarsområdet; opfordrer Rådet, Kommissionen og NF/HR til at indgå i en struktureret dialog med Europa-Parlamentet med henblik herpå.

 

 


OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

22.6.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

60

7

2

Til stede ved den endelige afstemning – medlemmer

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Til stede ved den endelige afstemning – stedfortrædere

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 

 


 

 

UDTALELSE FRA UDVALGET OM DET INDRE MARKED OG FORBRUGERBESKYTTELSE (8.7.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Alexandra Geese

(Initiativ – forretningsordenens artikel 47)

 

(*) Associeret udvalg – forretningsordenens artikel 57

 

FORSLAG

Udvalget om det Indre Marked og Forbrugerbeskyttelse opfordrer Retsudvalget, som er korresponderende udvalg, til

 at optage følgende forslag i det beslutningsforslag, det vedtager:

 

 

A. der henviser til, at etiske retningslinjer, såsom de principper, der er vedtaget af Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, er et godt udgangspunkt, men ikke er tilstrækkelige til at sikre, at virksomheder handler forsvarligt og garanterer effektiv forbrugerbeskyttelse;

 

Anvendelsesområde

1. understreger, at det er vigtigt, at EU's regelsæt, der fokuserer på etiske aspekter ved kunstig intelligens (AI), robotteknologi og relaterede teknologier, finder anvendelse, når forbrugere i Unionen er brugere af, underlagt eller blevet udsat for eller styret mod et algoritmisk system, uanset hvor de enheder, der udvikler, sælger eller anvender systemet, er etableret; mener desuden, at de fastsatte regler af hensyn til retssikkerheden bør finde anvendelse på alle udviklere og i hele værdikæden, nemlig udvikling, udbredelse og anvendelse af de relevante teknologier og komponenter hertil, og bør garantere et højt forbrugerbeskyttelsesniveau; gentager betydningen af Unionens værdier som omhandlet i traktaterne, når det gælder betydningen af beskyttelse af personoplysninger og af udtrykkeligt og informeret samtykke, og foreslår, at disse regler tager hensyn til de erfaringer, der er gjort med gennemførelsen af forordning (EU) nr. 2016/679[19] (GDPR), der betragtes som et globalt benchmark; mener, at en juridisk repræsentant, der er etableret i Unionen, og til hvem anmodninger kan rettes, f.eks. for at give mulighed for klageadgang for forbrugerne, er vigtig for håndhævelsen af EU's fremtidige regelsæt;

 

2. bemærker, at EU's regelsæt bør gælde for algoritmiske systemer, bl.a. inden for AI, tingenes internet, maskinindlæring, regelbaserede systemer, automatiserede og assisterede beslutningsprocesser og robotteknologi; bemærker desuden, at der bør udvikles standardiserede ikoner til at forklare disse systemer for forbrugerne, når disse systemer er karakteriseret som komplekse eller i stand til at tage beslutninger, der har en betydelig indvirkning på forbrugernes liv;

 

3. understreger, at EU's regelsæt skal have en menneskecentreret tilgang og føre til udvikling af systemer, der i deres design integrerer europæiske etiske værdier; mener, at EU's regelsæt, der fokuserer på Unionens værdier som henvist til i traktaterne, ville udgøre en merværdi ved at give Europa en unik konkurrencefordel og yde et vigtigt bidrag til borgeres og virksomheders trivsel og velstand i Unionen samt sætte skub i det indre marked; understreger, at etiske rammer for AI også udgør en merværdi for bestræbelserne på at fremme innovation på det indre marked;

 

 

4. påpeger, at det regelsæt, der blev indført med afgørelse nr. 768/2008/EF[20], fastsætter en harmoniseret liste over forpligtelser for producenter, importører og distributører, tilskynder til brug af standarder og fastsætter flere kontrolniveauer afhængigt af produktets farlighed; mener, at denne ramme også bør finde anvendelse på produkter med indbygget kunstig intelligens;

 

5. understreger, at enhver fremtidig regulering bør følge en differentieret risikobaseret tilgang for at gøre det muligt at udvikle og indføre sikre og pålidelige systemer med klare kriterier og indikatorer, efterfulgt af en upartisk juridisk vurdering, der tager udgangspunkt i den mulige skadevirkning eller overtrædelse af den enkeltes rettigheder samt for samfundet som helhed, under hensyntagen til den særlige kontekst i forbindelse med anvendelsen af det algoritmiske system; understreger, at de retlige forpligtelser og certificeringskravene gradvist bør øges i takt med det identificerede risikoniveau; fremhæver, at der i de laveste risikokategorier ikke bør pålægges supplerende retlige forpligtelser; bemærker, at algoritmiske systemer, der kan skade en person eller potentielt krænke en persons rettigheder eller påvirke den enkeltes adgang til offentlige fordele, ikke kan anses for at være i den laveste risikokategori; noterer sig, at den risikobaserede tilgang bør følge klare og gennemsigtige regler, sikre tilstrækkelig retssikkerhed og samtidig være fremtidssikret; opfordrer til ensartet gennemførelse af risikoklassificeringssystemet og de dertil knyttede retlige forpligtelser for at sikre lige vilkår mellem medlemsstaterne og forhindre fragmentering af det indre marked; understreger, at risikovurderingen af et specifikt system bør evalueres løbende;

 

6. minder om, at Kommissionen bør undersøge EU's eksisterende regelsæt og dets anvendelse, herunder gældende forbrugerlovgivning, produktansvarslovgivning, produktsikkerhedslovgivning og markedsovervågningslovgivning med henblik på at identificere huller i lovgivningen samt eksisterende lovgivningsmæssige forpligtelser; mener, at dette er nødvendigt for at fastslå, om EU's eksisterende regelsæt er i stand til at reagere på fremkomsten af AI, robotteknologi og relaterede teknologier, og om det er i stand til at sikre et højt forbrugerbeskyttelsesniveau;

 

Datastyring

7. understreger betydningen af EU's etiske og lovgivningsmæssige rammer, herunder navnlig bestemmelser, der kræver data af høj kvalitet for at træne algoritmiske systemer i forbindelse med deres anvendelse; fremhæver i denne forbindelse, at det er nødvendigt at sikre, at de anvendte uddannelsesdata er repræsentative og, hvor det er muligt, fjerne systematiske fejl i datasæt samt data- og aggregeringsstandard med henblik på at forbedre de algoritmiske systemers output og styrke forbrugernes tillid og accept; understreger, at disse datasæt bør kunne revideres af de kompetente myndigheder, når de anmodes om at sikre deres overensstemmelse med de tidligere nævnte principper;

 

Forbrugerbeskyttelse: algoritmers gennemsigtighed og forklarlighed

8. understreger, at forbrugernes tillid er afgørende for udviklingen og implementeringen af AI, robotteknologi og relaterede teknologier, som kan være forbundet med iboende risici, når de er baseret på uigennemskuelige algoritmer og datasæt med systematiske fejl; mener, at forbrugerne bør have ret til at blive tilstrækkeligt informeret på en forståelig, rettidig, standardiseret, præcis og tilgængelig måde om algoritmiske systemers eksistens, hvordan de tænker, mulige output og følger for forbrugerne samt om, hvordan man kan få fat i en person med beslutningsbeføjelser, og hvordan systemets afgørelser kan kontrolleres, bestrides på meningsfuld vis og korrigeres; minder om, at mennesker altid skal kunne ændre automatiserede beslutninger; mener, at forbrugere også bør beskyttes ved hjælp af retten til at slukke eller begrænse et AI-system ved hjælp af personlig tilpasning, når det er muligt; fremhæver betydningen af proportionalitet i udviklingen af rammebestemmelser om gennemsigtighed for at undgå at skabe en unødig byrde for nystartede virksomheder, små og mellemstore virksomheder (SMV'er), der driver virksomhed i lavrisikokategorier;

 

9. understreger, at det er nødvendigt effektivt at tackle de udfordringer, som algoritmiske systemer giver anledning til, og sikre, at forbrugerne får indflydelse og beskyttes behørigt; understreger, at det er nødvendigt at se ud over de traditionelle principper om information og offentliggørelse, som ligger til grund for forbrugerlovgivningen, da der vil være brug for stærkere forbrugerrettigheder og klare grænser for udviklingen og brugen af algoritmiske systemer for at sikre, at teknologien bidrager til at forbedre forbrugernes liv og udvikler sig på en måde, der respekterer de grundlæggende rettigheder og forbrugerrettighederne samt EU's værdier;

 

10. mener, at det i høj grad er nødvendigt med en værdiorienteret tilgang til design for at skabe betingelserne for social accept af AI hos forbrugerne; mener, at de etiske værdier retfærdighed, nøjagtighed, fortrolighed og gennemsigtighed bør ligge til grund for AI, hvilket i denne sammenhæng betyder, at systemets handlinger bør være således, at de ikke genererer urimeligt partiske resultater;

 

11. minder om, at det er vigtigt at sikre, at forbrugerne har adgang til effektive retsmidler, og opfordrer medlemsstaterne og de nationale markedsovervågningsmyndigheder til at sikre, at tilgængelige, økonomisk overkommelige, uafhængige og effektive procedurer og prøvelsesmekanismer er til rådighed for at sikre en upartisk menneskelig gennemgang af alle påstande om krænkelser af forbrugernes rettigheder ved brug af algoritmiske systemer, hvad enten de kan tilskrives aktører i den offentlige eller den private sektor; opfordrer indtrængende til, at tvistbilæggelse og kollektive søgsmålsmekanismer i overensstemmelse med Europa-Parlamentets og Rådets direktiv om adgang til indbringelse af sager til varetagelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF[21] bør stilles til rådighed med henblik på at gøre indsigelse mod indførelse eller igangværende anvendelse af et system, der indebærer en risiko for krænkelse af forbrugernes rettigheder, eller for at rette op på en krænkelse af rettigheder; anmoder Kommissionen om at sikre, at nationale og europæiske forbrugerorganisationer har tilstrækkelige midler til at hjælpe forbrugerne med at udøve deres ret til adgang til retsmidler i tilfælde, hvor afgørelser baseret på AI-applikationer krænker forbrugernes rettigheder;

 

12. understreger, at hvis midler fra offentlige kilder sammen med standarder for offentlige udbudsprocedurer og kontrakter betydeligt bidrager til udvikling eller gennemførelse af et algoritmisk system, kan koden, de genererede data – for så vidt som det ikke drejer sig om personoplysninger – og den afprøvede model automatisk være offentligt tilgængelige efter aftale med udvikleren for at sikre gennemsigtighed, øge cybersikkerheden og muliggøre genbrug for at fremme innovation; understreger, at det indre markeds fulde potentiale dermed kan udnyttes uden markedsfragmentering;

 

Det indre marked: forbrugeroplysning og -bevidstgørelse

13. understreger, at det er vigtigt at sikre, at der tages tilstrækkeligt hensyn til alle forbrugeres interesser, herunder forbrugere, som er marginaliserede eller i udsatte situationer såsom personer med handicap, og at disse interesser bliver tilgodeset i EU's fremtidige regelsæt; bemærker, at med henblik på at analysere virkningerne af algoritmiske systemer på forbrugere kan adgangen til data udvides til at omfatte relevante parter, navnlig uafhængige forskere, medier og civilsamfundsorganisationer, om muligt via applikationsprogrammeringsgrænseflader (API'er), samtidig med at EU-lovgivningen om databeskyttelse og privatlivets fred samt lovgivningen om forretningshemmeligheder overholdes fuldt ud; minder om, at forbrugerne har brug for uddannelse for at kunne håndtere algoritmiske systemer på en mere informeret og kvalificeret måde, for at beskytte dem mod potentielle risici og for at beskytte deres rettigheder; mener, at AI, tingenes internet og andre nye teknologier har et enormt potentiale til at skabe muligheder for forbrugerne for at få adgang til en lang række faciliteter, der letter deres dagligdag på mange måder og giver mulighed for bedre varer og tjenesteydelser, samtidig med at forbrugerne får gavn af bedre markedsovervågning, så længe de gældende principper, betingelser (herunder gennemsigtighed og mulighed for revision) og forskrifter fortsat finder anvendelse;

 

14. understreger, at det er vigtigt at opnå et højt niveau af generelle digitale færdigheder og at uddanne velkvalificerede fagfolk på dette område og sikre gensidig anerkendelse af sådanne kvalifikationer i hele Unionen; understreger behovet for forskellige hold af udviklere og ingeniører, der arbejder sammen med samfundets hovedaktører for at forebygge, at kønsskævheder og kulturelle fordomme utilsigtet bliver inkluderet i AI-algoritmer, -systemer og -applikationer; bakker op om udviklingen af undervisningsplaner og oplysningskampagner om de samfundsmæssige, juridiske og etiske konsekvenser af kunstig intelligens;

 

15. opfordrer Kommissionen til at fremme og finansiere udviklingen af menneskecentreret AI, robotteknologi og relaterede teknologier, der tackler miljø- og klimamæssige udfordringer, og som sikrer lige adgang til og udnyttelse af grundlæggende rettigheder ved hjælp af skattemæssige, udbudsrelaterede eller andre incitamenter;

 

16. understreger, at AI-systemer og algoritmiske systemer bør være lovlige, robuste, pålidelige og sikre i deres design; opfordrer Kommissionen til at sikre, at EU's lovgivningsmæssige tilgang til algoritmiske systemer omfatter passende foranstaltninger for at gøre det muligt at underkaste disse systemer uafhængige kontrol- og tilsynsforanstaltninger;

 

Markedsovervågning

17. opfordrer til etablering af et europæisk ekspertisecenter for at styrke Unionens kapaciteter og basere det så meget som muligt på eksisterende strukturer for at fremme udveksling af oplysninger om algoritmiske systemer mellem medlemsstaternes myndigheder og støtte opnåelsen af en fælles forståelse i det indre marked ved at offentliggøre vejledninger, udtalelser og ekspertise til medlemsstaternes myndigheder, overvåge gennemførelsen af den relevante EU-lovgivning, behandle mulige spørgsmål om forbrugerbeskyttelse, finde frem til bedste praksis og i givet fald fremsætte anbefalinger til lovgivningsmæssige foranstaltninger; mener desuden, at denne struktur på passende vis bør fastsættes af interessentorganisationer (såsom forbrugerbeskyttelsesorganisationer) for at sikre omfattende forbrugerrepræsentation; mener, at de beslutningstagende instanser i en sådan struktur – som følge af de algoritmiske systemers uforholdsmæssige virkning på kvinder og mindretal – bør være mangfoldige og have en ligelig kønsfordeling; understreger, at medlemsstaterne er nødt til at udvikle risikostyringsstrategier for AI i forbindelse med deres nationale markedsovervågningsstrategier;

 

18. opfordrer Kommissionen til at foreslå foranstaltninger til sporbarhed af data under hensyntagen til både lovligheden af dataindsamling og forbrugerrettigheder og grundlæggende rettigheder; understreger i mellemtiden, at de datasæt, algoritmer og processer, der anvendes i udviklingen og ibrugtagningen af algoritmiske systemer, herunder dataindsamlings- og datamærkning, bør dokumenteres i overensstemmelse med industristandarden; bemærker, at det er af afgørende betydning, at dokumentationen af risikovurderingen, den softwaredokumentation, de algoritmer og de datasæt, der anvendes eller produceres af AI-systemer, robotteknologi og relaterede teknologier, er tilgængelige og forståelige for markedsovervågningsmyndighederne, samtidig med at EU-retten og forretningshemmeligheder overholdes; bemærker endvidere, at sådan dokumentation bør opbevares af dem, der er involveret i de forskellige faser af udviklingen af algoritmiske systemer; bemærker, at markedsovervågningsmyndighederne bør tildeles yderligere beføjelser i denne henseende; mener, at det kan være nødvendigt med en undersøgelse af den gældende lovgivning om markedsovervågning for at undgå, at den bliver forældet, og sikre, at den på en etisk forsvarlig måde kan håndtere fremkomsten af AI, robotteknologi og relaterede teknologier;

 

19. mener, at hver enkelt medlemsstat bør afsætte og yde tilstrækkelig finansiering til en kompetent national myndighed til at overvåge anvendelsen af bestemmelserne om algoritmiske systemer; understreger, at det er nødvendigt at styrke de nationale markedsovervågningsmyndigheder med hensyn til kapacitet, færdigheder og kompetencer inden for AI samt viden om de specifikke risici ved AI;

 

20. opfordrer til en høj grad af koordinering mellem medlemsstaternes myndigheder og oprettelse af et europæisk markedsovervågningsorgan for algoritmiske systemer, der er sammensat af nationale myndigheder, for at sikre lige konkurrencevilkår i EU og undgå fragmentering af det indre marked;

 

21. anerkender de værdifulde resultater fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens, navnlig de "Etiske retningslinjer for pålidelig kunstig intelligens"; mener, at denne gruppe, som består af repræsentanter for den akademiske verden, civilsamfundet og industrien samt Den Europæiske Alliance vedrørende Kunstig Intelligens, kan bidrage med ekspertise til det europæiske markedsovervågningsorgan for algoritmiske systemer;

 

22. bemærker, at systemer, især inden for business-to-consumer-områder, bør være brugercentrerede og udformet på en måde, der gør det muligt for alle at bruge AI-produkter eller -tjenesteydelser, uanset alder, køn, evner eller egenskaber; bemærker, at tilgængelighed til denne teknologi for personer med handicap er af særlig betydning; bemærker, at AI-systemer ikke bør anvende en standardtilgang og bør tage højde for principperne om design for alle ved at henvende sig til den bredest mulige brugergruppe og følge relevante standarder for tilgængelighed; understreger, at dette vil gøre det muligt for den enkelte at få lige adgang til og deltage aktivt i eksisterende og nye computerformidlede menneskelige aktiviteter og hjælpeteknologier.

 


OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

7.7.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

39

1

4

Til stede ved den endelige afstemning – medlemmer

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Til stede ved den endelige afstemning – stedfortrædere

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 


 

 

UDTALELSE FRA TRANSPORT- OG TURISMEUDVALGET (16.7.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Valter Flego

(*) Associeret udvalg – forretningsordenens artikel 57

 

 

(Initiativ – forretningsordenens artikel 47)

 

 

FORSLAG

Transport- og Turismeudvalget opfordrer Retsudvalget, som er korresponderende udvalg, til at optage følgende forslag i det beslutningsforslag, det vedtager:

A. der henviser til, at kunstig intelligens (AI) er en form for teknologi, der er af strategisk betydning for transportsektoren og forventes at være til gavn for borgerne og samfundet ved at forbedre livskvaliteten, øge sikkerhedsniveauet for alle transportformer og skabe nye beskæftigelsesmuligheder og mere bæredygtige forretningsmodeller; der henviser til, at AI har potentiale til at ændre samfundet markant, navnlig hvis den stilles bredt til rådighed og gøres bredt tilgængelig;

B. der henviser til, at AI's fulde potentiale i transportsektoren kun kan udnyttes, hvis brugerne er klar over de mulige fordele og udfordringer, som en sådan teknologi medfører; der henviser til, at det er nødvendigt behandle dette spørgsmål i en undervisningsmæssig sammenhæng, herunder med henblik på at fremme digital inklusion, og at det er nødvendigt at gennemføre informationskampagner på EU‑plan, der giver et nøjagtigt billede af alle aspekter af udviklingen af AI;

C. der henviser til, at en europæisk tilgang til AI, robotteknologi og relaterede teknologier skal være i overensstemmelse med etiske principper for at sikre, at AI, robotteknologi og relaterede teknologier er menneskecentreret, fremmer den menneskelige trivsel, sikkerheden og samfundets og miljøets trivsel, tackler de relevante etiske dilemmaer, fuldt ud respekterer EU's grundlæggende rettigheder, værdier og principper og fuldt ud er i overensstemmelse med EU's lovgivning om privatlivets fred og databeskyttelse; der henviser til, at denne tilgang også vil skulle behandle spørgsmål vedrørende kvaliteten af de datasæt, der anvendes i algoritmiske systemer, samt selve algoritmerne og data- og aggregeringsstandarder;

D. der henviser til, at pålidelig AI skal bygge på fire etiske principper: respekt for den menneskelige autonomi, forebyggelse af skader, retfærdighed og forklarlighed; der henviser til, at overholdelsen af disse etiske principper nødvendiggør, at der vedtages specifikke regler for Unionens transportsektor;

E. der henviser til, at der stadig er menneskelige fejl involveret i ca. 95 % af alle trafikulykker i EU; der henviser til, at EU havde til hensigt at reducere det årlige antal trafikdræbte i EU med 50 % i 2020 i forhold til 2010, men at EU på baggrund af de stagnerende fremskridt fornyede sine bestræbelser i sin rammepolitik for færdselssikkerhed 2021-2030 ("EU Road Safety Policy Framework 2021-2030 – Next steps towards "Vision Zero"); der henviser til, at AI, automatisering og andre nye teknologier i denne henseende har stort potentiale til og er yderst vigtig for at øge færdselssikkerheden ved at reducere risikoen for menneskelige fejl;

F. der henviser til, at AI, automatisering og andre nye teknologier også kan bidrage til at reducere trafikpropper og emissioner af drivhusgasser og luftforurenende stoffer;

G. der henviser til, at produktionen af etisk ansvarlig, menneskecentreret og teknologisk robust AI, robotteknologi og relaterede teknologier i transportsektoren giver EU's virksomheder, herunder SMV'er, en forretningsmulighed for at blive førende i verden på dette område;

H. der henviser til, at sådanne nye forretningsmuligheder kan bidrage til at genoprette EU's industri efter den nuværende sundhedsmæssige og økonomiske krise og til at udnytte AI‑teknologi bedre i transportindustrien; der henviser til, at sådanne muligheder vil skabe nye job, eftersom udbredelsen af AI og relaterede teknologier har potentiale til at øge virksomhedernes produktivitetsniveauer og bidrage til effektivitetsgevinster; der henviser til, at innovationsprogrammer på dette område kan få regionale klynger til at trives;

I. der henviser til, at en europæisk tilgang til udviklingen af AI, robotteknologi og relaterede teknologier i transportsektoren har potentiale til at øge EU's økonomis globale konkurrenceevne og strategiske autonomi;

J. bemærker, at der i sektorer såsom den offentlige transportsektor kan anvendes AI‑systemer til intelligente transportsystemer med henblik på at minimere køer, optimere rutelægning, gøre personer med handicap mere uafhængige og øge energieffektiviteten og dermed intensivere dekarboniseringsbestræbelserne og reducere miljøaftrykket;

1. fremhæver potentialet ved at anvende AI, robotteknologi og relaterede teknologier til alle selvkørende transportmidler til vej-, jernbane-, vandvejs- og lufttransport og også til at fremme trafikoverflytning og intermodalitet, eftersom sådanne teknologier kan bidrage til at finde den optimale kombination af transportformer til transport af gods og passagerer; understreger endvidere deres potentiale til at gøre transport, logistik og trafikstrømme mere effektive og gøre alle transportformer sikrere, mere intelligente og mere miljøvenlige; påpeger, at en etisk tilgang til AI også kan ses som et system for tidlig varsling, navnlig for så vidt angår transportsikkerhed og ‑effektivitet;

2 fremhæver, at den globale konkurrence mellem virksomheder og økonomiske regioner betyder, at EU er nødt til at fremme investeringer og styrke transportvirksomheders internationale konkurrenceevne ved at skabe et gunstigt miljø for udvikling og anvendelse af AI‑løsninger og andre innovationer, hvor EU-baserede virksomheder kan blive førende på verdensplan inden for udvikling af AI-teknologier;

3. understreger, at EU's transportsektor har behov for en ajourføring af den reguleringsmæssige ramme for sådanne fremspirende teknologier og anvendelsen heraf i transportsektoren og en klar etisk ramme for opnåelsen af pålidelig AI, og at denne ramme skal omfatte sikkerhed, respekt for den menneskelige autonomi, tilsyn og ansvarsspørgsmål, hvilket vil øge de fordele, der er fælles for alle, og være afgørende for at fremme investeringer i forskning og innovation, udvikling af færdigheder og udbredelse af AI i offentlige tjenesteydelser, SMV'er, nystartede virksomheder og andre virksomheder, idet der samtidig sikres databeskyttelse og interoperabilitet, uden at virksomheder og forbrugere pålægges unødige administrative byrder; understreger, at det er af afgørende betydning at sikre, at enhver ajourføring af den reguleringsmæssige ramme for disse fremspirende teknologier altid er baseret på et reelt behov og er i overensstemmelse med princippet om bedre regulering, og:

a) opfordrer Kommissionen til at skabe klare rammer for de etiske principper for udvikling, indførelse og anvendelse af KI, robotteknologik og relaterede teknologier i transportsektoren; alle former for AI, robotteknologi og relaterede teknologier i transportsektoren skal udvikles, indføres og anvendes i overensstemmelse med disse etiske principper,

b) henstiller, at der opstilles retningslinjer for en harmoniseret risikoklassificering af KI-baserede teknologier inden for alle transportformer, som omfatter køretøjsfunktioner i forhold til mennesker og i forhold til KI og præciserer ansvarsforhold og krav vedrørende sikkerhedsspørgsmål;

c) opfordrer Kommissionen til at undersøge anvendelsen af den eksisterende europæiske markedsovervågningsstruktur for algoritmiske systemer, herunder de tilhørende databeskyttelsesbestemmelser, der står til rådighed for medlemsstaternes myndigheder med vejledninger, udtalelser og ekspertise, bl.a. om interoperabilitet,

d) opfordrer Kommissionen til at indføre en AI-risikoklassificeringsordning for intelligente transportsystemer på linje med vurderingerne fra Ekspertgruppen på Højt Niveau, så transportsektorens voksende behov bedre kan imødekommes,

e) opfordrer Kommissionen til at være særlig opmærksom på situationen for SMV'er og til at udforme den fremtidige lovgivning på en sådan måde, at den forbedrer sådanne virksomheders muligheder for at udvikle og anvende AI-teknologi,

f) mener, at det er nødvendigt at give slutbrugerne detaljerede oplysninger om driften af transportsystemer og AI-baserede køretøjer;

4. fremhæver, at den europæiske tilgang til AI-teknologi bør sikre folks tillid, tjene offentlighedens interesser og styrke det fælles sociale ansvar; mener, at udvikling af pålidelig, etisk forsvarlig og teknisk robust AI er en vigtig katalysator for bæredygtig og intelligent mobilitet, der er sikker og tilgængelig; opfordrer i denne forbindelse Kommissionen til fortsat at fremme udbredelsen af AI i transportsektoren og til straks at foreslå tilsvarende ændringer i EU-lovgivningen i tæt samarbejde med alle interessenter i transportsektoren for at sikre, at EU's grundlæggende rettigheder overholdes;

5. understreger, at udviklingen og indførelsen af AI skal fremme sikre og tilgængelige transporttjenester;

6. henstiller, at der udvikles EU-dækkende pålidelige AI‑standarder for alle transportformer, herunder bilindustrien, vedrørende sikkerhed, interoperabilitet, teknisk robusthed, tilknyttet hardwares reparerbarhed og genanvendelighed, herunder med henblik på at tackle spørgsmål om ressourceeffektivitet, privatlivets fred, databeskyttelse og gennemsigtighed, og for testning af AI‑baserede køretøjer samt relaterede produkter og tjenesteydelser;

7. opfordrer Kommissionen til at arbejde tæt sammen med medlemsstaterne om udformningen, gennemførelsen og håndhævelsen af pålidelige AI‑standarder i EU; bemærker, at EU har potentiale til at blive førende i verden inden for fremme af en socialt ansvarlig og bæredygtig tilgang til AI‑teknologi og anvendelsen heraf;

8. opfordrer Kommissionen til at undersøge muligheden for at overdrage overvågnings‑, håndhævelses‑ og sanktionsmekanismer til en eller flere relevante eksisterende agenturer, institutioner eller organer på EU-plan og til at undersøge, hvordan de eksisterende tilsyns- og kontrolinstrumenter i transportsektoren kan udstyres og anvendes til at træffe foranstaltninger med henblik på at sikre, at der føres tilsyn på EU‑plan, og sætte Kommissionen i stand til at gribe ind, hvis et AI‑system, der anvendes til transport, krænker de grundlæggende rettigheder eller den europæiske etiske og sikkerhedsmæssige ramme;

9. opfordrer Kommissionen til yderligere at støtte udviklingen af pålidelige AI‑systemer for at gøre transport sikrere, mere effektiv, tilgængelig, prismæssigt overkommelig og inklusiv, herunder for personer med nedsat mobilitet, navnlig personer med handicap, idet der tages hensyn til Europa-Parlamentets og Rådets direktiv (EU) 2019/882[22] om tilgængelighedskrav for produkter og tjenester og den europæiske lovgivning om passagerers rettigheder;

10. henleder opmærksomheden på den store merværdi, som selvkørende køretøjer giver personer med nedsat mobilitet, eftersom sådanne køretøjer giver dem mulighed for at deltage mere effektivt i den individuelle vejtransport og dermed gør deres hverdag lettere;

 

11. understreger betydningen af tilgængelighed, især i forbindelse med udformningen af MaaS‑systemer (mobilitet som en tjenesteydelse);

 

12. understreger, at datavidenskab er af afgørende betydning for at udforme ikkediskriminerende AI‑systemer og forhindre anvendelsen af beskadigede data; henstiller endvidere, at procedurer for databehandling, som er i overensstemmelse med den generelle forordning om databeskyttelse og overholder principperne om fortrolighed og ikkeforskelsbehandling, følges;

 

13. bemærker, at AI‑systemer kan bidrage til at reducere antallet af trafikdræbte markant, f.eks. gennem bedre reaktionstider og bedre overholdelse af reglerne; mener imidlertid, at anvendelsen af selvkørende køretøjer umuligt kan føre til, at der ikke sker nogen ulykker, og understreger, at dette i stigende grad gør det vigtigt, at beslutninger om AI kan forklares, således at deres mangler og utilsigtede konsekvenser kan begrundes;

 

14. er af den opfattelse, at det altid skal være muligt at forklare beslutninger om AI og andre relevante data, der underbygger de pågældende beslutninger, for slutbrugere og andre aktører i ikketekniske vendinger;

 

15. bemærker, at udviklingen og indførelsen af KI i transportsektoren ikke er mulig uden en moderne infrastruktur, som er en vigtig del af intelligente transportsystemer; understreger, at de vedvarende forskelle i udviklingsniveauet mellem medlemsstaterne skaber en risiko for, at de mindst udviklede regioner og deres indbyggere ikke opnår de fordele, der følger af udviklingen af autonom mobilitet; opfordrer til, at der foretages en vurdering af udfordringerne for arbejdsmarkedets fremtid som følge af udviklingen af AI-teknologier i transportsektoren og af udfordringerne vedrørende tilvejebringelse af tilstrækkelig finansiering til moderniseringen af EU's infrastruktur, herunder dens integration i 5G-nettet.


OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

14.7.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

49

0

0

Til stede ved den endelige afstemning - medlemmer

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Til stede ved den endelige afstemning - stedfortrædere

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


RESULTAT AF AFSTEMNING VED NAVNEOPRÅB I RÅDGIVENDE UDVALG

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 

 


 

 

UDTALELSE FRA UDVALGET OM BORGERNES RETTIGHEDER OG RETLIGE OG INDRE ANLIGGENDER (18.05.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Assita Kanko

(*) Associeret udvalg – forretningsordenens artikel 57

 

(Initiativ – forretningsordenens artikel 47)

 

 

FORSLAG

Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender opfordrer Retsudvalget, som er korresponderende udvalg, til at optage følgende forslag i det beslutningsforslag, det vedtager:

 der henviser til artikel 2 og 3 i traktaten om Den Europæiske Union (TEU),

 der henviser til artikel 10, 19, 21 og 167 i traktaten om Den Europæiske Unions funktionsmåde (TEUF),

 der henviser til retten til at indgive andragender, som nedfældet i artikel 20 og 227 i TEUF og i artikel 44 i Den Europæiske Unions charter om grundlæggende rettigheder,

 der henviser til artikel 21 og 22 i Den Europæiske Unions charter om grundlæggende rettigheder,

 der henviser til præamblen til TEU,

 der henviser til Europarådets rammekonvention om beskyttelse af nationale mindretal, protokol nr. 12 til konventionen til beskyttelse af menneskerettigheder og grundlæggende frihedsrettigheder samt den europæiske pagt om regionale sprog eller mindretalssprog,

 der henviser til Rådets direktiv 2000/43/EF af 29. juni 2000 om gennemførelse af princippet om ligebehandling af alle uanset race eller etnisk oprindelse[23] (direktivet om racelighed),

 der henviser til Rådets direktiv 2000/78/EF af 27. november 2000 om generelle rammebestemmelser om ligebehandling med hensyn til beskæftigelse og erhverv[24] (direktivet om ligebehandling med hensyn til beskæftigelse),

 der henviser til Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger, og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse)[25] og til Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA[26],

 der henviser til Kommissionens meddelelse til Europa-Parlamentet, Rådet, Det Europæiske Økonomiske og Sociale Udvalg og Regionsudvalget af 11. december 2019 om den europæiske grønne pagt,

 der henviser til sin beslutning af 16. februar 2017 med henstillinger til Kommissionen om civilretlige bestemmelser om robotteknologi[27],

 der henviser til OECD-Rådets henstilling om kunstig intelligens, der blev vedtaget den 22. maj 2019,

A. der henviser til, at udvikling og design af såkaldt "kunstig intelligens", robotteknologi og tilhørende teknologier udføres af mennesker, og at deres valg afgør teknologiens potentiale for at være til gavn for samfundet;

B. der henviser til, at algoritmisk ansvarlighed bør betyde gennemførelse af tekniske og operationelle foranstaltninger, der sikrer gennemsigtighed, en klar fordeling af ansvarskæder, ikkediskrimination i forbindelse med automatiseret beslutningstagning eller ved beregning af sandsynligheder for individuel adfærd; der henviser til, at gennemsigtighed bør give den enkelte meningsfuld information om den indbyggede logik samt om betydningen og de forventede konsekvenser heraf; der henviser til, at dette bør omfatte oplysninger om de data, der anvendes til oplæring af kunstig intelligens, og gøre det muligt for enkeltpersoner at forstå og overvåge de beslutninger, der berører dem;

C.  der henviser til, at der hersker alvorlig bekymring for, at EU's nuværende retlige ramme, herunder forbrugerlovgivningen, lovgivningen om produktsikkerhed og om markedsovervågning ikke altid er velegnet til effektivt at håndtere de risici, som kunstig intelligens, robotteknologi og tilhørende teknologier medfører;

D. der henviser til, at kunstig intelligens, robotteknologi og tilhørende teknologier kan have alvorlige konsekvenser for enkeltpersoners, gruppers og hele samfundets materielle og immaterielle goder, og at en sådan individuel og kollektiv skade skal imødegås via lovgivningsinitiativer;

E. der henviser til, at styringsproblemer med indførelsen af AI i den offentlige sektor skal overvejes nøje hvad angår følgerne for demokratiet, navnlig demokratisk legitimitet, ansvarlighed og et meningsfuldt offentligt engagement og tilsyn;

F. der henviser til, at dataanalyse og AI i stigende grad har indflydelse på de oplysninger, der stilles til rådighed for borgerne; der henviser til, at disse teknologier, hvis de misbruges, kan true de grundlæggende rettigheder til information såvel som mediefrihed og -pluralisme;

G. der henviser til, at etiske retningslinjer, såsom de principper, der er vedtaget af ekspertgruppen på højt plan om kunstig intelligens, er et godt udgangspunkt, men ikke er tilstrækkelige til at sikre, at virksomheder handler redeligt og garanterer effektiv beskyttelse af privatpersoner;

1. understreger, at de fremtidsperspektiver og muligheder, som kunstig intelligens frembyder, ikke kan udnyttes fuldt ud af borgerne, den offentlige og private sektor, den akademiske verden og forskersamfundet, før offentlighedens tillid til disse teknologier er sikret gennem en omhyggelig håndhævelse af de grundlæggende rettigheder og overholdelse af EU's nuværende lovgivning om databeskyttelse og retssikkerhed for alle involverede parter; understreger, at behandlingen af personoplysninger kun kan ske i henhold til et af de retsgrundlag, der er fastsat i artikel 6 i forordning (EU) 2016/679; mener, at det er afgørende, at gennemsigtighed og formidling af relevante oplysninger til de berørte modtagere er afgørende for at opbygge tillid i offentligheden og beskyttelse af individuelle rettigheder;

2. understreger, at overholdelse af den eksisterende databeskyttelseslovgivning sammen med stærke videnskabelige, etiske og retlige standarder samt metoder til demokratisk tilsyn er af central betydning for at skabe tillid til, og for pålideligheden af, AI-løsninger; understreger endvidere, at de oplysninger, som fremkommer ved en AI-analyse, ikke giver et upartisk billede af enhver genstand og kun er så pålidelige, som de underliggende data giver mulighed for; fremhæver, at forventningsanalyser baseret på AI kun kan tilbyde en statistisk sandsynlighed og derfor ikke altid nøjagtigt kan bruges til at forudsige den enkeltes adfærd; understreger derfor, at stærke videnskabelige, etiske og juridiske standarder er afgørende for forvaltningen af dataindsamling og bedømmelse af resultaterne af en sådan analyse;

3. mener, at enhver etisk ramme for udvikling, indførelse og anvendelse af AI, robotteknologi og dertil knyttet teknologi fuldt ud bør respektere EU's charter om grundlæggende rettigheder og derved respektere individets menneskelige værdighed, autonomi og selvbestemmelse, forhindre skade, fremme retfærdighed, inklusion og gennemsigtighed, eliminere fordomme og forskelsbehandling, herunder af minoritetsgrupper, samt respektere og overholde principperne om begrænsning af de negative eksterne virkninger af den anvendte teknologi, teknologiernes forklarlighed og garantien for, at teknologierne er til for at tjene mennesker, ikke for at erstatte dem eller tage beslutninger for dem, med det ultimative mål at øge den menneskelige trivsel for alle;

4. fremhæver asymmetrien mellem dem, der anvender AI-teknologier, og dem, der interagerer med dem og er genstand for dem; understreger, at borgernes tillid til AI kun kan være baseret på nogle rammer for etiske standarder og etisk design, der sikrer, at enhver AI-teknologi, der tages i brug, fuldt ud respekterer Den Europæiske Unions charter om grundlæggende rettigheder, EU-retten og traktaterne; mener, at dette bør være i overensstemmelse med det forsigtighedsprincip, der er retningsgivende for EU-lovgivningen, og bør være kernen i enhver ramme for AI; opfordrer i den henseende til etablering af en tydelig og sammenhængende styringsmodel, der sætter virksomheder og innovatorer i stand til at videreudvikle kunstig intelligens, robotteknologi og tilhørende teknologier;

5. opfordrer Den Europæiske Union og medlemsstaterne til at fremme offentlig bevågenhed omkring risici og muligheder ved brugen af AI som et etisk krav;

6. mener, at EU's nuværende lovrammer, navnlig vedrørende beskyttelse af privatlivets fred og personoplysninger, vil skulle finde fuld anvendelse på AI, robotteknologi og relaterede teknologier, og at de regelmæssigt skal revideres og gennemgås og om nødvendigt ajourføres for effektivt at tackle de risici, der skabes af kunstig intelligens, robotteknologi og relaterede teknologier, ligesom de i denne forbindelse kunne have gavn af at blive suppleret med solide vejledende principper af etisk karakter; påpeger, at der bør anvendes en blød lovgivningsmæssig ramme, hvis det er for tidligt at vedtage retsakter;

7. forventer, at Kommissionen indarbejder en stærk etisk ramme i det kommende lovgivningsforslag som opfølgning på hvidbogen om kunstig intelligens, herunder om sikkerhed, ansvar, grundlæggende rettigheder og databeskyttelse, med henblik på at maksimere mulighederne og minimere risiciene ved AI-teknologier; forventer, at det kommende lovgivningsforslag vil omfatte politiske løsninger på de største anerkendte risici ved kunstig intelligens, herunder bl.a. om etisk indsamling og brug af big data samt spørgsmålet om algoritmisk gennemsigtighed og bias; opfordrer Kommissionen til at udvikle kriterier og indikatorer for mærkning af AI-teknologi med henblik på at fremme gennemsigtighed, forklarlighed og ansvarlighed og tilskynde udviklere til at træffe ekstra forholdsregler; understreger behovet for at investere i integrering af ikke-tekniske discipliner knyttet til social kontekst i AI-studier og -forskning;

8. minder om, at AI, afhængigt af hvordan den udvikles, indføres og anvendes, har potentiale til at skabe og styrke bias, herunder gennem en bias, der er indbygget i de underliggende datasæt, og dermed skabe forskellige former for automatiseret forskelsbehandling, herunder indirekte forskelsbehandling, navnlig af grupper af personer med beslægtede karakteristika; opfordrer Kommissionen og medlemsstaterne til at træffe alle mulige foranstaltninger for at undgå en sådan bias og sikre fuld beskyttelse af de grundlæggende rettigheder;

9. bemærker, at området for AI, robotteknologi og relaterede teknologier er påfaldende homogent og savner mangfoldighed; anerkender behovet for at sikre, at de team, der designer, udvikler, afprøver, udbreder og anskaffer disse systemer, afspejler mangfoldigheden i anvendelsesområderne og i samfundet i almindelighed for at sikre, at man ikke ubevidst indbygger bias i disse teknologier;

10. er af den opfattelse, at et effektivt grænseoverskridende samarbejde og effektive etiske standarder kun kan opnås, hvis alle interessenter forpligter sig til at sikre menneskelig kontrol og tilsyn, teknisk robusthed og sikkerhed, gennemsigtighed og ansvarlighed, mangfoldighed, ikkeforskelsbehandling og retfærdighed, samfundsmæssig og miljømæssig trivsel og respekterer de etablerede principper for privatlivets fred, datastyring og databeskyttelse - navnlig dem, der er fastsat i forordning (EU) 2016/679 (GDPR);

11. opfordrer til en risikobaseret og fremtidsorienteret tilgang til regulering af kunstig intelligens, robotteknologi og relaterede teknologier, herunder teknologineutrale standarder for alle sektorer, med sektorspecifikke standarder, hvor det er relevant; er fast overbevist om, at en EU-dækkende, praktisk anvendelig etisk ramme skal gælde for alle, der ønsker at udvikle eller anvende AI-applikationer i Unionen, for at undgå fragmentering; opfordrer Unionen til at fremme et stærkt og gennemsigtigt samarbejde og vidensdeling mellem den offentlige og den private sektor med henblik på at skabe bedste praksis og løbende identificere AI-applikationer med høj risiko;

12. går ind for digitalt virksomhedsansvar på et frivilligt grundlag; mener, at EU bør støtte selskaber, der vælger at anvende digitale teknologier og AI etisk i deres virksomheder; mener, at EU bør tilskynde selskaberne til at blive proaktive ved at oprette en platform, hvor virksomhederne kan dele deres erfaringer med etisk digitalisering, samt ved at koordinere de deltagende virksomheders tiltag og strategier;

13. understreger, at det er vigtigt at beskytte netværk af indbyrdes forbundne AI- og robotteknologier, at der skal træffes stærke foranstaltninger for at forhindre sikkerhedsbrud, dataudslip, dataforgiftning, cyberangreb og misbrug af personoplysninger, og at dette vil kræve, at de relevante agenturer, organer og institutioner på såvel europæisk som nationalt plan samarbejder indbyrdes og med slutbrugerne af disse teknologier; calls on the Commission and Member States to ensure that Union values and respect for fundamental rights are observed at all times when developing and deploying AI technology in order to ensure the security and resilience of the EU’s digital infrastructure;

14. bemærker i denne forbindelse bestemmelserne i Europa-Parlamentets og Rådets forordning 2019/881 om ENISA og cybersikkerhedsloven, navnlig ENISA's rolle med at fremme den offentlige bevidsthed og undervisningskampagner rettet mod slutbrugerne, herunder om potentielle cybertrusler og kriminelle aktiviteter på internettet, samt med at fremme væsentlige databeskyttelsesforanstaltninger; anerkender merværdien af dette EU-agentur i denne forbindelse;

15. understreger, at ondsindet brug af AI kan udgøre en risiko for vores demokratiske værdier og de grundlæggende rettigheder for borgerne i Den Europæiske Union; opfordrer Kommissionen til at foreslå en lovramme, der kan gøre det muligt at straffe enhver, der ved hjælp af denne teknologi søger at forvrænge virkelighedsopfattelsen gennem desinformationskampagner, eller som gennemfører cyberangreb for at krænke den digitale cybersikkerhed;

16. bemærker, at AI, robotteknologi og relaterede teknologier inden for retshåndhævelse og grænsekontrol kan øge den offentlige sikkerhed, men også kræver omfattende og streng offentlig kontrol og den størst mulige grad af gennemsigtighed med hensyn til såvel risikovurderingen af individuelle applikationer som den generelle anvendelse af AI, robotteknologi og relaterede teknologier inden for retshåndhævelse og grænsekontrol; mener, at disse teknologier er forbundet med betydelige etiske risici, der skal imødegås på passende vis under hensyntagen til de mulige negative konsekvenser for enkeltpersoner, navnlig for deres ret til privatlivets fred, databeskyttelse og ikke-forskelsbehandling; understreger, at misbrug af disse teknologier kan blive en direkte trussel mod demokratiet, og at indførelsen og anvendelsen heraf skal overholde principperne om proportionalitet og nødvendighed, chartret om grundlæggende rettigheder samt den relevante afledte EU-ret, såsom EU's databeskyttelsesregler; understreger, at AI aldrig må erstatte mennesker i forbindelse med afsigelse af domme, og at afgørelser om eksempelvis løsladelse mod kaution eller prøveløsladelse, afgivelse af forklaring i retten eller afgørelser, der udelukkende er baseret på automatisk behandling og som har retsvirkning for enkeltpersoner eller berører dem i væsentlig grad, altid skal omfatte en meningsfuld vurdering og bedømmelse foretaget af et menneske;

17. advarer om, at der på grund af den indgribende karakter af de beslutninger og foranstaltninger, som de retshåndhævende myndigheder træffer – herunder ved hjælp af databehandling og AI – i borgernes liv og rettigheder er behov for maksimal forsigtighed for at forhindre ulovlig diskrimination og målretning mod bestemte personer eller grupper af personer, der defineres ud fra deres race, farve, etnisk eller social oprindelse, genetiske træk, sprog, religion eller overbevisning, politiske eller andre holdninger, formueforhold, fødsel, handicap, alder, køn, kønsudtryk eller kønsidentitet, seksuel orientering, boligforhold, sundhed eller tilhørsforhold til et nationalt mindretal, som ofte er genstand for etnisk profilering eller en mere intensiv indsats fra de retshåndhævende myndigheders side, samt personer, der tilfældigvis er defineret ved bestemte kendetegn; kræver tilstrækkelig uddannelse af dem, der er de primære indsamlere af data, og brugerne af efterretninger hidrørende fra AI;

18. påpeger, at den mulighed, som disse teknologier giver for at anvende data af personlig og ikkepersonlig karakter til at kategorisere personer og mikromålrette indhold til dem, identificere enkeltpersoners sårbarheder eller udnytte præcis, forudsigelsesbaseret viden om dem, skal modvejes af effektiv håndhævelse af principperne om data- og privatlivsbeskyttelse, herunder princippet om dataminimering, retten til at gøre indsigelse mod profilering og til at have kontrol over egne data, retten til at få en forklaring på en afgørelse baseret på automatiseret behandling og databeskyttelse gennem design samt principperne om proportionalitet, nødvendighed og begrænsning i forhold til et præcist defineret formål; påpeger, at mens visse modeller for forudsigende politiarbejde er mere privatlivsvenlige end andre, f.eks. når der fremsættes sandsynlighedsbaserede forudsigelser om steder eller hændelser og ikke om enkeltpersoner, har systemer med forudsigende politiarbejde vist sig at forstærke overdreven nidkærhed fra politiets side på grundlag af en eksisterende bias som f.eks. raceprofilering eller på grund af personers migrant- eller arbejderklassebaggrund, også selv om dette ikke er afspejlet i de faktiske kriminalitetsstatistikker;

19. understreger, at borgerne skal kunne have tillid til den teknologi, de bruger, og til den, som bruges af andre; understreger , at AI- og robotteknologi ikke er ufejlbarlig, og understreger derfor vigtigheden af retten til at få en forklaring, når personer udsættes for algoritmisk beslutningstagning, samt nødvendigheden af gennemsigtighed i algoritmer, eftersom gennemsigtighed med hensyn til den underliggende logik i en algoritme er yderst relevant for dem, der berøres heraf, så deres grundlæggende rettigheder kan beskyttes fuldt ud; mener, at det er nødvendigt, at lovgiverne overvejer det komplekse spørgsmål om erstatningsansvar, og at erstatningsansvaret i forbindelse med alle AI-applikationer altid bør ligge hos en person, hvad enten denne er fysisk eller juridisk;

20. understreger, at kunstig intelligens, robotteknologi og relaterede teknologier er globale teknologier, og at disse standarder skal indføres verden over for at sikre, at deres fremtidige udvikling sker i overensstemmelse med europæiske værdier og etiske standarder; opfordrer Kommissionen til at udøve AI-diplomati i internationale fora med ligesindede partnere som USA, G7, G20 og OECD for at indføre fælles etiske standarder og retningslinjer for udvikling af AI, robotteknologi og relaterede teknologier;

21. understreger, at der skal indføres klare rammer for brugen af AI på sociale medieplatforme, og det samme gælder for gennemsigtighedskrav vedrørende de anvendte algoritmer og kalibreringen af disse for at undgå overdreven fjernelse af indhold og enhver form for filtrering eller censur på internettet;

22. påpeger, at AI kan anvendes til at manipulere med ansigtstræk og audiovisuelle karakteristika, ofte betegnet som deepfakes; bemærker, at denne teknik kan anvendes til at manipulere valg, sprede desinformation og andre uønskede handlinger; anmoder derfor Kommissionen om at anvende sin etiske ramme til at indføre et krav om, at alt deepfake-materiale og alle realistisk udseende syntetiske videoer skal ledsages af en advarsel om, at de ikke er originale, og til at indføre strenge begrænsninger for anvendelse heraf i valgkampe;

23. foreslår, at der oprettes et ekspertisecenter, der samler akademikere, forskere, erhvervslivet og individuelle eksperter på EU-plan, enten som en integreret del af eller i tilknytning til agenturet, for at fremme udveksling af viden og teknisk ekspertise og for at fremme samarbejdet over hele EU og med tredjelande;

24. minder om betydningen af sproglig og kulturel mangfoldighed; opfordrer derfor Kommissionen til at anvende sin etiske ramme til at sikre, at AI ikke reducerer denne mangfoldighed, men at der fortsat er adgang til en bred vifte af indhold, som ikke domineres i overdreven grad af et bestemt sprog og/eller en bestemt kulturel model, og til at fordømme ethvert forsøg på at begrænse denne mangfoldighed og kun udbyde indhold, der afspejler nogle allerede eksisterende mønstre, eller som kunne fungere som et "ekkokammer", der ville forhindre adgang til mere mangfoldighed;

25. henstiller, at Kommissionen dokumenterer, at den har revideret, vurderet og tilpasset sin koordinerede plan for AI for at adressere de alvorlige implikationer, som brugen af AI har for de grundlæggende rettigheder, og redegør for, hvordan sådanne risici vil blive modvirket i EU's lovgivningsmæssige tilgang og ved gennemførelsen af medlemsstaternes nationale strategier;

 

 

OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

22.9.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

55

5

7

Til stede ved den endelige afstemning – medlemmer

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Til stede ved den endelige afstemning – stedfortrædere

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Til stede ved den endelige afstemning – stedfortrædere (forretningsordenens art. 209, stk. 7)

Isabel Benjumea Benjumea

 


 

 

ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 


 

 

UDTALELSE FRA UDVALGET OM BESKÆFTIGELSE OG SOCIALE ANLIGGENDER (7.9.2020)

til Retsudvalget

med henstillinger til Kommissionen om ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Lina Gálvez Muñoz

(Initiativ – forretningsordenens artikel 47)

 

 

FORSLAG

Udvalget om Beskæftigelse og Sociale Anliggender opfordrer Retsudvalget, som er korresponderende udvalg, til at optage følgende forslag i det beslutningsforslag, det vedtager:

A.  der henviser til, at anvendelsen af kunstig intelligens (AI), robotteknologi og relaterede teknologier i dagligdagen og på arbejdspladsen er i konstant stigning, hvilket indebærer gennemgribende forandringer af de nuværende samfundsøkonomiske strukturer; der henviser til, at AI bør være til gavn for borgerne og samfundet ved at forbedre livskvaliteten, skabe nye jobmuligheder og forbedre EU's konkurrenceevne; der henviser til, at AI er en vigtig del af den digitale økonomi og har potentiale til at fremme velstanden og lette overgangen til en bæredygtig økonomi, hvis den udnyttes godt;

B. der henviser til, at betegnelsen AI anvendes om systemer, der udviser intelligent adfærd ved at analysere deres omgivelser og handle – med en vis grad af autonomi – for at opnå specifikke mål; der henviser til, at AI-baserede systemer kan være rent softwarebaserede og agere i den virtuelle verden (f.eks. i form af taleassistenter, billedanalyseprogrammer, søgemaskiner, tale- og ansigtsgenkendelsessystemer), eller kan være indlejret i hardwareudstyr (f.eks. i form af avancerede robotter, autonome biler, droner eller applikationer til tingenes internet)[28];

C. der henviser til, at AI er en strategisk prioritet, hvis fulde potentiale kun kan udnyttes, hvis brugere og forbrugere er klar over de potentielle fordele og udfordringer, den indebærer; der henviser til, at såvel virksomheder som arbejdstagerne og deres repræsentanter ofte hverken har kendskab til AI-applikationer eller til deres underliggende funktioner og data; der henviser til, at der findes AI-applikationer, som er i strid med eksisterende bestemmelser, bl.a. om databeskyttelse;

D. der henviser til, at AI potentielt rummer økonomiske og samfundsmæssige fordele og muligheder for både virksomheder og arbejdstagere, samtidig med at det skaber en række etiske, juridiske og beskæftigelsesmæssige udfordringer; der henviser til, at anvendelsen af AI på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og indvirke på sundheden og sikkerheden på arbejdspladsen, samtidig med at det også kan anvendes til at overvåge, evaluere, forudsige og guide arbejdstagernes præstationer med direkte og indirekte konsekvenser for deres karriere; der mener, at AI bør have en positiv indvirkning på arbejdsvilkårene og være styret af respekt for menneskerettighederne og Unionens grundlæggende rettigheder og værdier; der påpeger, at AI bør være menneskecentreret, styrke folks trivsel og velfærdssamfundet og bidrage til en retfærdig og retfærdig omstilling;

E. der henviser til, at AI har en markant indvirkning på arbejdsmarkedet[29]; der henviser til, at det potentielt kan erstatte arbejdstagere, der udfører repetitivt arbejde, fremme arbejdssystemer, hvor menneske og maskine arbejder sammen, øge konkurrenceevnen og den økonomiske fremgang og skabe nye jobmuligheder for kvalificerede arbejdstagere; der henviser til, at beskæftigelseslandskabet udvikler sig hurtigt, således at omkring 65 % af nutidens børn forventes at komme til at arbejde inden for helt nye jobtyper, og at der er behov for omskoling og opkvalificering af arbejdstagerne, navnlig med hensyn til digitale færdigheder, for at sikre, at ingen lades i stikken, og at der er et tilstrækkeligt udbud af specialiseret arbejdskraft[30];

F. der henviser til, at ca. 43 % af EU's voksne arbejdstagere ifølge Cedefop har prøvet nye teknologier på arbejdspladsen; der henviser til, at omkring syv ud af ti EU-arbejdstagere har brug for i det mindste moderate digitale færdigheder for at kunne udføre deres arbejde[31]; der henviser til, at omkring en fjerdedel af EU's borgere ingen eller kun få digitale færdigheder har; der henviser til, at den digitale kløft har specifikke socioøkonomiske, kønsrelaterede, geografiske og tilgængelighedsrelaterede aspekter, som skal adresseres; der henviser til, at 42 % af arbejdstagerne i virksomheder, som anvender AI i deres arbejdsprocesser, mener, at sådanne aktiviteter fører til etiske problemstillinger, som skal løses; der henviser til, at 28 % af arbejdsgiverne mener, at anvendelsen af AI ikke har udviklet sig fuldt ud på grund af manglende etiske regler på dette område[32];

G. der henviser til, at covid-19-pandemien har understreget betydningen af digitale løsninger, herunder telearbejde, samt de tekniske og sociale konsekvenser heraf; der henviser til, at der ikke findes fælles bestemmelser på EU-plan om anvendelsen af AI på arbejdspladsen, hvilket kan føre til markedsforvridninger og konkurrencemæssige ulemper; der finder, at AI bør underlægges passende lovgivningsmæssige rammer;

H. der henviser til, at OECD har udarbejdet henstillinger om AI[33];

I. der henviser til, at Rådet for Den Europæiske Union tilskynder til fremme af en etisk og menneskecentreret tilgang til AI[34];

J. der henviser til, at arbejdsmarkedets parter på EU-plan har indgået en rammeaftale om digitalisering, som bl.a. indeholder et kapitel om kunstig intelligens og sikring af princippet om, at mennesket skal være i kontrol[35];

K. der henviser til, at visse medlemsstater allerede har oprettet særlige organer til at overvåge og vurdere AI's indflydelse på arbejdspladsen;

L. der påpeger, at bestræbelserne på at imødegå kønsrelaterede skævheder og uligheder i den digitale sektor er utilstrækkelige; der henviser til, at der fortsat er kønsforskelle på tværs af alle digitale teknologiområder og navnlig inden for AI, hvorved den mandsorienterede udvikling i den digitale sektor vil være cementeret inden for en overskuelig fremtid;

1. fremhæver behovet for at foretage en grundig vurdering af de muligheder og udfordringer, der er forbundet med AI-applikationer i private og offentlige virksomheder og i den offentlige forvaltning i relation til jobs og arbejdstagere, herunder deres indvirkning på balancen mellem arbejde og privatliv, arbejdets tilrettelæggelse og arbejdsgange; anser det for absolut nødvendigt, at arbejdsmarkedsdialogen ikke tilsidesættes, og at arbejdstagerne og deres repræsentanter høres og modtager tilstrækkelig information fra begyndelsen af beslutningsprocessen; understreger vigtigheden af, at indførelsen af AI er gennemsigtig, og at AI-systemer på arbejdspladsen respekterer privatlivets fred og arbejdstagernes værdighed;

2. mener, at der bør foretages en omfattende risikovurdering inden udviklingen, indførelsen og iværksættelsen af AI-systemer med henblik på at evaluere indvirkningen heraf på de grundlæggende rettigheder og arbejdsvilkår, herunder med hensyn til sundhed og sikkerhed på arbejdspladsen, samt de sociale konsekvenser heraf; mener, at vurderingerne bør omfatte risici vedrørende menneskelig beslutningstagning og social forskelsbehandling og en evaluering af de beskæftigelsesmæssige risici, der kan opstå;

3. påpeger, at AI-løsninger har potentialet til at forbedre arbejdsvilkårene og livskvaliteten, herunder i form af en bedre balance mellem arbejde og privatliv og bedre tilgængelighed for personer med handicap, at forudsige udviklingen på arbejdsmarkedet og forbedre forvaltningen af de menneskelige ressourcer ved at modvirke menneskelig bias, men at de samtidig kan give anledning til bekymring med hensyn til privatlivets fred og sundhed og sikkerhed på arbejdspladsen som f.eks. retten til at logge af, og føre til en uforholdsmæssig og ulovlig overvågning af arbejdstagere, der krænker deres værdighed og privatlivets fred, samt forskelsbehandling, herunder i ansættelsesprocedurer, på grund af algoritmer med indbygget bias, herunder med hensyn til køn, race og etnicitet[36], og algoritmer, der er til skade for sårbare grupper; er endvidere bekymret over, at AI kan undergrave arbejdstagernes frihed og autonomi og bidrage til psykiske sundhedsproblemer såsom udbrændthed, teknostress, psykisk overbelastning og træthed; understreger, at AI-løsninger på arbejdspladsen skal være gennemsigtige, rimelige og undgå eventuelle negative konsekvenser for arbejdstagerne;

4. understreger, at de kompetente myndigheder bør have adgang til alle oplysninger om de data, der anvendes til uddannelse, statistiske modeller og teoretiske principper vedrørende AI‑løsninger samt den empiriske gyldighed af deres resultater;

5. mener, at AI kan bidrage til en bedre udnyttelse af handicappedes færdigheder og kompetencer, og at anvendelsen af AI på arbejdspladsen kan bidrage til inkluderende arbejdsmarkeder og højere beskæftigelsesfrekvenser for personer med handicap;

6.  understreger, at de nye teknologiske muligheder såsom AI og vurderingen af arbejdseffektiviteten ikke må føre til ulige, teknologisk forstærkede kapaciteter og til en dehumaniseret digital fremtid; understreger, at innovationsetikken skal følge en humanistisk tilgang;

7. mener, at det bør være obligatorisk, at brugerne, herunder arbejdstagerne, og forbrugerne informeres, når et system benytter AI, navnlig med hensyn til personaliserede produkter eller tjenesteydelser, og modtager relevant information i en let forståelig og tilgængelig form om alle de etiske aspekter af de AI-applikationer, der er relevante for dem, så de kan træffe informerede valg; understreger betydningen af at forstå, hvordan algoritmer behandler og vurderer data ,og hvordan dette kan begrænses eller standses; fremhæver behovet for kompetenceudvikling gennem uddannelse og information af arbejdstagere og deres repræsentanter med hensyn til AI på arbejdspladsen for bedre at forstå konsekvenserne af AI-løsninger;

8. understreger, at ansøgere og arbejdstagere i forbindelse med ansættelsesprocedurer og andre HR-beslutninger, hvor der anvendes AI, skal informeres skriftligt herom, herunder om, hvordan der i givet fald kan anmodes om, at et menneske gennemgår sagen med henblik på at omgøre en automatisk afgørelse;

9. understreger, at det er nødvendigt at sikre, at produktivitetsgevinster som følge af udviklingen og anvendelsen af AI og robotteknologi ikke kun kommer virksomhedsejere og aktionærer til gode, men også gavner virksomheder og ansatte via en forbedring af arbejds- og beskæftigelsesforhold, herunder med hensyn til løn, økonomisk vækst og udvikling, og endvidere er til fordel for samfundet som helhed, navnlig når sådanne gevinster opnås på bekostning af arbejdspladser; opfordrer medlemsstaterne til nøje at undersøge den potentielle indvirkning af AI på arbejdsmarkedet og de sociale sikringsordninger og til at udvikle strategier til sikring af langsigtet stabilitet ved at reformere skatter og bidrag samt andre foranstaltninger i tilfælde af, at staten får færre indtægter;

10. understreger betydningen af virksomheders investeringer i formel og uformel uddannelse samt livslang læring for at sikre en retfærdig omstilling til den digitale økonomi; fremhæver i denne forbindelse, at de virksomheder, der anvender AI, har ansvaret for at sikre passende omskoling og opkvalificering af alle berørte ansatte, således at de kan lære at anvende digitale værktøjer og arbejde med cobotter og andre nye teknologier og dermed tilpasse sig arbejdsmarkedets skiftende behov og forblive i beskæftigelse;

11. opfordrer til at anvende forsigtighedsprincippet i forbindelse med nye teknologier baseret på AI; understreger, at mennesker altid skal have kontrol over maskiner og AI, og at AI‑beslutninger skal kunne stilles til ansvar, anfægtes og i relevant omfang omgøres; understreger, at sikkerhedsstandarderne for AI skal respekteres, og fremhæver, at regelmæssige tilsyn og kontroller i denne henseende er vigtige for at forhindre fejlagtigt AI-output; understreger, at spørgsmålet om erstatningsansvar i forbindelse med brugen af AI skal defineres klart, både i tilfælde af arbejdsulykker og skade, som påføres tredjemand;

12. understreger, at AI skal være menneskecentreret, gennemsigtigt og sikkert og skal overholde de grundlæggende rettigheder og gældende love og bestemmelser, herunder den generelle forordning om databeskyttelse (GDPR), i hele systemets livscyklus, navnlig når det anvendes på arbejdspladsen; opfordrer til, at der udvikles et robust certificeringssystem baseret på prøvningsprocedurer og forsigtighedsprincippet, som vil gøre det muligt for virksomheder at påvise, at deres AI-produkter overholder de grundlæggende rettigheder og EU-standarder;

13. minder om, at EU's gældende regler på det beskæftigelsesmæssige og sociale område finder fuld anvendelse på AI, og opfordrer Kommissionen og medlemsstaterne til at sikre behørig håndhævelse og til at afhjælpe eventuelle lovgivningsmæssige mangler; bemærker, at EU kan blive en global leder med hensyn til at fremme en socialt ansvarlig brug af AI;

14. understreger betydningen af en fælles europæisk tilgang til de etiske aspekter af AI; understreger, at enhver lovgivningsmæssig ramme i denne henseende skal være tilstrækkelig og baseret på en omfattende konsekvensanalyse, så man undgår at hæmme fremtidig innovation og jobskabelse; opfordrer i denne forbindelse til et europæisk regelsæt vedrørende de etiske aspekter af AI, som er forholdsmæssig og har særlig fokus på arbejdsmarkedet, herunder arbejdstagernes rettigheder og arbejdsvilkår; mener, at der bør lægges særlig vægt på nye former for arbejde, såsom gig- og platformsarbejde, der er resultatet af anvendelsen af nye teknologier i denne forbindelse; mener, at en lovgivningsmæssig ramme, der har til formål at regulere vilkårene for telearbejde i hele Unionen og sikre anstændige arbejds- og ansættelsesvilkår i den digitale økonomi, ligeledes skal tage højde for virkningen af AI; opfordrer Kommissionen til at høre arbejdsmarkedets parter, AI-udviklere, forskere og andre interessenter i denne henseende;

15. understreger, at AI og enhver hermed relateret lovgivning på ingen måde må påvirke udøvelsen af de grundlæggende rettigheder, der anerkendes i medlemsstaterne og på EU-plan, herunder retten eller friheden til at strejke eller gribe til andre aktioner, der er omfattet af de specifikke arbejdsmarkedsordninger i medlemsstaterne i overensstemmelse med national lovgivning og/eller praksis, eller påvirke retten til at forhandle, indgå og håndhæve kollektive overenskomster eller til at tage kollektive skridt i overensstemmelse med national lovgivning og/eller praksis;

16. understreger, at der skal lægges særlig vægt på data indsamlet på arbejdspladsen ved hjælp af AI, navnlig hvis de anvendes i forbindelse med HR-beslutninger; opfordrer arbejdsmarkedsparter på virksomhedsplan til i fællesskab at analysere og overvåge anvendelsen af AI; opfordrer Kommissionen og arbejdsmarkedets parter til at analysere behovet for særlige bestemmelser om databeskyttelse på arbejdspladsen i forbindelse med AI; understreger, at arbejdstagerne er ejere af deres egne data, også efter et ansættelsesforholds ophør;

17. understreger, at den nye dagsordenen for færdigheder i Europa skal imødegå udfordringerne med hensyn til tilpasning til og erhvervelse af kvalifikationer og viden i lyset af den økologiske og digitale overgang, herunder de etiske aspekter af AI; understreger, at det er nødvendigt at gøre de etiske aspekter af AI til en integreret del af pensum i alle uddannelser for udviklere og personer, der arbejder med AI; minder om, at udviklere, programmører, beslutningstagere og virksomheder, der beskæftiger sig med AI, skal være bevidste om deres etiske ansvar; mener, at det ligeledes er vigtigt at sikre, at slutbrugerne og forbrugerne modtager omfattende information, og at der regelmæssigt udveksles information mellem alle relevante interessenter i denne henseende;

18. minder om betydningen af uddannelse og vedvarende læring for at udvikle de kvalifikationer, der er nødvendige i den digitale tidsalder, og for at imødegå digital udstødelse; opfordrer medlemsstaterne til at investere i velfungerende og inkluderende systemer af høj kvalitet for almen og erhvervsrettet uddannelse og livslang læring samt politikker for omskoling og opkvalificering for arbejdstagere i sektorer, der potentielt kan rammes hårdt af AI; fremhæver behovet for at sikre den nuværende og fremtidige arbejdsstyrke de nødvendige læse-, skrive- og regnefærdigheder samt digitale færdigheder og kompetencer inden for naturvidenskab, teknologi, ingeniørvirksomhed og matematik (STEM) og tværgående bløde færdigheder såsom kritisk tænkning, kreativitet og iværksætterånd; understreger, at der bør lægges særlig vægt på at inddrage dårligt stillede grupper i denne henseende;

19. understreger, at AI ikke må styrke kønsrelaterede uligheder og stereotyper ved at gøre en analog bias og fordomsfuldhed til en digital ditto ved hjælp af algoritmer;

20. understreger behovet for at sikre, at personer med forskellig baggrund, herunder kvinder, unge, farvede og personer med handicap, inkluderes i udviklingen, indførelsen og anvendelsen af AI; understreger, at AI-baseret teknologi på arbejdspladsen skal være tilgængelig for alle og bygge på princippet om design for alle;

21. påpeger, at adgang til AI-løsninger er tæt forbundet med adgang til højhastighedsinternet, og at bredbåndsdækningen derfor bør være en prioritet for at undgå forskelsbehandling og ulige adgang til disse teknologier;

22. bemærker, at mulighederne for AI-løsninger er afhængige af big data, idet der er behov for en kritisk mængde data til at træne algoritmer og forfine deres resultater; bifalder i den forbindelse Kommissionens forslag om, at der oprettes et fælles dataområde i EU for at styrke dataudveksling og støtte forskning med fuld respekt for EU's databeskyttelsesregler.

OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

7.9.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

46

6

1

Til stede ved den endelige afstemning – medlemmer

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Til stede ved den endelige afstemning – stedfortrædere

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


 

ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al-Sahlani, Atidzhe Alieva-Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie-Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter-Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

UDTALELSE FRA UDVALGET OM MILJØ, FOLKESUNDHED OG FØDEVARESIKKERHED (16.9.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Adam Jarubas (Initiativ – forretningsordenens artikel 47)

 

 

FORSLAG

Udvalget om Miljø, Folkesundhed og Fødevaresikkerhed opfordrer Retsudvalget, som er korresponderende udvalg, til

 at optage følgende forslag i det beslutningsforslag, det vedtager:

A. der henviser til, at EU bygger på værdierne i artikel 2 i traktaten om Den Europæiske Union og respekt for forsigtighedsprincippet, som nævnes i artikel 191, stk. 2, i traktaten om Den Europæiske Unions funktionsmåde;

B. der henviser til, at det i artikel 16 i TEUF fastslås, at enhver har ret til beskyttelse af personoplysninger om vedkommende selv; der henviser til, at artikel 22 i Europa-Parlamentets og Rådets forordning (EU) 2016/679[37] henviser til en situation, hvor data udelukkende bruges til automatisk behandling, og anerkender den registreredes ret til ikke at være genstand for en afgørelse, der alene er baseret på automatisk behandling;

C. der henviser til, at den globale konkurrence om førerpositionen inden for udvikling af kunstig intelligens (AI), som vil påvirke kilden til de etiske værdier og standarder, der former sektoren i hele verden, tager fart, og at EU bør foregå med et godt eksempel for resten af verden med passende lovgivningsmæssige rammer for også at forhindre et potentielt kapløb mod bunden hvad angår de nationale regler;

D. der henviser til, at denne globale konkurrence ikke bør adskilles fra de etiske værdier og standarder;

E.  der henviser til, at de hurtige fremskridt inden for forskning og innovation har givet anledning til en række vigtige etiske, juridiske og sociale spørgsmål, der påvirker forholdet mellem videnskab og samfund; whereas this research and innovation must comply with ethical principles, and relevant national, Union and international law, including the Charter of Fundamental Rights of the European Union and the European Convention for the Protection of Human Rights and Fundamental Freedoms, according to the provisions of the European Research Programmes;

F. der henviser til, at integration af big data og AI-teknologier i offentlige sundhedssystemer og andre sektorer skal ledsages af hensigtsmæssige regler, standarder og lovgivning, der beskytter den enkeltes grundlæggende rettigheder og tager disse nye etiske udfordringer op;

G. der henviser til, at der i øjeblikket er en betydelig mangel på patenter og investeringer i EU sammenlignet med andre dele af verden;

H. der henviser til, at AI og andre nye digitale løsninger bl.a. kan gavne samfundet på områderne grøn omstilling, miljøbeskyttelse og beskyttelse af biodiversiteten, øget effektivitet i landbruget, affaldshåndtering, den cirkulære økonomi, modvirkning af og tilpasning til klimaændringer, grøn omlægning af forskellige industriprocesser, energi- og transportforvaltning og -effektivitet, vand- og luftkvalitet (f.eks. intelligente net og elektromobilitet), risikohåndtering og jordobservation, hvor EU's Copernicusprogram er et af de bedste;

I. der henviser til, at AI kan anvendes på næsten alle former for lægevidenskab: biomedicinsk forskning, eksemplificeret ved det AI-opdagede antibiotikum Halicin eller AI-bidrag til kræftforebyggelse, tidligere og mere præcis diagnosticering og nye behandlinger ved hjælp af metoder som prædiktiv eller genomisk medicin, lægefaglig uddannelse, bistand til plejepersonale, støtte til ældreplejen, overvågning af patienters tilstande, mere effektiv udvikling af lægemidler, mere målrettet behandling, klinisk beslutningstagning, skræddersyet medicin, psykiatrisk diagnose og behandling, i forbindelse med revolutionerende udvikling af robottekniske proteser og støttesystemer, telemedicin og sundhedssystemernes samlede effektivitet og interoperabilitet;

J.  der henviser til, at digitale fremskridt kræver passende uddannelse og forberedelse af det sundhedsmæssige og administrative personale for at forhindre en digital kløft under hensyntagen til vores aldrende samfund og de potentielle udfordringer for sundhedssystemerne;

K. der henviser til, at der er alvorlige etiske betænkeligheder ved maskiners autonomi;

L. der henviser til, at digital sundhed ikke må dehumanisere behandlingen og begrænse forholdet mellem læge og patient, men bør hjælpe lægerne med at diagnosticere og/eller behandle patienterne mere effektivt;

M. der henviser til, at AI-teknologien vil fremskynde industriens digitale omstilling og spille en afgørende rolle for den digitale økonomis succes i en stadig mere forbundet verden;

N. der henviser til, at EU's nuværende regler og etiske retningslinjer allerede har behandlet nogle etiske udfordringer vedrørende AI-applikationer, som omtales i Kommissionens hvidbog om kunstig intelligens, f.eks. risikovurderingsprocesser for AI-baserede sundhedsløsninger på det indre marked; der henviser til, at andre områder er bagud i forhold til de etiske udfordringer, der skal identificeres og afbødes, eftersom AI har enorm kapacitet til at true patientpræferencer, sikkerhed og privatlivets fred; der henviser til, at der skal redegøres for grænserne mellem sundhedspersonalets og maskiners rolle i patientplejen, herunder princippet om overvåget autonomi for robotter, og at der er behov for uddannelse af både sundhedspersonale og patienter;

O. der henviser til, at EU's regler om databeskyttelse bør tilpasses for at tage højde for den stadig større kompleksitet og sammenkobling af robotter til behandling og medikotekniske robotter, der eventuelt skal forvalte personoplysninger og medicinske data, der er yderst følsomme og er omfattet af indbygget databeskyttelse i henhold til forordning (EU) 2016/679 om databeskyttelse;

P. der henviser til, at løsninger, der understreger behovet for at inddrage videnskabelig forskning som grundlag for udviklingsstrategier ved at oprette lagre af medicinske data (f.eks. neurologiske og kardiologiske data) og ved deling af data fra denne forskning, kan give mærkbare sociale fordele for den offentlige sikkerhed og sundhed;

Q. der henviser til, at AI-løsninger kan være til gavn for samfundet inden for fødevaresikkerhed, bl.a. ved at reducere anvendelsen af pesticider, støtte præcisionslandbrug eller mere generelt landbrug 2.0, hvor EU er blandt de førende inden for AI-applikationer (f.eks. for automatiske maskintilpasninger til vejrprognoser eller sygdomsidentifikation), hvilket vil give mulighed for at kombinere en mere effektiv produktion med højere miljøstandarder og bedre ressourceudnyttelse, navnlig i områder, hvor vandressourcerne er knappe, og klimaændringerne har alvorlige konsekvenser, som det bør være i overensstemmelse med prioriteterne i den grønne pagt;

R. der henviser til, at de pågældende rammers anvendelsesområde skal være passende, forholdsmæssigt og vurderes grundigt; der henviser til, at de bør omfatte en bred vifte af teknologier og komponenter hertil, herunder algoritmer, software og data, der anvendes eller produceres af AI; der henviser til, at der er behov for en målrettet tilgang baseret på begrebet høj risiko for at undgå, at man hindrer, at fremtidige innovationer kan opnå fordele ved AI-applikationer, f.eks. inden for sundhedspleje, miljøbeskyttelse og fødevarekvalitet til borgerne;

S. der henviser til, at det er vigtigt at finde frem til et effektivt middel til at sikre pålidelige digitale teknologier, der gør det muligt at høste fordelene ved dem, samtidig med at de grundlæggende rettigheder beskyttes, og som tilskynder til udviklingen af uformelle, åbne, tolerante og retfærdige samfund; der henviser til, at dette er særlig vigtigt i forbindelse med hybride systemer af menneskelig/kunstig intelligens;

T. der henviser til, at maskiner med robotteknologi udvisker grænserne mellem mennesker og teknologiske genstande; der henviser til, at de ikke kun har samfundsmæssige følger, der må vurderes ud fra et etisk synspunkt, men at de endda også sætter spørgsmålstegn ved de etiske rammer, som man prøver at vurdere dem ud fra; der henviser til, at man som påpeget i rapporten fra den verdensomspændende etiske kommission for videnskabelig og teknologisk viden (COMEST) bør være særligt opmærksom på brugen af medikotekniske robotter, sygeplejerobotter, robotter til pleje af ældre og selskabsrobotter;

U. der henviser til, at brugen af sociale robotter og selskabsrobotter breder sig hurtigt inden for sundhedspleje og navnlig ældrepleje; der henviser til, at robotter til pleje af ældre og selskabsrobotter kan indtage en funktionel og følelsesmæssig rolle; der henviser til, at disse robotter kan spille en rolle med hensyn til at gøre ældre mindre ensomme, forebygge adfærd i forbindelse med demens, stimulere kognitive aktiviteter for patienter med neurodegenerative lidelser eller udføre visse hverdagsopgaver, som de ældre har vanskeligt ved at udføre; der henviser til, at selskabsrobotter således kan skabe falske, illusoriske og ugengældte følelser og derved narre og barnliggøre de ældre;

V. der henviser til, at selskabsrobotter stadig oftere kan anvendes til seksuelle formål; der henviser til de særdeles bekymrende etiske konsekvenser, som brugen af sexrobotter, der ligner børn eller er programmeret til at blive misbrugt, indebærer;

Retlige og etiske rammer for AI:

1. understreger, at Unionen skal træffe alle nødvendige foranstaltninger for at sikre, at dens etiske værdier, som de kommer til udtryk i gældende EU-ret, anvendes effektivt på alle AI-områder inden for dens område, og for at fremme dens standarder i hele verden; fremhæver i den forbindelse, at den teknologiske udvikling inden for AI altid skal være til gavn for menneskeheden;

2. understreger, at EU skal tage alle nødvendige skridt til at øge samfundets tillid til udviklingen og indførelsen af AI, robotteknologi og relaterede teknologier i lyset af de betydelige virkninger, som disse teknologier kan have på borgerne; opfordrer Kommissionen til at følge de etiske retningslinjer vedrørende pålidelig AI og til at foreslå hensigtsmæssige foranstaltninger for at sikre, at disse teknologier ikke medfører urimeligt partiske resultater for borgerne;

3. understreger, at et lovbaseret AI-økosystem i EU, der skaber tillid, både inden for applikationer til miljøbeskyttelse, sundhed og fødevaresikkerhed, som udvides med EU's etiske rammer for AI, vil skabe øget retssikkerhed og forudsigelighed, tilskynde interessenterne til at engagere sig, øge mængden af data, som leveres til systemerne, og markedsudbredelsen, give mulighed for stordriftsfordele og understøtte et økosystem af ekspertise i disse sektorer; mener, at dette vil styrke den globale konkurrenceevne for EU's AI-sektor og dens potentiale til at fremme EU's værdier og standarder;

4. bemærker, at eftersom regulering gennem lovgivning er en bedre reaktion på de aktuelle veldefinerede udfordringer, og som følge af den hurtige udvikling af AI, der fører til usikkerhed med hensyn til, hvad der ligger forude, vil nogle retligt velforankrede etiske EU-rammer for AI, der kan håndhæves, udvide et økosystem af tillid for alle interessenter som defineret i Kommissionens hvidbog, navnlig når det gælder applikationer inden for miljøbeskyttelse eller beskyttelse af folkesundheden, skabelse af sundere miljøer, bedre sundhedsressourcer og -tjenester eller fødevaresikkerhed, og dermed understøtte et økosystem af ekspertise inden for retssikkerhed og forudsigelighed, og yde en effektiv reaktion på de udfordringer, som endnu ikke er defineret i bl.a. retssale, forvaltningsmøder eller videnskabelige laboratorier;

5. bemærker, at definitionen af AI kræver mere arbejde; understreger derfor vigtigheden af en menneskecentreret tilgang og regelmæssige evalueringer af fremskridtene inden for AI og de etiske rammer med henblik på at fremme en proaktiv regulering og sikre dens anvendelse gennem tid og nye udviklinger; understreger, at der er mange risikoniveauer, der udvikler sig over tid i takt med AI-teknologiernes fremmarch; understreger behovet for nogle forholdsmæssige lovgivningsmæssige rammer, der bør udvikle sig i takt med de teknologiske fremskridt; påpeger, at Copernicus-programmet kan fungere som bedste praksis ved udviklingen af store datasæt af høj kvalitet som input til AI-modeller;

6. understreger behovet for nogle lovgivningsrammer, der fastlægger de etiske principper for udformningen, udviklingen, implementeringen og funktionen af denne teknologi - lige fra dataadgang til streng overvågning af resultaterne;

7. understreger, at der skal findes en afbalanceret tilgang til reguleringen, der først og fremmest sikrer, at vores værdier ikke bringes i fare, samtidig med at man undgår at skabe unødvendige administrative byrder, navnlig for SMV'er og nystartede virksomheder; fremhæver i denne forbindelse, at den globale konkurrence inden for AI ikke altid følger de samme etiske principper som EU; understreger, at AI og dermed forbundne teknologier ikke kun bør overlades til "lempelig" selvregulering; anser det for meget vigtigt, at der kræves nogle forholdsmæssige og understøttende EU-lovgivningsrammer; påpeger, at mange tredjelande arbejder med deres etiske rammer, og at der findes mange forslag på verdensplan; er bevidst om, at det største problem hvad angår etiske principper kan ligge i anvendelsen af sådanne principper snarere end i deres eksistens;

8. støtter det synspunkt, at de syv AI-krav, der er identificeret i de etiske retningslinjer for pålidelig kunstig intelligens for ekspertgruppen på højt plan om kunstig intelligens, udgør solide byggesten til fælles etiske EU-rammer for kunstig intelligens med en solid retlig forankring, der bl.a. behandler etiske aspekter af AI-applikationer inden for miljø, sundhed og fødevarebeskyttelse; opfordrer til en forbedring af den gældende EU-ret om gennemsigtighed, sporbarhed og menneskeligt tilsyn, der blev udpeget som områder, hvor der er behov for yderligere forbedringer, i den feedback, der er givet på retningslinjerne af 350 organisationer; opfordrer endvidere til, at EU's etiske rammer for AI skabes i en ånd af åbenhed over for arbejdet fra andre internationale partnere, der deler EU's værdier, f.eks. FN, Europarådet med dets retningslinjer om kunstig intelligens og databeskyttelse[38] fra 2019, det europæiske etiske charter om anvendelse af kunstig intelligens i retssystemerne og dets juridiske forskningscenters arbejde, ad hoc-udvalget om kunstig intelligens (CAHAI), de principper om AI[39], der blev undertegnet af OECD-medlemmerne i maj 2019, G20-ministererklæringen fra 2019 om handel og digital økonomi, hvis bilag indeholder principperne for AI, og IEEE's globale initiativ om etik i forbindelse med autonome og intelligente systemer[40];

9.  støtter kraftigt Kommissionen i at etablere nogle fælles etiske EU-rammer for AI for at imødegå de mangler, der er forårsaget af en fragmentering af det indre marked for AI, herunder applikationer inden for forskning, innovation og ekspertise i miljøbeskyttelse, folkesundhed, sundhedspleje og fødevaresikkerhed, og til at forebygge dobbeltstandarder for AI på tværs af medlemsstaterne for AI, der er udviklet i og uden for EU, bl.a. inden for områder som styring og beskyttelse af forbrugerdata og beskyttelse af privatlivets fred i intelligente net, affaldshåndtering, lige adgang til tjenesteydelser og teknologier, standarder for forholdet mellem patient og læge, lovgivning om databeskyttelse og privatlivets fred, herunder samspillet med forskning og udvikling af lægemidler, civilretligt ansvar i forbindelse med AI-støttet offentlig sundhedspleje, civilretligt ansvar for selvkørende køretøjer eller maskiner; bemærker, at medlemsstaternes lovgivning på nationalt plan ikke indeholder harmoniserede regler om erstatningsansvar vedrørende skader på ting eller personer som følge af digitale teknologier og adfærdsteknologier; efterlyser en behørig retlig forankring og positionering af sådanne etiske EU-rammer for AI;

10. minder i denne forbindelse om, at Europa-Parlamentet i sin beslutning af 16. februar 2017 om civilretlige bestemmelser om robotteknologi[41] anmodede Kommissionen om at overveje at oprette et europæisk agentur for kunstig intelligens, der skal sikre en harmoniseret tilgang i hele EU, udvikle fælles kriterier og en ansøgningsproces vedrørende udstedelse af et europæisk certifikat for overholdelse af etiske regler, og adressere de nye muligheder og udfordringer – navnlig af grænseoverskridende karakter – der opstår som følge af den igangværende teknologiske udvikling; anmoder Kommissionen om at reflektere over, om de eksisterende EU-organer og -institutioner er tilstrækkelige til disse opgaver, eller om der skal oprettes et nyt organ for kunstig intelligens;

11. mener, at man for alle AI-applikationer, der er udviklet både i og uden for EU, skal sikre det samme beskyttelsesniveau i EU som med alle andre teknologier, herunder den samme effektive adgang til domstolsprøvelse for parter, der påvirkes negativt af AI-systemer, samtidig med at den teknologiske innovation skal have lov til at videreudvikle sig; mener desuden, at dette AI-risikoområde er vigtigt, f.eks. inden for sundhedstjenester, transport med selvkørende køretøjer og fødevaresikkerhed; kræver en klar fordeling af forpligtelser, rettigheder og ansvar mellem de økonomiske operatører, der er involveret i levering af AI-applikationer, således at de enkelte forpligtelser placeres hos den/de aktør(er), der har de bedste muligheder for at afhjælpe potentielle risici, det være sig udvikleren, udbrederen, producenten, distributøren eller importøren, tjenesteudbyderen eller den professionelle eller private bruger, og kræver i denne forbindelse en passende revision af den relevante EU-lovgivning, f.eks. af direktivet om produktansvar, og en harmonisering af den nationale lovgivning; støtter Kommissionens holdning i hvidbogen om, at sikring af et effektivt beskyttelsesniveau og klageadgang på grund af AI-systemernes kompleksitet kan kræve en tilpasning af bevisbyrden i henhold til nationale bestemmelser om ansvaret for skader forårsaget af brugen af AI-applikationer; mener, at klarhed vedrørende det juridiske ansvar inden for AI-sektoren vil styrke håndhævelsen af EU's etiske værdier, som er indskrevet i Unionens regelværk, retssikkerheden og forudsigeligheden og den social accept, der understøtter udviklingen af et AI-økosystem af ekspertise i EU ved at samle investorer og øge markedsudbredelsen;

 

12. understreger, at mange af forslagene fra lande, der ikke er medlem af Unionen, og fra internationale organisationer kredser om fælles principper eller begreber vedrørende AI, såsom menneskecentrering, pålidelighed, respekt for menneskers autonomi, skadeforebyggelse, lighed og "ingen lades i stikken" samt forklarlighed; mener, at en international etisk ramme omkring disse principper er meget ønskelig; er bekymret for, at fremskridt og innovationer inden for AI fører til social ulighed, hvis der ikke gribes ind; opfordrer derfor Kommissionen og medlemsstaterne til at træffe de nødvendige foranstaltninger, så ingen lades i stikken i omstillingen til et digitalt Europa, og til at garantere en retfærdig og lige adgang til disse innovationer til en overkommelig pris, navnlig inden for områder som sundhedspleje;

13. anbefaler, at man supplerer den risikobaserede tilgang med en algoritmisk konsekvensanalyse, der henter oplysninger fra f.eks. konsekvensanalysen af lovgivning, GDPR-risikovurderingsproceduren og konsekvensanalysen vedrørende menneskerettigheder, og at resultaterne offentliggøres;

14. glæder sig over, at metoden med risikobaseret tilgang, som er defineret i Kommissionens hvidbog af 19. februar 2020[42], som standard anerkender sundhedspleje, transport og energi som højrisikosektorer og indfører en liste over AI-krav, som går videre end de eksisterende EU-regler i disse sektorer, medmindre den måde, hvorpå AI anvendes, ikke indebærer nogen væsentlig risiko; understreger, at EU's etiske rammer for AI særligt bør adressere de ovennævnte højrisikosektorer;

15. opfordrer til tydelige, objektive og gennemsigtige procedurer på EU-niveau i forbindelse med udarbejdelse af et offentligt katalog over højrisiko-AI-applikationer, som omfatter en mekanisme for periodisk gennemgang og ajourføring; opfordrer til, at man overvejer at placere bevisbyrden ved sådanne procedurer for alle AI-applikationer på alle områder hos den enhed, der ønsker at udvikle eller udbrede AI-systemet, med henblik på at holde kataloget åbent for innovation og undgå at overse risikoen ved at klassificere AI-applikationer som risikofrie;

16. mener, at der er en risiko for skævheder og forskelsbehandling i forbindelse med udvikling, udbredelse og anvendelse af kunstig intelligens, robotteknologi og relaterede teknologier, som indebærer en høj risiko, herunder software, algoritmer og data, der anvendes eller produceres af sådanne teknologier; minder om, at de pågældende teknologier i alle situationer bør respektere den menneskelige værdighed og sikre ligebehandling af alle; mener desuden, at disse mulige skævheder kan afhjælpes ved at fastsætte regler om databehandling og indføre hensigtsmæssige beskyttelsesforanstaltninger mod skævheder og forskelsbehandling på grund af sociale, økonomiske, etniske, racemæssige, seksuelle, ligestillingsmæssige, handicaprelaterede eller andre faktorer; advarer mod potentielt misbrug af AI-baseret diagnostisk udstyr og efterlyser sikkerhedsforanstaltninger vedrørende kapacitet og motivation i forbindelse med AI;

17. glæder sig over initiativet om frivillig mærkning af risikofri AI;

18. anbefaler, at der træffes foranstaltninger til at tilskynde alle berørte parter inden for AI-etik fra den private sektor, forbrugergrupper og den akademiske verden til at udarbejde en etisk kodeks, der er skræddersyet til den teknologiske, sociale og politiske udvikling;

19. minder om, at robotter træffer beslutninger ved hjælp af algoritmer, der er udtryk for værdier og etiske rammer, og at deres indførelse har betydelige etiske konsekvenser inden for sundhedspleje og sociale relationer; er særligt bekymret over brugen af selskabsrobotter til pædofile formål og seksuelle overgreb; mener, at man bør gøre sig etiske overvejelser i forbindelse med udformningen af robotteknologi; kræver, at man i udviklingsprocessen for disse maskiner giver plads til etik ved at benytte en metode som f.eks. værdiorienteret tilgang til design (Value Sensitive Design), navnlig hvad angår robotter til ældre og selskabsrobotter; understreger, at denne tilgang også bør tilpasses for at tage hensyn til dyrevelfærd;

20. understreger, at der ud over klare lovkrav om ansvarlighed og retligt ansvar også er behov for at sikre gennemsigtighed i forbindelse med algoritmer, så det er muligt at spore det øjeblik, hvor "tingene gik galt", og gøre det muligt for eksperter at gribe ind i rette tid; mener, at det er afgørende at sikre gennemsigtighed i forbindelse med algoritmer for at forhindre situationer, hvor beslutninger af medicinsk art træffes i et "black box"-miljø; understreger, at black box-algoritmer, der træffer uforklarlige beslutninger, er uacceptable i enhver sektor, men at konsekvenserne af algoritmefejl kan være meget alvorlige i sammenhænge, hvor beslutninger, der træffes ved hjælp af kunstig intelligens, kan betyde liv eller død; opfordrer Kommissionen og medlemsstaterne til at indlede en åben dialog med centrale aktører, der beskæftiger sig med lægemidler, IT, matematik, fysik, medicinsk datateknologi, klinisk psykologi, bioteknik og farmaceutiske produkter, om at etablere platforme, der fremmer dialog, og vurdere indvirkningen på forholdet mellem læge og patient og umenneskeliggørelsen af lægebehandlingen;

21. efterlyser vejledende initiativer på EU-plan, der fremmer fortolkningsvenlige algoritmer, eXplainable AI (xAI), kunstig intelligens baseret på symbolræsonneren og white box-AI-testteknikker, ved at vise, at disse teknologier kan kombineres med dybe neurale netværk, og påvise deres retlige, etiske og ofte forretningsmæssige fordele, og som også fremmer metoder til at fastslå risici i forbindelse med forskellige teknologiske løsningsmodeller ved bl.a. at gøre brug af de erfaringer, der er indhøstet af Det Forenede Kongeriges Information Commissioner's Office (ICO), og retningslinjerne fra The Alan Turing Institute med titlen "Explaining decisions made with AI" (forklaring af beslutninger, truffet ved hjælp af AI), der dokumenterer, at selv meget komplekse neurale AI-systemer kan fortolkes tilstrækkeligt;

22. opfordrer til gennemsigtighed, ansvar, mulighed for revision, forudsigelighed og ansvarlighed, da borgere, patienter og brugere bør informeres, når de indgår i et samspil med et system, der bruger kunstig intelligens, idet de får en klar og letforståelig beskrivelse af de anvendte data, algoritmens funktion, formål og resultater og eventuelle faremomenter; understreger, at gennemsigtighed og forklarlighed er afgørende for at sikre tillid til disse teknologier; mener, at beskrivelsen bør suppleres med muligheder for revision og sporbarhed, da overholdelsen af disse principper er en måde at garantere ansvarlighed på; påpeger, at AI-applikationer kan udkonkurrere mennesker, når der skal udføres specifikke opgaver inden for et snævert område, men at de mangler analytisk overblik; opfordrer til menneskeligt tilsyn, fagligt ansvar, forudsigelige systemer og mulighed for at tilsidesætte AI-systemet;

23. mener, at enhver fysisk eller juridisk person bør have ret til retlig prøvelse af en beslutning, der er truffet af meget risikobetonede AI-systemer, robotteknologi eller beslægtede teknologier til skade for vedkommende, og at enhver beslutning, der er truffet af AI-systemer, bør være underlagt streng menneskelig kontrol og en retfærdig procedure; foreslår, at der indføres sikkerhedsforanstaltninger vedrørende anvendelse af meget risikobetonede AI-systemer, robotteknologi eller beslægtede teknologier i forbindelse med offentlige myndigheders beslutninger, herunder regelmæssig vurdering og eventuel revision af regelsæt for at holde trit med den teknologiske udvikling, og foreslår, at der fastsættes bindende retningslinjer for de metoder, som de nationale tilsynsmyndigheder skal følge, når de foretager vurderinger af overensstemmelse, og ikkebindende retningslinjer rettet mod udviklerne, udbrederne og brugerne;

24. bifalder en EU-strategi for data, der tager hånd om de kommende udfordringer for Unionen på dette område, som er afgørende for at opnå fremskridt på området for kunstig intelligens, og søger muligheder for, at EU kan opnå konkurrencefordele i den nye dataøkonomi, navnlig i den voksende sektor for decentrale data af ikkepersonlig art, der stammer fra industrien, erhvervslivet og den offentlige sektor og fra udstyr i udkanten af netværket, som forventes at udgøre 80 % af 175 zettabyte i 2025 og vende op og ned på de nuværende forhold;

25. opfordrer til, at der sikres tilstrækkelig finansiering til EU's omstilling til AI; støtter de ambitioner, der er fastlagt i Kommissionens hvidbog, om at tiltrække 200 mia. EUR i offentlige og private investeringer i kunstig intelligens i EU over de næste 10 år; glæder sig over, at der er fokus på manglen på AI-økosystemer i mindre udviklede regioner og på SMV'ers og nystartede virksomheders behov; opfordrer Kommissionen til at identificere mangler med hensyn til offentlig infrastruktur og lette finansieringen af kunstig intelligens i forbindelse med afbødning af og tilpasning til klimaændringer, vedvarende energi og sundhed og til at lette en geografisk afbalanceret adgang til al AI-finansiering, herunder for SMV'er og nystartede virksomheder; understreger, at EU's nye mål ikke må mindske Unionens engagement i sine mangeårige prioriteter som f.eks. den fælles landbrugspolitik, samhørighedspolitikken, den grønne pagt og planen for genopretning oven på covid-19-pandemien;

26. opfordrer Kommissionen til at fremme og finansiere udviklingen af menneskecentreret kunstig intelligens, robotteknologi og relaterede teknologier, der tackler miljø- og klimamæssige udfordringer, og som sikrer lige adgang til og udøvelse af grundlæggende rettigheder ved hjælp af incitamenter i forbindelse med afgifter, grønne offentlige udbud og andet;

AI's CO2-fodaftryk:

27. bemærker, at Kommissionen i sin digitale pakke, der blev offentliggjort den 19. februar 2020, erklærer, at IKT i dag står for mellem 5 % og 9 % af verdens elektricitetsforbrug og 2 % af CO2-emissionerne, at mængden af data, der overføres og lagres, vil fortsætte sin eksponentielle vækst i de kommende år, og at der er behov for at finde løsninger på dette problem; bemærker endvidere, at Det Fælles Forskningscenter i sin undersøgelse fra 2018 "Artificial Intelligence/A European Perspective" (kunstig intelligens/et europæisk perspektiv) skønner, at datacentre og datatransmission kan tegne sig for 3 til 4 % af det samlede strømforbrug i Unionen;

28. glæder sig over, at der i den europæiske digitale strategi foreslås grønne omstillingsforanstaltninger for digitale sektorer;

29. understreger, at til trods for det nuværende store CO2-fodaftryk af dyb læring og kunstig intelligens kan disse teknologier bidrage til at mindske IKT-sektorens nuværende miljøaftryk og udviklingen af AI, robotteknologi, automatiserede beslutninger og maskinlæring; understreger, at disse og andre behørigt regulerede teknologier bør være vigtige katalysatorer for opfyldelse af målene i den grønne pagt, FN's verdensmål og Parisaftalen inden for mange forskellige sektorer og bør fremme virkningerne af politikker, der sikrer miljøbeskyttelse, f.eks. reduktion af affald og miljøforringelse;

30. opfordrer Kommissionen til at foretage en undersøgelse af indvirkningen fra AI-teknologiers CO2-fodaftryk og de positive og negative virkninger af forbrugernes omstilling til brug af AI-teknologi;

31. bemærker, at der bør ses på AI-systemers miljømæssige konsekvenser i hele deres livscyklus i betragtning af den stigende udvikling af AI-applikationer, som kræver ressourcer til beregning, lagring og energiforbrug;

Indvirkningen af AI på sundhedssektoren og patientrettigheder:

32. anerkender, at kunstig intelligens kan spille en afgørende rolle inden for sundhed, og understreger, at AI-applikationer på sundhedsområdet altid bør have til formål at maksimere de muligheder, de kan skabe – f.eks. at forbedre sundheden for de enkelte patienter og resultaterne i medlemsstaternes offentlige sundhedssystemer – uden at sænke de etiske standarder og uden at true borgernes privatliv eller sikkerhed;

33. glæder sig over, at Kommissionen i hvidbogen har forpligtet sig til at undersøge de sikkerheds- og ansvarlighedsmæssige udfordringer, der særligt gør sig gældende i sundhedssektoren, f.eks. AI-systemer, der leverer specialiserede medicinske oplysninger til læger eller direkte til patienten, og AI-systemer, der selv udfører lægelige opgaver direkte på en patient; opfordrer til, at man foretager en tilsvarende gennemgang af de øvrige sektorer på listen, der pr. definition er højrisikosektorer;

34. mener, at ansvaret på bl.a. sundhedsområdet i sidste instans påhviler den fysiske eller juridiske person; fremhæver behovet for sporbare og offentligt tilgængelige indlæringsdata til algoritmer;

35. opfordrer Kommissionen til at indlede en åben og gennemsigtig sektordialog, der prioriterer sundhedsplejen, for derefter at forelægge en handlingsplan, der skal lette udviklingen, afprøvningen og indførelsen af kunstig intelligens i forskning og innovation og den brede anvendelse heraf i de offentlige sundhedstjenester;

36. advarer mod forsøg på at give maskiner en form for "personlighed", som kan resultere i, at menneskers ansvar fjernes i tilfælde af behandlingsfejl;

37. støtter kraftigt Kommissionens forslag om at oprette et europæisk sundhedsdataområde[43], der har til formål at fremme udveksling af sundhedsdata og støtte forskning under fuld hensyntagen til databeskyttelse, bl.a. i forbindelse med behandling af data ved hjælp af AI-teknologi, og som skal styrke og udbrede anvendelsen og genanvendelsen af sundhedsdata; opfordrer til at opskalere den grænseoverskridende udveksling af sundhedsdata og forbinde og anvende specifikke former for sundhedsoplysninger såsom elektroniske patientjournaler (EPJ'er), genominformationer og digitale diagnostiske billeder ved brug af sikre og forbundne registre for at fremme udbredelsen af interoperable registre eller databaser inden for bl.a. forsknings-, videnskabs- og sundhedssektorer i hele Unionen;

38. understreger, at patienter bør vide, hvornår de indgår i et samspil med en menneskelig fagperson, og hvordan dette foregår, og at de også bør vide, når dette ikke er tilfældet; insisterer på, at patienter frit skal kunne vælge, om de vil indgå i dette samspil, ligesom de skal tilbydes et alternativ af samme standard;

39. mener, at mobile applikationer, navnlig inden for sundhedssektoren, kan bidrage til overvågning af sygdomme, og at tilstedeværelsen af robotter er nyttig som støtte til lægernes og plejepersonalets arbejde med henblik på at forbedre diagnosticering og behandling, samtidig med at det sikres, lægegerningen og patientbehandlingen ikke umenneskeliggøres;

40. efterlyser standardiseret interoperabilitet for e-sundhedsapplikationer på EU-plan og sikring af fælleseuropæisk dataadgang i forbindelse med recepter, diagnoser og lægeerklæringer, som skal være lettilgængelige for alle EU-borgere og i alle medlemsstaterne;

41. gentager, at de muligheder og risici, der er forbundet med disse teknologier, har en global dimension, der kræver en konsekvent, harmoniseret tilgang på internationalt plan; opfordrer Kommissionen til i bilaterale og multilaterale fora at arbejde for at fremme og sikre etisk overholdelse;

42. fremhæver fordelene ved AI i forbindelse med forebyggelse, behandling og bekæmpelse af sygdomme, hvilket illustreres ved, at AI varslede covid-19-epidemien før WHO; opfordrer indtrængende Kommissionen til på passende vis at udstyre ECDC med de retlige rammer og ressourcer til uafhængigt og sammen med medlemsstaterne at indsamle de nødvendige anonymiserede sundhedsoplysninger i realtid, blandt andet for at løse nogle af de problemer, der kom frem i lyset under covid-19-pandemien;

43. påpeger, at offentlige myndigheders brug af sporings- og kontaktsporingsteknologier under covid-19-pandemien og andre potentielle sundhedskriser kan komme i konflikt med databeskyttelsen; minder i den henseende om Kommissionens meddelelse af 17. april 2020 "Vejledning om apps til støtte for bekæmpelse af covid-19-pandemien i forbindelse med databeskyttelse[44]", og om behovet for proportionalitet, tidsbegrænsning, tilpasning til europæiske værdier og respekt for menneskelig værdighed og grundlæggende rettigheder;

44. mener, at kunstig intelligens og robotteknologi kan medføre betragtelige forbedringer af kontrollen af medicinsk udstyr og lette sundhedspersonalets arbejde i hverdagen; mener, at der for kritisk medicinsk udstyrs vedkommende er behov for et backupsystem, der kan overvåge og sikre udstyrets funktion i enhver tænkelig situation, hvor der forekommer interferens, og at mulige cybertrusler mod kontrollen med dette udstyr skal tages i betragtning og afbødes; understreger, at cybertrusler ikke udelukkende stammer fra hackere og eksterne trusler, men også kan skyldes menneskelige fejl eller systemfejl, og at det er nødvendigt at have tilstrækkelige og velfungerende backupsystemer på plads; mener endvidere, at Unionen bør udarbejde en køreplan for udvikling af et AI-backupsystem med henblik på at afhjælpe eventuelle problemer i forbindelse med AI-systemer, der begår fejl;

45. påpeger, at de sikkerhedsnormer, der er fastsat i Europa-Parlamentets og Rådets forordning (EU) 2017/745[45], muligvis ikke er tilstrækkelige til at klare udfordringerne i forbindelse med AI-systemer; opfordrer Kommissionen til at holde øje med udfordringerne på dette område og om nødvendigt fremsætte forslag;

46. understreger behovet for at sikre, at AI-baseret medicinsk udstyr opfylder kravene til sikkerhed og ydeevne i forordning (EU) 2017/745; opfordrer Kommissionen og medlemsstaterne til at sikre, at forordning (EU) 2017/745 gennemføres for så vidt angår disse teknologier; mener, at der er behov for nye retningslinjer og specifikationer for at kunne vurdere sikkerheden og effektiviteten af software og udstyr, der er baseret på kunstig intelligens og dyb læring, i hele brugscyklussen;

47. opfordrer til, at EMA og de nationale kompetente myndigheder med ansvar for lægemidler sikres klarere retlige beføjelser og tilstrækkelig finansiering for at understøtte innovation og fokusere på folkesundhedsmæssige aspekter med tilknytning til kunstig intelligens i hele et lægemiddels livscyklus, navnlig med henblik på at indsamle og analysere sundhedsdata fra den virkelige verden, som kan tilvejebringe yderligere dokumentation om lægemidler for at støtte FoU og fremme en sikker og effektiv anvendelse af eksisterende lægemidler til gavn for patienterne og de europæiske sundhedssystemer;

48. understreger, at hverken forsikringsselskaber eller andre tjenesteydere bør have tilladelse til at anvende data, der stammer fra e-sundhedsapplikationer, med henblik på forskelsbehandling ved prisfastsættelse, idet dette ville krænke den grundlæggende ret til det højst mulige sundhedsniveau;

AI og databeskyttelse:

49.  glæder sig over Kommissionens nyligt offentliggjorte revision[46] af forordning (EU) 2016/679; bemærker, at medlemsstaternes lovgivning følger forskellige tilgange, når de indfører undtagelser fra det generelle forbud mod behandling af særlige kategorier af personoplysninger for så vidt angår niveauet for specifikationer og garantier, herunder til sundhedsformål; fastslår derfor, at mennesker fortsat bør have det endelige ansvar for beslutningstagning, navnlig i sektorer med høje indsatser og høj risiko som f.eks. sundhed;

50. glæder sig over Kommissionens hensigt om at overvåge anvendelsen af forordning (EU) 2016/679 på nye teknologier, herunder eventuelle fremtidige initiativer inden for kunstig intelligens og i henhold til datastrategien, og støtter Kommissionens opfordring til Det Europæiske Databeskyttelsesråd om at udstede retningslinjer om anvendelsen af forordning (EU) 2016/679 inden for videnskabelig forskning, AI, blockchain og anden mulig teknologisk udvikling;

51. efterlyser en styrkelse af borgernes og patienternes rettigheder med hensyn til deres personoplysninger og opfordrer til at sikre fuld håndhævelse og en ensartet fortolkning af Unionens retlige rammer for databeskyttelse og privatlivets fred, navnlig i forbindelse med AI-applikationer inden for sundhedspleje og andre relaterede følsomme oplysninger, med henblik på at respektere "retten til at blive glemt", som er fastsat i artikel 17 i forordning (EU) 2016/679, og styrke "retten til en forklaring", som er fastsat i artikel 22 i forordning (EU) 2016/679, og højere fortolkningskrav for AI med høj risiko;

52. understreger, at den etiske ramme for AI bør omfatte retten til at få en forklaring på en afgørelse baseret på automatiseret behandling for personer, der er genstand for sådanne afgørelser;

53. efterlyser den rette balance mellem beskyttelse af privatlivets fred og databeskyttelse på den ene side og dataudnyttelse på den anden; mener, at det er vigtigt for de videnskabelige fremskridt, at man er i stand til at dele og behandle helbredsoplysninger i tilstrækkelig dybde og detaljeringsgrad; opfordrer til, at anonymiseringen af data sikres, samtidig med at man undgår en overdreven dataminimering; efterlyser velegnede interoperable databaser, -registre og -lagre på EU-plan for at lette anvendelsen af data på områderne sundhed, miljø og fødevaresikkerhed;

54. understreger behovet for at sikre, at sundhedsdata og data fra sårbare grupper beskyttes, og påpeger, at de betingelser, der er fastsat i artikel 7 i forordning (EU) 2016/679, skal være opfyldt, hvis AI-applikationer behandler sundhedsdata på grundlag af den registreredes samtykke;

55. understreger, at de data, der genereres, på ingen måde må bidrage til nogen form for forskelsbehandling; opfordrer til at det sikres, at dataindsamling og -tilgængelighed altid er i overensstemmelse med Unionens retlige rammer;

56. påpeger, at risikoen for ondsindet ændring og manipulation af data og eventuel hacking eller tyveri af data kan være særlig stor i sundhedssektoren, og at disse aktiviteter kan udføres for at skade, miskreditere eller udnytte enkeltpersoner; understreger, at der bør etableres de højeste standarder for cybersikkerhed i de relevante netværk;

Indvirkningen af AI på arbejdsforhold og sociale forhold:

57. påpeger, at OECD's etiske rammer tager højde for omvæltningerne på arbejdsmarkedet; understreger, at automatisering kombineret med kunstig intelligens vil øge produktiviteten og dermed produktionen; bemærker, at som under tidligere teknologiske revolutioner vil visse job blive erstattet; understreger, at øget brug af robotteknologi og kunstig intelligens også bør reducere menneskers eksponering for skadelige og farlige betingelser og også bør bidrage til at skabe mere anstændige job af højere kvalitet og forbedre produktiviteten; henleder opmærksomheden på OECD's arbejde, som understreger, at automatisering kan give mulighed for at vælge et samfund med færre arbejdstimer, således at man forbedrer arbejdstagernes levevilkår og sundhed;

58. henleder desuden opmærksomheden på OECD's anbefalinger, hvori det hedder, at de offentlige myndigheder skal arbejde tæt sammen med de interesserede parter for at fremme en ansvarlig brug af AI på arbejdspladsen, forbedre arbejdstageres sikkerhed og beskæftigelsens kvalitet samt sikre, at fordelene ved AI fordeles bredt og ligeligt; understreger i denne forbindelse, at mangfoldige teams af udviklere og ingeniører, der arbejder sammen med centrale aktører, kan bidrage til at undgå kønsbestemt og kulturel forudindtagethed og sikre, at arbejdstagernes fysiske og psykiske velvære respekteres i AI-algoritmer, -systemer og -applikationer;

59. understreger, at udviklingen af AI-applikationer kan mindske omkostningerne og øge udbuddet af tilgængelige tjenester, f.eks. sundhedstjenester, offentlig transport, landbrug 2.0, og gøre dem mere økonomisk overkommelige for et bredere udsnit befolkningen; fremhæver, at AI-applikationer desuden kan medføre øget arbejdsløshed, pres på socialsikringssystemerne og øget fattigdom; understreger under henvisning til de værdier, der er nedfældet i artikel 3 i traktaten om Den Europæiske Union, behovet for at tilpasse Unionens omstilling på AI-området til de socioøkonomiske kompetencer, tilstrækkelig social beskyttelse, uddannelse og skabelse af alternative job; opfordrer til, at det overvejes at oprette en EU-fond for AI-tilpasning på grundlag af erfaringerne med Den Europæiske Fond for Tilpasning til Globaliseringen (EGF) eller Fonden for Retfærdig Omstilling, som er under udvikling;

60. understreger også betydningen af den sociale dialog for at sikre en retfærdig og inklusiv overgang for arbejdstagere til de nye arbejdsvilkår, der bliver påvirket af kunstig intelligens, og behovet for, at virksomhederne investerer i uddannelse og omskoling af deres arbejdsstyrke;

61. opfordrer medlemsstaterne til at tilpasse uddannelser af fagfolk inden for miljøbeskyttelse, sundhed og fødevaresikkerhed til udviklingen af kunstig intelligens og øge bevidstheden om de risici og etiske udfordringer, der er forbundet med kunstig intelligens;

62. glæder sig over de krav, der foreslås i hvidbogen vedrørende indlæringsdata til kunstig intelligens med høj risiko, som handler om sikkerhed – bl.a. tilstrækkelig vidtfavnende data, der dækker alle relevante scenarier for at undgå farlige situationer, som f.eks. forskelsbehandling – og som er tilpas repræsentative til at afspejle det sociale miljø, som de vil blive anvendt i;

63. understreger, at den offentlige sektor bør fokusere på at løse sociale problemer i stedet for at arbejde på at udbrede kunstig intelligens; opfordrer til at forbedre EU's bestemmelser om og retningslinjerne for offentlige indkøb, herunder grønne offentlige indkøb i EU, således at der ved vurderingen af bud tages hensyn til, om en given problemstilling kræver anvendelse af et AI-system, og der åbnes mulighed for at levere ydelsen på en alternativ måde i de tilfælde, vurderingen viser, at den løsning, der ikke er baseret på AI, løser det sociale problem bedre;

 



OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG

Dato for vedtagelse

10.9.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

77

2

2

Til stede ved den endelige afstemning – medlemmer

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Til stede ved den endelige afstemning – stedfortrædere

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

RESULTAT AF AFSTEMNING VED NAVNEOPRÅB I RÅDGIVENDE UDVALG

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 


 

 

UDTALELSE FRA KULTUR- OG UDDANNELSESUDVALGET (3.9.2020)

til Retsudvalget

med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier

(2020/2012(INL))

Ordfører for udtalelse: Łukasz Kohut

(Initiativ – forretningsordenens artikel 47)

 

 

FORSLAG

Kultur- og Uddannelsesudvalget opfordrer Retsudvalget, som er korresponderende udvalg, til

- at optage følgende forslag i det beslutningsforslag, det vedtager:

1. minder om, at udviklingen, udbredelsen og anvendelsen af kunstig intelligens (AI) inden for de kulturelle og kreative sektorer samt inden for uddannelses-, medie- ungdoms- og informationspolitikker ikke blot har potentiale til at rejse, men også rejser og fortsat vil rejse en bred vifte af etiske spørgsmål, som det er nødvendigt at behandle; understreger, at Unionen bør føre an i udviklingen i retning af etisk AI, som er forankret i Unionens værdier, og som sikrer beskyttelse af den menneskelige værdighed og de grundlæggende rettigheder inden for en demokratisk, retfærdig og bæredygtig Union; opfordrer EU-institutionerne til at gøre sig langsigtede overvejelser om virkningen af AI på vores demokratiske debat, vores samfund og endda på den menneskelige natur med henblik på at bane vejen for AI-teknologi, der respekterer vores frihed og ikke skader innovation eller begrænser ytringsfriheden;

2. er af den faste overbevisning, at det er nødvendigt at undersøge, hvordan menneskerettighedsrammer og -forpligtelser kan være retningsgivende for tiltag og politikker vedrørende nye og fremspirende digitale teknologier for at sikre, at de har en tilgang, hvor mennesket står i centrum, og at deres fordele er tilgængelige for alle; erkender, at der er behov for at sikre, at udviklingen, udbredelsen og anvendelsen af AI er fri for forskelsbehandling og profileringsfordomme, og at den afspejler alle væsentlige dele af samfundet; erkender, at AI og automatisering kan have en virkning på den globaliserede økonomi, hvilket kan forankre eksisterende uligheder;

3. understreger, at det er nødvendigt at udvikle skræddersyede kriterier for udviklingen, udbredelsen og anvendelsen af AI inden for uddannelse, medier, ungdom, forskning og de kulturelle og kreative sektorer ved at udvikle benchmarks og fastlægge principper for etisk ansvarlige og acceptable anvendelser af AI-teknologier på disse områder, herunder en klar ansvarsordning vedrørende produkter, der stammer fra anvendelsen af AI; understreger, at sådanne kriterier skal kunne tilpasses og konstant skal tillempes til udviklingen inden for AI-teknologier med henblik på også på ansvarlig vis at bidrage til at udnytte AI's potentiale fuldt ud; fremhæver særligt behovet for at håndtere spørgsmålet om indsamling af brugernes personlige oplysninger og privatlivets fred samt spørgsmålet om ansvar i tilfælde, hvor automatiserede processer giver uønskede resultater; minder om, at det er nødvendigt at kræve, at principperne om et systems overensstemmelse med dets specifikationer, gennemsigtighed, god tro og retfærdighed skal respekteres for at opstille sådanne kriterier med et solidt grundlag i samråd med de kompetente etiske udvalg, der har til opgave at bidrage med at lægge fundamentet i overensstemmelse med EU's kulturelle værdier og retlige rammebestemmelser; bemærker, at AI-systemer er softwarebaserede og udviser intelligent adfærd baseret på analysen af deres omgivelser; understreger, at denne analyse er baseret på statistiske modeller, hvori fejl udgør en uundgåelig del; understreger, at det er nødvendigt at sikre, at der findes systemer og metoder, som muliggør kontrol med algoritmen, algoritmens forklarlighed og adgang til retsmidler; understreger behovet for at sikre, at der er bindende regler, som sikrer, at principperne om gennemsigtighed, ansvarlighed og ikkeforskelsbehandling bevares; gentager de etiske retningslinjer for pålidelig AI fra 2019 og de syv centrale krav til AI's pålidelighed;

4. bemærker, at ikke alle børn nyder godt af retten til offentlig undervisning af god kvalitet på alle niveauer; opfordrer derfor til udvikling, udbredelse og anvendelse af AI-systemer af god kvalitet, der letter brugen af og yder undervisningsværktøjer af god kvalitet for alle på alle niveauer, og understreger, at udbredelsen af nye AI-systemer i skoler ikke bør føre til, at der skabes en bredere digital kløft i samfundet;

5. bemærker, at AI-individualiserede læringssystemer i stigende grad anvendes i skoler og på universiteter, hvilket gradvist ændrer lærernes rolle i læringsprocessen; understreger, at denne ændring bør vurderes grundigt og afspejles i læseplanerne i overensstemmelse hermed og forankres af menneskecentrerede værdier; erkender det enorme potentielle bidrag, som AI og robotteknologi kan yde til uddannelse; bemærker, at AI-personaliserede læringssystemer ikke bør erstatte uddannelsesforhold, der involverer lærere, og at de traditionelle uddannelsesformer ikke bør glemmes, og påpeger samtidig, at økonomisk, teknologisk og uddannelsesmæssig støtte, herunder specialiseret uddannelse i informations- og kommunikationsteknologi, skal stilles til rådighed for lærere, der ønsker at tilegne sig passende færdigheder med henblik på at tilpasse sig de teknologiske forandringer og ikke kun udnytte AI's potentiale, men også forstå dens begrænsninger;

6. understreger, at der i de situationer, hvor der anvendes maskinlæring i forbindelse med procedurer for udvælgelse af potentielle studerende, skal indføres passende garantier, herunder oplysning til ansøgerne om disse procedurer og deres rettigheder i denne henseende; bemærker, at de relevante algoritmer skal programmeres ud fra brede datasæt for at forhindre, at algoritmerne diskriminerer mod visse grupper på uretfærdig vis; mener, at de relevante afgørelser, der bliver truffet med brug af automatiserede processer, skal forklares, herunder om nødvendigt til de studerende, der har fået afslag;

7. opfordrer til, at der udarbejdes en strategi for AI, robotteknologi og relaterede teknologier på EU-plan med henblik på at bidrage til at omdanne og opdatere vores uddannelsessystemer, forberede uddannelsesinstitutionerne på alle niveauer og udstyre lærere og elever med de nødvendige færdigheder og evner; mener, at der er behov for en etikramme på uddannelsesområdet; anbefaler, at civilsamfundet, universiteter, fagforeninger og arbejdsgiverforeninger inddrages i processen med at udarbejde en sådan ramme; bemærker, at de AI-systemer, der udvikles, udbredes og anvendes i EU, skal afspejle EU's kulturelle mangfoldighed og flersprogethed; understreger, at der bør gives særlig støtte til teknologiudviklere og til modtagere fra ugunstigt stillede grupper og til personer med handicap;

8. mener, at respekten for mindreåriges rettigheder kræver særlig opmærksomhed og beskyttelse i lyset af uddannelsens særlige betydning for deres fremtid, navnlig retten til privatlivets fred og adgangen til uddannelse af god kvalitet, hvilket sikrer lige muligheder i alle tilfælde; understreger, at uddannelsesinstitutioner til uddannelsesformål kun bør anvende AI-systemer, som er blevet revideret og certificeret som etiske og gavnlige, og som overholder menneskerettighedsprincipperne; opfordrer Kommissionen og medlemsstaterne til at fremme samarbejdet mellem den offentlige og private sektor og den akademiske verden for at styrke vidensdeling og åbne kilder;

9. bemærker, at der er behov for at afklare begrebet kunstarter og kulturelle og kreative værker samt menneskets rolle som skabere og kunstnere; understreger, at de muligheder, som digitaliseringen og de nye teknologier giver, ikke må føre til et generelt tab af arbejdspladser i de kulturelle og kreative sektorer, til tilsidesættelse af bevarelsen af originalerne eller til bagatellisering af den traditionelle adgang til kulturarven, som ligeledes bør fremmes;

10. anerkender AI's voksende potentiale inden for information, medier og onlineplatforme, herunder som et stærkt værktøj til at bekæmpe desinformation; er imidlertid bekymret over muligheden for, at AI misbruges til at manipulere den offentlige mening online; understreger, at AI, såfremt der ikke sker en regulering af området, kan medføre etisk negative virkninger på grund af udnyttelsen af fordomme i data og algoritmer, hvilket kan føre til spredning af desinformation, skabe informationsbobler og udnytte fordomme, der er indarbejdet i AI-algoritmer; minder om, at tilstrækkelig uddannelse er en nødvendig betingelse for at sikre borgernes rettigheder med hensyn til informations-, menings- og ytringsfriheden, og opfordrer til etisk anvendelse af AI-teknologier på medieområdet; advarer om risikoen ved teknologidreven censur og behovet for en etisk ramme for at beskytte ytringsfriheden;

11. mener, at brugen af visse former for AI, som f.eks. ansigtsgenkendelse og følelses- og adfærdsdetektionssystemer, kan have en skadelig virkning på især mediernes og journalisternes rolle som demokratiets vagthunde og dermed på de demokratiske processer; understreger derfor, at brugen af disse systemer i det offentlige rum bør begrænses eller forbydes, når det er nødvendigt; understreger behovet for at fortsætte kampen mod falske nyheder, herunder teknikker som "deepfake", mod censur og automatiseret overvågning;

12. understreger behovet for at øge den brede offentligheds bevidsthed om og forståelse af AI's rolle og indvirkning gennem formel og ikkeformel uddannelse, herunder humanistiske uddannelser, navnlig om brugen af algoritmer og deres indvirkning, bl.a. på job og privatlivets fred, og forståelsen af den plads, som IT-systemerne indtager med hensyn til udvælgelse, fortolkning, lagring og repræsentation af data; går ind for, at der indføres værktøjer til at erhverve digitale færdigheder på alle uddannelsesniveauer, og opfordrer derfor medlemsstaterne og EU-institutionerne til at investere i færdigheder samt uddannelse og erhvervsuddannelse inden for information og medier; mener, at informations- og mediekompetencer er afgørende for alle borgere, herunder de sårbare sociale grupper, så de kan foretage en kritisk vurdering af og forstå nye udviklinger, herunder forstå AI's funktion og dens iboende fordomme og dermed udvikle nye former for kritisk tænkning; anbefaler Kommissionen at fremme formater for AI, robotteknologi og relaterede teknologier for uddannelse og videreuddannelse;

13. bemærker den vigtige skelnen mellem gennemsigtighed i algoritmer og gennemsigtighed i brugen af algoritmer; understreger betydningen af gennemsigtighed og ansvarlighed i forbindelse med algoritmer, der anvendes af videodelingsplatforme og streamingplatforme, med henblik på at sikre adgang til kulturelt og sprogligt mangfoldigt indhold og undgå at privilegere; mener, at alle brugere bør informeres på korrekt vis, når en algoritme anvendes til at anbefale indhold, og bør kunne optimere dem i forhold til hans eller hendes valg, og sådanne algoritmer bør ikke begrænse en brugers valg; mener, at enhver bruger også bør have mulighed for at fravælge anbefalinger af indhold, der udvælges af AI; understreger, at disse algoritmer bør udformes på en sådan måde, at de afspejler vores samfunds kulturelle mangfoldighed og sikrer reel kulturel åbenhed og garanterer den kreative frihed; insisterer på, at de data, der indsamles af AI, såsom kulturelle præferencer eller uddannelsesmæssige resultater, ikke må formidles eller anvendes uden ejerens viden;

14. bemærker, at sport altid har taget teknologisk innovation til sig; mener ikke desto mindre, at anvendelsen af AI-teknologier, der udbredes hurtigt i sportskonkurrencer, i stigende grad rejser spørgsmål om fair konkurrence inden for sport, hvor hold med de største økonomiske ressourcer kan erhverve den bedste teknologi, hvilket potentielt kan give dem en urimelig fordel; understreger, at denne udvikling skal overvåges nøje, og at der på dette område er behov for et regelsæt, der anvender etiske og menneskecentrerede kriterier til udarbejdelsen og brugen af AI-teknologier; opfordrer til fuld gennemsigtighed i de algoritmer og teknologier, der anvendes inden for sport, for at sikre lige vilkår.


 

 

OPLYSNINGER OM VEDTAGELSE
I RÅDGIVENDE UDVALG

Dato for vedtagelse

31.8.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

28

0

2

Til stede ved den endelige afstemning - medlemmer

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Til stede ved den endelige afstemning - stedfortrædere

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 

 


RESULTAT AF AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller

 

 

 

 

 

 


OPLYSNINGER OM VEDTAGELSE I KORRESPONDERENDE UDVALG

Dato for vedtagelse

1.10.2020

 

 

 

Resultat af den endelige afstemning

+:

–:

0:

20

0

4

Til stede ved den endelige afstemning – medlemmer

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Til stede ved den endelige afstemning – stedfortrædere

Patrick Breyer, Evelyne Gebhardt

 


 

 

ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Tegnforklaring:

+ : for

- : imod

0 : hverken/eller