VERSLAG met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

8.10.2020 - (2020/2012(INL))

Commissie juridische zaken
Rapporteur: Ibán García del Blanco
Rapporteurs voor advies (*):
Urmas Paet, Commissie buitenlandse zaken
Alexandra Geese, Commissie interne markt en consumentenbescherming
Valter Flego, Commissie vervoer en toerisme
Assita Kanko, Commissie burgerlijke vrijheden, justitie en binnenlandse zaken
(*) Medeverantwoordelijke commissies – Artikel 57 van het Reglement
(Initiatief – Artikel 47 van het Reglement)


Procedure : 2020/2012(INL)
Stadium plenaire behandeling
Documentencyclus :  
A9-0186/2020

ONTWERPRESOLUTIE VAN HET EUROPEES PARLEMENT

met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Het Europees Parlement,

 gezien artikel 225 van het Verdrag betreffende de werking van de Europese Unie,

 gezien artikel 114 van het Verdrag betreffende de werking van de Europese Unie,

 gezien het Handvest van de grondrechten van de Europese Unie,

 gezien Verordening (EU) 2018/1488 van de Raad van 28 september 2018 tot oprichting van de Gemeenschappelijke Onderneming Europese high-performance computing[1],

 gezien Richtlijn 2000/43/EG van de Raad van 29 juni 2000 houdende toepassing van het beginsel van gelijke behandeling van personen ongeacht ras of etnische afstamming[2] (richtlijn inzake rassengelijkheid),

 gezien Richtlijn 2000/78/EG van de Raad van 27 november 2000 tot instelling van een algemeen kader voor gelijke behandeling in arbeid en beroep[3] (richtlijn inzake gelijke behandeling in arbeid),

 gezien Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming)[4] (AVG), en Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad[5],

 gezien het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven[6],

 gezien het voorstel voor een verordening van het Europees Parlement en de Raad van 6 juni 2018 tot vaststelling van het programma Digitaal Europa voor de periode 2021-2027 (COM(2018)0434),

 gezien de mededeling van de Commissie aan het Europees Parlement, de Europese Raad, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 11 december 2019 over de Europese Green Deal (COM(2019)0640),

 gezien het Witboek van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 19 februari 2020 over kunstmatige intelligentie – een Europese benadering op basis van excellentie en vertrouwen (COM(2020)0065),

 gezien de mededeling van 19 februari 2020 van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s, getiteld “Een Europese datastrategie” (COM(2020)0066),

 gezien de mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 19 februari 2020, getiteld “De digitale toekomst van Europa vormgeven” (COM(2020)0067),

 Gezien de “Conclusies van de Raad van de Europese Unie – De digitale toekomst van Europa vormgeven” van juni 2020,

 gezien zijn resolutie van 16 februari 2017 met aanbevelingen aan de Commissie over civielrechtelijke regels inzake robotica[7],

 gezien zijn resolutie van 1 juni 2017 over de digitalisering van de Europese industrie[8],

 gezien zijn resolutie van 12 september 2018 over autonome wapensystemen[9],

 gezien zijn resolutie van 11 september 2018 over taalgelijkheid in het digitale tijdperk[10],

 gezien zijn resolutie van 12 februari 2019 inzake een alomvattend Europees industriebeleid inzake artificiële intelligentie en robotica[11],

 gezien het verslag van 8 april 2019 van de door de Commissie opgerichte deskundigengroep op hoog niveau inzake artificiële intelligentie getiteld “Ethische richtsnoeren voor betrouwbare kunstmatige intelligentie”,

 gezien de briefings en studies die zijn opgesteld op verzoek van het panel voor de toekomst van wetenschap en technologie (STOA), dat wordt beheerd door de afdeling Wetenschappelijke Toekomstverkenningen van de onderzoeksdienst van het Europees Parlement, getiteld “What if algorithms could abide by ethical principles?”, “Artificial Intelligence ante portas: Legal & ethical reflections”, “A governance framework for algorithmic accountability and transparency”, “Should we fear artificial intelligence?” en “The ethics of artificial intelligence: Issues and initiatives”,

 gezien het Kaderverdrag inzake de bescherming van nationale minderheden van de Raad van Europa, Protocol nr. 12 bij het Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden, en het Europees Handvest voor regionale talen of talen van minderheden,

 gezien de aanbeveling van de OESO-Raad betreffende artificiële intelligentie, die op 22 mei 2019 werd aangenomen,

 gezien de artikelen 47 en 54 van zijn Reglement,

 gezien de adviezen van de Commissie buitenlandse zaken, de Commissie interne markt en consumentenbescherming, de Commissie vervoer en toerisme, de Commissie burgerlijke vrijheden, justitie en binnenlandse zaken, de Commissie werkgelegenheid en sociale zaken, de Commissie milieubeheer, volksgezondheid en voedselveiligheid, de Commissie cultuur en onderwijs,

 gezien het verslag van de Commissie juridische zaken (A9-0186/2020),

Inleiding

A. overwegende dat het mensen zijn die artificiële intelligentie (ook wel AI genoemd), robotica en aanverwante technologieën ontwikkelen, uitrollen en gebruiken en dat hun keuzes bepalen of de mogelijkheden van dergelijke technologieën ten goede komen aan de samenleving;

B. overwegende dat artificiële intelligentie, robotica en aanverwante technologieën, die kansen voor bedrijven en voordelen voor burgers kunnen creëren en die rechtstreeks van invloed kunnen zijn op alle aspecten van onze samenleving, met inbegrip van grondrechten en sociale en economische beginselen en waarden, en die een blijvende invloed hebben op alle activiteitengebieden, worden bevorderd en snel worden ontwikkeld;

C. overwegende dat artificiële intelligentie, robotica en aanverwante technologieën wezenlijke veranderingen teweeg zullen brengen op de arbeidsmarkt en op de werkplek; overwegende dat zij in de plaats kunnen komen van werknemers die repetitieve activiteiten verrichten, de samenwerking tussen mens en machine kunnen vergemakkelijken, het concurrentievermogen en de welvaart kunnen vergroten en nieuwe arbeidsmogelijkheden voor gekwalificeerde werknemers kunnen creëren en tegelijkertijd een serieuze uitdaging kunnen vormen wat betreft de reorganisatie van het personeel;

D. overwegende dat de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën ook kan bijdragen tot het verwezenlijken van de duurzaamheidsdoelstellingen van de Europese Green Deal in tal van sectoren; overwegende dat digitale technologieën het effect van beleid op het gebied van milieubescherming kunnen versterken; overwegende dat zij tevens kunnen bijdragen tot het verminderen van verkeersopstoppingen en de uitstoot van broeikasgassen en luchtvervuilende stoffen;

E. overwegende dat in sectoren als het openbaar vervoer door AI ondersteunde toepassingen voor intelligente vervoerssystemen kunnen worden gebruikt om files zo beperkt mogelijk te houden, routes te optimaliseren, personen met een beperking zelfredzamer te maken en de energie-efficiëntie te vergroten, en dus kunnen bijdragen tot de vermindering van koolstofemissies en het verkleinen van de ecologische voetafdruk;

F. overwegende dat deze technologieën kunnen resulteren in nieuwe kansen voor het bedrijfsleven die kunnen bijdragen tot het herstel van de industrie van de Unie na de huidige gezondheids- en economische crisis, indien er meer gebruik van wordt gebruikt, bijvoorbeeld in de vervoerssector; overwegende dat dergelijke kansen voor nieuwe werkgelegenheid kunnen zorgen, aangezien de toepassing van deze technologieën de mogelijkheid biedt om de productiviteit van bedrijven te verhogen en bij te dragen tot een hogere mate van efficiëntie; overwegende dat innovatieprogramma’s op dit gebied regionale clusters de mogelijkheid bieden om hun positie te versterken;

G. overwegende dat de Unie en haar lidstaten een bijzondere verantwoordelijkheid hebben om de meerwaarde van artificiële intelligentie aan te wenden, te bevorderen en te vergroten en ervoor te zorgen dat AI-technologieën veilig zijn en bijdragen tot het welzijn en het algemeen belang van hun burgers, aangezien zij een enorme bijdrage kunnen leveren aan de verwezenlijking van de gemeenschappelijke doelstelling om het leven van de burgers te verbeteren en de welvaart binnen de Unie te bevorderen door hun bijdrage aan de ontwikkeling van betere strategieën en innovatie op een aantal gebieden en in bepaalde sectoren; overwegende dat, teneinde het volledig potentieel van artificiële intelligentie te benutten en gebruikers bewust te maken van de voordelen en uitdagingen van AI-technologieën, AI en digitale geletterdheid aan bod moeten komen in het onderwijs en in opleidingen, onder meer met het oog op de bevordering van digitale inclusie, en dat er op het niveau van de Unie informatiecampagnes moeten worden gevoerd die een nauwkeurig beeld geven van alle aspecten van de ontwikkeling van AI;

H. overwegende dat een gemeenschappelijk regelgevingskader van de Unie voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën (“regelgevingskader voor AI”) de burgers in staat moet stellen de potentiële voordelen ervan te benutten, maar de burgers ook tegen mogelijke risico’s moet beschermen en de betrouwbaarheid van dergelijke technologieën in de Unie en elders moet bevorderen; overwegende dat dit kader gebaseerd moet zijn op het recht en de waarden van de Unie en uit moet gaan van de beginselen van transparantie en verklaarbaarheid, billijkheid, verantwoordingsplicht en verantwoordelijkheid;

I. overwegende dat een dergelijk regelgevingskader van cruciaal belang is om versnippering van de interne markt, die het gevolg is van uiteenlopende nationale wetgeving, te voorkomen en zal bijdragen tot de bevordering van broodnodige investeringen, de ontwikkeling van data-infrastructuur en de ondersteuning van onderzoek; overwegende dat het moet bestaan uit gemeenschappelijke wettelijke verplichtingen en ethische beginselen, zoals uiteengezet in het voorstel voor een verordening waarom in de bijlage bij deze resolutie wordt gevraagd; overwegende dat het overeenkomstig de richtsnoeren voor betere regelgeving moet worden opgezet;

J. overwegende dat de Unie beschikt over een strikt juridisch kader om onder meer de bescherming van persoonsgegevens, privacy en non-discriminatie te waarborgen, en om gendergelijkheid, milieubescherming en de rechten van consumenten te bevorderen; overwegende dat een dergelijk kader met een omvangrijk pakket horizontale en sectorale wetgeving, waaronder de bestaande regels inzake productveiligheid en aansprakelijkheid, ook zal gelden voor artificiële intelligentie, robotica en aanverwante technologieën, hoewel zekere aanpassingen van specifieke rechtsinstrumenten noodzakelijk kunnen blijken om rekening te houden met de digitale transformatie en om het hoofd te bieden aan nieuwe uitdagingen als gevolg van het gebruik van artificiële intelligentie;

K. overwegende dat er ernstig aan wordt getwijfeld of het huidige wettelijk kader van de Unie, met inbegrip van het acquis op het gebied van het consumentenrecht en werkgelegenheid en het sociale acquis, de wetgeving inzake gegevensbescherming, inzake productveiligheid en markttoezicht alsmede de antidiscriminatiewetgeving, toereikend is om de risico’s die door artificiële intelligentie, robotica en aanverwante technologieën ontstaan, effectief aan te pakken;

L. overwegende dat, behalve door aanpassingen van bestaande wetgeving, juridische en ethische vraagstukken over deze technologieën moeten worden behandeld door middel van een doeltreffend, alomvattend en toekomstbestendig regelgevingskader van Unierecht dat een afspiegeling vormt van de beginselen en waarden van de Unie die zijn verankerd in de Verdragen en het Handvest van de grondrechten en waarin geen sprake is van overregulering, doordat alleen bestaande mazen in de wetgeving worden gedicht en doordat de rechtszekerheid voor zowel bedrijven als burgers wordt vergroot, namelijk door het opnemen van verplichte maatregelen ter voorkoming van praktijken die de grondrechten zonder twijfel zouden ondermijnen;

M. overwegende dat in elk nieuw regelgevingskader rekening dient te worden gehouden met alle belangen die op het spel staan; overwegende dat zorgvuldig onderzoek naar de gevolgen van een nieuw regelgevingskader voor alle actoren door middel van een effectbeoordeling een eerste voorwaarde dient te zijn voor verdere wetgevingsmaatregelen; overwegende dat de essentiële rol die kleine en middelgrote ondernemingen (kmo’s) en start-ups met name in de economie van de Unie spelen een strikt evenredige benadering rechtvaardigt om hen in staat te stellen zich te ontwikkelen en te innoveren;

 

N. overwegende dat artificiële intelligentie, robotica en aanverwante technologieën ernstige implicaties kunnen hebben voor de materiële en immateriële integriteit van personen, groepen en de samenleving als geheel, en dat potentiële individuele en collectieve schadelijke gevolgen door middel van wetgeving moeten worden aangepakt;

 

O. overwegende dat er wellicht specifieke regels voor de vervoerssector van de Unie moeten worden vastgesteld om een regelgevingskader van de Unie voor AI te eerbiedigen;

P. overwegende dat AI-technologieën van strategisch belang zijn voor de vervoerssector, onder meer omdat zij de veiligheid en toegankelijkheid van alle vervoerswijzen vergroten en nieuwe werkgelegenheid en duurzamere bedrijfsmodellen creëren; overwegende dat een dergelijke benadering op Unieniveau van de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën in de vervoerssector het potentieel heeft om het mondiale concurrentievermogen en de strategische autonomie van de economie van de Unie te vergroten;

Q. overwegende dat menselijke fouten nog steeds een rol spelen bij circa 95 % van alle verkeersongevallen in de Unie; overwegende dat de Unie ernaar streefde het aantal verkeersdoden in de Unie uiterlijk in 2020 met 50 % te verminderen ten opzichte van 2010, maar dat zij, gezien de stagnerende vooruitgang op dit terrein, haar inspanningen in het kader van haar Beleidskader voor verkeersveiligheid 2021-2030 – Volgende stappen voor “Vision Zero” heeft hernieuwd; overwegende dat AI, automatisering en andere nieuwe technologieën in dit verband een groot potentieel hebben en van vitaal belang zijn om het verkeer veiliger te maken doordat zij de kans op menselijke fouten beperken;

R. overwegende dat het regelgevingskader van de Unie voor AI ook de noodzaak moet weerspiegelen om de rechten van werknemers te eerbiedigen; overwegende dat rekening moet worden gehouden met de kaderovereenkomst van de Europese sociale partners inzake digitalisering van juni 2020;

S. overwegende dat het toepassingsgebied van het regelgevingskader van de Unie voor AI toereikend en evenredig moet zijn en aan een grondige beoordeling moet worden onderworpen; overwegende dat dit kader een breed scala van technologieën en hun componenten moet bestrijken, met inbegrip van de algoritmen, software en de gegevens die erdoor worden gebruikt of geproduceerd, maar dat een gerichte, op risico’s gebaseerde benadering noodzakelijk is om te voorkomen dat toekomstige innovaties worden belemmerd en dat er onnodige lasten ontstaan, met name voor kmo’s; overwegende dat het door de grote verscheidenheid aan toepassingen op basis van artificiële intelligentie, robotica en aanverwante technologieën ingewikkeld is om één oplossing te vinden voor het hele gamma aan risico’s;

T. overwegende dat gegevensanalyse en AI een steeds grotere invloed hebben op de informatie die aan burgers ter beschikking wordt gesteld; overwegende dat deze technologieën, wanneer er misbruik van wordt gemaakt, het fundamentele recht op de vrijheid van meningsuiting en op informatie, evenals persvrijheid en pluralisme in gevaar kunnen brengen;

U. overwegende dat het geografische toepassingsgebied van het regelgevingskader van de Unie voor AI alle componenten van artificiële intelligentie, robotica en aanverwante technologieën moet bestrijken die worden ontwikkeld, uitgerold of gebruikt in de Unie, ook in gevallen waarin een deel van deze technologieën zich mogelijk buiten de Unie bevindt of geen specifieke locatie heeft;

V. overwegende dat het regelgevingskader van de Unie voor AI alle relevante stadia moet bestrijken, namelijk de ontwikkeling, de uitrol en het gebruik van de relevante technologieën en hun componenten, waarbij terdege rekening moet worden gehouden met de relevante wettelijke verplichtingen en ethische beginselen, en de voorwaarden moeten worden vastgesteld om ervoor te zorgen dat ontwikkelaars, exploitanten en gebruikers dergelijke verplichtingen en beginselen volledig in acht nemen;

W. overwegende dat een geharmoniseerde benadering van de ethische beginselen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën een gemeenschappelijke Unie-interpretatie vereist van de begrippen die aan de technologieën ten grondslag liggen, zoals algoritmen, software, gegevens en biometrische herkenning;

X. overwegende dat actie op Unieniveau wordt gerechtvaardigd door de noodzaak om versnipperde regelgeving of een reeks nationale bepalingen zonder gemeenschappelijke deler te voorkomen en ervoor te zorgen dat gemeenschappelijke, in het recht verankerde ethische beginselen homogeen worden toegepast wanneer artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico worden ontwikkeld, uitgerold en gebruikt; overwegende dat er duidelijke regels nodig zijn wanneer er sprake is van aanzienlijke risico’s;

Y. overwegende dat gemeenschappelijke ethische beginselen alleen doelmatig zijn wanneer zij tevens zijn verankerd in het recht en wanneer is bepaald wie er verantwoordelijk zijn voor het waarborgen, beoordelen en monitoren van de conformiteit;

Z. overwegende dat ethische richtsnoeren, zoals de beginselen die zijn goedgekeurd door de deskundigengroep op hoog niveau inzake artificiële intelligentie, een goed uitgangspunt vormen, maar niet kunnen waarborgen dat ontwikkelaars, exploitanten en gebruikers eerlijk handelen en doeltreffende consumentenbescherming garanderen; overwegende dat dergelijke richtsnoeren des te relevanter zijn met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico;

AA. overwegende dat elke lidstaat een nationale toezichthoudende autoriteit moet aanwijzen die verantwoordelijk is voor het waarborgen, beoordelen en monitoren van de conformiteit van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico met het regelgevingskader van de Unie voor AI, en voor het bevorderen van discussies en de uitwisseling van standpunten, in nauwe samenwerking met de belanghebbenden en het maatschappelijk middenveld; overwegende dat de nationale toezichthoudende autoriteiten onderling moeten samenwerken;

AB. overwegende dat met het oog op een geharmoniseerde aanpak in de hele Unie en de optimale werking van de digitale eengemaakte markt, de coördinatie op Unieniveau door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, moet worden beoordeeld met betrekking tot de nieuwe kansen en uitdagingen, met name die van grensoverschrijdende aard, die voortvloeien uit doorlopende technologische ontwikkelingen; overwegende dat de Commissie met het oog hierop de opdracht moet krijgen een passende oplossing te vinden om deze coördinatie op het niveau van de Unie te structureren;

Mensgerichte en door de mens gemaakte artificiële intelligentie

1. is van mening dat, onverminderd sectorspecifieke wetgeving, een doeltreffend en geharmoniseerd regelgevingskader dat gebaseerd is op het recht van de Unie, het Handvest van de grondrechten van de Europese Unie (“Handvest”) en het internationaal recht inzake de mensenrechten, en dat met name van toepassing is op technologieën met een hoog risico, noodzakelijk is teneinde in de hele Unie gelijke normen vast te stellen en de waarden van de Unie doeltreffend te beschermen;

2. is van mening dat elk nieuw regelgevingskader voor AI bestaande uit wettelijke verplichtingen en ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van AI, robotica en aanverwante technologieën volledig in overeenstemming moet zijn met het Handvest en dus de menselijke waardigheid, autonomie en zelfbeschikking van het individu moet eerbiedigen, schade moet voorkomen, eerlijkheid, inclusie en transparantie moet bevorderen, vooringenomenheid en discriminatie, ook ten opzichte van minderheidsgroepen, moet uitbannen en moet voldoen aan de beginselen van beperking van de negatieve externe effecten van de gebruikte technologie, van waarborging van de verklaarbaarheid van technologieën en van de garantie dat de technologieën er zijn om mensen te dienen en niet om hen te vervangen of voor hen te beslissen, en deze beginselen moet eerbiedigen, met als uiteindelijke doel het welzijn van ieder mens te vergroten;

3. wijst op de asymmetrie tussen degenen die AI-technologieën gebruiken en degenen die ermee in contact staan en er afhankelijk van zijn; benadrukt in dit verband dat het vertrouwen van de burgers in AI alleen kan worden opgebouwd op basis van een regelgevingskader waarin ethische beginselen standaard worden toegepast en in het ontwerp zijn ingebed (“ethics-by-default and ethics-by-design”) en dat garandeert dat alle AI die in werking wordt gesteld volledig voldoet aan en in overeenstemming is met de Verdragen, het Handvest en het afgeleide recht van de Unie; is van mening dat het hanteren van een dergelijke aanpak als basis in overeenstemming moet zijn met het voorzorgsbeginsel dat ten grondslag ligt aan de wetgeving van de Unie en de kern moet vormen van elk regelgevingskader voor AI; vraagt in dit verband om een duidelijk en samenhangend governancemodel aan de hand waarvan bedrijven en innovatoren artificiële intelligentie, robotica en aanverwante technologieën verder kunnen ontwikkelen;

4. is van mening dat wetgevende maatregelen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën, overeen dienen te stemmen met de beginselen van noodzakelijkheid en evenredigheid;

5. is van oordeel dat een dergelijke benadering bedrijven in staat zal stellen om innovatieve producten op de markt te brengen en nieuwe kansen te scheppen, en tegelijkertijd de waarden van de Unie beschermt doordat zij leidt tot de ontwikkeling van AI-systemen waarin de ethische beginselen van de Unie in het ontwerp zijn ingebed; meent dat een dergelijk op waarden gebaseerd regelgevingskader een meerwaarde zou vormen doordat het de Unie een uniek concurrentievoordeel verschaft en een significante bijdrage levert aan het welzijn en de welvaart van de burgers en bedrijven in de Unie doordat het de interne markt versterkt; benadrukt dat een dergelijk regelgevingskader voor AI ook meerwaarde heeft wat betreft het bevorderen van innovatie op de interne markt; is van mening dat deze benadering bijvoorbeeld in de vervoerssector ondernemingen in de Unie de kans biedt om op dit gebied wereldleider te worden;

6. merkt op dat het rechtskader van de Unie van toepassing moet zijn op artificiële intelligentie, robotica en aanverwante technologieën, waaronder software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd;

7. merkt op dat de mogelijkheden die artificiële intelligentie, robotica en aanverwante technologieën bieden, afhankelijk zijn van big data en dat een kritieke massa aan gegevens vereist is om algoritmen te trainen en de resultaten te verfijnen; is in dit opzicht ingenomen met het voorstel van de Commissie voor de totstandbrenging van een gemeenschappelijke gegevensruimte in de Unie om de gegevensuitwisseling te verbeteren en onderzoek te ondersteunen, met volledige inachtneming van de Europese regelgeving inzake gegevensbescherming;

8. is van mening dat het huidige rechtskader van de Unie, met name op het gebied van bescherming, privacy en persoonsgegevens, volledig van toepassing zal moeten zijn op AI, robotica en aanverwante technologieën en regelmatig zal moeten worden geëvalueerd en gecontroleerd en waar nodig zal moeten worden bijgewerkt om de risico’s van deze technologieën doeltreffend aan te pakken, en meent dat het in dit verband gebaat zou kunnen zijn bij een aanvulling met krachtige ethische grondbeginselen; wijst erop dat er, waar het voorbarig zou zijn rechtshandelingen vast te stellen, gebruik moet worden gemaakt van een kader van niet-bindende voorschriften;

9. verwacht dat de Commissie in het wetgevingsvoorstel waar in de bijlage bij deze resolutie om wordt gevraagd als follow-up van het Witboek over kunstmatige intelligentie, een sterke ethische benadering integreert die ook veiligheid, aansprakelijkheid en grondrechten omvat en die de kansen van AI-technologieën zoveel mogelijk benut en de risico’s ervan zoveel mogelijk beperkt; verwacht dat het gevraagde wetgevingsvoorstel beleidsoplossingen zal omvatten voor de belangrijkste erkende risico’s van artificiële intelligentie, onder meer de ethische vergaring en het ethische gebruik van big data, de kwestie van algoritmische transparantie, en algoritmische vooringenomenheid; verzoekt de Commissie criteria en indicatoren te ontwikkelen met het oog op een keurmerk voor AI-technologie, teneinde de transparantie, verklaarbaarheid en verantwoordingsplicht te stimuleren en ontwikkelaars aan te zetten tot het nemen van aanvullende voorzorgsmaatregelen; beklemtoont dat er moet worden geïnvesteerd in de integratie van niet-technische disciplines in AI-studies en in onderzoek waarin de maatschappelijke context wordt meegenomen;

10. is van mening dat artificiële intelligentie, robotica en aanverwante technologieën moeten worden afgestemd op de menselijke behoeften, in overeenstemming met het beginsel dat de ontwikkeling, de uitrol en het gebruik ervan altijd ten dienste moeten staan van de mens en nooit andersom, en gericht moeten zijn op het verbeteren van het welzijn en de individuele vrijheid, het handhaven van vrede, het voorkomen van conflicten en het versterken van de internationale veiligheid, waarbij tegelijkertijd de geboden voordelen moeten worden gemaximaliseerd en de risico’s ervan moeten worden voorkomen en verminderd;

11. verklaart dat de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, onder meer maar niet uitsluitend door mensen, altijd gebaseerd moeten zijn op ethische beginselen en zodanig ontworpen moeten zijn dat menselijk ingrijpen en democratisch toezicht mogelijk zijn en dat mensen zo nodig de controle weer kunnen overnemen door de uitvoering van passende controlemaatregelen;

Risicobeoordeling

12. dringt erop aan dat bij een toekomstige verordening een gedifferentieerde en toekomstgerichte aanpak van de regulering van artificiële intelligentie, robotica en aanverwante technologieën moet worden gehanteerd, met inbegrip van technologieneutrale normen voor alle sectoren met waar nodig sectorspecifieke normen; merkt op dat er een uitputtende en cumulatieve lijst van risicosectoren en toepassingen of doeleinden met een hoog risico nodig is om te zorgen voor een uniforme invoering van het risicobeoordelingssysteem en voor conformiteit met de desbetreffende wettelijke verplichtingen teneinde een gelijk speelveld tussen de lidstaten te waarborgen en versnippering van de interne markt te voorkomen; benadrukt dat een dergelijke lijst regelmatig opnieuw moet worden geëvalueerd en merkt op dat, gezien de evoluerende aard van deze technologieën, de manier waarop de risicobeoordeling ervan wordt uitgevoerd in de toekomst wellicht opnieuw moet worden beoordeeld;

13. is van mening dat de vaststelling of artificiële intelligentie, robotica en aanverwante technologieën als risicovol moeten worden beschouwd en dus onderworpen moeten zijn aan de verplichte naleving van wettelijke voorschriften en ethische beginselen zoals vastgelegd in het regelgevingskader voor AI, altijd moet voortvloeien uit een onpartijdige, gereguleerde en externe ex-antebeoordeling op basis van concrete en welomschreven criteria;

14. is in dit verband van mening dat artificiële intelligentie, robotica en aanverwante technologieën als risicovol moeten worden beschouwd wanneer de ontwikkeling, de uitrol en het gebruik ervan een aanzienlijk risico inhouden op het veroorzaken van letsel of schade voor personen of de samenleving, in strijd met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie; is van mening dat bij de beoordeling of AI-technologieën een dergelijk risico inhouden, rekening moet worden gehouden met de sector waarin zij worden ontwikkeld, uitgerold of gebruikt, het specifieke gebruik of het specifieke doel ervan en de ernst van het letsel of de schade die naar verwachting optreedt; het eerste en het twee criterium, namelijk de sector en het specifieke gebruik of doel, moeten cumulatief worden overwogen;

15. onderstreept dat de risicobeoordeling van deze technologieën moet plaatsvinden op basis van een volledige en cumulatieve lijst van sectoren met een hoog risico en toepassingen en doeleinden met een hoog risico; is er sterk van overtuigd dat er binnen de Unie samenhang moet zijn wat betreft de risicobeoordeling van deze technologieën, met name wanneer zij worden beoordeeld in het licht van hun conformiteit met het regelgevingskader voor AI en in overeenstemming met andere toepasselijke sectorspecifieke wetgeving;

16. is van oordeel dat deze risicogebaseerde aanpak zo dient te worden ontwikkeld dat de administratieve last voor bedrijven, en met name kmo’s, zo veel mogelijk beperkt blijft door gebruikmaking van bestaande instrumenten; dergelijke instrumenten omvatten onder meer, maar niet uitsluitend de lijst in het kader van de gegevensbeschermingseffectbeoordeling overeenkomstig Verordening (EU) 2016/679;

Veiligheidskenmerken, transparantie en verantwoordingsplicht

17. wijst erop dat het recht op voorlichting van consumenten als basisbeginsel in het recht van de Unie is verankerd en benadrukt dat dit recht om die reden volledig moet worden toegepast met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën; is van mening dat het met name moet ingaan op transparantie met betrekking tot de interactie met AI-systemen, met inbegrip van automatiseringsprocessen, en op de werking en capaciteit ervan, bijvoorbeeld de vraag hoe informatie wordt gefilterd en gepresenteerd, de nauwkeurigheid en beperkingen ervan; is van mening dat dergelijke informatie moet worden verstrekt aan de nationale toezichthoudende autoriteiten en de nationale consumentenbeschermingsautoriteiten;

18. benadrukt dat consumentenvertrouwen van essentieel belang is voor de ontwikkeling en invoering van deze technologieën, die inherente risico’s kunnen inhouden wanneer zij op ondoorzichtige algoritmen en vooringenomen gegevensreeksen zijn gebaseerd; is van mening dat consumenten het recht moeten hebben om op adequate, begrijpelijke, tijdige, gestandaardiseerde, nauwkeurige en toegankelijke wijze te worden geïnformeerd over het bestaan, de manier van redeneren, de mogelijke resultaten en de gevolgen voor consumenten van algoritmische systemen, over de manier waarop een mens met beslissingsbevoegdheid kan worden bereikt, en over de wijze waarop de beslissingen van het systeem kunnen worden gecontroleerd, op betekenisvolle wijze betwist en gecorrigeerd; benadrukt in dit verband dat de beginselen van informatie en openbaarmaking, waarop het consumentenacquis is gebaseerd, in overweging en in acht genomen moeten worden; acht het noodzakelijk eindgebruikers gedetailleerde informatie te verstrekken over de werking van vervoerssystemen en door AI ondersteunde voertuigen;

 

19. merkt op dat het van essentieel belang is dat de algoritmen en gegevensreeksen die worden gebruikt of geproduceerd door artificiële intelligentie, robotica en aanverwante technologieën verklaarbaar zijn en, waar strikt noodzakelijk en met volledige inachtneming van de wetgeving van de Unie inzake gegevensbescherming, privacy en intellectuele-eigendomsrechten en bedrijfsgeheimen, toegankelijk zijn voor overheidsinstanties zoals nationale toezichthoudende autoriteiten en markttoezichtautoriteiten; merkt verder op dat, in overeenstemming met de hoogst mogelijke toepasselijke industrienormen, documentatie moet worden bewaard door degenen die betrokken zijn bij de verschillende stadia van de ontwikkeling van technologieën met een hoog risico; merkt op dat markttoezichtautoriteiten mogelijk beschikken over aanvullende prerogatieven in verband hiermee; beklemtoont in dit verband de rol van wettige reverse engineering; meent dat een onderzoek van de huidige wetgeving inzake markttoezicht nodig kan zijn om te waarborgen dat zij op ethische wijze inspeelt op de opkomst van artificiële intelligentie, robotica en aanverwante technologieën;

20. dringt aan op de verplichting voor ontwikkelaars en exploitanten van technologieën met een hoog risico om, indien uit een risicobeoordeling blijkt dat hiervan sprake is, overheidsinstanties de relevante documentatie te verstrekken over het gebruik, het ontwerp en de veiligheidsinstructies, met inbegrip van, indien strikt noodzakelijk en met volledige inachtneming van de wetgeving van de Unie inzake gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen, broncode, ontwikkelingsinstrumenten en door het systeem gebruikte gegevens; merkt op dat een dergelijke verplichting het mogelijk zou maken te beoordelen of deze technologieën in overeenstemming zijn met het recht van de Unie en ethische beginselen, en wijst in dit verband op het voorbeeld van de wettelijke deponering van publicaties van een nationale bibliotheek; merkt op dat er sprake is van een belangrijk onderscheid tussen transparantie van algoritmen en transparantie in het gebruik van algoritmen;

21. merkt voorts op dat, om de menselijke waardigheid, autonomie en veiligheid te eerbiedigen, voldoende aandacht moet worden besteed aan essentiële en geavanceerde medische apparatuur en aan de noodzaak dat onafhankelijke betrouwbare autoriteiten de middelen behouden die nodig zijn om diensten te verlenen aan personen die deze apparaten dragen, wanneer de oorspronkelijke ontwikkelaar of exploitant deze niet meer levert; deze diensten zouden bijvoorbeeld onderhoud, reparaties en verbeteringen omvatten, met inbegrip van software-updates waarmee storingen en kwetsbaarheden worden verholpen;

22. is van mening dat artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, ongeacht op welk gebied ze worden ontwikkeld, uitgerold en gebruikt, op een inherent veilige, traceerbare, technisch solide, betrouwbare, ethische en wettelijk bindende manier moeten worden ontwikkeld en worden onderworpen aan onafhankelijke controle en onafhankelijk toezicht; is met name van oordeel dat alle actoren die bij de ontwikkeling en de toeleveringsketens van AI-producten en -diensten betrokken zijn, wettelijk aansprakelijk moeten zijn en wijst op de noodzaak van mechanismen om de aansprakelijkheid en verantwoordingsplicht te waarborgen;

23. onderstreept dat regelgeving en richtsnoeren inzake verklaarbaarheid, controleerbaarheid, traceerbaarheid en transparantie, evenals, indien een risicobeoordeling dit vereist en dit strikt noodzakelijk is en met volledige inachtneming van het recht van de Unie, bijvoorbeeld op het gebied van gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen, toegang van overheidsinstanties tot technologie, gegevens en computersystemen die aan dergelijke technologieën ten grondslag liggen, essentieel zijn om het vertrouwen van de burgers in deze technologieën te waarborgen, ook al houdt de mate van verklaarbaarheid verband met de complexiteit van de technologieën; wijst erop dat het niet altijd mogelijk is om uit te leggen waarom een model tot een bepaald resultaat of besluit heeft geleid, met “zwarte doos”-algoritmen als voorbeeld; is daarom van oordeel dat eerbiediging van deze beginselen een eerste voorwaarde is om de verantwoordingsplicht te waarborgen;

24. is van oordeel dat burgers, met inbegrip van consumenten, wanneer zij te maken hebben met een systeem waarin artificiële intelligentie wordt gebruikt, met name om een product of dienst aan hun persoonlijke voorkeuren aan te passen, erop gewezen dienen te worden of en hoe zij deze personalisering kunnen uitschakelen of beperken;

25. wijst er in dit verband op dat, om betrouwbaar te zijn, artificiële intelligentie, robotica en aanverwante technologieën technisch robuust en nauwkeurig moeten zijn;

26. benadrukt dat de bescherming van netwerken van onderling verbonden AI en robotica belangrijk is en dat sterke maatregelen moeten worden genomen om inbreuken op de beveiliging, gegevenslekken, datavergiftiging, cyberaanvallen en misbruik van persoonsgegevens te verhinderen en dat dit vereist dat de relevante agentschappen, organen en instellingen op zowel Unie- als nationaal niveau samenwerken en ook samenwerken met de eindgebruikers van deze technologieën; roept de Commissie en de lidstaten op ervoor te zorgen dat de waarden van de Unie en de eerbiediging van de grondrechten te allen tijde in acht worden genomen bij de ontwikkeling en uitrol van AI-technologie, teneinde de veiligheid en veerkracht van de digitale infrastructuur van de Unie te waarborgen;

Geen vooringenomenheid en discriminatie

27. herinnert eraan dat AI, afhankelijk van de wijze waarop deze wordt ontwikkeld en gebruikt, vooringenomenheid kan creëren en versterken, onder meer door inherente vooringenomenheid in de onderliggende gegevensreeksen, en dus verschillende vormen van geautomatiseerde discriminatie, waaronder indirecte discriminatie, kan creëren ten aanzien van met name groepen mensen met vergelijkbare kenmerken; verzoekt de Commissie en de lidstaten alle mogelijke maatregelen te nemen om dergelijke vooringenomenheid te voorkomen en de volledige bescherming van de grondrechten te waarborgen;

28. is verontrust over de risico’s van vooringenomenheid en discriminatie bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd; herinnert eraan dat zij in alle omstandigheden de Uniewetgeving, de mensenrechten en de menselijke waardigheid, autonomie en zelfbeschikking van personen moeten eerbiedigen en gelijke behandeling en non-discriminatie voor iedereen moeten waarborgen;

29. benadrukt dat AI-technologieën zodanig ontworpen moeten worden dat ze de ethische waarden van de Unie en de fysieke en mentale integriteit respecteren, dienen en beschermen, de culturele en taalkundige verscheidenheid van de Unie hooghouden en in essentiële behoeften helpen voorzien; onderstreept de noodzaak om gebruik te vermijden dat kan leiden tot onaanvaardbare directe of indirecte dwang, de psychologische zelfstandigheid en geestelijke gezondheid dreigt te ondermijnen of ongerechtvaardigde controle, misleiding of ontoelaatbare manipulatie kan veroorzaken;

30. is er stellig van overtuigd dat de in het Handvest verankerde grondbeginselen inzake de rechten van de mens strikt in acht moeten worden genomen, zodat deze opkomende technologieën geen lacunes op het gebied van bescherming veroorzaken;

31. bevestigt dat de mogelijke vooringenomenheid van en discriminatie door software, algoritmen en gegevens personen en de samenleving wel degelijk schade kunnen berokkenen en dat deze daarom moeten worden aangepakt door aan te moedigen dat er strategieën worden ontwikkeld en gedeeld om deze tegen te gaan, zoals het corrigeren van subjectieve gegevensreeksen bij onderzoek en ontwikkeling, en het ontwikkelen van regels voor gegevensverwerking; is van oordeel dat software, algoritmen en gegevens door een dergelijke aanpak in bepaalde situaties kunnen worden ingezet als troef in de strijd tegen vooringenomenheid en discriminatie en kunnen fungeren als een aandrijver voor gelijke rechten en positieve maatschappelijke verandering;

32. is van oordeel dat de ethische waarden van billijkheid, juistheid, vertrouwelijkheid en transparantie de grondslag moeten vormen voor deze technologieën, wat in deze context inhoudt dat hun activiteiten zodanig moeten zijn dat ze geen vertekende outputs genereren;

33. onderstreept het belang van de kwaliteit van gegevensreeksen die worden gebruikt voor artificiële intelligentie, robotica en aanverwante technologieën, afhankelijk van hun context, met name wat betreft de representativiteit van de trainingsgegevens, het corrigeren van subjectieve gegevensreeksen, de gebruikte algoritmen en de normen voor gegevens en aggregatie; benadrukt dat de nationale toezichthoudende autoriteiten die gegevensreeksen moeten kunnen controleren indien hun gevraagd wordt ervoor te zorgen dat ze in overeenstemming zijn met de eerder uiteengezette beginselen;

34. beklemtoont dat, in de context van de wijdverspreide desinformatieoorlog, die voornamelijk door niet-Europese actoren wordt gevoerd, AI-technologieën ethisch gezien schadelijke effecten kunnen hebben door in gegevens en algoritmen vervatte vooringenomenheid te exploiteren of doordat een derde land leergegevens opzettelijk wijzigt, en dat ze ook op onvoorspelbare wijze en niet te becijferen gevolgen vatbaar kunnen zijn voor andere vormen van gevaarlijke, kwaadaardige manipulatie; wijst er daarom op dat de Unie nog meer moet blijven investeren in onderzoek, analyse, innovatie en grens- en sectoroverschrijdende kennisoverdracht om AI-technologieën te ontwikkelen die absoluut niet gebaseerd mogen zijn op enige vorm van profilering, vooringenomenheid en discriminatie, die doeltreffend kunnen bijdragen aan de bestrijding van nepnieuws en desinformatie en die tegelijkertijd de gegevensbescherming en het rechtskader van de Unie eerbiedigen;

35. herinnert eraan dat het belangrijk is te voorzien in doeltreffende rechtsmiddelen voor personen, en verzoekt de lidstaten te zorgen voor toegankelijke, betaalbare, onafhankelijke en doeltreffende procedures en evaluatiemechanismen om een onpartijdige menselijke beoordeling te garanderen van alle claims wegens schending van burgerrechten, zoals consumenten- of civiele rechten, door het gebruik van algoritmische systemen, zowel in de overheids- als in de particuliere sector; onderstreept het belang van de ontwerprichtlijn van het Europees Parlement en de Raad betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten en tot intrekking van Richtlijn 2009/22/EG, waarover op 22 juni 2020 een politiek akkoord werd bereikt met betrekking tot toekomstige gevallen waarin de invoering of het verdere gebruik wordt betwist van een AI-systeem dat consumentenrechten riskeert te schenden, of waarin rechtsmiddelen worden ingesteld in verband met schending van rechten; verzoekt de Commissie en de lidstaten ervoor te zorgen dat nationale consumentenorganisaties en consumentenorganisaties van de Unie over voldoende financiële middelen beschikken om consumenten te helpen bij de uitoefening van hun recht op een voorziening in rechte in gevallen waarin hun rechten geschonden zijn;

36. is daarom van oordeel dat natuurlijke of rechtspersonen beroep moeten kunnen aantekenen tegen een beslissing die door artificiële intelligentie, robotica of aanverwante technologieën in hun nadeel en in strijd met nationaal of Unierecht is genomen;

37 is van mening dat de nationale toezichthoudende autoriteiten, als eerste aanspreekpunt in gevallen van vermoedelijke inbreuken op het regelgevingskader van de Unie in dit verband, ook door consumenten kunnen worden benaderd met verzoeken om verhaal om de effectieve handhaving van bovengenoemd kader te waarborgen;

Maatschappelijke verantwoordelijkheid en genderevenwicht

38. benadrukt dat maatschappelijk verantwoorde artificiële intelligentie, robotica en aanverwante technologieën een rol moeten spelen bij het vinden van oplossingen die de grondrechten en waarden van onze maatschappij beschermen en bevorderen, zoals democratie, de rechtsstaat, gevarieerde en onafhankelijke media en objectieve en vrij beschikbare informatie, gezondheid en economische welvaart, gelijke kansen, arbeids- en sociale rechten, hoogwaardig onderwijs, bescherming van kinderen, culturele en taalkundige verscheidenheid, gendergelijkheid, digitale geletterdheid, innovatie en creativiteit; wijst nogmaals op de noodzaak om voldoende rekening te houden met de belangen van alle burgers, met inbegrip van degenen die zich in de marge van de samenleving of een kwetsbare situatie bevinden, zoals personen met een handicap, en dat deze belangen naar behoren worden behartigd;

39. benadrukt dat het belangrijk is een hoog niveau van algemene digitale geletterdheid te bereiken en hooggekwalificeerde vakmensen op dit gebied op te leiden, alsook de wederzijdse erkenning van deze kwalificaties in de hele Unie te waarborgen; beklemtoont dat verschillende teams van ontwikkelaars en ingenieurs moeten samenwerken met de belangrijkste actoren in de samenleving om te voorkomen dat gender- en culturele vooroordelen onbedoeld doordringen tot AI-algoritmen, -systemen en -toepassingen; pleit voor het opzetten van onderwijsprogramma’s en activiteiten op het gebied van publieksvoorlichting betreffende de maatschappelijke, juridische en ethische gevolgen van artificiële intelligentie;

40. benadrukt dat het van essentieel belang is de vrijheid van denken en meningsuiting te waarborgen en er aldus voor te zorgen dat deze technologieën geen haatzaaiende uitlatingen of geweld bevorderen, en is van oordeel dat het belemmeren of beperken van de vrijheid van meningsuiting die digitaal wordt uitgeoefend, volgens de grondbeginselen van de Unie onwettig is, tenzij de uitoefening van dit grondrecht onwettige handelingen met zich meebrengt;

41. benadrukt dat artificiële intelligentie, robotica en aanverwante technologieën kunnen bijdragen tot het verminderen van sociale ongelijkheden en stelt dat het Europese model voor de ontwikkeling ervan gebaseerd moet zijn op het vertrouwen van de burgers en een grotere sociale cohesie;

42. beklemtoont dat de uitrol van een systeem voor artificiële intelligentie de toegang van gebruikers tot openbare diensten, zoals sociale zekerheid, niet onnodig mag beperken; verzoekt de Commissie daarom na te gaan hoe deze doelstelling kan worden bereikt;

43. benadrukt het belang van verantwoordelijk onderzoek en verantwoordelijke ontwikkeling om het volledige potentieel van artificiële intelligentie, robotica en aanverwante technologieën voor de burgers en het openbaar belang te verwezenlijken; pleit ervoor dat de Unie en haar lidstaten middelen beschikbaar stellen om verantwoordelijke innovatie te ontwikkelen en te ondersteunen;

44. benadrukt dat technologische vaardigheden steeds belangrijker zullen worden en dat het daarom noodzakelijk zal zijn om het opleidingsaanbod voortdurend te moderniseren, met name voor toekomstige generaties, en om omscholing van degenen die al op de arbeidsmarkt actief zijn te bevorderen; is in dit verband van oordeel dat innovatie en opleiding niet alleen in de particuliere sector, maar ook in de overheidssector moeten worden gestimuleerd;

45. stelt met klem dat de ontwikkeling, de uitrol en het gebruik van deze technologieën geen letsel of schade van welke aard ook mogen toebrengen aan personen, de samenleving of het milieu, en dat de ontwikkelaars, exploitanten en gebruikers van deze technologieën dus verantwoordelijk moeten worden gesteld voor dergelijk letsel of dergelijke schade overeenkomstig de desbetreffende aansprakelijkheidsregels van de Unie en de lidstaten;

46. verzoekt de lidstaten na te gaan of het banenverlies als gevolg van de toepassing van deze technologieën moet leiden tot passend overheidsbeleid, zoals arbeidstijdverkorting;

47. blijft van oordeel dat een ontwerpbenadering op basis van de waarden en ethische beginselen van de Unie dringend noodzakelijk is om de voorwaarden te scheppen voor een brede maatschappelijke acceptatie van artificiële intelligentie, robotica en aanverwante technologieën; is van mening dat deze benadering, die gericht is op de ontwikkeling van betrouwbare, ethisch verantwoorde en technisch robuuste artificiële intelligentie, een belangrijke factor is voor duurzame en slimme mobiliteit die veilig en toegankelijk is;

48. wijst op de grote meerwaarde van autonome voertuigen voor personen met beperkte mobiliteit, aangezien deze personen met dergelijke voertuigen effectiever kunnen deelnemen aan het individuele wegverkeer, waardoor hun dagelijks leven eenvoudiger wordt; benadrukt het belang van toegankelijkheid, met name bij het ontwerpen van MaaS-systemen (mobiliteit als een dienst);

49. verzoekt de Commissie de ontwikkeling van betrouwbare AI-systemen verder te ondersteunen om het vervoer veiliger, efficiënter, toegankelijker, betaalbaarder en inclusiever te maken, ook voor personen met beperkte mobiliteit, in het bijzonder personen met een handicap, daarbij rekening houdend met Richtlijn (EU) 2019/882 van het Europees Parlement en de Raad en de Europese wetgeving inzake passagiersrechten;

50. is van mening dat AI kan bijdragen tot een beter gebruik van de vaardigheden en competenties van mensen met een handicap en dat de toepassing van AI op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en een hogere arbeidsparticipatie van mensen met een handicap;

Milieu en duurzaamheid

51. stelt dat regeringen en bedrijven artificiële intelligentie, robotica en aanverwante technologieën zodanig moeten gebruiken dat zij mensen en de planeet ten goede komen, bijdragen tot de verwezenlijking van duurzame ontwikkeling, het behoud van het milieu, klimaatneutraliteit en de doelstellingen van de circulaire economie; en dat de ontwikkeling, de uitrol en het gebruik van deze technologieën moeten bijdragen tot de groene transitie, het milieu ontzien en eventuele milieuschade zoveel mogelijk beperken en herstellen, zowel tijdens de levenscyclus als in de hele toeleveringsketen, overeenkomstig het recht van de Unie;

52. gezien de aanzienlijke milieueffecten van de ontwikkeling, uitrol en gebruik van artificiële intelligentie, robotica en aanverwante technologieën in het licht van de vorige alinea, kunnen deze effecten, waar relevant en passend, gedurende de gehele levensduur door sectorspecifieke autoriteiten worden geëvalueerd; een dergelijke evaluatie zou een raming kunnen omvatten van het effect van de winning van de benodigde materialen, het energieverbruik en de broeikasgasemissies als gevolg van de ontwikkeling, de uitrol en het gebruik ervan;

53. stelt voor, met het oog op de ontwikkeling van verantwoorde geavanceerde AI-oplossingen, het potentieel van artificiële intelligentie, robotica en aanverwante technologieën te analyseren, te stimuleren en te maximaliseren door middel van verantwoorde activiteiten op het gebied van onderzoek en ontwikkeling, waarvoor de Unie en haar lidstaten middelen beschikbaar moeten stellen;

54. benadrukt het feit dat de ontwikkeling, de uitrol en het gebruik van deze technologieën kansen bieden voor de bevordering van de duurzameontwikkelingsdoelstellingen van de Verenigde Naties, de wereldwijde energietransitie en decarbonisatie;

55. is van oordeel dat de doelstellingen inzake maatschappelijk verantwoord ondernemen, genderevenwicht, milieubescherming en duurzaamheid niet mogen afdoen aan bestaande algemene en sectorale verplichtingen op deze gebieden; is van mening dat niet-bindende uitvoeringsrichtsnoeren moeten worden vastgesteld voor ontwikkelaars, exploitanten en gebruikers, met name van technologieën met een hoog risico, inzake de methodologie voor de beoordeling van de naleving van deze verordening en de verwezenlijking van die doelstellingen;

56. verzoekt de Unie de ontwikkeling te bevorderen en te financieren van mensgerichte artificiële intelligentie, robotica en aanverwante technologieën waarmee milieu- en klimaatuitdagingen worden aangepakt en die de eerbiediging van de grondrechten waarborgen, door het gebruik van belastingen, overheidsopdrachten of andere stimulansen;

57. benadrukt dat, ondanks de huidige grote koolstofvoetafdruk van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van geautomatiseerde besluitvorming en machinaal leren, deze technologieën kunnen bijdragen tot het verkleinen van de huidige ecologische voetafdruk van de ICT-sector; benadrukt dat deze en andere goed gereguleerde aanverwante technologieën doorslaggevend zouden moeten zijn voor de verwezenlijking in veel verschillende sectoren van de doelstellingen van de Green Deal, de duurzameontwikkelingsdoelstellingen van de VN en de Overeenkomst van Parijs, en het effect van beleid ter bescherming van het milieu, bijvoorbeeld het beleid inzake afvalvermindering en de aantasting van het milieu, zouden moeten vergroten;

58. verzoekt de Commissie een studie uit te voeren naar de koolstofvoetafdruk van AI-technologie en naar de positieve en negatieve effecten van de overgang naar gebruik van AI-technologie door consumenten;

59. merkt op dat, gezien de toenemende ontwikkeling van AI-toepassingen, die rekenkracht, opslagruimte en energie vergen, de milieueffecten van AI-systemen gedurende de hele levenscyclus moeten worden beoordeeld;

60. is van mening dat op gebieden als gezondheid de aansprakelijkheid in laatste instantie bij een natuurlijke of rechtspersoon moet blijven liggen; benadrukt de noodzaak van traceerbaarheid en publiekelijk beschikbare trainingsgegevens voor algoritmen;

61. is groot voorstander van de totstandbrenging van een Europese ruimte voor gezondheidsgegevens[12], zoals voorgesteld door de Commissie, ter bevordering van de uitwisseling van gezondheidsgegevens en ter ondersteuning van onderzoek, met volledige eerbiediging van gegevensbescherming en met inbegrip van gegevensverwerking met behulp van AI-technologie, waardoor het gebruik en hergebruik van gezondheidsgegevens kan worden versterkt en uitgebreid; spoort aan tot opschaling van de grensoverschrijdende uitwisseling van gezondheidsgegevens, de koppeling en het gebruik van dergelijke gegevens via beveiligde gefedereerde databanken en specifieke gezondheidsinformatie, zoals Europese elektronische medische dossiers (EMD’s), genoominformatie en digitale medische beelden om de opzet van Uniebrede interoperabele registers of databanken op gebieden als onderzoek, wetenschap en gezondheidszorg te vergemakkelijken;

62. benadrukt de voordelen van AI voor de preventie, behandeling en bestrijding van ziekten, zoals is gebleken uit het feit dat AI de COVID-19-epidemie eerder heeft voorspeld dan de Wereldgezondheidsorganisatie; dringt er bij de Commissie op aan voor het ECDC te voorzien in het adequate regelgevingskader en passende middelen voor het onafhankelijk verzamelen van de noodzakelijke geanonimiseerde realtime wereldwijde gezondheidsgegevens, in samenwerking met de lidstaten, om onder meer problemen aan te pakken die door de COVID-19-pandemie aan het licht zijn gekomen;

Privacy en biometrische herkenning

63. merkt op dat door de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën steeds meer gegevens, waaronder persoonsgegevens zoals biometrische gegevens, worden gegenereerd en gebruikt en dat het daarom noodzakelijk is de rechten van burgers op privacy en de bescherming van persoonsgegevens overeenkomstig de Uniewetgeving te eerbiedigen en te handhaven;

64. wijst erop dat de mogelijkheden die deze technologieën bieden om persoonsgegevens en niet-persoonsgegevens te gebruiken om mensen in categorieën in te delen en op microniveau te benaderen, de kwetsbaarheden van personen vast te stellen of nauwkeurige voorspellende kennis te benutten, moeten worden gecompenseerd door de daadwerkelijke handhaving van gegevensbeschermings- en privacybeginselen, zoals gegevensminimalisatie, het recht om bezwaar te maken tegen profilering en het recht op zeggenschap over het gebruik van de eigen gegevens, het recht om uitleg te krijgen over een beslissing die is gebaseerd op geautomatiseerde besluitvorming en privacy door ontwerp, en van de beginselen van evenredigheid, noodzaak en strikte doelbinding in overeenstemming met de AVG;

65. benadrukt dat wanneer overheidsinstanties voor belangrijke doeleinden van algemeen belang gebruikmaken van technologieën voor herkenning op afstand, zoals de herkenning van biometrische kenmerken, met name gezichtsherkenning, dit gebruik altijd openbaar, evenredig, gericht, beperkt tot specifieke doelstellingen en van beperkte duur moet zijn in overeenstemming met de Uniewetgeving en met inachtneming van de menselijke waardigheid en autonomie evenals de grondrechten zoals vastgesteld in het Handvest; benadrukt ook dat de criteria en limieten van dergelijke systemen onderworpen moeten worden aan een toetsing door de rechter en democratisch toezicht en rekening moeten houden met het psychologische en sociaal-culturele effect ervan op het maatschappelijk middenveld;

66. wijst erop dat de uitrol van artificiële intelligentie, robotica en aanverwante technologieën in het kader van overheidsbeslissingen voordelen biedt, maar ook kan leiden tot ernstig misbruik, zoals grootschalig toezicht, voorspellend politiewerk en schendingen van het recht op een eerlijke procesgang;

67. is van oordeel dat technologieën die geautomatiseerde beslissingen kunnen genereren en zo besluiten van overheidsinstanties kunnen vervangen, met uiterste omzichtigheid tegemoet dienen te worden getreden, met name op het gebied van justitie en rechtshandhaving;

68. is van mening dat de lidstaten alleen een beroep op deze technologieën mogen doen indien hun betrouwbaarheid terdege is bewezen en indien een betekenisvolle menselijke interventie en beoordeling mogelijk is of stelselmatig wordt uitgevoerd in gevallen waarin de fundamentele vrijheden op het spel staan; onderstreept dat het van groot belang is dat de nationale autoriteiten een grondige effectbeoordeling inzake de grondrechten uitvoeren voor AI-systemen die in deze gevallen worden gebruikt, met name wanneer die technologieën als risicovol zijn beoordeeld;

69. is van mening dat alle besluiten die in het kader van publiekrechtelijke prerogatieven door artificiële intelligentie, robotica en aanverwante technologieën worden genomen onderworpen moeten worden aan betekenisvolle menselijke interventie en een behoorlijke rechtsgang, met name wanneer die technologieën als risicovol zijn beoordeeld;

70. is van mening dat de technologische vooruitgang niet mag leiden tot het gebruik van artificiële intelligentie, robotica en aanverwante technologieën om autonoom overheidsbesluiten te nemen die een rechtstreekse en aanzienlijke impact hebben op de rechten en plichten van de burgers;

71. merkt op dat AI, robotica en aanverwante technologieën op het gebied van rechtshandhaving en grenscontrole de openbare orde en veiligheid kunnen verbeteren, maar ook uitgebreide en strenge overheidstoetsing vereisen evenals een zo groot mogelijke transparantie, zowel wat betreft de risicobeoordeling van individuele toepassingen als een algemeen overzicht van het gebruik van AI, robotica en aanverwante technologieën op het gebied van wetshandhaving en grenscontrole; is van mening dat dergelijke technologieën aanzienlijke ethische risico’s met zich meebrengen die adequaat moeten worden aangepakt, gelet op de mogelijke negatieve gevolgen voor personen, met name voor hun recht op privacy, gegevensbescherming en non-discriminatie; benadrukt dat het misbruik van deze technologieën een directe bedreiging voor de democratie kan worden en dat bij de uitrol en het gebruik ervan de beginselen van evenredigheid en noodzakelijkheid moeten worden nageleefd, evenals het Handvest van de grondrechten en het relevante afgeleide Unierecht zoals de voorschriften inzake gegevensbescherming; benadrukt dat AI nooit in de plaats mag komen van de mens bij het uitvaardigen van vonnissen; is van oordeel dat voor beslissingen die gehoord worden door de rechter, zoals vrijlating op borgtocht of met een proeftijd, of voor uitsluitend op geautomatiseerde verwerking gebaseerde beslissingen die rechtsgevolgen hebben voor personen of die hen in aanzienlijke mate treffen, altijd een betekenisvolle toetsing en menselijke beoordeling vereist is;

Goede governance

72. benadrukt dat het in goede banen leiden van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met name technologieën met een hoog risico, met behulp van maatregelen die zijn gericht op verantwoordingsplicht en het beheersen van potentiële risico’s met betrekking tot vooringenomenheid en discriminatie, de veiligheid van burgers en hun vertrouwen in deze technologieën ten goede kan komen;

73. is van oordeel dat een gemeenschappelijk kader voor de governance van deze technologieën dat wordt gecoördineerd door de Commissie en/of een andere instelling, een ander orgaan of andere instantie van de Unie waaraan deze taak in dit verband kan worden toegewezen en dat door nationale toezichthoudende autoriteiten in elke lidstaat moet worden ingevoerd, een samenhangende Europese aanpak zou waarborgen en versnippering van de eengemaakte markt zou voorkomen;

74. merkt op dat grote hoeveelheden gegevens worden gebruikt voor de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën, en dat het verwerken, delen en gebruiken van en de toegang tot dergelijke gegevens moeten worden beheerd overeenkomstig het recht en op basis van de hierin vervatte vereisten van kwaliteit, integriteit, transparantie, veiligheid, privacy en controle;

75. herinnert eraan dat de toegang tot gegevens van essentieel belang is voor de groei van de digitale economie; wijst er in dit verband op dat de interoperabiliteit van gegevens, door beperking van “lock-in-effecten”, een essentiële rol speelt bij de verwezenlijking van eerlijke marktvoorwaarden en de bevordering van een gelijk speelveld in de digitale eengemaakte markt;

76. onderstreept dat moet worden gegarandeerd dat persoonsgegevens, in het bijzonder gegevens over of afkomstig van kwetsbare groepen, zoals personen met een handicap, patiënten, kinderen, ouderen, minderheden, migranten en andere groepen die risico lopen om buitengesloten te worden, afdoende worden beschermd;

77. merkt op dat de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën door overheidsinstanties vaak worden uitbesteed aan particuliere bedrijven; is van oordeel dat dit op geen enkele wijze ten koste mag gaan van de bescherming van collectieve waarden en grondrechten; is van oordeel dat in de algemene voorwaarden voor overheidsopdrachten, indien van toepassing, de ethische normen waaraan overheidsinstanties moeten voldoen tot uiting moeten komen;

Consumenten en de interne markt

78. benadrukt het belang van een regelgevingskader voor AI dat van toepassing is wanneer consumenten in de Unie gebruiker zijn van, onderworpen zijn aan, beoogd worden door of geleid worden naar een algoritmisch systeem, ongeacht de plaats van vestiging van de entiteiten die het systeem ontwikkelen, verkopen of gebruiken; is verder van mening dat de in een dergelijk kader vastgestelde regels met het oog op de rechtszekerheid van toepassing moeten zijn op alle ontwikkelaars en op de gehele waardeketen, namelijk de ontwikkeling, de uitrol en het gebruik van de desbetreffende technologieën en hun componenten, en dat zij een hoog niveau van consumentenbescherming moeten garanderen;

79. merkt het inherente verband op tussen artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd enerzijds, en gebieden als het internet der dingen, machinaal leren, regelgebaseerde systemen en geautomatiseerde en ondersteunde besluitvormingsprocessen anderzijds; merkt verder op dat gestandaardiseerde verwijzingssystemen kunnen worden ontwikkeld om deze systemen te helpen uitleggen aan consumenten wanneer deze complex zijn of besluiten kunnen nemen die van grote invloed zijn op het leven van consumenten;

80. herinnert eraan dat de Commissie het bestaande rechtskader en de toepassing ervan moet onderzoeken, met inbegrip van het acquis inzake consumentenwetgeving en de wetgeving inzake productaansprakelijkheid, productveiligheid en markttoezicht, om wettelijke lacunes en bestaande regelgevingsverplichtingen vast te stellen; acht dit noodzakelijk om te bepalen of het kader de nieuwe uitdagingen kan aangaan die zijn ontstaan door de opkomst van artificiële intelligentie, robotica en aanverwante technologieën, en of het een hoog niveau van consumentenbescherming kan waarborgen;

81. wijst op de noodzaak de door artificiële intelligentie, robotica en aanverwante technologieën gecreëerde uitdagingen doeltreffend aan te pakken en ervoor te zorgen dat consumenten over rechten beschikken en naar behoren worden beschermd; onderstreept dat er verder moet worden gekeken dan de traditionele beginselen van informatie en openbaarmaking op grond waarvan het consumentenacquis tot stand is gekomen, aangezien sterkere consumentenrechten en duidelijke beperkingen ten aanzien van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën nodig zullen zijn om ervoor te zorgen dat dit soort technologieën bijdragen tot het verbeteren van het leven van de consument en zich ontwikkelen met eerbiediging van de grond- en consumentenrechten en waarden van de Unie;

82. wijst erop dat het bij Besluit nr. 768/2008/EG ingevoerde wetgevingskader een geharmoniseerde lijst van verplichtingen voor producenten, invoerders en distributeurs bevat, het gebruik van normen aanmoedigt en in verschillende controleniveaus naargelang van de gevaarlijkheid van het product voorziet; is van mening dat dit kader ook van toepassing moet zijn op met AI uitgeruste producten;

83. merkt op dat, met het oog op de analyse van de gevolgen van artificiële intelligentie, robotica en aanverwante technologieën voor consumenten, de toegang tot gegevens kan worden uitgebreid tot de nationale bevoegde autoriteiten, mits het Unierecht, zoals het recht inzake gegevensbescherming, privacy en bedrijfsgeheimen, volledig wordt nageleefd; herinnert aan het belang van voorlichting van consumenten zodat zij beter geïnformeerd en vaardiger zijn bij de omgang met artificiële intelligentie, robotica en aanverwante technologieën, om hen zo te beschermen tegen potentiële risico’s en hun rechten te verdedigen; 

84. verzoekt de Commissie maatregelen voor de traceerbaarheid van gegevens voor te stellen, rekening houdend met zowel de wettigheid van gegevensvergaring als de bescherming van consumenten- en grondrechten, met volledige inachtneming van het recht van de Unie, zoals dat betreffende gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen;

85. merkt op dat deze technologieën op de gebruiker gericht moeten zijn en zodanig moeten zijn ontworpen dat iedereen gebruik kan maken van AI-producten of -diensten, ongeacht leeftijd, geslacht, vaardigheden of eigenschappen; merkt op dat de toegang ertoe voor personen met een handicap van bijzonder belang is; wijst erop dat er geen standaardbenadering mag worden gevolgd en dat moet worden overwogen om beginselen inzake universeel ontwerp toe te passen waarmee een zo groot mogelijke groep gebruikers wordt bereikt op basis van relevante toegankelijkheidsnormen; benadrukt dat dit mensen in staat zal stellen om op billijke wijze toegang te krijgen tot en actief deel te nemen aan bestaande en opkomende computerondersteunde menselijke activiteiten en hulptechnologieën.

86. benadrukt dat wanneer overheidsgeld in ruime mate wordt gebruikt voor de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, naast open aanbestedingsnormen moet worden nagedacht over de mogelijkheid om de code, de gegenereerde gegevens – voor zover dit geen persoonsgegevens zijn – en het getrainde model met de goedkeuring van de ontwikkelaar standaard openbaar te maken om de transparantie te waarborgen, de cyberbeveiliging te verbeteren en hergebruik mogelijk te maken om innovatie te bevorderen; benadrukt dat op deze manier het volledige potentieel van de interne markt kan worden benut terwijl versnippering van de markt wordt voorkomen;

87.  is van mening dat AI, robotica en aanverwante technologieën een enorm potentieel hebben om te voorzien in mogelijkheden voor consumenten om toegang te hebben tot diverse voorzieningen in tal van aspecten van hun leven naast betere producten en diensten, alsook te profiteren van beter markttoezicht, zolang alle toepasselijke beginselen, voorwaarden, waaronder transparantie en controleerbaarheid, en regelgeving van toepassing blijven;

Veiligheid en defensie

88. benadrukt dat het veiligheids- en defensiebeleid van de Europese Unie en haar lidstaten gebaseerd is op de beginselen die zijn verankerd in het Handvest van de grondrechten van de Europese Unie en de beginselen van het Handvest van de Verenigde Naties, en op een gemeenschappelijk begrip van de universele waarden van eerbiediging van de onschendbare en onvervreemdbare rechten van de mens, menselijke waardigheid, vrijheid, democratie, gelijkheid en de rechtsstaat; benadrukt dat alle defensiegerelateerde inspanningen binnen het kader van de Unie deze universele waarden in acht moeten nemen en tegelijkertijd vrede, veiligheid en vooruitgang in Europa en in de wereld moeten bevorderen;

89. is ingenomen met de bekrachtiging van elf leidende beginselen voor de ontwikkeling en het gebruik van autonome wapensystemen door de Hoge Verdragsluitende Partijen bij het Verdrag van de Verenigde Naties inzake het verbod of de beperking van het gebruik van bepaalde conventionele wapens (Conventionelewapensverdrag, CWV) tijdens hun vergadering in 2019; betreurt evenwel dat ze geen overeenstemming konden bereiken over een juridisch bindend instrument voor de regulering van dodelijke autonome wapensystemen (LAWS), met een doeltreffend handhavingsmechanisme; is ingenomen met de “Ethische richtsnoeren voor betrouwbare artificiële intelligentie” van de deskundigengroep op hoog niveau inzake artificiële intelligentie van de Commissie, die op 9 april 2019 werden gepubliceerd, en met het standpunt van deze deskundigengroep inzake dodelijke autonome wapensystemen, en verleent er zijn steun aan; dringt er bij de lidstaten op aan nationale strategieën te ontwikkelen voor de definitie en de status van dodelijke autonome wapens met het oog op een omvattende strategie op Unieniveau, en samen met de vicevoorzitter van de Commissie/hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid (VV/HV) en de Raad het voortouw te nemen bij de bespreking van LAWS in het kader van het CWV van de VN en andere relevante fora en bij de vaststelling van internationale normen betreffende de ethische en wettelijke parameters voor de ontwikkeling en het gebruik van volledig autonome, semiautonome en op afstand bestuurde dodelijke wapensystemen; herinnert in dit verband aan zijn resolutie van 12 september 2018 over autonome wapensystemen, en vraagt nogmaals dringend een gemeenschappelijk standpunt over dodelijke autonome wapensystemen op te stellen en goed te keuren; pleit eens te meer voor een internationaal verbod op de ontwikkeling, de productie en het gebruik van dodelijke autonome wapensystemen waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle en zonder eerbiediging van het “human-in-the-loop”-beginsel, in overeenstemming met de verklaring van ’s werelds prominentste AI-onderzoekers in hun open brief van 2015; is ingenomen met de overeenkomst van de Raad en het Parlement om dodelijke automatische wapens waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle op het kiezen van doelwitten en het inzetten van een aanval, uit te sluiten van maatregelen die uit het Europees Defensiefonds worden gefinancierd; is van mening dat de ethische aspecten van andere AI-toepassingen in de defensiesector, zoals inlichtingendiensten, surveillance en verkennings- of cyberoperaties niet over het hoofd mogen worden gezien en dat bijzondere aandacht moet worden besteed aan de ontwikkeling en inzet van drones tijdens militaire operaties;

90 benadrukt dat opkomende technologieën in de defensie- en veiligheidssector die niet binnen het internationale recht gereguleerd zijn, getoetst moeten worden, rekening houdend met het beginsel van eerbiediging van de menselijkheid en algemeen geldende ethische normen;

91. wijst erop dat een Europees kader voor het gebruik van systemen op basis van artificiële intelligentie in de defensiesector, zowel in gevechtssituaties als daarbuiten, alle toepasselijke wettelijke regelingen in acht moet nemen, met name het internationale humanitaire recht en het internationale recht inzake de mensenrechten, en in overeenstemming moet zijn met het recht, de beginselen en de waarden van de Unie, waarbij rekening wordt gehouden met de verschillen in technische en veiligheidsinfrastructuur in de hele Unie;

92. erkent dat cruciale AI-innovaties, in tegenstelling tot de industriële en technologische defensiebasis, afkomstig zouden kunnen zijn uit kleine lidstaten, en dat een door het GVDB gestandaardiseerde aanpak ervoor moet zorgen dat kleinere lidstaten en kmo’s niet worden verdrongen; beklemtoont dat een reeks gemeenschappelijke AI-capaciteiten van de EU die zijn afgestemd op de operationele concepten van de lidstaten, de technische kloven kunnen overbruggen die anders zouden kunnen leiden tot de uitsluiting van lidstaten die niet beschikken over de desbetreffende technologie, industriële deskundigheid of het vermogen om AI-systemen toe te passen in hun Ministerie van Defensie;

93. is van mening dat de huidige en toekomstige veiligheids- en defensiegerelateerde activiteiten binnen het kader van de Unie gebruik zullen maken van AI, robotica, autonomie en aanverwante technologieën, en dat betrouwbare, robuuste en beproefde AI kan bijdragen tot moderne en doeltreffende strijdkrachten; vindt dan ook dat de Unie het voortouw moet nemen bij het onderzoek naar en de ontwikkeling van AI-systemen op het gebied van veiligheid en defensie; is van mening dat het gebruik van op AI gebaseerde veiligheids- en defensietoepassingen een aantal directe voordelen voor de bevelhebber van de operatie kan bieden, zoals gegevens van hogere kwaliteit, een groter situationeel bewustzijn, een snellere besluitvorming, een lager risico op nevenschade dankzij betere bekabeling, bescherming van de troepen op het terrein, en een grotere betrouwbaarheid van militaire uitrusting, en bijgevolg minder risico’s voor de mens en minder menselijke slachtoffers; benadrukt dat de ontwikkeling van betrouwbare AI op het gebied van defensie een onontbeerlijke technologie is om de Europese strategische autonomie te garanderen op capaciteits- en operationeel gebied; herinnert eraan dat AI-systemen ook cruciale elementen worden in de bestrijding van nieuwe bedreigingen voor de veiligheid, zoals cyber- en hybride oorlogsvoering, zowel on- als offline; wijst tegelijkertijd op alle risico’s en uitdagingen die het niet-gereguleerde gebruik van AI met zich meebrengt; merkt op dat AI vatbaar kan zijn voor manipulatie, fouten en onnauwkeurigheden;

94. beklemtoont dat AI-technologieën strikt genomen dienen voor dubbel gebruik en dat de ontwikkeling van AI in defensiegerelateerde activiteiten haar voordeel doet met uitwisselingen tussen militaire en civiele technologieën; benadrukt dat AI in defensiegerelateerde activiteiten een transversale disruptieve technologie is waarvan de ontwikkeling kansen kan bieden voor het concurrentievermogen en de strategische autonomie van de Unie;

95. onderkent dat in de hybride en geavanceerde oorlogsvoering van vandaag het volume aan informatie en de snelheid ervan tijdens de vroege fasen van een crisis overdonderend kunnen zijn voor menselijke analisten en dat een AI-systeem die informatie kan verwerken zodat de menselijke besluitvormers het volledige spectrum van informatie binnen een passend tijdsbestek kunnen doorlopen en snel kunnen reageren;

96. benadrukt dat het belangrijk is te investeren in de ontwikkeling van menselijk kapitaal voor artificiële intelligentie en daarbij de vaardigheden en de opleidingen te bevorderen die nodig zijn op het gebied van AI-technologieën voor veiligheid en defensie, met bijzondere aandacht voor de ethische toelaatbaarheid van semiautonome en autonome operationele systemen op basis van menselijke verantwoordingsplicht in een op AI gebaseerde wereld; beklemtoont met name dat het belangrijk is op dit gebied ethici te hebben die over passende vaardigheden beschikken en hiertoe een degelijke opleiding krijgen; verzoekt de Commissie zo spoedig mogelijk haar “versterking van de vaardighedenagenda” voor te stellen, zoals aangekondigd in haar witboek over kunstmatige intelligentie van 19 februari 2020;

97. beklemtoont dat het gebruik van kwantumcomputers wel eens de revolutionairste ommekeer in het beslechten van conflicten met zich mee zou kunnen brengen sinds de introductie van kernwapens, en dringt er daarom op aan om van de verdere ontwikkeling van kwantumcomputertechnologie een prioriteit te maken voor de Unie en de lidstaten; onderkent dat gewapende aanvallen, onder meer op kritieke infrastructuur, met behulp van kwantumcomputers een conflictomgeving zullen scheppen waarin de beschikbare tijd voor besluitvorming ingrijpend wordt ingekort – van dagen en uren tot minuten en seconden – zodat de lidstaten ertoe gedwongen worden capaciteiten te ontwikkelen die hen binnen dat korte tijdsbestek beschermen, en zowel hun besluitvormers als militair personeel op te leiden om binnen dat korte tijdsbestek doeltreffend te reageren;

98. dringt aan op meer investeringen in Europese AI voor defensie en in de kritieke infrastructuur die daarvoor nodig is;

99. herinnert eraan dat de meeste huidige militaire mogendheden ter wereld reeds aanzienlijke O&O-inspanningen hebben geleverd in verband met de militaire dimensie van artificiële intelligentie; is van mening dat de Unie ervoor moet zorgen dat zij op dit gebied geen achterstand oploopt;

100. verzoekt de Commissie de capaciteitsopbouw voor cyberbeveiliging in te bedden in haar industriebeleid om de ontwikkeling en uitrol te garanderen van veilige, veerkrachtige en robuuste op AI gebaseerde systemen en robotica; verzoekt de Commissie onderzoek te doen naar het gebruik van op blockchain gebaseerde cyberbeveiligingsprotocollen en -toepassingen ter verbetering van de weerbaarheid, betrouwbaarheid en robuustheid van AI-infrastructuur aan de hand van modellen van gegevensversleuteling zonder tussenkomst; spoort de Europese belanghebbenden aan geavanceerde kenmerken te onderzoeken en te construeren die de opsporing vergemakkelijken van corrupte en kwaadaardige op AI gebaseerde systemen en robotica die de veiligheid van de Unie en de burgers zouden kunnen ondermijnen;

101. benadrukt dat alle AI-systemen op het gebied van defensie een concreet en duidelijk afgebakend missiekader moeten hebben, waarbij mensen over de mogelijkheid moeten beschikken om ingezette systemen op te sporen en te ontkoppelen of te deactiveren indien zij hun door een menselijke bevelvoerder vastgelegde en toegewezen missiekader verlaten, of mogelijk een escalerende of onbedoelde handeling uitvoeren; is van mening dat op AI gebaseerde systemen, producten en technologie voor militair gebruik uitgerust moeten zijn met een “zwarte doos” die alle gegevenstransacties van de machine registreert;

102. benadrukt dat de volledige aansprakelijkheid en verantwoordingsplicht voor het besluit om AI-systemen te ontwerpen, te ontwikkelen, uit te rollen en te gebruiken moeten berusten op menselijke actoren, aangezien alle wapensystemen moeten worden onderworpen aan zinvolle menselijke monitoring en controle, en het besluit om geweld te gebruiken bij de uitvoering van elke beslissing van een op AI gebaseerd wapensysteem dat dodelijke gevolgen kan hebben, moet afhangen van menselijke intenties; benadrukt dat er menselijke controle moet blijven bestaan voor de bevelvoering en controle van op AI gebaseerde systemen, in overeenstemming met de beginselen “human-in-the-loop”, “human-on-the loop” en “human-in-command” op het niveau van de militaire leiding; benadrukt dat op AI gebaseerde systemen de militaire leiding in staat moeten stellen de volledige verantwoordelijkheid op zich te nemen, het gebruik van dodelijk geweld te verantwoorden en het noodzakelijke beoordelingsniveau uit te oefenen om dodelijke of grootschalige destructieve actie via dergelijke systemen te kunnen ondernemen, en dat machines daartoe niet in staat zijn omdat er sprake moet zijn van onderscheidingsvermogen, evenredigheid en voorzorg; beklemtoont dat er een kader moet worden gecreëerd voor duidelijke en traceerbare toelating en verantwoordingsplicht in verband met het inzetten van slimme wapens en andere op AI gebaseerde systemen, waarbij unieke gebruikerskenmerken zoals biometrische kenmerken worden gebruikt zodat dergelijke wapens en systemen uitsluitend door bevoegd personeel kunnen worden ingezet;

Vervoer

103. benadrukt het potentieel van artificiële intelligentie, robotica en aanverwante technologieën voor alle vormen van autonoom vervoer over het spoor, over water en door de lucht, en ook voor het stimuleren van de modal shift en intermodaal vervoer, aangezien dergelijke technologieën kunnen helpen om de optimale combinatie van vervoerswijzen te vinden voor het vervoer van goederen en personen; benadrukt verder dat deze technologieën het potentieel hebben om het vervoer, logistieke processen en verkeersstromen efficiënter te maken en alle vormen van vervoer veiliger, slimmer en milieuvriendelijker te maken; wijst erop dat een ethische benadering van AI ook kan fungeren als systeem voor vroegtijdige waarschuwing, in het bijzonder met betrekking tot de veiligheid en efficiëntie van het vervoer;

104 benadrukt dat de wereldwijde concurrentie tussen bedrijven en economische regio’s betekent dat de Unie investeringen moet bevorderen en het internationale concurrentievermogen van bedrijven in de vervoerssector moet versterken door een gunstig klimaat te scheppen voor de ontwikkeling en toepassing van AI-oplossingen en verdere innovaties, waarbij in de Unie gevestigde bedrijven wereldleider kunnen worden op het gebied van de ontwikkeling van AI-technologieën;

105. benadrukt dat de vervoerssector in de Unie behoefte heeft aan een actualisering van het regelgevingskader met betrekking tot dergelijke opkomende technologieën en het gebruik ervan in de vervoerssector en aan een duidelijk ethisch kader voor het verwezenlijken van betrouwbare AI, onder meer met betrekking tot veiligheid, beveiliging, eerbiediging van de menselijke autonomie, toezicht en aansprakelijkheid, hetgeen zal leiden tot meer voordelen die door iedereen worden gedeeld en essentieel zullen zijn voor het stimuleren van investeringen in onderzoek en innovatie, de ontwikkeling van vaardigheden en de invoering van AI door overheidsdiensten, kmo’s, start-ups en bedrijven, en tegelijkertijd de bescherming van gegevens en de interoperabiliteit zal waarborgen, zonder dat dit een onnodige administratieve last voor bedrijven en consumenten met zich meebrengt;

106. merkt op dat de ontwikkeling en integratie van AI in de vervoerssector niet mogelijk zal zijn zonder moderne infrastructuur, die een essentieel deel uitmaakt van slimme vervoerssystemen; benadrukt dat aanhoudende verschillen in het ontwikkelingsniveau tussen de lidstaten het risico met zich meebrengen dat de minst ontwikkelde regio’s en hun inwoners van de voordelen van de ontwikkeling van autonome mobiliteit verstoken blijven; dringt erop aan dat de modernisering van vervoersinfrastructuur in de Unie, waaronder de integratie ervan in het 5G-netwerk, voldoende wordt gefinancierd;

107. pleit voor de ontwikkeling van voor de hele Unie geldende betrouwbare AI-normen voor alle vervoerswijzen, waaronder de autosector, en voor het testen van op AI gebaseerde voertuigen en aanverwante producten en diensten;

108. merkt op dat AI-systemen kunnen helpen om het aantal dodelijke verkeersslachtoffers aanzienlijk te verlagen, bijvoorbeeld door snellere reactietijden en een betere naleving van de regels; is echter van mening dat het gebruik van autonome voertuigen onmogelijk alle ongevallen kan uitbannen, en onderstreept dat dit de verklaarbaarheid van AI-beslissingen steeds belangrijker maakt om tekortkomingen en onbedoelde gevolgen van AI-beslissingen te rechtvaardigen;

Werkgelegenheid, rechten van werknemers, digitale vaardigheden en de werkplek

109. merkt op dat de toepassing van artificiële intelligentie, robotica en aanverwante technologieën op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en gevolgen kan hebben voor de gezondheid en veiligheid op het werk, en ook kan worden gebruikt voor het monitoren, evalueren, voorspellen en sturen van werknemersprestaties, wat zowel directe als indirecte gevolgen heeft voor hun loopbaanperspectieven; overwegende dat AI een positief effect moet hebben op de arbeidsomstandigheden en moet worden geleid door eerbiediging van de mensenrechten en de grondrechten en fundamentele waarden van de Unie; overwegende dat AI mensgericht moet zijn, het welzijn van mensen en de samenleving moet verbeteren en moet bijdragen tot een eerlijke en rechtvaardige transitie; overwegende dat dergelijke technologieën dan ook een positief effect moeten hebben op de arbeidsomstandigheden en moeten uitgaan van de eerbiediging van de mensenrechten, de grondrechten en fundamentele waarden van de Unie;

110. benadrukt de noodzaak van competentieontwikkeling via opleiding en training voor werknemers en hun vertegenwoordigers met betrekking tot AI op de werkplek om de implicaties van AI-oplossingen beter te begrijpen; benadrukt dat sollicitanten en werknemers naar behoren schriftelijk in kennis moeten worden gesteld indien AI wordt gebruikt in het kader van aanwervingsprocedures en andere beslissingen met betrekking tot het personeelsbeleid, en dat, wanneer dit het geval is, een menselijke beoordeling kan worden aangevraagd met het oog op het terugdraaien van een geautomatiseerde beslissing;

111. benadrukt dat erop toe moet worden gezien dat productiviteitswinsten als gevolg van de ontwikkeling en het gebruik van AI en robotica niet alleen ten goede komen aan de eigenaren en aandeelhouders van bedrijven, maar ook aan de bedrijven zelf en aan de werknemers via betere arbeidsvoorwaarden en -omstandigheden, onder meer lonen, economische groei en ontwikkeling, alsook aan de samenleving in het algemeen, met name wanneer dergelijke winsten ten koste gaan van de werkgelegenheid; verzoekt de lidstaten de mogelijke gevolgen van AI voor de arbeidsmarkt en de socialezekerheidsstelsels grondig te onderzoeken en strategieën te ontwikkelen om stabiliteit op de lange termijn te waarborgen door belastingen en bijdragen te hervormen, alsook door te voorzien in andere maatregelen in het geval van lagere overheidsinkomsten;

112. benadrukt het belang van bedrijfsinvesteringen in formele en informele opleidingen en een leven lang leren om de rechtvaardige transitie naar de digitale economie te ondersteunen; benadrukt in dit verband dat bedrijven die AI inzetten de verantwoordelijkheid hebben om alle betrokken werknemers passende om- en bijscholing te bieden, zodat zij kunnen leren hoe zij digitale instrumenten moeten gebruiken en met co-bots en andere nieuwe technologieën moeten werken, waardoor zij zich kunnen aanpassen aan de veranderende behoeften op de arbeidsmarkt en hun baan kunnen behouden;

113. is van mening dat bijzondere aandacht moet worden besteed aan nieuwe vormen van werk, zoals eenmalige klussen en platformwerk, die het gevolg zijn van de toepassing van nieuwe technologieën op dit gebied;  benadrukt dat bij het reguleren van de voorwaarden voor telewerk in de hele Unie en het garanderen van fatsoenlijke arbeidsvoorwaarden en -omstandigheden in de digitale economie eveneens rekening moet worden gehouden met de gevolgen van AI; verzoekt de Commissie in dit verband overleg te plegen met de sociale partners, AI-ontwikkelaars, onderzoekers en andere belanghebbenden;

114. benadrukt dat artificiële intelligentie, robotica en aanverwante technologieën op geen enkele wijze afbreuk mogen doen aan de uitoefening van de grondrechten zoals die in de lidstaten en op het niveau van de Unie zijn erkend, met inbegrip van het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de in de lidstaten bestaande bijzondere stelsels van arbeidsverhoudingen andere acties te voeren overeenkomstig het nationaal recht en/of de nationale praktijk, noch aan het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, of om collectieve actie te voeren overeenkomstig het nationaal recht en/of de nationale praktijk;

115. herhaalt het belang van onderwijs en permanente educatie om de kwalificaties te ontwikkelen die nodig zijn in het digitale tijdperk en om digitale uitsluiting aan te pakken; verzoekt de lidstaten te investeren in hoogwaardige, responsieve en inclusieve stelsels voor onderwijs, beroepsopleiding en een leven lang leren, alsook in om- en bijscholingsbeleid voor werknemers in sectoren die mogelijk zwaar worden getroffen door AI; benadrukt dat het noodzakelijk is de huidige en toekomstige beroepsbevolking te voorzien van de nodige lees- en schrijf-, reken- en digitale vaardigheden, alsook van competenties op het gebied van wetenschap, technologie, engineering en wiskunde (STEM) en horizontaal inzetbare zachte vaardigheden, zoals kritisch denken, creativiteit en ondernemerschap; benadrukt dat er in dit verband bijzondere aandacht moet worden besteed aan de inclusie van kansarme groepen;

116. wijst erop dat artificiële intelligentie, robotica en aanverwante technologieën die gebruikt worden op de werkplek voor iedereen toegankelijk moeten zijn volgens het beginsel van universeel ontwerp;

Onderwijs en cultuur

117. benadrukt de noodzaak om criteria te ontwikkelen voor de ontwikkeling, de uitrol en het gebruik van AI, waarbij rekening wordt gehouden met hun impact op het gebied van onderwijs, media, jeugd, onderzoek en sport en in de culturele en creatieve sectoren, door het ontwikkelen van benchmarks en het definiëren van beginselen voor ethisch verantwoord en geaccepteerd gebruik van AI-technologieën die op de juiste wijze kunnen worden toegepast op deze gebieden, met inbegrip van een duidelijke aansprakelijkheidsregeling voor producten die voortkomen uit het gebruik van AI;

118. is van mening dat elk kind recht heeft op openbaar kwaliteitsonderwijs op alle niveaus; dringt daarom aan op de ontwikkeling, de uitrol en het gebruik van hoogstaande AI-systemen die kwalitatief hoogwaardige pedagogische instrumenten mogelijk maken en verschaffen voor alle niveaus, en benadrukt dat de uitrol van nieuwe AI-systemen op scholen niet mag leiden tot een grotere digitale kloof in de maatschappij; is zich bewust van het enorme potentieel dat AI en robotica hebben in het onderwijs; merkt op dat de gepersonaliseerde leersystemen van AI niet in de plaats mogen komen van het pedagogische contact met leerkrachten en dat de traditionele onderwijsvormen niet mogen worden losgelaten, maar wijst er tegelijkertijd op dat financiële, technologische en educatieve ondersteuning, met inbegrip van gespecialiseerde opleidingen in informatie- en communicatietechnologie, moet worden geboden aan leerkrachten die passende vaardigheden willen verwerven om zich aan te passen aan de technologische veranderingen en niet alleen om het potentieel van AI te benutten, maar ook de beperkingen ervan te begrijpen; dringt aan op de ontwikkeling van een strategie op Unieniveau om onze onderwijsstelsels te helpen transformeren en actualiseren, onderwijsinstanties op alle niveaus voor te bereiden en ervoor te zorgen dat leraren en leerlingen de nodige vaardigheden en capaciteiten verwerven;

119. benadrukt dat onderwijsinstellingen ernaar moeten streven AI-systemen te gebruiken voor onderwijsdoeleinden waarvoor een Europees certificaat van ethische conformiteit is afgegeven;

120. benadrukt dat de mogelijkheden die de digitalisering en de nieuwe technologieën bieden, niet mogen resulteren in een algeheel verlies van banen in de culturele en creatieve sectoren, verwaarlozing van het bewaren van originelen of de afzwakking van de traditionele toegang tot het cultureel erfgoed, die juist moet worden aangemoedigd; merkt op dat AI-systemen die in de Unie worden ontwikkeld, uitgerold en gebruikt, een afspiegeling moeten vormen van haar culturele diversiteit en meertaligheid;

121. onderkent het steeds grotere potentieel van AI op het gebied van informatie, media en online-platforms, onder meer als een instrument om desinformatie tegen te gaan, in overeenstemming met het Unierecht; benadrukt dat niet-gereguleerde AI ook ethisch gezien schadelijke effecten kan hebben door het exploiteren van in gegevens en algoritmen vervatte vooringenomenheid, met de verspreiding van desinformatie en het creëren van informatiebubbels als mogelijk gevolg; benadrukt het belang van de transparantie van en de verantwoordingsplicht voor de algoritmen die door videodelingsplatforms (VSP’s) en streamingplatforms worden gebruikt, om de toegang tot cultureel en taalkundig gevarieerde inhoud te waarborgen;

Nationale toezichthoudende autoriteiten

122. wijst op de toegevoegde waarde van een aangewezen nationale toezichthoudende autoriteit in elke lidstaat die verantwoordelijk is voor het waarborgen, beoordelen en monitoren van conformiteit met wettelijke verplichtingen en ethische beginselen bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, waarmee wordt bijgedragen aan de naleving van de wettelijke en ethische voorschriften van deze technologieën;

123. is van mening dat van deze autoriteiten vereist wordt dat ze, zonder dubbel werk te leveren, samenwerken met de autoriteiten die verantwoordelijk zijn voor de uitvoering van sectorale wetgeving om in kaart te brengen welke technologieën uit ethisch oogpunt een hoog risico met zich meebrengen en om toezicht uit te oefenen op de uitvoering van de vereiste passende maatregelen indien er sprake is van dergelijke technologieën;

124. wijst erop dat dergelijke autoriteiten niet alleen onderling moeten samenwerken, maar ook met de Europese Commissie en andere relevante instellingen, organen en instanties van de Unie teneinde een samenhangend grensoverschrijdend optreden te garanderen;

125. stelt voor dat er in het kader van een dergelijke samenwerking gemeenschappelijke criteria en een aanvraagprocedure worden ontwikkeld voor de toekenning van een Europees certificaat van ethische conformiteit, waaronder naar aanleiding van een aanvraag van een ontwikkelaar, exploitant of gebruiker van niet als risicovol beschouwde technologieën, die zijn conformiteit na een positieve beoordeling door de respectieve nationale toezichthoudende autoriteit wenst te certificeren;

126. dringt erop aan deze autoriteiten te belasten met de taak om regelmatige uitwisselingen met het maatschappelijk middenveld en innovatie in de Unie te bevorderen door onderzoekers, ontwikkelaars en andere belanghebbenden, evenals bedrijven met een lager niveau van digitale rijpheid, in het bijzonder kleine en middelgrote ondernemingen of start-ups, bijstand te verlenen, in het bijzonder op het vlak van bewustmaking ten aanzien van en steun voor ontwikkeling, uitrol, opleiding en het aantrekken van talent om een doeltreffende technologieoverdracht en toegang tot technologieën, projecten, resultaten en netwerken te waarborgen;

127. dringt aan op voldoende financiering door alle lidstaten van hun aangewezen nationale toezichthoudende autoriteit en benadrukt dat de nationale markttoezichtautoriteiten moeten worden versterkt wat betreft capaciteit, vaardigheden en competenties, alsook kennis over de specifieke risico’s van artificiële intelligentie, robotica en aanverwante technologieën;

Coördinatie op Unieniveau

128. onderstreept het belang van coördinatie op het niveau van de Unie, zoals uitgevoerd door de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, teneinde versnippering te voorkomen en te zorgen voor een geharmoniseerde aanpak in de hele Unie; is van mening dat de coördinatie gericht moet zijn op de mandaten en acties van de nationale toezichthoudende autoriteiten in elke lidstaat als bedoeld in het vorige onderdeel, alsook op het delen van beste praktijken tussen die autoriteiten en het bijdragen aan de samenwerking op het gebied van onderzoek en ontwikkeling in de hele Unie; verzoekt de Commissie de meest geschikte oplossing voor het structureren van deze coördinatie te beoordelen en te hanteren; geeft aan dat voorbeelden van bestaande instellingen, organen en instanties van de Unie Enisa, de EDPS en de Europese Ombudsman zijn;

129. is ervan overtuigd dat een dergelijke coördinatie en een Europees certificaat van ethische conformiteit in dat kader niet alleen gunstig zouden zijn voor de ontwikkeling van het bedrijfsleven en van innovatie in de Unie, maar burgers ook bewuster zou maken van de kansen en risico’s die met deze technologieën gemoeid zijn;

130. stelt voor om een kenniscentrum op te richten, waarin de academische wereld, onderzoeksinstellingen, het bedrijfsleven en individuele deskundigen op Unieniveau bijeen worden gebracht, om de uitwisseling van kennis en technische expertise te bevorderen en samenwerking binnen en buiten de Unie te faciliteren; dringt er verder op aan dat bij dit kenniscentrum organisaties van belanghebbenden worden betrokken, zoals organisaties voor consumentenbescherming, om brede consumentenvertegenwoordiging te waarborgen; is van mening dat vanwege de mogelijk onevenredige impact van algoritmische systemen op vrouwen en minderheden, de besluitvormingsniveaus van een dergelijke structuur divers moeten zijn en gendergelijkheid moeten waarborgen; benadrukt dat de lidstaten in het kader van hun nationale strategieën voor markttoezicht risicobeheerstrategieën voor AI moeten ontwikkelen;

131.  stelt voor dat de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, de nationale toezichthoudende autoriteiten alle nodige bijstand verlenen met betrekking tot hun rol als eerste aanspreekpunt in geval van vermoede schendingen van de wettelijke verplichtingen en ethische beginselen die zijn vastgelegd in het regelgevingskader van de Unie voor AI, met inbegrip van het non-discriminatiebeginsel; is van mening dat zij ook de nodige bijstand moet verlenen aan nationale toezichthoudende autoriteiten in gevallen waarin deze conformiteitsbeoordelingen uitvoeren ter ondersteuning van het recht van burgers om bezwaar aan te tekenen en verhaal te halen, en wel door zich, indien van toepassing, te scharen achter de raadpleging van andere bevoegde autoriteiten in de Unie, met name het netwerk voor samenwerking op het gebied van consumentenbescherming en nationale instanties voor consumentenbescherming, maatschappelijke organisaties en sociale partners in andere lidstaten;

132. onderkent de waardevolle resultaten van de deskundigengroep op hoog niveau inzake artificiële intelligentie, bestaande uit vertegenwoordigers van de academische wereld, het maatschappelijk middenveld en de industrie, alsook van de Europese AI-alliantie, met name de “Ethische richtsnoeren voor betrouwbare kunstmatige intelligentie”, en stelt voor dat deze groep expertise kan verstrekken aan de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen;

133. neemt kennis van de opname van aan AI gerelateerde projecten in het industrieel ontwikkelingsprogramma voor de Europese defensie (EDIDP); is van mening dat het toekomstige Europees Defensiefonds (EDF) en de permanente gestructureerde samenwerking (PESCO) ook kaders voor toekomstige aan AI gerelateerde projecten kunnen bieden die niet alleen kunnen bijdragen aan een betere stroomlijning van de inspanningen van de Unie op dit gebied, maar ook aan de doelstelling van de Unie om de mensenrechten, het internationaal recht en multilaterale oplossingen te versterken; beklemtoont dat aan AI gerelateerde projecten moeten worden gesynchroniseerd met de bredere civiele programma’s van de Unie die aan AI gewijd zijn; merkt op dat er, overeenkomstig het witboek van de Europese Commissie over kunstmatige intelligentie van 19 februari 2020, excellentie- en testcentra moeten worden opgericht die zich bezighouden met onderzoek naar en ontwikkeling van AI op het gebied van veiligheid en defensie, en dat voor die oprichting gedetailleerde specificaties moeten gelden die de deelname van en investeringen door particuliere belanghebbenden ondersteunen;

134. neemt kennis van het witboek van de Commissie over kunstmatige intelligentie van 19 februari 2020 en betreurt het dat militaire aspecten daarin niet aan de orde zijn gekomen; dringt er bij de Commissie en de VV/HV op aan om, ook als onderdeel van een algemene aanpak, een sectorale AI-strategie voor defensiegerelateerde activiteiten binnen het kader van de Unie voor te stellen, waarin zowel rekening wordt gehouden met de rechten van de burgers als met de strategische belangen van de Unie en die gebaseerd is op een consistente aanpak, gaande van de ontwikkeling van op AI gebaseerde systemen tot het militair gebruik ervan; dringt er tevens bij de Commissie op aan binnen de deskundigengroep op hoog niveau inzake artificiële intelligentie een werkgroep inzake veiligheid en defensie op te richten die zich specifiek moet bezighouden met beleids- en investeringsvraagstukken, alsook met ethische aspecten van AI op het gebied van veiligheid en defensie; verzoekt de Raad, de Commissie en de VV/HV om daartoe een gestructureerde dialoog met het Parlement aan te gaan;

Europees certificaat van ethische conformiteit

135. stelt voor dat er in het kader van coördinatie op het niveau van de Unie gemeenschappelijke criteria en een aanvraagprocedure voor de toekenning van een Europees certificaat van ethische conformiteit worden ontwikkeld, waaronder naar aanleiding van een aanvraag van een ontwikkelaar, exploitant of gebruiker van niet als risicovol beschouwde technologieën, die zijn conformiteit na een positieve beoordeling door de respectieve nationale toezichthoudende autoriteit wenst te certificeren;

136. is van mening dat een dergelijk Europees certificaat van ethische conformiteit bevorderlijk zou zijn voor ethisch ontwerp in de hele toeleveringsketen van AI-ecosystemen; stelt daarom voor dat deze certificering, in het geval van technologieën met een hoog risico, een verplichte voorwaarde kan zijn om in aanmerking te komen voor openbare aanbestedingsprocedures voor artificiële intelligentie, robotica en aanverwante technologieën;

Internationale samenwerking

137. is van mening dat doeltreffende samenwerking en ethische normen over de grenzen heen alleen kunnen worden bereikt als alle belanghebbenden zich ertoe verbinden te zorgen voor menselijke controle en menselijk toezicht, technische robuustheid en veiligheid, transparantie en verantwoordingsplicht, diversiteit, non-discriminatie en billijkheid, maatschappelijk en ecologisch welzijn en eerbiediging van de gevestigde beginselen van privacy, gegevensbeheer en gegevensbescherming – met name de beginselen die zijn vastgelegd in Verordening (EU) 2016/679 van het Europees Parlement en de Raad;

138. benadrukt dat de wettelijke verplichtingen en ethische beginselen van de Unie voor de ontwikkeling, de uitrol en het gebruik van deze technologieën van Europa een wereldleider kunnen maken in de sector artificiële intelligentie en dat deze verplichtingen en beginselen dan ook wereldwijd moeten worden bevorderd door middel van samenwerking met internationale partners, terwijl de kritische en op ethiek gebaseerde dialoog wordt voortgezet met derde landen die beschikken over alternatieve modellen voor de regulering, de ontwikkeling en de uitrol van artificiële intelligentie;

139. herinnert eraan dat de kansen en risico’s die inherent zijn aan deze technologieën een mondiale dimensie hebben, aangezien de software en de gegevens die voor deze systemen worden gebruikt vaak worden geïmporteerd in en geëxporteerd uit de Unie, en dat er daarom behoefte is aan een consistente benadering van de samenwerking op internationaal niveau; verzoekt de Commissie het initiatief te nemen om te beoordelen welke bilaterale en multilaterale verdragen en overeenkomsten moeten worden aangepast om een consequente aanpak te waarborgen en het Europese model van ethische conformiteit wereldwijd te bevorderen;

140. wijst op de toegevoegde waarde van coördinatie op Unieniveau, waarnaar hierboven al werd verwezen;

141. dringt erop aan synergieën en netwerken tot stand te brengen tussen de verschillende Europese onderzoekscentra die zich bezighouden met AI en tussen andere multilaterale fora zoals de Raad van Europa, de Organisatie van de Verenigde Naties voor Onderwijs, Wetenschap en Cultuur (Unesco), de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), de Wereldhandelsorganisatie en de Internationale Telecommunicatie-unie (ITU), om hun inspanningen op elkaar af te stemmen en de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën beter te coördineren;

142. benadrukt dat de Unie het voortouw moet nemen bij de ondersteuning van multilaterale inspanningen die besproken zullen worden in het kader van de Groep van regeringsdeskundigen inzake het CWV van de VN en andere relevante fora, om een doeltreffend internationaal regelgevingskader te bespreken dat zinvolle menselijke controle over autonome wapensystemen waarborgt teneinde deze technologieën te beheersen door goed gedefinieerde, op benchmarks gebaseerde processen en regelgeving voor het ethisch gebruik ervan vast te stellen, in overleg met belanghebbenden uit de strijdkrachten, de industrie, de wetshandhaving, de academische wereld en het maatschappelijk middenveld, om inzicht te verwerven in de desbetreffende ethische aspecten, om de inherente risico’s van deze technologieën te beheersen en om het gebruik ervan voor kwaadaardige doeleinden te voorkomen; 

143. erkent de rol van de NAVO bij de bevordering van de Euro-Atlantische veiligheid en dringt aan op samenwerking binnen de NAVO voor het vaststellen van gemeenschappelijke normen en interoperabiliteit van defensiegerelateerde AI-systemen; beklemtoont dat de trans-Atlantische relatie van belang is voor het behoud van gedeelde waarden en het afwenden van toekomstige en nieuwe bedreigingen;

144. beklemtoont dat er een ethische gedragscode moet worden opgesteld voor de uitrol van op AI gebaseerde systemen als wapen in militaire operaties, te vergelijken met het bestaande regelgevingskader dat het gebruik van chemische en biologische wapens verbiedt; is van mening dat de Commissie het initiatief moet nemen voor de opstelling van normen voor het gebruik van op AI gebaseerde wapensystemen bij oorlogsvoering in overeenstemming met het internationaal humanitair recht, en dat de Unie moet ijveren voor de internationale goedkeuring van deze normen; is van mening dat de Unie op internationale fora aan AI-diplomatie moet doen met gelijkgezinde partners zoals de G7, de G20 en de OESO;

Overige aspecten

145. concludeert naar aanleiding van bovenstaande beschouwingen over aspecten met betrekking tot de ethische dimensie van artificiële intelligentie, robotica en aanverwante technologieën, dat de juridische en ethische dimensie moet worden opgenomen in een doeltreffend, toekomstgericht en alomvattend regelgevingskader op Unieniveau, dat de steun geniet van nationale bevoegde autoriteiten, dat wordt gecoördineerd en versterkt door de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, dat regelmatig wordt ondersteund door het eventuele, eerder genoemde expertisecentrum en dat binnen de interne markt naar behoren wordt geëerbiedigd en gecertificeerd;

146. verzoekt de Commissie overeenkomstig de procedure van artikel 225 van het Verdrag betreffende de werking van de Europese Unie een voorstel in te dienen voor een verordening betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie en op basis van de gedetailleerde aanbevelingen die zijn opgenomen in de bijlage; wijst erop dat het voorstel geen afbreuk mag doen aan sectorspecifieke wetgeving, maar alleen betrekking mag hebben op vastgestelde lacunes;

147. beveelt de Europese Commissie aan, na raadpleging van alle betrokken belanghebbenden en in overeenstemming met de aanbevelingen die zijn opgenomen in de bijlage bij dit verslag de bestaande Uniewetgeving die van toepassing is op artificiële intelligentie, robotica en aanverwante technologieën indien noodzakelijk te herzien om ervoor te zorgen dat naar behoren rekening wordt gehouden met de snelheid waarmee deze technologieën worden ontwikkeld, maar daarbij overregulering te voorkomen, waaronder voor kmo’s;

148. is van mening dat een periodieke beoordeling en, indien nodig, herziening van het regelgevingskader van de Unie in verband met artificiële intelligentie, robotica en aanverwante technologieën van het allergrootste belang zijn om ervoor te zorgen dat de toepasselijke wetgeving gelijke tred houdt met de snelle vooruitgang van de technologie;

149. is van mening dat het verlangde wetgevingsvoorstel financiële gevolgen zal hebben als een Europees orgaan belast wordt met de hierboven genoemde coördinatietaken vanwege de technische en personele middelen die het nodig heeft om de extra toegewezen taken te vervullen;

150. verzoekt zijn Voorzitter deze resolutie en bijgaande gedetailleerde aanbevelingen te doen toekomen aan de Commissie en de Raad.


BIJLAGE BIJ DE ONTWERPRESOLUTIE: GEDETAILLEERDE AANBEVELINGEN BETREFFENDE DE INHOUD VAN HET VERLANGDE VOORSTEL

A. BEGINSELEN EN DOELSTELLINGEN VAN HET VERLANGDE VOORSTEL

I. De belangrijkste beginselen en doelstellingen van het voorstel zijn:

˗  het opbouwen van vertrouwen op alle niveaus van belanghebbenden en in de samenleving op het vlak van artificiële intelligentie, robotica en aanverwante technologieën, met name wanneer zij als risicovol worden beschouwd;

˗  het ondersteunen van de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën in de Unie, onder meer door bedrijven, start-ups en kleine en middelgrote ondernemingen te helpen de huidige en toekomstige regelgevingsvereisten en risico’s tijdens het proces van innovatie en bedrijfsontwikkeling en de daaropvolgende gebruiksfase door professionals en particulieren met zekerheid te beoordelen en aan te pakken, door de lasten en administratieve rompslomp tot een minimum te beperken;

˗  het ondersteunen van de uitrol van artificiële intelligentie, robotica en aanverwante technologieën in de Unie door het juiste en evenredige regelgevingskader te verschaffen dat van toepassing moet zijn zonder afbreuk te doen aan bestaande of toekomstige sectorale wetgeving, met als doel regelgevingszekerheid en innovatie te bevorderen, en tegelijkertijd de grondrechten en de bescherming van de consument te waarborgen;

˗  het ondersteunen van het gebruik van artificiële intelligentie, robotica en aanverwante technologieën in de Unie door te garanderen dat ze worden ontwikkeld, uitgerold en gebruikt op een wijze die in overeenstemming is met de ethische beginselen;

˗  het eisen van transparantie en betere informatiestromen onder burgers en binnen organisaties die artificiële intelligentie, robotica en aanverwante technologieën ontwikkelen, uitrollen en gebruiken, teneinde te garanderen dat deze technologieën conform de Uniewetgeving, grondrechten en fundamentele waarden, en de ethische beginselen van het verlangde voorstel voor een verordening zijn.

II. Het voorstel bestaat uit de volgende elementen:

˗  een verordening betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën;de coördinerende rol op het niveau van de Unie door de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen en een Europees certificaat van ethische conformiteit;

˗  de ondersteunende rol van de Europese Commissie;

˗  de rol van de toezichthoudende autoriteit in elke lidstaat om erop toe te zien dat ethische beginselen worden toegepast op artificiële intelligentie, robotica en aanverwante technologieën;

˗  de betrokkenheid en raadpleging van, evenals het bieden van ondersteuning aan onderzoeks- en ontwikkelingsprojecten en belanghebbenden op dit gebied, met inbegrip van start-ups, kleine en middelgrote ondernemingen, bedrijven, sociale partners en andere vertegenwoordigers van het maatschappelijk middenveld;

˗  een bijlage met een volledige en cumulatieve lijst van sectoren, toepassingen en doeleinden met een hoog risico;

III. De verordening betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën is gebaseerd op de volgende beginselen:

˗  mensgerichte, door de mens vervaardigde en gecontroleerde artificiële intelligentie, robotica en aanverwante technologieën;

˗  verplichte beoordeling van de conformiteit van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico;

˗  veiligheid, transparantie en verantwoordingsplicht;

˗  waarborgen en rechtsmiddelen om vooringenomenheid en discriminatie tegen te gaan;

˗  recht op verhaal;

˗  maatschappelijke verantwoordelijkheid en gendergelijkheid in artificiële intelligentie, robotica en aanverwante technologieën;

˗  ecologisch duurzame artificiële intelligentie, robotica en aanverwante technologieën;

˗  eerbiediging van privacy en beperkingen van het gebruik van biometrische herkenning;

˗  goede governance met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de gegevens die door dergelijke technologieën worden gebruikt of geproduceerd.

IV. Met het oog op de coördinatie op het niveau van de Unie moet(en) de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen de volgende hoofdtaken uitvoeren:

˗  samenwerken bij de monitoring van de uitvoering van het voorstel voor een verordening waarom is verzocht en de desbetreffende sectorale wetgeving van de Unie;

˗  samenwerken bij de opstelling van richtsnoeren voor de consistente toepassing van het voorstel voor een verordening waarom is verzocht, d.w.z. de toepassing van de criteria voor artificiële intelligentie, robotica en aanverwante technologieën om als risicovol te worden beschouwd en de lijst van sectoren, toepassingen en doeleinden met een hoog risico die in de bijlage bij de verordening staan genoemd;

˗  samenwerken met de toezichthoudende autoriteit in elke lidstaat bij de ontwikkeling van een Europees certificaat van conformiteit met ethische beginselen en wettelijke verplichtingen zoals vastgelegd in het voorstel voor een verordening waarom is verzocht en het toepasselijke Unierecht, alsmede de ontwikkeling van een aanvraagprocedure voor ontwikkelaars, exploitanten of gebruikers van technologieën die niet als risicovol worden beschouwd en die proberen te certificeren dat zij voldoen aan het voorstel voor een verordening waarom is verzocht;

˗  samenwerken bij de ondersteuning van sector- en grensoverschrijdende samenwerking via regelmatige uitwisselingen met belanghebbenden en het maatschappelijk middenveld, in en buiten de Unie, met name met bedrijven, sociale partners, onderzoekers en bevoegde autoriteiten, waaronder met betrekking tot de ontwikkeling van technische normen op internationaal niveau;

˗  samenwerken met de toezichthoudende autoriteit in elke lidstaat met het oog op de vaststelling van bindende richtsnoeren voor de methodologie die moet worden gevolgd voor de conformiteitsbeoordeling die elke toezichthoudende autoriteit moet uitvoeren;

˗  samenwerken bij het onderhouden van contact met de toezichthoudende autoriteit in elke lidstaat en het coördineren van hun mandaat en taken;

˗  samenwerken voor het kweken van bewustzijn, het verstrekken van informatie en het deelnemen aan uitwisselingen met ontwikkelaars, exploitanten en gebruikers in de hele Unie;

˗  samenwerken voor het kweken van bewustzijn, het verstrekken van informatie, het bevorderen van digitale geletterdheid, scholing en vaardigheden en het deelnemen aan uitwisselingen met ontwerpers, ontwikkelaars, exploitanten, gebruikers en institutionele organen in de hele Unie en internationaal;

˗  samenwerken bij de coördinatie van een gemeenschappelijk kader voor de governance van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën dat door de toezichthoudende autoriteit in elke lidstaat moet worden toegepast;

˗  samenwerken met betrekking tot het fungeren als expertisecentrum door de uitwisseling van informatie te bevorderen en de ontwikkeling van een gemeenschappelijke visie op de interne markt te ondersteunen;

˗  samenwerken bij het voorzitten van een werkgroep inzake veiligheid en defensie.

V. Daarnaast moet de Commissie de volgende taken uitvoeren:

˗  het opstellen en vervolgens door middel van gedelegeerde handelingen bijwerken van een gemeenschappelijke lijst van technologieën met een hoog risico die binnen de Unie, in samenwerking met de toezichthoudende autoriteit in elke lidstaat, in kaart zijn gebracht;

˗  het door middel van gedelegeerde handelingen bijwerken van de lijst in de bijlage bij de verordening.

VI. De toezichthoudende autoriteit in elke lidstaat moet de volgende hoofdtaken uitvoeren:

˗  bijdragen tot de consistente toepassing van het regelgevingskader dat is vastgesteld in het voorstel voor een verordening waarom is verzocht, in samenwerking met de toezichthoudende autoriteit in de andere lidstaten alsook met andere autoriteiten die verantwoordelijk zijn voor de uitvoering van sectorale wetgeving, de Commissie en/of de relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, d.w.z. wat betreft de toepassing van de risicobeoordelingscriteria waarin het verlangde voorstel voor een verordening voorziet, en van de lijst van sectoren, toepassingen of doeleinden met een hoog risico in de bijlage, en het daarop volgende toezicht op de uitvoering van de vereiste en juiste maatregelen indien er sprake is van technologieën met een hoog risico als resultaat van een dergelijke toepassing;

˗  beoordelen of in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten worden beschouwd als technologieën met een hoog risico in overeenstemming met de criteria voor risicobeoordeling die worden genoemd in het verlangde voorstel voor een verordening en op de lijst in de bijlage bij de verordening;

˗  afgifte van een Europees certificaat van conformiteit met ethische beginselen en wettelijke verplichtingen zoals vastgelegd in het verlangde voorstel voor een verordening en het toepasselijke Unierecht, ook wanneer dit voortvloeit uit een aanvraagprocedure voor ontwikkelaars, exploitanten of gebruikers van technologieën die niet als risicovol worden beschouwd, en die wensen te certificeren dat zij voldoen aan het verlangde voorstel voor een verordening, zoals ontwikkeld door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen;

˗  het beoordelen en monitoren van hun naleving van ethische beginselen en wettelijke verplichtingen zoals vastgelegd in het verlangde voorstel voor een verordening en het toepasselijke recht van de Unie;

˗  verantwoordelijkheid voor het vaststellen en ten uitvoer leggen van de normen voor de governance van artificiële intelligentie, robotica en aanverwante technologieën, onder meer door contact te leggen en op regelmatige basis een dialoog te onderhouden met alle belanghebbenden en vertegenwoordigers van het maatschappelijk middenveld; het daartoe samenwerken met de Commissie en alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen voor de coördinatie van een gemeenschappelijk kader op het niveau van de Unie;

˗  het kweken van bewustzijn, het verstrekken van informatie over artificiële intelligentie, robotica en aanverwante technologieën aan het publiek, en het ondersteunen van opleidingen in relevante beroepen, onder meer in de rechterlijke macht, om burgers en werknemers in staat te stellen de digitale geletterdheid, vaardigheden en instrumenten te verwerven die nodig zijn voor een eerlijke transitie;

˗  fungeren als eerste aanspreekpunt in geval van vermoede schending van de wettelijke verplichtingen en ethische beginselen die zijn vastgelegd in het verlangde voorstel voor een verordening, en in dergelijke gevallen een conformiteitsbeoordeling uitvoeren; in het kader van deze conformiteitsbeoordeling kan zij andere bevoegde autoriteiten in de Unie raadplegen en/of informeren, met name het netwerk voor samenwerking op het gebied van consumentenbescherming, nationale instanties voor consumentenbescherming, maatschappelijke organisaties en sociale partners.

VII. De voornaamste rol van de belanghebbenden moet zijn om in contact te treden met de Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen en de toezichthoudende autoriteit in elke lidstaat.

B. TEKST VAN HET VERLANGDE WETGEVINGSVOORSTEL

Voorstel voor een

VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD

betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën

Gezien het Verdrag betreffende de werking van de Europese Unie, en met name artikel 114,

Gezien het voorstel van de Europese Commissie,

Na toezending van het ontwerp van wetgevingshandeling aan de nationale parlementen,

Gezien het advies van het Europees Economisch en Sociaal Comité,

Handelend volgens de gewone wetgevingsprocedure,

Overwegende hetgeen volgt:

(1) De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, dienen gebaseerd te zijn op een streven om de maatschappij te dienen. Er kunnen kansen en risico’s met deze technologieën gemoeid zijn waaraan aandacht moet worden besteed en die moeten worden gereguleerd aan de hand van een alomvattend regelgevingskader op het niveau van de Unie dat een afspiegeling vormt van de ethische beginselen waaraan moet worden voldaan vanaf het moment dat dergelijke technologieën worden ontwikkeld en uitgerold tot aan hun gebruik.

(2) Conformiteit met een dergelijk regelgevingskader bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën in de Unie worden gebruikt of geproduceerd, moet in alle lidstaten van een gelijkwaardig niveau zijn teneinde de kansen doeltreffend te benutten en de risico’s van dergelijke technologieën consequent aan te pakken, alsmede versnippering van de regelgeving te voorkomen. Er moet een homogene toepassing in de hele Unie worden gegarandeerd van de voorschriften uit deze verordening.

(3) In dit kader vormt de huidige waaier aan regels en werkwijzen die in de Unie moeten worden gevolgd een aanzienlijk risico op versnippering van de interne markt en voor de bescherming van het welzijn en de welvaart van zowel personen als de maatschappij en voor een samenhangende analyse van het volledige potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben met betrekking tot de bevordering van innovatie en de instandhouding van dat welzijn en die welvaart. Verschillen in de mate waarin ontwikkelaars, exploitanten en gebruikers rekening houden met de ethische dimensie die inherent is aan deze technologieën kunnen beletten dat ze vrij in de Unie worden ontwikkeld, uitgerold of gebruikt, en dergelijke verschillen kunnen een obstakel vormen voor een gelijk speelveld, het streven naar technologische vooruitgang en de uitoefening van economische activiteiten op Unieniveau, de mededinging verstoren en het voor autoriteiten moeilijk maken hun verplichtingen op grond van de Uniewetgeving na te komen. Daarnaast resulteert de afwezigheid van een gemeenschappelijk regelgevingskader, waarin ook ethische beginselen worden weerspiegeld, voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën in rechtsonzekerheid voor alle betrokkenen, met name ontwikkelaars, exploitanten en gebruikers.

(4) Deze verordening draagt weliswaar bij aan een coherente aanpak op Unieniveau binnen de daar geldende limieten, maar desalniettemin moet in die verordening een zekere uitvoeringsvrijheid worden geboden aan de lidstaten, onder meer met betrekking tot de manier waarop het mandaat van de respectieve nationale toezichthoudende autoriteit moet worden uitgevoerd met het oog op de in de verordening vastgelegde doelstelling die deze moet nastreven.

(5) Deze verordening laat bestaande of toekomstige sectorale wetgeving onverlet. De verordening moet in verhouding staan tot de doelstelling ervan om innovatie in de Unie niet onnodig te belemmeren en moet in overeenstemming zijn met een op risico’s gebaseerde aanpak.

(6) Het geografische toepassingsgebied van een dergelijk kader moet alle componenten van artificiële intelligentie, robotica en aanverwante technologieën bestrijken tijdens de ontwikkeling, de uitrol en het gebruik daarvan in de Unie, ook in gevallen waarin een deel van deze technologieën zich mogelijk buiten de Unie bevindt of niet één specifieke locatie heeft, zoals bij cloudcomputingdiensten.

(7) Een gemeenschappelijke interpretatie in de Unie van begrippen als “artificiële intelligentie”, “robotica”, “aanverwante technologieën” en “biometrische herkenning” is vereist teneinde een geharmoniseerde regelgevingsbenadering mogelijk te maken en daarmee rechtszekerheid te verschaffen voor burgers en bedrijven. Ze moeten technologisch neutraal zijn en zo nodig opnieuw worden bezien.

(8) Daarnaast moet er aandacht worden besteed aan het feit dat er technologieën bestaan in verband met artificiële intelligentie en robotica die het mogelijk maken met behulp van software fysieke of virtuele processen te besturen, waarbij de mate van autonomie verschilt[13]. Voor geautomatiseerde voertuigen zijn er bijvoorbeeld zes niveaus van geautomatiseerd rijden voorgesteld in de internationale SAE-norm J3016.

(9) De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten menselijke capaciteiten aanvullen in plaats van vervangen en moeten op dusdanige wijze worden uitgevoerd dat het algemeen belang van de burgers niet wordt geschaad en dat er wordt voldaan aan de Uniewetgeving, de grondrechten die zijn opgenomen in het Handvest van de grondrechten van de Europese Unie (het “Handvest”), de vaste rechtspraak van het Hof van Justitie van de Europese Unie en andere Europese en internationale instrumenten die in de Unie gelden.

(10) Beslissingen die worden genomen met behulp van of door artificiële intelligentie, robotica en aanverwante technologieën dienen nog steeds te worden onderworpen aan zinvolle evaluaties, beoordelingen, interventies en controles door mensen. De technische en operationele complexiteit van dergelijke technologieën mag nooit tot gevolg hebben dat de exploitant of gebruiker niet op zijn minst in staat is de technologieën op een faalveilige manier af te sluiten, de werking ervan te wijzigen of stop te zetten, of terug te keren naar een vorige toestand waarbij de veilige functies worden hersteld in gevallen waarin de conformiteit met het Unierecht en met de ethische beginselen en wettelijke verplichtingen die worden beschreven in deze verordening in het gedrang komt.

(11) Artificiële intelligentie, robotica en aanverwante technologieën waarvan de ontwikkeling, de uitrol en het gebruik een aanzienlijk risico inhouden op het veroorzaken van letsel of schade voor personen of de samenleving, wat in strijd is met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie, moeten als technologieën met een hoog risico worden beschouwd. Met het oog op de beoordeling van deze technologieën als risicovol, moet rekening worden gehouden met de sector waarin zij worden ontwikkeld, uitgerold of gebruikt, het specifieke gebruik of het specifieke doel ervan en de ernst van het letsel of de schade die naar verwachting optreedt. De ernst van de schade moet worden bepaald op basis van de omvang van het potentiële letsel of de potentiële schade, het aantal betrokken personen, de totale waarde van de veroorzaakte schade en de schade voor de samenleving als geheel. Ernstige soorten letsel en schade zijn bijvoorbeeld schendingen van de rechten van kinderen, consumenten of werknemers die, vanwege de omvang ervan, het aantal getroffen kinderen, consumenten of werknemers of de gevolgen ervan voor de samenleving als geheel, een aanzienlijk risico inhouden op schending van de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie. Deze verordening moet voorzien in een volledige en cumulatieve lijst van sectoren, toepassingen en doeleinden met een hoog risico.

(12) De verplichtingen die zijn vastgelegd in deze verordening, vooral met betrekking tot technologieën met een hoog risico, mogen alleen van toepassing zijn op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd en die, na de in deze verordening bedoelde risicobeoordeling, als risicovol worden beschouwd. Deze verplichtingen moeten worden nagekomen onverminderd de algemene verplichting dat alle artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, in de Unie op mensgerichte wijze moeten worden ontwikkeld, uitgerold en gebruikt op basis van de beginselen van menselijke autonomie en menselijke veiligheid en in overeenstemming van het recht van de Unie en met volledige eerbiediging van de grondrechten zoals de menselijke waardigheid, het recht op vrijheid en veiligheid en het recht op persoonlijke integriteit.

(13) Technologieën met een hoog risico moeten voldoen aan de beginselen van veiligheid, transparantie, verantwoordingsplicht, geen vooringenomenheid of discriminatie, sociale verantwoordelijkheid en gendergelijkheid, recht op verhaal, milieuduurzaamheid, privacy en goed bestuur, na een onpartijdige, objectieve en externe risicobeoordeling door de nationale toezichthoudende autoriteit in overeenstemming met de criteria van deze verordening en de lijst in de bijlage daarbij. Bij deze beoordeling moet rekening worden gehouden met de standpunten en eventuele zelfbeoordelingen van de ontwikkelaar of exploitant.

(14) De Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen, moeten niet-bindende uitvoeringsrichtsnoeren opstellen voor ontwikkelaars, exploitanten en gebruikers over de methodologie die moet worden gehanteerd om te voldoen aan deze verordening. Daarbij dienen zij de betrokken belanghebbenden te raadplegen.

(15) Er moet binnen de Unie samenhang zijn wat betreft de risicobeoordeling van deze technologieën, met name indien zij worden beoordeeld in het licht van deze verordening en in overeenstemming met eventuele toepasselijke sectorspecifieke wetgeving. Dienovereenkomstig moeten de nationale toezichthoudende autoriteiten andere autoriteiten die risicobeoordelingen uitvoeren in overeenstemming met sectorspecifieke wetgeving informeren wanneer deze technologieën op grond van de risicobeoordeling waarin deze verordening voorziet, als risicovol worden beoordeeld.

(16) Met het oog op de betrouwbaarheid moeten artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, op een veilige, transparante en verantwoorde manier worden ontwikkeld, uitgerold en gebruikt in overeenstemming met de veiligheidskenmerken van robuustheid, veerkracht, veiligheid, nauwkeurigheid en foutidentificatie, verklaarbaarheid, interpreteerbaarheid, controleerbaarheid, transparantie en identificeerbaarheid, en op een manier die het mogelijk maakt de functies in kwestie tijdelijk uit te zetten of terug te keren naar een vorige toestand waarbij de veilige functies worden hersteld in gevallen waarin niet wordt voldaan aan die kenmerken. Transparantie moet worden gewaarborgd, en wel door overheidsinstanties, indien dit strikt noodzakelijk is, toegang te verlenen tot technologie, gegevens en computersystemen die aan dergelijke technologieën ten grondslag liggen.

(17) Ontwikkelaars, exploitanten en gebruikers van artificiële intelligentie, robotica en aanverwante technologieën, vooral technologieën met een hoog risico zijn in uiteenlopende mate verantwoordelijk voor de naleving van de beginselen van veiligheid, transparantie en verantwoordingsplicht in de mate dat zij betrokken zijn bij de technologieën in kwestie, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd. Ontwikkelaars moeten garanderen dat de technologieën in kwestie worden ontworpen en vervaardigd in overeenstemming met de in deze verordening beschreven veiligheidskenmerken, en exploitanten en gebruikers moeten de technologieën in kwestie uitrollen en gebruiken met volledige inachtneming van die kenmerken. Hiertoe dienen de ontwikkelaars van technologieën met een hoog risico de risico’s op misbruik die redelijkerwijs te verwachten zijn bij de technologieën die zij ontwikkelen, te evalueren en daarop in te spelen. Zij moeten er ook voor zorgen dat de systemen die zij ontwikkelen, voor zover mogelijk en met passende middelen, zoals disclaimerberichten, de kans op fouten of onnauwkeurigheden aangeven.

(18) Ontwikkelaars en exploitanten moeten daaropvolgende updates van de technologieën in kwestie beschikbaar stellen aan de gebruikers, met name op softwaregebied, in overeenstemming met de verplichtingen die zijn vastgesteld in de overeenkomst of in de Unie- of nationale wetgeving. Indien uit de risicobeoordeling blijkt dat dit gunstig is, moeten ontwikkelaars en exploitanten overheidsinstanties de relevante documentatie over het gebruik van de betrokken technologieën en veiligheidsinstructies op dit gebied verschaffen, met inbegrip van – indien echt nodig en met volledige inachtneming van de EU-wetgeving inzake gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen – de broncode, ontwikkelingsinstrumenten en de door het systeem gebruikte gegevens.

(19) Personen moeten er met recht van kunnen uitgaan dat de technologie die zij gebruiken naar behoren werkt en hun vertrouwen niet beschaamt. Het vertrouwen van burgers in artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, is afhankelijk van de mate waarin zij de technische processen begrijpen. De mate waarin dergelijke processen verklaarbaar zijn, moet in lijn zijn met de context van deze technische processen en de ernst van de consequenties van een foute of niet-nauwkeurige output, en moet voldoende zijn om bezwaar te maken en beroep aan te tekenen. Met controleerbaarheid, traceerbaarheid en transparantie moet worden voorkomen dat dergelijke technologieën mogelijk onbegrijpelijk zijn.

(20) Het vertrouwen van de samenleving in artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, is afhankelijk van de mate waarin deze technologieën kunnen worden beoordeeld, gecontroleerd en getraceerd. Indien hun mate van betrokkenheid dit vereist, moeten ontwikkelaars garanderen dat dergelijke technologieën zo zijn ontworpen en gebouwd dat ze kunnen worden beoordeeld, gecontroleerd en getraceerd. Binnen de grenzen van wat technisch mogelijk is, moeten ontwikkelaars, exploitanten en gebruikers garanderen dat bij de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën de transparantievereisten volledig worden geëerbiedigd en dat deze technologieën kunnen worden gecontroleerd en getraceerd.

(21) Om transparantie en verantwoordingsplicht te waarborgen dienen burgers erop te worden gewezen wanneer in een systeem artificiële intelligentie wordt gebruikt, wanneer artificiële-intelligentiesystemen een product of dienst aan de persoonlijke voorkeuren van gebruikers aanpassen, of zij deze personalisering kunnen uitschakelen of beperken en wanneer zij te maken hebben met geautomatiseerde besluitvormingstechnologie. Voorts moeten transparantiemaatregelen voor zover dit technisch mogelijk is samengaan met duidelijke en begrijpelijke uitleg over de gebruikte gegevens, het algoritme, het doel, de uitkomsten en de potentiële gevaren.

(22) Vooringenomenheid in en discriminatie door software, algoritmen en gegevens zijn onwettig en moeten worden aangepakt door het proces aan de hand waarvan ze worden ontworpen en uitgerold te reguleren. Vooringenomenheid kan voortvloeien uit zowel beslissingen die worden genomen met behulp van of door een geautomatiseerd systeem als de datasets op basis waarvan deze besluitvorming geschiedt of het systeem wordt getraind.

(23) De software, algoritmen en gegevens die door artificiële intelligentie, robotica en aanverwante technologieën worden gebruikt of geproduceerd, moeten bijvoorbeeld worden beschouwd als vooringenomen als ze suboptimale resultaten opleveren voor een bepaalde persoon of groep personen op basis van een bevooroordeelde persoonlijke, sociale perceptie en de daaropvolgende verwerking van gegevens met betrekking tot hun eigenschappen.

(24) In overeenstemming met de Uniewetgeving moeten de software, algoritmen en gegevens die door artificiële intelligentie, robotica en aanverwante technologieën worden gebruikt of geproduceerd, worden beschouwd als discriminerend wanneer zij uitkomsten opleveren die buitensporige negatieve gevolgen hebben en ertoe leiden dat een persoon of groep personen anders wordt behandeld, bijvoorbeeld door hen te benadelen ten opzichte van anderen, op grond van bijvoorbeeld hun persoonlijke eigenschappen, zonder objectieve of redelijke rechtvaardiging, en ongeacht beweringen dat de technologieën neutraal zouden zijn.

(25) In overeenstemming met de Uniewetgeving zijn legitieme doelen die uit hoofde van deze verordening een afwijkende behandeling van groepen of personen objectief kunnen rechtvaardigen, de bescherming van de openbare orde, veiligheid en volksgezondheid, het voorkomen van strafbare feiten, de bescherming van fundamentele rechten en vrijheden, eerlijke vertegenwoordiging en objectieve vereisten om een beroep te mogen uitoefenen.

(26) Artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten bijdragen aan duurzame vooruitgang. Dergelijke technologieën mogen niet ten koste gaan van de bescherming van het milieu of de groene transitie. Ze kunnen een belangrijke rol vervullen bij het verwezenlijken van de duurzameontwikkelingsdoelstellingen van de Verenigde Naties teneinde toekomstige generaties in staat te stellen te floreren. Dergelijke technologieën kunnen bijdragen aan de bewaking van toereikende vorderingen op basis van indicatoren van duurzaamheid en sociale cohesie en door gebruik te maken van verantwoorde instrumenten van onderzoek en innovatie waarvoor de Unie en haar lidstaten middelen beschikbaar moeten stellen teneinde projecten te ondersteunen die aan deze doelstellingen bijdragen en hierin te investeren.

(27) De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, mogen op geen enkele manier doelbewust schade of letsel berokkenen aan personen of de maatschappij of in het ontwerp bewust aanvaarden dat dit het geval kan zijn. Derhalve moeten met name technologieën met een hoog risico op een maatschappelijk verantwoorde manier worden ontwikkeld, uitgerold en gebruikt.

(28) Daarom moeten ontwikkelaars, exploitanten en gebruikers in de mate van hun betrokkenheid bij de artificiële intelligentie, robotica en aanverwante technologieën in kwestie en in overeenstemming met de aansprakelijkheidsregels van de Unie en de lidstaten, verantwoordelijk worden gehouden voor aan personen of de maatschappij berokkend(e) schade of letsel.

(29) Met name de ontwikkelaars die beslissingen nemen die de koers of de wijze van ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën bepalen en beheersen en exploitanten die betrokken zijn bij hun uitrol door beslissingen te nemen over die uitrol en door controle uit te oefenen op de daarmee verband houdende risico’s, of die baat hebben bij die uitrol en een controle- of beheerfunctie vervullen, moeten over het algemeen verantwoordelijk worden gesteld voor het voorkomen van dergelijke schade of dergelijk letsel en zij moeten tijdens het ontwikkelingsproces adequate maatregelen vaststellen en dergelijke maatregelen tijdens de fase van uitrol volledig eerbiedigen.

(30) Maatschappelijk verantwoorde artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, kunnen worden gedefinieerd als technologieën die bijdragen tot het vinden van oplossingen die verschillende maatschappelijke aspecten beschermen en bevorderen, in het bijzonder democratie, gezondheid en economische welvaart, gelijke kansen, arbeids- en sociale rechten, diverse en onafhankelijke media en objectieve en vrij beschikbare informatie, zodat een publiek debat mogelijk wordt, kwalitatief hoogwaardig onderwijs, culturele en linguïstische diversiteit, genderevenwicht, digitale geletterdheid, innovatie en creativiteit. Het zijn ook technologieën die zijn ontwikkeld, uitgerold en gebruikt met gedegen inachtneming van hun uiteindelijke effecten op het fysieke en mentale welzijn van burgers en die haatzaaiende taal of geweld niet promoten. Dergelijke doelstellingen moeten met name door technologieën met een hoog risico worden verwezenlijkt.

(31) Artificiële intelligentie, robotica en aanverwante technologieën moeten ook worden ontwikkeld, uitgerold en gebruikt met het oog op de bevordering van sociale inclusie, democratie, pluraliteit, solidariteit, eerlijkheid, gelijkheid en samenwerking, en hun potentieel in dat kader moet worden gemaximaliseerd en geanalyseerd door middel van onderzoeks- en innovatieprojecten. De Unie en haar lidstaten moeten derhalve communicatie-, administratieve en financiële middelen beschikbaar stellen om dergelijke projecten te ondersteunen en erin te investeren.

(32) Projecten die verband houden met het potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben om bij te dragen aan het maatschappelijk welzijn moeten worden uitgevoerd aan de hand van verantwoorde instrumenten van onderzoek en innovatie teneinde te garanderen dat deze projecten vanaf het prille begin in overeenstemming zijn met ethische beginselen.

(33) Bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moet rekening worden gehouden met hun ecologische voetafdruk. Overeenkomstig de verplichtingen uit hoofde van de Uniewetgeving mogen dergelijke technologieën tijdens hun levenscyclus en in hun hele toeleveringsketen geen schade aan het milieu veroorzaken en moeten ze op een manier worden ontwikkeld, uitgerold en gebruikt die het milieu in stand houdt, hun ecologische voetafdruk minimaliseert en corrigeert, bijdraagt aan de groene transitie en aan de verwezenlijking van de doelstellingen op het gebied van klimaatneutraliteit en de circulaire economie.

(34) Voor de toepassing van deze verordening moeten ontwikkelaars, exploitanten en gebruikers in de mate van hun respectieve betrokkenheid bij de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico verantwoordelijk worden gehouden voor alle schade die wordt berokkend aan het milieu, overeenkomstig de toepasselijke voorschriften voor milieuaansprakelijkheid.

(35) Deze technologieën moeten ook zo worden ontwikkeld, uitgerold en gebruikt dat ze een bijdrage kunnen leveren aan de verwezenlijking van milieudoelstellingen in overeenstemming met de in de toepasselijke Uniewetgeving vastgestelde verplichtingen, zoals het verminderen van de afvalproductie, het verkleinen van de koolstofvoetafdruk, het bestrijden van de klimaatverandering en het beschermen van het milieu, en hun potentieel in dat kader moet worden gemaximaliseerd en geanalyseerd door middel van onderzoeks- en innovatieprojecten. De Unie en de lidstaten moeten derhalve communicatie-, administratieve en financiële middelen beschikbaar stellen om dergelijke projecten te ondersteunen en erin te investeren.

(36) Projecten die verband houden met het potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben om iets te doen aan punten van zorg op milieugebied, moeten worden uitgevoerd aan de hand van verantwoorde instrumenten van onderzoek en innovatie teneinde te garanderen dat deze projecten vanaf het prille begin in overeenstemming zijn met ethische beginselen.

(37) Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten het recht van de burgers van de Unie op privacy en op de bescherming van hun persoonsgegevens volledig eerbiedigen. Hun ontwikkeling, uitrol en gebruik moeten in het bijzonder in overeenstemming zijn met Verordening (EU) 2016/679 van het Europees Parlement en de Raad[14] en Richtlijn 2002/58/EG van het Europees Parlement en de Raad[15].

(38) In het bijzonder moet naar behoren rekening worden gehouden met de ethische grenzen van het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, wanneer gebruikt wordt gemaakt van technologieën voor herkenning op afstand, zoals herkenning van biometrische kenmerken, met name gezichtsherkenning, om de identiteit van personen automatisch vast te stellen. Wanneer deze technologieën worden gebruikt door overheidsinstanties om redenen van zwaarwegend algemeen belang, namelijk om de veiligheid van personen te waarborgen en om nationale noodsituaties aan te pakken, en niet om de veiligheid van eigendommen te waarborgen, moet het gebruik altijd openbaar worden gemaakt, evenredig zijn, gericht zijn op en beperkt blijven tot specifieke doelstellingen, in de tijd worden beperkt overeenkomstig de EU-wetgeving en met inachtneming van de menselijke waardigheid en autonomie en de in het Handvest opgenomen grondrechten plaatsvinden. De criteria en limieten van dergelijke systemen moeten worden onderworpen aan een toetsing door de rechter, democratisch toezicht en debat met het maatschappelijk middenveld.

(39) Governance die is gebaseerd op relevante normen draagt positief bij aan de veiligheid en bevordert het vertrouwen van burgers in de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd.

(40) De overheid dient een effectbeoordeling met betrekking tot de grondrechten uit te voeren alvorens technologieën met een hoog risico in te zetten die overheidsbesluiten kunnen ondersteunen en die een rechtstreeks en significant effect hebben op de rechten en plichten van de burgers.

(41) Voorbeelden van bestaande relevante governancenormen zijn bijvoorbeeld de “Ethische richtsnoeren voor betrouwbare KI”, opgesteld door de deskundigengroep op hoog niveau inzake kunstmatige intelligentie die is opgericht door de Europese Commissie, en andere technische normen zoals die zijn vastgesteld door het Europees Comité voor Normalisatie (CEN), het Europees Comité voor elektrotechnische normalisatie (CENELEC) en het Europees Instituut voor telecommunicatienormen (ETSI) op Europees niveau en de Internationale Organisatie voor normalisatie (ISO) en het Institute of Electrical and Electronics Engineers (IEEE) op internationaal niveau.

(42) Het delen en gebruiken van gegevens door meerdere deelnemers is gevoelig en derhalve moet de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën worden geregeld door relevante regels, normen en protocollen die een afspiegeling vormen van de vereisten van kwaliteit, integriteit, veiligheid, betrouwbaarheid, privacy en controle. De strategie voor gegevensbeheer moet zijn gericht op het verwerken en delen van en de toegang tot dergelijke gegevens, met inbegrip van gedegen beheer, controleerbaarheid en traceerbaarheid, en een adequate bescherming garanderen van gegevens die toebehoren aan kwetsbare groepen, waaronder mensen met een handicap, patiënten, kinderen, minderheden en migranten of andere groepen die het risico op uitsluiting lopen. Daarnaast moeten ontwikkelaars, exploitanten en gebruikers in voorkomend geval gebruik kunnen maken van kernprestatie-indicatoren bij de beoordeling van de datasets die zij gebruiken om de betrouwbaarheid te vergroten van de technologieën die zij ontwikkelen, uitrollen en gebruiken.

(43) De lidstaten moeten een onafhankelijke administratieve instantie aanwijzen die als toezichthoudende autoriteit zal fungeren. Elke nationale toezichthoudende autoriteit moet met name verantwoordelijk zijn voor het identificeren van artificiële intelligentie, robotica en aanverwante technologieën die als risicovol worden aangemerkt in het licht van de in deze verordening vastgestelde risicobeoordelingscriteria, en voor het beoordelen en bewaken van de conformiteit van deze technologieën met de in deze verordening vastgestelde verplichtingen.

(44) Elke nationale toezichthoudende autoriteit draagt ook de verantwoordelijkheid voor de goede governance van deze technologieën onder coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen. Zij hebben daarom een belangrijke rol te spelen in de bevordering van het vertrouwen en de veiligheid van de burgers in de Unie en de totstandbrenging van een democratische, pluralistische en rechtvaardige maatschappij.

(45) Om technologieën met een hoog risico overeenkomstig deze verordening te beoordelen en toezicht te houden op de naleving van deze verordening, moeten de nationale toezichthoudende autoriteiten, indien van toepassing, samenwerken met de autoriteiten die verantwoordelijk zijn voor de beoordeling van en het toezicht op deze technologieën en de handhaving van de naleving van de sectorale wetgeving.

(46) Nationale toezichthoudende autoriteiten moeten ook regelmatig nauw samenwerken met elkaar en met de Europese Commissie en andere relevante instellingen, organen en instanties van de Unie teneinde een samenhangend grensoverschrijdend optreden te waarborgen, en zij moeten ervoor zorgen dat deze technologieën in de Unie op consequente wijze kunnen worden ontwikkeld, uitgerold en gebruikt, met inachtneming van de ethische beginselen en wettelijke verplichtingen die in deze verordening zijn opgenomen.

(47) In de context van een dergelijke samenwerking en met het oog op volledige harmonisatie op EU-niveau, moeten de nationale toezichthoudende autoriteiten de Commissie bijstaan bij het opstellen van een gemeenschappelijke en uitputtende lijst van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico in overeenstemming met de criteria die in deze verordening en de bijlage daarbij zijn vastgesteld. Bovendien moet een procedure worden ontwikkeld voor de toekenning van een Europees certificaat van ethische conformiteit, met inbegrip van een vrijwillige aanvraagprocedure voor ontwikkelaars, exploitanten of gebruikers van niet als risicovol beschouwde technologieën, die hun conformiteit met deze verordening wensen te certificeren.

(48) Nationale toezichthoudende autoriteiten moeten garanderen dat er zo veel mogelijk belanghebbenden, zoals industriële partners, ondernemingen, sociale partners, onderzoekers, consumenten en organisaties van het maatschappelijk middenveld, worden samengebracht en een pluralistisch forum bieden voor reflectie en het uitwisselen van standpunten om begrijpelijke en nauwkeurige conclusies te trekken die de reglementering van de governance kunnen sturen.

(49) Nationale toezichthoudende autoriteiten moeten garanderen dat er zo veel mogelijk belanghebbenden, zoals industriële partners, ondernemingen, sociale partners, onderzoekers, consumenten en organisaties van het maatschappelijk middenveld, worden samengebracht en een pluralistisch forum bieden voor reflectie en het uitwisselen van standpunten om samenwerking te vergemakkelijken tussen belanghebbenden, met name uit de academische wereld, de onderzoeks- en industriesector, het maatschappelijk middenveld en individuele deskundigen, om begrijpelijke en nauwkeurige conclusies te trekken die de reglementering van de governance kunnen sturen.

(50) Daarnaast moeten deze nationale toezichthoudende autoriteiten professionele administratieve richtsnoeren bieden en ontwikkelaars, exploitanten en gebruikers, met name kleine en middelgrote bedrijven of start-ups, helpen uitdagingen die verband houden met de eerbiediging van de in deze verordening opgenomen ethische beginselen en wettelijke verplichtingen het hoofd te bieden.

(51) De Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen moeten bindende richtsnoeren opstellen over de methodologie die de nationale toezichthoudende autoriteiten moeten gebruiken wanneer ze hun conformiteitsbeoordelingen uitvoeren.

(52) Klokkenluiders brengen potentiële en daadwerkelijke schendingen van de Uniewetgeving onder de aandacht van onze autoriteiten zodat letsel of schade kan worden voorkomen. Daarnaast verbeteren meldingsprocedures de informatiestroom binnen bedrijven en organisaties, zodat het risico dat er gebrekkige of foutieve producten of diensten worden ontwikkeld kan worden beheerst. Bedrijven en organisaties die artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de gegevens die door deze technologieën worden gebruikt of geproduceerd, ontwikkelen, uitrollen of gebruiken, moeten meldingskanalen opzetten en personen die inbreuken melden moeten tegen vergelding worden beschermd.

(53) De snelle ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, en van technische machine learning, redeneringsprocessen en andere technologieën die aan deze ontwikkeling ten grondslag liggen, is onvoorspelbaar van aard. Als zodanig is het zowel gepast als noodzakelijk om een evaluatiemechanisme op te zetten op basis waarvan de Commissie regelmatig een verslag moet indienen met betrekking tot een mogelijke wijziging van het toepassingsgebied van deze verordening, in aanvulling op de rapporten die zij opstelt over de toepassing ervan.

(54) Aangezien de doelstelling van deze verordening, namelijk het vaststellen van een gemeenschappelijk regelgevingskader van ethische beginselen en wettelijke verplichtingen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, niet voldoende door de lidstaten kan worden verwezenlijkt en derhalve, vanwege de omvang en de gevolgen ervan, beter op het niveau van de Unie kan worden verwezenlijkt, kan de Unie maatregelen vaststellen, overeenkomstig het subsidiariteitsbeginsel als bedoeld in artikel 5 van het Verdrag betreffende de Europese Unie. Overeenkomstig het in datzelfde artikel neergelegde evenredigheidsbeginsel gaat deze verordening niet verder dan nodig is om deze doelstellingen te verwezenlijken.

(55) Coördinatie op het niveau van de Unie, zoals uiteengezet in deze verordening, wordt het best uitgevoerd door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, teneinde versnippering te voorkomen en te zorgen voor de consistente tenuitvoerlegging van deze verordening. Daarom moet de Commissie de bevoegdheid krijgen om een passende oplossing te vinden om deze coördinatie op Unieniveau te structureren, teneinde de mandaten en activiteiten van de nationale toezichthoudende autoriteiten in alle lidstaten te coördineren, in het bijzonder met betrekking tot de risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën, een gemeenschappelijk kader vast te stellen voor de governance van de ontwikkeling, de uitrol en het gebruik van deze technologieën, een certificaat van conformiteit met de in deze verordening opgenomen ethische beginselen en wettelijke verplichtingen te ontwikkelen en uit te geven, regelmatige uitwisselingen met betrokken belanghebbenden en het maatschappelijk middenveld te stimuleren, op Europees niveau een expertisecentrum op te zetten, waarin de academische wereld, de onderzoeks- en industriesector, en individuele deskundigen samenkomen om kennis en technische expertise uit te wisselen, en de Uniebenadering door internationale samenwerking te bevorderen en een consistente wereldwijde reactie te waarborgen op de kansen en risico’s die inherent zijn aan deze technologieën.


HEBBEN DE VOLGENDE VERORDENING VASTGESTELD:

 

Hoofdstuk I

Algemene bepalingen

Artikel 1

Doel

 

Met deze verordening wordt beoogd een alomvattend en toekomstbestendig juridisch EU-kader vast te stellen van ethische beginselen en wettelijke verplichtingen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën in de Unie.

Artikel 2

Toepassingsgebied

 

Deze verordening is van toepassing op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd.

Artikel 3

Geografisch toepassingsgebied

Deze verordening is van toepassing op artificiële intelligentie, robotica en aanverwante technologieën indien ten minste een deel daarvan wordt ontwikkeld, uitgerold of gebruikt in de Unie, ook indien de software, algoritmen of gegevens die door dergelijke technologieën worden gebruikt of geproduceerd zich buiten de Unie bevinden of geen specifieke geografische locatie hebben.

Artikel 4

Definities

Voor de toepassing van deze verordening wordt verstaan onder:

(a) “artificiële intelligentie”: een door software gestuurd of een in hardware geïntegreerd systeem dat intelligent gedrag vertoont, onder meer door het verzamelen en verwerken van gegevens, het analyseren en interpreteren van zijn omgeving, en het – met een zekere mate van autonomie – ondernemen van actie om specifieke doelstellingen te verwezenlijken[16];

(b) “autonomie”: een AI-systeem dat werkt door bepaalde input te interpreteren en door een reeks vooraf vastgestelde instructies te gebruiken, zonder tot deze instructies beperkt te zijn, hoewel het gedrag van het systeem wordt beperkt door en gericht is op het verwezenlijken van de opgedragen doelstelling en andere relevante door zijn ontwikkelaar gemaakte ontwerpkeuzen;

(c) “robotica”: technologieën die automatisch geregelde, herprogrammeerbare multifunctionele machines[17] in staat stellen in de fysieke wereld handelingen uit te voeren die traditioneel werden uitgevoerd of geïnitieerd door mensen, onder meer aan de hand van artificiële intelligentie of aanverwante technologieën;

(d) “aanverwante technologieën”: technologieën die software in staat stellen met gedeeltelijke of volledige autonomie een fysiek of virtueel proces te beheersen, technologieën die in staat zijn biometrische, genetische of andere gegevens te detecteren, en technologieën die menselijke eigenschappen kopiëren of er anderszins gebruik van maken;

(e) “hoog risico”: een aanzienlijk risico dat verbonden is aan de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën dat schade of letsel wordt berokkend aan personen of de maatschappij, in strijd met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie, rekening houdend met het specifieke gebruik of het specifieke doel ervan, de sector waarin zij worden ontwikkeld, uitgerold of gebruikt en de ernst van het letsel of de schade die naar verwachting optreedt;

(f) “ontwikkeling”: het bouwen en ontwerpen van algoritmen, het schrijven en ontwikkelen van software of het verzamelen, opslaan en beheren van gegevens om artificiële intelligentie, robotica en aanverwante technologieën tot stand te brengen of te trainen of om een nieuwe toepassing van bestaande artificiële intelligentie, robotica en aanverwante technologieën mogelijk te maken;

(g) “ontwikkelaar”: een natuurlijke of rechtspersoon die beslissingen neemt die de koers of de wijze van ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën bepalen en beheersen;

(h) “uitrol”: de exploitatie en het beheer van artificiële intelligentie, robotica en aanverwante technologieën, evenals het op de markt brengen ervan of andere manieren om ze aan gebruikers beschikbaar te stellen;

(i) “exploitant”: een natuurlijke of rechtspersoon die betrokken is bij de concrete uitrol van artificiële intelligentie, robotica en aanverwante technologieën, die een controle- of beheerfunctie uitoefent door beslissingen te nemen, de controle over het risico uitoefent en die baat heeft bij de uitrol;

(j) “gebruik”: elke actie die verband houdt met artificiële intelligentie, robotica en aanverwante technologieën en geen ontwikkeling of uitrol betreft;

(k) “gebruiker”: een natuurlijke of rechtspersoon die gebruikmaakt van artificiële intelligentie, robotica en aanverwante technologieën voor een ander doeleinde dan ontwikkeling of uitrol;

(l) “vooringenomenheid”: een bevooroordeelde persoonlijke of sociale perceptie van een persoon of groep personen op basis van hun persoonlijke eigenschappen;

(m) “discriminatie”: een afwijkende behandeling van een persoon of groep personen op een grond die niet objectief of redelijkerwijs te rechtvaardigen is en daarom door de Uniewetgeving wordt verboden;

(n) “letsel of schade”: onder meer door haatzaaiende uitlatingen, vooringenomenheid, discriminatie of stigmatisering veroorzaakt fysiek of mentaal letsel, materiële of immateriële schade zoals financieel of economisch verlies, mislopen van een kans op werk- of onderwijsgebied, onrechtmatige beperking van de keuzevrijheid of de vrije meningsuiting, verlies van privacy en schending van de Uniewetgeving die/dat nadelig is voor een persoon;

(o) “goede governance”: de manier waarop wordt gegarandeerd dat de passende en redelijke normen en protocollen van gedrag worden vastgesteld en in acht worden genomen door ontwikkelaars, exploitanten en gebruikers, op basis van een formele reeks regels, procedures en waarden, zodat zij naar behoren kunnen omgaan met ethische vraagstukken wanneer of voordat deze zich voordoen.

Artikel 5

Ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

1. Alle artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden in de Unie ontwikkeld, uitgerold en gebruikt in overeenstemming met het recht van de Unie en met volledige inachtneming van de menselijke waardigheid, autonomie en veiligheid en andere in het Handvest verankerde grondrechten.

2. De verwerking van persoonsgegevens, met inbegrip van persoonsgegevens die zijn afgeleid van niet-persoonsgegevens en biometrische gegevens, in het kader van ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën wordt uitgevoerd in overeenstemming met Verordening (EU) 2016/679 en Richtlijn 2002/58/EG.

3. De Unie en haar lidstaten moedigen onderzoeksprojecten aan waarmee wordt beoogd oplossingen op basis van artificiële intelligentie, robotica en aanverwante technologieën te verschaffen om sociale inclusie, democratie, pluraliteit, solidariteit, eerlijkheid, gelijkheid en samenwerking te bevorderen.

HOOFDSTUK II

Verplichtingen voor technologieën met een hoog risico

Artikel 6

Verplichtingen voor technologieën met een hoog risico

1. De bepalingen in dit hoofdstuk zijn alleen van toepassing op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, die als risicovol worden aangemerkt.

 

2. Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden ontwikkeld, uitgerold en gebruikt op een manier die waarborgt dat ze geen van de ethische beginselen uit deze verordening schenden.

Artikel 7

Door de mens gemaakte artificiële intelligentie waarbij de mens centraal staat

1. Alle artificiële technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden ontwikkeld, uitgerold en gebruikt op een manier die te allen tijde volledig menselijk toezicht garandeert.

2. De technologieën die worden vermeld in lid 1 worden ontwikkeld, uitgerold en gebruikt op een manier die het mogelijk maakt om indien nodig de volledige menselijke controle te herwinnen, onder meer door deze technologieën aan te passen of stop te zetten.

 

Artikel 8

Veiligheid, transparantie en verantwoordingsplicht

1. Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, zullen:

(a) op een veerkrachtige manier worden ontwikkeld, uitgerold en gebruikt zodat een adequaat niveau van veiligheid kan worden gegarandeerd door aan minimale waarden op het gebied van cyberveiligheid te voldoen die in verhouding staan tot het vastgestelde risico, en wordt voorkomen dat technische kwetsbaarheden worden benut voor oneerlijke of onrechtmatige doeleinden;

(b) op een veilige manier worden ontwikkeld, uitgerold en gebruikt zodat er gegarandeerde waarborgen zijn, waaronder een uitwijkplan en maatregelen die worden genomen in het geval van een veiligheids- of beveiligingsrisico;

(c) zo worden ontwikkeld, uitgerold en gebruikt dat er betrouwbare prestaties worden geleverd zoals redelijkerwijs verwacht door de gebruiker met betrekking tot de verwezenlijking van de doelstellingen en het uitvoeren van de activiteiten waarvoor ze in het leven zijn geroepen, onder meer door te garanderen dat alle verrichtingen kunnen worden gereproduceerd;

(d) zo worden ontwikkeld, uitgerold en gebruikt dat de doelstellingen en activiteiten van de specifieke technologieën nauwkeurig worden gerealiseerd en uitgevoerd; indien incidentele onnauwkeurigheden niet kunnen worden voorkomen, brengt het systeem exploitanten en gebruikers op een passende manier, voor zover mogelijk, op de hoogte van de kans dat er zich fouten en onnauwkeurigheden voordoen;

(e) op een gemakkelijk verklaarbare manier worden ontwikkeld, uitgerold en gebruikt om te garanderen dat de technische processen van de technologieën kunnen worden gecontroleerd;

(f) zo worden ontwikkeld, uitgerold en gebruikt dat ze gebruikers informeren dat ze interactie hebben met systemen van artificiële intelligentie en hierbij hun capaciteiten, nauwkeurigheid en beperkingen gedegen en alomvattend kenbaar maken aan ontwikkelaars, exploitanten en gebruikers van artificiële intelligentie;

(g) overeenkomstig artikel 6 zo worden ontwikkeld, uitgerold en gebruikt dat indien niet wordt voldaan aan de veiligheidsvereisten onder a) tot en met g), de functies in kwestie tijdelijk kunnen worden uitgeschakeld en weer kunnen worden teruggezet naar hun vorige toestand waarbij de veilige functies worden hersteld. 

2. In overeenstemming met artikel 6, lid 1, worden de in lid 1 genoemde technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, op een transparante en traceerbare manier ontwikkeld, uitgerold en gebruikt zodat hun elementen, processen en stadia op grond van de hoogst mogelijke toepasselijke normen worden gedocumenteerd en het voor de in artikel 14 bedoelde nationale toezichthoudende autoriteiten mogelijk is te beoordelen of dergelijke technologieën voldoen aan de verplichtingen op grond van deze verordening. De ontwikkelaar, exploitant of gebruiker van deze technologieën is met name verantwoordelijk voor naleving van de in lid 1 beschreven veiligheidsvereisten en kan aantonen dat deze in acht worden genomen.

3. De ontwikkelaar, exploitant of gebruiker van de in lid 1 genoemde technologieën garandeert dat de maatregelen die worden getroffen om te garanderen dat wordt voldaan aan de veiligheidsvereisten uit lid 1, kunnen worden gecontroleerd door de nationale toezichthoudende autoriteiten waarnaar wordt verwezen in artikel 14, of, indien van toepassing, andere nationale en Europese sectorale toezichthoudende organen.

Artikel 9

Geen vooringenomenheid en discriminatie

 

1. Alle software, algoritmen of gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, zijn niet vooringenomen en discrimineren, zonder afbreuk te doen aan lid 3, niet op gronden als ras, geslacht, seksuele geaardheid, zwangerschap, handicap, fysieke of genetische kenmerken, leeftijd, nationale minderheid, etnische of sociale afkomst, taal, religie of overtuiging, politieke standpunten of burgerparticipatie, staatsburgerschap, burgerlijke staat of economische status, onderwijs of strafblad.

 

2. In afwijking van de leden 1 en 2, en zonder afbreuk te doen aan de Uniewetgeving inzake onwettige discriminatie, kan een afwijkende behandeling van personen of groepen personen alleen worden gerechtvaardigd wanneer er sprake is van een objectief, redelijk en legitiem doel dat zowel evenredig is als noodzakelijk in de zin dat er geen alternatief is dat het beginsel van gelijke behandeling in minder mate zou schenden.

Artikel 10

Maatschappelijke verantwoordelijkheid en gendergelijkheid

Alle artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico die in de Unie worden ontwikkeld, uitgerold en gebruikt, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden in overeenstemming met de relevante Uniewetgeving, -beginselen en -waarden ontwikkeld, uitgerold en gebruikt, op een manier die verkiezingen niet hindert of die niet bijdraagt aan de verspreiding van desinformatie, die de rechten van werknemers eerbiedigt, kwalitatief onderwijs en digitale geletterdheid bevordert, de genderkloof niet vergroot door gelijke kansen voor iedereen te voorkomen en die intellectuele-eigendomsrechten en eventuele beperkingen daarvan of uitzonderingen daarop niet schendt.

Artikel 11

Milieuduurzaamheid

Alle artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden beoordeeld op hun milieuduurzaamheid door de in artikel 14 bedoelde nationale toezichthoudende autoriteiten, of, indien van toepassing, door andere nationale of Europese sectorale toezichthoudende organen, waarbij wordt gegarandeerd dat er maatregelen worden getroffen om hun algemene impact op natuurlijke hulpbronnen, energieverbruik, afvalproductie, de koolstofvoetafdruk, de noodtoestand op het gebied van de klimaatverandering en milieuvervuiling te beperken, om ervoor te zorgen dat het toepasselijke Unie- en nationale recht nageleefd wordt, evenals andere internationale milieuverbintenissen van de Unie.

Artikel 12

Eerbiediging van de privacy en bescherming van persoonsgegevens

Het gebruik en de verzameling van biometrische gegevens voor identificatie op afstand in openbare ruimten, zoals biometrische of gezichtsherkenning, houdt specifieke risico’s in voor de grondrechten en wordt alleen uitgerold of gebruikt door de openbare autoriteiten van de lidstaten voor doeleinden van aanzienlijk openbaar belang. Die autoriteiten waarborgen dat een dergelijke uitrol of een dergelijk gebruik openbaar wordt gemaakt, evenredig is, gericht is op en beperkt blijft tot specifieke doelstellingen en in de tijd wordt beperkt, in overeenstemming met de Unie- en nationale wetgeving, met name Verordening (EU) 2016/679 en Richtlijn 2002/58/EG, en met inachtneming van de menselijke waardigheid en autonomie en de in het Handvest opgenomen grondrechten, namelijk het recht op privacy en de bescherming van persoonsgegevens.

 

Artikel 13

Recht op verhaal

 Elke natuurlijke of rechtspersoon heeft het recht om verhaal te halen voor letsel of schade dat/die is berokkend door de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, waarbij de Uniewetgeving en de in deze verordening vastgestelde verplichtingen worden geschonden.

Artikel 14

Risicobeoordeling

1. Voor de toepassing van deze verordening worden artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, beschouwd als technologieën met een hoog risico wanneer na een risicobeoordeling op basis van objectieve criteria zoals hun specifieke gebruik of doel, de sector waarin zij worden ontwikkeld, uitgerold of gebruikt en de ernst van de eventuele letsels of schade, blijkt dat de ontwikkeling, de uitrol en het gebruik ervan een aanzienlijk risico inhoudt op schade of letsel aan personen of de maatschappij, in strijd met de grondrechten en de veiligheidsvoorschriften zoals vastgesteld in de Uniewetgeving.

2. Onverminderd de toepasselijke sectorale wetgeving wordt de risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, door de in artikel 14 bedoelde nationale toezichthoudende autoriteiten uitgevoerd in overeenstemming met de objectieve criteria waarin is voorzien in lid 1 van dit artikel en in de uitputtende en cumulatieve lijst in de bijlage bij deze verordening en onder coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die in de context van samenwerking voor dit doel zijn aangewezen.

3. In samenwerking met de in lid 2 bedoelde nationale toezichthoudende autoriteiten stelt de Commissie door middel van gedelegeerde handelingen overeenkomstig artikel 15 bis een gemeenschappelijke lijst op van in de Unie in kaart gebrachte technologieën met een hoog risico en actualiseert zij deze lijst.

4. Ook actualiseert de Commissie door middel van gedelegeerde handelingen overeenkomstig artikel 15 bis de in de bijlage bij deze verordening opgenomen lijst regelmatig.

Artikel 15

Conformiteitsbeoordeling

1. Artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico worden onderworpen aan een beoordeling van de conformiteit met de in de artikelen 6 tot en met 12 van deze verordening vastgestelde verplichtingen, evenals aan daaropvolgende monitoring, beide door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17, onder de coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen.

 

2. De software, algoritmen en gegevens die worden gebruikt of geproduceerd door technologieën met een hoog risico die overeenkomstig lid 1 zijn beoordeeld als conform met de in deze verordening vastgestelde verplichtingen, worden geacht conform met deze verplichtingen te zijn, tenzij de relevante nationale toezichthoudende autoriteit besluit op eigen initiatief of op verzoek van de ontwikkelaar, de exploitant of de gebruiker, een beoordeling uit te voeren.

 

3. Onverminderd de sectorale wetgeving en uiterlijk op de datum dat deze verordening in werking treedt, stellen de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die specifiek voor dit doel zijn aangewezen bindende richtsnoeren op over de methodologie die de nationale toezichthoudende autoriteiten moeten gebruiken wanneer ze hun in lid 1 bedoelde conformiteitsbeoordelingen uitvoeren.

 

Artikel 16

Europees certificaat van ethische conformiteit

1. Wanneer artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, een positieve beoordeling hebben gekregen die is uitgevoerd overeenkomstig artikel 7 bis, geeft de respectieve nationale toezichthoudende autoriteit een Europees certificaat van ethische conformiteit af.

 

2. Ontwikkelaars, exploitanten of gebruikers van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, die niet als risicovol worden beschouwd en die bijgevolg niet zijn onderworpen aan de in de artikelen 6 tot en met 12 vastgestelde verplichtingen, noch aan de in de artikelen 13 en 14 bedoelde risico- en conformiteitsbeoordeling, kunnen ook verzoeken om de conformiteit met de in deze verordening vastgestelde verplichtingen te certificeren, of met een deel van de verplichtingen wanneer dat gerechtvaardigd is door de aard van de technologie in kwestie zoals besloten door de nationale toezichthoudende autoriteiten. Een certificaat wordt alleen afgegeven als de relevante nationale toezichthoudende autoriteit een conformiteitsbeoordeling heeft uitgevoerd en die beoordeling positief was.

 

3. Voor de afgifte van het in lid 2 bedoelde certificaat ontwikkelen de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen een aanvraagprocedure.

 

Hoofdstuk III

Institutioneel toezicht

Artikel 17

Governancenormen en uitvoeringsrichtsnoeren

1. In de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën voldoen aan relevante governancenormen die door de in artikel 17 bedoelde nationale toezichthoudende autoriteiten zijn vastgesteld in overeenstemming met de Uniewetgeving, -beginselen en -waarden, onder de coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen en in overleg met de relevante belanghebbenden.

 

2. De in lid 1 bedoelde normen omvatten niet-bindende uitvoeringsrichtsnoeren over de methodologie die door ontwikkelaars, exploitanten en gebruikers moet worden gehanteerd om te voldoen aan deze verordening en worden uiterlijk op de datum van inwerkingtreding van deze verordening gepubliceerd.

 

3. Gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën worden door ontwikkelaars, exploitanten en gebruikers beheerd in overeenstemming met de relevante regels en normen van de lidstaten, de Unie en andere Europese en internationale organisaties, evenals met relevante branche- en zakelijke protocollen. Met name ontwikkelaars en exploitanten voeren, indien dit haalbaar is, kwaliteitscontroles uit op de externe bronnen van de gegevens die worden gebruikt door artificiële intelligentie, robotica en aanverwante technologieën, en zetten mechanismen op om toezicht te houden op hun verzameling, opslag, verwerking en gebruik.

 

3. Zonder afbreuk te doen aan de rechten van overdraagbaarheid en de rechten van personen van wie het gebruik van artificiële intelligentie, robotica en aanverwante technologieën gegevens heeft opgeleverd, voldoen de verzameling, de opslag, de verwerking en het delen van en de toegang tot gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën aan de relevante regels en normen van de lidstaten, de Unie en andere Europese en internationale organisaties, evenals aan relevante branche- en zakelijke protocollen. Met name ontwikkelaars en exploitanten garanderen dat die protocollen worden toegepast tijdens de ontwikkeling en uitrol van artificiële intelligentie, robotica en aanverwante technologieën, door de vereisten voor het verwerken van en het bieden van toegang tot gegevens die worden gebruikt of geproduceerd door deze technologieën, evenals het doeleinde, de reikwijdte en de geadresseerden van de verwerking en van de verstrekking van toegang tot dergelijke gegevens – informatie die op elk moment controleerbaar en traceerbaar is – duidelijk te definiëren.

 

Artikel 18

Toezichthoudende autoriteiten

1. Elke lidstaat wijst een onafhankelijke overheidsinstantie aan die verantwoordelijk is voor het toezicht op de toepassing van deze verordening (de “toezichthoudende autoriteit”) en voor het uitvoeren van de risico- en conformiteitsbeoordeling en de certificering als bedoeld in de artikelen 13, 14 en 15, onverminderd de sectorale wetgeving. 

 

2. Elke nationale toezichthoudende autoriteit draagt bij tot de consequente toepassing van deze verordening in de hele Unie. Daartoe werken de toezichthoudende autoriteiten in alle lidstaten samen met elkaar, de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen.

 

3. Elke nationale toezichthoudende autoriteit fungeert als eerste contactpunt in gevallen van vermoedelijke schending van de in deze verordening vastgestelde ethische beginselen en wettelijke verplichtingen, met inbegrip van discriminerende behandeling of schending van andere rechten, als gevolg van de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën. In dergelijke gevallen voert de nationale toezichthoudende autoriteit een conformiteitsbeoordeling uit met het oog op de ondersteuning van het recht van burgers op bezwaar en verhaal.

 

4. Elke nationale toezichthoudende autoriteit is verantwoordelijk voor het toezicht op de toepassing van de in artikel 13 bedoelde relevante nationale, Europese en internationale governanceregels en -normen op artificiële intelligentie, robotica en aanverwante technologieën, onder meer door contact te onderhouden met zo veel mogelijk relevante belanghebbenden. Hiertoe verschaffen de toezichthoudende autoriteiten in elke lidstaat een forum voor regelmatige uitwisselingen met en tussen belanghebbenden uit de academische wereld, de onderzoeks- en industriesector en het maatschappelijk middenveld.

 

5. Elke nationale toezichthoudende autoriteit biedt professionele en administratieve richtsnoeren en ondersteuning inzake de algemene toepassing van de Uniewetgeving die van toepassing is op artificiële intelligentie, robotica en aanverwante technologieën, en de ethische beginselen uit deze verordening, met name aan relevante onderzoeks- en ontwikkelingsorganisaties en kleine en middelgrote ondernemingen en start-ups.

 

6. Elke lidstaat stelt de Europese Commissie uiterlijk [PB: Gelieve de datum één jaar na inwerkingtreding in te voegen] in kennis van de wettelijke bepalingen die het op grond van dit artikel vaststelt en, onverwijld, van enige daaropvolgende wijzigingen die gevolgen hebben voor deze bepalingen.

 

7. De lidstaten treffen alle maatregelen die noodzakelijk zijn om de toepassing van de in deze verordening vastgestelde ethische beginselen en wettelijke verplichtingen te waarborgen. De lidstaten ondersteunen relevante belanghebbenden en het maatschappelijk middenveld, zowel op Unie- als op nationaal niveau, bij hun inspanningen om een tijdige, ethische en goed geïnformeerde reactie te garanderen op de nieuwe kansen en uitdagingen – met name die die grensoverschrijdend van aard zijn – die voortvloeien uit technologische ontwikkelingen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën.

 

Artikel 19

Melding van inbreuken en bescherming van personen die melding doen

 

Richtlijn (EU) 2019/1937 van het Europees Parlement en de Raad[18] is van toepassing op de melding van inbreuken op deze verordening en de bescherming van personen die dergelijke inbreuken melden.

 

Artikel 20

Coördinatie op Unieniveau

1. De Commissie en/of alle relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen voeren de volgende taken uit:

 

- waarborgen van een consistente risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën zoals bedoeld in artikel 13, die wordt uitgevoerd door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17, op basis van de gemeenschappelijke objectieve criteria die zijn vastgesteld in artikel 7, lid 1, en in de lijst van sectoren met een hoog risico en toepassingen of doeleinden met een hoog risico, zoals vastgesteld in de bijlage bij deze verordening;

 

- kennisnemen van de conformiteitsbeoordeling en daaropvolgende monitoring van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico zoals bedoeld in artikel 14 die moet worden uitgevoerd door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17;

 

- ontwikkelen van de aanvraagprocedure voor het certificaat zoals bedoeld in artikel 15, dat wordt afgegeven door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17;

 

- voorbereiden van de bindende richtsnoeren zoals bedoeld in artikel 14, lid 3, over de methodologie die nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17 moeten gebruiken;

 

- coördineren van de vaststelling van de relevante governancenormen zoals bedoeld in artikel 16 door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17, met inbegrip van niet-bindende uitvoeringsrichtsnoeren voor ontwikkelaars, exploitanten en gebruikers over de methodologie die moet worden gehanteerd om te voldoen aan deze verordening;

 

- samenwerken met de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17 met betrekking tot hun bijdrage aan de consistente toepassing van deze verordening in de hele Unie, overeenkomstig artikel 17, lid 2;

 

- fungeren als expertisecentrum door de uitwisseling van informatie met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën te bevorderen, de ontwikkeling van een gemeenschappelijk begrip van de eengemaakte markt te ondersteunen, extra richtsnoeren, adviezen en deskundigheid te verstrekken aan de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 17, de tenuitvoerlegging van de relevante Uniewetgeving te monitoren, normen voor beste praktijken vast te stellen en indien van toepassing aanbevelingen te doen voor regelgevingsmaatregelen; daarbij moeten zij met zo veel mogelijk relevante belanghebbenden contact onderhouden en ervoor zorgen dat de samenstelling van hun besluitvormingsniveaus divers is en gendergelijkheid waarborgt;

 

- organiseren van een werkgroep inzake veiligheid en defensie, die gericht is op het onderzoeken van beleids- en investeringskwesties die specifiek verband houden met het ethisch gebruik van artificiële intelligentie, robotica en aanverwante technologieën op het gebied van veiligheid en defensie.

 

Artikel 21

Uitoefening van de bevoegdheidsdelegatie

1. De bevoegdheid om gedelegeerde handelingen vast te stellen, wordt aan de Commissie toegekend onder de in dit artikel neergelegde voorwaarden.

 

2. De in artikel 7, leden 3 en 4, bedoelde bevoegdheid om gedelegeerde handelingen vast te stellen, wordt aan de Commissie toegekend voor een termijn van vijf jaar met ingang van [datum van inwerkingtreding van deze verordening].

 

3. De in artikel 7, leden 3 en 4, bedoelde bevoegdheidsdelegatie kan te allen tijde door het Europees Parlement of de Raad worden ingetrokken. Het besluit tot intrekking beëindigt de delegatie van de in dat besluit genoemde bevoegdheid. Deze treedt in werking op de dag na de bekendmaking van het besluit in het Publicatieblad van de Europese Unie of een latere datum die daarin nader wordt bepaald. Het laat de geldigheid van de reeds van kracht zijnde gedelegeerde handelingen onverlet.

 

4. Vóór de vaststelling van een gedelegeerde handeling raadpleegt de Commissie de door elke lidstaat aangewezen deskundigen overeenkomstig de beginselen die zijn neergelegd in het Interinstitutioneel Akkoord over beter wetgeven van 13 april 2016.

 

5. Zodra de Commissie een gedelegeerde handeling heeft vastgesteld, doet zij daarvan gelijktijdig kennisgeving aan het Europees Parlement en de Raad.

 

6. Een overeenkomstig artikel 7, leden 3 en 4, vastgestelde gedelegeerde handeling treedt alleen in werking indien het Europees Parlement noch de Raad binnen een termijn van drie maanden na de kennisgeving van de handeling aan het Europees Parlement en de Raad daartegen bezwaar heeft gemaakt, of indien zowel het Europees Parlement als de Raad voor het verstrijken van die termijn de Commissie hebben medegedeeld dat zij daartegen geen bezwaar zullen maken. Die termijn wordt op initiatief van het Europees Parlement of de Raad met drie maanden verlengd.

 

Artikel 22

Wijziging van Richtlijn (EU) 2019/1937

 

Richtlijn (EU) 2019/1937 wordt als volgt gewijzigd:

 

(1) In artikel 2, lid 1, wordt het volgende punt toegevoegd:

 

“(xi) ontwikkeling, uitrol en gebruik van artificiële intelligentie, robotica en aanverwante technologieën.”

 

(2) In deel I van de bijlage wordt het volgende punt toegevoegd:

 

“K. Artikel 2, lid 1, punt a), xi) – ontwikkeling, uitrol en gebruik van artificiële intelligentie, robotica en aanverwante technologieën.

 

“(xxi) Verordening [XXX] van het Europees Parlement en de Raad inzake ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën”.”

Artikel 23

Evaluatie

De Commissie evalueert regelmatig de ontwikkelingen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, en dient uiterlijk op [PB: Gelieve de datum drie jaar na inwerkingtreding in te voegen], en elke drie jaar daarna, een verslag in bij het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de toepassing van deze verordening, met onder meer een beoordeling van de eventuele wijziging van het toepassingsgebied van de verordening.

Artikel 24

Inwerkingtreding

1. Deze verordening treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie. Zij is van toepassing met ingang van XX.

2. Deze verordening is verbindend in al haar onderdelen en is rechtstreeks toepasselijk in de lidstaten overeenkomstig het Verdrag betreffende de werking van de Europese Unie.

Deze verordening is verbindend in al haar onderdelen en is rechtstreeks toepasselijk in elke lidstaat.


 

BIJLAGE

 

Uitputtende en cumulatieve lijst van sectoren met een hoog risico en toepassingen of doeleinden met een hoog risico die een risico op schending van grondrechten en veiligheidsvoorschriften inhouden.

 

 

Sectoren met een hoog risico

 

 Werkgelegenheid

 Onderwijs

 Gezondheidszorg

 Vervoer

 Energie

 Publieke sector (asiel, migratie, grenscontroles, justitie en socialezekerheidsdiensten)

 Defensie en veiligheid

 Financiën, bankwezen, verzekeringen

 

 

Toepassingen of doeleinden met een hoog risico

 

 Aanwerving

 (Cijfermatige) beoordeling van studenten

 Toewijzing van overheidsmiddelen

 Verstrekking van leningen

 Handel, tussenhandel, fiscaliteit enz.

 Medische behandelingen en procedures

 Verkiezingsprocessen en politieke campagnes

 Besluiten van de publieke sector die een aanzienlijke en rechtstreekse impact hebben op de rechten en plichten van natuurlijke of rechtspersonen

 Geautomatiseerd rijden

 Verkeersleiding

 Autonome militaire systemen

 Energieproductie en -distributie

 Afvalbeheer

 Emissiebeheersing 

 


TOELICHTING

In een dialoog in de film Blade Runner uit 1982 tussen Rachael, een replicant die voor een bedrijf werkt dat replicanten – humanoïde robots met intelligentie – produceert, en Deckard, een premiejager die zijn geld verdient door rebelse replicanten uit te schakelen, vraagt zij hem:

 

–“It seems you feel our work is not a benefit to the public”.

 

Waarop hij antwoordt:

 

–“Replicants are like any other machine – they’re either a benefit or a hazard. If they’re a benefit, it’s not my problem”.

 

Zegens en risico's

 

Een massale uitrol van artificiële intelligentie op alle apparaten waarmee we interactie hebben in de publieke, werk- en maatschappelijke sfeer zal een enorme technologische sprong voorwaarts zijn – of is dat al – die alleen kan worden vergeleken met de implicaties die de Industriële Revolutie ooit had. Het leven zal nooit meer hetzelfde zijn: er zullen namelijk aanzienlijke veranderingen plaatsvinden op de arbeidsmarkt, in de relatie met de overheid, in persoonlijke relaties en zelfs in ons gezinsleven. Denk bijvoorbeeld aan wat er allemaal mogelijk is met het “internet der dingen” op alle apparaten in onze woningen. Door een technologische sprong van dat kaliber worden de scenario's relevant waarnaar de Blade runner in zijn antwoord verwijst: elke technologie kan zowel een zegen als een risico zijn. En als we het hebben over artificiële intelligentie, hebben we het over een zegen en/of risico van ongekende schaal, aangezien rekening moet worden gehouden met de intrinsieke kracht van deze technologieën.

 

De rol van de Europese Unie bij de vaststelling van een juridisch kader

 

Wanneer we ons als overheidsdiensten over dit fenomeen buigen, kunnen we het echter niet laten bij het beroepscynisme van Deckard. Voor het Europees Parlement is het even belangrijk om het potentieel te bevorderen dat deze technologieën hebben voor het welzijn en het concurrentievermogen van Europa als om de inherente risico's te beheersen – of vooruit te lopen op de consequenties als een van deze risico's realiteit wordt. We willen daarom pioniers zijn in de wettelijke vaststelling van een ethisch kader dat enerzijds de Europese burgers beschermt tegen de mogelijke negatieve consequenties van deze technologische ontwikkelingen en anderzijds het vertrouwen in artificiële intelligentie wereldwijd vergroot. Een consequent ethisch kader met onze Europese beginselen en waarden – die tot uiting komen in het Handvest van de grondrechten van de Europese Unie – dat aansluit op ons beschavingsproject. Regelgeving die is geïnspireerd op een humanistische benadering van technologische ontwikkeling waarbij de mens centraal staat. Een verordening die niet alleen van toepassing is op in Europa ontwikkelde artificiële intelligentie, maar een veeleisend normatief imperatief vormt voor iedereen die actief wil zijn in de Unie.

 

Het is van cruciaal belang dat het kader van rechten en plichten door alle lidstaten van de Europese Unie wordt gedeeld. Een reeks afzonderlijke nationale voorschriften zonder gemeenschappelijke referentie zou de eengemaakte markt ernstig aantasten en onze gezamenlijke inspanningen ondermijnen om op het wereldtoneel de rol van technologisch leider te vervullen. De oprichting van een Europees agentschap belast met het toezicht op de toepassing van deze verordening zal uiteindelijk leiden tot de harmonisatie van de juridische en technische kaders die in elk van de lidstaten worden ontwikkeld.

 

Een flexibele, toekomstgerichte verordening

 

Voor personen die er voorstander van zijn dat deze sector zichzelf reguleert, is de dialoog aan het begin van deze tekst relevant, omdat deze ook duidelijk maakt dat er een rol is weggelegd voor overheden, aangezien zij andere doelstellingen nastreven dan puur economische doelmatigheid. Het voorkomen van discriminatie (ongeacht op welke grond) in de opzet van besluitvormingsprocessen en het benutten van het potentieel dat deze technologieën hebben om veranderingen teweeg te brengen teneinde een maatschappij tot stand te brengen die rechtvaardiger – met bijzondere aandacht voor het dichten van de genderkloof – en vanuit ecologisch oogpunt duurzamer is, zijn nog twee doelstellingen die in Europa moeten worden gewaarborgd door publieke instanties. Wat deze laatste vraagstukken betreft, voorziet de tekst in expliciete mandaten voor de Europese overheden.

 

Met deze verordening wordt ook beoogd hoge eisen te combineren met eenvoudige regelgeving, waarbij gecompliceerde stelsels van voorschriften en/of zware bureaucratische lasten voor de betrokken spelers worden vermeden. Men streeft daarnaast naar een kader dat voldoende flexibel is om nieuwe ontwikkelingen te kunnen absorberen in een context die zeer veranderlijk is en het tegelijkertijd mogelijk maakt sectorale voorschriften te ontwikkelen die aansluiten op een concretere realiteit.

 

Een integrale benadering door middel van de oprichting van nationale toezichthoudende autoriteiten

 

Met deze verordening wordt beoogd het toezicht uit te breiden naar alle stadia van zeer complexe technologie. Er zijn bepalingen in opgenomen met betrekking tot aspecten als ontwikkeling, uitrol, en ook de evolutie van technologie door middel van machine learning of deep learning. Er wordt bijzondere nadruk gelegd op behoedzaamheid met betrekking tot technologieën die als “zeer risicovol” worden aangemerkt, ofwel wanneer de kans groot is dat deze negatieve externe gevolgen hebben en/of wanneer ze verband houden met gevoelige gebieden die bijzondere bescherming vereisen – de technologieën die in deze verordening worden gedefinieerd. Zo wordt ingegaan op de regulering van vanuit het oogpunt van individuele rechten delicate vraagstukken zoals het gebruik van technologieën voor herkenning op afstand, waarvoor een groot aantal waarborgen wordt geboden. Dergelijke technologieën mogen slechts voor specifieke doeleinden en gedurende een beperkte periode worden toegepast om te garanderen dat overheden ze alleen gebruiken in uitzonderlijke gevallen, bijvoorbeeld in ernstige noodsituaties.

 

Ook wordt met deze verordening beoogd alle burgers, en in het bijzonder de personen en groepen die nauw betrokken zijn bij artificiële intelligentie of er de meeste gevolgen van ondervinden, een rol te laten spelen bij het ontwerp en de ontwikkeling van en de controle en het toezicht op dit regelgevend kader. De tekst voorziet in een mandaat voor alle nationale toezichthoudende autoriteiten – waarvan in de verordening wordt aangegeven dat hun oprichting verplicht is – die het maatschappelijk middenveld verplicht regelmatig moeten raadplegen. Eveneens worden er veeleisende verplichtingen opgelegd op het gebied van transparantie en verantwoordingsplicht aan ontwikkelaars, exploitanten en gebruikers van artificiële intelligentie. Verder wordt gesproken over de verplichting die gebruikers hebben om de technologieën als goede burgers te gebruiken en over de nodige bescherming die zij zullen genieten wanneer ze te goeder trouw gebruikmaken van technologieën.

 

Begrijpelijkheid, transparantie, verantwoordingsplicht, verantwoordelijkheid en governance

 

Het zal nog wel even duren voordat er een algoritme wordt ontwikkeld dat de geboorte mogelijk maakt van de psychohistorie waarover Isaac Asimov het had in “Foundation”. Het concept van vrije wil, dat onlosmakelijk is verbonden met de mens, lijkt op dit moment nog geen gevaar te lopen.  Zelfs niet voor wat betreft het anticiperen op de opkomst van grote historische stromingen. We zullen er als democratische machten voor zorgen dat de grote en kleine beslissingen die worden genomen met behulp van technologieën op basis van artificiële intelligentie, niet het resultaat zijn van obscure, ontoegankelijke wiskundige formules. Begrijpelijkheid, transparantie, verantwoordingsplicht en verantwoordelijkheid zullen onontbeerlijke kenmerken zijn van de artificiële intelligentie die in de Europese Unie wordt ontwikkeld en uitgerold.

 

De Europese Unie streeft er zonder meer naar een ruimte te zijn waar sprake is van het nodige evenwicht tussen de eerbiediging van de rechten van burgers en de bevordering van technologische ontwikkeling. Deze verordening – evenals de manier waarop deze in de praktijk wordt gebracht door de toezichthoudende autoriteit(en) – moet een voorbeeld zijn voor de rest van de wereld en een eerste stap op weg naar een goede governance van dit fenomeen op mondiale schaal.

 

 


ADVIES VAN DE COMMISSIE BUITENLANDSE ZAKEN (24.6.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake het kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies (*): Urmas Paet

(*) Procedure met medeverantwoordelijke commissies – Artikel 57 van het Reglement

(Initiatief – Artikel 47 van het Reglement)

 


 

SUGGESTIES

De Commissie buitenlandse zaken verzoekt de bevoegde Commissie juridische zaken:

 onderstaande suggesties in haar ontwerpresolutie op te nemen:

1. benadrukt dat het veiligheids- en defensiebeleid van de Europese Unie en haar lidstaten gebaseerd is op de beginselen die zijn verankerd in het Handvest van de grondrechten van de Europese Unie en de beginselen van het Handvest van de Verenigde Naties, en op een gemeenschappelijk begrip van de universele waarden van eerbiediging van de onschendbare en onvervreemdbare rechten van de mens, menselijke waardigheid, vrijheid, democratie, gelijkheid en de rechtsstaat; benadrukt dat alle defensiegerelateerde inspanningen binnen het kader van de Unie deze universele waarden in acht moeten nemen en tegelijkertijd vrede, veiligheid en vooruitgang in Europa en in de wereld moeten bevorderen; is van mening dat het gebruik van AI gebaseerd moet zijn op een gemeenschappelijke reeks ethische beginselen, namelijk verantwoord, billijk, traceerbaar, betrouwbaar en beheersbaar gebruik;

2. is ingenomen met de bekrachtiging van elf leidende beginselen voor de ontwikkeling en het gebruik van autonome wapensystemen door de Hoge Verdragsluitende Partijen bij het Verdrag van de Verenigde Naties inzake het verbod of de beperking van het gebruik van bepaalde conventionele wapens (Conventionelewapensverdrag, CWV) tijdens hun vergadering in 2019; betreurt evenwel dat ze geen overeenstemming konden bereiken over een juridisch bindend instrument voor de regulering van dodelijke autonome wapensystemen (LAWS), met een doeltreffend handhavingsmechanisme; is ingenomen met de “Ethische richtsnoeren voor betrouwbare artificiële intelligentie” van de deskundigengroep op hoog niveau inzake artificiële intelligentie van de Commissie, die op 9 april 2019 werden gepubliceerd, en met het standpunt van deze deskundigengroep inzake dodelijke autonome wapensystemen, en verleent er zijn steun aan; dringt er bij de lidstaten op aan nationale strategieën te ontwikkelen voor de definitie en de status van dodelijke autonome wapens met het oog op een omvattende strategie op Unieniveau, en samen met de vicevoorzitter van de Commissie/hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid (VV/HV) en de Raad het voortouw te nemen bij de bespreking van dodelijke autonome wapensystemen in het kader van het CWV van de VN en andere relevante fora en bij de vaststelling van internationale normen betreffende de ethische en juridische parameters voor de ontwikkeling en het gebruik van volledig autonome, semiautonome en op afstand bestuurde dodelijke wapensystemen; herinnert in dit verband aan zijn resolutie van 12 september 2018 over autonome wapensystemen, en vraagt nogmaals dringend een gemeenschappelijk standpunt over dodelijke autonome wapensystemen op te stellen en goed te keuren; pleit eens te meer voor een internationaal verbod op de ontwikkeling, de productie en het gebruik van dodelijke autonome wapensystemen waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle en zonder eerbiediging van het “human-in-the-loop”-beginsel, in overeenstemming met de verklaring van ‘s werelds prominentste AI-onderzoekers in hun open brief van 2015; is ingenomen met de overeenkomst van de Raad en het Parlement om dodelijke automatische wapens waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle op het kiezen van doelwitten en het inzetten van een aanval, uit te sluiten van maatregelen die uit het Europees Defensiefonds worden gefinancierd; is van mening dat de ethische aspecten van andere AI-toepassingen in de defensiesector, zoals inlichtingendiensten, surveillance en verkennings- of cyberoperaties niet over het hoofd mogen worden gezien en dat bijzondere aandacht moet worden besteed aan de ontwikkeling en inzet van drones tijdens militaire operaties;

3. wijst erop dat een Europees kader voor het gebruik van systemen op basis van artificiële intelligentie (AI) in de defensiesector, zowel in gevechtssituaties als daarbuiten, alle toepasselijke wettelijke regelingen in acht moet nemen, met name het internationaal humanitair recht en het internationaal recht inzake de mensenrechten, en in overeenstemming moet zijn met het recht, de beginselen en de waarden van de Unie; beklemtoont dat de Unie een mondiale rol moet spelen door de weg te effenen voor een geloofwaardig en bindend regelgevingskader inzake AI dat gebaseerd is op democratische waarden en een benadering waarbij de mens centraal staat; dringt er bij de Unie en de lidstaten op aan gezamenlijke mechanismen te ontwikkelen om de inherente risico’s en opportuniteiten van AI met betrekking tot de toepassing van het recht van de Unie snel en grondig te beoordelen, geïnspireerd door de beste praktijken van lidstaten die daarin al verder staan, en waar nodig te voorzien in de vereiste aanpassing en handhaving, waarbij rekening wordt gehouden met de verschillen in technische en veiligheidsinfrastructuur in de Europese Unie;

4. erkent dat cruciale AI-innovaties, in tegenstelling tot de industriële en technologische defensiebasis, afkomstig zouden kunnen zijn uit kleine lidstaten, en dat een door het GVDB gestandaardiseerde aanpak ervoor moet zorgen dat kleinere lidstaten en kmo’s niet worden verdrongen; beklemtoont dat een reeks gemeenschappelijke AI-capaciteiten van de EU die zijn afgestemd op de operationele concepten van de lidstaten, de technische kloven kunnen overbruggen die anders zouden kunnen leiden tot de uitsluiting van lidstaten die niet beschikken over de desbetreffende technologie, industriële deskundigheid of het vermogen om AI-systemen toe te passen in hun Ministerie van Defensie;

5. beklemtoont dat het geografische toepassingsgebied van een dergelijk kader alle componenten van artificiële intelligentie, robotica en aanverwante technologieën moet bestrijken die worden ontwikkeld, uitgerold of gebruikt in de Unie, ook in gevallen waarin een deel van deze technologieën zich mogelijk buiten de Unie bevindt of geen specifieke locatie heeft;

6. benadrukt dat opkomende technologieën die niet binnen het internationale recht gereguleerd zijn, getoetst moeten worden aan het beginsel van eerbiediging van de menselijkheid en aan algemeen geldende ethische normen; benadrukt dat het gebruik en de ethische toelaatbaarheid van op AI gebaseerde systemen in de defensiesector permanent moeten worden beoordeeld vanuit het oogpunt van de mensenrechten, en meer bepaald de menselijke veiligheid, gezondheid en beveiliging, vrijheid, privacy, integriteit en waardigheid, en ook permanent moeten worden gemonitord, met name met het oog op de voor- en nadelen ervan en in het licht van de gevolgen ervan voor de bescherming van de universele rechten van de mens; is van mening dat technologische voordelen op het gebied van op AI gebaseerde systemen in de defensiesector gepaard moeten gaan met een brede discussie over het gebruik van AI, de gevolgen ervan voor samenlevingen en gemeenschappen en de potentiële economische en maatschappelijke voordelen, en dat naar behoren moet worden gecommuniceerd over de risico’s die voortvloeien uit het gebruik van AI;

7. is van mening dat de huidige en toekomstige veiligheids- en defensiegerelateerde activiteiten binnen het kader van de Unie gebruik zullen maken van AI, robotica, autonomie en aanverwante technologieën, en dat betrouwbare, robuuste en beproefde AI kan bijdragen tot moderne en doeltreffende strijdkrachten; is daarom van mening dat de Unie het voortouw moet nemen bij het onderzoek naar en de ontwikkeling van AI‑systemen op het gebied van veiligheid en defensie; is van mening dat het gebruik van op AI gebaseerde veiligheids- en defensietoepassingen een aantal directe voordelen voor de bevelhebber van de operatie kan bieden, zoals gegevens van hogere kwaliteit, een groter situationeel bewustzijn, een snellere besluitvorming, een lager risico van nevenschade dankzij betere bekabeling, bescherming van de troepen op het terrein, en een grotere betrouwbaarheid van militaire uitrusting, en bijgevolg minder risico’s voor de mens en minder menselijke slachtoffers; benadrukt dat de ontwikkeling van betrouwbare AI op het gebied van defensie een onontbeerlijke technologie is om de Europese strategische autonomie te garanderen op capaciteits- en operationeel gebied; herinnert eraan dat AI-systemen ook cruciale elementen worden in de bestrijding van nieuwe bedreigingen voor de veiligheid, zoals cyber- en hybride oorlogsvoering, zowel on- als offline; wijst tegelijkertijd op alle risico’s en uitdagingen die het niet-gereguleerde gebruik van AI met zich brengt; merkt op dat AI vatbaar kan zijn voor manipulatie, fouten en onnauwkeurigheden;

8. dringt erop aan synergieën en netwerken tot stand te brengen tussen de verschillende Europese onderzoekscentra die zich bezighouden met AI en tussen andere multilaterale fora zoals de Raad van Europa, de Organisatie van de Verenigde Naties voor Onderwijs, Wetenschap en Cultuur (Unesco), de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), de Wereldhandelsorganisatie en de Internationale Telecommunicatie-unie (ITU), om hun inspanningen op elkaar af te stemmen en de ontwikkeling van AI-technologie beter te coördineren;

9. beklemtoont dat AI-technologieën strikt genomen dienen voor dubbel gebruik en dat de ontwikkeling van AI in defensiegerelateerde activiteiten haar voordeel doet met uitwisselingen tussen militaire en civiele technologieën; benadrukt dat AI in defensiegerelateerde activiteiten een transversale disruptieve technologie is waarvan de ontwikkeling kansen kan bieden voor het concurrentievermogen en de strategische autonomie van de EU;

10. wijst erop dat de Unie - op basis van de mededeling van de Commissie van 8 april 2019 getiteld “Vertrouwen kweken in mensgerichte kunstmatige intelligentie”, waarbij de mensenrechten volledig worden geëerbiedigd door de technologie, de mens de controle over geautomatiseerde besluitvormingssystemen in handen blijft houden en de menselijke autonomie en besluitvorming worden aangevuld en ondersteund - een robuust regelgevingskader voor AI nodig heeft, dat gericht is op veiligheid en defensie en daarbij een weg volgt van verantwoordelijkheid en transparantie, bescherming van onze burgers en hun gegevens, en verdediging van onze waarden, met een beleid dat streeft naar het bewaren van de vrede, het voorkomen van conflicten en de versterking van de internationale veiligheid, waarbij de Unie de kansen grijpt die deze technologieën bieden en zich er bovendien van bewust is dat systemen op basis van AI een sleutelelement zullen zijn in toekomstige ontwikkelingen inzake defensie en verdedigingscapaciteit;

11. vraagt de lidstaten en de Commissie ervoor te zorgen dat bij het gebruik van algoritmen in defensiesystemen de nodige geheimhouding wordt betracht en dat voor die algoritmen ook het transparantiebeginsel in acht wordt genomen, met inbegrip van een duidelijke aansprakelijkheidsregeling voor de resultaten van het gebruik van AI; benadrukt dat dergelijke algoritmen voortdurend moeten worden aangepast aan de vooruitgang op het gebied van AI-technologieën;

12. benadrukt dat de Unie het voortouw moet nemen bij het ondersteunen van multilaterale inspanningen in het kader van het CWV van de VN en andere relevante fora, om een doeltreffend internationaal regelgevingskader te bespreken dat betekenisvolle menselijke controle over autonome wapensystemen waarborgt, om deze technologieën te beheersen door goed gedefinieerde, op benchmarks gebaseerde processen en regelgeving voor het ethisch gebruik ervan vast te stellen, in overleg met belanghebbenden uit de strijdkrachten, de industrie, de wetshandhaving, de academische wereld en het maatschappelijk middenveld, om inzicht te verwerven in de desbetreffende ethische aspecten, om de inherente risico’s van deze technologieën te beheersen en om het gebruik ervan voor kwaadaardige doeleinden te voorkomen; wijst erop dat dit met name onbedoelde schade aan personen betreft, zowel materiële als immateriële schade, zoals schending van de grondrechten of fysieke schade; acht het noodzakelijk dat de Unie in samenwerking met de lidstaten de passende aansprakelijkheidsregelingen bepaalt die gelden voor innovaties in AI en andere immersieve technologieën op het gebied van veiligheid en defensie, en dat zij op die manier een rechtsgrondslag vaststellen voor mechanismen inzake verantwoordingsplicht en traceerbaarheid; wijst erop dat de regelgeving en de normatieve kaders van de Unie niet mogen worden overgenomen door toekomstige technologische vooruitgang, vorderingen op het gebied van AI en nieuwe oorlogsvoeringsmethoden, en bijgevolg moeten worden ondersteund door betekenisvolle monitoring om voortdurend te worden aangepast en zo lacunes in de regelgeving of grijze zones te voorkomen; benadrukt dat verder onderzoek en verdere ontwikkeling van AI ervoor moeten zorgen dat systemen op basis van AI beter toegerust zijn om unieke contexten te begrijpen;

13. staat achter het sleutelprincipe van “ethisch ontwerp” waarmee van meet af aan tijdens het ontwerpproces ethische beginselen worden ingebed in AI-producten en -diensten;

14. herinnert eraan dat de meeste huidige militaire mogendheden ter wereld reeds aanzienlijke O&O-inspanningen hebben geleverd in verband met de militaire dimensie van AI; is van mening dat de Unie ervoor moet zorgen dat zij op dit gebied geen achterstand oploopt; benadrukt dat de Unie voor alle defensietoepassingen op basis van AI-systemen technische en organisatorische normen moet vaststellen in overeenstemming met het beginsel van “beveiliging door ontwerp” dat specifiek menselijk toezicht mogelijk maakt, om ervoor te zorgen dat deze systemen geen kwetsbaarheden vertonen die door externe aanvallen kunnen worden uitgebuit, dat zij bestand zijn tegen cyberaanvallen en digitale beïnvloeding die gericht is op de gegevens, het model of de onderliggende infrastructuur van zowel de software als de hardware, en dat zij gedurende de volledige levenscyclus van een systeem de hoogst mogelijke betrouwbaarheidsnormen, actieve monitoring en supervisie bij het verzamelen en exploiteren van operationele gegevens naleven; beklemtoont dat AI‑algoritmen transparant en verantwoord moeten zijn; merkt op dat er sprake is van een belangrijk onderscheid tussen transparantie van algoritmen en transparantie in het gebruik van algoritmen; benadrukt dat AI-systemen en -toepassingen die bedoeld zijn voor gegevensextractie en -synthese en die de resultaten daarvan extrapoleren om besluiten in verband met defensie en nationale veiligheid te onderbouwen, een specifiek toepassingsgebied moeten hebben en moeten voldoen aan de bepalingen die zijn vastgesteld in het huidige regelgevingskader betreffende de verzameling en verwerking van gegevens; beklemtoont dat AI-toepassingen die bedoeld zijn voor de verwerking van gegevens voor inlichtingen in verband met defensiegerelateerde activiteiten moeten beantwoorden aan gegevensverwerkingsnormen om risico’s van onbedoelde surveillance of inbreuken op individuele rechten te voorkomen; is van mening dat, wanneer op AI gebaseerde technologieën worden gebruikt voor toepassingen met een hoog risico, zoals gezichtsherkenning, waarvoor op EU-niveau een definitief regelgevingskader ontbreekt, de Unie moet waarborgen dat de ontwikkeling en uitrol ervan op een rechtmatige en evenredige manier gebeuren en dat de rechten van personen worden geëerbiedigd; wijst erop dat de bevoegde nationale wetshandhavingsinstanties bij de ontwikkeling en de uitrol van op AI gebaseerde systemen en technologieën om de openbare orde te bewaren, de desbetreffende regelgeving moeten eerbiedigen om de onevenredige risico’s van voorspellend politiewerk te beperken; erkent dat de Euro-Atlantische veiligheid in de eerste plaats wordt gewaarborgd door de NAVO en dringt aan op nauwere samenwerking binnen de NAVO voor het vaststellen van gemeenschappelijke normen en interoperabiliteit van defensiegerelateerde AI-systemen; beklemtoont dat de trans-Atlantische relatie van cruciaal belang is voor het behoud van gedeelde waarden en de bestrijding van toekomstige en nieuwe bedreigingen;

15. benadrukt dat voor AI-systemen voor veiligheids- en defensietoepassingen duidelijke voorschriften en eisen met degelijke certificering in verband met de betrouwbaarheid, veiligheid en beveiliging moeten worden vastgesteld, dat er in de verschillende fasen, namelijk ontwerp, productie en gebruik, transparantiecriteria moeten worden ingevoerd en dat er gedurende de volledige levenscyclus voortdurend moet worden gemonitord en regelmatig tests en controles moeten worden verricht; benadrukt dat het noodzakelijk is te zorgen voor de naleving van de toepasselijke normen en verkregen certificaten wanneer AI bijvoorbeeld via machine learning de werking en het gedrag wijzigt van systemen waarin het geïntegreerd is, om ervoor te zorgen dat besluiten die met betrokkenheid van AI zijn genomen en de resultaten ervan volledig traceerbaar zijn en kunnen worden verklaard en verantwoord, en dat het bovendien noodzakelijk is te zorgen voor betekenisvolle menselijke controle wanneer dergelijke systemen mensen zouden kunnen doden;

16. verzoekt de Commissie de capaciteitsopbouw voor cyberbeveiliging in te bedden in haar industriebeleid om de ontwikkeling en uitrol te garanderen van veilige, veerkrachtige en robuuste op AI-gebaseerde systemen en robotica; verzoekt de Commissie onderzoek te doen naar het gebruik van op blockchain gebaseerde cyberbeveiligingsprotocollen en -toepassingen ter verbetering van de weerbaarheid, betrouwbaarheid en robuustheid van AI-infrastructuur aan de hand van modellen van gegevensversleuteling zonder tussenkomst; moedigt de Europese belanghebbenden aan geavanceerde kenmerken te onderzoeken en te bouwen die de opsporing vergemakkelijken van corrupte en kwaadaardige op AI gebaseerde systemen en robotica die de veiligheid van de Unie en de burgers zouden kunnen ondermijnen;

17. benadrukt dat alle AI-systemen op het gebied van defensie een concreet en duidelijk afgebakend missiekader moeten hebben, waarbij mensen over de mogelijkheid moeten beschikken om ingezette systemen op te sporen en te ontkoppelen of te deactiveren indien zij hun door een menselijke bevelvoerder vastgelegde en toegewezen missiekader verlaten of een escalerende of onbedoelde werking inzetten; is van mening dat op AI gebaseerde systemen, producten en technologie voor militair gebruik uitgerust moeten zijn met een “zwarte doos” die alle gegevenstransacties van de machine registreert;

18. benadrukt dat de volledige aansprakelijkheid en verantwoordingsplicht voor het besluit om AI-systemen te ontwerpen, te ontwikkelen, in te zetten en te gebruiken moeten berusten op menselijke actoren, aangezien alle wapensystemen moeten worden onderworpen aan betekenisvolle menselijke monitoring en controle en het besluit om geweld te gebruiken bij de uitvoering van elke beslissing van een op AI gebaseerd wapensysteem dat dodelijke gevolgen kan hebben, moet afhangen van menselijke intenties; benadrukt dat er menselijke controle moet blijven bestaan voor de bevelvoering en controle van op AI gebaseerde systemen, in overeenstemming met de “human-in-the-loop”, “human-on-the loop” en “human-in-command” beginselen op het niveau van de militaire leiding; benadrukt dat systemen op basis van AI de militaire leiding in staat moeten stellen haar verantwoordelijkheid volledig op te nemen, het gebruik van dodelijk geweld te verantwoorden en het noodzakelijke beoordelingsniveau uit te oefenen om dodelijke of grootschalige destructieve actie via dergelijke systemen te kunnen ondernemen, en dat machines daartoe niet in staat zijn omdat er sprake moet zijn van onderscheidingsvermogen, evenredigheid en voorzorg; beklemtoont dat er een kader moet worden gecreëerd voor duidelijke en traceerbare toelating en verantwoordingsplicht in verband met het inzetten van slimme wapens en andere op AI gebaseerde systemen, waarbij unieke gebruikerskenmerken zoals biometrische kenmerken worden gebruikt zodat dergelijke wapens en systemen uitsluitend door bevoegd personeel kunnen worden ingezet;

19. verzoekt de Commissie met de nationale bevoegde autoriteiten van de lidstaten en met andere belanghebbenden die bijdragen aan de ontwikkeling en uitrol van op AI gebaseerde systemen, producten en technologieën samen te werken aan de vaststelling van een veilig, beveiligd en schokbestendig kader waarbij de broncode van de op AI gebaseerde systemen wordt gedeeld, gemonitord en geverifieerd teneinde mogelijke afwijkingen van de leidende beginselen en het ethisch kader omtrent AI-technologie op het gebied van veiligheid en defensie te beperken; is van mening dat de Unie de intellectuele-eigendomsrechten van door de Unie gefinancierd onderzoek betreffende op AI gebaseerde systemen, producten en technologieën op het gebied van veiligheid en defensie moet behouden en stelt voor dat de Commissie daar werk van maakt;

20. benadrukt dat de Unie het inzicht in de militaire gevolgen, voordelen, kansen en zwakke punten van AI, robotica en autonome functies en eigenschappen moet bevorderen, met inbegrip van het potentieel ervan voor de Europese defensiesector, door samen te werken met het militaire korps; is van mening dat de Unie de verwerving moet bevorderen van de nodige vaardigheden en kennis op het gebied van technologische ontwikkelingsprocessen en operationele methoden in de hele toeleveringsketen en gedurende de volledige levenscyclus van op AI gebaseerde militaire capaciteiten; benadrukt dat het dringend nodig is te komen tot een grotere Europese strategische en technologische onafhankelijkheid op het gebied van op AI gebaseerde systemen en de kritieke infrastructuur waarop deze berust;

21. is van mening dat betere samenwerking tussen de lidstaten en de Commissie noodzakelijk is om in de Unie samenhangende grensoverschrijdende regels te waarborgen om de samenwerking tussen Europese industriële sectoren aan te moedigen en de ontwikkeling en inzet mogelijk te maken van op AI gebaseerde technologieën die beantwoorden aan de voorgeschreven veiligheids- en beveiligingsnormen en het ethisch kader voor de ontwikkeling en inzet van AI-technologie;

22. erkent dat in de hybride en geavanceerde oorlogsvoering van vandaag het volume aan informatie en de snelheid ervan tijdens de vroege fasen van een crisis overdonderend kunnen zijn voor menselijke analisten en dat een AI-systeem die informatie kan verwerken om ervoor te zorgen dat de menselijke besluitvormers het volledige spectrum van informatie binnen een passend tijdsbestek kunnen doorlopen zodat ze snel kunnen reageren;

23. benadrukt dat het belangrijk is te investeren in de ontwikkeling van menselijk kapitaal voor artificiële intelligentie en daarbij de vaardigheden en het onderwijs te bevorderen die nodig zijn op het gebied van AI-technologieën voor veiligheid en defensie, met bijzondere aandacht voor de ethische toelaatbaarheid van semiautonome en autonome operationele systemen op basis van menselijke verantwoordingsplicht in een op AI gebaseerde wereld; beklemtoont met name dat het belangrijk is op dit gebied ethici te hebben die over passende vaardigheden beschikken en hiertoe een degelijke opleiding krijgen; verzoekt de Commissie zo spoedig mogelijk haar “versterking van de vaardighedenagenda” voor te stellen, zoals aangekondigd in haar witboek over kunstmatige intelligentie van 19 februari 2020;

24. beklemtoont dat het gebruik van kwantumcomputers wel eens de revolutionairste ommekeer in het beslechten van conflicten met zich zou kunnen brengen sinds de introductie van kernwapens, en dringt er daarom op aan om van de verdere ontwikkeling van kwantumcomputertechnologie een prioriteit te maken van de Unie en de lidstaten; erkent dat gewapende aanvallen, onder meer op kritieke infrastructuur, met behulp van kwantumcomputers een conflictomgeving zullen scheppen waarin de tijd voor besluitvorming ingrijpend wordt ingekort – van dagen en uren tot minuten en seconden – zodat de lidstaten ertoe gedwongen zijn capaciteiten te ontwikkelen die hen binnen dat korte tijdsbestek beschermen en zowel hun besluitvormers als militair personeel op te leiden om binnen dat korte tijdsbestek doeltreffend te reageren;

25. benadrukt dat de huidige fragmentering in de Unie wat betreft nationale wetgeving, onderzoek, innovatie en expertise op het gebied van AI moet worden overwonnen, omdat deze de werking van de interne markt en de doelstelling om te zorgen voor de betrouwbare en veilige ontwikkeling van AI in Europa in gevaar brengt; is in dit verband ingenomen met de opname van aan AI gerelateerde projecten in het industrieel ontwikkelingsprogramma voor de Europese defensie (EDIDP); is van mening dat het toekomstige Europees Defensiefonds (EDF) en de permanente gestructureerde samenwerking (PESCO) ook goed aangepaste kaders voor toekomstige aan AI gerelateerde projecten bieden die niet alleen bijdragen aan een betere stroomlijning van de inspanningen van de Unie op dit gebied, maar ook aan de doelstelling van de Unie om de mensenrechten, het internationaal recht en multilaterale oplossingen te versterken; beklemtoont dat aan AI gerelateerde projecten moeten worden gesynchroniseerd met de bredere civiele programma’s van de Unie die aan AI gewijd zijn; merkt op dat er, overeenkomstig het witboek van de Commissie over kunstmatige intelligentie, excellentie- en testcentra moeten worden opgericht die zich bezighouden met onderzoek naar en ontwikkeling van AI op het gebied van veiligheid en defensie, en dat voor die oprichting krachtige specificaties moeten gelden die de deelname van en investeringen door particuliere belanghebbenden ondersteunen;

26. beklemtoont dat de Unie moet streven naar strategische weerbaarheid zodat zij nooit meer onvoorbereid is op een crisis, en beklemtoont dat dit vooral van cruciaal belang is voor artificiële intelligentie en de toepassing daarvan op het gebied van defensie en veiligheid; benadrukt dat toeleveringsketens voor AI-systemen in verband met defensie en veiligheid die tot technologische afhankelijkheid kunnen leiden, moeten worden omgevormd en dat die afhankelijkheid geleidelijk moet worden afgebouwd; dringt aan op meer investeringen in Europese AI voor defensie en in de kritieke infrastructuur die daarvoor nodig is;

27. beklemtoont dat het voor de ontwikkeling van AI die de grondrechten eerbiedigt en het openbaar belang ondersteunt nodig is dat particuliere en openbare entiteiten in de Unie gegevens strategisch samenbrengen en met elkaar delen, en dat ook een AI-ecosysteem in de Unie, waarbij belanghebbenden uit de overheid, de particuliere sector en het maatschappelijk middenveld betrokken zijn, moet worden versterkt; verzoekt de Commissie de dialoog, nauwere samenwerking en synergie tussen de lidstaten, onderzoekers, academici, het maatschappelijk middenveld en de particuliere sector, met name toonaangevende bedrijven, en de strijdkrachten te bevorderen zodat regelingen in verband met defensiegerelateerde AI hun beslag kunnen krijgen via inclusieve besluitvormingsprocessen, het potentieel van AI zo volledig mogelijk wordt benut, en tegelijkertijd een beter inzicht in de risico’s en voordelen wordt bevorderd en maximale operationele veiligheid wordt gewaarborgd;

28. beklemtoont dat, in de context van de wijdverspreide desinformatieoorlog, die voornamelijk door niet-Europese actoren wordt gevoerd, AI-technologieën ook ethisch gezien schadelijke effecten kunnen hebben door in gegevens en algoritmen vervatte vooringenomenheid te exploiteren of doordat een derde land leergegevens opzettelijk wijzigt, en ook op onvoorspelbare wijze en met niet te overziene gevolgen vatbaar kunnen zijn voor andere vormen van gevaarlijke kwaadaardige manipulatie; wijst er daarom op dat de Unie nog meer moet blijven investeren in onderzoek, analyse, innovatie en grens- en sectoroverschrijdende kennisoverdracht om AI-technologieën te ontwikkelen die absoluut niet gebaseerd mogen zijn op enige vorm van profilering, vooringenomenheid en discriminatie, die doeltreffend kunnen bijdragen aan de bestrijding van nepnieuws en desinformatie en die tegelijkertijd de gegevensbescherming en het Europees rechtskader eerbiedigen;

29. beklemtoont dat het belangrijk is een ethische gedragscode op te stellen voor het inzetten van op AI gebaseerde systemen als wapen in militaire operaties, te vergelijken met het bestaande regelgevingskader dat het gebruik van chemische en biologische wapens verbiedt; is van mening dat de Commissie het initiatief moet nemen voor de opstelling van normen voor het gebruik van op AI gebaseerde wapensystemen bij oorlogsvoering in overeenstemming met het internationaal humanitair recht, en dat de Unie moet ijveren voor de internationale goedkeuring van deze normen; is van mening dat de Unie op internationale fora aan AI-diplomatie moet doen met gelijkgezinde partners zoals de G7, de G20 en de OESO;

30. neemt kennis van het witboek van de Commissie over kunstmatige intelligentie van 19 februari 2020 en betreurt dat de militaire aspecten daarin niet aan de orde werden gesteld; dringt er bij de Commissie en de VV/HV op aan om, ook als onderdeel van een algemene aanpak, een sectorale AI-strategie voor defensiegerelateerde activiteiten binnen het kader van de Unie voor te stellen, die zowel rekening houdt met de rechten van de burgers als met de strategische belangen van de Unie en die gebaseerd is op een consistente aanpak, gaande van de ontwikkeling van op AI gebaseerde systemen tot het militair gebruik ervan; dringt er tevens bij de Commissie op aan binnen de deskundigengroep op hoog niveau inzake artificiële intelligentie een werkgroep Veiligheid en Defensie op te richten die zich specifiek moet bezighouden met beleids- en investeringsvraagstukken, alsook met ethische aspecten van AI op het gebied van veiligheid en defensie; verzoekt de Raad, de Commissie en de VV/HV om daartoe een gestructureerde dialoog met het Europees Parlement aan te gaan.

 

 


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

22.6.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

60

7

2

Bij de eindstemming aanwezige leden

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Bij de eindstemming aanwezige vaste plaatsvervangers

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding


 

ADVIES VAN DE COMMISSIE INTERNE MARKT EN CONSUMENTENBESCHERMING (8.7.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake het kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies: Alexandra Geese

(Initiatief – Artikel 47 van het Reglement)

 

(*) Procedure met medeverantwoordelijke commissies – Artikel 57 van het Reglement

 

 

 

SUGGESTIES

De Commissie interne markt en consumentenbescherming verzoekt de bevoegde Commissie juridische zaken:

 onderstaande suggesties in haar ontwerpresolutie op te nemen:

 

A. overwegende dat ethische richtsnoeren, zoals de door de deskundigengroep op hoog niveau inzake artificiële intelligentie (AI) goedgekeurde beginselen, een goed uitgangspunt vormen maar niet toereikend zijn om ervoor te zorgen dat bedrijven eerlijk handelen en doeltreffende consumentenbescherming garanderen;

 

Toepassingsgebied

1. benadrukt het belang van een EU-regelgevingskader dat gericht is op de ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën en dat van toepassing is wanneer consumenten in de Unie gebruiker zijn van, onderworpen zijn aan, de doelgroep zijn van of gedreven worden naar een algoritmisch systeem, ongeacht de plaats van vestiging van de entiteiten die het systeem ontwikkelen, verkopen of gebruiken; is verder van mening dat de vastgestelde regels met het oog op rechtszekerheid van toepassing moeten zijn op alle ontwikkelaars en op de gehele waardeketen, namelijk de ontwikkeling, de uitrol en het gebruik van de desbetreffende technologieën en hun componenten, en dat zij een hoog niveau van consumentenbescherming moeten garanderen; herhaalt het belang van de in de Verdragen genoemde waarden van de Unie met betrekking tot het belang van de bescherming van persoonsgegevens en van expliciete en op informatie gebaseerde toestemming, en dringt erop aan dat in deze regels rekening wordt gehouden met de lessen die zijn getrokken uit de toepassing van Verordening (EU) 2016/679[19] (GDPR), die als een mondiale benchmark wordt beschouwd; is van mening dat een in de Unie gevestigde wettelijke vertegenwoordiger aan wie verzoeken kunnen worden gericht, bijvoorbeeld om de consument verhaal te laten halen, belangrijk is voor de handhaving van een toekomstig EU-regelgevingskader;

 

2. wijst erop dat het EU-regelgevingskader van toepassing moet zijn op algoritmische systemen, onder meer op het gebied van AI, het internet of things, machine learning, op regels gebaseerde systemen, geautomatiseerde en ondersteunde besluitvormingsprocessen en robotica; merkt verder op dat gestandaardiseerde verwijzingssystemen kunnen worden ontwikkeld om deze systemen te helpen uitleggen aan consumenten wanneer deze complex zijn of besluiten kunnen nemen die van grote invloed zijn op het leven van consumenten;

 

3. benadrukt dat het EU-regelgevingskader een op de mens gerichte benadering moet hanteren en moet leiden tot de ontwikkeling van systemen die Europese waarden van ethisch ontwerp integreren; is van mening dat een EU-regelgevingskader dat op in de Verdragen vervatte waarden van de Unie is gericht, een meerwaarde zou vormen door Europa een uniek concurrentievoordeel te verschaffen, een significante bijdrage zou leveren aan het welzijn en succes van burgers en bedrijven in de Unie, en ook de interne markt zou versterken; benadrukt dat een ethisch kader voor AI ook een meerwaarde vormt om innovatie op de interne markt te bevorderen;

 

4. wijst erop dat het bij Besluit nr. 768/2008/EG[20] ingevoerde wetgevingskader een geharmoniseerde lijst van verplichtingen voor producenten, invoerders en distributeurs bevat, het gebruik van normen aanmoedigt en in verschillende controleniveaus naargelang van de gevaarlijkheid van het product voorziet; is van mening dat dit kader ook van toepassing moet zijn op met AI uitgeruste producten;

 

5. benadrukt dat bij elke toekomstige regeling een gedifferentieerde risicogebaseerde aanpak moet worden gevolgd om de ontwikkeling en uitrol van veilige en betrouwbare systemen mogelijk te maken, met duidelijke criteria en indicatoren, gevolgd door een onpartijdige juridische beoordeling op basis van de potentiële schade voor of schendingen van rechten van een persoon en de samenleving als geheel, waarbij rekening wordt gehouden met de specifieke gebruikscontext van het algoritmisch systeem; benadrukt dat de wettelijke verplichtingen en certificeringseisen geleidelijk moeten toenemen met het vastgestelde risiconiveau, en dat er in de laagste risicocategorieën geen aanvullende wettelijke verplichtingen mogen zijn; wijst erop dat algoritmische systemen die schadelijk kunnen zijn voor een persoon, tot potentiële schendingen van de rechten van een persoon kunnen leiden of gevolgen hebben voor de toegang van een persoon tot publieke voordelen, niet tot de laagste risicocategorie mogen behoren; benadrukt dat deze risicogebaseerde aanpak duidelijke en transparante regels moet volgen, die voldoende rechtszekerheid bieden en toekomstbestendig zijn; dringt aan op een uniforme invoering van het systeem van risicoclassificatie en bijbehorende wettelijke verplichtingen om te zorgen voor een gelijk speelveld tussen de lidstaten en om versnippering van de interne markt te voorkomen; benadrukt dat de risicobeoordeling van een specifiek systeem regelmatig opnieuw moet worden geëvalueerd;

 

6. herinnert eraan dat de Commissie het bestaande rechtskader van de EU en de toepassing ervan moet onderzoeken, met inbegrip van het acquis inzake consumentenwetgeving en de wetgeving inzake productaansprakelijkheid, productveiligheid en markttoezicht, om juridische lacunes op te sporen, alsook bestaande regelgevingsverplichtingen; acht dit noodzakelijk om vast te stellen of het bestaande rechtskader van de EU kan inspelen op de opkomst van AI, robotica en aanverwante technologieën en of het een hoog niveau van consumentenbescherming kan waarborgen;

 

Gegevensbeheer

7. benadrukt het belang van een ethisch en regelgevend kader van de EU, met inbegrip van met name bepalingen die hoogwaardige gegevens vereisen om algoritmische systemen te trainen met het oog op hun beoogd gebruik; wijst er in dit verband op dat moet worgen gezorgd voor representativiteit van de gebruikte trainingsgegevens en, waar mogelijk, voor objectivering van de datasets, alsook voor normen voor gegevens en aggregatie om de output van algoritmische systemen te verbeteren en het vertrouwen en de aanvaarding van de consument te vergroten; benadrukt dat de bevoegde autoriteiten die datasets moeten kunnen controleren indien hun gevraagd wordt ervoor te zorgen dat ze in overeenstemming zijn met de eerder uiteengezette beginselen;

 

Consumentenbescherming: transparante en verklaarbare algoritmen

8. benadrukt dat consumentenvertrouwen van essentieel belang is voor de ontwikkeling en uitrol van AI, robotica en aanverwante technologieën die inherente risico’s met zich kunnen brengen wanneer zij op ondoorzichtige algoritmen en vertekende datasets zijn gebaseerd; is van mening dat consumenten het recht moeten hebben om op adequate, begrijpelijke, tijdige, gestandaardiseerde, nauwkeurige en toegankelijke wijze te worden geïnformeerd over het bestaan, de manier van redeneren, de mogelijke resultaten en de gevolgen voor consumenten van algoritmische systemen, de manier waarop een mens met beslissingsbevoegdheid kan worden bereikt, en over de wijze waarop de beslissingen van het systeem kunnen worden gecontroleerd, op zinvolle wijze bestreden en gecorrigeerd; herinnert eraan dat mensen altijd in staat moeten zijn geautomatiseerde besluiten terzijde te stellen; is van mening dat consumenten ook moeten worden beschermd door het recht om waar mogelijk een AI-systeem met gebruikmaking van personalisatie uit te schakelen of te beperken; benadrukt het belang van evenredigheid bij de ontwikkeling van een dergelijk transparantiekader om onnodige lasten voor startende ondernemingen en kleine en middelgrote ondernemingen (kmo’s) die actief zijn in sectoren met een laag risico te vermijden;

 

9. wijst op de noodzaak de door algoritmische systemen gecreëerde uitdagingen doeltreffend aan te pakken en ervoor te zorgen dat consumenten over rechten beschikken en goed worden beschermd; benadrukt dat er verder moet worden gekeken dan de traditionele beginselen van informatie en openbaarmaking op grond waarvan het consumentenacquis tot stand is gekomen, aangezien sterkere consumentenrechten en duidelijke beperkingen ten aanzien van de ontwikkeling en het gebruik van algoritmische systemen nodig zullen zijn om ervoor te zorgen dat technologie bijdraagt tot het verbeteren van het leven van de consument en evolueert met eerbiediging van grond- en consumentenrechten en Europese waarden;

 

10. is van mening dat een waardegevoelige ontwerpbenadering absoluut noodzakelijk is om de voorwaarden te scheppen voor een wijdverspreide sociale acceptatie van AI voor consumenten; is van mening dat ethische waarden van billijkheid, juistheid, vertrouwelijkheid en transparantie de grondslag moeten vormen voor AI, wat in deze context inhoudt dat de handelingen van het systeem van die aard moeten zijn dat ze geen oneerlijk vertekende outputs genereren;

 

11. herinnert eraan dat het belangrijk is te voorzien in doeltreffende rechtsmiddelen voor consumenten, en verzoekt de lidstaten en de nationale markttoezichtautoriteiten te zorgen voor toegankelijke, betaalbare, onafhankelijke en doeltreffende procedures en beoordelingsstructuren om een onpartijdige menselijke beoordeling te garanderen van alle claims wegens schending van consumentenrechten door het gebruik van algoritmische systemen, zowel in de openbare als in de private sector; dringt erop aan dat er mechanismen voor geschillenbeslechting en voor collectief verhaal overeenkomstig de richtlijn van het Europees Parlement en de Raad betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten en tot intrekking van Richtlijn 2009/22/EG[21] beschikbaar worden gesteld om de invoering of het verdere gebruik van een systeem dat een risico inhoudt voor schending van de consumentenrechten, aan te vechten of een schending van rechten op te heffen; verzoekt de Commissie ervoor te zorgen dat nationale en Europese consumentenorganisaties over voldoende financiële middelen beschikken om consumenten te helpen bij de uitoefening van hun recht op een rechtsmiddel in gevallen waarin besluiten op basis van AI-toepassingen een inbreuk plegen op consumentenrechten;

 

12. benadrukt dat wanneer overheidsgeld in ruime mate wordt gebruikt voor de ontwikkeling of invoering van een algoritmisch systeem, naast open aanbestedingsnormen, de code, de gegenereerde gegevens – voor zover dit geen persoonsgegevens zijn – en het getrainde model met de goedkeuring van de ontwikkelaar standaard openbaar kunnen zijn om transparantie te waarborgen, de cyberbeveiliging te verbeteren en hergebruik mogelijk te maken om innovatie te bevorderen; benadrukt dat op deze manier het volledige potentieel van de interne markt kan worden benut terwijl versnippering van de markt wordt voorkomen;

 

Interne markt: voorlichting en bewustmaking van de consument

13. benadrukt dat het belangrijk is ervoor te zorgen dat naar behoren rekening wordt gehouden met de belangen van alle consumenten, met inbegrip van consumenten die zich in de marge van de samenleving of een kwetsbare situatie bevinden, zoals personen met een handicap, en dat deze belangen in elk toekomstig regelgevingskader van de EU worden behartigd; merkt op dat, met het oog op de analyse van de gevolgen van algoritmische systemen voor consumenten, de toegang tot gegevens kan worden uitgebreid tot passende partijen, met name onafhankelijke onderzoekers, media en organisaties van het maatschappelijk middenveld, indien mogelijk via applicatieprogramma-interfaces (API’s), met volledige inachtneming van de regelgeving van de Unie inzake gegevensbescherming, privacy en handelsgeheimen; herinnert aan het belang van educatie van consumenten om beter geïnformeerd en vaardiger te zijn bij de omgang met algoritmische systemen, en hen zo te beschermen tegen potentiële risico’s en hun rechten te verdedigen; is van mening dat AI, het internet of things en andere opkomende technologieën een enorm potentieel hebben om te voorzien in mogelijkheden voor consumenten om toegang te kunnen hebben tot diverse voorzieningen die hun dagelijks leven op tal van manieren vergemakkelijken en zorgen voor betere producten en diensten, waarbij de consumenten ook profiteren van de bevordering van beter markttoezicht, zolang alle toepasselijke beginselen, voorwaarden (waaronder transparantie en controleerbaarheid) en regelgeving van toepassing blijven;

 

14. benadrukt dat het belangrijk is een hoog niveau van algemene digitale geletterdheid te bereiken en hooggekwalificeerde vakmensen op dit gebied op te leiden, alsook de wederzijdse erkenning van deze kwalificaties in de hele Unie te waarborgen; beklemtoont dat verschillende teams van ontwikkelaars en ingenieurs moeten samenwerken met de belangrijkste actoren in de samenleving om te voorkomen dat gender- en culturele vertekening onbedoeld doordringen tot AI-algoritmen, -systemen en -toepassingen; pleit voor het opzetten van leerplannen en activiteiten op het gebied van publieksvoorlichting betreffende de maatschappelijke, juridische en ethische gevolgen van AI;

 

15. verzoekt de Commissie de ontwikkeling te bevorderen en te financieren van op de mens gerichte AI, robotica en aanverwante technologieën die milieu- en klimaatuitdagingen aanpakken en die zorgen voor gelijke toegang tot en uitoefening van de grondrechten door gebruik te maken van fiscale prikkels, overheidsopdrachten of andere stimulansen;

 

16. benadrukt dat AI en algoritmische systemen aan de wettelijke eisen moeten voldoen en robuust, betrouwbaar en veilig door ontwerp moeten zijn; verzoekt de Commissie ervoor te zorgen dat de regelgevende benadering van de Unie van algoritmische systemen passende maatregelen behelst opdat deze systemen aan onafhankelijke controle en toezicht kunnen worden onderworpen;

 

Markttoezicht

17. dringt aan op de oprichting van een Europees kenniscentrum dat de capaciteiten van de Unie versterkt en zo veel mogelijk voortbouwt op bestaande structuren om de uitwisseling van informatie in verband met algoritmische systemen tussen de autoriteiten van de lidstaten te bevorderen en de ontwikkeling van een gemeenschappelijke visie op de interne markt te ondersteunen door richtsnoeren, adviezen en expertise aan de autoriteiten van de lidstaten te verstrekken, toe te zien op de tenuitvoerlegging van de desbetreffende wetgeving van de Unie, potentiële problemen op het gebied van consumentenbescherming aan te pakken, normen voor optimale praktijken vast te stellen en, in voorkomend geval, aanbevelingen voor regelgevingsmaatregelen te doen; dringt er verder op aan dat deze structuur op passende wijze wordt bijgestaan door organisaties van belanghebbenden, zoals organisaties voor consumentenbescherming, om brede consumentenvertegenwoordiging te waarborgen; is van mening dat vanwege de onevenredige impact van algoritmische systemen op vrouwen en minderheden, de besluitvormingsniveaus van een dergelijke structuur divers en genderevenwichtig moeten zijn; benadrukt dat de lidstaten in het kader van hun nationale strategieën voor markttoezicht risicobeheerstrategieën voor AI moeten ontwikkelen;

 

18. verzoekt de Commissie maatregelen voor te stellen voor de traceerbaarheid van data, waarbij rekening wordt gehouden met zowel de rechtmatigheid van de verwerving van data, als met de bescherming van de consumentenrechten en de grondrechten; benadrukt tegelijkertijd dat de datasets, algoritmen en processen die worden gebruikt bij de ontwikkeling en uitrol van algoritmische systemen, met inbegrip van het verzamelen en labelen van de gegevens, moeten worden gedocumenteerd in overeenstemming met de industrienorm; wijst erop dat de documentatie van de risicobeoordeling, de softwaredocumentatie en de door artificiële intelligentie, robotica en aanverwante technologieën gebruikte of geproduceerde algoritmen en datasets toegankelijk en verklaarbaar moeten zijn voor de markttoezichtautoriteiten, met inachtneming van de regelgeving van de Unie en handelsgeheimen; merkt verder op dat deze documentatie moet worden bewaard door degenen die betrokken zijn bij de verschillende stadia van de ontwikkeling van algoritmische systemen; merkt op dat in verband hiermee aanvullende prerogatieven aan de markttoezichtautoriteiten moeten worden verleend; is van mening dat een onderzoek van de huidige wetgeving inzake markttoezicht nodig kan zijn om veroudering ervan te voorkomen en te waarborgen dat zij op ethische wijze inspeelt op de opkomst van AI, robotica en aanverwante technologieën;

 

19. dringt erop aan dat elke lidstaat een bevoegde nationale autoriteit aanwijst en van voldoende middelen voorziet om toe te zien op de toepassing van de bepalingen met betrekking tot algoritmische systemen; benadrukt dat de nationale markttoezichtautoriteiten moeten worden versterkt qua capaciteit, vaardigheden en bevoegdheden op het gebied van AI, en kennis over de specifieke risico’s ervan;

 

20. dringt aan op een sterke coördinatie van de autoriteiten van de lidstaten en op de oprichting van een Europese raad voor markttoezicht voor algoritmische systemen, bestaande uit de nationale autoriteiten, om te zorgen voor doeltreffend toezicht en een gelijk speelveld in Europa en om versnippering van de interne markt te voorkomen;

 

21. erkent de waardevolle resultaten van de deskundigengroep op hoog niveau inzake AI, en met name de “Ethische richtsnoeren voor betrouwbare artificiële intelligentie”; stelt voor dat deze groep bestaande uit vertegenwoordigers uit de academische wereld, het maatschappelijk middenveld en het bedrijfsleven, alsook de Europese AI-alliantie, expertise ter beschikking stelt aan de Europese raad voor markttoezicht voor algoritmische systemen;

 

22. merkt op dat, met name in situaties tussen ondernemingen en consumenten, systemen op de gebruiker gericht moeten zijn en zo moeten zijn ontworpen dat iedereen gebruik kan maken van AI-producten of -diensten, ongeacht hun leeftijd, geslacht, vaardigheden of eigenschappen; merkt op dat toegang tot deze technologie voor personen met een handicap van bijzonder belang is; wijst erop dat voor AI-systemen geen standaardbenadering mag worden gevolgd en rekening moet worden gehouden met beginselen inzake universeel ontwerp om een zo groot mogelijke groep gebruikers te bereiken, met inachtneming van relevante toegankelijkheidsnormen; benadrukt dat dit mensen in staat zal stellen om op billijke wijze toegang te krijgen tot en actief deel te nemen aan bestaande en opkomende computerondersteunde menselijke activiteiten en hulptechnologieën.

 

 


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

7.7.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

39

1

4

Bij de eindstemming aanwezige leden

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Bij de eindstemming aanwezige vaste plaatsvervangers

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

39

+

PPE

S&D

Renew

Verts/ALE

ECR

GUE/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 


 

 

 

ADVIES VAN DE COMMISSIE VERVOER EN TOERISME (16.7.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake het kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies: Valter Flego

(*) Procedure met medeverantwoordelijke commissies – Artikel 57 van het Reglement

 

 

(Initiatief – Artikel 47 van het Reglement)

 

 

SUGGESTIES

De Commissie vervoer en toerisme verzoekt de bevoegde Commissie juridische zaken onderstaande suggesties in haar ontwerpresolutie op te nemen:

A. overwegende dat artificiële intelligentie (AI) een technologie van strategisch belang is voor de vervoerssector en naar verwachting de burgers en de samenleving ten goede zal komen door de levenskwaliteit te verbeteren, het veiligheidsniveau van alle vormen van vervoer te verhogen en nieuwe werkgelegenheidskansen en duurzamere bedrijfsmodellen te creëren; overwegende dat AI de mogelijkheid biedt om de samenleving ingrijpend te veranderen, met name als deze technologie breed beschikbaar en toegankelijk wordt;

B. overwegende dat het volledige potentieel van AI in de vervoerssector alleen kan worden benut als gebruikers zich bewust zijn van de potentiële voordelen en uitdagingen die deze technologie met zich meebrengt; overwegende dat deze kwestie aan bod moet komen in het onderwijs en in trainingen, onder meer met het oog op het bevorderen van digitale inclusie, en dat informatiecampagnes op Unieniveau moeten worden gevoerd die een nauwkeurig beeld geven van alle aspecten van de ontwikkeling van AI;

C. overwegende dat een Europese benadering van AI, robotica en aanverwante technologieën in overeenstemming moet zijn met ethische beginselen om ervoor te zorgen dat AI, robotica en aanverwante technologieën op de mens gericht zijn, om het welzijn van de mens, de veiligheid, het welzijn van de samenleving en het milieu te verbeteren, om de relevante ethische dilemma’s aan te pakken, om de fundamentele rechten, waarden en beginselen van de Unie volledig te eerbiedigen en om volledig in overeenstemming te zijn met de wetgeving van de Unie inzake privacy en gegevensbescherming; overwegende dat met deze benadering ook kwesties moeten worden aangepakt met betrekking tot de kwaliteit van de datasets die in algoritmische systemen worden gebruikt, de algoritmen zelf en de standaarden voor gegevens en aggregatie;

D. overwegende dat betrouwbare AI gebaseerd moet zijn op vier ethische beginselen: eerbiediging van de menselijke autonomie, voorkoming van schade, eerlijkheid en verklaarbaarheid; overwegende dat de eerbiediging van deze ethische beginselen het noodzakelijk maakt om een aantal specifieke regels voor de vervoerssector in de Unie vast te stellen;

E. overwegende dat menselijke fouten een rol spelen bij circa 95 % van alle verkeersongevallen in de Unie; overwegende dat de Unie ernaar streefde het aantal verkeersdoden in de Unie tegen 2020 met 50 % te verminderen ten opzichte van 2010, maar dat zij, gezien de stagnerende vooruitgang op dit terrein, haar inspanningen in het kader van haar beleidskader voor verkeersveiligheid 2021-2030 – Volgende stappen voor “Vision Zero” heeft hernieuwd; overwegende dat AI, automatisering en andere nieuwe technologieën in dit verband een groot potentieel hebben en van vitaal belang zijn om het verkeer veiliger te maken doordat zij de kans op menselijke fouten beperken;

F. overwegende dat AI, automatisering en andere nieuwe technologieën tevens kunnen bijdragen aan het verminderen van verkeersopstoppingen en de uitstoot van broeikasgassen en luchtvervuilende stoffen;

G. overwegende dat de ontwikkeling van ethisch verantwoorde, mensgerichte en technologisch solide AI, robotica en aanverwante technologieën voor toepassing in de vervoerssector ondernemingen in de Unie, met inbegrip van kmo’s, de kans biedt om wereldwijde marktleiders op dit gebied te worden;

H. overwegende dat deze nieuwe zakelijke kansen kunnen bijdragen aan het herstel van het bedrijfsleven in de Unie na de huidige gezondheids- en economische crisis en aan een bredere toepassing van AI-technologie in de vervoerssector; overwegende dat deze kansen voor nieuwe werkgelegenheid zullen zorgen, aangezien de toepassing van AI en aanverwante technologieën de mogelijkheid biedt om de productiviteit van bedrijven te verhogen en bij te dragen aan een hogere mate van efficiëntie; overwegende dat innovatieprogramma’s op dit gebied regionale clusters de mogelijkheid bieden om hun positie te versterken;

I. overwegende dat een dergelijke Europese benadering van de ontwikkeling van AI, robotica en aanverwante technologieën voor de vervoerssector het potentieel heeft om het mondiale concurrentievermogen en de strategische autonomie van de economie van de Unie te vergroten;

J. overwegende dat in sectoren als het openbaar vervoer AI-toepassingen voor intelligente vervoerssystemen kunnen worden gebruikt om files te beperken, routes te optimaliseren, personen met een beperking zelfredzamer te maken en de energie-efficiëntie te optimaliseren, waarmee wordt bijgedragen aan de vermindering van koolstofemissies en het verkleinen van de ecologische voetafdruk;

1. benadrukt het potentieel van AI, robotica en aanverwante technologieën voor alle vormen van autonoom vervoer over het spoor, over water en door de lucht, en ook voor het stimuleren van de modal shift en intermodaal vervoer, aangezien dergelijke technologieën kunnen helpen om de optimale combinatie van vormen van vervoer te vinden voor het vervoer van goederen en personen; benadrukt verder dat deze technologieën het potentieel hebben om het vervoer, logistieke processen en verkeersstromen efficiënter te maken en alle vormen van vervoer veiliger, slimmer en milieuvriendelijker te maken; wijst erop dat een ethische benadering van AI ook kan fungeren als systeem voor vroegtijdige waarschuwing, in het bijzonder met betrekking tot de veiligheid en efficiëntie van het vervoer;

2. benadrukt dat de wereldwijde concurrentie tussen bedrijven en economische regio’s betekent dat de Unie investeringen moet bevorderen en het internationale concurrentievermogen van bedrijven in de vervoerssector moet versterken door een gunstig klimaat te scheppen voor de ontwikkeling en toepassing van AI-oplossingen en verdere innovaties, waarbij in de Unie gevestigde bedrijven wereldleider kunnen worden op het gebied van de ontwikkeling van AI-technologieën;

3. benadrukt dat de vervoerssector in de EU behoefte heeft aan een actualisering van het regelgevingskader met betrekking tot dergelijke opkomende technologieën en het gebruik ervan in de vervoerssector en aan een duidelijk ethisch kader voor het verwezenlijken van betrouwbare AI, onder meer met betrekking tot veiligheid, beveiliging, eerbiediging van de menselijke autonomie, toezicht en aansprakelijkheid, hetgeen zal leiden tot meer voordelen die door iedereen worden gedeeld en essentieel zal zijn voor het stimuleren van investeringen in onderzoek en innovatie, de ontwikkeling van vaardigheden en de invoering van AI door overheidsdiensten, kmo’s, startende ondernemingen en bedrijven, en tegelijkertijd de bescherming van gegevens en de interoperabiliteit zal waarborgen, zonder dat dit een onnodige administratieve last voor bedrijven en consumenten met zich meebrengt; benadrukt dat het van cruciaal belang is ervoor te zorgen dat elke actualisering van het regelgevingskader met betrekking tot deze opkomende technologieën altijd gebaseerd is op een reële behoefte en in overeenstemming is met het beginsel van betere regelgeving en

a) verzoekt de Commissie om een duidelijk kader vast te stellen met ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van AI, robotica en aanverwante technologieën in de vervoerssector, waarbij moet worden gewaarborgd dat AI, robotica en aanverwante technologieën in de vervoerssector in overeenstemming met die ethische beginselen worden ontwikkeld, uitgerold en gebruikt;

b) pleit voor het opstellen van richtsnoeren voor een geharmoniseerde risico-indeling van op AI gebaseerde technologieën voor alle vervoerswijzen, onder meer met betrekking tot aan mensen en aan AI toegewezen voertuigfuncties, en met een duidelijke beschrijving van de verantwoordelijkheden en eisen op het gebied van veiligheid;

c) verzoekt de Commissie het gebruik van de bestaande Europese structuur voor markttoezicht voor algoritmische systemen te onderzoeken, met inbegrip van de bijbehorende voorschriften voor gegevensbescherming, die richtsnoeren, adviezen en expertise verstrekt aan de autoriteiten van de lidstaten, onder meer over interoperabiliteit;

d) verzoekt de Commissie een AI-stelsel van risico-indeling voor intelligente vervoerssystemen op te zetten, in overeenstemming met de risico-indeling van de deskundigengroep op hoog niveau, om beter te kunnen inspelen op de nieuwe behoeften van de vervoerssector;

e) verzoekt de Commissie om bijzondere aandacht te besteden aan de situatie van kmo’s en om toekomstige wetgeving op te zetten met het oog op het vergroten van de kansen voor deze ondernemingen om AI-technologie te ontwikkelen en toe te passen;

f) acht het noodzakelijk eindgebruikers gedetailleerde informatie te verstrekken over de werking van vervoerssystemen en op AI gebaseerde voertuigen;

4. wijst erop dat de Europese benadering van AI-technologie vertrouwen moet wekken bij burgers, het algemeen belang moet dienen en moet bijdragen aan gedeelde maatschappelijke verantwoordelijkheid; is van mening dat de ontwikkeling van betrouwbare, ethisch verantwoorde en technisch robuuste AI een belangrijke factor is voor duurzame en slimme mobiliteit die veilig en toegankelijk is; verzoekt de Commissie in dit verband de invoering van AI in de vervoerssector te blijven bevorderen en, om ervoor te zorgen dat de grondrechten van de Unie worden geëerbiedigd, onverwijld en in nauwe samenwerking met alle belanghebbenden in de vervoerssector overeenkomstige wijzigingen van de wetgeving van de Unie voor te stellen;

5. benadrukt dat de ontwikkeling en toepassing van AI veilige en toegankelijke vervoersdiensten moet waarborgen;

6. beveelt de ontwikkeling aan van betrouwbare AI-normen voor de hele Unie voor alle vormen van vervoer, ook voor de automobielindustrie, met betrekking tot veiligheid, interoperabiliteit, technische robuustheid, herstelbaarheid en recycleerbaarheid van de desbetreffende hardware, onder meer om problemen aan te pakken in verband met hulpbronnenefficiëntie, privacy, gegevensbescherming en transparantie, en voor het testen van op AI gebaseerde voertuigen en aanverwante producten en diensten;

7. verzoekt de Commissie nauw samen te werken met de lidstaten wat betreft de opstelling, invoering en handhaving van betrouwbare veiligheidsnormen voor AI in de Unie; merkt op dat de Unie de potentie heeft een wereldleider te worden op het gebied van het bevorderen van een maatschappelijk verantwoorde en duurzame benadering van deze technologie en het gebruik ervan;

8. verzoekt de Commissie de mogelijkheid te onderzoeken om een of meer relevante bestaande agentschappen, instellingen of organen op het niveau van de Unie te belasten met toezichts-, handhavings- en sanctiemechanismen en te onderzoeken hoe de bestaande toezichts- en controle-instrumenten in de vervoerssector kunnen worden uitgerust en gebruikt om actie te ondernemen, om ervoor te zorgen dat er op het niveau van de Unie toezicht wordt gehouden en om de Commissie in staat te stellen actie te ondernemen als een AI-systeem dat in het vervoer wordt gebruikt, de grondrechten of het Europese ethische en veiligheidskader schaadt;

9. verzoekt de Commissie de ontwikkeling van betrouwbare AI-systemen verder te ondersteunen om het vervoer veiliger, efficiënter, toegankelijker, betaalbaar en inclusief te maken, ook voor personen met beperkte mobiliteit, in het bijzonder personen met een handicap, daarbij rekening houdend met Richtlijn (EU) 2019/882 van het Europees Parlement en de Raad[22] en de Europese wetgeving inzake passagiersrechten;

10. wijst op de hoge toegevoegde waarde die autonome voertuigen bieden aan personen met beperkte mobiliteit, doordat deze voertuigen hen in staat stellen volwaardiger deel te nemen aan individueel wegvervoer en zodoende hun dagelijks leven makkelijker maken;

11. benadrukt het belang van toegankelijkheid, met name bij het ontwerpen van MaaS-systemen (mobiliteit als een dienst);

12. onderstreept het vitale belang van datawetenschap voor het ontwerpen van niet-discriminerende AI-systemen en het voorkomen van het gebruik van beschadigde gegevens; beveelt bovendien aan om procedures voor gegevensverwerking te volgen die in overeenstemming zijn met de AVG en de beginselen van vertrouwelijkheid en non-discriminatie in acht nemen;

13. merkt op dat AI-systemen kunnen helpen om het aantal dodelijke verkeersslachtoffers aanzienlijk te verlagen, bijvoorbeeld door snellere reactietijden en een betere naleving van de regels; is echter van mening dat het gebruik van autonome voertuigen onmogelijk alle ongevallen kan elimineren en onderstreept dat dit de verklaarbaarheid van AI-beslissingen steeds belangrijker maakt om tekortkomingen en onbedoelde gevolgen van AI-beslissingen te rechtvaardigen;

14. is van oordeel dat het altijd mogelijk moet zijn om AI-beslissingen, alsook de relevante gegevens waar die beslissingen op gebaseerd zijn, in niet-technische bewoordingen uit te leggen aan eindgebruikers en andere belanghebbenden;

15. merkt op dat de ontwikkeling en integratie van AI in de vervoerssector niet mogelijk zal zijn zonder moderne infrastructuur, wat een essentieel deel uitmaakt van slimme vervoerssystemen; benadrukt dat aanhoudende verschillen in het ontwikkelingsniveau tussen de lidstaten het risico met zich meebrengen dat de minst ontwikkelde regio’s en hun inwoners van de voordelen van de ontwikkeling van autonome mobiliteit verstoken blijven; roept op tot een evaluatie van de uitdagingen voor de toekomst van de arbeidsmarkt als gevolg van de ontwikkeling van AI-technologieën in de vervoerssector, en tot een adequate financiering van de modernisering van de infrastructuur in de Unie, met inbegrip van de integratie ervan in het 5G-netwerk.


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

14.7.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

49

0

0

Bij de eindstemming aanwezige leden

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Bij de eindstemming aanwezige vaste plaatsvervangers

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Verklaring van de gebruikte symbolen:

+ : voor

- : tegen

0 : onthouding

 

 

 


 

ADVIES VAN DE COMMISSIE BURGERLIJKE VRIJHEDEN, JUSTITIE EN BINNENLANDSE ZAKEN (22.9.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie over het kader voor ethische aspecten van kunstmatige intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies (*): Assita Kanko

(*) Medeverantwoordelijke commissie – Artikel 57 van het Reglement

 

 

(Initiatief – Artikel 47 van het Reglement)

 

 

SUGGESTIES

De Commissie burgerlijke vrijheden, justitie en binnenlandse zaken verzoekt de bevoegde Commissie juridische zaken onderstaande suggesties in haar ontwerpresolutie op te nemen:

 gezien de artikelen 2 en 3 van het Verdrag betreffende de Europese Unie (VEU),

 gezien de artikelen 10, 19, 21 en 167 van het Verdrag betreffende de werking van de Europese Unie (VWEU),

 gezien het recht om een verzoekschrift tot het Europees Parlement te richten, zoals neergelegd in de artikelen 20 en 227 VWEU, en in artikel 44 van het Handvest van de grondrechten van de Europese Unie,

 gezien de artikelen 21 en 22 van het Handvest van de grondrechten van de Europese Unie,

 gezien de preambule bij het VEU,

 gezien het Kaderverdrag inzake de bescherming van nationale minderheden van de Raad van Europa, Protocol nr. 12 bij het Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden, en het Europees Handvest voor regionale talen of talen van minderheden,

 gezien Richtlijn 2000/43/EG van de Raad van 29 juni 2000 houdende toepassing van het beginsel van gelijke behandeling van personen ongeacht ras of etnische afstamming[23] (richtlijn inzake rassengelijkheid),

 gezien Richtlijn 2000/78/EG van de Raad van 27 november 2000 tot instelling van een algemeen kader voor gelijke behandeling in arbeid en beroep[24] (de richtlijn inzake gelijke behandeling in arbeid),

 gezien Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming)[25], en Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad[26],

 gezien de mededeling van de Commissie aan het Europees Parlement, de Europese Raad, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 11 december 2019 over de Europese Green Deal,

 gezien zijn resolutie van 16 februari 2017 met aanbevelingen aan de Commissie over civielrechtelijke regels inzake robotica[27],

 gezien de aanbeveling van de OESO-Raad betreffende kunstmatige intelligentie, die op 22 mei 2019 werd aangenomen,

A. overwegende dat het mensen zijn die zogenaamde “kunstmatige intelligentie”, robotica en aanverwante technologieën ontwikkelen en ontwerpen en dat hun keuzes bepalen of de mogelijkheden van de technologie ten goede komen aan de samenleving;

B. overwegende dat de verantwoordingsplicht in verband met algoritmen betekent dat er technische en operationele maatregelen moeten worden toegepast die transparantie, duidelijk toegewezen verantwoordelijkheidsketens en non-discriminatie aan de hand van geautomatiseerde besluitvorming of berekeningen van waarschijnlijk individueel gedrag garanderen; overwegende dat transparantie moet inhouden dat aan personen nuttige informatie wordt verstrekt over de onderliggende logica, het belang en de verwachte gevolgen; overwegende dat deze informatie onder meer gegevens moet omvatten die worden gebruikt voor opleiding op het gebied van AI, en personen in staat moet stellen de besluiten die hen aangaan te begrijpen en te volgen;

C.  overwegende dat er ernstige bezorgdheid bestaat dat het huidige rechtskader van de EU, met inbegrip van het acquis op het gebied van het consumentenrecht, de wetgeving inzake productveiligheid en markttoezicht, en de wetgeving ter bestrijding van discriminatie, niet altijd geschikt is om de door kunstmatige intelligentie, robotica en aanverwante technologieën gecreëerde risico’s doeltreffend aan te pakken;

D. overwegende dat kunstmatige intelligentie, robotica en aanverwante technologieën ernstige implicaties kunnen hebben voor de materiële en immateriële goederen van personen, groepen en de samenleving als geheel, en dat deze individuele en collectieve schadelijke gevolgen in de reacties van de wetgevende macht moeten worden weerspiegeld;

E. overwegende dat terdege moet worden nagedacht over bestuurskwesties in verband met de inzet van AI in de publieke sector voor wat betreft de implicaties voor de democratie, met name de democratische legitimiteit, verantwoordingsplicht, betekenisvolle betrokkenheid van het publiek en toezicht;

F. overwegende dat gegevensanalyse en AI een almaar grotere invloed hebben op de informatie die aan burgers ter beschikking wordt gesteld; overwegende dat deze technieken, wanneer er misbruik van wordt gemaakt, het fundamentele recht op informatie, persvrijheid en pluralisme in gevaar kunnen brengen;

G. overwegende dat ethische richtsnoeren, zoals de beginselen die zijn goedgekeurd door de deskundigengroep op hoog niveau inzake kunstmatige intelligentie, een goed uitgangspunt vormen maar niet toereikend zijn om ervoor te zorgen dat bedrijven eerlijk handelen en doeltreffende consumentenbescherming garanderen;

1. onderstreept dat burgers, de particuliere en de openbare sector, academici en de academische gemeenschap de mogelijkheden en kansen van kunstmatige intelligentie alleen ten volle kunnen benutten als het publieke vertrouwen in deze technologieën wordt gewaarborgd door middel van strikte handhaving van de grondrechten, naleving van de huidige EU-wetgeving inzake gegevensbescherming en rechtszekerheid voor alle betrokken actoren; benadrukt dat persoonsgegevens uitsluitend mogen worden verwerkt op grond van een van de rechtsgrondslagen van artikel 6 van Verordening (EU) 2016/679; is van mening dat transparantie en een goede informatieverstrekking aan de betrokkenen van essentieel belang zijn om het publieke vertrouwen te versterken en de individuele rechten te beschermen;

2. onderstreept dat naleving van de bestaande wetgeving inzake gegevensbescherming, samen met strenge wetenschappelijke, ethische en juridische normen, en methoden voor democratisch toezicht, van essentieel belang zijn om vertrouwen te scheppen in AI-oplossingen en de betrouwbaarheid ervan; benadrukt voorts dat de informatie die door AI wordt gegenereerd, geen onpartijdig overzicht biedt over welk onderwerp dan ook en slechts zo betrouwbaar is als de onderliggende gegevens toelaten; benadrukt dat voorspellende analyses op basis van AI alleen een statistische waarschijnlijkheid kunnen opleveren en bijgevolg niet altijd precies het gedrag van een persoon kunnen voorspellen; benadrukt daarom dat solide wetenschappelijke, ethische en juridische normen van essentieel belang zijn voor het beheren van de gegevensverzameling en voor het beoordelen van de resultaten van een dergelijke AI-analyse;

3. is van mening dat elk kader van ethische beginselen voor de ontwikkeling, de toepassing en het gebruik van AI, robotica en aanverwante technologieën volledig in overeenstemming moet zijn met het Handvest van de grondrechten van de EU en dus de menselijke waardigheid, autonomie en zelfbeschikking van het individu moet eerbiedigen, schade moet voorkomen, eerlijkheid, inclusie en transparantie moet bevorderen, vooroordelen en discriminatie, ook van minderheidsgroepen, moet elimineren en moet voldoen aan de beginselen van beperking van de negatieve externe effecten van de gebruikte technologie, van de verklaarbaarheid van technologieën en de garantie dat de technologieën er zijn om mensen te dienen en niet om hen te vervangen of te beslissen, met als uiteindelijk doel het welzijn van de mens voor iedereen in toenemende mate te bevorderen;

4. wijst op de asymmetrie tussen degenen die AI-technologieën gebruiken en degenen die er interactie mee hebben en er afhankelijk van zijn; benadrukt in dit verband dat het vertrouwen van de burgers in AI alleen kan worden opgebouwd op basis van een kader dat standaard wordt toegepast en eveneens ethisch is (“ethics by default and by design”), dat garandeert dat alle AI die in werking wordt gesteld volledig voldoet aan en in overeenstemming is met het Handvest van de grondrechten van de Europese Unie, het recht van de Unie en de Verdragen; is van mening dat dit in overeenstemming moet zijn met het voorzorgsbeginsel dat ten grondslag ligt aan de EU-wetgeving en dat het de kern moet vormen van elk kader voor AI; vraagt in dit verband om een duidelijk en samenhangend governancemodel aan de hand waarvan bedrijven en innovatoren kunstmatige intelligentie, robotica en aanverwante technologieën verder kunnen ontwikkelen;

5. verzoekt de Europese Unie en de lidstaten om het publiek bewust te maken van de risico’s en mogelijkheden van het gebruik van AI als een ethische vereiste;

6. is van mening dat het huidige rechtskader van de Unie, met name op het gebied van bescherming en privacy en persoonsgegevens, volledig van toepassing zal moeten zijn op AI, robotica en aanverwante technologieën en regelmatig zal moeten worden herzien en gecontroleerd en waar nodig zal moeten worden bijgewerkt om de risico’s van kunstmatige intelligentie, robotica en aanverwante technologieën doeltreffend aan te pakken, en meent dat het in dit verband gebaat zou kunnen zijn bij een aanvulling met krachtige ethische grondbeginselen; wijst erop dat er, waar het voorbarig zou zijn rechtshandelingen vast te stellen, gebruik moet worden gemaakt van een kader van niet-bindende voorschriften;

7. verwacht dat de Commissie in het aanstaande wetgevingsvoorstel als follow-up van het Witboek over kunstmatige intelligentie een sterk ethisch kader integreert dat ook handelt over veiligheid, aansprakelijkheid en grondrechten en dat de kansen van AI-technologieën zoveel mogelijk benut en de risico’s ervan zoveel mogelijk beperkt; verwacht dat het aanstaande wetgevingsvoorstel beleidsoplossingen zal omvatten voor de belangrijkste erkende risico’s van kunstmatig intelligentie, onder meer de ethische verzameling en het ethische gebruik van big data, de kwestie van algoritmische transparantie, en algoritmische vertekening; verzoekt de Commissie criteria en indicatoren te ontwikkelen om AI-technologie een keurmerk te geven, teneinde de transparantie, verklaarbaarheid en verantwoordingsplicht te stimuleren en ontwikkelaars aan te zetten tot aanvullende voorzorgsmaatregelen; beklemtoont dat er moet worden geïnvesteerd in de integratie van niet-technische, op de maatschappelijke context afgestemde disciplines in AI-studies en -onderzoek;

8. herinnert eraan dat AI, afhankelijk van de wijze waarop deze wordt ontwikkeld, gebruikt en toegepast, vooroordelen kan creëren en versterken, onder meer door inherente vooroordelen in de onderliggende datasets, en dus verschillende vormen van geautomatiseerde discriminatie, waaronder indirecte discriminatie, kan creëren met name ten aanzien van groepen mensen met vergelijkbare kenmerken; verzoekt de Commissie en de lidstaten alle mogelijke maatregelen te nemen om dergelijke vooroordelen te voorkomen en de volledige bescherming van de grondrechten te waarborgen;

9. merkt op dat het vakgebied van AI, robotica en aanverwante technologieën opvallend homogeen is, met een gebrek aan diversiteit; erkent dat ervoor moet worden gezorgd dat de teams die deze systemen ontwerpen, ontwikkelen, testen, onderhouden, uitrollen en aankopen, de diversiteit van het gebruik ervan en van de samenleving in het algemeen weerspiegelen om te garanderen dat vooroordelen niet onbewust in deze technologieën worden “ingebouwd”;

10. is van mening dat doeltreffende samenwerking en ethische normen over de grenzen heen alleen kunnen worden bereikt als alle belanghebbenden zich ertoe verbinden te zorgen voor een menselijke controle en menselijk toezicht, technische robuustheid en veiligheid, transparantie en verantwoordingsplicht, diversiteit, non-discriminatie en billijkheid, maatschappelijk en ecologisch welzijn en eerbiediging van de gevestigde beginselen van privacy, en gegevensbeheer en gegevensbescherming - met name die welke zijn vastgelegd in Verordening (EU) 2016/679 (AVG);

11. dringt aan op een risicogebaseerde en toekomstgerichte aanpak van de regulering van kunstmatige intelligentie, robotica en aanverwante technologieën, met inbegrip van technologieneutrale normen voor alle sectoren, met waar nodig sectorspecifieke normen; is er vast van overtuigd dat een EU-breed werkbaar ethisch kader moet gelden voor iedereen die van plan is AI-toepassingen te ontwikkelen of te exploiteren in de Unie, om versnippering te voorkomen; verzoekt de Unie een sterke en transparante samenwerking en kennisuitwisseling tussen de openbare en de particuliere sector te bevorderen, met als doel goede praktijken te creëren en toepassingen van AI met hoge risico’s op te sporen;

12. is voorstander van een vrijwillige digitale verantwoordingsplicht voor ondernemingen; is van mening dat de Unie steun dient te verlenen aan grote ondernemingen die naar eigen keuze ethisch gebruikmaken van digitale technologieën en AI in hun bedrijven; acht het noodzakelijk dat de Unie grote ondernemingen ertoe aanspoort proactief een platform op te richten waarop hun bedrijven ervaringen met ethische digitalisering uitwisselen, en de acties en strategieën van deelnemende bedrijven te coördineren;

13. benadrukt dat de bescherming van netwerken van onderling verbonden AI en robotica belangrijk is en dat sterke maatregelen moeten worden genomen om inbreuken op de beveiliging, gegevenslekken, datavergiftiging, cyberaanvallen en misbruik van persoonsgegevens te verhinderen en dat dit vereist dat de relevante agentschappen, organen en instellingen op zowel Europees als nationaal niveau samenwerken en ook samenwerken met de eindgebruikers van deze technologieën; roept de Commissie en de lidstaten op ervoor te zorgen dat de Europese waarden en de eerbiediging van de grondrechten te allen tijde in acht worden genomen bij de ontwikkeling en toepassing van AI-technologie, teneinde de veiligheid en veerkracht van de digitale infrastructuur van de EU te waarborgen;

14. wijst in dit verband op de bepalingen die zijn vastgesteld in Verordening 2019/881 van het Europees Parlement en de Raad inzake Enisa en de cyberbeveiligingswet, met name op de rol van Enisa om het publiek bewuster te maken van onder meer cyberbeveiligingsrisico’s en criminele onlineactiviteiten en daarover voorlichting te geven aan eindgebruikers, en om essentiële maatregelen voor gegevensbescherming te bevorderen; erkent de toegevoegde waarde van dit EU-agentschap in dit verband;

15. beklemtoont dat het kwaadwillig gebruik van AI een risico kan vormen voor de waarden van onze democratieën en voor de grondrechten van de burgers van de Europese Unie; verzoekt de Commissie een kader voor te stellen dat degenen straft die, aan de hand van deze technologie, de perceptie van de werkelijkheid vervormen met desinformatiecampagnes of die cyberaanvallen uitlokken om de digitale cyberveiligheid te schenden;

16. merkt op dat AI, robotica en aanverwante technologieën op het gebied van rechtshandhaving en grenscontrole de openbare orde en veiligheid kunnen verbeteren, maar ook uitgebreide en strenge publieke toetsing vereisen en een zo groot mogelijke transparantie, zowel wat betreft de risicobeoordeling van individuele toepassingen, alsook een algemeen overzicht van het gebruik van AI, robotica en aanverwante technologieën op het gebied van wetshandhaving en grenscontrole;  is van mening dat deze technologieën aanzienlijke ethische risico’s met zich meebrengen die adequaat moeten worden aangepakt, gelet op de mogelijke negatieve gevolgen voor personen, met name voor hun recht op privacy, gegevensbescherming en non-discriminatie; benadrukt dat het misbruik van deze technologieën een directe bedreiging voor de democratie kan worden en dat bij de uitrol en het gebruik ervan de beginselen van evenredigheid en noodzakelijkheid moeten worden nageleefd, evenals het Handvest van de grondrechten en het relevante secundaire Unierecht zoals de voorschriften van de EU inzake gegevensbescherming; benadrukt dat AI nooit in de plaats mag komen van de mens bij het uitvaardigen van vonnissen; benadrukt dat voor beslissingen, zoals vrijlating op borgtocht of met een proeftijd, gehoord worden voor de rechter, of voor uitsluitend op geautomatiseerde verwerking gebaseerde beslissingen die rechtsgevolgen hebben voor personen of die hen in aanzienlijke mate treffen, altijd een zinvolle toetsing en beoordeling door een mens vereist is;

17. waarschuwt dat, gezien het intrusieve karakter van de besluiten en maatregelen die de rechtshandhavingsautoriteiten – onder meer aan de hand van gegevensverwerking en AI – nemen, de grootste voorzichtigheid moet worden betracht teneinde onwettige discriminatie te voorkomen evenals het in het oog houden van bepaalde personen of groepen die worden gedefinieerd met verwijzing naar hun ras, kleur, etnische of sociale afkomst, genetische eigenschappen, taal, geloof of overtuiging, politieke of andere denkbeelden, vermogen, geboorte, handicap, leeftijd, geslacht, genderexpressie of -identiteit, seksuele geaardheid, verblijfsstatuut, gezondheid of het behoren tot een nationale minderheid die vaak het mikpunt is van etnische profilering of intensiever politiewerk door de rechtshandhavingsinstanties, evenals personen die herkenbaar zijn aan bepaalde kenmerken; pleit voor passende opleiding van de eerstelijnsmedewerkers die gegevens verzamelen en de gebruikers van inlichtingen die uit AI worden afgeleid;

18. wijst erop dat de mogelijkheden die deze technologieën bieden om persoonsgegevens en niet-persoonsgegevens te gebruiken om mensen in categorieën in te delen en op microniveau te benaderen, de kwetsbaarheden van personen vast te stellen of nauwkeurige voorspellende kennis te benutten, moeten worden gecompenseerd door toepassing van de beginselen van gegevensbescherming en privacy, zoals gegevensminimalisatie, het recht om bezwaar te maken tegen profilering en het recht om de eigen gegevens te controleren, het recht om uitleg te krijgen over een besluit dat is gebaseerd op geautomatiseerde besluitvorming en privacy door ontwerp, en van de beginselen van evenredigheid, noodzaak en strikte doelbinding; wijst erop dat bepaalde modellen van voorspellend politiewerk weliswaar meer rekening houden met de privacy dan andere, bijvoorbeeld wanneer er op basis van kansberekening voorspellingen worden gedaan over plaatsen of gebeurtenissen en niet over personen, maar dat systemen van voorspellend politiewerk klaarblijkelijk hebben geleid tot een verergering van overdreven rechtshandhaving op grond van bestaande vooringenomenheid, zoals etnische profilering, of vooroordelen ten aanzien van mensen met een migratie- of arbeidersachtergrond, ook als de feitelijke misdaadcijfers die vooroordelen tegenspreken;

19. benadrukt dat de burgers het recht hebben om te vertrouwen op de technologie die zij gebruiken, en op de technologie die door anderen wordt gebruikt; onderstreept dat AI en robotica niet immuun zijn voor het maken van fouten, en benadrukt daarom het belang van het recht op uitleg wanneer personen worden onderworpen aan algoritmische besluitvorming, alsook de noodzaak van transparante algoritmen, aangezien transparantie inzake de onderliggende logica van een algoritme zeer relevant is voor de betrokkenen, met het oog op volledige bescherming van hun grondrechten; is van mening dat de wetgevers zich moeten beraden over de complexe kwestie van aansprakelijkheid en dat de aansprakelijkheid in alle AI-toepassingen altijd moet berusten bij een natuurlijke of rechtspersoon;

20. onderstreept dat kunstmatige intelligentie, robotica en aanverwante technologieën mondiale technologieën zijn en dat deze normen overal ter wereld moeten worden goedgekeurd om ervoor te zorgen dat de toekomstige ontwikkeling ervan afgestemd is op de Europese waarden en ethische normen; verzoekt de Commissie op internationale fora aan AI-diplomatie te doen met gelijkgestemde partners zoals de Verenigde Staten, de G7, de G20 en de OESO, om gemeenschappelijke ethische normen en richtsnoeren voor de ontwikkeling van AI, robotica en aanverwante technologieën vast te stellen;

21 benadrukt dat er een duidelijk kader moet worden ingevoerd voor het gebruik van AI door socialemediaplatforms, evenals transparantievoorschriften voor de gebruikte algoritmen en de kalibratie van die algoritmen, om buitensporige verwijderingen van inhoud en alle vormen van filtering of censuur op het internet te voorkomen;

22 merkt op dat AI kan worden ingezet om gezichts- en audiovisuele kenmerken te manipuleren, wat vaak “deepfakes” wordt genoemd; wijst erop dat deze techniek kan worden gebruikt om verkiezingen te manipuleren, desinformatie te verspreiden alsook voor andere ongewenste acties; vraagt de Commissie daarom haar ethisch kader te gebruiken om een verplichting op te leggen waarbij in alle deepfake-materialen of andere realistisch gemaakte synthetische video’s moet worden vermeld dat zij geen originelen zijn en een strikte beperking in te voeren wanneer zij worden gebruikt voor verkiezingsdoeleinden;

23. stelt voor om, als integraal onderdeel van dat agentschap of ermee geassocieerd, een kenniscentrum op te richten, waarin de academische wereld, onderzoeksinstellingen, het bedrijfsleven en individuele deskundigen op Unieniveau worden bijeengebracht, om de uitwisseling van kennis en technische expertise te bevorderen en samenwerking binnen de EU en erbuiten te faciliteren;

24. wijst op het belang van taalkundige en culturele diversiteit; verzoekt de Commissie daarom haar ethisch kader te gebruiken om ervoor te zorgen dat AI deze diversiteit niet beperkt, maar toegang blijft bieden tot een brede waaier van inhoud die niet één taal en/of cultureel model zou oververtegenwoordigen, en vraagt haar tevens alle pogingen van algoritmen te veroordelen die deze diversiteit zouden doen inkrimpen en zouden leiden tot een aanbod van inhoud die overeenkomt met enkele reeds bestaande patronen of tot het ontstaan van “echokamers” die de toegang tot meer diversiteit zouden verhinderen;

25. beveelt de Commissie aan om aan te tonen dat zij haar gecoördineerde plan inzake AI duidelijk heeft herzien, beoordeeld en aangepast om de ernstige implicaties van AI voor de grondrechten aan te pakken en om te beschrijven hoe dergelijke risico’s zullen worden beperkt in de wetgevingsaanpak van de EU en in de uitvoering van nationale strategieën van de lidstaten;

 


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

22.9.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

55

5

7

Bij de eindstemming aanwezige leden

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Bij de eindstemming aanwezige vaste plaatsvervangers

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Bij de eindstemming aanwezige plaatsvervangers (art. 209, lid 7)

Isabel Benjumea Benjumea

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

55

+

PPE

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

Verts/ALE

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 

 

 

 


 

 

ADVIES VAN DE COMMISSIE WERKGELEGENHEID EN SOCIALE ZAKEN (7.9.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake een kader voor ethische aspecten van kunstmatige intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies: Lina Gálvez Muñoz

(Initiatief – Artikel 47 van het Reglement)

 

 

 

SUGGESTIES

De Commissie werkgelegenheid en sociale zaken verzoekt de bevoegde Commissie juridische zaken onderstaande suggesties in haar ontwerpresolutie op te nemen:

A. overwegende dat de toepassing van kunstmatige intelligentie, robotica en aanverwante technologieën (KI) in het dagelijks leven en op de werkplek voortdurend toeneemt en zo een grote omwenteling veroorzaakt ten aanzien van de huidige sociaaleconomische structuren; overwegende dat KI de burgers en de samenleving ten goede moet komen door de levenskwaliteit te verbeteren, nieuwe werkgelegenheidskansen te creëren en het concurrentievermogen van de Unie te verbeteren; overwegende dat KI een essentieel onderdeel van de digitale economie is en het potentieel heeft om welvaart te bevorderen en de overgang naar een duurzame economie te vergemakkelijken, indien ze goed wordt benut;

B. overwegende dat KI betrekking heeft op systemen die intelligent gedrag vertonen door hun omgeving te analyseren en met een zekere mate van autonomie actie te ondernemen om specifieke doelstellingen te verwezenlijken; overwegende dat op KI gebaseerde systemen uitsluitend uit software kunnen bestaan en in de virtuele wereld actief zijn (bijvoorbeeld stemgestuurde assistenten, software voor beeldanalyse, zoekmachines en systemen voor spraak- en gezichtsherkenning), of in hardwareapparaten kunnen worden geïntegreerd (bijvoorbeeld geavanceerde robots, zelfrijdende auto’s, drones of toepassingen van het internet der dingen)[28];

C. overwegende dat KI een strategische prioriteit is waarvan het volledige potentieel alleen kan worden benut als gebruikers en consumenten zich bewust zijn van de mogelijke voordelen en uitdagingen die ze met zich brengt; overwegende dat zowel bedrijven als werknemers en hun vertegenwoordigers vaak niet bekend zijn met KI-toepassingen, noch met de daaraan ten grondslag liggende functies en gegevens; overwegende dat er gevallen zijn van KI-toepassingen die in strijd zijn met bestaande regelgeving, zoals gegevensbescherming;

D. overwegende dat KI potentieel economische en maatschappelijke voordelen en nieuwe kansen biedt voor bedrijven en werknemers, maar tegelijkertijd ook aanleiding geeft tot een aantal ethische, juridische en werkgelegenheidsgerelateerde uitdagingen; overwegende dat de toepassing van KI op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en gevolgen kan hebben voor de gezondheid en veiligheid op het werk, en ook kan worden gebruikt voor het monitoren, evalueren, voorspellen en sturen van de werknemersprestaties, wat zowel directe als indirecte gevolgen heeft voor hun loopbaanperspectieven; overwegende dat KI een positief effect moet hebben op de arbeidsomstandigheden en moet worden geleid door eerbiediging van de mensenrechten en de grondrechten en waarden van de Unie; overwegende dat KI mensgericht moet zijn, het welzijn van mensen en de samenleving moet verbeteren en moet bijdragen tot een eerlijke en rechtvaardige transitie;

E. overwegende dat KI een belangrijke impact heeft op de arbeidsmarkt[29]; overwegende dat het potentieel in de plaats kan komen van werknemers die repetitieve activiteiten verrichten, de samenwerking tussen mens en machine kan vergemakkelijken, het concurrentievermogen en de welvaart kan vergroten en nieuwe arbeidsmogelijkheden voor gekwalificeerde werknemers kan creëren; overwegende dat het werkgelegenheidslandschap snel evolueert, waarbij naar schatting 65 % van de kinderen van vandaag wellicht volledig nieuwe soorten werk zal verrichten, en dat er behoefte is aan omscholing en bijscholing van werknemers, met name op het gebied van digitale vaardigheden, om ervoor te zorgen dat niemand aan zijn lot wordt overgelaten en er voldoende gespecialiseerde arbeidskrachten beschikbaar zijn[30];

F. overwegende dat volgens Cedefop ongeveer 43 % van de volwassen werknemers in de Unie ervaring heeft met nieuwe technologieën op het werk; overwegende dat zo’n zeven op de tien werknemers in de Unie voor hun werk in ieder geval over een gemiddeld niveau van digitale vaardigheden moeten beschikken[31]; overwegende dat gemiddeld een kwart van de burgers in de Unie niet of maar zeer beperkt over digitale vaardigheden beschikt; overwegende dat de digitale kloof specifieke sociaaleconomische aspecten heeft en ook aspecten die verband houden met gender, leeftijd, toegankelijkheid en geografische locatie, en dat al deze aspecten moeten worden aangepakt; overwegende dat 42 % van de werknemers in bedrijven waar KI wordt toegepast van mening is dat de betreffende werkzaamheden ethische kwesties opwerpen en dat deze moeten worden aangepakt; overwegende dat 28 % van de werkgevers van mening is dat de toepassing van KI niet tot volledige ontwikkeling is gekomen als gevolg van het gebrek aan ethische voorschriften op dit gebied[32];

G. overwegende dat de COVID-19-pandemie het belang van digitale oplossingen, waaronder telewerk, en de technische en sociale gevolgen ervan heeft benadrukt; overwegende dat er op het niveau van de Unie geen gemeenschappelijke voorschriften bestaan met betrekking tot de toepassing van KI op de werkplek, wat kan leiden tot verstoringen van de markt en concurrentienadelen; overwegende dat er een passend regelgevingskader voor KI moet bestaan;

H. overwegende dat de OESO aanbevelingen inzake KI heeft opgesteld[33];

I. overwegende dat de Raad van de Europese Unie voorstander is van de bevordering van een ethische en mensgerichte benadering van het KI-beleid[34];

J. overwegende dat de sociale partners op het niveau van de Unie een kaderovereenkomst inzake digitalisering hebben gesloten die onder meer een hoofdstuk bevat getiteld “Artificial intelligence and guaranteeing the human in control principle”, ofwel het beginsel dat de mens te allen tijde de controle over de machine behoudt[35];

K. overwegende dat sommige lidstaten reeds specifieke instanties in het leven hebben geroepen om de invloed van KI op de werkplek te monitoren en te evalueren;

L. overwegende dat de aanpak van gendervooroordelen en ongelijkheid in de digitale sector tot dusver ontoereikend is; overwegende dat in alle domeinen van de digitale technologie nog steeds sprake is van een genderkloof, met name waar het KI betreft, als gevolg waarvan de digitale sector in de nabije toekomst naar verwachting door mannen gedomineerd zal blijven;

1. benadrukt dat de kansen en uitdagingen van KI-toepassingen in particuliere en overheidsbedrijven en in het openbaar bestuur grondig moeten worden beoordeeld met betrekking tot banen en werknemers, met inbegrip van de gevolgen ervan voor het evenwicht tussen werk en privéleven, de organisatie van het werk en de workflows; acht het onontbeerlijk dat de sociale dialoog niet wordt omzeild en dat werknemers en hun vertegenwoordigers vanaf het begin van het besluitvormingsproces worden geraadpleegd en voldoende informatie krijgen; benadrukt dat de inzet van KI op transparante wijze moet plaatsvinden en dat KI-systemen op de werkplek de privacy en waardigheid van werknemers moeten eerbiedigen;

2. wijst op het feit dat voorafgaand aan de ontwikkeling, uitrol en toepassing van KI-systemen eerst een uitgebreide risicobeoordeling moet plaatsvinden om de effecten ervan op de fundamentele rechten en arbeidsomstandigheden te beoordelen, onder meer op het gebied van gezondheid en veiligheid op het werk, alsook de sociale gevolgen ervan; is van mening dat deze beoordeling ook de risico’s met betrekking tot menselijke besluitvorming en sociale discriminatie moet beslaan, evenals een evaluatie van de zich voordoende arbeidsrisico’s;

3. wijst erop dat KI-oplossingen de arbeidsomstandigheden en de levenskwaliteit kunnen verbeteren, met inbegrip van een beter evenwicht tussen werk en privéleven en een betere toegankelijkheid voor mensen met een handicap, de ontwikkeling van de arbeidsmarkt kunnen voorspellen en het personeelsbeheer kunnen ondersteunen bij het voorkomen van menselijke vooroordelen, maar dat zij ook aanleiding kunnen geven tot bezorgdheid over privacy en gezondheid en veiligheid op het werk, zoals het recht op loskoppeling, en tot onevenredige en illegale surveillance en monitoring van werknemers, waardoor hun waardigheid en privacy worden aangetast, evenals tot discriminerende behandeling, onder meer bij aanwervingsprocessen, als gevolg van vertekende algoritmen, onder meer ten aanzien van gender, ras en etnische afkomst[36], en algoritmen die kwetsbare groepen benadelen; maakt zich bovendien zorgen over het feit dat KI de vrijheid en autonomie van mensen kan aantasten en kan bijdragen tot geestelijke gezondheidsproblemen van werknemers, zoals burn-out, “techno stress”, overspannenheid en vermoeidheid; benadrukt dat KI-oplossingen op de werkplek transparant en eerlijk moeten zijn en negatieve gevolgen voor de werknemers moeten voorkomen;

4. benadrukt dat de bevoegde autoriteiten toegang moeten hebben tot alle informatie die verband houdt met de gegevens die worden gebruikt ten behoeve van training, statistische modellen en theoretische principes met betrekking tot KI-oplossingen, evenals de empirische geldigheid van de uitkomst ervan;

5. is van mening dat KI kan bijdragen tot een beter gebruik van de vaardigheden en competenties van mensen met een handicap en dat de toepassing van KI op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en een hogere arbeidsparticipatie van mensen met een handicap;

6. benadrukt dat nieuwe technologische mogelijkheden, zoals KI, en de waarde die wordt gehecht aan een efficiënte uitvoering van werkzaamheden niet mogen leiden tot ongelijke technologisch betere capaciteiten en een gedigitaliseerde toekomst zonder enige vorm van menselijke tussenkomst; benadrukt dat de ethiek van innovatie een mensgerichte benadering moet volgen;

7. is van mening dat het verplicht moet zijn gebruikers, met inbegrip van werknemers, en consumenten te informeren wanneer een systeem gebruikmaakt van KI, met name met betrekking tot gepersonaliseerde producten of diensten, en om zinvolle, begrijpelijke en toegankelijke informatie te verstrekken over alle ethische aspecten van KI-toepassingen die voor hen relevant zijn, om met kennis van zaken beslissingen te kunnen nemen; benadrukt dat het belangrijk is te begrijpen hoe algoritmen gegevens verwerken en waarderen en hoe dit kan worden beperkt of stopgezet; benadrukt de noodzaak van competentieontwikkeling via opleiding en training voor werknemers en hun vertegenwoordigers met betrekking tot KI op de werkplek om de implicaties van KI-oplossingen beter te begrijpen;

8. benadrukt dat sollicitanten en werknemers naar behoren schriftelijk in kennis moeten worden gesteld indien KI wordt gebruikt in het kader van aanwervingsprocedures en andere beslissingen met betrekking tot het personeelsbeleid, en dat, wanneer dit het geval is, een menselijke beoordeling kan worden gevraagd met het oog op het terugdraaien van een geautomatiseerde beslissing;

9. benadrukt dat ervoor moet worden gezorgd dat productiviteitswinsten als gevolg van de ontwikkeling en het gebruik van KI en robotica niet alleen ten goede komen aan de eigenaren en aandeelhouders van bedrijven, maar ook aan de bedrijven zelf en aan de werknemers via betere arbeidsvoorwaarden en -omstandigheden, onder meer lonen, economische groei en ontwikkeling, alsook aan de samenleving in het algemeen, met name wanneer dergelijke winsten ten koste gaan van de werkgelegenheid; verzoekt de lidstaten de mogelijke gevolgen van KI voor de arbeidsmarkt en de socialezekerheidsstelsels grondig te onderzoeken en strategieën te ontwikkelen om stabiliteit op de lange termijn te waarborgen door belastingen en bijdragen te hervormen, alsook door te voorzien in andere maatregelen in het geval van lagere overheidsinkomsten;

10. benadrukt het belang van bedrijfsinvesteringen in formele en informele opleiding en een leven lang leren om de rechtvaardige transitie naar de digitale economie te ondersteunen; benadrukt in dit verband dat bedrijven die KI toepassen de verantwoordelijkheid hebben om alle betrokken werknemers passende om- en bijscholing te bieden, zodat zij kunnen leren hoe zij digitale instrumenten moeten gebruiken en met co-bots en andere nieuwe technologieën moeten werken, waardoor zij zich kunnen aanpassen aan de veranderende behoeften van de arbeidsmarkt en hun baan kunnen behouden;

11. dringt aan op toepassing van het voorzorgsbeginsel met betrekking tot nieuwe technologieën op basis van KI; benadrukt het basisbeginsel dat de mens altijd de controle over machines en KI moet hebben en dat KI-besluiten te verantwoorden, aanvechtbaar en indien nodig omkeerbaar moeten zijn; benadrukt dat de veiligheids- en beveiligingsnormen voor KI altijd in acht moeten worden genomen en dat er in dit opzicht regelmatige controles moeten plaatsvinden om foutieve KI-output te voorkomen; benadrukt dat de aansprakelijkheid met betrekking tot het gebruik van KI duidelijk moet worden gedefinieerd, zowel voor arbeidsongevallen als voor schade aan derden;

12. benadrukt dat KI mensgericht, transparant, veilig en betrouwbaar moet zijn en moet voldoen aan de grondrechten en de toepasselijke wet- en regelgeving, met inbegrip van de algemene verordening gegevensbescherming (AVG), gedurende de gehele levenscyclus van het systeem, met name bij het gebruik ervan op de werkplek; dringt aan op de ontwikkeling van een robuust certificeringssysteem dat gebaseerd is op testprocedures en uitgaat van het voorzorgsbeginsel, wat bedrijven in staat moet stellen aan te tonen dat hun KI-producten voldoen aan de grondrechten en de normen van de Unie;

13. herinnert eraan dat het acquis van de Unie op sociaal en werkgelegenheidsgebied volledig van toepassing is op KI en verzoekt de Commissie en de lidstaten te zorgen voor een degelijke handhaving en eventuele lacunes in de regelgeving aan te pakken; merkt op dat de Unie wereldleider kan worden bij het bevorderen van een maatschappelijk verantwoord gebruik van KI;

14. benadrukt het belang van een gemeenschappelijke Europese aanpak met betrekking tot de ethische aspecten van KI; benadrukt dat elk regelgevingskader op dit gebied adequaat moet zijn en gebaseerd moet zijn op een alomvattende effectbeoordeling om te voorkomen dat toekomstige innovatie en het scheppen van banen worden belemmerd; dringt in dit verband aan op een Europees regelgevingskader met betrekking tot de ethische aspecten van KI, dat evenredig is en bijzondere aandacht heeft voor de arbeidswereld, met inbegrip van de rechten van werknemers en de arbeidsomstandigheden; is van mening dat bijzondere aandacht moet worden besteed aan nieuwe vormen van werk, zoals gig en platformwerk, die het gevolg zijn van de toepassing van nieuwe technologieën op dit gebied; is van mening dat in een regelgevingskader dat tot doel heeft de voorwaarden voor telewerk in de hele Unie te reguleren en fatsoenlijke arbeidsvoorwaarden en -omstandigheden in de digitale economie te waarborgen, eveneens rekening moet worden gehouden met de gevolgen van KI; verzoekt de Commissie in dit verband overleg te plegen met de sociale partners, KI-ontwikkelaars, onderzoekers en andere belanghebbenden;

15. benadrukt dat KI en de desbetreffende regelgeving op geen enkele wijze afbreuk mogen doen aan de uitoefening van de grondrechten zoals die in de lidstaten en op het niveau van de Unie zijn erkend, met inbegrip van het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de in de lidstaten bestaande bijzondere stelsels van arbeidsverhoudingen andere acties te voeren overeenkomstig het nationaal recht en/of de nationale praktijk, noch aan het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, of om collectieve actie te voeren overeenkomstig het nationaal recht en/of de nationale praktijk;

16. benadrukt dat speciale aandacht moet uitgaan naar met behulp van KI op de werkplek verzamelde gegevens, met name wanneer deze worden gebruikt voor het nemen van beslissingen met betrekking tot personeelsbeleid; verzoekt de sociale partners op bedrijfsniveau gezamenlijk de invoering van KI te analyseren en te monitoren; verzoekt de Commissie en de sociale partners te onderzoeken of er bijzondere bepalingen moeten worden vastgesteld inzake de gegevensbescherming op de werkplek bij het gebruik van KI; benadrukt dat werknemers de eigenaar van hun gegevens zijn, ook na beëindiging van een arbeidsrelatie;

17. is van mening dat in de nieuwe vaardighedenagenda voor Europa aandacht moet worden besteed aan de uitdagingen met betrekking tot het aanpassen aan en verwerven van kwalificaties en kennis op het gebied van de ecologische en digitale transitie, met inbegrip van de ethische aspecten van KI; benadrukt dat de ethische aspecten van KI en de ontwikkeling van ethische vaardigheden integraal onderdeel moeten worden van onderwijs- en opleidingsprogramma’s voor ontwikkelaars en mensen die met KI werken; herinnert eraan dat ontwikkelaars, programmeurs, besluitvormers en bedrijven die zich met KI bezighouden zich bewust moeten zijn van hun ethische verantwoordelijkheid; acht het even belangrijk ervoor te zorgen dat eindgebruikers en consumenten uitgebreide informatie krijgen en dat er regelmatig overleg plaatsvindt tussen alle relevante belanghebbenden op dit gebied;

18. herhaalt het belang van onderwijs en permanente educatie om de kwalificaties te ontwikkelen die nodig zijn in het digitale tijdperk en om digitale uitsluiting aan te pakken; verzoekt de lidstaten te investeren in hoogwaardige, responsieve en inclusieve stelsels voor onderwijs, beroepsopleiding en een leven lang leren, alsook in om- en bijscholingsbeleid voor werknemers in sectoren die mogelijk zwaar worden getroffen door KI; benadrukt dat het noodzakelijk is de huidige en toekomstige beroepsbevolking te voorzien van de nodige lees- en schrijf-, reken- en digitale vaardigheden, alsook van competenties op het gebied van wetenschap, technologie, engineering en wiskunde (STEM) en horizontale zachte vaardigheden, zoals kritisch denken, creativiteit en ondernemerschap; benadrukt dat in dit verband bijzondere aandacht moet worden besteed aan de inclusie van kansarme groepen;

19. benadrukt dat KI genderongelijkheden en stereotypen niet in de hand mag werken door analoge vertekeningen en vooroordelen om te zetten in digitale vertekeningen en vooroordelen door middel van algoritmen;

20. benadrukt dat de ontwikkeling, de uitrol en het gebruik van KI ruimte moeten bieden aan mensen met verschillende achtergronden, onder meer vrouwen, jongeren, mensen met een andere huidskleur en mensen met een handicap; benadrukt dat op KI gebaseerde technologieën op de werkplek voor iedereen toegankelijk moeten zijn volgens het beginsel van universeel ontwerp;

21. wijst erop dat toegang tot KI-oplossingen nauw verbonden is met toegang tot snel internet en dat breedbanddekking daarom een prioriteit moet zijn om discriminatie en ongelijke toegang tot deze technologieën te voorkomen;

22. merkt op dat de mogelijkheden die KI-oplossingen bieden afhankelijk zijn van big data en dat een kritische massa aan gegevens vereist is om algoritmen te ontwikkelen en resultaten te verfijnen; is in dit opzicht ingenomen met het voorstel van de Commissie voor de totstandbrenging van een gemeenschappelijke gegevensruimte in de Unie om de gegevensuitwisseling te verbeteren en het onderzoek te ondersteunen, met volledige inachtneming van de Europese regelgeving inzake gegevensbescherming.

 


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

7.9.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

46

6

1

Bij de eindstemming aanwezige leden

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Bij de eindstemming aanwezige vaste plaatsvervangers

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al‑Sahlani, Atidzhe Alieva‑Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie‑Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter‑Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 

 


 

 

 

ADVIES VAN DE COMMISSIE MILIEUBEHEER, VOLKSGEZONDHEID EN VOEDSELVEILIGHEID (16.9.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake een kader voor ethische aspecten van kunstmatige intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies: Adam Jarubas

(Initiatief – Artikel 47 van het Reglement)

 

SUGGESTIES

De Commissie milieubeheer, volksgezondheid en voedselveiligheid verzoekt de bevoegde Commissie juridische zaken:

 onderstaande suggesties in haar ontwerpresolutie op te nemen:

A. overwegende dat de Unie is gegrondvest op de waarden van artikel 2 van het Verdrag betreffende de Europese Unie en op de eerbiediging van het voorzorgsbeginsel van artikel 191, lid 2, van het Verdrag betreffende de werking van de Europese Unie;

B. overwegende dat in artikel 16 VWEU wordt bepaald dat eenieder recht heeft op bescherming van zijn persoonsgegevens; overwegende dat artikel 22 van Verordening (EU) 2016/679 van het Europees Parlement en de Raad[37] betrekking heeft op de situatie waarbij gegevens slechts worden gebruikt voor geautomatiseerde verwerking en het recht van de betrokkene erkent om niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking gebaseerd besluit;

C. overwegende dat de wereldwijde concurrentie om het leiderschap bij de ontwikkeling van artificiële intelligentie (AI), dat van invloed zal zijn op de bron van ethische waarden en normen die de sector wereldwijd vormgeven, aan kracht wint, en dat de Europese Unie het voorbeeld moet geven aan de rest van de wereld met een passend regelgevingskader om ook een mogelijke race naar de bodem met betrekking tot nationale regelgeving te voorkomen;

D. overwegende dat deze wereldwijde concurrentie niet los mag worden gezien van de ethische waarden en normen;

E.  overwegende dat er door de snelle ontwikkeling van het onderzoek en de innovatie belangrijke ethische, juridische en sociale vragen zijn gerezen die van invloed zijn op de relatie tussen wetenschap en samenleving; overwegende dat dit onderzoek en deze innovatie in overeenstemming moeten zijn met ethische beginselen en met de relevante nationale, Unie- en internationale regelgeving, met inbegrip van het Handvest van de grondrechten van de Europese Unie en het Europees Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden, overeenkomstig de bepalingen van de Europese onderzoeksprogramma’s;

F. overwegende dat de integratie van big-data- en AI-technologieën in gezondheidszorgstelsels en andere sectoren vergezeld moet gaan van passende regels, normen en wetgeving die de grondrechten van natuurlijke personen beschermen en inspelen op deze nieuwe digitale uitdagingen;

G. overwegende dat er momenteel een duidelijke kloof is op het gebied van octrooien en investeringen in de Unie ten opzichte van andere delen van de wereld;

H. overwegende dat AI en andere opkomende digitale oplossingen de samenleving ten goede kunnen komen op het gebied van groene transitie, bescherming van milieu en biodiversiteit, verhoging van de efficiëntie van de landbouw, afvalbeheer, de circulaire economie, matiging van en aanpassing aan klimaatverandering, vergroening van diverse industriële processen, energie- en vervoersbeheer en -efficiëntie, water- en luchtkwaliteit (bijv. slimme netwerken en elektromobiliteit), risicobeheer en aardobservatie, waarbij het Copernicus-programma van de Unie onder meer een van de beste is;

I. overwegende dat AI op nagenoeg elk gebied van de geneeskunde kan worden toegepast, onder meer voor biomedisch onderzoek, naar het voorbeeld van het via AI ontdekte antibioticum Halicine of van AI-bijdragen aan kankerpreventie, vroegere en preciezere diagnosticering en nieuwe therapieën met behulp van voorspellende of genomische geneeskunde, medisch onderwijs, ondersteuning van zorgverleners in bijvoorbeeld de ouderenzorg, monitoring van de toestand van patiënten, doelmatigere ontwikkeling van geneesmiddelen, gerichtere behandelingen, klinische besluitvorming, gepersonaliseerde geneeskunde, psychiatrische diagnose en behandeling, revolutionaire robotprotheses en ondersteuningssystemen, telegeneeskunde, telechirurgie en een betere algemene efficiëntie en interoperabiliteit van de gezondheidsstelsels;

J.  overwegende dat digitale vooruitgang een passende opleiding en voorbereiding voor gezondheidswerkers en administratief personeel vereist om een digitale kloof te voorkomen, waarbij ook rekening moet worden gehouden met onze vergrijzende samenleving en mogelijke uitdagingen voor de gezondheidszorgstelsels;

K. overwegende dat er grote ethische bezorgdheid bestaat over de autonomie van machines;

L. overwegende dat digitale gezondheidsdiensten de mens in de zorgverlening niet mogen uitschakelen en geen afbreuk mogen doen aan de relatie tussen artsen en patiënten, maar artsen moeten helpen om betere diagnoses te stellen en/of patiënten beter te behandelen;

M. overwegende dat AI-technologieën de digitale transformatie van het bedrijfsleven zullen versnellen en een essentiële rol zullen spelen bij het succes van de digitale economie in een steeds meer onderling verbonden wereld;

N. overwegende dat in het huidige regelgevingskader en de huidige ethische richtsnoeren van de Unie reeds een aantal ethische uitdagingen in verband met AI-toepassingen zijn aangepakt, zoals aangegeven in het Witboek van de Commissie over kunstmatige intelligentie, zoals de bestaande risicobeoordelingsprocessen voor op AI gebaseerde gezondheidsoplossingen in de interne markt; overwegende dat op andere gebieden wordt achtergelopen op de ethische uitdagingen die moeten worden vastgesteld en beperkt, aangezien AI over een enorm vermogen beschikt om een bedreiging te vormen voor de voorkeuren, de veiligheid en de privacy van patiënten; overwegende dat de grenzen tussen de rol van medische beroepsbeoefenaars en zorgverstrekkers en die van machines in de patiëntenzorg moeten worden afgebakend, met inbegrip van het beginsel van gecontroleerde autonomie van robots, en dat educatie van zowel beroepsbeoefenaars in de gezondheidszorg als van patiënten daarvoor noodzakelijk is;

O. overwegende dat de EU-regels inzake gegevensbescherming moeten worden aangepast zodat zij rekening houden met de toegenomen complexiteit en interconnectiviteit van zorgrobots en medische robots die persoons- en medische gegevens kunnen beheren die heel gevoelig van aard zijn en aansluiten bij de ingebouwde privacy, zoals vastgesteld in Verordening (EU) 2016/679 betreffende gegevensbescherming;

P. overwegende dat oplossingen waarbij de noodzaak wordt benadrukt om wetenschappelijk onderzoek op te nemen als basis voor ontwikkelingsstrategieën door registers van medische gegevens te creëren (bijv. neurologische en cardiologische gegevens) en gegevens van dit onderzoek uit te wisselen, kunnen leiden tot tastbare sociale voordelen in het kader van de volksgezondheid en de openbare veiligheid;

Q. overwegende dat AI-oplossingen de samenleving op het gebied van voedselveiligheid ten goede kunnen komen, onder meer door het gebruik van pesticiden te verminderen, precisielandbouw of meer in het algemeen landbouw 2.0 te ondersteunen, waarbij de Unie tot de koplopers op het gebied van AI-toepassingen behoort (bijv. voor automatische machine-instellingen voor weersvoorspellingen of ziekte-identificatie), waardoor efficiëntere productie kan worden gecombineerd met strengere milieunormen en een beter gebruik van hulpbronnen, met name in gebieden waar watervoorraden schaars zijn en de klimaatverandering ernstige gevolgen heeft, en dat dit alles in overeenstemming moet zijn met de prioriteiten van de Green Deal;

R. overwegende dat de reikwijdte van dat kader adequaat en evenredig moet zijn en grondig moet worden beoordeeld; overwegende dat het kader een breed scala aan technologieën en hun componenten moet bestrijken, met inbegrip van de algoritmen, software en de gegevens die door AI worden gebruikt of geproduceerd; overwegende dat een gerichte aanpak op basis van het concept “risicovol” noodzakelijk is om te voorkomen dat de voordelen van toekomstige AI-innovaties niet ten goede komen aan de burgers op gebieden als gezondheidszorg, milieubescherming en voedselkwaliteit;

S. overwegende dat het van cruciaal belang is doeltreffende manieren te vinden om te zorgen voor betrouwbare digitale technologieën, zodat het mogelijk wordt om de voordelen hiervan te benutten terwijl tegelijkertijd de grondrechten worden beschermd en de ontwikkeling van een informele, open, tolerante en rechtvaardige samenleving wordt aangemoedigd; overwegende dat dit bijzonder belangrijk is in het geval van hybride systemen voor menselijke/artificiële intelligentie;

T. overwegende dat robots de grenzen tussen mensen en technologische objecten doen vervagen; overwegende dat zij niet alleen maatschappelijke implicaties hebben die vanuit ethisch oogpunt moeten worden beoordeeld, maar dat zij zelfs de ethische kaders voor hun beoordeling zelf in twijfel trekken; overwegende dat, zoals de World Commission on the Ethics of Scientific Knowledge and Technology (COMEST) in haar rapport stelt, bijzondere aandacht moet worden besteed aan het gebruik van medische robots, verpleeg- en zorgrobots voor de ouderenzorg en gezelschapsrobots;

U. overwegende dat de inzet van sociale robots en gezelschapsrobots in de gezondheidszorg en vooral in de ouderenzorg snel toeneemt; overwegende dat zorgrobots in de ouderenzorg en gezelschapsrobots een functionele en affectieve rol kunnen vervullen; overwegende dat deze robots kunnen helpen om eenzaamheid bij ouderen te verminderen, om gedrag verbonden aan dementie te voorkomen, om de cognitieve activiteiten van een patiënt met een neurodegeneratieve ziekte te stimuleren of om bepaalde routinetaken uit te voeren die moeilijk zijn voor ouderen; overwegende dat gezelschapsrobots valse, denkbeeldige en niet-wederzijdse gevoelens kunnen teweegbrengen, en zo ouderen misleiden en als kinderen behandelen;

V. overwegende dat gezelschapsrobots meer en meer voor seksuele doeleinden kunnen worden gebruikt; overwegende dat het gebruik van seksuele robots die er als kinderen uitzien of die geprogrammeerd zijn om te worden misbruikt, heel verontrustende ethische implicaties heeft;

Een juridisch en ethisch kader voor AI

1. benadrukt dat de Unie al het nodige moet doen om ervoor te zorgen dat haar ethische waarden, zoals uitgedrukt in het acquis, effectief van toepassing zijn op alle AI-gebieden op haar grondgebied, en om haar normen wereldwijd te bevorderen; benadrukt in dit verband dat technologische ontwikkelingen op het gebied van AI altijd voordelen moeten opleveren voor de mensheid;

2. onderstreept dat de Unie alle nodige stappen moet zetten om het vertrouwen van de samenleving in de ontwikkeling en toepassing van AI, robotica en aanverwante technologieën te vergroten, gezien de aanzienlijke gevolgen die deze technologieën kunnen hebben voor burgers; verzoekt de Commissie om de ethische richtsnoeren inzake betrouwbare AI te volgen en om voorstellen te doen voor adequate maatregelen die ervoor zorgen dat deze technologieën geen onbillijke, bevooroordeelde outputs voor burgers genereren;

3. benadrukt dat een op Unierecht gebaseerd AI-ecosysteem van vertrouwen in toepassingen op gebieden als milieubescherming, gezondheid of voedselveiligheid, uitgebreid door het ethische kader van de Unie voor AI, de rechtszekerheid en voorspelbaarheid zal versterken, de betrokkenheid van belanghebbenden zal vergroten, het volume aan toevertrouwde gegevens zal doen toenemen, schaalvoordelen zal opleveren en een ecosysteem van excellentie in die sectoren zal ondersteunen; is van mening dat dit het mondiale concurrentievermogen van de AI-sector in de Unie zal versterken, evenals het potentieel om waarden en normen van de Unie te bevorderen;

4. merkt op dat, aangezien wettelijke regelingen beter beantwoorden aan de huidige welomschreven uitdagingen en vanwege de snelle ontwikkeling van AI, die resulteert in onzekerheid over de toekomst, een gemeenschappelijk, wettelijk goed verankerd en afdwingbaar ethisch kader van de Unie voor AI zal zorgen voor een ecosysteem van vertrouwen voor alle belanghebbenden zoals gedefinieerd in het Witboek van de Commissie, met name voor toepassingen op het gebied van milieubescherming of bescherming van de volksgezondheid, het creëren van een gezondere leefomgeving, betere middelen en diensten voor gezondheidszorg of voedselveiligheid, en zo ondersteuning zal bieden aan het ecosysteem van excellentie op het gebied van rechtszekerheid en voorspelbaarheid en ook een doeltreffend antwoord zal bieden op de nog niet in rechtbanken, managementvergaderingen of wetenschappelijke laboratoria gestelde uitdagingen;

5. wijst erop dat er nog verder moet worden gewerkt aan de definitie van AI; benadrukt daarom het belang van een mensgerichte aanpak en van regelmatige evaluaties van de ontwikkelingen op het gebied van AI en van het ethisch kader, teneinde proactieve regelgeving te bevorderen en de toepasbaarheid ervan op de lange termijn en in het licht van nieuwe ontwikkelingen te waarborgen; onderstreept dat er veel risiconiveaus bestaan, die zich ontwikkelen in de tijd onder invloed van de vooruitgang van AI-technologieën; benadrukt dat er een evenredig wetgevingskader nodig is dat parallel moet evolueren met het tempo van de technologische vooruitgang; wijst erop dat het Copernicus-programma kan dienen als beste praktijk voor de ontwikkeling van kwalitatief hoogwaardige grote datasets als input voor AI-modellen;

6. wijst op de noodzaak van een regelgevingskader waarin de ethische beginselen worden bepaald die moeten worden toegepast op het ontwerp, de ontwikkeling, de uitvoering en de werking van deze technologie – van de toegang tot gegevens tot een strenge monitoring van de uitkomsten;

7. benadrukt dat er een evenwichtige benadering ten aanzien van regelgeving moet worden gevonden, waarbij er in de eerste plaats op moet worden toegezien dat onze waarden niet in het gedrang komen en dat onnodige administratieve rompslomp wordt vermeden, met name voor kmo’s en start-ups; benadrukt in dit verband dat de mondiale concurrentie op het gebied van AI niet altijd dezelfde ethische beginselen hanteert als de Unie; benadrukt dat AI en aanverwante technologieën niet louter mogen worden overgelaten aan minimale zelfregulering; is van mening dat een evenredig en ondersteunend wetgevingskader van de Unie absoluut noodzakelijk is; wijst erop dat veel derde landen werken aan hun ethisch kader en dat er op mondiaal niveau diverse voorstellen zijn gedaan; is zich ervan bewust dat het grootste obstakel met betrekking tot ethische beginselen niet zozeer het bestaan ervan is, maar wel de uitvoering ervan;

8. steunt het standpunt dat de zeven vereisten voor AI, die in de ethische richtsnoeren voor betrouwbare AI van de deskundigengroep op hoog niveau inzake AI zijn vastgesteld, solide bouwstenen zijn voor een gemeenschappelijk ethisch kader van de Unie voor AI dat naar behoren wettelijk is verankerd, waarbij onder meer ethische aspecten van AI-toepassingen op het gebied van milieu, gezondheid en voedselzekerheid worden aangepakt; dringt aan op een verbetering van het acquis inzake transparantie, traceerbaarheid en menselijk toezicht, die in de feedback over de richtsnoeren door 350 organisaties zijn aangemerkt als gebieden die verder moeten worden verbeterd; moedigt verder de totstandbrenging aan van het ethisch kader van de Unie voor AI in een geest van openheid ten aanzien van de werkzaamheden van andere internationale partners die de waarden van de Unie delen, zoals de VN, de Raad van Europa met zijn richtsnoeren van 2019 inzake artificiële intelligentie en gegevensbescherming[38], het Europees ethisch handvest voor het gebruik van artificiële intelligentie in rechtsstelsels en de werkzaamheden van zijn juridisch onderzoekscentrum, het ad-hoccomité voor artificiële intelligentie (CAHAI), de in mei 2019 door de OESO-leden ondertekende beginselen inzake artificiële intelligentie[39], de ministeriële verklaring van de G20 van 2019 over handel en digitale economie waarvan de bijlage de beginselen voor AI bevat, en het wereldwijd initiatief van het IEEE inzake de ethiek van autonome en intelligente systemen[40];

9.  ondersteunt de Commissie ten volle bij de vaststelling van een gemeenschappelijk ethisch kader van de Unie voor AI om de tekortkomingen als gevolg van de fragmentering van de interne markt inzake AI, waaronder toepassingen op het gebied van onderzoek, innovatie en expertise inzake milieu, volksgezondheid, gezondheidszorg en voedselveiligheid, te verhelpen, en om dubbele normen voor AI in de lidstaten voor in de Unie en daarbuiten ontwikkelde AI te voorkomen, onder meer op het gebied van beheer van consumentengegevens, bescherming en privacy bij slimme netwerken, afvalbeheer, gelijke toegang tot diensten en technologieën, normen voor de relatie tussen patiënten en artsen, gegevensbeschermings- en privacywetgeving, met inbegrip van de interactie daarvan met onderzoeksactiviteiten en de ontwikkeling van geneesmiddelen, wettelijke aansprakelijkheid bij door AI ondersteunde openbare gezondheidszorg, en wettelijke aansprakelijkheid met betrekking tot autonome voertuigen of machines; merkt op dat de wetgeving van de lidstaten op nationaal niveau geen geharmoniseerde aansprakelijkheidsregels bevat die van toepassing zijn op schade of letsel die het gevolg kunnen zijn van digitale en gedragstechnologieën; vraagt om een goede wettelijke verankering en positionering van dat ethische kader van de Unie voor AI;

10. herinnert er in dit verband aan dat het Europees Parlement in zijn resolutie van 16 februari 2017 over civielrechtelijke regels inzake robotica[41] de Commissie heeft gevraagd te overwegen een Europees agentschap voor robotica en artificiële intelligentie aan te wijzen, dat onder meer moet zorgen voor een geharmoniseerde aanpak in de Unie, gemeenschappelijke criteria en een toepassingsproces moet ontwikkelen voor de afgifte van een Europees certificaat van goed ethisch gedrag, en de nieuwe kansen en uitdagingen aan te pakken, met name die met een grensoverschrijdend karakter die voortvloeien uit de huidige technologische ontwikkelingen; verzoekt de Commissie na te denken over de vraag of bestaande organen en instellingen van de Unie toereikend zijn voor deze taken of dat er een nieuw orgaan voor artificiële intelligentie moet worden opgericht;

11. is van mening dat voor alle in de Unie en daarbuiten ontwikkelde AI-toepassingen hetzelfde niveau van bescherming in de Unie moet worden gewaarborgd, zoals dat ook voor alle andere technologieën geldt, met inbegrip van een doeltreffende voorziening in rechte voor partijen die negatieve gevolgen van AI-systemen ondervinden, terwijl de technologische innovatie moet kunnen doorgaan; is voorts van mening dat dit risicogebied van AI van cruciaal belang is voor bijvoorbeeld gezondheidsdiensten, vervoer met autonome voertuigen en voedselveiligheid; vraagt om een duidelijke verdeling van verplichtingen, rechten en aansprakelijkheden tussen marktdeelnemers die betrokken zijn bij de ontwikkeling van AI-toepassingen, waarbij elke verplichting moet worden opgelegd aan de actoren die het best in staat zijn om potentiële risico’s het hoofd te bieden, ongeacht of dat de ontwikkelaar, de exploitant, de fabrikant, de distributeur of de importeur, de dienstverlener, de professionele gebruiker of de particuliere gebruiker is, en vraagt in dit verband om een adequate evaluatie van de toepasselijke EU-wetgeving, zoals de productaansprakelijkheidsrichtlijn, en om de harmonisatie van nationale wetgeving; deelt het standpunt van de Commissie in het witboek dat vanwege de complexiteit van AI-systemen het waarborgen van een doeltreffend niveau van bescherming en doeltreffende rechtsmiddelen mogelijk vereist dat de nationale regels inzake aansprakelijkheid voor door exploitanten van AI-toepassingen veroorzaakte schade worden veranderd met betrekking tot de bewijslast; is van mening dat duidelijkheid op het gebied van juridische aansprakelijkheid in de AI-sector ten goede zal komen aan de handhaving van ethische waarden van de Unie zoals vervat in het acquis, de rechtszekerheid en voorspelbaarheid en de maatschappelijke acceptatie ter ondersteuning van de ontwikkeling van een AI-ecosysteem van excellentie in de Unie door het poolen van investeerders en het verbeteren van de toepassing in de markt;

12. wijst erop dat veel voorstellen van landen die geen lid van de Unie zijn en van internationale organisaties betrekking hebben op gemeenschappelijke beginselen en concepten voor AI, te weten: mensgerichtheid, betrouwbaarheid, eerbiediging van de menselijke autonomie, voorkomen van schade, billijkheid, “niemand achterlaten” en uitlegbaarheid; is van mening dat de ontwikkeling van een internationaal ethisch kader rond deze beginselen bijzonder wenselijk is; vreest dat de vooruitgang en innovatie op het gebied van AI zullen leiden tot sociale ongelijkheid indien er geen actie wordt ondernomen; verzoekt de Commissie en de lidstaten daarom de nodige maatregelen te nemen om niemand achter te laten bij de overgang naar een digitaal Europa, en om een eerlijke, betaalbare en gelijke toegang tot deze innovaties te waarborgen, met name op gebieden als de gezondheidszorg;

13. beveelt aan om de op risico gebaseerde aanpak aan te vullen met een algoritme-effectbeoordeling waarin gebruik kan worden gemaakt van informatie van bijvoorbeeld de regelgevingseffectbeoordeling, de risicobeoordelingsprocedure van de algemene verordening gegevensbescherming en de mensenrechteneffectbeoordeling, alsook om de resultaten ervan openbaar te maken;

14. is ingenomen met het feit dat de in het Witboek van de Commissie van 19 februari 2020[42] vastgestelde methode, namelijk een op risico’s gebaseerde benadering, gezondheidszorg, vervoer en energie standaard als risicosectoren erkent, waarbij in deze sectoren in de lijst opgenomen AI-eisen worden ingevoerd die verder gaan dan de bestaande regels van de Unie, tenzij de wijze waarop AI wordt gebruikt geen significant risico inhoudt; benadrukt dat het ethische kader van de Unie voor AI zich met name moet richten op de bovengenoemde sectoren met een hoog risico;

15. vraagt om duidelijke, objectieve en transparante procedures op het niveau van de Unie voor de samenstelling van een openbare catalogus van risicovolle AI-toepassingen, in combinatie met een mechanisme voor periodieke evaluatie en actualisering; vraagt de Commissie in overweging te nemen om in die procedures, voor alle AI-toepassingen in alle domeinen, de bewijslast te leggen bij de entiteit die het AI-systeem wil ontwikkelen of exploiteren, teneinde de catalogus open te houden voor innovatie en te voorkomen dat wordt voorbijgegaan aan het risico dat aan AI-toepassingen een te laag risico wordt toegekend;

16. is van mening dat er risico’s van vooringenomenheid en discriminatie zijn verbonden aan de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en verwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd; herinnert eraan dat die technologieën in alle omstandigheden de menselijke waardigheid moeten respecteren en de gelijke behandeling van iedereen moeten waarborgen; is van mening dat de gevolgen van mogelijke vooroordelen moeten worden tegengegaan door het vaststellen van regels inzake gegevensverwerking en van passende waarborgen tegen vooroordelen en discriminatie op grond van sociale, economische of etnische factoren, ras, geslacht, gender, handicap of andere gronden; waarschuwt voor potentieel misbruik van diagnostische AI-toepassingen en vraagt om waarborgen op het gebied van AI-capaciteiten en -motiveringen;

17. is ingenomen met het initiatief voor een vrijwillige etiketteringsregeling voor niet-risicovolle AI-toepassingen;

18. beveelt maatregelen aan om de betrokkenheid van alle belanghebbenden op het gebied van ethische AI-kwesties uit de private sector, consumentenorganisaties en de academische wereld te bevorderen bij de opstelling van een ethische gedragscode die is afgestemd op de technologische, sociale en politieke ontwikkelingen;

19. wijst erop dat robots om beslissingen te nemen, algoritmen gebruiken die waarden en ethische kaders belichamen en dat hun gebruik aanzienlijke ethische gevolgen heeft in de gezondheidszorg of bij sociale betrekkingen; is vooral bezorgd over het gebruik van gezelschapsrobots voor pedofiele doeleinden of voor seksueel misbruik; is van mening dat bij het ontwerp van robottechnologieën rekening moet worden gehouden met ethische overwegingen; vraagt dat in het ontwikkelingsproces ervan ruimte wordt gemaakt voor ethiek, steunend op het beginsel van waardengericht ontwerpen (Value Sensitive Design), met name wat betreft zorgrobots in de ouderenzorg en gezelschapsrobots; benadrukt dat die benadering ook moet worden gehanteerd om rekening te houden met het welzijn van dieren;

20. onderstreept dat naast duidelijke regelgevingseisen inzake verantwoordingsplicht en aansprakelijkheid, er ook behoefte is aan transparantie van algoritmen, zodat het moment waarop “het fout ging” kan worden getraceerd en deskundigen tijdig kunnen ingrijpen; acht transparantie van algoritmen van cruciaal belang om te voorkomen dat er medische besluiten worden genomen in een “zwarte doos”-omgeving; onderstreept dat “zwarte doos”-algoritmen die niet uit te leggen besluiten nemen in geen enkele sector acceptabel zijn, maar dat in een context waar AI-besluitvorming van invloed is op besluiten over leven en dood de gevolgen van algoritmische fouten zeer ernstig kunnen zijn; verzoekt de Commissie en de lidstaten platformen in te stellen voor de dialoog met belanghebbenden op het gebied van geneeskunde, IT, wiskunde, natuurkunde, medische-gegevenstechnologie, klinische psychologie, bio-engineering en de ontwikkeling van geneesmiddelen, en om de effecten op de relatie tussen arts en patiënt en de ontmenselijking van de medische zorg te beoordelen;

21. vraagt om sturende initiatieven van de Unie voor de bevordering van interpreteerbare algoritmen, transparante AI (xAI), symbolisch redenerende AI en “white box”-testtechnieken voor AI, door te laten zien dat die technologieën kunnen worden gecombineerd met diepe neurale netwerken en door de wettelijke, ethische en vaak ook zakelijke voordelen voor het voetlicht te brengen; wenst ook dat er methoden worden bevorderd voor het bepalen van de risico’s in verband met verschillende technologische opties, waarbij gebruik zou moeten worden gemaakt van onder meer de ervaringen van het Information Commissioner’s Office (ICO) van het Verenigd Koninkrijk en van de richtsnoeren van het Alan Turing Institute getiteld “Explaining decisions made with AI”, waaruit blijkt dat zelfs zeer complexe neurale AI-systemen voldoende kunnen worden geïnterpreteerd;

22. vraagt om transparantie, verantwoordelijkheid, controleerbaarheid, voorspelbaarheid en verantwoordingsplicht te waarborgen, omdat burgers, patiënten en gebruikers moeten worden geïnformeerd wanneer ze interacteren met een systeem dat gebruikmaakt van artificiële intelligentie, door middel van duidelijke en begrijpelijke toelichtingen op de gebruikte gegevens, de werking van het algoritme en het doel, de uitkomsten en de potentiële gevaren ervan; onderstreept dat transparantie en uitlegbaarheid van essentieel belang zijn om vertrouwen in deze technologieën te kweken; is van mening dat de uitlegbaarheid moet worden aangevuld met controleerbaarheid en traceerbaarheid, omdat de inachtneming van die beginselen een manier is om verantwoording te waarborgen; wijst erop dat AI-toepassingen bij de uitvoering van welomschreven specifieke taken beter kunnen presteren dan mensen, maar falen bij het uitvoeren van brede analyses; vraagt om menselijk toezicht, professionele verantwoordelijkheid en systeemvoorspelbaarheid, in combinatie met het vermogen om de controle over het AI-systeem over te nemen;

23. is van mening dat elke natuurlijke of rechtspersoon bezwaar moet kunnen aantekenen tegen een door middel van risicovolle AI, robotica of aanverwante technologie genomen besluit in zijn of haar nadeel, en dat elk door AI genomen besluit moet worden onderworpen aan strikte menselijke controle en naar behoren moet kunnen worden aangevochten; stelt voor dat er waarborgen worden ingevoerd met betrekking tot het gebruik van risicovolle AI, robotica en aanverwante technologieën voor het nemen van overheidsbesluiten, waaronder periodieke evaluaties en de eventuele herziening van wettelijke kaders om gelijke tred met de technologische ontwikkeling te houden; stelt tevens voor bindende richtsnoeren vast te stellen voor de door de nationale toezichthoudende autoriteiten te volgen methode voor de nalevingsbeoordeling, alsook niet-bindende richtsnoeren voor de ontwikkelaars, exploitanten en gebruikers;

24. is ingenomen met een Europese strategie voor gegevens die inspeelt op de uitdagingen waar de Unie voor staat op dit gebied, wat van groot belang is voor vooruitgang op het gebied van AI, en waarin wordt gezocht naar Europese kansen voor het creëren van een concurrentievoordeel in de nieuwe gegevenseconomie, met name in de groeiende sector van gedecentraliseerde niet-persoonsgegevens die worden gegenereerd door het bedrijfsleven, de zakenwereld en de overheid en door apparaten aan de rand van het netwerk, die in 2025 naar verwachting 80 % van 175 zettabytes zullen uitmaken en de huidige verhoudingen zullen omkeren;

25. roept ertoe op voldoende financiering te waarborgen voor de transformatie van de Unie op het gebied van AI; steunt de ambities van het Witboek van de Commissie om in de komende 10 jaar 200 miljard EUR aan publieke en private investeringen in AI aan te trekken in de Unie; is ingenomen met de aandacht die wordt besteed aan de tekorten van AI-ecosystemen in minder ontwikkelde regio’s en aan de behoeften van kmo’s en startende ondernemingen; verzoekt de Commissie tekortkomingen in de openbare infrastructuur in kaart te brengen en de financiering van AI op het gebied van matiging van en aanpassing aan de klimaatverandering, hernieuwbare energie en gezondheid te faciliteren en een geografisch evenwichtige toegang tot alle AI-financiering te vergemakkelijken, ook voor kmo’s en startende ondernemingen; benadrukt dat de nieuwe doelstellingen van de Unie geen afbreuk mogen doen aan de toezeggingen van de Unie voor haar bestaande prioriteiten, zoals het GLB, het cohesiebeleid, de Green Deal en het “Next Generation EU” COVID-19-herstelplan;

26. verzoekt de Commissie de ontwikkeling van mensgerichte artificiële intelligentie, robotica en aanverwante technologieën die milieu- en klimaatuitdagingen aanpakken en die zorgen voor gelijke toegang tot en uitoefening van de grondrechten middels het gebruik van fiscale prikkels, groene overheidsopdrachten of andere stimulansen, te bevorderen en te financieren;

CO2-voetafdruk van AI

27. wijst erop dat de Commissie in haar op 19 februari 2020 gepubliceerde digitale pakket verklaart dat ICT vandaag de dag verantwoordelijk is voor 5 tot 9 % van het mondiale stroomverbruik en voor 2 % van de CO2-emissie, dat het volume aan overgedragen en opgeslagen gegevens de komende jaren exponentieel zal blijven groeien en dat hiervoor bijgevolg oplossingen moeten worden gevonden; merkt verder op dat in de studie van het Gemeenschappelijk Centrum voor onderzoek van 2018 getiteld “Artificial Intelligence/A European Perspective” wordt geschat dat datacentra en dataoverdracht wellicht verantwoordelijk zijn voor 3 tot 4 % van het totale stroomverbruik in de Unie;

28. is ingenomen met het feit dat in de Europese digitale strategie groene transformatiemaatregelen voor de digitale sectoren worden voorgesteld;

29. benadrukt dat deze technologieën, ondanks de huidige grote CO2-voetafdruk van deep learning en AI zelf, kunnen bijdragen tot het verkleinen van de huidige ecologische voetafdruk van de ICT-sector en de ontwikkeling van AI, robotica, geautomatiseerde besluitvorming en machinaal leren; benadrukt dat deze en andere goed gereguleerde aanverwante technologieën doorslaggevend moeten zijn voor de verwezenlijking van de doelstellingen van de Green Deal, de duurzameontwikkelingsdoelstellingen van de VN en de Overeenkomst van Parijs in veel verschillende sectoren, en het effect van beleid ter bescherming van het milieu, bijvoorbeeld op het gebied van afvalvermindering en aantasting van het milieu, moeten vergroten;

30. verzoekt de Commissie een studie uit te voeren naar de CO2-voetafdruk van AI-technologie en naar de positieve en negatieve effecten van de overgang naar gebruik van AI-technologie door consumenten;

31. merkt op dat, gezien de toenemende ontwikkeling van AI-toepassingen, die rekenkracht, opslagruimte en energie vergen, de milieueffecten van AI-systemen over hun hele levenscyclus moeten worden beoordeeld;

Gevolgen van AI voor de gezondheidssector en de rechten van patiënten

32. is zich bewust van de grote rol die AI kan spelen in de gezondheidssector en benadrukt dat AI-toepassingen in de gezondheidszorg altijd tot doel moeten hebben om de kansen die ze bieden, zoals het verbeteren van de gezondheid van individuele patiënten en van de prestaties van de gezondheidszorgstelsels van de lidstaten, te maximaliseren zonder ethische normen te verlagen en de privacy of de veiligheid van burgers aan te tasten;

33. is ingenomen met de toezegging van de Commissie in het witboek om onderzoek te doen naar de veiligheids- en aansprakelijkheidsuitdagingen die specifiek zijn voor de gezondheidszorg, zoals AI-systemen die gespecialiseerde medische informatie verstrekken aan artsen of rechtstreeks aan de patiënt en AI-systemen die zelf rechtstreeks medische taken uitvoeren op een patiënt; vraagt om een daarop aansluitend onderzoek van de andere vermelde sectoren die standaard sectoren met een hoog risico zijn;

34. is van mening dat op gebieden als gezondheid de aansprakelijkheid in laatste instantie bij een natuurlijke of rechtspersoon moet blijven liggen; benadrukt de noodzaak van traceerbaarheid en publiekelijk beschikbare trainingsdata voor algoritmen;

35. verzoekt de Commissie een open, transparante sectorale dialoog te starten, waarbij prioriteit wordt verleend aan de gezondheidszorg om vervolgens een actieplan te presenteren om de ontwikkeling, het testen en de invoering van AI op het gebied van onderzoek en innovatie en de bredere toepassing hiervan in de gezondheidszorg mogelijk te maken;

36. waarschuwt voor pogingen om machines een soort “persoonlijkheid” te geven, wat kan leiden tot het schrappen van de menselijke aansprakelijkheid in het geval van behandelingsfouten;

37. is groot voorstander van de totstandbrenging van een Europese ruimte voor gezondheidsgegevens[43], zoals voorgesteld door de Commissie, ter bevordering van de uitwisseling van gezondheidsgegevens en ter ondersteuning van medisch onderzoek, met volledige eerbiediging van gegevensbescherming en met inbegrip van gegevensverwerking met behulp van AI-technologie, waardoor het gebruik en hergebruik van gezondheidsgegevens kan worden versterkt en uitgebreid; dringt aan op opschaling van de grensoverschrijdende uitwisseling van gezondheidsgegevens, de koppeling en het gebruik daarvan via beveiligde gefedereerde databanken, specifieke soorten gezondheidsinformatie zoals elektronische medische dossiers (EMD’s), genoominformatie en digitale medische beelden om de ontwikkeling van Uniebrede interoperabele registers of databanken op gebieden als onderzoek, wetenschap en gezondheidszorg te bevorderen;

38. benadrukt dat patiënten moeten weten wanneer en hoe zij interactie hebben met een menselijke beroepsbeoefenaar en wanneer niet; dringt erop aan dat patiënten de vrijheid moeten hebben om zelf over die interactie te besluiten en dat hen een alternatief van gelijkwaardig niveau moet worden geboden;

39. is van mening dat, met name in de gezondheidszorg, mobiele toepassingen kunnen helpen om ziektes te monitoren, en dat het nuttig is robots te kunnen inzetten ter ondersteuning van het werk van artsen en verpleegkundigen om de diagnose en de behandeling te verbeteren, waarbij moet worden gewaarborgd dat geneeskunde en patiëntenzorg niet worden ontmenselijkt;

40. vraagt om een gestandaardiseerde interoperabiliteit van e-gezondheidszorgtoepassingen in de Unie en om gemeenschappelijke Europese toegang tot gegevens over recepten, diagnoses en medische rapporten voor alle Europese burgers in alle lidstaten;

41. herhaalt dat de kansen en risico’s die inherent zijn aan deze technologieën een mondiale dimensie hebben die een consistente, geharmoniseerde aanpak op internationaal niveau vereist; verzoekt de Commissie om op bilateraal en multilateraal niveau te pleiten voor ethische naleving en om daarvoor waarborgen te creëren;

42. benadrukt de voordelen van AI voor de preventie, behandeling en bestrijding van ziekten, zoals is gebleken uit het feit dat AI de COVID-19-epidemie eerder heeft voorspeld dan de Wereldgezondheidsorganisatie; dringt er bij de Commissie op aan voor het ECDC te voorzien in het adequate rechtskader en passende middelen voor het verzamelen van noodzakelijke geanonimiseerde realtime wereldwijde gezondheidsgegevens, onafhankelijk en in samenwerking met de lidstaten, om onder meer problemen aan te pakken die door de COVID-19-pandemie aan het licht zijn gekomen;

43. wijst erop dat het gebruik van technologieën voor het opsporen en traceren van contacten door overheden tijdens de COVID-19-pandemie en andere volksgezondheidscrises in strijd kan zijn met de gegevensbeschermingswetgeving; herinnert in dit verband aan de mededeling van de Commissie van 17 april 2020 getiteld “Richtsnoeren in verband met gegevensbescherming voor apps ter ondersteuning van de bestrijding van de COVID-19-pandemie”[44], en aan de noodzaak van evenredigheid, beperking in de tijd, overeenstemming met Europese waarden en eerbiediging van de menselijke waardigheid en de grondrechten;

44. is van mening dat AI en robotica de controle over medische hulpmiddelen aanzienlijk kunnen verbeteren en de dagelijkse werkzaamheden van professionals in de gezondheidszorg kunnen vergemakkelijken; is van mening dat er voor kritieke medische hulpmiddelen back-upsystemen moeten worden opgezet om de goede werking van het hulpmiddel te monitoren en te waarborgen in mogelijke situaties van interferentie, en dat mogelijke cyberdreigingen voor de controle over die hulpmiddelen serieus moeten worden genomen en moeten worden beperkt; benadrukt dat behalve hackers en dreigingen van buitenaf, cyberdreigingen ook kunnen voortkomen uit menselijke of systeemfouten en dat er adequate en operationele back-upsystemen moeten bestaan; is voorts van mening dat de Unie een routekaart voor de ontwikkeling van AI-back-upsystemen moet creëren met het oog op mogelijke problemen met de controle over AI-systemen die een fout maken;

45. wijst erop dat de veiligheidsnormen van Verordening (EU) 2017/745 van het Europees Parlement en de Raad[45] wellicht niet volstaan voor de uitdagingen van AI-systemen; verzoekt de Commissie de uitdagingen op dit gebied te monitoren en, indien nodig, voorstellen te doen;

46. benadrukt dat moet worden gewaarborgd dat op AI gebaseerde medische hulpmiddelen voldoen aan de veiligheids- en prestatie-eisen van Verordening (EU) 2017/745; verzoekt de Commissie en de lidstaten ervoor te zorgen dat Verordening (EU) 2017/745 wordt uitgevoerd met betrekking tot deze technologieën; is van mening dat er nieuwe richtsnoeren en specificaties nodig zijn voor de evaluatie van de veiligheid en doeltreffendheid van software, AI- en “deep learning”-hulpmiddelen gedurende de hele gebruikscyclus;

47. vraagt om een duidelijker wettelijk mandaat en voldoende financiering voor het EMA en nationale voor geneesmiddelen bevoegde autoriteiten, ter ondersteuning van met AI samenhangende innovatie en volksgezondheidsaspecten in de levenscyclus van geneesmiddelen, met name om gezondheidsgegevens uit de echte wereld te verzamelen en te analyseren die als aanvullend bewijs kunnen worden gebruikt voor O&O en de optimalisatie van het veilige en doeltreffende gebruik van bestaande geneesmiddelen in het belang van de patiënten en van de Europese gezondheidszorgstelsels;

48. beklemtoont dat het verzekeringsmaatschappijen en andere dienstverleners niet mag worden toegestaan gegevens van elektronische gezondheidstoepassingen te gebruiken om te discrimineren bij de vaststelling van prijzen, aangezien dit in strijd zou zijn met het grondrecht op toegang tot de best mogelijke gezondheidszorg;

AI en gegevensbescherming

49.  is ingenomen met de onlangs gepubliceerde herziening[46] van Verordening (EU) 2016/679 door de Commissie; stelt vast dat de wetgeving van de lidstaten verschillende benaderingen volgt bij de toepassing van afwijkingen van het algemeen verbod op de verwerking van bijzondere categorieën persoonsgegevens, wat betreft het niveau van specificering en waarborgen, ook voor gezondheidsdoeleinden; stelt om die reden dat de verantwoordelijkheid voor besluiten uiteindelijk moet rusten op mensen, met name in sectoren waar veel op het spel staat en de risico’s hoog zijn, zoals de gezondheidszorg;

50. is ingenomen met het voornemen van de Commissie om toezicht te houden op de toepassing van Verordening (EU) 2016/679 op nieuwe technologieën, onder meer in mogelijke toekomstige initiatieven op het gebied van artificiële intelligentie en in het kader van de datastrategie; steunt de oproep van de Commissie aan het Europees Comité voor gegevensbescherming om richtsnoeren uit te vaardigen voor de toepassing van Verordening (EU) 2016/679 op het gebied van wetenschappelijk onderzoek, AI, blockchain en andere mogelijke technologische ontwikkelingen;

51. dringt met het oog op de zeggenschap van burgers en patiënten over hun persoonsgegevens aan op het waarborgen van de volledige handhaving en uniforme interpretatie van het rechtskader van de Unie inzake gegevensbescherming en privacy, met name bij AI-toepassingen in de gezondheidszorg en andere daarmee verband houdende gevoelige gegevens, om het “recht om te worden vergeten” als bedoeld in artikel 17 van Verordening (EU) 2016/679 te eerbiedigen en het “recht op uitleg” als bedoeld in artikel 22 van Verordening (EU) 2016/679 en strengere interpretatievereisten voor AI met een hoog risico te versterken;

52. benadrukt dat het ethisch kader voor AI het recht moet omvatten om uitleg te krijgen over een besluit op basis van geautomatiseerde verwerking voor personen die het voorwerp uitmaken van dergelijke besluiten;

53. vraagt om een goed evenwicht tussen enerzijds privacy en gegevensbescherming en anderzijds een optimaal gebruik van de beschikbare gegevens; is van mening dat het voor de vooruitgang in de wetenschap belangrijk is om het delen en verwerken van voldoende gedetailleerde gezondheidsgegevens mogelijk te maken; dringt erop aan de anonimisering van gegevens te waarborgen en buitensporige gegevensminimalisering te vermijden; vraagt om interoperabele, geschikte databanken, registers en opslagfaciliteiten op EU-niveau om het gebruik van gezondheidsgegevens in de sectoren gezondheid, milieu en voedselveiligheid te vergemakkelijken;

54. benadrukt dat ervoor moet worden gezorgd dat gezondheidsgegevens en gegevens van kwetsbare groepen worden beschermd, en wijst erop dat, voor zover AI-toepassingen gezondheidsgegevens verwerken op basis van de toestemming van de betrokkene, moet worden voldaan aan de voorwaarden van artikel 7 van Verordening (EU) 2016/679;

55. benadrukt dat de gegenereerde gegevens in geen geval mogen bijdragen tot enige vorm van discriminatie; dringt aan op garanties dat de verzameling en toegankelijkheid van gegevens altijd in overeenstemming zijn met het rechtskader van de Unie;

56. wijst erop dat potentiële gegevenswijzigingen en -manipulatie en mogelijke hacking of diefstal van gegevens in de gezondheidszorg bijzonder ernstige gevolgen kunnen hebben en kunnen worden misbruikt om personen schade toe te brengen, in diskrediet te brengen of af te persen; benadrukt dat voor de desbetreffende netwerken de strengste normen op het gebied van cyberveiligheid moeten worden vastgesteld;

Gevolgen van AI voor werk en samenleving

57. herinnert eraan dat de veranderingen op de arbeidsmarkt deel uitmaken van de maatregelen waarmee rekening is gehouden in het ethisch kader van de OESO; benadrukt dat automatisering gecombineerd met artificiële intelligentie de productiviteit zal doen toenemen en dus de productie verhogen; merkt op dat, zoals bij eerdere technologische revoluties, sommige banen zullen worden vervangen; beklemtoont dat het toenemende gebruik van robots en AI normaal ook de blootstelling van mensen aan schadelijke en gevaarlijke omgevingen zal verminderen, zal bijdragen tot de creatie van meer hoogwaardige en fatsoenlijke banen en de productiviteit zal verhogen; verwijst naar de werkzaamheden van de OESO waarin wordt beklemtoond dat de samenleving dankzij automatisering zal kunnen kiezen voor arbeidsduurvermindering, wat bevorderlijk is voor de levensomstandigheden en de gezondheid van de werknemers;

58. vestigt extra aandacht op de aanbevelingen van de OESO dat de overheid nauw moet samenwerken met de belanghebbenden om een verantwoord gebruik van AI op het werk te stimuleren, de veiligheid van de werknemers en de kwaliteit van de banen te verbeteren en ervoor te zorgen dat de voordelen van AI breed en eerlijk worden verdeeld; benadrukt in dit verband dat diverse teams van ontwikkelaars en ingenieurs die samenwerken met belangrijke actoren kunnen bijdragen aan het voorkomen van gender- en culturele vooroordelen en ervoor kunnen zorgen dat het lichamelijk en geestelijk welzijn van werknemers wordt geëerbiedigd bij AI-algoritmen, -systemen en -toepassingen;

59. benadrukt dat de ontwikkeling van AI-toepassingen de kosten van beschikbare diensten zoals gezondheidszorg, openbaar vervoer en landbouw 2.0 zou kunnen verlagen en het volume ervan zou kunnen vergroten, waardoor ze voor een groter deel van de samenleving betaalbaar worden; benadrukt dat AI-toepassingen echter ook kunnen leiden tot een stijging van de werkloosheid, meer druk op socialezorgstelsels en een toename van de armoede; onderstreept, indachtig de waarden die zijn vervat in artikel 3 van het Verdrag betreffende de Europese Unie, de noodzaak om de AI-transformatie in de Unie aan te passen aan sociaaleconomische capaciteiten, adequate sociale bescherming, onderwijs en alternatieve werkgelegenheid; vraagt om te overwegen een fonds van de Unie voor aanpassing aan AI op te richten, voortbouwend op de ervaringen met het Europees Fonds voor aanpassing aan de globalisering (EFG) of met het Fonds voor een rechtvaardige transitie dat momenteel wordt ontwikkeld;

60. benadrukt ook het belang van de sociale dialoog voor een eerlijke en inclusieve overgang voor door AI getroffen werknemers naar nieuwe arbeidssituaties, en benadrukt dat bedrijven moeten investeren in opleiding en omscholing van hun werknemers;

61. roept de lidstaten op om het onderwijs op het gebied van milieubescherming, gezondheid en voedselveiligheid af te stemmen op de ontwikkelingen met betrekking tot AI, en om het bewustzijn van de risico’s en ethische uitdagingen ten aanzien van AI te vergroten;

62. is ingenomen met de in het witboek voorgestelde vereisten voor risicovolle AI-trainingsdata, die ook zijn gericht op veiligheid – voldoende brede datasets om alle relevante scenario’s voor het vermijden van gevaarlijke situaties, zoals discriminatie, te bestrijken, en voldoende representatieve datasets om een goede afspiegeling te zijn van de sociale omgeving waarin ze zullen worden toegepast;

63. benadrukt dat de overheid zich moet concentreren op het oplossen van echte maatschappelijke problemen in plaats van AI in te voeren enkel “omdat het kan”; vraagt om verbetering van de Uniewetgeving en -richtsnoeren inzake de gunning van overheidsopdrachten, waaronder die inzake groene overheidsopdrachten van de Europese Unie, zodat tijdens de desbetreffende evaluatieprocedures voor openbare aanbestedingen kan worden gekeken of voor het oplossen van een gegeven probleem een AI-toepassing nodig is en of er een alternatief traject kan worden gevolgd wanneer het maatschappelijke probleem beter kan worden aangepakt zonder behulp van AI.

 


 

INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

10.9.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

77

2

2

Bij de eindstemming aanwezige leden

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Bij de eindstemming aanwezige vaste plaatsvervangers

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

77

+

 PPE

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan‑Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 


 

 

 

ADVIES VAN DE COMMISSIE CULTUUR EN ONDERWIJS (3.9.2020)

aan de Commissie juridische zaken

met aanbevelingen aan de Commissie inzake het kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën

(2020/2012(INL))

Rapporteur voor advies: Łukasz Kohut

(Initiatief – Artikel 47 van het Reglement)

 

 

SUGGESTIES

De Commissie cultuur en onderwijs verzoekt de bevoegde Commissie juridische zaken

- onderstaande suggesties in haar ontwerpresolutie op te nemen:

1. herinnert eraan dat de ontwikkeling, de inzet en het gebruik van kunstmatige intelligentie (AI) in de culturele en creatieve sectoren en op het gebied van onderwijs, media, jeugd en informatiebeleid niet alleen het potentieel heeft om een groot aantal aan te pakken ethische kwesties aan de orde te stellen, maar dat reeds doet en zal blijven doen; benadrukt dat de Unie de weg moet effenen voor een ethische AI die is gestoeld op Europese waarden, waarbij de bescherming van de menselijke waardigheid en de grondrechten wordt gewaarborgd in een Europa dat democratisch, eerlijk en duurzaam is; roept de instellingen van de EU op om vanuit een langetermijnperspectief na te denken over de gevolgen van AI voor ons democratisch debat, onze samenlevingen en de aard van de mens zelf, teneinde de weg te effenen voor AI-technologie die onze vrijheid eerbiedigt, geen belemmering vormt voor innovatie en de vrijheid van meningsuiting niet ondergraaft;

2. is ervan overtuigd dat het noodzakelijk is te onderzoeken hoe de kaders en verplichtingen op het gebied van de mensenrechten richting kunnen geven aan acties en beleid met betrekking tot nieuwe en opkomende digitale technologieën om hun mensgerichte benadering en de toegankelijkheid van de voordelen ervan voor iedereen te garanderen; is zich ervan bewust dat het noodzakelijk is ervoor te zorgen dat de ontwikkeling, de toepassing en het gebruik van AI vrij is van discriminatie en vooringenomenheid bij de profilering, en dat het een afspiegeling is van alle essentiële elementen van de samenleving; onderkent dat AI en automatisering een mogelijk schadelijk effect kunnen hebben op de geglobaliseerde economie dat de bestaande ongelijkheden zou kunnen verscherpen;

3. benadrukt de noodzaak om criteria op maat te ontwikkelen voor de ontwikkeling, de toepassing en het gebruik van AI op het gebied van onderwijs, media, jeugd en onderzoek en in de culturele en creatieve sectoren, door het ontwikkelen van benchmarks en het definiëren van beginselen voor ethisch verantwoord en geaccepteerd gebruik van AI-technologieën op deze gebieden, met inbegrip van een duidelijke aansprakelijkheidsregeling voor producten die voortkomen uit het gebruik van AI; benadrukt dat dergelijke criteria flexibel moeten zijn en voortdurend moeten worden aangepast aan de vooruitgang op het gebied van AI-technologieën, zodat ook het volledige potentieel van AI op verantwoorde wijze kan worden benut; benadrukt dat het met name noodzakelijk is aandacht te besteden aan punten van zorg met betrekking tot de verzameling van persoonsgegevens van gebruikers en privacy en kwesties van aansprakelijkheid in situaties waarin geautomatiseerde processen tot ongewenste uitkomsten leiden; herinnert eraan dat het, om dergelijke criteria een solide basis te geven, noodzakelijk is als eis te stellen dat de beginselen van conformiteit van een systeem in acht worden genomen met betrekking tot specificaties, transparantie, goede trouw en billijkheid, in overleg met de bevoegde ethische commissies die verantwoordelijk zijn voor het helpen leggen van de fundamenten in overeenstemming met de culturele waarden en de wettelijke kaderbepalingen van de Europese Unie; merkt op dat AI-systemen op software zijn gebaseerd en intelligent gedrag vertonen dat is gebaseerd op analyses van hun omgeving; benadrukt dat deze analyse is gebaseerd op statistische modellen die onvermijdelijk fouten bevatten; benadrukt dat moet worden gegarandeerd dat er systemen en methoden zijn om de verificatie en verantwoording van algoritmen en de toegang tot rechtsmiddelen mogelijk te maken; benadrukt dat moet worden gezorgd voor bindende regels om te garanderen dat de beginselen van transparantie, verantwoording en non-discriminatie worden toegepast; herinnert aan de zeven vereisten voor betrouwbare AI in de ethische richtsnoeren voor betrouwbare AI uit 2019;

4. is van mening dat elk kind recht heeft op openbaar kwaliteitsonderwijs op alle niveaus; dringt daarom aan op de ontwikkeling, de uitrol en het gebruik van hoogstaande AI-systemen die kwalitatief hoogwaardige pedagogische instrumenten mogelijk maken en verschaffen voor alle niveaus, en benadrukt dat de uitrol van nieuwe AI-systemen op scholen niet mag leiden tot een grotere digitale kloof in de maatschappij;

5. merkt op dat er op scholen en universiteiten steeds meer gebruik wordt gemaakt van gepersonaliseerde AI-leersystemen, waardoor de rol van leraren en docenten in het leerproces geleidelijk verandert; benadrukt dat deze verschuiving grondig moet worden beoordeeld, in de curricula moet worden weerspiegeld en moet worden verankerd in waarden waarbij de mens centraal staat; is zich bewust van het enorme potentieel dat AI en robotica kunnen hebben in het onderwijs; merkt op dat de gepersonaliseerde leersystemen van AI niet in de plaats mogen komen van het pedagogische contact met leerkrachten en dat de traditionele onderwijsvormen niet mogen worden losgelaten, maar wijst er tegelijkertijd op dat financiële, technologische en educatieve ondersteuning, met inbegrip van gespecialiseerde opleidingen in informatie- en communicatietechnologie, moet worden geboden aan leerkrachten die passende vaardigheden willen verwerven om zich aan te passen aan de technologische veranderingen en niet alleen het potentieel van AI te benutten, maar ook de beperkingen van AI te begrijpen;

6. benadrukt dat er, als er gebruik wordt gemaakt van machinaal leren bij de selectieprocedures van potentiële studenten, gepaste waarborgen moeten worden ingevoerd, bijvoorbeeld door kandidaten op de hoogte te brengen van deze procedure en de rechten die zij in dit kader hebben; merkt op dat de relevante algoritmen moeten worden getraind aan de hand van brede gegevensreeksen, zodat kan worden voorkomen dat bepaalde groepen onterecht worden gediscrimineerd; is van mening dat de relevante besluiten die met behulp van geautomatiseerde processen worden genomen, moeten kunnen worden uitgelegd, zo nodig ook aan de afgewezen studenten;

7. dringt aan op de ontwikkeling van een strategie op Unieniveau voor AI, robotica en verwante technologieën teneinde de onderwijsstelsels te helpen transformeren en actualiseren, onderwijsinstanties op alle niveaus voor te bereiden en ervoor te zorgen dat onderwijzers, docenten en leerlingen de nodige vaardigheden en capaciteiten verwerven; is van mening dat er behoefte is aan een kader voor ethiek in het onderwijs; beveelt aan maatschappelijke organisaties, universiteiten, vakbonden en werkgeversorganisaties te betrekken bij het opstellen van een dergelijk kader; merkt op dat de culturele diversiteit en meertaligheid van de Unie tot uitdrukking moeten komen in de AI-systemen die in de Unie worden ontwikkeld, uitgerold en gebruikt; benadrukt in dit kader dat bijzondere steun moet worden geboden aan ontwikkelaars van technologie, gebruikers uit achtergestelde groepen en personen met een handicap;

8. is van mening dat met name de rechten van minderjarigen moeten worden gewaarborgd en beschermd, aangezien hun toekomst in grote mate wordt bepaald door hun onderwijsomgeving, in het bijzonder de eerbiediging van hun recht op privacy en de bevordering van de toegang tot onderwijs, waarbij hoe dan ook moet worden gegarandeerd dat iedereen gelijke kansen heeft; benadrukt dat onderwijsinstellingen alleen gebruik moeten maken van AI-systemen voor onderwijsdoeleinden die zijn gecontroleerd en gecertificeerd als ethisch, bevorderlijk en in overeenstemming met de mensenrechtenbeginselen; verzoekt de Commissie en de lidstaten de samenwerking te bevorderen tussen de publieke en de private sector en de academische wereld zodat meer kennis kan worden gedeeld en het gebruik van open bronnen wordt versterkt;

9. merkt op dat het noodzakelijk is de begrippen “kunstwerken”, “culturele werken” en “creatieve werken”, te verduidelijken, evenals de rol van de persoon als schepper en kunstenaar; benadrukt dat de mogelijkheden die de digitalisering en de nieuwe technologieën bieden, niet mogen leiden tot een algeheel verlies van banen in de culturele en creatieve sectoren, tot verwaarlozing van het conserveren van originelen en tot een afzwakking van de traditionele toegang tot het cultureel erfgoed, die juist moet worden aangemoedigd;

10. erkent het steeds grotere potentieel van AI op het gebied van informatie, media en online-platforms, onder meer als een krachtig instrument om desinformatie tegen te gaan; maakt zich echter zorgen over het potentiële misbruik van AI om de publieke opinie online te manipuleren; benadrukt dat AI-technologieën, als ze niet worden gereguleerd, ook ethisch gezien schadelijke effecten kunnen hebben door het exploiteren van in gegevens en algoritmen vervatte vooringenomenheid, met de verspreiding van desinformatie, het creëren van informatiebubbels en het verspreiden van nepnieuws als mogelijk gevolg; herinnert eraan dat adequaat onderwijs een noodzakelijke voorwaarde is om de rechten van de burgers met betrekking tot de vrijheid van informatie, mening en meningsuiting te waarborgen, en roept op tot een ethisch gebruik van AI-technologieën op het gebied van de media; waarschuwt voor het risico van door technologie mogelijk gemaakte censuur en is van mening dat er een ethisch kader nodig is om de vrijheid van meningsuiting te beschermen;

11. is van mening dat het gebruik van bepaalde soorten AI, zoals gezichtsherkenning, emoties en systemen voor gedragsdetectie, schadelijke effecten kunnen hebben, met name op de rol die media en journalisten vervullen als waakhonden van de democratie en daarmee op de democratische processen; onderstreept derhalve dat het gebruik van dergelijke systemen in openbare ruimten waar nodig moet worden beperkt of verboden; benadrukt de noodzaak tot voortzetting van de strijd tegen nepnieuws, met inbegrip van technieken als “deepfakes”, tegen censuur en tegen geautomatiseerd toezicht;

12. benadrukt dat het noodzakelijk is bewustzijn en begrip te kweken onder het algemene publiek omtrent de rol en effecten van AI door middel van formeel en niet-formeel onderwijs, met inbegrip van geesteswetenschappen, onder meer over het gebruik van algoritmen en hun effecten op onder meer de werkgelegenheid en privacy, alsmede het begrip van de plaats die IT-systemen innemen bij het selecteren, interpreteren, opslaan en presenteren van gegevens; pleit voor de invoering van instrumenten voor digitale geletterdheid op alle onderwijsniveaus en roept de lidstaten en de EU-instellingen dan ook op om te investeren in informatie- en mediageletterdheid, onderwijs en opleiding; is van mening dat informatie- en mediavaardigheden van cruciaal belang zijn voor alle burgers, met inbegrip van kwetsbare sociale groepen, om nieuwe ontwikkelingen kritisch te kunnen beoordelen en begrijpen, met inbegrip van inzicht in het functioneren van AI en de daaraan inherente vooroordelen, en dus om nieuwe vormen van kritisch denken te ontwikkelen; beveelt de Commissie aan vormen van onderwijs en permanente scholing te bevorderen waarbij wordt gebruikgemaakt van AI, robotica en technologie;

13. merkt op dat er sprake is van een belangrijk onderscheid tussen transparantie van algoritmen en transparantie in het gebruik van algoritmen; benadrukt het belang van transparantie en verantwoording van de algoritmen die door de videodelingsplatforms (VSP’s) en de streamingplatforms worden gebruikt, om de toegang tot cultureel en taalkundig gevarieerde inhoud te waarborgen en bevoordeling te vermijden; is van mening dat elke gebruiker naar behoren op de hoogte moet worden gebracht wanneer er een algoritme wordt gebruikt om inhoud aan te bevelen en dat de gebruiker deze algoritmen moet kunnen optimaliseren op basis van zijn of haar keuzes, waarbij dergelijke algoritmen de keuze van een gebruiker niet mogen beperken; is van mening dat elke gebruiker de mogelijkheid moet hebben om aanbevelingen van inhoud op basis van AI uit te schakelen; benadrukt dat dergelijke algoritmen zodanig moeten worden ontworpen dat zij een afspiegeling vormen van de culturele diversiteit van onze gemeenschappen, waardoor een echte culturele openheid wordt gewaarborgd en de creatieve vrijheid wordt gegarandeerd; dringt erop aan dat gegevens die worden verzameld met behulp van AI, zoals culturele voorkeuren of onderwijsprestaties, niet mogen worden overgedragen of gebruikt zonder dat de eigenaar hiervan op de hoogte wordt gebracht;

14. merkt op dat de sportwereld technologische innovatie altijd heeft omarmd; is echter van mening dat het gebruik van AI-technologieën, die steeds vaker bij sportwedstrijden worden gebruikt, steeds meer vragen oproept over eerlijke concurrentie in de sport, aangezien de teams die over de meeste financiële middelen beschikken de beste technologie kunnen aanschaffen en hierdoor mogelijk een oneerlijk concurrentievoordeel kunnen verkrijgen; benadrukt dat deze ontwikkelingen nauwlettend moeten worden gevolgd en dat op dit gebied een regelgevend kader nodig is waarbinnen ethische criteria waarbij de mens centraal staat worden toegepast op de ontwikkeling en het gebruik van AI-technologieën; dringt aan op volledige transparantie omtrent de algoritmen en technologieën die worden gebruikt in de sport teneinde een gelijk speelveld te waarborgen.

.


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

31.8.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

28

0

2

Bij de eindstemming aanwezige leden

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Bij de eindstemming aanwezige vaste plaatsvervangers

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 


HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 

 

 


 

INFORMATIE OVER DE GOEDKEURING IN DE BEVOEGDE COMMISSIE

Datum goedkeuring

1.10.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

20

0

4

Bij de eindstemming aanwezige leden

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Bij de eindstemming aanwezige vaste plaatsvervangers

Patrick Breyer, Evelyne Gebhardt

 


HOOFDELIJKE EINDSTEMMING IN DE BEVOEGDE COMMISSIE

20

+

EPP