Partnerschaps- en samenwerkingsovereenkomst EU-Thailand
115k
43k
Wetgevingsresolutie van het Europees Parlement van 14 juni 2023 over het ontwerp van besluit van de Raad betreffende de sluiting namens de Europese Unie van de Kaderovereenkomst inzake een breed partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en het Koninkrijk Thailand, anderzijds (11908/2022 – C9-0429/2022 – 2022/0252(NLE))
– gezien het ontwerp van besluit van de Raad (11908/2022),
– gezien het ontwerp van kaderovereenkomst inzake een breed partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en het Koninkrijk Thailand, anderzijds(1),
– gezien het verzoek om goedkeuring dat de Raad heeft ingediend krachtens artikel 209 en artikel 218, lid 6, tweede alinea, punt a), iii), van het Verdrag betreffende de werking van de Europese Unie (C9‑0429/2022),
– gezien zijn niet-wetgevingsresolutie van 14 juni 2023(2) over het ontwerp van besluit,
– gezien artikel 105, leden 1 en 4, en artikel 114, lid 7, van zijn Reglement,
– gezien de aanbeveling van de Commissie buitenlandse zaken (A9-0191/2023),
1. hecht zijn goedkeuring aan de sluiting van de overeenkomst;
2. verzoekt zijn Voorzitter het standpunt van het Parlement te doen toekomen aan de Raad en de Commissie, alsmede aan de regeringen en parlementen van de lidstaten en het Koninkrijk Thailand.
Partnerschaps- en samenwerkingsovereenkomst EU-Thailand (Resolutie)
162k
52k
Niet-wetgevingsresolutie van het Europees Parlement van 14 juni 2023 over het ontwerp van besluit van de Raad betreffende de sluiting namens de Unie van de Kaderovereenkomst inzake een breed partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en het Koninkrijk Thailand, anderzijds (11908/2022 – C9-0429/2022 – 2022/0252M(NLE))
– gezien het ontwerp van besluit van de Raad (11908/2022),
– gezien het verzoek om goedkeuring dat de Raad heeft ingediend krachtens artikel 209 en artikel 218, lid 6, tweede alinea, punt a), iii), van het Verdrag betreffende de werking van de Europese Unie (C9-0429/2022),
– gezien de ontwerpkaderovereenkomst inzake een breed partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en het Koninkrijk Thailand, anderzijds(1),
– gezien de gezamenlijke mededelingen van de Commissie en de hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid van 16 september 2021 over de EU‑strategie voor samenwerking in de Indo-Pacifische regio (JOIN(2021)0024) en van 1 december 2021 over de Global Gateway (JOIN(2021)0030),
– gezien zijn resolutie van 7 juni 2022 over de EU en de veiligheidsuitdagingen in de Indo‑Pacifische regio(2) en zijn resolutie van 5 juli 2022 over de Indo‑Pacifische strategie op het gebied van handel en investeringen(3),
– gezien de gezamenlijke verklaring van de leiders die is overeengekomen op de jubileumtop van de EU en de Asean‑lidstaten op 14 december 2022 in Brussel,
– gezien zijn resolutie van 3 oktober 2017 over politieke betrekkingen tussen de EU en de Asean(4),
– gezien de op 7 maart 1980 ondertekende samenwerkingsovereenkomst tussen de Europese Economische Gemeenschap en Indonesië, Maleisië, de Filipijnen, Singapore en Thailand, lidstaten van de Association of South-East Asian Nations, die het rechtskader vormt voor de betrekkingen tussen de EU en de Asean(5),
– gezien zijn resoluties van 8 oktober 2015 over de situatie in Thailand(6) en van 6 oktober 2016 over Thailand, met name de zaak Andy Hall(7),
– gezien de conclusies van de Raad van 14 oktober 2019 over Thailand,
– gezien de twaalfde interparlementaire vergadering EU‑Thailand, die op 8 december 2022 via een verbinding op afstand werd gehouden,
– gezien het VN-Vluchtelingenverdrag van 1951 en het bijbehorende protocol van 1967,
– gezien de verdragen van de Internationale Arbeidsorganisatie (IAO),
– gezien het Internationaal Verdrag inzake burgerrechten en politieke rechten van 16 december 1966, waarbij Thailand partij is,
– gezien het Tweede Facultatieve Protocol bij het Internationaal Verdrag inzake burgerrechten en politieke rechten van 15 december 1989, gericht op de afschaffing van de doodstraf,
– gezien het Internationaal Verdrag inzake de bescherming van alle personen tegen gedwongen verdwijning van 23 december 2010,
– gezien het Verdrag tegen foltering en andere wrede, onmenselijke of onterende behandeling of bestraffing van 10 december 1984, en het bijbehorende Facultatief Protocol,
– gezien het Verdrag inzake de rechten van het kind,
– gezien het Statuut van Rome inzake het Internationaal Strafhof van 17 juli 1998,
– gezien de mededeling van de Commissie van 22 juni 2022 getiteld “De kracht van handelspartnerschappen: samen voor groene en rechtvaardige groei” (COM(2022)0409),
– gezien artikel 105, lid 2, van zijn Reglement,
– gezien de brief van de Commissie landbouw en plattelandsontwikkeling,
– gezien het verslag van de Commissie buitenlandse zaken (A9-0193/2023),
A. overwegende dat er zich in de Indo-Pacifische regio politieke, handels- en veiligheidspartners bevinden die voor de EU steeds belangrijker worden, waaronder Thailand; overwegende dat een vrije, verbonden, stabiele en op regels gebaseerde Indo-Pacifische regio waar het internationale recht wordt geëerbiedigd, in overeenstemming met Europese beginselen en normen, dienstig is voor de veiligheid en belangen van de EU;
B. overwegende dat Thailand een van de oprichters van de Asean is; overwegende dat de eerste top tussen de leiders van de EU en de Asean-lidstaten, die plaatsvond op 14 december 2022, samenviel met het 45‑jarige bestaan van de diplomatieke betrekkingen tussen de EU en de Asean, en dat op de top hun wederzijdse inzet voor hun strategische partnerschap werd bevestigd;
C. overwegende dat de betrekkingen tussen de EU en Thailand zijn gebaseerd op politieke, economische en culturele banden die reeds lang bestaan;
D. overwegende dat de huidige samenwerking tussen de EU en Thailand is gebaseerd op de samenwerkingsovereenkomst tussen de EU en de Asean van 1980;
E. overwegende dat de Raad de Commissie in 2004 heeft gemachtigd te onderhandelen over een individuele partnerschaps- en samenwerkingsovereenkomst (PSO) met Thailand;
F. overwegende dat de EU en Thailand de onderhandelingen over een PSO in maart 2013 hebben afgerond, maar dat de militaire staatsgreep in Thailand in 2014 het proces tot stilstand heeft gebracht en ook de verkiezing van een burgerregering tot 2019 heeft uitgesteld;
G. overwegende dat de Raad na de Thaise verkiezingen van maart 2019 in zijn conclusies van oktober 2019 heeft verklaard dat het passend zou zijn als dat de EU stappen zou ondernemen om haar betrekkingen met Thailand uit te breiden door zich voor te bereiden op de tijdige ondertekening van de PSO;
H. overwegende dat de hernieuwde onderhandelingen over de PSO op 11 juni 2022 zijn afgerond;
I. overwegende dat Thailand zeer kwetsbaar is voor klimaatverandering en een relatief grote producent van wereldwijde emissies is; overwegende dat Thailand tijdens de VN‑Conferentie van de Partijen (COP26) toegezegd heeft tegen 2050 klimaatneutraal te zullen zijn;
J. overwegende dat de EU en Thailand er naar streven een modern, breed en wederzijds voordelig partnerschap tot stand te brengen, dat gebaseerd is op gedeelde belangen en beginselen; overwegende dat zij in de PSO opnieuw bevestigen dat zij de democratische beginselen, de mensenrechten en de fundamentele vrijheden, zoals vastgelegd in de Universele Verklaring van de Rechten van de Mens van de VN van 1948, zullen eerbiedigen;
K. overwegende dat Thailand tot de eerste landen behoorde die de Universele Verklaring van de Rechten van de Mens hebben ondertekend, maar dat zijn algemene mensenrechtensituatie problematisch blijft;
L. overwegende dat Thailand op de 79e plaats staat in de Gender Inequality Index 2021 en dat Thaise vrouwen nog steeds sterk ondervertegenwoordigd zijn op de arbeidsmarkt en in de politiek, hoewel in het land de genderkloof in het hoger onderwijs is omgebogen, waarbij Thailand als eerste in de wereld wordt gerangschikt wat de verhouding tussen vrouwelijke en mannelijke studenten betreft;
M. overwegende dat de VN‑werkgroep inzake gedwongen of onvrijwillige verdwijningen 76 onopgeloste gevallen van gedwongen verdwijningen in Thailand heeft geregistreerd;
N. overwegende dat de doodstraf nog steeds wordt toegepast in Thailand, hoewel het vierde nationale mensenrechtenplan van het land (2019-2023) een toezegging bevat om de doodstraf geleidelijk af te schaffen; overwegende dat Thailand geen partij is bij het Tweede Facultatieve Protocol bij het Internationaal Verdrag inzake burgerrechten en politieke rechten, gericht op de afschaffing van de doodstraf;
O. overwegende dat Thailand geen partij is bij het VN-Vluchtelingenverdrag van 1951 en het bijbehorende Protocol van 1967, en niet beschikt over een nationaal juridisch kader voor de specifieke erkenning en bescherming van vluchtelingen, met name uit Myanmar, die in de regel ofwel in kampen worden opgesloten ofwel geconfronteerd worden met willekeurige arrestatie, detentie of gedwongen terugkeer naar hun land van herkomst, waarmee inbreuk wordt gepleegd op het recht op asiel en het beginsel van non-refoulement;
P. overwegende dat de regering van Thailand onlangs een aantal grondrechten heeft beperkt, in het bijzonder de vrijheid van meningsuiting en het recht van vergadering, waaronder door de willekeurige arrestatie van prodemocratie-activisten en leiders van de oppositie, en in 2022 een wetsontwerp heeft ingediend houdende streng toezicht op alle maatschappelijke organisaties;
Q. overwegende dat Thailand een aantal belangrijke IAO-verdragen nog niet heeft geratificeerd, in het bijzonder het Verdrag betreffende de vrijheid tot het oprichten van vakverenigingen en de bescherming van het vakverenigingsrecht en het Verdrag betreffende het recht zich te organiseren en collectief te onderhandelen; overwegende dat vakbondsleiders en werknemers in de praktijk vaak strafrechtelijk worden vervolgd of ontslagen voor hun vakbondsactiviteit; overwegende dat de meer dan twee miljoen arbeidsmigranten in het land worden gediscrimineerd en niet dezelfde arbeidsrechten genieten als de lokale werknemers, met inbegrip van het recht zich te organiseren;
R. overwegende dat in de Zuid-Chinese Zee meer dan de helft van alle vissersschepen ter wereld actief is en dat alleen de vangsten daar al goed zijn voor 12 % van de mondiale visvangsten; overwegende dat de EU met Thailand een dialoog onderhoudt en een werkgroep in het leven heeft geroepen over illegale, ongemelde en ongereglementeerde visserij (IOO) in het land; overwegende dat, ondanks door de overheid doorgevoerde hervormingen in de visserijsector, veel arbeidsmigranten in Thailand nog steeds te maken hebben met dwangarbeid;
S. overwegende dat Thailand de grootste producent van tonijnconserven ter wereld is, en de belangrijkste concurrent van de industrie van de EU in deze sector; overwegende dat een vrijhandelsovereenkomst met Thailand een ernstige bedreiging zou kunnen vormen voor de vis- en zeevruchtenconservenindustrie in de EU, die van groot belang is voor verschillende kustgebieden omdat zij een belangrijke rol speelt bij het scheppen van werkgelegenheid en welvaart en omdat er veel vrouwen in deze sector werken;
T. overwegende dat de EU en de Asean‑regio elkaars op twee na grootste handelspartners zijn en dat de EU de op drie na grootste handelspartner van Thailand en de op een na grootste investeerder in Thailand is;
U. overwegende dat de EU en Thailand in 2013 onderhandelingen zijn gestart over een bilaterale vrijhandelsovereenkomst, maar dat de EU de onderhandelingen in 2014 heeft opgeschort; overwegende dat de EU en Thailand op 15 maart 2023 terug zijn gekeerd naar de onderhandelingstafel;
Betrekkingen van de EU met de Indo‑Pacifische regio
1. benadrukt dat Thailand een belangrijke partner is in de Indo-Pacifische regio, die een van de geopolitieke prioriteiten van de EU is geworden;
2. onderstreept dat de EU zich inzet voor een vrije, open en op regels gebaseerde Indo-Pacifische regio; herhaalt dat de nieuwe Indo-Pacifische strategie van de EU snel moet worden uitgevoerd teneinde onze partners in de regio een kans te bieden om de gemeenschappelijke uitdagingen samen aan te pakken, de op regels gebaseerde internationale orde te verdedigen, en op te komen voor de gedeelde waarden en beginselen van de EU en de Asean; pleit voor nauwere samenwerking met landen in de regio, met name met de Asean-landen;
3. wijst nogmaals op de politieke waarde van sterke bilaterale betrekkingen tussen de Asean en de EU in het algemeen, en tussen Thailand en de EU in het bijzonder, gebaseerd op gedeelde waarden en beginselen; is ingenomen met de EU-Asean-top van december 2022 en met de toezegging om dit strategische partnerschap verder te verdiepen;
4. herhaalt zijn oproep tot een snelle tenuitvoerlegging van de Global Gateway-strategie van de EU, in coördinatie met de Indo-Pacifische strategie; benadrukt het geopolitieke belang van deze benadering, waarbij een “Team Europa”-aanpak wordt gevolgd waarin duurzame ontwikkeling, transformatie, versterking van de veerkracht en waarden centraal staan; is ingenomen met de aankondiging van een financieel pakket van 10 miljard EUR om investeringen in infrastructuur in Asean-landen te versnellen, met name met betrekking tot de groene transitie en duurzame connectiviteit, teneinde een nieuw, economisch duurzaam partnerschap tot stand te brengen;
5. merkt op dat de Asean‑regio een van de meest kwetsbare regio’s is voor de gevolgen van klimaatverandering; wijst op het initiatief Green Team Europe ter ondersteuning van de groene transitie in de Asean-landen; benadrukt voorts het belang van de rol van Thailand als Asean‑coördinator van de samenwerking voor duurzame ontwikkeling;
6. merkt op dat de steun van partners in de Indo-Pacifische regio zeer waardevol is geweest en blijft met betrekking tot de stemming in de Algemene Vergadering van de VN in verband met de ongerechtvaardigde, niet-uitgelokte en illegale oorlog van Rusland tegen Oekraïne; is ingenomen met het feit dat Thailand vóór de resoluties van de Algemene Vergadering van de VN houdende veroordeling van de Russische agressie tegen Oekraïne heeft gestemd en waardeert de humanitaire hulp die Thailand aan Oekraïne heeft verstrekt; spoort Thailand aan de eerbiediging van het internationaal recht te bevorderen, Oekraïne te steunen en een duidelijk standpunt in te nemen tegen de Russische aanvalsoorlog, ook in het kader van de Asean;
De PSO tussen de EU en Thailand
7. wijst nogmaals op het belang dat de EU hecht aan de betrekkingen met Thailand; is ingenomen met de sluiting van de PSO, die een rechtskader zal bieden voor het versterken van de reeds lang bestaande bilaterale politieke en economische betrekkingen en samenwerking op het gebied van kwesties van mondiaal belang, en die een belangrijke stap vormt in de richting van een sterkere rol van de EU in de Indo‑Pacifische regio;
8. merkt op dat de PSO een brede en moderne overeenkomst is die het mogelijk zal maken om over te stappen op nieuwe modellen van duurzame groei en ontwikkeling en om beter te reageren op de huidige uitdagingen op een groot aantal beleidsterreinen, waaronder milieu, energie, klimaatverandering, vervoer, wetenschap en technologie, handel, werkgelegenheid en sociale zaken, mensenrechten, onderwijs, landbouw, migratie, cultuur, nucleaire non-proliferatie, terrorismebestrijding, en de bestrijding van corruptie en georganiseerde misdaad;
9. spreekt de hoop uit dat de sluiting van de PSO een sterke impuls zal geven aan nauwere samenwerking tussen de EU en Thailand ten behoeve van alle burgers, inwoners, bedrijven en andere belanghebbenden in de EU en in Thailand; dringt erop aan dat alle EU-burgers visumvrij naar Thailand kunnen reizen; steunt een regeling waarbij Thaise burgers zonder visum naar de EU kunnen reizen;
10. juicht het toe dat Thailand een nationaal actieplan inzake bedrijfsleven en mensenrechten heeft goedgekeurd, waarmee het het eerste land in de Indo-Pacifische regio is dat over een dergelijk plan beschikt, en dringt aan op een doeltreffende uitvoering ervan;
11. verzoekt de partijen zich in te zetten voor steun voor de toepassing en handhaving van binnenlandse wetgeving inzake zorgvuldigheid en verantwoordingsplicht van bedrijven, overeenstemming te bereiken over meer specifieke verplichtingen in het licht van duurzame effectbeoordelingen, relevante informatie uit te wisselen over het aantal onderzoeken, controles en handhavingsmaatregelen dat is genomen, en opleidingen of technische bijstand te bieden aan ondernemingen op het gebied van zorgvuldigheid en verantwoordingsplicht van bedrijven;
12. benadrukt dat de partijen overeenkomen samen te werken op gebieden van wederzijds belang op alle terreinen van wetenschap, technologie en innovatie; is ingenomen met het feit dat de EU en Thailand op 9 september 2022 een administratieve regeling voor samenwerking op het gebied van grensverleggend onderzoek hebben ondertekend;
13. benadrukt de gemeenschappelijke doelstelling van de partijen om het mondiale antwoord op de klimaatverandering en haar gevolgen te versterken en om de samenwerking op het gebied van beleid ter beperking van de klimaatverandering uit te breiden in overeenstemming met de Overeenkomst van Parijs; wijst erop dat de partijen hebben toegezegd daadwerkelijk uitvoering te geven aan het VN-Raamverdrag inzake klimaatverandering en de Overeenkomst van Parijs;
14. wijst erop dat Thailand negende staat op de lijst van landen die het zwaarst door klimaatverandering wordt getroffen; is ingenomen met het feit dat Thailand tijdens COP26 heeft toegezegd zijn nationaal bepaalde bijdrage te verhogen, teneinde zijn broeikasgasemissies tegen 2030 met 30 % te verminderen; is in dit verband ingenomen met de goedkeuring door Thailand - in 2022 - van een herziene langetermijnstrategie voor een op lage uitstoot van broeikasgassen gebaseerde ontwikkeling;
15. benadrukt de inspanningen van de partijen om de samenwerking in de energiesector te verbeteren, onder meer op het gebied van toegang tot betaalbare en duurzame energiediensten, de ontwikkeling van duurzame en hernieuwbare vormen van energie, en de bevordering van koolstofarme energieopwekking die bijdraagt tot een overgang naar schone energie; moedigt beide partijen aan meer inspanningen te leveren om de gevolgen van klimaatverandering aan te pakken door doeltreffender klimaatbeleid vast te stellen en uit te voeren met het oog op de energietransitie en decarbonisering;
16. benadrukt dat Thailand in veel regio’s geconfronteerd wordt met toenemende aantasting van het milieu, met inbegrip van het verlies van biodiversiteit en afnemende populaties van in het wild levende planten en dieren, ontbossing, verwoestijning, waterschaarste en lucht- en waterverontreiniging; spoort de partijen aan samen te werken om deze uitdagingen aan te pakken;
17. is ingenomen met de opname in de PSO van bepalingen met betrekking tot samenwerking inzake duurzame voedselsystemen; benadrukt dat de landbouwsector zowel voor Thailand als voor de EU zeer gevoelig ligt;
18. is van oordeel dat de EU vast moet houden aan haar inzet voor duurzame visserij in de Indo-Pacifische regio en nauwer met Thailand moet samenwerken bij het aanpakken van overbevissing, overcapaciteit en IOO-visserij in de regio in kwestie;
19. herhaalt zijn verzoek aan de Commissie om er rekening mee te houden dat een bilaterale vrijhandelsovereenkomst tussen de EU en Thailand moet worden voorafgegaan door strenge duurzaamheidseffectbeoordelingen en een gedetailleerde analyse van de mogelijke economische, sociale en milieugevolgen;
20. herhaalt zijn verzoek aan de Commissie om vis- en zeevruchtenconserven als “gevoelige producten” op te nemen in het kader van eventuele handelsbesprekingen met Thailand;
21. is ingenomen met het feit dat de PSO uitwisselingen tussen mensen, zoals academische mobiliteit in het kader van het Erasmus+‑programma, en de uitwisseling van beste praktijken op het gebied van jeugdbeleid en jeugdwerk, ondersteunt;
22. juicht het toe dat de PSO steun geeft aan samenwerking op het gebied van bevordering van gendergelijkheid en de empowerment van vrouwen; is ingenomen met de wetgeving van Thailand met betrekking tot de bevordering van vrouwenrechten, met inbegrip van de goedkeuring in 2015 van de gendergelijkheidswet; roept de Thaise autoriteiten op meer werk te maken van de uitvoering, alsook van de bestrijding van gendergerelateerd geweld en de emancipatie van vrouwen en meisjes, met name migrantenvrouwen, vrouwen in plattelandsgebieden en vrouwen die tot minderheden behoren, overeenkomstig artikel 21 van de PSO;
23. benadrukt dat artikel 1, lid 1, van de PSO bepaalt dat de mensenrechten en de eerbiediging van de democratische beginselen, de rechtstaat en goed bestuur essentiële elementen van de PSO vormen;
24. maakt zich zorgen over het gewelddadige optreden tegen vreedzame demonstranten in Thailand in 2020 en 2021; roept de Thaise autoriteiten op een onderzoek in te stellen naar de schendingen van de mensenrechten van de demonstranten; dringt er bij de Thaise autoriteiten op aan de gevangenen vrij te laten die willekeurig zijn vastgehouden wegens het uitoefenen van hun recht op vreedzame vergadering;
25. verzoekt de regering van Thailand de rol van maatschappelijke organisaties, mensenrechtenverdedigers, democratieverdedigers, activisten van het maatschappelijk middenveld, journalisten en anderen te eerbiedigen, de vrijheid van meningsuiting en van vergadering te waarborgen, de wet op de majesteitsschennis te herzien en onverwijld alle personen die op grond van deze wet gearresteerd zijn vrij te laten, en haar wetsontwerp inzake de werking van organisaties zonder winstoogmerk van 2021, haar wet op computercriminaliteit en haar strafrechtelijke wet inzake smaad te herzien, overeenkomstig het Internationaal Verdrag inzake burgerrechten en politieke rechten, dat Thailand ondertekend en geratificeerd heeft;
26. wijst op de verhoogde bescherming die de gendergelijkheidswet van 2015 de lhbti‑gemeenschap biedt; roept Thailand op te werken aan de bevordering en volledige bescherming van de rechten van de lhbti-gemeenschap;
27. is uitermate bezorgd over de ongekende aanpak van kinderen in het kader van de wet op de majesteitsschennis en verzoekt Thailand zijn internationale verplichtingen uit hoofde van het Verdrag inzake de rechten van het kind, dat het land heeft geratificeerd, na te leven;
28. is ingenomen met het feit dat Thailand in 2022 de wet inzake de preventie en bestrijding van foltering en gedwongen verdwijning heeft vastgesteld, die een cruciale mijlpaal vormt in de strijd tegen foltering, mishandeling en gedwongen verdwijningen in Thailand; betreurt dat de Thaise regering op 14 februari 2023 een decreet heeft aangenomen waarbij de uitvoering van delen van de wet wordt uitgesteld van februari tot oktober 2023; pleit voor de snelle inwerkingtreding en de volledige en doeltreffende toepassing van deze wet; dringt er bij Thailand op aan het Internationaal Verdrag inzake de bescherming van alle personen tegen gedwongen verdwijning snel te ratificeren;
29. herhaalt zijn oproep aan Thailand om concrete stappen te zetten in de richting van de afschaffing van de doodstraf, met inbegrip van de ondertekening en ratificatie van het Tweede Facultatieve Protocol bij het Internationaal Verdrag inzake burgerrechten en politieke rechten, gericht op de afschaffing van de doodstraf; benadrukt het belang van de gezamenlijke verklaring over artikel 23 van de PSO om ervoor te zorgen dat er in de toekomst geen doodvonnissen meer worden uitgesproken en voltrokken;
30. roept Thailand op het Vluchtelingenverdrag van 1951 en het bijbehorende Protocol van 1967 te ondertekenen en te ratificeren; dringt er bij de Thaise autoriteiten op aan onmiddellijk een einde te maken aan de deportaties van etnische Rohingya en Oeigoeren en andere asielzoekers, en andere asielzoekers, die een flagrante schending vormen van de fundamentele internationale verplichtingen waaraan Thailand gebonden is, met name het beginsel van non-refoulement; is ingenomen met de humanitaire hulpprogramma’s van de EU die bescherming en gezondheidszorg bieden aan Rohingya-vluchtelingen die in vluchtelingencentra in het land leven;
31. erkent de door de regering van Thailand geleverde inspanningen om schendingen van de mensenrechten in verband met mensenhandel en dwangarbeid aan te pakken; blijft echter bezorgd over de arbeidsomstandigheden van arbeidsmigranten;
32. juicht het toe dat de partijen overeen zijn gekomen om samen te werken en technische bijstand te verlenen met het oog op de ratificatie en uitvoering van de fundamentele IAO-verdragen; roept Thailand op de IAO-verdragen 87, 98 en 155 te ratificeren, de rechten van werknemers om zich te organiseren en te staken daadwerkelijk te waarborgen, en aan alle werknemers dezelfde rechten toe te kennen, ongeacht het land van herkomst, alsook samen te werken met de EU bij het bevorderen van de ratificatie en toepassing van andere, recentere IAO-verdragen;
33. moedigt Thailand aan het Statuut van Rome inzake het Internationaal Strafhof te ratificeren overeenkomstig artikel 5 van de PSO en de gezamenlijke verklaring betreffende dat artikel;
34. wijst er nogmaals op dat indien een partij van mening is dat de andere partij een verplichting krachtens de PSO niet is nagekomen, met name met betrekking tot de essentiële elementen ervan, zij passende maatregelen kan treffen, met inbegrip van opschorting van de PSO;
35. stelt vast dat de Commissie in de hervatte onderhandelingen over een vrijhandelsakkoord inzet op aanzwengeling van handel en investeringen, met name voor wat betreft de markt voor goederen, diensten, investeringen en openbare aanbestedingen, snelle en doeltreffende sanitaire en fytosanitaire procedures, de bescherming van intellectuele-eigendomsrechten, en de slechting van de obstakels voor elektronische handel en de handel in energie en grondstoffen, in combinatie met een hoog niveau van bescherming van werknemers, het milieu en de verwezenlijking van ambitieuze klimaatdoelen;
36. herinnert eraan dat artikel 1, lid 2, van de PSO bevestigt dat de partijen zich ertoe verbinden duurzame ontwikkeling in al haar dimensies te bevorderen, samen te werken om de uitdagingen van de klimaatverandering en mondialisering aan te pakken en bij te dragen aan de Agenda 2030 voor duurzame ontwikkeling; onderstreept de nieuwe benadering van de EU op dit gebied, zoals bedoeld in de mededeling van de Commissie van 22 juni 2022 getiteld “De kracht van handelspartnerschappen: samen voor groene en rechtvaardige groei”;
37. benadrukt dat bij alle onderhandelingen met Thailand aandacht moet worden besteed aan mensenrechtenkwesties;
38. benadrukt dat de vrijhandelsovereenkomsten van de EU voorzien in de zogenaamde “niet-uitvoeringsclausule” die leidt tot opschorting van handelspreferenties indien de essentiële elementen van PSO’s worden geschonden;
o o o
39. verzoekt zijn Voorzitter deze resolutie te doen toekomen aan de Raad, de Commissie, de vicevoorzitter van de Commissie/hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid, de regeringen en parlementen van de lidstaten, en de regering en het parlement van Thailand.
Partnerschaps- en samenwerkingsovereenkomst EU-Maleisië
114k
43k
Wetgevingsresolutie van het Europees Parlement van 14 juni 2023 over het ontwerp van besluit van de Raad betreffende de sluiting namens de Europese Unie van de Kaderovereenkomst inzake partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en de regering van Maleisië, anderzijds (11714/2022 – C9-0430/2022 – 2022/0221(NLE))
– gezien het ontwerp van besluit van de Raad (11714/2022),
– gezien het ontwerp van kaderovereenkomst inzake partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en de regering van Maleisië, anderzijds (11732/2022),
– gezien het verzoek om goedkeuring dat de Raad heeft ingediend krachtens artikel 209 en artikel 218, lid 6, tweede alinea, punt a), iii), van het Verdrag betreffende de werking van de Europese Unie (C9‑0430/2022),
– gezien zijn niet-wetgevingsresolutie van 14 juni 2023(1) over het ontwerp van besluit,
– gezien artikel 105, leden 1 en 4, en artikel 114, lid 7, van zijn Reglement,
– gezien de aanbeveling van de Commissie buitenlandse zaken (A9-0190/2023),
1. hecht zijn goedkeuring aan de sluiting van de overeenkomst;
2. verzoekt zijn Voorzitter het standpunt van het Parlement te doen toekomen aan de Raad en de Commissie, alsmede aan de regeringen en parlementen van de lidstaten en Maleisië.
Partnerschaps- en samenwerkingsovereenkomst EU-Maleisië (Resolutie)
159k
51k
Niet-wetgevingsresolutie van het Europees Parlement van 14 juni 2023 over het ontwerp van besluit van de Raad betreffende de sluiting, namens de Unie, van de kaderovereenkomst inzake partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en de regering van Maleisië, anderzijds (11714/2022 – C9-0430/2022 – 2022/0221M(NLE))
– gezien het ontwerp van besluit van de Raad betreffende de sluiting, namens de Unie, van de Kaderovereenkomst inzake partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en de regering van Maleisië, anderzijds (11714/2022),
– gezien het verzoek om goedkeuring dat de Raad heeft ingediend krachtens artikel 209 en artikel 218, lid 6, tweede alinea, punt a), iii), van het Verdrag betreffende de werking van de Europese Unie (C9‑0430/2022),
– gezien het ontwerp van kaderovereenkomst inzake partnerschap en samenwerking tussen de Europese Unie en haar lidstaten, enerzijds, en de regering van Maleisië, anderzijds (11732/2022),
– gezien de gezamenlijke mededelingen van de Commissie en de hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid van 16 september 2021 over de EU‑strategie voor samenwerking in de Indo-Pacifische regio (JOIN(2021)0024) en van 1 december 2021 over de Global Gateway (JOIN(2021)0030),
– gezien zijn resolutie van 7 juni 2022 over de EU en de veiligheidsuitdagingen in de Indo‑Pacifische regio(1) en zijn resolutie van 5 juli 2022 over de Indo‑Pacifische strategie op het gebied van handel en investeringen(2),
– gezien de gezamenlijke verklaring van de leiders die is overeengekomen op de jubileumtop van de EU en de Associatie van Zuidoost-Aziatische Staten (Asean) op 14 december 2022 in Brussel,
– gezien zijn resolutie van 3 oktober 2017 over politieke betrekkingen tussen de EU en de Asean(3),
– gezien de op 7 maart 1980 ondertekende samenwerkingsovereenkomst tussen de Europese Economische Gemeenschap en Indonesië, Maleisië, de Filipijnen, Singapore en Thailand, lidstaten van de Associatie van Zuidoost-Aziatische Staten(4), die het rechtskader vormt voor de betrekkingen tussen de EU en de Asean,
– gezien het Tweede Facultatieve Protocol bij het Internationaal Verdrag inzake burgerrechten en politieke rechten van 15 december 1989, gericht op de afschaffing van de doodstraf,
– gezien het Internationaal Verdrag inzake economische, sociale en culturele rechten van 16 december 1966, en het bijbehorende facultatief protocol,
– gezien het Verdrag tegen foltering en andere wrede, onmenselijke of onterende behandeling of bestraffing van 10 december 1984, en het bijbehorende facultatief protocol,
– gezien het Internationaal Verdrag inzake de bescherming van alle personen tegen gedwongen verdwijning van 23 december 2010,
– gezien het VN-Vluchtelingenverdrag van 1951 en het bijbehorende protocol van 1967,
– gezien de verdragen van de Internationale Arbeidsorganisatie (IAO-verdragen),
– gezien het Statuut van Rome inzake het Internationaal Strafhof van 17 juli 1998,
– gezien het Internationaal Verdrag inzake burgerrechten en politieke rechten van 16 december 1966, en het bijbehorende facultatief protocol,
– gezien zijn resolutie van 11 september 2013 met aanbevelingen aan de Raad, de Commissie en de Europese Dienst voor extern optreden over de onderhandelingen voor een partnerschaps- en samenwerkingsovereenkomst tussen de EU en Maleisië(5), zijn resolutie van 17 december 2015 over Maleisië(6), en zijn resolutie van 18 januari 2023 over mensenrechten en democratie in de wereld en het beleid van de Europese Unie op dit gebied – jaarverslag 2022(7),
– gezien artikel 105, lid 2, van zijn Reglement,
– gezien de brief van de Commissie landbouw en plattelandsontwikkeling,
– gezien het verslag van de Commissie buitenlandse zaken (A9-0194/2023),
A. overwegende dat de EU en de Indo-Pacifische regio onlosmakelijk met elkaar zijn verbonden gezien de onderlinge afhankelijkheid van hun economieën en hun gemeenschappelijke mondiale uitdagingen;
B. overwegende dat het Parlement zich er sterk toe heeft verbonden de Asean als centrale organisatie voor regionale samenwerking te steunen; overwegende dat Maleisië een stichtend lid van de Asean is en een cruciale rol heeft gespeeld bij het bevorderen van algehele vooruitgang van de Asean;
C. overwegende dat de EU en de Asean in 2022 hebben gevierd dat zij 45 jaar diplomatieke betrekkingen onderhouden; overwegende dat de leiders van de EU en de Asean in een gezamenlijke verklaring op de jubileumtop van 14 december 2022 hebben herhaald dat de EU en de Asean strategische partners zijn met een gedeeld belang bij een vreedzame, stabiele en welvarende regio;
D. overwegende dat de huidige samenwerking tussen de EU en Maleisië is gebaseerd op de samenwerkingsovereenkomst tussen de EU en de Asean van 1980; overwegende dat Maleisië van oudsher een hechte partner van de EU is;
E. overwegende dat de Raad de Commissie in 2004 heeft gemachtigd te onderhandelen over een afzonderlijke partnerschaps- en samenwerkingsovereenkomst met Maleisië;
F. overwegende dat de EU en Maleisië in februari 2011 onderhandelingen over een partnerschaps- en samenwerkingsovereenkomst hebben geopend, en deze op12 december 2015 hebben afgerond;
G. overwegende dat de ontwerpbesluiten van de Raad betreffende de ondertekening en sluiting van de partnerschaps- en samenwerkingsovereenkomst op 5 augustus 2016 aan de Raad zijn voorgelegd als een “EU only”-overeenkomst tussen de Europese Unie en Maleisië; overwegende dat het Comité van permanente vertegenwoordigers van de regeringen van de lidstaten bij de Europese Unie op 17 maart 2017 het standpunt heeft ingenomen dat de partnerschaps- en samenwerkingsovereenkomst moest worden ondertekend en gesloten als een “gemengde” overeenkomst;
H. overwegende dat Maleisië weliswaar heeft ingestemd met een gemengde overeenkomst, maar er de voorkeur aan gaf de partnerschaps- en samenwerkingsovereenkomst niet voorlopig toe te passen;
I. overwegende dat de EU en Maleisië de partnerschaps- en samenwerkingsovereenkomst op 14 december 2022 hebben ondertekend;
J. overwegende dat de partnerschaps- en samenwerkingsovereenkomst zal leiden tot intensievere samenwerking op uiteenlopende beleidsdomeinen, waaronder mensenrechten, de non-proliferatie van massavernietigingswapens, terrorismebestrijding, bestrijding van corruptie en georganiseerde misdaad, handel, migratie, het milieu, energie, de klimaatverandering, vervoer, wetenschap en technologie, werkgelegenheid en sociale zaken, onderwijs, landbouw en cultuur;
K. overwegende dat beide partijen bij de partnerschaps- en samenwerkingsovereenkomst tussen de EU en Maleisië opnieuw hebben benadrukt de democratische beginselen en de mensenrechten te eerbiedigen, zoals neergelegd in de Universele Verklaring van de rechten van de mens en in andere relevante internationale mensenrechteninstrumenten; overwegende dat de mensenrechtensituatie in Maleisië onverminderd problematisch is;
L. overwegende dat de EU-instellingen en -organen, met inbegrip van de Europese Dienst voor extern optreden, moeten waarborgen dat de mensenrechtenverplichtingen van de EU en haar lidstaten consistent in acht worden genomen bij het gemeenschappelijk buitenlands en veiligheidsbeleid van de EU;
M. overwegende dat de nieuwe eenheidsregering van Maleisië voor grote uitdagingen staat bij het doorvoeren van democratische hervormingen, onder meer op het gebied van de rechtsstaat, de eerbiediging van de mensenrechten en het overwinnen van een grote maatschappelijke verdeeldheid;
N. overwegende dat Maleisië de wet inzake ordeverstoring en de wet inzake communicatie en multimedia in sommige gevallen heeft gebruikt om de vrijheid van meningsuiting van parlementsleden te beperken; overwegende dat de vrijheid van meningsuiting en de vrijheid van vergadering in Maleisië momenteel onder vuur liggen, mede door het bestaan van brede en vaag geformuleerde wetten, waaronder de wet inzake ordeverstoring, de wet inzake drukpers en publicaties, en de afdelingen 504 en 505 (b) van het Maleisische Wetboek van Strafrecht waarin uitingen strafbaar gesteld zijn die leiden tot verstoring van de “openbare rust”; overwegende dat volgens verschillende berichten van mensenrechtenverdedigers de Maleisische autoriteiten steeds vaker gebruikmaken van strafrechtelijke onderzoeken om journalisten, activisten uit het maatschappelijk middenveld, academici en gewone burgers die van sociale media gebruikmaken, te intimideren;
O. overwegende dat Maleisië geen partij is bij het Vluchtelingenverdrag van de VN van 1951; overwegende dat circa 185 000 vluchtelingen en asielzoekers, waaronder meer dan 100 000 etnische Rohingya-moslims, zijn geregistreerd bij het VN-vluchtelingenagentschap (hoge commissaris van de VN voor de vluchtelingen), maar geen wettelijke status hebben gekregen; overwegende dat Maleisië vluchtelingen naar Myanmar heeft teruggestuurd, in kennelijke strijd met het recht op asiel en het beginsel van non-refoulement;
P. overwegende dat migrerende werknemers ongeveer 20 à 30 % van de beroepsbevolking van het land uitmaken en vaak het slachtoffer zijn van dwangarbeid en mensenrechtenschendingen; overwegende dat vluchtelingen, asielzoekers en staatlozen ook een groot risico lopen op dwangarbeid, aangezien hun de toegang tot legaal werk wordt ontzegd vanwege hun niet-erkende status; overwegende dat recentelijk bewijs is geleverd van het bestaan van dwangarbeid en kinderarbeid in Maleisië;
Q. overwegende dat Maleisië het tweede facultatieve protocol bij het Internationaal Verdrag inzake burgerrechten en politieke rechten, dat gericht is op de afschaffing van de doodstraf, niet heeft ondertekend;
R. overwegende dat het parlement van Maleisië op 3 april 2023 een wet heeft vastgesteld die een eind zou maken aan de verplichte toepassing van de doodstraf en de implementatie van de ultieme straf zou beperken tot zware misdrijven;
S. overwegende dat de EU en de Asean elkaars op twee na grootste handelspartner zijn; overwegende dat de EU de op vier na grootste handelspartner van Maleisië is en dat Maleisië de op twee na grootste handelspartner van de EU binnen de Asean is;
T. overwegende dat de onderhandelingen over een vrijhandelsovereenkomst tussen de EU en Maleisië in 2010 van start zijn gegaan, maar na zeven rondes in 2012 op verzoek van Maleisië zijn opgeschort;
EU-strategie voor de Indo-Pacifische regio en strategisch partnerschap met de Asean
1. merkt op dat de Indo-Pacifische regio van toenemend strategisch belang voor Europa is; spreekt nogmaals zijn steun uit voor de EU-strategie voor samenwerking in de Indo-Pacifische regio;
2. onderstreept dat de EU zich inzet voor een vrije, open en op regels gebaseerde Indo-Pacifische regio; herhaalt dat de nieuwe Indo-Pacifische strategie van de EU snel moet worden uitgevoerd om de partners van de Unie in de regio een kans biedt om de gemeenschappelijke uitdagingen samen aan te pakken, de op regels gebaseerde internationale orde te verdedigen en op te komen voor gedeelde waarden en beginselen van de EU en Asean; pleit voor nauwere samenwerking met de landen in de regio, met name met de ASEAN-landen;
3. benadrukt dat de Asean een strategische partner in de Indo-Pacifische regio voor de EU is; is ingenomen met de jubileumtop EU-Asean, van 14 december 2022; spreekt de hoop uit dat de tenuitvoerlegging van de gezamenlijke verklaring van de leiders van de EU en de Asean zal leiden tot nauwere samenwerking met de Zuidoost-Aziatische landen, en met name met Maleisië; wijst nogmaals op de politieke waarde van sterke bilaterale betrekkingen tussen de Asean en de EU in het algemeen, en tussen Maleisië en de EU in het bijzonder;
4. herhaalt zijn oproep tot een snelle tenuitvoerlegging van de Global Gateway-strategie van de EU, in coördinatie met de Indo-Pacifische strategie; benadrukt het geopolitieke belang van deze benadering, waarbij een “Team Europa”-aanpak wordt gevolgd waarin duurzame ontwikkeling, transformatie, versterking van de veerkracht en waarden centraal staan; is ingenomen met de aankondiging van een financieel pakket van 10 miljard EUR om investeringen in infrastructuur in Asean‑landen te versnellen, met name met betrekking tot de groene transitie en duurzame connectiviteit;
5. is ingenomen met het feit dat de leiders van de EU en de Asean hebben bevestigd de beginselen van soevereiniteit en territoriale integriteit, zoals vastgelegd in het Handvest van de Verenigde Naties, wederzijds te eerbiedigen; herhaalt dat de Russische aanvalsoorlog tegen Oekraïne een flagrante schending van het internationaal recht is; is ingenomen met het feit dat Maleisië heeft gestemd vóór de VN-resoluties ter ondersteuning van Oekraïne, inclusief de resolutie waarin wordt geëist dat Rusland onmiddellijk, volledig en onvoorwaardelijk al zijn strijdkrachten terugtrekt uit het grondgebied van Oekraïne en binnen zijn internationaal erkende grenzen; spoort Maleisië aan de eerbiediging van het internationaal recht te bevorderen, Oekraïne te steunen en een duidelijk standpunt in te nemen tegen de Russische aanvalsoorlog tegen Oekraïne, ook in het kader van de Asean;
6. merkt op dat Zuidoost-Azië een van de gebieden is die de meeste risico’s lopen in verband met de gevolgen van de opwarming van de aarde; ziet uit naar het bijeenroepen van de eerste ministeriële dialoog Asean-EU over milieu en klimaatverandering in 2023; merkt op dat de discussie over palmolie een uitdaging is geweest binnen de betrekkingen tussen de EU en Maleisië;
Partnerschaps- en samenwerkingsovereenkomst EU-Maleisië
7. is ingenomen met de sluiting van de partnerschaps- en samenwerkingsovereenkomst met Maleisië; is van mening dat deze partnerschaps- en samenwerkingsovereenkomst een solide rechtskader biedt voor de verdere uitbreiding van de reeds lang bestaande bilaterale politieke en economische betrekkingen en voor het bespreken van kwesties van regionaal en mondiaal belang, zoals de bevordering van democratie, mensenrechten en internationale rechtspleging, de versterking van het internationale kader voor - onder meer - de non-proliferatie van massavernietigingswapen, terrorismebestrijding en corruptiebestrijding;
8. onderstreept dat een moderne en toekomstgerichte partnerschaps- en samenwerkingsovereenkomst een ambitieus kader moet bieden voor de samenwerking ter bestrijding van de klimaatverandering, alsook voor de bevordering van gendergelijkheid en vrouwenrechten; verzoekt de EU deze aspecten centraal te stellen in de betrekkingen tussen de EU en Maleisië bij de uitvoering van de partnerschaps- en samenwerkingsovereenkomst;
9. verzoekt de Maleisische autoriteiten de discriminerende nationaliteits- en burgerschapswetten, die de grondrechten van vrouwen ondermijnen, te wijzigen en doeltreffende maatregelen te nemen om de discriminatie van vrouwen op het werk aan te pakken, met inbegrip van discriminatie bij de toegang tot en de behandeling in verband met werk, het ontbreken van zwangerschapsverlof en ongelijke beloning van mannen en vrouwen;
10. verzoekt de partijen zich in te zetten voor steun voor de toepassing en handhaving van binnenlandse wetgeving inzake zorgvuldigheid en verantwoordingsplicht van bedrijven, overeenstemming te bereiken over meer specifieke verplichtingen in het licht van duurzame effectbeoordelingen, relevante informatie uit te wisselen over het aantal onderzoeken, controles en handhavingsmaatregelen dat is genomen, en opleidingen of technische bijstand te bieden aan ondernemingen op het gebied van zorgvuldigheid en verantwoordingsplicht van bedrijven;
11. benadrukt dat de partijen overeenkomen samen te werken op het gebied van wetenschap, technologie en innovatie, alsook op het gebied van groene technologie, energie en vervoer;
12. herinnert eraan dat in de partnerschaps- en samenwerkingsovereenkomst wordt bevestigd dat de partijen zich ertoe verbinden duurzame ontwikkeling te bevorderen, samen te werken om de uitdagingen van de klimaatverandering en de mondialisering aan te pakken, en bij te dragen tot de internationaal overeengekomen ontwikkelingsdoelstellingen, in het bijzonder tot de versterking van het mondiaal partnerschap voor ontwikkeling, zoals vernieuwd in de Agenda 2030 voor duurzame ontwikkeling; moedigt beide partijen aan meer inspanningen te leveren om de gevolgen van de klimaatverandering aan te pakken door een doeltreffender klimaatbeleid voor energietransitie en decarbonisatie vast te stellen en uit te voeren;
13. wijst op de toezegging van de partijen om nauwer samen te werken om vraagstukken in verband met de beperking van en de aanpassing aan klimaatverandering in het kader van het VN-Raamverdrag inzake klimaatverandering aan te pakken; benadrukt dat bij alle activiteiten van de partijen in het kader van de PSO rekening moet worden gehouden met de uitvoering van de toepasselijke multilaterale milieuovereenkomsten, met inbegrip van de Overeenkomst van Parijs;
14. benadrukt dat Maleisië in veel regio’s te kampen heeft met een toenemende aantasting van het milieu, waaronder ontbossing, verlies van biodiversiteit, en lucht- en waterverontreiniging; dringt er bij beide partners op aan hun samenwerking met name te richten op de bestrijding van deze problemen;
15. is ingenomen met het feit dat de partnerschaps- en samenwerkingsovereenkomst de bevordering van onderwijs en culturele samenwerking, met inbegrip van contacten tussen mensen, ondersteunt;
16. benadrukt dat artikel 1, lid 1, van de PSO bepaalt dat de mensenrechten en de eerbiediging van de versterking van de democratische beginselen, de rechtstaat en goed bestuur essentiële elementen van de PSO vormen; dringt aan op versterking van de bilaterale samenwerking bij de bevordering en bescherming van de mensenrechten, met name wat betreft de uitwisseling van optimale praktijken, mensenrechteneducatie, de totstandbrenging van een zinvolle, brede mensenrechtendialoog en samenwerking binnen de relevante mensenrechtenorganen van de VN; prijst Maleisië tegen deze achtergrond voor het uitschrijven van een permanente uitnodiging voor de speciale procedures van de VN-Mensenrechtenraad op 26 februari 2019; spoort Maleisië aan de speciale VN-rapporteur voor mensenrechtenverdedigers uit te nodigen voor een bezoek aan het land;
17. dringt er nogmaals bij de Maleisische autoriteiten op aan de buitensporig brede wet tegen staatsondermijning in te trekken en alle wetgeving, met inbegrip van de antiterreurwet, de wet op drukpers en publicaties, de wet op communicatie en multimedia en de wet op vreedzame vergadering en andere relevante strafrechtelijke bepalingen, in overeenstemming te brengen met internationale normen over de vrijheid van meningsuiting en vergadering en de bescherming van de mensenrechten; verzoekt de Maleisische autoriteiten nogmaals vreedzame vergaderingen te faciliteren en de veiligheid van alle deelnemers en hun vrijheid van meningsuiting te waarborgen;
18. herhaalt zijn bezorgdheid over de vaststelling in 2016 van de wet inzake de Nationale Veiligheidsraad, waarbij buitengewone bevoegdheden worden verleend aan de Nationale Veiligheidsraad en de veiligheidstroepen; herhaalt zijn oproep aan Maleisië om deze wet, die in strijd is met internationale normen inzake mensenrechten, in te trekken; benadrukt dat de noodzaak om de nationale veiligheid te waarborgen niet mag voorbijgaan aan de verplichting om de burgerrechten en politieke rechten te beschermen;
19. herhaalt zijn oproep aan de Maleisische autoriteiten om belangrijke internationale mensenrechtenverdragen, waaronder het Internationaal Verdrag inzake burgerrechten en politieke rechten, het Internationaal Verdrag inzake economische, sociale en culturele rechten, het Internationaal Verdrag inzake de uitbanning van alle vormen van rassendiscriminatie en het Statuut van Rome inzake het Internationaal Strafhof, te ratificeren en ten uitvoer te leggen;
20. roept de regering van Maleisië op alle fundamentele IAO-verdragen, waaronder die betreffende vrijheid van vereniging en bescherming van het vakverenigingsrecht (nr. 87), discriminatie (nr. 111) en arbeidsveiligheid en gezondheid en het arbeidsmilieu (nr. 155), onverwijld te ratificeren en ten uitvoer te leggen; is ingenomen met de recente ratificatie door Maleisië van het protocol van 2014 bij het Verdrag betreffende de gedwongen arbeid van 1930; dringt er bij de Maleisische regering met klem op aan resoluut op te treden tegen dwangarbeid, met inbegrip van misbruik van huishoudelijk personeel, en werkgevers te verbieden paspoorten in te houden zonder toestemming van de werknemers; moedigt de Maleisische autoriteiten aan meer inspanningen te leveren om slachtoffers van mensenhandel te identificeren onder werknemers van de Volksrepubliek China (VRC) bij door de regering van de VRC uitgevoerde infrastructuurprojecten;
21. is bezorgd over de situatie van religieuze en etnische minderheden en inheemse gemeenschappen in het land; moedigt de Maleisische autoriteiten aan te voorzien in een alomvattend kader voor de bescherming en ondersteuning van alle minderheden en inheemse groepen in het land, met inachtneming van hun grondrechten, met inbegrip van godsdienstvrijheid en culturele rechten;
22. veroordeelt de wijdverbreide discriminatie van leden van de lhbtiq+-gemeenschap; verzoekt de Maleisische regering snel een wettelijk kader vast te stellen om de lhbtiq+-gemeenschap te beschermen tegen discriminatie, met volledige eerbiediging van de grondrechten en in overeenstemming met internationale normen;
23. uit zijn bezorgdheid over de situatie van vluchtelingen in Maleisië, met name wat betreft de detentie en uitzetting van vluchtelingen en asielzoekers, waaronder Rohingya-vluchtelingen, naar landen waar zij te maken hebben met ernstige mensenrechtenschendingen; veroordeelt de snelle deportatie van duizenden burgers van Myanmar zonder beoordeling van hun asielaanvragen of andere beschermingsbehoeften, hetgeen een schending is van het beginsel van non-refoulement; verzoekt de autoriteiten van Maleisië onmiddellijk te stoppen met de gedwongen deportaties en de Hoge Commissaris voor vluchtelingen van de VN onverwijld toegang te geven tot immigratiedetentiecentra; herhaalt zijn oproep aan Maleisië om het Vluchtelingenverdrag van 1951 en het bijbehorende protocol van 1967 te ondertekenen en te ratificeren;
24. onderstreept dat de samenwerking op het gebied van migratie moet plaatsvinden met volledige inachtneming van het internationaal recht; roept de EU op bij de samenwerking met Maleisië op het gebied van migratie de internationale mensenrechtennormen en met name het beginsel van non-refoulement en het beginsel van vrijwillige terugkeer, te bevorderen, te eerbiedigen en te beschermen;
25. prijst Maleisië ervoor dat het de verplichte implementatie van de doodstraf heeft afgeschaft; verzoekt de regering van Maleisië het officiële moratorium op alle terechtstellingen te handhaven totdat de doodstraf volledig is afgeschaft en alle doodvonnissen zijn omgezet;
26. verzoekt de Maleisische autoriteiten en de EU het maatschappelijk middenveld, vakbonden en mensenrechtenverdedigers op zinvolle wijze te betrekken bij de uitvoering van deze overeenkomst;
27. benadrukt dat bij alle toekomstige onderhandelingen tussen de EU en Maleisië aandacht moet worden besteed aan mensenrechtenkwesties,
28. benadrukt dat de vrijhandelsovereenkomsten van de EU voorzien in de zogenaamde “niet-uitvoeringsclausule”, die leidt tot de opschorting van handelspreferenties in geval van schendingen van essentiële elementen van partnerschaps- en samenwerkingsovereenkomsten;
o o o
29. verzoekt zijn Voorzitter deze resolutie te doen toekomen aan de Raad, de Commissie, de regeringen en parlementen van de lidstaten, en de regering en het parlement van Maleisië.
Wetgevingsresolutie van het Europees Parlement van 14 juni 2023 over het ontwerp van besluit van de Raad inzake de sluiting van het protocol tot uitvoering van de Partnerschapsovereenkomst inzake visserij tussen de Europese Unie en de Republiek Mauritius (2022-2026) (12787/2022 – C9-0001/2023 – 2022/0249(NLE))
– gezien het ontwerp van besluit van de Raad (12787/2022),
– gezien het protocol tot uitvoering van de Partnerschapsovereenkomst inzake visserij tussen de Europese Unie en de Republiek Mauritius (2022-2026) (12785/2022),
– gezien het verzoek om goedkeuring dat de Raad heeft ingediend krachtens artikel 43 en artikel 218, lid 6, tweede alinea, punt a), v), van het Verdrag betreffende de werking van de Europese Unie (C9‑0001/2023),
– gezien artikel 105, leden 1 en 4, en artikel 114, lid 7, van zijn Reglement,
– gezien het advies van de Commissie ontwikkelingssamenwerking,
– gezien het advies van de Begrotingscommissie,
– gezien de aanbeveling van de Commissie visserij (A9-0196/2023),
1. hecht zijn goedkeuring aan de sluiting van het protocol;
2. verzoekt zijn Voorzitter het standpunt van het Parlement te doen toekomen aan de Raad en de Commissie, alsmede aan de regeringen en parlementen van de lidstaten en de Republiek Mauritius.
De wet op de artificiële intelligentie
912k
280k
Amendementen van het Europees Parlement aangenomen op 14 juni 2023 op het voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1)
Amendement 1 Voorstel voor een verordening Visum 4 bis (nieuw)
Gezien het advies van de Europese Centrale Bank,
Amendement 2 Voorstel voor een verordening Visum 4 ter (nieuw)
Gezien het gezamenlijke advies van het Europees Comité voor gegevensbescherming en de Europese Toezichthouder voor gegevensbescherming,
Amendement 3 Voorstel voor een verordening Overweging 1
(1) Deze verordening heeft ten doel de werking van de interne markt te verbeteren door een uniform rechtskader vast te stellen, met name voor de ontwikkeling, het in de handel brengen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie. Deze verordening streeft een aantal dwingende redenen van algemeen belang na, zoals een hoog niveau van bescherming van de gezondheid, de veiligheid en de grondrechten, en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan.
(1) Deze verordening heeft ten doel de introductie van mensgerichte en betrouwbare artificiële intelligentie te bevorderen en te zorgen voor een hoge mate van bescherming tegen de schadelijke effecten van artificiële-intelligentiesystemen (AI-systemen) op het vlak van gezondheid, veiligheid, grondrechten, democratie en de rechtsstaat en het milieu in de Unie, en voorts innovatie te ondersteunen en de werking van de interne markt te verbeteren. In deze verordening wordt een uniform rechtskader vastgesteld, met name voor de ontwikkeling, het in de handel brengen, het in gebruik stellen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie, en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan. Bepaalde AI-systemen kunnen ook gevolgen hebben voor de democratie, de rechtsstaat en het milieu. Deze punten van zorg worden specifiek behandeld in de kritieke sectoren en gebruiksgevallen die zijn opgenomen in de bijlagen bij deze verordening.
Amendement 4 Voorstel voor een verordening Overweging 1 bis (nieuw)
(1 bis) Deze verordening moet de waarden van de Unie in stand houden door de verdeling van de voordelen van artificiële intelligentie over de samenleving mogelijk te maken, personen, bedrijven, de democratie en de rechtstaat en het milieu te beschermen tegen risico’s, innovatie en werkgelegenheid te stimuleren en de Unie tot pionier op dit terrein te maken.
Amendement 5 Voorstel voor een verordening Overweging 2
(2) Artificiële-intelligentiesystemen (AI-systemen) kunnen makkelijk worden ingezet in meerdere sectoren van de economie en de samenleving, ook grensoverschrijdend, en in de gehele Unie circuleren. Bepaalde lidstaten hebben reeds overwogen om nationale regels vast te stellen om ervoor te zorgen dat artificiële intelligentie veilig is en wordt ontwikkeld en gebruikt met inachtneming van de verplichtingen inzake de grondrechten. Onderling afwijkende nationale regels kunnen leiden tot versnippering van de interne markt en aantasting van de rechtszekerheid voor marktdeelnemers die AI-systemen ontwikkelen of gebruiken. Daarom moet in de hele Unie een consistent en hoog beschermingsniveau worden gewaarborgd, terwijl verschillen die het vrije verkeer van AI-systemen en aanverwante producten en diensten op de interne markt belemmeren, moeten worden voorkomen door uniforme verplichtingen voor marktdeelnemers vast te stellen en op de hele interne markt een eenvormige eerbiediging van dwingende redenen van algemeen belang en van de rechten van personen te waarborgen op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU). Voor zover deze verordening specifieke regels bevat inzake de bescherming van natuurlijke personen met betrekking tot de verwerking van persoonsgegevens, met beperkingen op het gebruik van AI-systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, is het passend om deze verordening, voor zover het die specifieke regels betreft, te baseren op artikel 16 van het VWEU. In het licht van deze specifieke regels en het gebruik van artikel 16 VWEU is het aangewezen het Europees Comité voor gegevensbescherming te raadplegen.
(2) AI-systemen kunnen makkelijk worden ingezet in meerdere sectoren van de economie en de samenleving, ook grensoverschrijdend, en in de gehele Unie circuleren. Bepaalde lidstaten hebben reeds overwogen om nationale regels vast te stellen om ervoor te zorgen dat artificiële intelligentie betrouwbaar en veilig is en wordt ontwikkeld en gebruikt met inachtneming van de verplichtingen inzake de grondrechten. Onderling afwijkende nationale regels kunnen leiden tot versnippering van de interne markt en aantasting van de rechtszekerheid voor marktdeelnemers die AI-systemen ontwikkelen of gebruiken. Daarom moet in de hele Unie een consistent en hoog beschermingsniveau worden gewaarborgd zodat AI betrouwbaar is, terwijl verschillen die het vrije verkeer, de innovatie, de inzet en de ingebruikneming van AI-systemen en aanverwante producten en diensten op de interne markt belemmeren, moeten worden voorkomen door uniforme verplichtingen voor marktdeelnemers vast te stellen en op de hele interne markt een eenvormige eerbiediging van dwingende redenen van algemeen belang en van de rechten van personen te waarborgen op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU).
Amendement 6 Voorstel voor een verordening Overweging 2 bis (nieuw)
(2 bis) Aangezien artificiële intelligentie vaak afhankelijk is van de verwerking van grote hoeveelheden gegevens, waarbij veel AI-systemen en -applicaties afhankelijk zijn van de verwerking van persoonsgegevens, is het aangewezen deze verordening te baseren op artikel 16 van het VWEU, waarin het recht van natuurlijke personen op de bescherming van persoonsgegevens is vastgelegd en waarin wordt voorzien in de vaststelling van regels inzake de bescherming van het individu met betrekking tot de verwerking van persoonsgegevens.
Amendement 7 Voorstel voor een verordening Overweging 2 ter (nieuw)
(2 ter) Het grondrecht van de bescherming van persoonsgegevens wordt in het bijzonder gewaarborgd door de Verordeningen (EU) 2016/679 en (EU) 2018/1725, en door Richtlijn 2016/680. Richtlijn 2002/58/EG beschermt daarnaast de persoonlijke levenssfeer en het vertrouwelijke karakter van communicatie, en bevat voorschriften voor de opslag van persoons- en niet-persoonsgebonden gegevens in eindapparatuur, respectievelijk de toegang daartoe. Deze rechtshandelingen vormen de grondslag voor duurzame en verantwoorde gegevensverwerking, waaronder in gevallen waarin datareeksen zowel persoons- als niet-persoonsgebonden gegevens bevatten. Deze verordening laat de toepassing van de bestaande Uniewetgeving betreffende de verwerking van persoonsgegevens, met inbegrip van de taken en bevoegdheden van de onafhankelijke toezichthoudende autoriteiten die met het toezicht op de naleving van die instrumenten belast zijn, onverlet. Deze verordening laat de grondrechten inzake de persoonlijke levenssfeer en de bescherming van persoonsgegevens als bedoeld in de Uniewetgeving betreffende gegevensbescherming en privacy, en zoals vastgelegd in het Handvest van de grondrechten van de Europese Unie (het “Handvest”), onverlet.
Amendement 8 Voorstel voor een verordening Overweging 2 quater (nieuw)
(2 quater) AI-systemen in de Unie zijn onderworpen aan relevante wetgeving inzake productveiligheid die een kader biedt ter bescherming van consumenten tegen gevaarlijke producten in het algemeen, en die wetgeving moet van toepassing blijven. Deze verordening doet evenmin afbreuk aan de regels inzake consumentenbescherming en productveiligheid die in andere rechtshandelingen van de Unie zijn vastgelegd, waaronder Verordening (EU) 2017/2394, Verordening (EU) 2019/1020, Richtlijn 2001/95/EG inzake algemene productveiligheid en Richtlijn 2013/11/EU.
Amendement 9 Voorstel voor een verordening Overweging 2 quinquies (nieuw)
(2 quinquies) Overeenkomstig artikel 114, lid 2, VWEU mag deze verordening de rechten en belangen van werknemers niet ondermijnen, maar vormt zij hierop een aanvulling. Deze verordening mag derhalve geen afbreuk doen aan het Unierecht inzake sociaal beleid en het nationale arbeidsrecht en de nationale arbeidspraktijken, dat wil zeggen alle wettelijke en contractuele bepalingen betreffende arbeidsvoorwaarden, arbeidsomstandigheden, met inbegrip van de gezondheid en veiligheid op het werk, en de betrekkingen tussen werkgevers en werknemers, met inbegrip van voorlichting, raadpleging en inspraak. Deze verordening mag geen afbreuk doen aan de uitoefening van de in de lidstaten en op het niveau van de Unie erkende grondrechten, met inbegrip van het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de specifieke stelsels van arbeidsverhoudingen in de lidstaten andere acties te voeren overeenkomstig het nationaal recht en/of de nationale praktijk. Zij mag evenmin afbreuk doen aan overlegpraktijken, het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, en om collectieve actie te voeren overeenkomstig het nationale recht en/of de nationale praktijk. Deze verordening mag de Commissie in geen geval beletten specifieke wetgeving voor te stellen inzake de rechten en vrijheden van werknemers die gevolgen ondervinden van AI-systemen.
Amendement 10 Voorstel voor een verordening Overweging 2 sexies (nieuw)
(2 sexies) Deze verordening mag geen afbreuk doen aan de in Richtlijn ... [2021/0414(COD)] vastgestelde bepalingen ter verbetering van de arbeidsvoorwaarden voor platformwerk.
Amendement 11 Voorstel voor een verordening Overweging 2 septies (nieuw)
(2 septies) Deze verordening moet bijdragen tot de ondersteuning van onderzoek en innovatie, mag onderzoeks- en ontwikkelingsactiviteiten niet ondermijnen en moet de vrijheid van wetenschappelijk onderzoek eerbiedigen. AI-systemen die specifiek zijn ontwikkeld met onderzoek en ontwikkeling voor de wetenschap als enig doel, moeten daarom van het toepassingsgebied worden uitgesloten en er moet voor worden gezorgd dat de verordening geen andere gevolgen heeft voor wetenschappelijke onderzoeks- en ontwikkelingsactiviteiten op het vlak van AI-systemen. Bij alle onderzoeks- en ontwikkelingsactiviteiten moeten onder alle omstandigheden het Handvest, het recht van de Unie en het nationale recht in acht worden genomen.
Amendement 12 Voorstel voor een verordening Overweging 3
(3) Artificiële intelligentie is een snel evoluerende verzameling van technologieën die kan bijdragen aan een brede waaier van economische en maatschappelijke voordelen in alle industrieën en sociale activiteiten. Artificiële intelligentie kan bedrijven, dankzij verbeterde voorspellingen, geoptimaliseerde verrichtingen en toewijzing van middelen en gepersonaliseerde digitale oplossingen voor individuen en organisaties een belangrijk concurrentievoordeel opleveren en helpen om gunstige sociale en ecologische resultaten te behalen, bijvoorbeeld in de gezondheidszorg, de landbouw, onderwijs en opleiding, infrastructuurbeheer, energie, vervoer en logistiek, openbare diensten, veiligheid, justitie, efficiënt gebruik van hulpbronnen en energie, en klimaatmitigatie en -adaptatie.
(3) Artificiële intelligentie is een snel evoluerende verzameling van technologieën die reeds bijdraagt aan een brede waaier van economische, ecologische en maatschappelijke voordelen in alle industrieën en sociale activiteiten, indien deze worden ontwikkeld met inachtneming van relevante algemene beginselen in overeenstemming met het Handvest en de waarden waarop de Unie is gegrondvest. Artificiële intelligentie kan bedrijven, dankzij verbeterde voorspellingen, geoptimaliseerde verrichtingen en toewijzing van middelen en gepersonaliseerde digitale oplossingen voor individuen en organisaties een belangrijk concurrentievoordeel opleveren en helpen om gunstige sociale en ecologische resultaten te behalen, bijvoorbeeld in de gezondheidszorg, de landbouw, voedselveiligheid, onderwijs en opleiding, media, sport, cultuur, infrastructuurbeheer, energie, vervoer en logistiek, crisisbeheer, openbare diensten, veiligheid, justitie, efficiënt gebruik van hulpbronnen en energie, milieumonitoring, behoud en herstel van biodiversiteit en ecosystemen en klimaatmitigatie en -adaptatie.
Amendement 13 Voorstel voor een verordening Overweging 3 bis (nieuw)
(3 bis) In het kader van de streefdoelen inzake koolstofneutraliteit moeten Europese ondernemingen inspanningen leveren om alle beschikbare technologische ontwikkelingen te benutten die kunnen helpen om die doelen te halen. Artificiële intelligentie is een technologie met het potentieel om te worden gebruikt bij de verwerking van de alsmaar groeiende hoeveelheid gegevens die voortkomen uit industriële, milieu-, gezondheids- en andere processen. Om investeringen in AI-gebaseerde instrumenten voor analyse en optimalisering te bevorderen, moet deze verordening voorzien in voorspelbare en evenredige omstandigheden voor industriële oplossingen met een laag risico.
Amendement 14 Voorstel voor een verordening Overweging 4
(4) Tegelijkertijd kan artificiële intelligentie, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, risico’s opleveren en schade toebrengen aan de openbare belangen en rechten die door de Uniewetgeving worden beschermd. Deze schade kan materieel of immaterieel zijn.
(4) Tegelijkertijd kan artificiële intelligentie, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, alsook van de mate van technologische ontwikkeling, risico’s opleveren en schade toebrengen aan openbare of particuliere belangen en grondrechten van natuurlijke personen die door de Uniewetgeving worden beschermd. Deze schade kan materieel of immaterieel zijn, met inbegrip van lichamelijke, psychische, maatschappelijke of economische schade.
Amendement 15 Voorstel voor een verordening Overweging 4 bis (nieuw)
(4 bis) Gezien het feit dat artificiële intelligentie van grote invloed op de samenleving kan zijn en aangezien het dus nodig is dat men vertrouwen heeft in artificiële intelligentie, is het essentieel dat artificiële intelligentie en het regelgevingskader voor artificiële intelligentie worden ontwikkeld met inachtneming van de waarden van de Unie zoals vastgelegd in artikel 2 VEU, de grondrechten en vrijheden zoals vastgelegd in de Verdragen, het Handvest, en het internationaal recht inzake mensenrechten. Voorop staat dat artificiële intelligentie een mensgerichte technologie moet zijn. Artificiële intelligentie mag de menselijke autonomie niet verdringen en niet leiden tot een afname van individuele vrijheid, en moet in eerste instantie de behoeften van de maatschappij en het algemeen belang dienen. Er moeten garanties worden geboden betreffende de ontwikkeling en het gebruik van ethisch verankerde artificiële intelligentie die de waarden van de Unie en het Handvest respecteert.
Amendement 16 Voorstel voor een verordening Overweging 5
(5) Om de ontwikkeling, het gebruik en de introductie van artificiële intelligentie op de interne markt te bevorderen is daarom een rechtskader van de Unie nodig met geharmoniseerde regels inzake artificiële intelligentie, dat tegelijkertijd de openbare belangen in hoge mate beschermt, bijvoorbeeld op het gebied van gezondheid en veiligheid en de bescherming van de grondrechten, zoals die worden erkend en beschermd door de Uniewetgeving. Om dat doel te bereiken, moeten regels worden vastgesteld voor het in de handel brengen en de inbedrijfstelling van bepaalde AI-systemen, zodat de goede werking van de interne markt wordt gewaarborgd en deze systemen kunnen genieten van het beginsel van vrij verkeer van goederen en diensten. Door die regels vast te stellen, steunt deze verordening de doelstelling van de Unie om wereldwijd een voortrekkersrol te spelen bij de ontwikkeling van veilige, betrouwbare en ethische artificiële intelligentie, zoals verklaard door de Europese Raad33, en de bescherming van ethische beginselen te waarborgen, zoals specifiek gevraagd door het Europees Parlement34.
(5) Om de ontwikkeling, het gebruik en de introductie van artificiële intelligentie op de interne markt te bevorderen is daarom een rechtskader van de Unie nodig met geharmoniseerde regels inzake artificiële intelligentie, dat tegelijkertijd de openbare belangen in hoge mate beschermt, bijvoorbeeld op het gebied van gezondheid en veiligheid, bescherming van de grondrechten, de democratie en de rechtstaat en het milieu, zoals die worden erkend en beschermd door de Uniewetgeving. Om dat doel te bereiken, moeten regels worden vastgesteld voor het in de handel brengen, de inbedrijfstelling en het gebruik van bepaalde AI-systemen, zodat de goede werking van de interne markt wordt gewaarborgd en deze systemen kunnen genieten van het beginsel van vrij verkeer van goederen en diensten. Deze regels moeten duidelijk en robuust zijn voor wat betreft de bescherming van de grondrechten, en daarnaast pro-innovatie zijn en een Europees ecosysteem mogelijk maken van publieke en particuliere actoren die AI-systemen creëren die in overeenstemming zijn met de waarden van de Unie. Door die regels alsook maatregelen ter ondersteuning van innovatie met bijzondere nadruk op kmo’s en start-ups vast te stellen, steunt deze verordening de doelstelling van de Unie om in Europa ontwikkelde AI te bevorderen, om wereldwijd een voortrekkersrol te spelen bij de ontwikkeling van veilige, betrouwbare en ethische artificiële intelligentie, zoals verklaard door de Europese Raad33, en de bescherming van ethische beginselen te waarborgen, zoals specifiek gevraagd door het Europees Parlement34.
__________________
__________________
33 Europese Raad, Buitengewone bijeenkomst van de Europese Raad (1 en 2 oktober 2020) — Conclusies, EUCO 13/20, 2020, blz. 6.
33 Europese Raad, Buitengewone bijeenkomst van de Europese Raad (1 en 2 oktober 2020) — Conclusies, EUCO 13/20, 2020, blz. 6.
34 Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën, 2020/2012(INL).
34 Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën, 2020/2012(INL).
Amendement 17 Voorstel voor een verordening Overweging 5 bis (nieuw)
(5 bis) Voorts moet de Unie, om de ontwikkeling van AI-systemen te bevorderen die de waarden van de Unie in acht nemen, de voornaamste onvervulde behoeften en obstakels die het potentieel van de digitale transformatie in de weg staan aanpakken, waaronder het tekort aan werknemers met digitale vaardigheden, punten van zorg wat betreft cyberbeveiliging, onvoldoende (toegang tot) investeringen en de bestaande en potentiële kloof tussen grote ondernemingen, kmo’s en startende ondernemingen. Er moet met name op worden toegezien dat alle regio’s van de Unie de vruchten plukken van AI en innovatie in nieuwe technologieën en dat voldoende investeringen en middelen worden verstrekt, met name aan de regio’s die een achterstand hebben op het vlak van bepaalde digitale indicatoren.
Amendement 18 Voorstel voor een verordening Overweging 6
(6) Het begrip “AI-systeem” moet duidelijk worden gedefinieerd om rechtszekerheid te garanderen en tegelijkertijd de nodige flexibiliteit te bieden om op toekomstige technologische ontwikkelingen te kunnen inspelen. De definitie moet gebaseerd zijn op de belangrijkste functionele kenmerken van de software, met name het vermogen om, voor een bepaalde reeks door de mens gedefinieerde doelstellingen, een output te genereren zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee het systeem in wisselwerking staat, zowel in een fysieke als een digitale dimensie. AI-systemen kunnen zodanig worden ontworpen dat zij in verschillende mate autonoom kunnen functioneren en als zelfstandig onderdeel of als component van een product kunnen worden gebruikt, ongeacht of het systeem fysiek in het product is geïntegreerd (ingebed) dan wel ten dienste staat van de functionaliteit van het product zonder daarin te zijn geïntegreerd (niet-ingebed). De definitie van AI-systeem moet worden aangevuld met een lijst van specifieke technieken en benaderingen voor de ontwikkeling ervan, die in het licht van de technologische en marktontwikkelingen moet worden bijgewerkt door middel van gedelegeerde handelingen van de Commissie tot wijziging van die lijst.
(6) Het begrip “AI-systeem” in deze verordening moet duidelijk worden gedefinieerd en nauw aansluiten op het werk van internationale organisaties die zich bezighouden met artificiële intelligentie, om rechtszekerheid, harmonisatie en brede acceptatie te garanderen en tegelijkertijd de nodige flexibiliteit te bieden om op de snelle technologische ontwikkelingen in dit veld te kunnen inspelen. Bovendien moet de definitie gebaseerd zijn op centrale kenmerken van artificiële intelligentie, zoals het vermogen om te leren, redeneren en modelleren, zodat het onderscheid tussen artificiële intelligentie en eenvoudiger softwaresystemen of programmeermethodes helder is.AI-systemen worden zodanig ontworpen dat zij in verschillende mate autonoom kunnen functioneren, wat betekent dat zij ten minste een zekere mate van onafhankelijkheid van menselijke controle bezitten en zonder menselijke tussenkomst kunnen functioneren. De term “machinaal” verwijst naar het feit dat AI-systemen op machines draaien. De verwijzing naar expliciete of impliciete doelstellingen onderstreept dat AI-systemen kunnen functioneren volgens expliciete, door de mens gedefinieerde doelstellingen, of volgens impliciete doelstellingen. De mogelijkheid bestaat dat de doelstellingen van het AI-systeem verschillen van het beoogde doel van het AI-systeem in een specifieke context. Met de verwijzing naar voorspellingen wordt onder meer inhoud bedoeld, die in deze verordening wordt beschouwd als een vorm van voorspelling in de zin van een van de mogelijke outputs van een AI-systeem. Voor de toepassing van deze verordening moeten omgevingen worden opgevat als de contexten waarin de AI-systemen functioneren, terwijl door het AI-systeem gegenereerde outputs, in de zin van voorspellingen, aanbevelingen of besluiten, beantwoorden aan de doelstellingen van het systeem, op basis van input uit die omgeving.Die output is weer van invloed op bovengenoemde omgeving, alleen al doordat nieuwe informatie aan die omgeving wordt toegevoegd.
Amendement 19 Voorstel voor een verordening Overweging 6 bis (nieuw)
(6 bis) AI-systemen beschikken vaak over de mogelijkheid tot machinaal leren, hetgeen deze systemen in staat stelt zich autonoom aan nieuwe taken aan te passen en deze uit te voeren. Machinaal leren verwijst naar het rekenkundige proces waarbij de parameters van een model op basis van gegevens worden geoptimaliseerd; een wiskundige constructie die een output genereert op basis van inputgegevens. Voorbeelden van benaderingen voor machinaal leren zijn gecontroleerd, ongecontroleerd en versterkend leren, waarbij gebruik wordt gemaakt van diverse methoden, waaronder deep learning met behulp van neurale netwerken. Deze verordening is gericht op het aanpakken van nieuwe potentiële risico’s die kunnen ontstaan doordat controle wordt overgedragen aan AI-systemen, met name aan AI-systemen die na hun ingebruikname kunnen evolueren. De functie en output van veel van deze AI-systemen zijn gebaseerd op abstracte wiskundige relaties die voor mensen moeilijk zijn te begrijpen, monitoren en terug te herleiden naar specifieke input. Deze complexiteit en ondoorzichtigheid zijn kenmerken (“black box”-elementen) die gevolgen hebben voor de verantwoording en de verklaarbaarheid. Ook het gebruik van vergelijkbare, maar eenvoudiger technieken zoals op kennis gebaseerde benaderingen, Bayesiaanse schatting of beslisbomen kan op juridische vraagstukken stuiten die in deze verordening behandeld moeten worden, met name bij gebruik in combinatie met machinaal leren in de context van hybride systemen.
Amendement 20 Voorstel voor een verordening Overweging 6 ter (nieuw)
(6 ter) AI-systemen kunnen als een zelfstandig softwaresysteem worden gebruikt, in een fysiek product worden geïntegreerd (ingebed), worden gebruikt om ten dienste te staan van de functionaliteit van een fysiek product zonder daarin te zijn geïntegreerd (niet-ingebed) of worden gebruikt als AI-component van een groter systeem. Als dit grotere systeem niet zou functioneren zonder de AI-component in kwestie, moet in het kader van deze verordening het grotere systeem in zijn geheel als één enkel AI-systeem worden beschouwd.
Amendement 21 Voorstel voor een verordening Overweging 7
(7) Het in deze verordening gebruikte begrip “biometrische gegevens” sluit aan bij en moet worden uitgelegd in overeenstemming met het begrip biometrische gegevens zoals gedefinieerd in artikel 4, lid 14, van Verordening (EU) 2016/679 van het Europees Parlement en de Raad35, artikel 3, lid 18, van Verordening (EU) 2018/1725 van het Europees Parlement en de Raad36 en artikel 3, lid 13, van Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad37.
(7) Het in deze verordening gebruikte begrip “biometrische gegevens” sluit aan bij en moet worden uitgelegd in overeenstemming met het begrip biometrische gegevens zoals gedefinieerd in artikel 4, lid 14, van Verordening (EU) 2016/679 van het Europees Parlement en de Raad35. Op biometrie gebaseerde gegevens zijn gegevens die het resultaat zijn van specifieke technische verwerking in verband met fysieke, fysiologische of gedragssignalen van een natuurlijke persoon, zoals gezichtsuitdrukkingen, bewegingen, polsfrequentie, stem, toetsaanslagen of gang, die al dan niet de unieke identificatie van een natuurlijke persoon mogelijk maken of bevestigen.
__________________
__________________
35 Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).
35 Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).
36 Verordening (EU) 2018/1725 van het Europees Parlement en de Raad van 23 oktober 2018 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door de instellingen, organen en instanties van de Unie en betreffende het vrije verkeer van die gegevens, en tot intrekking van Verordening (EG) nr. 45/2001 en Besluit nr. 1247/2002/EG (PB L 295 van 21.11.2018, blz. 39).
37 Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad (richtlijn gegevensbescherming bij rechtshandhaving) (PB L 119 van 4.5.2016, blz. 89).
Amendement 22 Voorstel voor een verordening Overweging 7 bis (nieuw)
(7 bis) Het in deze verordening gebruikte begrip “biometrische identificatie” moet worden gedefinieerd als de automatische herkenning van fysieke, fysiologische, gedragsmatige en psychologische menselijke kenmerken zoals het gezicht, oogbewegingen, gezichtsuitdrukkingen, lichaamsvorm, stem, spraak, gang, houding, hartslag, bloeddruk, geur, toetsaanslagen, psychologische reacties (woede, angst, verdriet, enz.) met als doel de identiteit van een persoon vast te stellen door biometrische gegevens van die persoon te vergelijken met opgeslagen biometrische gegevens van personen in een database (één -op-vele-identificatie), ongeacht of die persoon hier al dan niet mee heeft ingestemd.
Amendement 23 Voorstel voor een verordening Overweging 7 ter (nieuw)
(7 ter) Het in deze verordening gebruikte begrip “biometrische categorisering” moet worden gedefinieerd als het indelen van natuurlijke personen in specifieke categorieën, of het afleiden van hun kenmerken en eigenschappen zoals gender, geslacht, leeftijd, haarkleur, oogkleur, tatoeages, etnische of sociale afkomst, gezondheid, mentaal of fysiek vermogen, gedrags- of persoonlijkheidskenmerken, taal, godsdienst of lidmaatschap van een nationale minderheid, seksuele gerichtheid of politieke overtuiging, op basis van hun biometrische of op biometrie gebaseerde gegevens, of wat van dergelijke gegevens kan worden afgeleid.
Amendement 24 Voorstel voor een verordening Overweging 8
(8) Het in deze verordening gebruikte begrip “biometrisch systeem voor identificatie op afstand” moet functioneel worden gedefinieerd als een AI-systeem dat bedoeld is voor de identificatie van natuurlijke personen op afstand door middel van vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens in een referentiedatabank, zonder dat vooraf bekend is of de betrokken persoon aanwezig zal zijn en kan worden geïdentificeerd, ongeacht de gebruikte specifieke technologie, processen of soorten biometrische gegevens. Gezien hun verschillende kenmerken en de verschillende manieren waarop zij worden gebruikt, alsook de verschillende risico’s die ermee gepaard gaan, moet een onderscheid worden gemaakt tussen biometrische systemen voor identificatie op afstand “in real time” en “achteraf”. In het geval van realtimesystemen gebeurt de registratie van de biometrische gegevens, de vergelijking en de identificatie allemaal ogenblikkelijk, bijna ogenblikkelijk of in ieder geval zonder noemenswaardige vertraging. In dit verband mag er geen ruimte zijn om de regels van deze verordening betreffende het realtimegebruik van de AI-systemen in kwestie te omzeilen door kleine vertragingen toe te staan. Bij realtimesystemen wordt gebruik gemaakt van “live”- of “near live”-materiaal, zoals videobeelden, die worden gegenereerd door een camera of een ander toestel met soortgelijke functionaliteit. In het geval van systemen “achteraf” zijn de biometrische gegevens daarentegen reeds vastgelegd en vinden de vergelijking en de identificatie pas met een aanzienlijke vertraging plaats. Het gaat dan om materiaal, zoals foto’s of videobeelden gegenereerd door camera’s van een gesloten televisiecircuit of privétoestellen, dat vóór het gebruik van het systeem is gegenereerd met betrekking tot de betrokken natuurlijke personen.
(8) Het in deze verordening gebruikte begrip “biometrisch systeem voor identificatie op afstand” moet functioneel worden gedefinieerd als een AI-systeem dat bedoeld is voor de identificatie van natuurlijke personen op afstand door middel van vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens in een referentiedatabank, zonder dat vooraf bekend is of de betrokken persoon aanwezig zal zijn en kan worden geïdentificeerd, ongeacht de gebruikte specifieke technologie, processen of soorten biometrische gegevens, uitgezonderd verificatiesystemen die slechts de biometrische gegevens van een persoon vergelijken met reeds verstrekte biometrische gegevens van die persoon (één-op-één). Gezien hun verschillende kenmerken en de verschillende manieren waarop zij worden gebruikt, alsook de verschillende risico’s die ermee gepaard gaan, moet een onderscheid worden gemaakt tussen biometrische systemen voor identificatie op afstand “in real time” en “achteraf”. In het geval van realtimesystemen gebeurt de registratie van de biometrische gegevens, de vergelijking en de identificatie allemaal ogenblikkelijk, bijna ogenblikkelijk of in ieder geval zonder noemenswaardige vertraging. In dit verband mag er geen ruimte zijn om de regels van deze verordening betreffende het realtimegebruik van de AI-systemen in kwestie te omzeilen door kleine vertragingen toe te staan. Bij realtimesystemen wordt gebruik gemaakt van “live”- of “near live”-materiaal, zoals videobeelden, die worden gegenereerd door een camera of een ander toestel met soortgelijke functionaliteit. In het geval van systemen “achteraf” zijn de biometrische gegevens daarentegen reeds vastgelegd en vinden de vergelijking en de identificatie pas met een aanzienlijke vertraging plaats. Het gaat dan om materiaal, zoals foto’s of videobeelden gegenereerd door camera’s van een gesloten televisiecircuit of privétoestellen, dat vóór het gebruik van het systeem is gegenereerd met betrekking tot de betrokken natuurlijke personen. Aangezien het begrip “biometrische identificatie” onafhankelijk is van de instemming van de persoon, is deze definitie zelfs van toepassing wanneer waarschuwingsberichten zijn geplaatst op de locatie die onder toezicht staat van het biometrische systeem voor identificatie op afstand, en wordt zij niet de facto door inschrijving vooraf opgeheven.
Amendement 25 Voorstel voor een verordening Overweging 8 bis (nieuw)
(8 bis) De identificatie van natuurlijke personen op afstand wordt geacht een onderscheid te maken tussen biometrische systemen voor identificatie op afstand en individuele verificatiesystemen in de onmiddellijke nabijheid met behulp van biometrische identificatiemiddelen, met als enig doel te bevestigen of een specifieke natuurlijke persoon die zich voor identificatie meldt, al dan niet is toegestaan, bijvoorbeeld om toegang te krijgen tot een dienst, een apparaat of een bedrijfsruimte.
Amendement 26 Voorstel voor een verordening Overweging 9
(9) Voor de uitvoering van deze verordening wordt verstaan onder “openbare ruimte” elke fysieke plaats die toegankelijk is voor het publiek, ongeacht of de plaats in kwestie particulier of openbaar bezit is. Het begrip heeft derhalve geen betrekking op plaatsen die privé van aard zijn en normaliter niet vrij toegankelijk zijn voor derden, met inbegrip van de rechtshandhavingsautoriteiten, tenzij die partijen specifiek zijn uitgenodigd of gemachtigd, zoals woningen, privéclubs, kantoren, pakhuizen en fabrieken. Onlineruimten vallen evenmin onder de richtlijn, omdat het geen fysieke ruimten zijn. Louter het feit dat er voor de toegang tot een bepaalde ruimte bepaalde voorwaarden kunnen gelden, zoals een toegangsbewijs of leeftijdsbeperking, betekent echter niet dat de ruimte niet voor het publiek toegankelijk is in de zin van deze verordening. Bijgevolg zijn, naast openbare ruimten zoals straten, relevante delen van overheidsgebouwen en de meeste vervoersinfrastructuur, ook ruimten zoals bioscopen, theaters, winkels en winkelcentra normaliter voor het publiek toegankelijk. Of een bepaalde ruimte toegankelijk is voor het publiek moet echter per geval worden bepaald, rekening houdend met de specifieke kenmerken van de situatie in kwestie.
(9) Voor de uitvoering van deze verordening wordt verstaan onder “openbare ruimte” elke fysieke plaats die toegankelijk is voor het publiek, ongeacht of de plaats in kwestie particulier of openbaar bezit is en ongeacht de potentieel aanwezige beperkingen op de capaciteit. Het begrip heeft derhalve geen betrekking op plaatsen die privé van aard zijn en normaliter niet vrij toegankelijk zijn voor derden, met inbegrip van de rechtshandhavingsautoriteiten, tenzij die partijen specifiek zijn uitgenodigd of gemachtigd, zoals woningen, privéclubs, kantoren, pakhuizen en fabrieken. Onlineruimten vallen evenmin onder de richtlijn, omdat het geen fysieke ruimten zijn. Louter het feit dat er voor de toegang tot een bepaalde ruimte bepaalde voorwaarden kunnen gelden, zoals een toegangsbewijs of leeftijdsbeperking, betekent echter niet dat de ruimte niet voor het publiek toegankelijk is in de zin van deze verordening. Bijgevolg zijn, naast openbare ruimten zoals straten, relevante delen van overheidsgebouwen en de meeste vervoersinfrastructuur, ook ruimten zoals bioscopen, theaters, sportterreinen, scholen, universiteiten, relevante delen van ziekenhuizen en banken, pretparken, festivals, winkels en winkelcentra normaliter voor het publiek toegankelijk. Of een bepaalde ruimte toegankelijk is voor het publiek moet echter per geval worden bepaald, rekening houdend met de specifieke kenmerken van de situatie in kwestie.
Amendement 27 Voorstel voor een verordening Overweging 9 bis (nieuw)
(9 bis) Het is belangrijk op te merken dat AI-systemen er zoveel mogelijk naar moeten streven te voldoen aan de algemene beginselen die een kader op hoog niveau vormen ter bevordering van een coherente, mensgerichte benadering van ethische en betrouwbare AI, in overeenstemming met het Handvest van de grondrechten van de Europese Unie en de waarden waarop de Unie is gegrondvest, waaronder de bescherming van de grondrechten, invloed en toezicht door mensen, technische robuustheid en veiligheid, privacy en databeheer, transparantie, non-discriminatie en billijkheid en maatschappelijk en ecologisch welzijn.
Amendement 28 Voorstel voor een verordening Overweging 9 ter (nieuw)
(9 ter) “AI-geletterdheid” heeft betrekking op vaardigheden, kennis en begrip die aanbieders, gebruikers en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen met kennis van zaken AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken, hetgeen de democratische controle op AI ten goede zal komen. AI-geletterdheid mag niet beperkt blijven tot leren over hulpmiddelen en technologieën, maar moet er ook op gericht zijn aanbieders en gebruikers toe te rusten met het begrippenkader en de vaardigheden die vereist zijn met het oog op de naleving en handhaving van deze verordening. De Commissie, de lidstaten en de aanbieders en gebruikers van AI-systemen moeten daarom in samenwerking met alle relevante belanghebbenden de ontwikkeling van een toereikend niveau van AI-geletterdheid in alle sectoren van de samenleving bevorderen – voor mensen van alle leeftijden, dus ook voor vrouwen en meisjes – en de vooruitgang op dat gebied nauwlettend in het oog houden.
Amendement 29 Voorstel voor een verordening Overweging 10
(10) Om een gelijk speelveld en een doeltreffende bescherming van de rechten en vrijheden van personen in heel de Unie te garanderen, moeten de bij deze verordening vastgestelde regels zonder discriminatie van toepassing zijn op aanbieders van AI-systemen, ongeacht of zij in de Unie of in een derde land gevestigd zijn, en op in de Unie gevestigde gebruikers van AI-systemen.
(10) Om een gelijk speelveld en een doeltreffende bescherming van de rechten en vrijheden van personen in heel de Unie en op internationaal niveau te garanderen, moeten de bij deze verordening vastgestelde regels zonder discriminatie van toepassing zijn op aanbieders van AI-systemen, ongeacht of zij in de Unie of in een derde land gevestigd zijn, en op in de Unie gevestigde exploitanten van AI-systemen. Om ervoor te zorgen dat de Unie trouw is aan haar fundamentele waarden, moeten AI-systemen die bedoeld zijn om te worden gebruikt voor praktijken die bij deze verordening onaanvaardbaar worden geacht, ook buiten de Unie onaanvaardbaar worden geacht vanwege hun bijzonder schadelijke effect op de in het Handvest verankerde grondrechten. Daarom is het passend de uitvoer van dergelijke AI-systemen naar derde landen door aanbieders die in de Unie zijn gevestigd, te verbieden.
Amendement 30 Voorstel voor een verordening Overweging 11
(11) Gezien hun digitale aard moeten bepaalde AI-systemen onder het toepassingsgebied van deze verordening vallen, zelfs wanneer zij niet in de Unie in de handel worden gebracht, in bedrijf worden gesteld of worden gebruikt. Dit is bijvoorbeeld het geval voor een in de Unie gevestigde marktdeelnemer die aan een buiten de Unie gevestigde marktdeelnemer bepaalde diensten uitbesteedt in verband met een activiteit die moet worden verricht door een AI-systeem dat als een AI-systeem met een hoog risico zou kunnen worden aangemerkt en waarvan de gevolgen merkbaar zouden zijn voor in de Unie gevestigde natuurlijke personen. In die omstandigheden zou het AI-systeem dat door de marktdeelnemer buiten de Unie wordt gebruikt, data kunnen verwerken die rechtmatig in de Unie zijn verzameld en vanuit de Unie zijn doorgegeven, en vervolgens de aanbestedende marktdeelnemer in de Unie kunnen voorzien van de output van dat AI-systeem die het resultaat is van die verwerking, zonder dat genoemd AI-systeem in de Unie in de handel wordt gebracht, in bedrijf wordt gesteld of wordt gebruikt. Om te voorkomen dat deze verordening wordt omzeild en om natuurlijke personen die zich in de Unie bevinden doeltreffend te beschermen, moet deze verordening ook van toepassing zijn op aanbieders en gebruikers van AI-systemen die in een derde land zijn gevestigd, voor zover de door die systemen geproduceerde output in de Unie wordt gebruikt. Om rekening te houden met bestaande regelingen en bijzondere behoeften inzake samenwerking met buitenlandse partners waarmee informatie en bewijsmateriaal wordt uitgewisseld, zal deze verordening evenwel niet van toepassing zijn op overheidsinstanties van een derde land en internationale organisaties wanneer zij optreden in het kader van internationale overeenkomsten die op nationaal of Europees niveau zijn gesloten met het oog op de rechtshandhaving en justitiële samenwerking met de Unie of haar lidstaten. Dergelijke overeenkomsten zijn bilateraal gesloten tussen lidstaten en derde landen of tussen de Europese Unie, Europol en andere EU-agentschappen enerzijds en derde landen en internationale organisaties anderzijds.
(11) Gezien hun digitale aard moeten bepaalde AI-systemen onder het toepassingsgebied van deze verordening vallen, zelfs wanneer zij niet in de Unie in de handel worden gebracht, in bedrijf worden gesteld of worden gebruikt. Dit is bijvoorbeeld het geval voor een in de Unie gevestigde marktdeelnemer die aan een buiten de Unie gevestigde marktdeelnemer bepaalde diensten uitbesteedt in verband met een activiteit die moet worden verricht door een AI-systeem dat als een AI-systeem met een hoog risico zou kunnen worden aangemerkt en waarvan de gevolgen merkbaar zouden zijn voor in de Unie gevestigde natuurlijke personen. In die omstandigheden zou het AI-systeem dat door de marktdeelnemer buiten de Unie wordt gebruikt, data kunnen verwerken die rechtmatig in de Unie zijn verzameld en vanuit de Unie zijn doorgegeven, en vervolgens de aanbestedende marktdeelnemer in de Unie kunnen voorzien van de output van dat AI-systeem die het resultaat is van die verwerking, zonder dat genoemd AI-systeem in de Unie in de handel wordt gebracht, in bedrijf wordt gesteld of wordt gebruikt. Om te voorkomen dat deze verordening wordt omzeild en om natuurlijke personen die zich in de Unie bevinden doeltreffend te beschermen, moet deze verordening ook van toepassing zijn op aanbieders en exploitanten van AI-systemen die in een derde land zijn gevestigd, voor zover de door die systemen geproduceerde output bestemd is om in de Unie te worden gebruikt. Om rekening te houden met bestaande regelingen en bijzondere behoeften inzake samenwerking met buitenlandse partners waarmee informatie en bewijsmateriaal wordt uitgewisseld, zal deze verordening evenwel niet van toepassing zijn op overheidsinstanties van een derde land en internationale organisaties wanneer zij optreden in het kader van internationale overeenkomsten die op nationaal of Europees niveau zijn gesloten met het oog op de rechtshandhaving en justitiële samenwerking met de Unie of haar lidstaten. Dergelijke overeenkomsten zijn bilateraal gesloten tussen lidstaten en derde landen of tussen de Europese Unie, Europol en andere EU-agentschappen enerzijds en derde landen en internationale organisaties anderzijds. Deze uitzondering moet echter beperkt blijven tot betrouwbare landen en internationale organisaties met waarden die gelijk zijn aan die van de Unie.
Amendement 31 Voorstel voor een verordening Overweging 12
(12) Deze verordening moet ook van toepassing zijn op instellingen, organen en agentschappen van de Unie wanneer zij optreden als aanbieder of gebruiker van een AI-systeem. AI-systemen die uitsluitend voor militaire doeleinden worden ontwikkeld of gebruikt, moeten van het toepassingsgebied van deze verordening worden uitgesloten wanneer dat gebruik onder de exclusieve bevoegdheid valt van het gemeenschappelijk buitenlands en veiligheidsbeleid, zoals geregeld in titel V van het Verdrag betreffende de Europese Unie (VEU). Deze verordening doet geen afbreuk aan de bepalingen betreffende de aansprakelijkheid van aanbieders die als tussenpersoon optreden, vastgesteld in Richtlijn 2000/31/EG van het Europees Parlement en de Raad [zoals gewijzigd bij de wet inzake digitale diensten].
(12) Deze verordening moet ook van toepassing zijn op instellingen, organen en agentschappen van de Unie wanneer zij optreden als aanbieder of exploitant van een AI-systeem. AI-systemen die uitsluitend voor militaire doeleinden worden ontwikkeld of gebruikt, moeten van het toepassingsgebied van deze verordening worden uitgesloten wanneer dat gebruik onder de exclusieve bevoegdheid valt van het gemeenschappelijk buitenlands en veiligheidsbeleid, zoals geregeld in titel V van het Verdrag betreffende de Europese Unie (VEU). Deze verordening doet geen afbreuk aan de bepalingen betreffende de aansprakelijkheid van aanbieders die als tussenpersoon optreden, vastgesteld in Richtlijn 2000/31/EG van het Europees Parlement en de Raad [zoals gewijzigd bij de wet inzake digitale diensten].
Amendement 32 Voorstel voor een verordening Overweging 12 bis (nieuw)
(12 bis) Software en gegevens die openlijk worden gedeeld en die gebruikers vrij mogen raadplegen, gebruiken, wijzigen en herdistribueren en waarvan zij gewijzigde versies mogen herdistribueren, kunnen bijdragen aan onderzoek en innovatie op de markt. Uit onderzoek van de Commissie blijkt tevens dat vrije en opensourcesoftware 65 à 95 miljard EUR kan bijdragen aan het bbp van de Europese Unie en aanzienlijke groeikansen kan bieden voor de Europese economie. Gebruikers mogen software en gegevens, met inbegrip van modellen, uitvoeren, kopiëren, distribueren, bestuderen, wijzigen en verbeteren in het kader van vrije en opensourcelicenties. Met het oog op het bevorderen van de ontwikkeling en uitrol van AI, met name door kmo’s, start-ups, academisch onderzoekers maar ook door personen, moet deze verordening niet van toepassing zijn op dergelijke vrije en opensource-AI-componenten, behalve voor zover zij in de handel worden gebracht of in gebruik worden gesteld door een aanbieder als onderdeel van een AI-systeem met een hoog risico of van een AI-systeem dat onder titel II of titel IV van deze verordening valt.
Amendement 33 Voorstel voor een verordening Overweging 12 ter (nieuw)
(12 ter) Noch de gezamenlijke ontwikkeling van vrije en opensource-AI-componenten, noch het beschikbaar stellen van dergelijke componenten in open databases moet worden beschouwd als het in de handel brengen of in gebruik stellen van een product. Een handelsactiviteit in de zin van het in de handel brengen kan echter, behalve wanneer de transactie plaatsvindt tussen twee micro-ondernemingen, worden gekenmerkt door het in rekening brengen van een prijs voor een vrije en opensource-AI-component, maar ook door het in rekening brengen van een prijs voor technische ondersteuningsdiensten, het aanbieden van een softwareplatform waarmee de aanbieder andere diensten te gelde maakt, of het gebruik van persoonsgegevens voor andere redenen dan uitsluitend de verbetering van de beveiliging, compatibiliteit of interoperabiliteit van de software.
Amendement 34 Voorstel voor een verordening Overweging 12 quater (nieuw)
(12 quater) De ontwikkelaars van vrije en opensource-AI-componenten mogen uit hoofde van deze verordening niet worden verplicht te voldoen aan vereisten die gericht zijn op de AI-waardeketen en vooral niet op de aanbieder die die vrije en opensource-AI-component heeft gebruikt. Ontwikkelaars van vrije en opensource-AI-componenten moeten echter worden aangemoedigd om algemeen aanvaarde documentatiepraktijken, zoals model- en gegevenskaarten, toe te passen als een manier om de uitwisseling van informatie in de hele AI-waardeketen te versnellen, in het kader van de bevordering van betrouwbare AI-systemen in de Unie.
Amendement 35 Voorstel voor een verordening Overweging 13
(13) Teneinde een consistent en hoog niveau van bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten te garanderen, moeten gemeenschappelijke normen voor alle AI-systemen met een hoog risico worden vastgesteld. Deze normen moeten in overeenstemming zijn met het Handvest van de grondrechten van de Europese Unie (het Handvest), niet-discriminerend zijn en in overeenstemming zijn met de internationale handelsverbintenissen van de Unie.
(13) Teneinde een consistent en hoog niveau van bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten alsook democratie en de rechtstaat en het milieu te garanderen, moeten gemeenschappelijke normen voor alle AI-systemen met een hoog risico worden vastgesteld. Deze normen moeten in overeenstemming zijn met het Handvest, de Europese Green Deal, de gemeenschappelijke verklaring over digitale rechten van de Unie en de ethische richtsnoeren voor betrouwbare AI van de deskundigengroep op hoog niveau inzake AI, niet-discriminerend zijn en in overeenstemming zijn met de internationale handelsverbintenissen van de Unie.
Amendement 36 Voorstel voor een verordening Overweging 14
(14) Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, moet een duidelijk omschreven, risicogebaseerde aanpak worden gevolgd. Met die aanpak moet de aard en inhoud van dergelijke regels worden afgestemd op de intensiteit en de omvang van de risico’s die AI-systemen met zich mee kunnen brengen. Daarom is het noodzakelijk om bepaalde praktijken op het gebied van artificiële intelligentie te verbieden, eisen voor AI-systemen met een hoog risico en verplichtingen voor de betrokken marktdeelnemers vast te stellen, en transparantieverplichtingen voor bepaalde AI-systemen in te voeren.
(14) Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, moet een duidelijk omschreven, risicogebaseerde aanpak worden gevolgd. Met die aanpak moet de aard en inhoud van dergelijke regels worden afgestemd op de intensiteit en de omvang van de risico’s die AI-systemen met zich mee kunnen brengen. Daarom is het noodzakelijk om bepaalde onaanvaardbare praktijken op het gebied van artificiële intelligentie te verbieden, eisen voor AI-systemen met een hoog risico en verplichtingen voor de betrokken marktdeelnemers vast te stellen, en transparantieverplichtingen voor bepaalde AI-systemen in te voeren.
Amendement 37 Voorstel voor een verordening Overweging 15
(15) Afgezien van de vele nuttige toepassingen van artificiële intelligentie, kan de technologie ook worden misbruikt en nieuwe en krachtige instrumenten voor manipulatie, uitbuiting en sociale controle opleveren. Dergelijke praktijken zijn bijzonder schadelijk en moeten worden verboden omdat zij in strijd zijn met de waarden van de Unie, namelijk eerbied voor de menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en met de grondrechten van de Unie, waaronder het recht op non-discriminatie, gegevensbescherming en privacy, en de rechten van het kind.
(15) Afgezien van de vele nuttige toepassingen van artificiële intelligentie, kan de technologie ook worden misbruikt en nieuwe en krachtige instrumenten voor manipulatie, uitbuiting en sociale controle opleveren. Dergelijke praktijken zijn bijzonder schadelijk en abusief en moeten worden verboden omdat zij in strijd zijn met de waarden van de Unie, namelijk eerbied voor de menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en met de grondrechten van de Unie, waaronder het recht op non-discriminatie, gegevensbescherming en privacy, en de rechten van het kind.
Amendement 38 Voorstel voor een verordening Overweging 16
(16) Het in de handel brengen, in bedrijf stellen of gebruiken van bepaalde AI-systemen die bedoeld zijn om het menselijk gedrag te verstoren, waardoor lichamelijke of psychische schade kan ontstaan, moet worden verboden. Dergelijke AI-systemen maken gebruik van subliminale componenten die personen niet kunnen waarnemen, of buiten kwetsbaarheden van kinderen en mensen die een gevolg zijn van hun leeftijd of hun fysieke of mentale onbekwaamheid, uit. Zij doen dit met de bedoeling het gedrag van een persoon wezenlijk te verstoren en op een manier die deze persoon of een andere persoon schade berokkent of dreigt te berokkenen. De intentie mag niet worden verondersteld indien de verstoring van het menselijk gedrag het gevolg is van factoren buiten het AI-systeem waarover de aanbieder of de gebruiker geen controle heeft. Onderzoek voor legitieme doeleinden met betrekking tot dergelijke AI-systemen mag niet door het verbod worden belemmerd, voor zover dat onderzoek niet neerkomt op het gebruik van het AI-systeem in mens-machinerelaties waardoor natuurlijke personen aan schade worden blootgesteld, en indien dat onderzoek wordt verricht met inachtneming van erkende ethische normen voor wetenschappelijk onderzoek.
(16) Het in de handel brengen, in bedrijf stellen of gebruiken van bepaalde AI-systemen met de bedoeling of het effect om het menselijk gedrag wezenlijk te verstoren, waardoor lichamelijke of psychische schade kan ontstaan, moet worden verboden. Deze beperking moet worden opgevat als zijnde van toepassing op onder meer neurotechnologieën die worden ondersteund door AI-systemen die worden gebruikt om neurale gegevens die via hersen-computerinterfaces zijn verzameld, te monitoren, te gebruiken of te beïnvloeden, voor zover zij het gedrag van een natuurlijke persoon wezenlijk verstoren op een wijze die die persoon of een andere persoon ernstige schade berokkent of waarschijnlijk zal berokkenen. Dergelijke AI-systemen maken gebruik van subliminale componenten die personen niet kunnen waarnemen, of buiten kwetsbaarheden van individuen en specifieke groepen personen die een gevolg zijn van hun bekende of voorspelde persoonlijkheidskenmerken, leeftijd of hun fysieke of mentale onbekwaamheid, sociale of economische situatie, uit. Zij doen dit met de bedoeling of het effect dat het gedrag van een persoon wezenlijk wordt verstoord en op een manier die deze persoon of een andere persoon, of groepen personen, aanzienlijke schade berokkent of dreigt te berokkenen, met inbegrip van schade die zich na verloop van tijd opbouwt. De intentie om het gedrag te verstoren, mag niet worden verondersteld indien de verstoring het gevolg is van factoren buiten het AI-systeem waarover de aanbieder of de gebruiker geen controle heeft, zoals factoren die redelijkerwijs niet kunnen worden voorzien en beperkt door de aanbieder of de exploitant van het AI-systeem.In ieder geval is het niet vereist dat de aanbieder of de exploitant de intentie heeft de lichamelijke of psychische schade te veroorzaken, zolang deze schade het gevolg is van op AI gebaseerde manipulatieve of uitbuitingspraktijken. Het verbod op dergelijke AI-praktijken vormt een aanvulling op de bepalingen van Richtlijn 2005/29/EG, op grond waarvan oneerlijke handelspraktijken verboden zijn, ongeacht of zij worden uitgevoerd met behulp van AI-systemen of anderszins. In een dergelijke context mogen legale handelspraktijken, bijvoorbeeld op het gebied van reclame, die in overeenstemming zijn met het Unierecht, op zichzelf beschouwd niet als een inbreuk op het verbod worden beschouwd. Onderzoek voor legitieme doeleinden met betrekking tot dergelijke AI-systemen mag niet door het verbod worden belemmerd, voor zover dat onderzoek niet neerkomt op het gebruik van het AI-systeem in mens-machinerelaties waardoor natuurlijke personen aan schade worden blootgesteld, en indien dat onderzoek wordt verricht met inachtneming van erkende ethische normen voor wetenschappelijk onderzoek en op basis van specifieke geïnformeerde toestemming van de personen die aan dergelijke AI-systemen worden blootgesteld of in voorkomend geval van hun wettelijke voogd.
Amendement 39 Voorstel voor een verordening Overweging 16 bis (nieuw)
(16 bis) AI-systemen die natuurlijke personen categoriseren door hen in specifieke categorieën in te delen op basis van bekende of afgeleide gevoelige of beschermde kenmerken, zijn bijzonder ingrijpend, schenden de menselijke waardigheid en houden een groot risico op discriminatie in. Onder die kenmerken moet worden verstaan gender en genderidentiteit, ras, etnische achtergrond, migratie- of burgerschapsstatus, politieke voorkeur, seksuele gerichtheid, geloofsovertuiging, handicap of andere gronden waarop discriminatie verboden is krachtens artikel 21 van het Handvest van de grondrechten van de Europese Unie en krachtens artikel 9 van Verordening (EU) 2016/769. Dergelijke systemen moeten bijgevolg worden verboden.
Amendement 40 Voorstel voor een verordening Overweging 17
(17) AI-systemen die door of in naam van overheidsinstanties worden gebruikt om sociale scoring van natuurlijke personen voor algemene doeleinden uit te voeren, kunnen discriminerende resultaten en de uitsluiting van bepaalde groepen tot gevolg hebben. Deze systemen kunnen een schending inhouden van het recht op waardigheid en non-discriminatie en van waarden als gelijkheid en rechtvaardigheid. Dergelijke AI-systemen beoordelen of classificeren de betrouwbaarheid van natuurlijke personen op basis van hun sociale gedrag in meerdere contexten of op basis van bekende of voorspelde persoonlijke of persoonlijkheidskenmerken. De sociale score die dergelijke AI-systemen opleveren, kan leiden tot een nadelige of ongunstige behandeling van natuurlijke personen of hele groepen in sociale contexten die geen verband houden met de context waarin de data oorspronkelijk zijn gegenereerd of verzameld, of tot een nadelige behandeling die onevenredig of ongerechtvaardigd is in verhouding tot de ernst van het sociale gedrag. Dergelijke AI-systemen moeten bijgevolg worden verboden.
(17) AI-systemen die worden gebruikt om sociale scoring van natuurlijke personen voor algemene doeleinden uit te voeren, kunnen discriminerende resultaten en de uitsluiting van bepaalde groepen tot gevolg hebben. Deze systemen houden een schending in van het recht op waardigheid en non-discriminatie en van waarden als gelijkheid en rechtvaardigheid. Dergelijke AI-systemen beoordelen of classificeren natuurlijke personen of groepen op basis van meerdere aansluitbare informatiebronnen en tijdstippen, met betrekking tot hun sociale gedrag in meerdere contexten of op basis van bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken. De sociale score die dergelijke AI-systemen opleveren, kan leiden tot een nadelige of ongunstige behandeling van natuurlijke personen of hele groepen in sociale contexten die geen verband houden met de context waarin de data oorspronkelijk zijn gegenereerd of verzameld, of tot een nadelige behandeling die onevenredig of ongerechtvaardigd is in verhouding tot de ernst van het sociale gedrag. Dergelijke AI-systemen moeten bijgevolg worden verboden.
Amendement 41 Voorstel voor een verordening Overweging 18
(18) Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten met het oog op de rechtshandhaving wordt als bijzonder ingrijpend beschouwd voor de rechten en vrijheden van de betrokkenen, in die mate dat het de persoonlijke levenssfeer van een groot deel van de bevolking kan aantasten, een gevoel van voortdurende bewaking kan oproepen en indirect de uitoefening van de vrijheid van vergadering en andere grondrechten kan ontmoedigen. Bovendien houden het directe karakter van de gevolgen en de beperkte mogelijkheden voor verdere controles of correcties met betrekking tot het gebruik van dergelijke realtimesystemen, verhoogde risico’s in voor de rechten en vrijheden van de personen die betrokken zijn bij de rechtshandhavingsactiviteiten.
(18) Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten is bijzonder ingrijpend ten aanzien van de rechten en vrijheden van de betrokkenen, en kan uiteindelijk de persoonlijke levenssfeer van een groot deel van de bevolking aantasten, een gevoel van voortdurende bewaking oproepen, partijen die biometrische identificatie toepassen in openbare ruimten een positie van oncontroleerbare macht geven en indirect de uitoefening van de vrijheid van vergadering en andere grondrechten die de kern van de rechtstaat vormen, ontmoedigen. Technische onnauwkeurigheden van AI-systemen voor biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten leiden en een discriminerend effect hebben. Dit is met name relevant wanneer het gaat om leeftijd, etniciteit, geslacht of handicaps. Bovendien houden het directe karakter van de gevolgen en de beperkte mogelijkheden voor verdere controles of correcties met betrekking tot het gebruik van dergelijke realtimesystemen, verhoogde risico’s in voor de rechten en vrijheden van de personen die betrokken zijn bij de rechtshandhavingsactiviteiten. Het gebruik van dergelijke systemen in openbare ruimten moet derhalve worden verboden. Evenzo moeten AI-systemen die worden gebruikt voor de analyse van opgenomen beelden van openbare ruimten via biometrische systemen voor de identificatie op afstand “achteraf” ook worden verboden, tenzij er voorafgaande rechterlijke toestemming is voor gebruik in het kader van rechtshandhaving, wanneer dat strikt noodzakelijk is voor de gerichte zoekopdracht in verband met een specifiek ernstig strafbaar feit dat reeds heeft plaatsgevonden, en alleen na voorafgaande rechterlijke toestemming.
Amendement 42 Voorstel voor een verordening Overweging 19
(19) Het gebruik van dergelijke systemen voor rechtshandhavingsdoeleinden moet derhalve worden verboden, behalve in drie limitatief opgesomde en nauwkeurig omschreven situaties, waarin het gebruik alleen noodzakelijk is om een zwaarwegend algemeen belang te dienen, dat zwaarder weegt dan de risico’s. Die situaties hebben betrekking op de zoektocht naar mogelijke slachtoffers van misdrijven, waaronder vermiste kinderen; bepaalde bedreigingen ten aanzien van het leven of de fysieke veiligheid van natuurlijke personen of van een terroristische aanslag; en de opsporing, lokalisatie, identificatie of vervolging van daders of verdachten van de in Kaderbesluit 2002/584/JBZ van de Raad38 bedoelde strafbare feiten indien deze in de betrokken lidstaat strafbaar zijn gesteld met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel met een maximumstraf van minstens drie jaar, en indien zij in het recht van die lidstaat zijn omschreven. Een dergelijke drempel voor de vrijheidsstraf of de tot vrijheidsbeneming strekkende maatregel overeenkomstig het nationale recht helpt er op toe te zien dat het strafbare feit ernstig genoeg is om het gebruik van biometrische systemen voor identificatie op afstand in real time te rechtvaardigen. Bovendien zullen sommige van de 32 in Kaderbesluit 2002/584/JBZ van de Raad genoemde strafbare feiten in de praktijk waarschijnlijk relevanter zijn dan andere, aangezien het gebruik van biometrische identificatie op afstand in real time naar verwachting in zeer uiteenlopende mate noodzakelijk en evenredig zal zijn voor de praktische uitvoering van de opsporing, lokalisatie, identificatie of vervolging van een dader of verdachte van de verschillende opgesomde strafbare feiten, gelet op de te verwachten verschillen in ernst, waarschijnlijkheid en omvang van de schade of de mogelijke negatieve gevolgen.
Schrappen
__________________
38 Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).
Amendement 43 Voorstel voor een verordening Overweging 20
(20) Om ervoor te zorgen dat dergelijke systemen op een verantwoorde en evenredige wijze worden gebruikt, is het ook van belang om vast te stellen dat in elk van die drie limitatief opgesomde en nauwkeurig omschreven situaties bepaalde elementen in aanmerking moeten worden genomen, met name wat betreft de aard van de situatie die aan het verzoek ten grondslag ligt en de gevolgen van het gebruik voor de rechten en vrijheden van alle betrokken personen, alsook de waarborgen en voorwaarden waaraan het gebruik is onderworpen. Voorts moet het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving aan passende beperkingen in tijd en ruimte worden onderworpen, met name gelet op het bewijs of de aanwijzingen met betrekking tot de bedreigingen, de slachtoffers of de dader. De referentiedatabank van personen moet geschikt zijn voor elk gebruik in elk van de drie bovenvermelde situaties.
Schrappen
Amendement 44 Voorstel voor een verordening Overweging 21
(21) Voor elk gebruik van een biometrisch systeem voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving moet een uitdrukkelijke en specifieke toestemming van een rechterlijke instantie of van een onafhankelijke administratieve autoriteit van een lidstaat vereist zijn. Die toestemming moet in beginsel vóór het gebruik worden verkregen, behalve in naar behoren gemotiveerde spoedeisende gevallen, dat wil zeggen situaties waarin het wegens de noodzaak om de systemen in kwestie te gebruiken, feitelijk en objectief onmogelijk is om vóór het begin van het gebruik een toestemming te verkrijgen. In dergelijke dringende situaties moet het gebruik worden beperkt tot het absoluut noodzakelijke minimum en onderworpen zijn aan passende waarborgen en voorwaarden, zoals bepaald in de nationale wetgeving en vastgesteld in de context van elk individueel dringend gebruik door de rechtshandhavingsautoriteit zelf. Bovendien moet de rechtshandhavingsautoriteit in dergelijke situaties zo spoedig mogelijk een toestemming trachten te verkrijgen, met vermelding van de redenen waarom zij die niet eerder heeft kunnen vragen.
Schrappen
Amendement 45 Voorstel voor een verordening Overweging 22
(22) Voorts moet binnen het door deze verordening gestelde limitatieve kader worden vastgelegd dat een dergelijk gebruik op het grondgebied van een lidstaat overeenkomstig deze verordening alleen mogelijk is indien en voor zover de betrokken lidstaat heeft besloten om in zijn specifieke regels van nationaal recht uitdrukkelijk te voorzien in de mogelijkheid om een dergelijk gebruik toe te staan. Bijgevolg staat het de lidstaten uit hoofde van deze verordening vrij in het geheel niet in een dergelijke mogelijkheid te voorzien, dan wel slechts in een dergelijke mogelijkheid te voorzien voor een aantal van de in deze verordening genoemde doelstellingen die het toestaan van een dergelijk gebruik rechtvaardigen.
Schrappen
Amendement 46 Voorstel voor een verordening Overweging 23
(23) Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten met het oog op de rechtshandhaving brengt noodzakelijkerwijs de verwerking van biometrische gegevens met zich mee. De regels in deze verordening die, behoudens bepaalde uitzonderingen, een dergelijk gebruik verbieden en die gebaseerd zijn op artikel 16 VWEU, moeten als lex specialis gelden ten aanzien van de regels inzake de verwerking van biometrische gegevens in artikel 10 van Richtlijn (EU) 2016/680, waardoor een dergelijk gebruik en de bijbehorende verwerking van biometrische gegevens limitatief worden geregeld. Daarom mag een dergelijk gebruik en een dergelijke verwerking alleen mogelijk zijn voor zover zij verenigbaar zijn met het door deze verordening vastgestelde kader, zonder dat er buiten dat kader ruimte is voor de bevoegde autoriteiten om, wanneer zij optreden met het oog op de rechtshandhaving, dergelijke systemen te gebruiken en dergelijke data in verband daarmee te verwerken om de in artikel 10 van Richtlijn (EU) 2016/680 genoemde redenen. In die context is deze verordening niet bedoeld om de rechtsgrondslag te bieden voor de verwerking van persoonsgegevens op grond van artikel 8 van Richtlijn 2016/680. Het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten voor andere doeleinden dan rechtshandhaving, ook door bevoegde autoriteiten, mag echter niet worden opgenomen in het specifieke kader voor dergelijk gebruik ten behoeve van de rechtshandhaving dat bij deze verordening wordt vastgesteld. Dergelijk gebruik voor andere doeleinden dan rechtshandhaving is derhalve niet onderworpen aan het vereiste van een toelating uit hoofde van deze verordening en de toepasselijke specifieke regels van nationaal recht die daaraan uitvoering kunnen geven.
Schrappen
Amendement 47 Voorstel voor een verordening Overweging 24
(24) Elke verwerking van biometrische gegevens en andere persoonsgegevens in het kader van het gebruik van AI-systemen voor biometrische identificatie, anders dan in verband met het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving zoals geregeld in deze verordening, ook wanneer die systemen in openbare ruimten door bevoegde autoriteiten worden gebruikt voor andere doeleinden dan de rechtshandhaving, moet blijven voldoen aan alle vereisten die voortvloeien uit artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10, lid 1, van Verordening (EU) 2018/1725 en artikel 10 van Richtlijn (EU) 2016/680, voor zover van toepassing.
(24) Elke verwerking van biometrische gegevens en andere persoonsgegevens in het kader van het gebruik van AI-systemen voor biometrische identificatie, anders dan in verband met het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten zoals geregeld in deze verordening, moet blijven voldoen aan alle vereisten die voortvloeien uit artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10, lid 1, van Verordening (EU) 2018/1725 en artikel 10 van Richtlijn (EU) 2016/680, voor zover van toepassing.
Amendement 48 Voorstel voor een verordening Overweging 25
(25) Overeenkomstig artikel 6 bis van Protocol nr. 21 betreffende de positie van het Verenigd Koninkrijk en Ierland ten aanzien van de ruimte van vrijheid, veiligheid en recht, dat gehecht is aan het VEU en het VWEU, is Ierland niet gebonden door de in artikel 5, lid 1, punt d), en leden 2 en 3, van deze verordening vastgestelde regels die zijn vastgesteld op basis van artikel 16 VWEU in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel VWEU, wanneer Ierland niet gebonden is door de regels betreffende de vormen van justitiële samenwerking in strafzaken of van politiële samenwerking in het kader waarvan de op grond van artikel 16 VWEU vastgestelde bepalingen moeten worden nageleefd.
(25) Overeenkomstig artikel 6 bis van Protocol nr. 21 betreffende de positie van het Verenigd Koninkrijk en Ierland ten aanzien van de ruimte van vrijheid, veiligheid en recht, dat gehecht is aan het VEU en het VWEU, is Ierland niet gebonden door de in artikel 5, lid 1, punt d), van deze verordening vastgestelde regels die zijn vastgesteld op basis van artikel 16 VWEU in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel VWEU, wanneer Ierland niet gebonden is door de regels betreffende de vormen van justitiële samenwerking in strafzaken of van politiële samenwerking in het kader waarvan de op grond van artikel 16 VWEU vastgestelde bepalingen moeten worden nageleefd.
Amendement 49 Voorstel voor een verordening Overweging 26
(26) Overeenkomstig de artikelen 2 en 2 bis van Protocol nr. 22 betreffende de positie van Denemarken, dat gehecht is aan het VEU en het VWEU, zijn de regels in artikel 5, lid 1, punt d), en leden 2 en 3, van deze verordening, die zijn vastgesteld op basis van artikel 16 VWEU, in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel van het VWEU niet bindend voor, noch van toepassing in Denemarken.
(26) Overeenkomstig de artikelen 2 en 2 bis van Protocol nr. 22 betreffende de positie van Denemarken, dat gehecht is aan het VEU en het VWEU, zijn de regels in artikel 5, lid 1, punt d), van deze verordening, die zijn vastgesteld op basis van artikel 16 VWEU, in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van de hoofdstukken 4 en 5 van titel V van het derde deel van het VWEU niet bindend voor, noch van toepassing in Denemarken.
Amendement 50 Voorstel voor een verordening Overweging 26 bis (nieuw)
(26 bis) AI-systemen die door of namens rechtshandhavingsinstanties worden gebruikt ten behoeve van voorspellingen, profielen of risicobeoordelingen op basis van profilering van natuurlijke personen of gegevensanalyse op basis van persoonlijkheidskenmerken en kenmerken, waaronder de locatie van de persoon, of eerder crimineel gedrag van natuurlijke personen of groepen personen met het oog op het voorspellen van het plegen of opnieuw plegen van een daadwerkelijk of potentieel strafbaar feit of ander strafbaar sociaal gedrag of administratieve overtreding, met inbegrip van systemen voor het voorspellen van fraude, houden een bijzonder risico op discriminatie van bepaalde personen of groepen personen in, aangezien zij de menselijke waardigheid en het voornaamste rechtsbeginsel van het vermoeden van onschuld schenden. Dergelijke AI-systemen moeten derhalve worden verboden.
Amendement 51 Voorstel voor een verordening Overweging 26 ter (nieuw)
(26 ter) De willekeurige en niet-gerichte extractie van biometrische gegevens van sociale media of beelden van gesloten televisiesystemen om databanken voor gezichtsherkenning op te zetten of uit te breiden, versterkt het gevoel van massasurveillance en kan leiden tot grove schendingen van de grondrechten, waaronder het recht op privacy. Het gebruik van AI-systemen met dit beoogde doel moet derhalve worden verboden.
Amendement 52 Voorstel voor een verordening Overweging 26 quater (nieuw)
(26 quater) Er zijn ernstige zorgen over de wetenschappelijke basis van AI-systemen die gericht zijn op het detecteren van emoties, fysieke of fysiologische kenmerken zoals gezichtsuitdrukkingen, bewegingen, polsfrequentie of stem. Emoties of uitingen van emoties en percepties daarvan variëren aanzienlijk tussen culturen en situaties, en zelfs bij een en dezelfde persoon. De belangrijkste tekortkomingen van dergelijke technologieën zijn de beperkte betrouwbaarheid (categorieën emoties zijn noch betrouwbaar uit te drukken aan de hand van en worden noch ondubbelzinnig geassocieerd met een gemeenschappelijke reeks fysieke of fysiologische bewegingen), het gebrek aan specificiteit (fysieke of fysiologische uitdrukkingen stemmen niet perfect overeen met categorieën emoties) en de beperkte algemeenheid (de effecten van context en cultuur worden onvoldoende in aanmerking genomen). Problemen met betrouwbaarheid en bijgevolg grote risico’s op misbruik kunnen zich met name voordoen bij de invoering van het systeem in situaties in de praktijk op het gebied van rechtshandhaving en grensbeheer, op de werkplek en bij onderwijsinstellingen. Daarom moet het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen die bedoeld zijn om in deze context te worden gebruikt om de emotionele toestand van personen op te sporen, worden verboden.
Amendement 53 Voorstel voor een verordening Overweging 26 quinquies (nieuw)
(26 quinquies) Deze verordening moet praktijken die verboden zijn uit hoofde van de Uniewetgeving, met inbegrip van de gegevensbeschermingswetgeving, de non-discriminatiewetgeving, de wetgeving inzake consumentenbescherming, en de mededingingswetgeving, onverlet laten.
Amendement 54 Voorstel voor een verordening Overweging 27
(27) AI-systemen met een hoog risico mogen alleen in de Unie in de handel worden gebracht of in bedrijf worden gesteld als zij aan bepaalde dwingende eisen voldoen. Die eisen moeten ervoor zorgen dat AI-systemen met een hoog risico die in de Unie beschikbaar zijn of waarvan de output anderszins in de Unie wordt gebruikt, geen onaanvaardbare risico’s inhouden voor belangrijke publieke belangen in de Unie, zoals die door het recht van de Unie worden erkend en beschermd. AI-systemen die als AI-systemen met een hoog risico zijn aangemerkt, moeten worden beperkt tot systemen die aanzienlijke schadelijke gevolgen hebben voor de gezondheid, de veiligheid en de grondrechten van personen in de Unie, en een dergelijke beperking moet eventuele potentiële beperkingen voor de internationale handel minimaliseren.
(27) AI-systemen met een hoog risico mogen alleen in de Unie in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt als zij aan bepaalde dwingende eisen voldoen. Die eisen moeten ervoor zorgen dat AI-systemen met een hoog risico die in de Unie beschikbaar zijn of waarvan de output anderszins in de Unie wordt gebruikt, geen onaanvaardbare risico’s inhouden voor belangrijke publieke belangen in de Unie, met inbegrip van de grondrechten, de democratie, de rechtsstaat of het milieu, zoals die door het recht van de Unie worden erkend en beschermd. Om afstemming met sectorale wetgeving te waarborgen en overlappingen te voorkomen, zal in de eisen voor AI-systemen met een hoog risico rekening moeten worden gehouden met sectorale wetgeving tot vaststelling van eisen voor in het toepassingsgebied van deze verordening opgenomen AI-systemen met een hoog risico, zoals Verordening (EU) 2017/745 betreffende medische hulpmiddelen en Verordening (EU) 2017/746 betreffende medische hulpmiddelen voor in-vitrodiagnostiek of Richtlijn 2006/42/EG betreffende machines. AI-systemen die als AI-systemen met een hoog risico zijn aangemerkt, moeten worden beperkt tot systemen die aanzienlijke schadelijke gevolgen hebben voor de gezondheid, de veiligheid en de grondrechten van personen in de Unie, en een dergelijke beperking moet eventuele potentiële beperkingen voor de internationale handel minimaliseren. Gezien het snelle tempo van de technologische ontwikkeling en de mogelijke veranderingen in het gebruik van AI-systemen, moet de lijst van gebieden met een hoog risico en typen gebruiken in bijlage III niettemin permanent worden geëvalueerd door middel van een regelmatige beoordeling.
Amendement 55 Voorstel voor een verordening Overweging 28
(28) AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als onderdelen van producten. In overeenstemming met de doelstellingen in de harmonisatiewetgeving van de Unie om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige en anderszins conforme producten hun weg naar de markt vinden, is het belangrijk dat de veiligheidsrisico’s die een product in zijn geheel kan genereren door zijn digitale componenten, waaronder AI-systemen, naar behoren worden voorkomen en beperkt. Zo moeten robots die alsmaar autonomer worden, of het nu in een productieomgeving is of voor persoonlijke hulp en zorg, in staat zijn op een veilige manier te werken en hun taken uit te voeren in complexe omgevingen. Ook in de gezondheidssector, waar het belang voor leven en gezondheid bijzonder hoog is, moeten de steeds geavanceerdere diagnosesystemen en systemen ter ondersteuning van menselijke beslissingen betrouwbaar en nauwkeurig zijn. De omvang van de door het AI-systeem veroorzaakte nadelige gevolgen voor de grondrechten die door het Handvest worden beschermd, is een bijzonder relevante factor voor de indeling van een AI-systeem als een systeem met een hoog risico. Deze rechten omvatten het recht op menselijke waardigheid, de eerbiediging van het privéleven en van het familie- en gezinsleven, de bescherming van persoonsgegevens, de vrijheid van meningsuiting en van informatie, de vrijheid van vergadering en vereniging, en non-discriminatie, consumentenbescherming, de rechten van werknemers, de rechten van personen met een handicap, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging en het vermoeden van onschuld, en het recht op behoorlijk bestuur. Naast deze rechten moeten ook de specifieke rechten van kinderen worden benadrukt, die zijn vastgelegd in artikel 24 van het EU-Handvest van de grondrechten en in het Verdrag van de Verenigde Naties inzake de rechten van het kind (nader uitgewerkt in algemene opmerking nr. 25 van het VN-Comité voor de rechten van het kind met betrekking tot de digitale omgeving), waarbij telkens wordt geëist dat rekening wordt gehouden met de kwetsbaarheid van kinderen en dat zij de bescherming en zorg krijgen die nodig zijn voor hun welbevinden. Het grondrecht betreffende een hoog niveau van milieubescherming, dat in het Handvest is verankerd en in het beleid van de Unie wordt uitgevoerd, moet ook in aanmerking worden genomen bij de beoordeling van de ernst van de schade die een AI-systeem kan veroorzaken, ook met betrekking tot de gezondheid en de veiligheid van personen.
(28) AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als veiligheidscomponenten van producten. In overeenstemming met de doelstellingen in de harmonisatiewetgeving van de Unie om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige en anderszins conforme producten hun weg naar de markt vinden, is het belangrijk dat de veiligheidsrisico’s die een product in zijn geheel kan genereren door zijn digitale componenten, waaronder AI-systemen, naar behoren worden voorkomen en beperkt. Zo moeten robots die alsmaar autonomer worden, of het nu in een productieomgeving is of voor persoonlijke hulp en zorg, in staat zijn op een veilige manier te werken en hun taken uit te voeren in complexe omgevingen. Ook in de gezondheidssector, waar het belang voor leven en gezondheid bijzonder hoog is, moeten de steeds geavanceerdere diagnosesystemen en systemen ter ondersteuning van menselijke beslissingen betrouwbaar en nauwkeurig zijn.
Amendement 56 Voorstel voor een verordening Overweging 28 bis (nieuw)
(28 bis) De omvang van de door het AI-systeem veroorzaakte nadelige gevolgen voor de grondrechten die door het Handvest worden beschermd, is bijzonder relevant voor de classificatie van een AI-systeem als een systeem met een hoog risico. Deze rechten omvatten het recht op menselijke waardigheid, de eerbiediging van het privéleven en van het familie- en gezinsleven, de bescherming van persoonsgegevens, de vrijheid van meningsuiting en van informatie, de vrijheid van vergadering en vereniging, en non-discriminatie, het recht op onderwijs, consumentenbescherming, de rechten van werknemers, de rechten van personen met een handicap, gendergelijkheid, intellectuele-eigendomsrechten, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging en het vermoeden van onschuld, en het recht op behoorlijk bestuur. Naast deze rechten moeten ook de specifieke rechten van kinderen worden benadrukt, die zijn vastgelegd in artikel 24 van het EU-Handvest van de grondrechten en in het Verdrag van de Verenigde Naties inzake de rechten van het kind (nader uitgewerkt in algemene opmerking nr. 25 van het VN-Comité voor de rechten van het kind met betrekking tot de digitale omgeving), waarbij telkens wordt geëist dat rekening wordt gehouden met de kwetsbaarheid van kinderen en dat zij de bescherming en zorg krijgen die nodig zijn voor hun welbevinden. Het grondrecht betreffende een hoog niveau van milieubescherming, dat in het Handvest is verankerd en in het beleid van de Unie wordt uitgevoerd, moet ook in aanmerking worden genomen bij de beoordeling van de ernst van de schade die een AI-systeem kan veroorzaken, ook met betrekking tot de gezondheid en de veiligheid van personen of met betrekking tot het milieu.
Amendement 57 Voorstel voor een verordening Overweging 29
(29) Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad39, Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad40, Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad41, Richtlijn 2014/90/EU van het Europees Parlement en de Raad42, Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad43, Verordening (EU) 2018/858 van het Europees Parlement en de Raad44, Verordening (EU) 2018/1139 van het Europees Parlement en de Raad45, en Verordening (EU) 2019/2144 van het Europees Parlement en de Raad46, moeten die handelingen worden gewijzigd zodat de Commissie, op basis van de technische en regelgevingskenmerken van elke sector en zonder in te grijpen in de bestaande governance-, conformiteitsbeoordelings- en handhavingsmechanismen en de daarin ingestelde autoriteiten, rekening kan houden met de in deze verordening vastgestelde dwingende voorschriften voor AI-systemen met een hoog risico wanneer zij op basis van die handelingen relevante toekomstige gedelegeerde of uitvoeringshandelingen vaststelt.
(29) Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad39, Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad40, Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad41, Richtlijn 2014/90/EU van het Europees Parlement en de Raad42, Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad43, Verordening (EU) 2018/858 van het Europees Parlement en de Raad44, Verordening (EU) 2018/1139 van het Europees Parlement en de Raad45, en Verordening (EU) 2019/2144 van het Europees Parlement en de Raad46, moeten die handelingen worden gewijzigd zodat de Commissie, op basis van de technische en regelgevingskenmerken van elke sector en zonder in te grijpen in de bestaande governance-, conformiteitsbeoordelings-, markttoezichts- en handhavingsmechanismen en de daarin ingestelde autoriteiten, rekening kan houden met de in deze verordening vastgestelde dwingende voorschriften voor AI-systemen met een hoog risico wanneer zij op basis van die handelingen relevante toekomstige gedelegeerde of uitvoeringshandelingen vaststelt.
__________________
__________________
39 Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad van 11 maart 2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart en tot intrekking van Verordening (EG) nr. 2320/2002 (PB L 97 van 9.4.2008, blz. 72).
39 Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad van 11 maart 2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart en tot intrekking van Verordening (EG) nr. 2320/2002 (PB L 97 van 9.4.2008, blz. 72).
40 Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad van 5 februari 2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosbouwvoertuigen (PB L 60 van 2.3.2013, blz. 1).
40 Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad van 5 februari 2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosbouwvoertuigen (PB L 60 van 2.3.2013, blz. 1).
41 Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad van 15 januari 2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers (PB L 60 van 2.3.2013, blz. 52).
41 Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad van 15 januari 2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers (PB L 60 van 2.3.2013, blz. 52).
42 Richtlijn 2014/90/EU van het Europees Parlement en de Raad van 23 juli 2014 inzake uitrusting van zeeschepen en tot intrekking van Richtlijn 96/98/EG van de Raad (PB L 257 van 28.8.2014, blz. 146).
42 Richtlijn 2014/90/EU van het Europees Parlement en de Raad van 23 juli 2014 inzake uitrusting van zeeschepen en tot intrekking van Richtlijn 96/98/EG van de Raad (PB L 257 van 28.8.2014, blz. 146).
43 Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad van 11 mei 2016 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie (PB L 138 van 26.5.2016, blz. 44).
43 Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad van 11 mei 2016 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie (PB L 138 van 26.5.2016, blz. 44).
44 Verordening (EU) 2018/858 van het Europees Parlement en de Raad van 30 mei 2018 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd, tot wijziging van Verordeningen (EG) nr. 715/2007 en (EG) nr. 595/2009 en tot intrekking van Richtlijn 2007/46/EG (PB L 151 van 14.6.2018, blz. 1).
44 Verordening (EU) 2018/858 van het Europees Parlement en de Raad van 30 mei 2018 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd, tot wijziging van Verordeningen (EG) nr. 715/2007 en (EG) nr. 595/2009 en tot intrekking van Richtlijn 2007/46/EG (PB L 151 van 14.6.2018, blz. 1).
45 Verordening (EU) 2018/1139 van het Europees Parlement en de Raad van 4 juli 2018 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, en tot wijziging van de Verordeningen (EG) nr. 2111/2005, (EG) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 en de Richtlijnen 2014/30/EU en 2014/53/EU van het Europees Parlement en de Raad, en tot intrekking van de Verordeningen (EG) nr. 552/2004 en (EG) nr. 216/2008 van het Europees Parlement en de Raad en Verordening (EEG) nr. 3922/91 van de Raad (PB L 212 van 22.8.2018, blz. 1).
45 Verordening (EU) 2018/1139 van het Europees Parlement en de Raad van 4 juli 2018 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, en tot wijziging van de Verordeningen (EG) nr. 2111/2005, (EG) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 en de Richtlijnen 2014/30/EU en 2014/53/EU van het Europees Parlement en de Raad, en tot intrekking van de Verordeningen (EG) nr. 552/2004 en (EG) nr. 216/2008 van het Europees Parlement en de Raad en Verordening (EEG) nr. 3922/91 van de Raad (PB L 212 van 22.8.2018, blz. 1).
46 Verordening (EU) 2019/2144 van het Europees Parlement en de Raad van 27 november 2019 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft, tot wijziging van Verordening (EU) 2018/858 van het Europees Parlement en de Raad en tot intrekking van de Verordeningen (EG) nr. 78/2009, (EG) nr. 79/2009 en (EG) nr. 661/2009 van het Europees Parlement en de Raad en de Verordeningen (EG) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 en (EU) 2015/166 van de Commissie (PB L 325 van 16.12.2019, blz. 1).
46 Verordening (EU) 2019/2144 van het Europees Parlement en de Raad van 27 november 2019 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft, tot wijziging van Verordening (EU) 2018/858 van het Europees Parlement en de Raad en tot intrekking van de Verordeningen (EG) nr. 78/2009, (EG) nr. 79/2009 en (EG) nr. 661/2009 van het Europees Parlement en de Raad en de Verordeningen (EG) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 en (EU) 2015/166 van de Commissie (PB L 325 van 16.12.2019, blz. 1).
Amendement 58 Voorstel voor een verordening Overweging 30
(30) Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde harmonisatiewetgeving van de Unie vallen, is het passend ze in het kader van deze verordening als AI-systemen met een hoog risico in te delen indien het product in kwestie de conformiteitsbeoordelingsprocedure ondergaat bij een derde conformiteitsbeoordelingsinstantie overeenkomstig die relevante harmonisatiewetgeving van de Unie. Het gaat met name om machines, speelgoed, liften, uitrusting en beveiligingssystemen bestemd voor gebruik op plaatsen waar ontploffingsgevaar kan heersen, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen en medische hulpmiddelen voor in-vitrodiagnostiek.
(30) Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde harmonisatiewetgeving van de Unie vallen, zoals opgenomen in bijlage II, is het passend ze in het kader van deze verordening als AI-systemen met een hoog risico in te delen indien het product in kwestie de conformiteitsbeoordelingsprocedure ondergaat om naleving van essentiële veiligheidseisen te waarborgen bij een derde conformiteitsbeoordelingsinstantie overeenkomstig die relevante harmonisatiewetgeving van de Unie. Het gaat met name om machines, speelgoed, liften, uitrusting en beveiligingssystemen bestemd voor gebruik op plaatsen waar ontploffingsgevaar kan heersen, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen en medische hulpmiddelen voor in-vitrodiagnostiek.
Amendement 59 Voorstel voor een verordening Overweging 31
(31) De indeling van een AI-systeem als een AI-systeem met een hoog risico overeenkomstig deze verordening hoeft niet te betekenen dat het product waarvan het AI-systeem de veiligheidscomponent is, of het AI-systeem zelf als product, als “een systeem met een hoog risico” wordt beschouwd volgens de criteria die zijn vastgesteld in de relevante harmonisatiewetgeving van de Unie die op het product van toepassing is. Dit is met name het geval voor Verordening (EU) 2017/745 van het Europees Parlement en de Raad47 en Verordening (EU) 2017/746 van het Europees Parlement en de Raad48, waarin in een conformiteitsbeoordeling door een derde partij is voorzien voor producten met een gemiddeld risico en producten met een hoog risico.
(Niet van toepassing op de Nederlandse versie)
__________________
47 Verordening (EU) 2017/745 van het Europees Parlement en de Raad van 5 april 2017 betreffende medische hulpmiddelen, tot wijziging van Richtlijn 2001/83/EG, Verordening (EG) nr. 178/2002 en Verordening (EG) nr. 1223/2009, en tot intrekking van Richtlijnen 90/385/EEG en 93/42/EEG van de Raad (PB L 117 van 5.5.2017, blz. 1).
48 Verordening (EU) 2017/746 van het Europees Parlement en de Raad van 5 april 2017 betreffende medische hulpmiddelen voor in-vitrodiagnostiek en tot intrekking van Richtlijn 98/79/EG en Besluit 2010/227/EU van de Commissie (PB L 117 van 5.5.2017, blz. 176).
Amendement 60 Voorstel voor een verordening Overweging 32
(32) Autonome AI-systemen, d.w.z. andere AI-systemen met een hoog risico dan die welke veiligheidscomponenten van producten zijn of die zelf producten zijn, moeten als AI-systemen met een hoog risico worden aangemerkt indien zij, gelet op het beoogde doel, een hoog risico inhouden op schade aan de gezondheid en de veiligheid of aan de grondrechten van personen, rekening houdend met zowel de ernst van de mogelijke schade als de waarschijnlijkheid dat deze zich voordoet, en indien zij worden gebruikt op een aantal in de verordening beschreven, specifieke en vooraf bepaalde gebieden. Dergelijk systemen worden geïdentificeerd op basis van dezelfde methode en criteria die ook voor eventuele toekomstige wijzigingen van de lijst van AI-systemen met een hoog risico worden gehanteerd.
(32) Autonome AI-systemen, d.w.z. andere AI-systemen met een hoog risico dan die welke veiligheidscomponenten van producten zijn of die zelf producten zijn, en die opgenomen zijn in een van de gebieden en typen gebruik in bijlage III, moeten als AI-systemen met een hoog risico worden aangemerkt indien zij, gelet op het beoogde doel, een significant risico inhouden op schade aan de gezondheid en de veiligheid of aan de grondrechten van personen en, wanneer het AI-systeem wordt gebruikt als veiligheidscomponent van een kritieke infrastructuur, aan het milieu. Een dergelijk significant risico op schade moet worden vastgesteld door beoordeling van enerzijds het effect van een dergelijk risico met betrekking tot het geheel van de ernst, intensiteit, waarschijnlijkheid en duur hiervan, en anderzijds de mogelijke gevolgen van het risico voor een individu, meerdere personen of een bepaalde groep personen. Een dergelijke combinatie kan bijvoorbeeld leiden tot een grote ernst, maar een geringe waarschijnlijkheid dat een natuurlijke persoon wordt getroffen, of een grote waarschijnlijkheid dat een groep personen over een lange periode met een geringe intensiteit wordt getroffen, afhankelijk van de context. Dergelijk systemen worden geïdentificeerd op basis van dezelfde methode en criteria die ook voor eventuele toekomstige wijzigingen van de lijst van AI-systemen met een hoog risico worden gehanteerd.
Amendement 61 Voorstel voor een verordening Overweging 32 bis (nieuw)
(32 bis) Aanbieders van AI-systemen die onder een van de in bijlage III vermelde gebieden en typen gebruik vallen en die van mening zijn dat hun systeem geen significant risico vormt op schade voor de gezondheid, de veiligheid, de grondrechten of het milieu, moeten de nationale toezichthoudende autoriteiten daarvan in kennis stellen door een met redenen omklede kennisgeving in te dienen. Deze kennisgeving kan de vorm aannemen van een samenvatting van één bladzijde van de relevante informatie over het desbetreffende AI-systeem, met inbegrip van het beoogde doel ervan en de reden waarom het geen significant risico op schade voor de gezondheid, de veiligheid, de grondrechten of het milieu zou opleveren. De Commissie moet criteria specificeren aan de hand waarvan ondernemingen kunnen beoordelen of hun systeem dergelijke risico’s met zich meebrengt, en een gebruiksvriendelijk en gestandaardiseerd model voor de kennisgeving ontwikkelen. Aanbieders moeten de kennisgeving zo vroeg mogelijk indienen en in elk geval voorafgaand aan het in de handel brengen of in gebruik stellen van het AI-systeem, idealiter in de ontwikkelingsfase, en zij moeten de vrijheid hebben om het systeem op elk moment na de kennisgeving in de handel te brengen. Indien de autoriteit echter van oordeel is dat het desbetreffende AI-systeem verkeerd is geclassificeerd, moet zij binnen een termijn van drie maanden bezwaar maken tegen de kennisgeving. Het bezwaar moet worden onderbouwd en er moet naar behoren in worden toegelicht waarom het AI-systeem verkeerd is geclassificeerd. De aanbieder moet het recht behouden om in beroep te gaan door verdere argumenten aan te voeren. Indien na de termijn van drie maanden geen bezwaar tegen de kennisgeving is gemaakt, kunnen de nationale toezichthoudende autoriteiten nog steeds ingrijpen als het AI-systeem op nationaal niveau een risico vormt, zoals voor elk ander AI-systeem op de markt. De nationale toezichthoudende autoriteiten moeten bij het AI-bureau jaarverslagen indienen waarin de ontvangen kennisgevingen en de genomen besluiten worden beschreven.
Amendement 62 Voorstel voor een verordening Overweging 33
(33) Technische onnauwkeurigheden van AI-systemen voor de biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten leiden en discriminerende effecten met zich meebrengen. Dit is met name relevant wanneer het gaat om leeftijd, etniciteit, geslacht of handicaps. Daarom moeten biometrische systemen voor identificatie op afstand “in realtime” en “achteraf” als systemen met een hoog risico worden aangemerkt. Gezien de risico’s die zij inhouden, moeten voor beide soorten systemen voor biometrische identificatie op afstand specifieke eisen inzake menselijk toezicht en het bijhouden van logbestanden gelden.
Schrappen
Amendement 63 Voorstel voor een verordening Overweging 33 bis (nieuw)
(33 bis) Aangezien biometrische gegevens een bijzondere categorie gevoelige persoonsgegevens vormen overeenkomstig Verordening (EU) 2016/679, is het passend verschillende kritieke typen gebruik van biometrische en op biometrie gebaseerde systemen als zeer risicovol te classificeren. AI-systemen die zijn bedoeld om te worden gebruikt voor biometrische identificatie van natuurlijke personen en AI-systemen die zijn bedoeld om conclusies te trekken over de persoonlijke kenmerken van natuurlijke personen op basis van biometrische of op biometrie gebaseerde gegevens, met inbegrip van systemen voor het herkennen van emoties, met uitzondering van die welke krachtens deze verordening verboden zijn, moeten daarom als AI-systemen met een hoog risico worden geclassificeerd. Hiervan moeten AI-systemen worden uitgesloten die zijn bedoeld om te worden gebruikt voor biometrische verificatie met inbegrip van authenticatie die uitsluitend tot doel hebben te bevestigen dat een specifieke natuurlijke persoon daadwerkelijk de persoon is die hij of zij beweert te zijn, en die worden gebruikt om de identiteit van een natuurlijke persoon te bevestigen met als enig doel toegang te hebben tot een dienst, een apparaat of een locatie (één-op-éénverificatie). Biometrische en op biometrie gebaseerde systemen waarin het Unierecht voorziet om maatregelen op het gebied van cyberbeveiliging en de bescherming van persoonsgegevens mogelijk te maken, mogen niet worden beschouwd als systemen die een significant risico inhouden op schade aan de gezondheid, de veiligheid en de grondrechten.
Amendement 64 Voorstel voor een verordening Overweging 34
(34) Met betrekking tot het beheer en de exploitatie van kritieke infrastructuur is het passend om AI-systemen die moeten worden gebruikt als veiligheidscomponenten in het beheer en de exploitatie van het wegverkeer en de water-, gas-, verwarmings- en elektriciteitsvoorziening als systemen met een hoog risico te classificeren, aangezien het falen of gebrekkig functioneren hiervan een grootschalig risico kan opleveren voor het leven en de gezondheid van personen en normale sociale en economische activiteiten aanzienlijk kan verstoren.
(34) Met betrekking tot het beheer en de exploitatie van kritieke infrastructuur is het passend om AI-systemen die moeten worden gebruikt als veiligheidscomponenten in het beheer en de exploitatie van de water-, gas-, verwarmings- en elektriciteitsvoorziening en kritieke digitale infrastructuur als systemen met een hoog risico te classificeren, aangezien het falen of gebrekkig functioneren hiervan gevolgen kan hebben voor de beveiliging en integriteit van dergelijke kritieke infrastructuur of een grootschalig risico kan opleveren voor het leven en de gezondheid van personen en normale sociale en economische activiteiten aanzienlijk kan verstoren. Veiligheidscomponenten van kritieke infrastructuur, met inbegrip van kritieke digitale infrastructuur, zijn systemen die worden gebruikt om de fysieke integriteit van kritieke infrastructuur of de gezondheid en veiligheid van personen en eigendommen rechtstreeks te beschermen. Het falen of slecht functioneren van dergelijke componenten kan direct leiden tot risico’s voor de fysieke integriteit van kritieke infrastructuur en dus tot risico’s voor de gezondheid en veiligheid van personen en eigendommen. Componenten die uitsluitend voor cyberbeveiligingsdoeleinden zijn bestemd, mogen niet als veiligheidscomponenten worden aangemerkt. Voorbeelden van dergelijke veiligheidscomponenten zijn systemen voor de monitoring van de waterdruk of brandalarminstallaties in datacentra voor cloud computing.
Amendement 65 Voorstel voor een verordening Overweging 35
(35) AI-systemen die in het onderwijs of voor beroepsopleidingen worden gebruikt, in het bijzonder voor het verlenen van toegang of het toewijzen van personen aan instellingen voor onderwijs of beroepsopleidingen of voor het evalueren van personen aan de hand van tests of als voorwaarde voor hun onderwijs, moeten als systemen met een hoog risico worden beschouwd, aangezien zij bepalend kunnen zijn voor het onderwijs en de carrière van personen en derhalve voor hun vermogen om in hun levensonderhoud te voorzien. Wanneer dergelijke systemen op ondeugdelijke wijze zijn ontworpen en worden gebruikt, kunnen zij in strijd zijn met het recht op onderwijs en opleiding, alsook met het recht niet te worden gediscrimineerd, en kunnen historische patronen van discriminatie in stand worden gehouden.
(35) De invoering van AI-systemen in het onderwijs is belangrijk om bij te dragen tot de modernisering van volledige onderwijsstelsels, om de kwaliteit van het onderwijs zowel offline als online te verbeteren en om de ontwikkeling van digitaal onderwijs te versnellen en het daarmee ook voor een breder publiek beschikbaar te maken. AI-systemen die in het onderwijs of voor beroepsopleidingen worden gebruikt, in het bijzonder voor het verlenen van toegang of het uitoefenen van wezenlijke invloed op besluiten over het toelaten of het toewijzen van personen aan instellingen voor onderwijs of beroepsopleidingen of voor het evalueren van personen aan de hand van tests of als voorwaarde voor hun onderwijs of voor de beoordeling van het passende onderwijsniveau voor een persoon en het uitoefenen van wezenlijke invloed op het onderwijsniveau waar die persoon de beschikking over zal hebben of toegang tot kan krijgen of voor het monitoren en opsporen van ongeoorloofd gedrag van studenten tijdens tests, moeten als systemen met een hoog risico worden beschouwd, aangezien zij bepalend kunnen zijn voor het onderwijs en de carrière van personen en derhalve voor hun vermogen om in hun levensonderhoud te voorzien. Wanneer dergelijke systemen op ondeugdelijke wijze zijn ontworpen en worden gebruikt, kunnen zij bijzonder ingrijpend zijn en in strijd zijn met het recht op onderwijs en opleiding, alsook met het recht niet te worden gediscrimineerd, en kunnen historische patronen van discriminatie in stand worden gehouden, bijvoorbeeld ten nadele van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid.
Amendement 66 Voorstel voor een verordening Overweging 36
(36) AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de aanwerving en selectie van personen, voor het nemen van besluiten over de promotie en het ontslag en voor de toewijzing van taken, de monitoring of de evaluatie van personen in werkgerelateerde contractuele betrekkingen, moeten ook als systemen met een hoog risico worden geclassificeerd, aangezien deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen. Relevante werkgerelateerde contractuele betrekkingen moeten werknemers en personen omvatten die via platforms diensten verlenen, zoals bedoeld in het werkprogramma van de Commissie voor 2021. Deze personen worden in beginsel niet beschouwd als gebruikers in de zin van deze verordening. Dergelijke systemen kunnen er in het aanwervingsproces en bij de evaluatie, de promotie of het behoud van personen in werkgerelateerde contractuele betrekkingen toe leiden dat historische patronen van discriminatie blijven bestaan, bijvoorbeeld van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid. AI-systemen die worden gebruikt om de prestaties en het gedrag van deze personen te monitoren, kunnen ook gevolgen hebben voor hun rechten op gegevensbescherming en privacy.
(36) AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de aanwerving en selectie van personen, voor het nemen van besluiten of het uitoefenen van wezenlijke invloed op de aanstelling, de promotie en het ontslag en voor de gepersonaliseerde toewijzing van taken op basis van individueel gedrag, persoonlijke of biometrische gegevens, de monitoring of de evaluatie van personen in werkgerelateerde contractuele betrekkingen, moeten ook als systemen met een hoog risico worden geclassificeerd, aangezien deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen en de rechten van werknemers. Relevante werkgerelateerde contractuele betrekkingen moeten op zinvolle wijze werknemers en personen omvatten die via platforms diensten verlenen, zoals bedoeld in het werkprogramma van de Commissie voor 2021. Dergelijke systemen kunnen er in het aanwervingsproces en bij de evaluatie, de promotie of het behoud van personen in werkgerelateerde contractuele betrekkingen toe leiden dat historische patronen van discriminatie blijven bestaan, bijvoorbeeld van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid. AI-systemen die worden gebruikt om de prestaties en het gedrag van deze personen te monitoren, kunnen ook de essentie ondermijnen van hun grondrechten op gegevensbescherming en privacy. Deze verordening is van toepassing onverminderd de bevoegdheden van de Unie en de lidstaten om te voorzien in meer specifieke regels voor het gebruik van AI-systemen in het kader van de arbeidsverhouding.
Amendement 67 Voorstel voor een verordening Overweging 37
(37) Een ander gebied waarop het gebruik van AI-systemen bijzondere aandacht verdient, is de toegang tot en het gebruik van bepaalde essentiële particuliere en openbare diensten en uitkeringen die noodzakelijk zijn voor de volledige deelname van personen aan de samenleving of voor het verbeteren van de levensstandaard. In het bijzonder moeten AI-systemen die worden gebruikt om de kredietscore of de kredietwaardigheid van natuurlijke personen te evalueren, worden geclassificeerd als AI-systemen met een hoog risico, aangezien zij bepalend zijn voor de toegang van deze personen tot financiële middelen of essentiële diensten zoals huisvesting, elektriciteit en telecommunicatiediensten. AI-systemen die voor dit doel worden gebruikt, kunnen leiden tot de discriminatie van personen of groepen en historische patronen van discriminatie in stand houden, bijvoorbeeld op basis van raciale of etnische afkomst, handicap, leeftijd of seksuele gerichtheid, of leiden tot nieuwe soorten discriminerende effecten. Gezien de zeer beperkte omvang van de gevolgen en de op de markt beschikbare alternatieven, is het passend om AI-systemen voor de beoordeling van de kredietwaardigheid en kredietscore uit te sluiten wanneer zij door kleine aanbieders voor eigen gebruik in gebruik worden gesteld. Natuurlijke personen die openbare uitkeringen en diensten van overheidsinstanties aanvragen of ontvangen, zijn normaal gesproken afhankelijk van deze uitkeringen en diensten en verkeren in een kwetsbare positie ten opzichte van de verantwoordelijke instanties. Wanneer AI-systemen worden gebruikt om te bepalen of dergelijke uitkeringen en diensten moeten worden geweigerd, beperkt, ingetrokken of teruggevorderd door de instanties, kunnen zij aanzienlijke effecten hebben op het levensonderhoud van personen en in strijd zijn met hun grondrechten, zoals het recht op sociale bescherming, non-discriminatie, menselijke waardigheid of een doeltreffende voorziening in rechte. Deze systemen moeten daarom als systemen met een hoog risico worden geclassificeerd. De verordening mag echter niet leiden tot een belemmering van de ontwikkeling en het gebruik van innovatieve benaderingen bij de overheid, die zou profiteren van een breder gebruik van conforme en veilige AI-systemen, mits deze systemen geen hoog risico met zich meebrengen voor rechtspersonen en natuurlijke personen. Tot slot moeten AI-systemen die worden gebruikt om hulpdiensten uit te sturen of hierbij voorrang te verlenen, ook worden geclassificeerd als systemen met een hoog risico, omdat zij besluiten nemen wanneer het leven en de gezondheid van personen en hun eigendom zich in zeer kritieke situaties bevinden.
(37) Een ander gebied waarop het gebruik van AI-systemen bijzondere aandacht verdient, is de toegang tot en het gebruik van bepaalde essentiële particuliere en openbare diensten, waaronder de gezondheidszorg en essentiële diensten, met inbegrip van, maar niet beperkt tot huisvesting, elektriciteit, verwarming/koeling en internet, en uitkeringen die noodzakelijk zijn voor de volledige deelname van personen aan de samenleving of voor het verbeteren van de levensstandaard. In het bijzonder moeten AI-systemen die worden gebruikt om de kredietscore of de kredietwaardigheid van natuurlijke personen te evalueren, worden geclassificeerd als AI-systemen met een hoog risico, aangezien zij bepalend zijn voor de toegang van deze personen tot financiële middelen of essentiële diensten zoals huisvesting, elektriciteit en telecommunicatiediensten. AI-systemen die voor dit doel worden gebruikt, kunnen leiden tot de discriminatie van personen of groepen en historische patronen van discriminatie in stand houden, bijvoorbeeld op basis van raciale of etnische afkomst, gender, handicap, leeftijd of seksuele gerichtheid, of leiden tot nieuwe soorten discriminerende effecten. AI-systemen waarin het Unierecht voorziet om fraude bij het aanbieden van financiële diensten op te sporen, mogen echter niet worden beschouwd als AI-systemen met een hoog risico uit hoofde van deze verordening. Natuurlijke personen die openbare uitkeringen en diensten van overheidsinstanties aanvragen of ontvangen, waaronder gezondheidszorg en essentiële diensten, met inbegrip van, maar niet beperkt tot huisvesting, elektriciteit, verwarming/koeling en internet, zijn normaal gesproken afhankelijk van deze uitkeringen en diensten en verkeren in een kwetsbare positie ten opzichte van de verantwoordelijke instanties. Wanneer AI-systemen worden gebruikt om te bepalen of dergelijke uitkeringen en diensten moeten worden geweigerd, beperkt, ingetrokken of teruggevorderd door de instanties, kunnen zij aanzienlijke effecten hebben op het levensonderhoud van personen en in strijd zijn met hun grondrechten, zoals het recht op sociale bescherming, non-discriminatie, menselijke waardigheid of een doeltreffende voorziening in rechte. Evenzo kunnen AI-systemen die bedoeld zijn om te worden gebruikt om beslissingen te nemen of besluiten wezenlijk te beïnvloeden over de vraag of natuurlijke personen in aanmerking komen voor een ziektekosten- en levensverzekering, aanzienlijke gevolgen hebben voor het levensonderhoud van personen en hun grondrechten schenden, bijvoorbeeld door de toegang tot gezondheidszorg te beperken of door discriminatie op grond van persoonlijke kenmerken te bestendigen. Deze systemen moeten daarom als systemen met een hoog risico worden geclassificeerd. De verordening mag echter niet leiden tot een belemmering van de ontwikkeling en het gebruik van innovatieve benaderingen bij de overheid, die zou profiteren van een breder gebruik van conforme en veilige AI-systemen, mits deze systemen geen hoog risico met zich meebrengen voor rechtspersonen en natuurlijke personen. Tot slot moeten AI-systemen die worden gebruikt voor het evalueren en classificeren van noodoproepen van natuurlijke personen of om hulpdiensten uit te sturen of hierbij voorrang te verlenen, ook worden geclassificeerd als systemen met een hoog risico, omdat zij besluiten nemen wanneer het leven en de gezondheid van personen en hun eigendom zich in zeer kritieke situaties bevinden.
Amendement 68 Voorstel voor een verordening Overweging 37 bis (nieuw)
(37 bis) Gezien de rol en de verantwoordelijkheid van de politiële en justitiële autoriteiten en het effect van de beslissingen die zij nemen met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten en de tenuitvoerlegging van straffen, moet sommige specifieke typen gebruik van AI-toepassingen bij rechtshandhaving als risicovol worden aangemerkt, met name in gevallen waarin het leven of de grondrechten van personen aanzienlijk kunnen worden beïnvloed.
Amendement 69 Voorstel voor een verordening Overweging 38
(38) Maatregelen van rechtshandhavingsinstanties waarbij bepaalde toepassingen van AI-systemen worden gebruikt, worden gekenmerkt door een aanzienlijke mate van machtsverschillen en kunnen leiden tot de controle, de arrestatie of de vrijheidsberoving van natuurlijke personen, alsook tot andere negatieve effecten voor de grondrechten die door het Handvest worden gewaarborgd. Met name wanneer het AI-systeem niet is getraind met kwalitatief hoogwaardige data, niet voldoet aan toereikende voorschriften wat betreft de nauwkeurigheid of robuustheid ervan of niet goed is ontworpen en getest voordat het in de handel is gebracht of anderszins in gebruik is gesteld, kan het personen op discriminerende wijze of anderszins onjuiste of onrechtvaardige wijze aanduiden. Bovendien kan de uitoefening van belangrijke procedurele grondrechten, zoals het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, evenals de rechten van de verdediging en het vermoeden van onschuld, worden belemmerd, met name wanneer dergelijke AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd zijn. Het is daarom passend om een aantal AI-systemen dat bedoeld is voor gebruik in de context van rechtshandhaving, waar nauwkeurigheid, betrouwbaarheid en transparantie bijzonder belangrijk zijn om negatieve effecten te voorkomen, het vertrouwen van het publiek te behouden en de verantwoording en doeltreffende voorziening in rechte te waarborgen, als systemen met een hoog risico te classificeren. Met het oog op de aard van de activiteiten in kwestie en de hieraan gerelateerde risico’s moeten deze AI-systemen met een hoog risico met name AI-systemen omvatten die bedoeld zijn om door rechtshandhavingsinstanties te worden gebruikt voor individuele risicobeoordelingen, leugendetectortests en vergelijkbare instrumenten of om de gemoedstoestand van natuurlijke personen te bepalen, om “deep fakes” op te sporen, om de betrouwbaarheid van bewijs in strafprocedures te evalueren, om het plegen of opnieuw plegen van een daadwerkelijk of potentieel strafbaar feit te voorspellen op basis van de profilering van natuurlijke personen, om persoonlijkheidskenmerken of eerder crimineel gedrag van natuurlijke personen of groepen te beoordelen, voor de profilering in de loop van de opsporing, het onderzoek of de vervolging van strafbare feiten, evenals voor misdaadanalyses met betrekking tot natuurlijke personen. AI-systemen die specifiek bedoeld zijn voor gebruik voor administratieve procedures van belasting- en douaneautoriteiten moeten niet worden aangemerkt als AI-systemen met een hoog risico die worden gebruikt door rechtshandhavingsinstanties met het oog op het voorkomen, opsporen, onderzoeken en vervolgen van strafbare feiten.
(38) Maatregelen van rechtshandhavingsinstanties waarbij bepaalde toepassingen van AI-systemen worden gebruikt, worden gekenmerkt door een aanzienlijke mate van machtsverschillen en kunnen leiden tot de controle, de arrestatie of de vrijheidsberoving van natuurlijke personen, alsook tot andere negatieve effecten voor de grondrechten die door het Handvest worden gewaarborgd. Met name wanneer het AI-systeem niet is getraind met kwalitatief hoogwaardige data, niet voldoet aan toereikende voorschriften wat betreft de prestaties, de nauwkeurigheid of robuustheid ervan of niet goed is ontworpen en getest voordat het in de handel is gebracht of anderszins in gebruik is gesteld, kan het personen op discriminerende wijze of anderszins onjuiste of onrechtvaardige wijze aanduiden. Bovendien kan de uitoefening van belangrijke procedurele grondrechten, zoals het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, evenals de rechten van de verdediging en het vermoeden van onschuld, worden belemmerd, met name wanneer dergelijke AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd zijn. Het is daarom passend om een aantal AI-systemen dat bedoeld is voor gebruik in de context van rechtshandhaving, waar nauwkeurigheid, betrouwbaarheid en transparantie bijzonder belangrijk zijn om negatieve effecten te voorkomen, het vertrouwen van het publiek te behouden en de verantwoording en doeltreffende voorziening in rechte te waarborgen, als systemen met een hoog risico te classificeren. Met het oog op de aard van de activiteiten in kwestie en de hieraan gerelateerde risico’s moeten deze AI-systemen met een hoog risico met name AI-systemen omvatten die bedoeld zijn om door of namens rechtshandhavingsinstanties of instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsautoriteiten te worden gebruikt voor leugendetectortests en vergelijkbare instrumenten, voor zover het gebruik daarvan op grond van de toepasselijke Unie- of nationale wetgeving is toegestaan, om de betrouwbaarheid van bewijs in strafprocedures te evalueren, voor de profilering in de loop van de opsporing, het onderzoek of de vervolging van strafbare feiten, evenals voor misdaadanalyses met betrekking tot natuurlijke personen. AI-systemen die specifiek bedoeld zijn voor gebruik voor administratieve procedures van belasting- en douaneautoriteiten moeten niet worden geclassificeerd als AI-systemen met een hoog risico die worden gebruikt door rechtshandhavingsinstanties met het oog op het voorkomen, opsporen, onderzoeken en vervolgen van strafbare feiten. Het gebruik van AI-instrumenten door rechtshandhavings- en justitiële autoriteiten mag geen factor van ongelijkheid, sociale breuken of uitsluiting worden. De gevolgen van het gebruik van AI-instrumenten voor de rechten van verdediging van verdachten mogen niet genegeerd worden, met name het probleem om betekenisvolle informatie over de werking daarvan te verkrijgen, en het daaruit voortvloeiende probleem om de resultaten daarvan voor de rechtbank aan te vechten, met name door personen tegen wie een onderzoek loopt.
Amendement 70 Voorstel voor een verordening Overweging 39
(39) AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door de bevoegde overheidsinstanties die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, of om de gemoedstoestand van natuurlijke personen te bepalen, om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen, om de echtheid te controleren van de relevante documenten van natuurlijke personen. om bevoegde overheidsinstanties bij te staan die aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten behandelen met betrekking tot de doelstelling om vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad49, Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad50 en andere relevante wetgeving.
(39) AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door of namens de bevoegde overheidsinstanties of instellingen, organen of instanties van de Unie die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, voor zover het gebruik daarvan in het kader van Unie- en nationale wetgeving is toegestaan, om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen; om de echtheid te controleren van de relevante documenten van natuurlijke personen; om bevoegde overheidsinstanties bij te staan bij het onderzoek naar en de beoordeling van de waarheidsgetrouwheid van bewijsmateriaal en verklaringen met betrekking tot aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten met betrekking tot de doelstelling om vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen; voor het monitoren, bewaken of verwerken van persoonsgegevens in het kader van grensbeheeractiviteiten, met het oog op het opsporen, herkennen of identificeren van natuurlijke personen; ten behoeve van prognoses of voorspellingen van trends op het gebied van migratiebewegingen en grensoverschrijdingen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad49, Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad50 en andere relevante wetgeving. Het gebruik van AI-systemen bij het beheer van migratie, asiel en grenscontroles mag in geen geval door de lidstaten of de instellingen, organen of instanties van de Unie worden gebruikt als middel om hun internationale verplichtingen uit hoofde van het Verdrag betreffende de status van vluchtelingen van 28 juli 1951, zoals gewijzigd bij het Protocol van 31 januari 1967, te omzeilen, noch om op enigerlei wijze inbreuk te maken op het beginsel van non-refoulement of om veilige en doeltreffende legale wegen naar het grondgebied van de Unie te ontzeggen, met inbegrip van het recht op internationale bescherming.
__________________
__________________
49 Richtlijn 2013/32/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende gemeenschappelijke procedures voor de toekenning en intrekking van de internationale bescherming (PB L 180 van 29.6.2013, blz. 60).
49 Richtlijn 2013/32/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende gemeenschappelijke procedures voor de toekenning en intrekking van de internationale bescherming (PB L 180 van 29.6.2013, blz. 60).
50 Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad van 13 juli 2009 tot vaststelling van een gemeenschappelijke visumcode (Visumcode) (PB L 243 van 15.9.2009, blz. 1).
50 Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad van 13 juli 2009 tot vaststelling van een gemeenschappelijke visumcode (Visumcode) (PB L 243 van 15.9.2009, blz. 1).
Amendement 71 Voorstel voor een verordening Overweging 40
(40) Bepaalde AI-systemen die bedoeld zijn voor de rechtsbedeling en democratische processen moeten als systemen met een hoog risico worden geclassificeerd gezien hun mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht. Om de risico’s van potentiële vertekeningen, fouten en ondoorzichtigheid aan te pakken, is het met name passend om AI-systemen die bedoeld zijn voor de ondersteuning van gerechtelijke autoriteiten bij het onderzoeken en uitleggen van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, als systemen met een hoog risico aan te merken. Een dergelijke aanmerking omvat echter geen AI-systemen die bedoeld zijn voor louter ondersteunende administratieve activiteiten die geen gevolgen hebben voor de daadwerkelijke rechtsbedeling in afzonderlijke zaken, zoals de anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of data, de communicatie tussen personeelsleden, administratieve taken of de toewijzing van middelen.
(40) Bepaalde AI-systemen die bedoeld zijn voor de rechtsbedeling en democratische processen moeten als systemen met een hoog risico worden geclassificeerd gezien hun mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht. Om de risico’s van potentiële vertekeningen, fouten en ondoorzichtigheid aan te pakken, is het met name passend om AI-systemen die bedoeld zijn om te worden gebruikt door of namens een rechterlijke instantie of een administratief orgaan voor de ondersteuning van gerechtelijke autoriteiten of administratieve organen bij het onderzoeken en uitleggen van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, of op vergelijkbare wijze kunnen worden gebruikt in het kader van alternatieve geschillenbeslechting, als systemen met een hoog risico aan te merken. Het gebruik van instrumenten op het gebied van artificiële intelligentie kan ondersteuning bieden, maar mag de beslissingsbevoegdheid van rechters of de onafhankelijkheid van de rechterlijke macht niet doorkruisen, aangezien de uiteindelijke besluitvorming een door de mens aangestuurde activiteit en beslissing moet blijven. Een dergelijke aanmerking omvat echter geen AI-systemen die bedoeld zijn voor louter ondersteunende administratieve activiteiten die geen gevolgen hebben voor de daadwerkelijke rechtsbedeling in afzonderlijke zaken, zoals de anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of data, de communicatie tussen personeelsleden, administratieve taken of de toewijzing van middelen.
Amendement 72 Voorstel voor een verordening Overweging 40 bis (nieuw)
(40 bis) Om de risico’s van ongepaste externe inmenging van buitenaf in het in artikel 39 van het Handvest verankerde stemrecht en van onevenredige gevolgen voor democratische processen, democratie en de rechtsstaat aan te pakken, moeten AI-systemen die bedoeld zijn om de uitslag van een verkiezing of referendum of het stemgedrag van natuurlijke personen wanneer zij hun stem uitbrengen bij verkiezingen of referenda te beïnvloeden, worden aangemerkt als AI-systemen met een hoog risico, met uitzondering van AI-systemen waarvan de output niet rechtstreeks is gericht op natuurlijke personen, zoals instrumenten voor het organiseren, optimaliseren en structureren van politieke campagnes vanuit administratief en logistiek oogpunt.
Amendement 73 Voorstel voor een verordening Overweging 40 ter (nieuw)
(40 ter) Gezien de mate waarin natuurlijke personen gebruikmaken van de diensten die worden aangeboden door socialemediaplatforms die zijn aangemerkt als zeer grote onlineplatforms, kunnen dergelijke onlineplatforms zodanig worden gebruikt dat de onlineveiligheid, de vorming van de publieke opinie en het publieke debat, verkiezingen, democratische processen en maatschappelijke kwesties sterk worden beïnvloed. Het is daarom passend dat AI-systemen die in de aanbevelingssystemen van deze onlineplatforms worden gebruikt, onder deze verordening vallen, om ervoor te zorgen dat de AI-systemen voldoen aan de in deze verordening neergelegde voorschriften, waaronder de technische voorschriften inzake databeheer, technische documentatie, traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid. De naleving van deze verordening moet bovengenoemde zeer grote onlineplatforms in staat stellen te voldoen aan hun bredere verplichtingen inzake risicobeoordeling en -beperking uit hoofde van de artikelen 34 en 35 van Verordening (EU) 2022/2065. De in deze verordening neergelegde verplichtingen doen geen afbreuk aan Verordening (EU) 2022/2065 en moeten de verplichtingen uit hoofde van Verordening (EU) 2022/2065 aanvullen wanneer socialemediaplatforms als zeer grote onlineplatforms zijn aangemerkt. Gezien de Uniebrede impact van socialemediaplatforms die als zeer grote onlineplatforms zijn aangemerkt, moeten de op grond van Verordening (EU) 2022/2065 aangewezen autoriteiten met het oog op de handhaving van deze bepaling optreden als handhavingsautoriteiten.
Amendement 74 Voorstel voor een verordening Overweging 41
(41) Het feit dat een AI-systeem uit hoofde van deze verordening als systeem met een hoog risico is geclassificeerd, mag niet aldus worden uitgelegd dat het gebruik van het systeem noodzakelijkerwijs rechtmatig is op grond van andere handelingen van het Unierecht of op grond van intern recht dat verenigbaar is met het Unierecht, zoals met betrekking tot de bescherming van de persoonsgegevens, het gebruik van leugendetectors en vergelijkbare instrumenten of andere systemen voor het bepalen van de gemoedstoestand van natuurlijke personen. Een dergelijk gebruik mag nog steeds uitsluitend plaatsvinden in overeenstemming met de toepasselijke voorschriften die voortvloeien uit het Handvest en de toepasselijke handelingen van secundair Unierecht en intern recht. Deze verordening mag niet aldus worden uitgelegd dat zij voorziet in de rechtsgrondslag voor de verwerking van persoonsgegevens, met inbegrip van bijzondere categorieën persoonsgegevens, waar van toepassing.
(41) Het feit dat een AI-systeem uit hoofde van deze verordening als AI-systeem met een hoog risico is geclassificeerd, mag niet aldus worden uitgelegd dat het gebruik van het systeem noodzakelijkerwijs rechtmatig of onrechtmatig is op grond van andere handelingen van het Unierecht of op grond van intern recht dat verenigbaar is met het Unierecht, zoals met betrekking tot de bescherming van de persoonsgegevens. Een dergelijk gebruik mag nog steeds uitsluitend plaatsvinden in overeenstemming met de toepasselijke voorschriften die voortvloeien uit het Handvest en de toepasselijke handelingen van secundair Unierecht en intern recht.
Amendement 75 Voorstel voor een verordening Overweging 41 bis (nieuw)
(41 bis) Er bestaat reeds een aantal juridisch bindende regels op Unie-, nationaal en internationaal niveau dat van toepassing is of betrekking heeft op AI-systemen, waaronder, maar niet beperkt tot, het primair Unierecht (de Verdragen van de Europese Unie en het Handvest van de grondrechten van de Europese Unie), het secundair Unierecht (waaronder de algemene verordening gegevensbescherming, de richtlijn productaansprakelijkheid, de verordening inzake het vrije verkeer van niet-persoonsgebonden gegevens, antidiscriminatierichtlijnen, het consumentenrecht en richtlijnen inzake veiligheid en gezondheid op het werk), de mensenrechtenverdragen van de VN en de verdragen van de Raad van Europa (waaronder het Europees Verdrag tot bescherming van de rechten van de mens), alsook het nationaal recht. Naast horizontaal toepasselijke regels bestaan er ook verschillende domeinspecifieke regels die van toepassing zijn op bepaalde AI-toepassingen (zoals de verordening inzake medische hulpmiddelen in de gezondheidszorg).
Amendement 76 Voorstel voor een verordening Overweging 42
(42) Om de risico’s van AI-systemen met een hoog risico die in de Unie in de handel zijn gebracht of op andere wijze in gebruik zijn gesteld voor gebruikers en betrokken personen te beperken, moeten bepaalde verplichte voorschriften van toepassing zijn, rekening houdend met het beoogde doel van het gebruik van het systeem en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld.
(42) Om de risico’s van AI-systemen met een hoog risico die in de Unie in de handel zijn gebracht of op andere wijze in gebruik zijn gesteld voor exploitanten en betrokken personen te beperken, moeten bepaalde verplichte voorschriften van toepassing zijn, rekening houdend met het beoogde doel en het redelijkerwijs te voorzien misbruik van het systeem, en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld. Deze voorschriften moeten op doelstellingen gebaseerd zijn, geschikt zijn voor het beoogde doel en redelijk en doeltreffend zijn, zonder onnodige extra regeldruk of kosten voor operators.
Amendement 77 Voorstel voor een verordening Overweging 43
(43) Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruikers, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten waarvan in het licht van het beoogde doel van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.
(43) Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit en relevantie van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan exploitanten, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten, alsmede voor het milieu, de democratie en de rechtsstaat, waarvan in het licht van het beoogde doel of redelijkerwijs te voorzien misbruik van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.
Amendement 78 Voorstel voor een verordening Overweging 44
(44) Kwalitatief hoogwaardige data zijn essentieel voor de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datareeksen voor training, validatie en tests vereisen de uitvoering van passende praktijken voor databeheer. datareeksen voor training, validatie en tests moeten voldoende relevant, representatief, foutloos en volledig zijn met het oog op het beoogde doel van het systeem. De datareeksen moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen waarvoor de AI-systemen met een hoog risico moeten worden gebruikt. Ten aanzien van datareeksen voor training, validatie en tests moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, gedrags- of functionele omgeving of context waarin het AI-systeem moet worden gebruikt. Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vertekening (bias) in AI-systemen, moeten aanbieders ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang, teneinde de monitoring, opsporing en correctie van vertekening in verband met AI-systemen met een hoog risico te waarborgen.
(44) Toegang tot kwalitatief hoogwaardige data is van wezenlijk belang voor het bieden van structuur en het waarborgen van de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datareeksen voor training, validatie en tests vereisen de uitvoering van passende praktijken voor databeheer. Datareeksen voor training en, in voorkomend geval, voor validatie en tests, met inbegrip van de etikettering ervan, moeten voldoende relevant, representatief en zo volledig mogelijk zijn en moeten naar behoren worden doorgelicht op fouten met het oog op het beoogde doel van het systeem. De datareeksen moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen in verband met wie de AI-systemen met een hoog risico moeten worden gebruikt, met bijzondere aandacht voor het tegengaan van mogelijke vertekeningen in de datareeksen, die zouden kunnen leiden tot risico’s voor de grondrechten of tot discriminerende uitkomsten voor de personen die de gevolgen ondervinden van het AI-systeem met een hoog risico. Vertekeningen kunnen bijvoorbeeld inherent zijn aan de onderliggende datareeksen, met name wanneer historische gegevens worden gebruikt, die worden ingevoerd door de ontwikkelaars van de algoritmen of gegenereerd wanneer de systemen in reële omgevingen worden toegepast. De resultaten die door AI-systemen worden aangeboden, worden beïnvloed door dergelijke inherente vertekeningen, die vaak geleidelijk groter worden en daarmee bestaande discriminatie bestendigen en verergeren, met name voor personen die tot bepaalde kwetsbare of etnische groepen of tot geracialiseerde gemeenschappen behoren. Ten aanzien van datareeksen voor training, validatie en tests moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, contextuele gedrags- of functionele omgeving of context waarin het AI-systeem moet worden gebruikt. Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vertekening (bias) in AI-systemen, moeten aanbieders, bij wijze van uitzondering en na toepassing van alle toepasselijke voorwaarden die in deze verordening, alsmede in Verordening (EU) 2016/679, Richtlijn (EU) 2016/680 en Verordening (EU) 2018/1725 zijn neergelegd, ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang, teneinde de opsporing en correctie van vertekening in verband met AI-systemen met een hoog risico te waarborgen. Negatieve vertekening moet worden opgevat als vertekening die directe of indirecte discriminerende effecten met zich meebrengt voor een natuurlijke persoon. Aan de voorschriften inzake databeheer kan worden voldaan door een beroep te doen op derden die gecertificeerde nalevingsdiensten aanbieden, waaronder verificatie van databeheer, integriteit van datareeksen, en gegevenstraining, -validatie en -tests.
Amendement 79 Voorstel voor een verordening Overweging 45
(45) Voor de ontwikkeling van AI-systemen met een hoog risico moeten bepaalde actoren, zoals aanbieders, aangemelde instanties en andere relevante entiteiten, zoals digitale-innovatiehubs, faciliteiten voor tests en experimenten en onderzoekers, toegang hebben tot kwalitatief hoogwaardige datareeksen op de gebieden waarop zij activiteiten verrichten die verband houden met deze verordening en hiervan gebruik kunnen maken. Door de Commissie vastgestelde gemeenschappelijke Europese gegevensruimten en de vergemakkelijking van de gegevensuitwisseling tussen ondernemingen en de overheid in het algemeen belang zullen erg belangrijk zijn voor een betrouwbare, toerekenbare en niet-discriminerende toegang tot kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen. Op het gebied van gezondheid zal de Europese ruimte voor gezondheidsgegevens bijvoorbeeld de niet-discriminerende toegang tot gezondheidsgegevens en de training van algoritmen voor artificiële intelligentie aan de hand van deze datareeksen vergemakkelijken op een wijze die de privacy waarborgt en die veilig, tijdig, transparant en betrouwbaar is, met een passend institutioneel beheer. Relevante bevoegde autoriteiten, waaronder sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, kunnen ook steun verlenen voor het verstrekken van kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen.
(45) Voor de ontwikkeling en beoordeling van AI-systemen met een hoog risico moeten bepaalde actoren, zoals aanbieders, aangemelde instanties en andere relevante entiteiten, zoals digitale-innovatiehubs, faciliteiten voor tests en experimenten en onderzoekers, toegang hebben tot kwalitatief hoogwaardige datareeksen op de gebieden waarop zij activiteiten verrichten die verband houden met deze verordening en hiervan gebruik kunnen maken. Door de Commissie vastgestelde gemeenschappelijke Europese gegevensruimten en de vergemakkelijking van de gegevensuitwisseling tussen ondernemingen en de overheid in het algemeen belang zullen erg belangrijk zijn voor een betrouwbare, toerekenbare en niet-discriminerende toegang tot kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen. Op het gebied van gezondheid zal de Europese ruimte voor gezondheidsgegevens bijvoorbeeld de niet-discriminerende toegang tot gezondheidsgegevens en de training van algoritmen voor artificiële intelligentie aan de hand van deze datareeksen vergemakkelijken op een wijze die de privacy waarborgt en die veilig, tijdig, transparant en betrouwbaar is, met een passend institutioneel beheer. Relevante bevoegde autoriteiten, waaronder sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, kunnen ook steun verlenen voor het verstrekken van kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen.
Amendement 80 Voorstel voor een verordening Overweging 45 bis (nieuw)
(45 bis) Het recht op privacy en bescherming van persoonsgegevens moet gedurende de hele levenscyclus van het AI-systeem worden gewaarborgd. In dit verband zijn de beginselen van gegevensminimalisatie en gegevensbescherming door ontwerp en door standaardinstellingen, zoals vastgelegd in de wetgeving van de Unie inzake gegevensbescherming, essentieel in gevallen waarin de verwerking van gegevens een significant risico voor de grondrechten van personen met zich meebrengt. Aanbieders en gebruikers van AI-systemen moeten technische en organisatorische maatregelen nemen die in overeenstemming zijn met de stand van de techniek om deze rechten te beschermen. Deze maatregelen moeten niet alleen anonimisering en versleuteling omvatten, maar ook het gebruik van de steeds breder beschikbaar komende technologie die de toepassing van algoritmen op gegevens mogelijk maakt, alsook de vergaring van waardevolle inzichten zonder de uitwisseling van de ruwe of gestructureerde gegevens zelf tussen partijen of het onnodig kopiëren daarvan.
Amendement 81 Voorstel voor een verordening Overweging 46
(46) Informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische informatie moet actueel worden gehouden.
(46) Begrijpelijke informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische documentatie moet gedurende de levenscyclus van het AI-systeem op gepaste wijze actueel worden gehouden. AI-systemen kunnen tijdens hun levenscyclus een groot milieueffect sorteren en een hoog energieverbruik hebben. De door aanbieders opgestelde technische documentatie moet informatie bevatten over het energieverbruik van het AI-systeem, met inbegrip van het verbruik tijdens de ontwikkeling ervan en het verwachte verbruik tijdens het gebruik ervan, zodat de gevolgen van AI-systemen voor het milieu beter kunnen worden bevat. In deze informatie moet rekening worden gehouden met de wetgeving van de Unie en de lidstaten ter zake. De gerapporteerde informatie moet begrijpelijk, vergelijkbaar en verifieerbaar zijn. De Commissie moet daartoe richtsnoeren opstellen inzake een geharmoniseerde methode voor de berekening en rapportage van de desbetreffende informatie. Om ervoor te zorgen dat slechts één document kan bestaan, moeten begrippen en definities met betrekking tot de vereiste documentatie en alle vereiste documentatie in de wetgeving van de Unie ter zake zoveel mogelijk op elkaar worden afgestemd.
Amendement 82 Voorstel voor een verordening Overweging 46 bis (nieuw)
(46 bis) In AI-systemen moet rekening worden gehouden met methoden die in overeenstemming zijn met de stand van de techniek, alsmede met de toepasselijke normen op dit vlak, zodat het energieverbruik, het hulpbronnengebruik en de productie van afval kunnen worden verminderd en de energie-efficiëntie alsook de algehele efficiëntie van het systeem kunnen worden verhoogd. De milieuaspecten van AI-systemen die van belang zijn voor de toepassing van deze verordening zijn het energieverbruik van het AI-systeem in de ontwikkelings-, training- en uitrolfase, en de registratie, rapportage en opslag van deze gegevens. Het ontwerp van AI-systemen moet het mogelijk maken het verbruik van energie en hulpbronnen in elke fase van de ontwikkeling, rapportage en uitrol te meten en te registreren. De monitoring en rapportage van de uitstoot van AI-systemen moeten robuust, transparant, consequent en nauwkeurig zijn. De Commissie moet, met het oog op de uniforme toepassing van deze verordening en de totstandbrenging van een stabiel juridisch ecosysteem voor aanbieders en exploitanten in de eengemaakte markt, gemeenschappelijke specificaties ontwikkelen voor de methodologie, om te voldoen aan de rapportage- en documentatievoorschriften inzake het verbruik van energie en hulpbronnen tijdens de ontwikkeling, het trainen en de uitrol van het AI-systeem. Deze gemeenschappelijke specificaties voor de meetmethoden kunnen een referentiescenario bieden, op basis waarvan de Commissie beter kan beslissen of in de toekomst regelgevingsmaatregelen nodig zullen zijn, na de uitvoering van een effectbeoordeling waarin de bestaande wetgeving in acht wordt genomen.
Amendement 83 Voorstel voor een verordening Overweging 46 ter (nieuw)
(46 ter) Om de doelstellingen van deze verordening te verwezenlijken en bij te dragen tot de milieudoelstellingen van de Unie, zonder de goede werking van de interne markt uit het oog te verliezen, kan het nodig zijn om aanbevelingen en richtsnoeren, en uiteindelijk ook duurzaamheidsstreefcijfers, vast te stellen. Daartoe mag de Commissie een methode ontwikkelen om bij te dragen aan de kernprestatie-indicatoren (KPI’s) en een referentie voor de duurzameontwikkelingsdoelstellingen (Sustainable Development Goals – SDG’s). Het doel moet er in de eerste plaats in bestaan eerlijke vergelijking tussen keuzes bij de uitvoering van AI mogelijk te maken die stimulansen bieden ter bevordering van het gebruik van efficiëntere AI-technologieën om problemen op het gebied van energie en hulpbronnen aan te pakken. Deze verordening moet voorzien in de middelen die nodig zijn om een basisverzameling aan te leggen van gerapporteerde gegevens over de uitstoot van de systemen tijdens de ontwikkelings-, training- en uitrolfase.
Amendement 84 Voorstel voor een verordening Overweging 47 bis (nieuw)
(47 bis) Deze voorschriften inzake transparantie en verklaarbaarheid van AI-beslissingen moeten ook de afschrikkende gevolgen helpen vermijden van digitale asymmetrie en zogenoemde “dark patterns”, die gericht zijn op personen en hun geïnformeerde toestemming.
Amendement 85 Voorstel voor een verordening Overweging 49
(49) AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in overeenstemming met de algemeen erkende stand van de techniek.De mate van nauwkeurigheid en de maatstaven voor de nauwkeurigheid moeten aan de gebruikers worden meegedeeld.
(49) AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in overeenstemming met de algemeen erkende stand van de techniek. De prestatiestatistieken en het verwachte niveau ervan moeten worden gedefinieerd, met als voornaamste doel de risico’s en de negatieve gevolgen van het AI-systeem te beperken. Het verwachte niveau van de prestatiestatistieken moet op een duidelijke, transparante, gemakkelijk begrijpelijke en inzichtelijke manier aan de exploitanten worden meegedeeld. Het opgeven van prestatiestatistieken mag niet worden beschouwd als bewijs van toekomstige niveaus. Er moeten relevante methoden worden gebruikt om ervoor te zorgen dat de niveaus tijdens het gebruik consistent blijven. Er bestaan weliswaar normalisatieorganisaties om normen vast te stellen, maar er is niettemin behoefte aan coördinatie inzake benchmarking om te bepalen hoe deze genormaliseerde voorschriften en kenmerken van AI-systemen moeten worden gemeten. Het Europees Bureau voor artificiële intelligentie (hierna “het AI-bureau”) moet nationale en internationale metrologie- en benchmarkingautoriteiten samenbrengen en niet-bindende richtsnoeren verstrekken inzake de technische aspecten van het meten van het juiste prestatieniveau en de juiste mate van robuustheid.
Amendement 86 Voorstel voor een verordening Overweging 50
(50) De technische robuustheid is een essentieel voorschrift voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen risico’s in verband met de beperkingen van het systeem (bv. fouten, onregelmatigheden, onverwachte situaties) en tegen kwaadwillige acties die de beveiliging van het AI-systeem in gevaar kunnen brengen en kunnen leiden tot schadelijk of anderszins ongewenst gedrag. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd.
(50) De technische robuustheid is een essentieel voorschrift voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen risico’s in verband met de beperkingen van het systeem (bv. fouten, onregelmatigheden, onverwachte situaties) en tegen kwaadwillige acties die de beveiliging van het AI-systeem in gevaar kunnen brengen en kunnen leiden tot schadelijk of anderszins ongewenst gedrag. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd. Gebruikers van het AI-systeem moeten stappen ondernemen om ervoor te zorgen dat de mogelijke afweging tussen robuustheid en nauwkeurigheid niet leidt tot discriminerende of negatieve resultaten voor subgroepen van minderheden.
Amendement 87 Voorstel voor een verordening Overweging 51
(51) Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals datareeksen voor training (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico derhalve passende maatregelen nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur.
(51) Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals datareeksen voor training (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen of aanvallen om vertrouwelijke gegevens te bemachtigen), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico, alsmede de aangemelde instanties, bevoegde nationale autoriteiten en autoriteiten voor markttoezicht, derhalve passende maatregelen nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur. AI-systemen met een hoog risico moeten gedurende de hele levenscyclus van het product, of, indien er geen sprake is van afhankelijkheid van een bepaald product, gedurende een door de producent te vermelden periode, worden ondersteund met beveiligingsoplossingen en -patches.
Amendement 88 Voorstel voor een verordening Overweging 53 bis (nieuw)
(53 bis) Als ondertekenaars van het Verdrag van de Verenigde Naties inzake de rechten van personen met een handicap (UNCRPD) zijn de Unie en de lidstaten wettelijk verplicht personen met een handicap te beschermen tegen discriminatie en hun gelijkheid te bevorderen, ervoor te zorgen dat personen met een handicap op voet van gelijkheid met anderen toegang hebben tot informatie- en communicatietechnologieën en -systemen, en de eerbiediging van de privacy van personen met een handicap te waarborgen. Gezien het toenemende belang en gebruik van AI-systemen moet de toepassing van universele ontwerpbeginselen op alle nieuwe technologieën en diensten zorgen voor volledige, gelijke en onbeperkte toegang voor iedereen die mogelijk gevolgen ondervindt van of gebruikmaakt van AI-technologieën, met inbegrip van personen met een handicap, op een manier waarbij ten volle rekening wordt gehouden met hun inherente waardigheid en diversiteit. Het is daarom van essentieel belang dat aanbieders ervoor zorgen dat zij voldoen aan de toegankelijkheidsvoorschriften, alsook aan Richtlijn (EU) 2016/2102 en Richtlijn (EU) 2019/882. Aanbieders moeten ervoor zorgen dat door ontwerp aan deze voorschriften wordt voldaan. De nodige maatregelen moeten daarom zo goed mogelijk in het ontwerp van AI-systemen met een hoog risico worden geïntegreerd.
Amendement 89 Voorstel voor een verordening Overweging 54
(54) De aanbieder moet een gedegen systeem voor kwaliteitsbeheer vaststellen, zorgen voor het doorlopen van de vereiste conformiteitsbeoordelingsprocedure, de relevante documentatie opstellen en een robuust systeem vaststellen voor monitoring na het in de handel brengen. Overheidsinstanties die AI-systemen met een hoog risico in gebruik stellen voor eigen gebruik mogen de regels voor het systeem voor kwaliteitsbeheer goedkeuren en uitvoeren als onderdeel van het systeem voor kwaliteitsbeheer dat, naargelang het geval, op nationaal of regionaal niveau is goedgekeurd, rekening houdend met de specifieke kenmerken van de sector en de competenties en organisatie van de overheidsinstantie in kwestie.
(54) De aanbieder moet een gedegen systeem voor kwaliteitsbeheer vaststellen, zorgen voor het doorlopen van de vereiste conformiteitsbeoordelingsprocedure, de relevante documentatie opstellen en een robuust systeem vaststellen voor monitoring na het in de handel brengen. Van aanbieders die reeds beschikken over systemen voor kwaliteitsbeheer die gebaseerd zijn op normen zoals ISO 9001 of andere relevante normen wordt niet verwacht dat zij een volledig tweede systeem voor kwaliteitsbeheer instellen. In plaats daarvan moeten zij hun bestaande systemen afstemmen op bepaalde aspecten die verband houden met de naleving van bepaalde specifieke voorschriften van deze verordening. Dit moet ook terugkomen in nieuwe normalisatieactiviteiten of -richtsnoeren die de Commissie in dit verband vaststelt. Overheidsinstanties die AI-systemen met een hoog risico in gebruik stellen voor eigen gebruik mogen de regels voor het systeem voor kwaliteitsbeheer goedkeuren en uitvoeren als onderdeel van het systeem voor kwaliteitsbeheer dat, naargelang het geval, op nationaal of regionaal niveau is goedgekeurd, rekening houdend met de specifieke kenmerken van de sector en de competenties en organisatie van de overheidsinstantie in kwestie.
Amendement 90 Voorstel voor een verordening Overweging 56
(56) Om de handhaving van deze verordening mogelijk te maken en te zorgen voor een gelijk speelveld voor exploitanten en rekening houdend met de verschillende vormen waarin digitale producten beschikbaar kunnen worden gemaakt, is het van belang dat onder alle omstandigheden wordt gewaarborgd dat een persoon die in de Unie is gevestigd de autoriteiten alle noodzakelijke informatie kan verstrekken over de conformiteit van een AI-systeem. Voordat zij hun AI-systemen beschikbaar maken in de Unie, wijzen aanbieders die buiten de Unie zijn gevestigd in gevallen waarin geen importeur kan worden vastgesteld derhalve per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.
(56) Om de handhaving van deze verordening mogelijk te maken en te zorgen voor een gelijk speelveld voor operators en rekening houdend met de verschillende vormen waarin digitale producten beschikbaar kunnen worden gemaakt, is het van belang dat onder alle omstandigheden wordt gewaarborgd dat een persoon die in de Unie is gevestigd de autoriteiten alle noodzakelijke informatie kan verstrekken over de conformiteit van een AI-systeem. Voordat zij hun AI-systemen beschikbaar maken in de Unie, wijzen aanbieders die buiten de Unie zijn gevestigd derhalve per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.
Amendement 91 Voorstel voor een verordening Overweging 58
(58) Gezien de aard van AI-systemen en de risico’s voor de veiligheid en de grondrechten die mogelijk gepaard gaan met het gebruik hiervan, onder meer met betrekking tot de noodzaak om een behoorlijke monitoring van de prestaties van een AI-systeem in de praktijk te waarborgen, is het passend om specifieke verantwoordelijkheden voor gebruikers vast te stellen. In het bijzonder moeten gebruikers AI-systemen met een hoog risico gebruiken in overeenstemming met de gebruiksaanwijzingen en moeten, waar passend, bepaalde andere verplichtingen worden vastgesteld met betrekking tot de monitoring van de werking van AI-systemen en met betrekking tot de registratie.
(58) Gezien de aard van AI-systemen en de risico’s voor de veiligheid en de grondrechten die mogelijk gepaard gaan met het gebruik hiervan, onder meer met betrekking tot de noodzaak om een behoorlijke monitoring van de prestaties van een AI-systeem in de praktijk te waarborgen, is het passend om specifieke verantwoordelijkheden voor exploitanten vast te stellen. In het bijzonder moeten exploitanten AI-systemen met een hoog risico gebruiken in overeenstemming met de gebruiksinstructies en moeten, waar passend, bepaalde andere verplichtingen worden vastgesteld met betrekking tot de monitoring van de werking van AI-systemen en met betrekking tot de registratie.
Amendement 92 Voorstel voor een verordening Overweging 58 bis (nieuw)
(58 bis) Hoewel aan AI-systemen verbonden risico’s kunnen voortvloeien uit de manier waarop dergelijke systemen worden ontworpen, kunnen de risico’s ook voortvloeien uit de manier waarop dergelijke AI-systemen worden gebruikt. Exploitanten van AI-systemen met een hoog risico spelen daarom een cruciale rol bij het waarborgen van de bescherming van de grondrechten, in aanvulling op de verplichtingen van de aanbieder bij de ontwikkeling van het AI-systeem. Exploitanten zijn het best in staat om te begrijpen hoe het AI-systeem met een hoog risico concreet zal worden gebruikt en kunnen derhalve potentiële significante risico’s identificeren die niet in de ontwikkelingsfase waren voorzien, dankzij een preciezere kennis van de gebruikscontext, de mensen of groepen mensen die waarschijnlijk zullen worden geraakt, met inbegrip van gemarginaliseerde en kwetsbare groepen. Exploitanten moeten passende beheersstructuren voor dit specifieke gebruik in kaart brengen, zoals regelingen voor menselijk toezicht, klachtenprocedures en beroepsprocedures, omdat keuzes met betrekking tot de beheersstructuren een cruciale rol kunnen spelen bij de beperking van risico’s voor de grondrechten in gevallen van concreet gebruik. Om op efficiënte wijze te waarborgen dat de grondrechten worden beschermd, moet de exploitant van AI-systemen met een hoog risico daarom een effectbeoordeling op het gebied van de grondrechten uitvoeren voordat de systemen in gebruik worden gesteld. De effectbeoordeling moet vergezeld gaan van een gedetailleerd plan dat een beschrijving omvat van de maatregelen of instrumenten die de risico’s voor de grondrechten moeten helpen beperken die uiterlijk op het moment van ingebruikstelling zijn vastgesteld. Als dit plan niet kan worden vastgesteld, mag de exploitant het systeem niet in gebruik stellen. De exploitant stelt de nationale toezichthoudende autoriteit en, zo veel als mogelijk, de betrokken belanghebbenden en vertegenwoordigers van de personen of groepen die waarschijnlijk de gevolgen zullen ondervinden van het AI-systeem, op de hoogte om informatie ter zake te verzamelen die noodzakelijk wordt geacht voor de uitvoering van de effectbeoordeling. Exploitanten worden ertoe aangespoord een samenvatting van hun effectbeoordeling op het gebied van de grondrechten openbaar te maken op hun website. Deze verplichtingen mogen niet gelden voor kmo’s, waarvoor het vanwege een gebrek aan middelen moeilijker kan zijn om een dergelijke raadpleging uit te voeren. Zij moeten er evenwel naar streven bovengenoemde vertegenwoordigers bij het proces te betrekken wanneer zij hun effectbeoordeling op het gebied van de grondrechten uitvoeren. Voorts moeten exploitanten van AI-systemen met een hoog risico die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, alsmede exploitanten die ondernemingen zijn die op grond van Verordening (EU) 2022/1925 zijn aangewezen als poortwachter, met het oog op de potentiële gevolgen en de noodzaak van democratisch toezicht en democratische controle, het gebruik van AI-systemen met een hoog risico in een openbare databank registreren. Andere exploitanten kunnen zich vrijwillig registreren.
Amendement 93 Voorstel voor een verordening Overweging 59
(59) Het is passend om te bepalen dat de gebruiker van het AI-systeem de natuurlijke of rechtspersoon, de overheidsinstantie, het agentschap of een ander orgaan moet zijn die/dat verantwoordelijk is voor het gebruik van het AI-systeem, tenzij het gebruik plaatsvindt in de loop van een persoonlijke, niet-beroepsactiviteit.
(59) Het is passend om te bepalen dat de exploitant van het AI-systeem de natuurlijke of rechtspersoon, de overheidsinstantie, het agentschap of een ander orgaan moet zijn die/dat verantwoordelijk is voor het gebruik van het AI-systeem, tenzij het gebruik plaatsvindt in de loop van een persoonlijke, niet-beroepsactiviteit.
Amendement 94 Voorstel voor een verordening Overweging 60
(60) Gezien de complexiteit van de waardeketen voor artificiële intelligentie moeten relevante derde partijen, en met name de partijen die zijn betrokken bij de verkoop en de levering van de software, softwarehulpmiddelen en -onderdelen, vooraf getrainde modellen en data, of aanbieders van netwerkdiensten waar passend samenwerken met aanbieders en gebruikers om hun naleving van de verplichtingen uit hoofde van deze verordening mogelijk te maken en met de bevoegde autoriteiten zoals vastgesteld in het kader van deze verordening.
(60) Binnen de AI-waardeketen worden vaak door meerdere entiteiten instrumenten en diensten geleverd, alsook onderdelen of processen, die vervolgens door de aanbieder in het AI-systeem worden geïntegreerd, onder meer met betrekking tot de verzameling en de voorverwerking van gegevens, het (opnieuw) trainen, testen en evalueren van modellen, de integratie in software, of andere aspecten van modelontwikkeling. De betrokken entiteiten kunnen hun aanbod direct of indirect commercieel beschikbaar stellen via interfaces, zoals applicatieprogramma-interfaces (API’s), en distribueren in het kader van vrije en open bronlicenties, maar ook steeds vaker door middel van AI-werknemersplatforms, de doorverkoop van getrainde parameters, doe-het-zelf-pakketten voor het bouwen van modellen of het aanbieden van betaalde toegang tot architectuur voor model serving om modellen te ontwikkelen en te trainen. Gezien deze complexiteit van de AI-waardeketen moeten alle relevante derde partijen, en met name de partijen die zijn betrokken bij de ontwikkeling, de verkoop en de commerciële levering van softwarehulpmiddelen, -onderdelen, vooraf getrainde modellen of in het AI-systeem geïntegreerde gegevens, of aanbieders van netwerkdiensten, zonder afbreuk te doen aan hun eigen intellectuele-eigendomsrechten of bedrijfsgeheimen, de vereiste informatie, training of expertise verstrekken en, waar passend, samenwerken met aanbieders om hun controle over alle naleving van de desbetreffende aspecten van het AI-systeem die onder deze verordening vallen, mogelijk te maken. Om kosteneffectief beheer van de AI-waardeketen mogelijk te maken, wordt de mate van controle uitdrukkelijk bekendgemaakt door elke derde partij die instrumenten, diensten, onderdelen of processen levert aan de aanbieder die vervolgens door de aanbieder worden geïntegreerd in het AI-systeem.
Amendement 95 Voorstel voor een verordening Overweging 60 bis (nieuw)
(60 bis) Wanneer een van de partijen een sterkere onderhandelingspositie heeft, bestaat het risico dat die partij haar positie ten nadele van de andere contractpartij gebruikt bij onderhandelingen over de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of over de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen. Dergelijke contractuele onevenwichtigheden zijn met name schadelijk voor micro-, kleine en middelgrote ondernemingen, alsook voor startende ondernemingen, tenzij deze eigendom zijn van of worden uitbesteed door een onderneming die in staat is de onderaannemer op passende wijze te compenseren, aangezien laatstgenoemde geen reële mogelijkheid heeft om over de voorwaarden van de contractuele overeenkomst te onderhandelen en wellicht geen andere keuze heeft dan de “graag of niet”-contractvoorwaarden te aanvaarden. Oneerlijke contractvoorwaarden die de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen regelen, mogen daarom niet bindend zijn voor dergelijke micro-, kleine en middelgrote ondernemingen en startende ondernemingen wanneer de voorwaarden eenzijdig aan deze ondernemingen zijn opgelegd.
Amendement 96 Voorstel voor een verordening Overweging 60 ter (nieuw)
(60 ter) In de regels inzake contractvoorwaarden moet rekening worden gehouden met het beginsel van contractvrijheid als essentieel concept in de relaties tussen ondernemingen. Daarom moeten niet alle contractvoorwaarden aan een oneerlijkheidstoets worden onderworpen, maar alleen voorwaarden die eenzijdig aan micro-, kleine en middelgrote ondernemingen en startende ondernemingen worden opgelegd. Het gaat daarbij om situaties waarin een partij een bepaalde contractvoorwaarde voorstelt en de micro-, kleine of middelgrote onderneming of de startende onderneming geen invloed kan uitoefenen op de inhoud van die voorwaarde, ondanks een poging om erover te onderhandelen. Een contractvoorwaarde die door één partij wordt voorgesteld en door de micro-, kleine of middelgrote onderneming of de startende onderneming is aanvaard, of een voorwaarde waarover is onderhandeld en die vervolgens in gewijzigde vorm tussen de contractpartijen is overeengekomen, mag niet als eenzijdig opgelegd worden beschouwd.
Amendement 97 Voorstel voor een verordening Overweging 60 quater (nieuw)
(60 quater) Voorts moeten de regels inzake oneerlijke contractvoorwaarden alleen van toepassing zijn op de elementen van contracten die betrekking hebben op de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of op de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen. Andere delen van hetzelfde contract die geen verband houden met deze elementen, mogen niet aan de in deze verordening vastgestelde oneerlijkheidstoets worden onderworpen.
Amendement 98 Voorstel voor een verordening Overweging 60 quinquies (nieuw)
(60 quinquies) Criteria voor de vaststelling van oneerlijke contractvoorwaarden mogen alleen worden toegepast op buitensporige contractvoorwaarden, waarmee misbruik wordt gemaakt van een sterkere onderhandelingspositie. De overgrote meerderheid van de contractvoorwaarden die vanuit commercieel oogpunt gunstiger zijn voor de ene partij dan voor de andere, waaronder voorwaarden die gebruikelijk zijn in overeenkomsten tussen ondernemingen, zijn een normale uitdrukking van het beginsel van contractvrijheid en blijven van toepassing. Als een contractvoorwaarde niet is opgenomen in de lijst van voorwaarden die altijd als oneerlijk worden beschouwd, is de algemene oneerlijkheidsbepaling van toepassing. In dit verband moeten de als oneerlijk aangemerkte voorwaarden als maatstaf dienen voor de interpretatie van de algemene oneerlijkheidsbepaling.
Amendement 99 Voorstel voor een verordening Overweging 60 sexies (nieuw)
(60 sexies) Basismodellen zijn een recente ontwikkeling, waarbij AI-modellen worden ontwikkeld op basis van algoritmen die zijn ontworpen om de algemeenheid en veelzijdigheid van de output te optimaliseren. Deze modellen worden vaak getraind met een breed scala aan gegevensbronnen en grote hoeveelheden gegevens om een breed scala aan downstreamtaken te verwezenlijken, waaronder taken waarvoor de modellen niet specifiek zijn ontwikkeld en getraind. Het basismodel kan uni- of multimodaal zijn en wordt getraind door middel van verschillende methoden, waaronder gecontroleerd leren en versterkend leren. AI-systemen met een specifiek beoogd doel of AI-systemen voor algemene doeleinden kunnen een uitvoering van een basismodel zijn, wat inhoudt dat elk basismodel in talloze downstream-AI-systemen of AI-systemen voor algemene doeleinden kan worden hergebruikt. Deze modellen zijn van toenemend belang voor veel downstreamtoepassingen en -systemen.
Amendement 100 Voorstel voor een verordening Overweging 60 septies (nieuw)
(60 septies) In het geval van basismodellen die als dienst worden verleend, bijvoorbeeld door toegang te verlenen tot een API, moet de samenwerking met downstreamaanbieders doorlopen tot de dienst niet langer wordt verleend en ondersteund, om ervoor te zorgen dat de risico’s op passende wijze kunnen worden beperkt, tenzij de aanbieder van het basismodel zowel het trainingmodel als uitgebreide, passende informatie verstrekt over de datareeksen en het ontwikkelingsproces van het systeem of de dienst, zoals de verlening van toegang tot een API, zodanig beperkt dat de downstreamaanbieder volledig aan deze verordening kan voldoen zonder verdere ondersteuning van de oorspronkelijke aanbieder van het basismodel.
Amendement 101 Voorstel voor een verordening Overweging 60 octies (nieuw)
(60 octies) In het licht van de aard en complexiteit van de waardeketen voor AI-systemen is het van essentieel belang de rol te verduidelijken van de actoren die bijdragen tot de ontwikkeling van AI-systemen. Er bestaat aanzienlijke onzekerheid over de manier waarop basismodellen zich zullen ontwikkelen, zowel wat de typologie van modellen als zelfbestuur betreft. Het is daarom van essentieel belang de juridische situatie van aanbieders van basismodellen te verduidelijken. Naast hun complexiteit en onverwachte impact, het gebrek van downstreamaanbieders van AI aan controle over de ontwikkeling van het basismodel en de daaruit voortvloeiende machtsongelijkheid, en met het oog op de waarborging van een eerlijke verdeling van de verantwoordelijkheden in de AI-waardeketen, moeten deze modellen worden onderworpen aan evenredige en specifiekere voorschriften en verplichtingen uit hoofde van deze verordening. Basismodellen moeten door passend ontwerp en door passende tests en analyses potentiële risico’s en gevaren kunnen beoordelen en beperken, maatregelen inzake databeheer kunnen treffen, onder meer voor de beoordeling van vertekeningen, en voldoen aan de technische ontwerpvoorschriften ter waarborging van het juiste prestatieniveau en de juiste mate van voorspelbaarheid, interpreteerbaarheid, corrigeerbaarheid, veiligheid en cyberbeveiliging, alsook aan de milieunormen. Deze verplichtingen moeten vergezeld gaan van normen. Basismodellen moeten bovendien een informatieverplichting hebben en alle vereiste technische documentatie opstellen om potentiële downstreamaanbieders in staat te stellen aan hun verplichtingen uit hoofde van deze verordening te voldoen. Generatieve basismodellen moeten zorgen voor transparantie met betrekking tot het feit dat de inhoud niet wordt gegenereerd door mensen maar door een AI-systeem. Deze specifieke voorschriften en verplichtingen volstaan niet om basismodellen te beschouwen als AI-systemen met een hoog risico. Zij moeten ervoor zorgen dat de doelstellingen van deze verordening om een hoog niveau van bescherming van de grondrechten, gezondheid en veiligheid, het milieu, de democratie en de rechtsstaat te waarborgen, worden verwezenlijkt. Vooraf getrainde modellen die zijn ontwikkeld voor een kleiner, minder algemeen en beperkter aantal toepassingen en niet voor een breder scala aan taken kunnen worden aangepast, zoals eenvoudige AI-systemen voor meerdere doeleinden, mogen voor de toepassing van deze verordening niet als basismodellen worden beschouwd, omdat ze beter te interpreteren zijn en hun gedrag daarmee minder onvoorspelbaar is.
Amendement 102 Voorstel voor een verordening Overweging 60 nonies (nieuw)
(60 nonies) Gezien de aard van basismodellen ontbreekt het aan deskundigheid op het gebied van conformiteitsbeoordeling en worden de auditmethoden voor derden nog altijd ontwikkeld. Daarom worden er in de sector zelf nieuwe manieren ontwikkeld om fundamentele modellen te beoordelen die gedeeltelijk aan de auditdoelstelling voldoen (zoals modelbeoordeling, red teaming en verificatie- en validatietechnieken voor machinaal leren). Deze interne beoordelingen voor basismodellen moeten breed toepasbaar zijn (bv. onafhankelijk van distributiekanalen, modaliteit en ontwikkelingsmethoden) om de specifieke risico’s van dergelijke modellen aan te pakken, rekening houdend met de praktijken in de sector die in overeenstemming zijn met de stand van de techniek, en moeten gericht zijn op de totstandbrenging van voldoende technisch inzicht in en controle over het model, het beheer van redelijkerwijs te voorziene risico’s, en uitgebreide analyse en toetsing van het model door middel van passende maatregelen, bijvoorbeeld met de hulp van onafhankelijke beoordelaars. Aangezien basismodellen een nieuwe en snel evoluerende ontwikkeling zijn op het gebied van artificiële intelligentie, is het passend dat de Commissie en het AI-bureau het wetgevings- en beheerskader van deze modellen periodiek monitoren en beoordelen, met name waar het generatieve AI-systemen betreft die op dergelijke modellen gebaseerd zijn, wat belangrijke vragen doet rijzen over de generatie van inhoud die in strijd is met het Unierecht, de regels inzake auteursrecht en mogelijk misbruik. Niettemin moet worden verduidelijkt dat deze verordening geen afbreuk mag doen aan wetgeving van de Unie inzake auteursrecht en aanverwante rechten, waaronder Richtlijn 2001/29/EG, Richtlijn 2004/48/EG en Richtlijn (EU) 2019/790.
Amendement 103 Voorstel voor een verordening Overweging 61
(61) Normalisatie moet een belangrijke rol spelen bij de levering van technische oplossingen aan aanbieders om de naleving van deze verordening te waarborgen. De naleving van geharmoniseerde normen, zoals gedefinieerd in Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad54, moet een middel zijn voor aanbieders om de overeenstemming met de voorschriften van deze verordening aan te tonen. De Commissie zou echter gemeenschappelijke technische specificaties kunnen vaststellen op gebieden waarop geen geharmoniseerde normen bestaan of waarop deze ontoereikend zijn.
(61) Normalisatie moet een belangrijke rol spelen bij de levering van technische oplossingen aan aanbieders om de naleving van deze verordening te waarborgen. De naleving van geharmoniseerde normen, zoals gedefinieerd in Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad54, moet een middel zijn voor aanbieders om de overeenstemming met de voorschriften van deze verordening aan te tonen. Om de doeltreffendheid van normen als beleidsinstrument voor de Unie te garanderen, en gezien het belang van normen voor het waarborgen van conformiteit met de voorschriften van deze verordening en voor het concurrentievermogen van ondernemingen, moet voor een evenwichtige belangenvertegenwoordiging worden gezorgd door alle belanghebbende partijen bij de vaststelling van normen te betrekken. Het normalisatieproces moet transparant zijn wat betreft de rechtspersonen en natuurlijke personen die aan de normalisatieactiviteiten deelnemen.
__________________
__________________
54 Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad van 25 oktober 2012 betreffende Europese normalisatie, tot wijziging van de Richtlijnen 89/686/EEG en 93/15/EEG van de Raad alsmede de Richtlijnen 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG en 2009/105/EG van het Europees Parlement en de Raad en tot intrekking van Beschikking 87/95/EEG van de Raad en Besluit nr. 1673/2006/EG van het Europees Parlement en de Raad (PB L 316 van 14.11.2012, blz. 12).
54 Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad van 25 oktober 2012 betreffende Europese normalisatie, tot wijziging van de Richtlijnen 89/686/EEG en 93/15/EEG van de Raad alsmede de Richtlijnen 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG en 2009/105/EG van het Europees Parlement en de Raad en tot intrekking van Beschikking 87/95/EEG van de Raad en Besluit nr. 1673/2006/EG van het Europees Parlement en de Raad (PB L 316 van 14.11.2012, blz. 12).
Amendement 104 Voorstel voor een verordening Overweging 61 bis (nieuw)
(61 bis) Om de naleving te vergemakkelijken, moeten de eerste normalisatieverzoeken uiterlijk twee maanden na de inwerkingtreding van deze verordening door de Commissie worden ingediend. Dit moet de rechtszekerheid verbeteren en daarmee investeringen en innovatie op het gebied van AI stimuleren, alsook het concurrentievermogen en de groei van de markt van de Unie, en het beheer door meerdere belanghebbenden bevorderen die de betrokken Europese belanghebbenden vertegenwoordigen, zoals het AI-bureau, Europese normalisatie-instellingen en -organen of krachtens de sectorale wetgeving van de Unie ingestelde deskundigengroepen, alsook de sector, kmo’s, startende ondernemingen, maatschappelijke organisaties, onderzoekers en sociale partners, en moet uiteindelijk de wereldwijde samenwerking bij de normalisatie op het gebied van AI vergemakkelijken, met inachtneming van de waarden van de Unie. Bij het opstellen van normalisatieverzoeken moet de Commissie het AI-bureau en het adviesforum voor AI raadplegen om de nodige expertise in te winnen.
Amendement 105 Voorstel voor een verordening Overweging 61 ter (nieuw)
(61 ter) Wanneer AI-systemen bedoeld zijn voor gebruik op de werkplek, moeten geharmoniseerde normen beperkt zijn tot technische specificaties en procedures.
Amendement 106 Voorstel voor een verordening Overweging 61 quater (nieuw)
(61 quater) De Commissie moet onder bepaalde voorwaarden gemeenschappelijke specificaties kunnen vaststellen wanneer er geen relevante geharmoniseerde norm bestaat of om specifieke problemen op het gebied van de grondrechten aan te pakken. De Commissie moet gedurende het hele ontwerpproces regelmatig overleg plegen met het AI-bureau en zijn adviesforum, met Europese normalisatie-instellingen en -organen of krachtens de sectorale wetgeving van de Unie ingestelde deskundigengroepen, en met de betrokken belanghebbenden, waaronder de sector, kmo’s, startende ondernemingen, maatschappelijke organisaties, onderzoekers en sociale partners.
Amendement 107 Voorstel voor een verordening Overweging 61 quinquies (nieuw)
(61 quinquies) De Commissie moet bij de vaststelling van gemeenschappelijke specificaties streven naar afstemming van de regelgeving op het gebied van AI met gelijkgestemde partners, wat van cruciaal belang is voor het stimuleren van innovatie en grensoverschrijdende partnerschappen op het gebied van AI, aangezien coördinatie met gelijkgestemde partners in internationale normalisatie-instellingen van groot belang is.
Amendement 108 Voorstel voor een verordening Overweging 62
(62) Om te zorgen voor een hoog niveau van betrouwbaarheid van AI-systemen met een hoog risico, moeten deze systemen worden onderworpen aan een conformiteitsbeoordeling voordat zij in de handel worden gebracht of in gebruik worden gesteld.
(62) Om te zorgen voor een hoog niveau van betrouwbaarheid van AI-systemen met een hoog risico, moeten deze systemen worden onderworpen aan een conformiteitsbeoordeling voordat zij in de handel worden gebracht of in gebruik worden gesteld. Om het vertrouwen in de waardeketen te vergroten en bedrijven zekerheid te bieden over de prestaties van hun systemen, kunnen derden die AI-onderdelen leveren vrijwillig een conformiteitsbeoordeling door derden aanvragen.
Amendement 109 Voorstel voor een verordening Overweging 64
(64) Gezien de uitgebreidere ervaring van personen die professionele certificeringen vóór het in de handel brengen uitvoeren op het gebied van productveiligheid en de andere aard van risico’s die hiermee gepaard gaan, is het passend om, in ieder geval in een eerste fase van de toepassing van deze verordening, het toepassingsgebied van conformiteitsbeoordelingen van derden voor AI-systemen met een hoog risico die geen verband houden met producten te beperken. De conformiteitsbeoordeling van dergelijke systemen moet derhalve als algemene regel door de aanbieder onder eigen verantwoordelijkheid worden uitgevoerd, met als enige uitzondering AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie van personen op afstand, ten aanzien waarvan een aangemelde instantie moet worden betrokken bij de conformiteitsbeoordeling, voor zover deze systemen niet verboden zijn.
(64) Gezien de complexiteit van AI-systemen met een hoog risico en de risico’s die daarmee gepaard gaan, is het van essentieel belang een adequatere capaciteit te ontwikkelen voor de toepassing van conformiteitsbeoordeling door derden voor AI-systemen met een hoog risico. Gezien de huidige ervaring van personen die professionele certificeringen vóór het in de handel brengen uitvoeren op het gebied van productveiligheid en de andere aard van risico’s die hiermee gepaard gaan, is het niettemin passend om, in ieder geval in een eerste fase van de toepassing van deze verordening, het toepassingsgebied van conformiteitsbeoordelingen door derden voor AI-systemen met een hoog risico die geen verband houden met producten te beperken. De conformiteitsbeoordeling van dergelijke systemen moet derhalve als algemene regel door de aanbieder onder eigen verantwoordelijkheid worden uitgevoerd, met als enige uitzondering AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie van personen op afstand of AI-systemen die bedoeld zijn om conclusies te trekken over de persoonlijke kenmerken van natuurlijke personen op basis van biometrische of op biometrie gebaseerde gegevens, waaronder systemen voor het herkennen van emoties, ten aanzien waarvan een aangemelde instantie moet worden betrokken bij de conformiteitsbeoordeling, voor zover deze systemen niet verboden zijn.
Amendement 110 Voorstel voor een verordening Overweging 65
(65) Met het oog op de uitvoering van een conformiteitsbeoordeling door derden voor AI-systemen die moeten worden gebruikt voor de biometrische identificatie van personen op afstand, moeten de nationale bevoegde autoriteiten aangemelde instanties aanwijzen op grond van deze verordening, mits deze instanties voldoen aan een reeks voorschriften, met name met betrekking tot de onafhankelijkheid, competenties en afwezigheid van belangenconflicten.
(65) Met het oog op de uitvoering van conformiteitsbeoordelingen door derden, wanneer deze vereist zijn, moeten de nationale bevoegde autoriteiten aangemelde instanties aanwijzen op grond van deze verordening, mits deze instanties voldoen aan een reeks voorschriften, met name met betrekking tot de onafhankelijkheid, competenties, afwezigheid van belangenconflicten en minimumvoorschriften inzake cyberbeveiliging. De lidstaten moeten aansporen tot de aanwijzing van voldoende conformiteitsbeoordelingsinstanties, opdat de certificering tijdig kan geschieden. De procedures voor de beoordeling, aanwijzing, aanmelding en monitoring van conformiteitsbeoordelingsinstanties moeten in de lidstaten zo uniform mogelijk worden toegepast om administratieve belemmeringen aan de grens weg te nemen en ervoor te zorgen dat het potentieel van de interne markt wordt verwezenlijkt.
Amendement 111 Voorstel voor een verordening Overweging 65 bis (nieuw)
(65 bis) In overeenstemming met de verbintenissen van de Unie in het kader van de Overeenkomst inzake technische handelsbelemmeringen van de Wereldhandelsorganisatie is het goed om de aanvaarding van testresultaten die geproduceerd zijn door bevoegde conformiteitsbeoordelingsinstanties te maximaliseren, ongeacht het grondgebied waar zij gevestigd zijn, zo nodig om aan te tonen dat zij aan de toepasselijke voorschriften van de verordening voldoen. De Commissie moet actief op zoek gaan naar bruikbare internationale instrumenten die kunnen helpen dit te verwezenlijken, en moet met name streven naar de mogelijke totstandbrenging van overeenkomsten inzake wederzijdse erkenning met landen met een vergelijkbaar niveau van technische ontwikkeling die een vergelijkbare aanpak hanteren met betrekking tot AI en conformiteitsbeoordeling.
Amendement 112 Voorstel voor een verordening Overweging 66
(66) In lijn met het algemeen erkende begrip van ingrijpende wijziging van producten die vallen onder de harmonisatiewetgeving van de Unie, is het passend dat voor een AI-systeem een nieuwe conformiteitsbeoordeling wordt uitgevoerd wanneer zich een verandering voordoet die gevolgen kan hebben voor de overeenstemming van het systeem met deze verordening of wanneer het beoogde doel van het systeem verandert. Daarnaast is het ten aanzien van AI-systemen die blijven “leren” nadat zij in de handel worden gebracht of in gebruik worden gesteld (d.w.z. die automatisch aanpassen hoe taken worden uitgevoerd) noodzakelijk om te voorzien in regels die bepalen dat veranderingen met betrekking tot het algoritme en de prestaties ervan die vooraf door de aanbieder zijn bepaald en die op het moment van de conformiteitsbeoordeling zijn beoordeeld, geen ingrijpende wijziging vormen.
(66) In lijn met het algemeen erkende begrip van ingrijpende wijziging van producten die vallen onder de harmonisatiewetgeving van de Unie, is het passend dat voor een AI-systeem met een hoog risico een nieuwe conformiteitsbeoordeling wordt uitgevoerd wanneer zich een niet-geplande verandering voordoet die verder gaat dan gecontroleerde of geplande veranderingen door de aanbieder, met inbegrip van permanent leren, en die een nieuw, onaanvaardbaar risico kan doen ontstaan en aanzienlijke gevolgen kan hebben voor de overeenstemming van het AI-systeem met een hoog risico met deze verordening of wanneer het beoogde doel van het systeem verandert. Daarnaast is het ten aanzien van AI-systemen die blijven “leren” nadat zij in de handel worden gebracht of in gebruik worden gesteld (d.w.z. die automatisch aanpassen hoe taken worden uitgevoerd) noodzakelijk om te voorzien in regels die bepalen dat veranderingen met betrekking tot het algoritme en de prestaties ervan die vooraf door de aanbieder zijn bepaald en die op het moment van de conformiteitsbeoordeling zijn beoordeeld, geen ingrijpende wijziging vormen. Hetzelfde moet gelden voor updates van het AI-systeem om veiligheidsredenen in het algemeen en ter bescherming tegen veranderende dreigingen van manipulatie van het systeem, onder voorwaarde dat ze geen ingrijpende wijziging vormen.
Amendement 113 Voorstel voor een verordening Overweging 67
(67) Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.
(67) Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. Op fysieke AI-systemen met een hoog risico moet een fysieke CE-markering worden aangebracht, die kan worden aangevuld met een digitale CE-markering. Voor uitsluitend digitale AI-systemen met een hoog risico moet een digitale CE-markering worden gebruikt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.
Amendement 114 Voorstel voor een verordening Overweging 68
(68) In bepaalde omstandigheden kan de snelle beschikbaarheid van innovatieve technologieën cruciaal zijn voor de gezondheid en veiligheid van personen en de samenleving in haar geheel. Het is derhalve passend dat de lidstaten om uitzonderlijke redenen in verband met de openbare veiligheid of de bescherming van het leven en de gezondheid van natuurlijke personen en de bescherming van industrieel en commercieel eigendom toestemming kunnen verlenen voor het in de handel brengen of in gebruik stellen van AI-systemen die nog niet aan een conformiteitsbeoordeling zijn onderworpen.
(68) In bepaalde omstandigheden kan de snelle beschikbaarheid van innovatieve technologieën cruciaal zijn voor de gezondheid en veiligheid van personen, het milieu en de klimaatverandering, en de samenleving in haar geheel. Het is derhalve passend dat de lidstaten om uitzonderlijke redenen in verband met de bescherming van het leven en de gezondheid van natuurlijke personen, de bescherming van het milieu en de bescherming van kritieke infrastructuur toestemming kunnen verlenen voor het in de handel brengen of in gebruik stellen van AI-systemen die nog niet aan een conformiteitsbeoordeling zijn onderworpen.
Amendement 115 Voorstel voor een verordening Overweging 69
(69) Om de werkzaamheden van de Commissie en de lidstaten op het gebied van artificiële intelligentie te vergemakkelijken en om de transparantie ten opzichte van het publiek te vergroten, moeten aanbieders van AI-systemen met een hoog risico die geen verband houden met producten die onder het toepassingsgebied van de desbetreffende bestaande harmonisatiewetgeving van de Unie vallen, worden verplicht hun AI-systemen met een hoog risico te registreren in een EU-databank, die door de Commissie moet worden vastgesteld en beheerd. De Commissie moet de verwerkingsverantwoordelijke van die databank zijn, in overeenstemming met Verordening (EU) 2018/1725 van het Europees Parlement en de Raad55. Teneinde de volledige functionaliteit van de databank te waarborgen, moet de procedure voor het vaststellen van de databank de uitwerking van functionele specificaties door de Commissie en een onafhankelijk auditverslag omvatten.
(69) Om de werkzaamheden van de Commissie en de lidstaten op het gebied van artificiële intelligentie te vergemakkelijken en om de transparantie ten opzichte van het publiek te vergroten, moeten aanbieders van AI-systemen met een hoog risico die geen verband houden met producten die onder het toepassingsgebied van de desbetreffende bestaande harmonisatiewetgeving van de Unie vallen, worden verplicht hun AI-systemen en basismodellen met een hoog risico te registreren in een EU-databank, die door de Commissie moet worden vastgesteld en beheerd. Deze databank moet vrij en openbaar toegankelijk zijn en moet gemakkelijk begrijpelijk en machineleesbaar zijn. De databank moet bovendien gebruiksvriendelijk en gemakkelijk te navigeren zijn, en moet zoekfuncties hebben die het grote publiek ten minste in staat stellen de databank te doorzoeken op specifieke systemen met een hoog risico, locaties, risicocategorieën uit bijlage IV en trefwoorden. Ook exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn of exploitanten die namens hen optreden en exploitanten die ondernemingen zijn die op grond van Verordening (EU) 2022/1925 zijn aangewezen als poortwachter, moeten zich in de EU-databank registreren voordat zij een AI-systeem met een hoog risico voor het eerst in gebruik stellen of gebruiken, en na elke ingrijpende wijziging. Andere exploitanten moeten het recht hebben dit vrijwillig te doen. Ook alle ingrijpende wijzigingen van AI-systemen met een hoog risico moeten in de EU-databank worden geregistreerd. De Commissie moet de verwerkingsverantwoordelijke van die databank zijn, in overeenstemming met Verordening (EU) 2018/1725 van het Europees Parlement en de Raad55. Teneinde de volledige functionaliteit van de databank te waarborgen, moet de procedure voor het vaststellen van de databank de uitwerking van functionele specificaties door de Commissie en een onafhankelijk auditverslag omvatten. De Commissie moet bij de uitvoering van haar taken als verwerkingsverantwoordelijke voor de EU-databank rekening houden met cyberbeveiliging en risico’s in verband met gevaren. Om de beschikbaarheid en het gebruik van de databank door het publiek te maximaliseren, moet de databank, met inbegrip van de via de databank beschikbaar gestelde informatie, voldoen aan de voorschriften van Richtlijn (EU) 2019/882.
__________________
__________________
55 Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).
55 Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).
Amendement 116 Voorstel voor een verordening Overweging 71
(71) Artificiële intelligentie is een snel ontwikkelende familie van technologieën die nieuwe vormen van regelgevingstoezicht en een veilige plek voor experimenteren vereist, terwijl tegelijkertijd de verantwoorde innovatie en integratie van passende waarborgen en maatregelen voor risicobeperking worden gewaarborgd. Om te zorgen voor een wettelijk kader dat innovatievriendelijk, toekomstbestendig en bestand tegen verstoringen is, moeten de nationale bevoegde autoriteiten van een of meer lidstaten worden aangemoedigd om testomgevingen voor regelgeving op het gebied van artificiële intelligentie vast te stellen om de ontwikkeling en het testen van innovatieve AI-systemen onder strikt regelgevingstoezicht mogelijk te maken voordat deze systemen in de handel worden gebracht of anderszins in gebruik worden gesteld.
(71) Artificiële intelligentie is een snel ontwikkelende familie van technologieën die regelgevingstoezicht en een veilige en gecontroleerde plek voor experimenteren vereist, terwijl tegelijkertijd de verantwoorde innovatie en integratie van passende waarborgen en maatregelen voor risicobeperking worden gewaarborgd. Om te zorgen voor een wettelijk kader dat innovatie stimuleert, toekomstbestendig is en bestand is tegen verstoringen, moeten de lidstaten ten minste één testomgeving voor regelgeving op het gebied van artificiële intelligentie tot stand brengen om de ontwikkeling en het testen van innovatieve AI-systemen onder strikt regelgevingstoezicht mogelijk te maken voordat deze systemen in de handel worden gebracht of anderszins in gebruik worden gesteld. Als volgende stap is het wenselijk om de totstandbrenging van testomgevingen voor regelgeving, die momenteel aan de lidstaten wordt overgelaten, verplicht te stellen met vastgestelde criteria. Een testomgeving voor regelgeving kan ook samen met een of meer andere lidstaten tot stand worden gebracht, mits de testomgeving voldoet aan het respectieve nationale niveau van de betrokken lidstaten. Er kunnen tevens aanvullende testomgevingen tot stand worden gebracht op verschillende niveaus, bijvoorbeeld over de grenzen van de lidstaten heen, om grensoverschrijdende samenwerking en synergieën te vergemakkelijken. Met uitzondering van de verplichte testomgeving op nationaal niveau moeten de lidstaten ook virtuele of hybride testomgevingen tot stand kunnen brengen. Alle testomgevingen voor regelgeving moeten zowel fysieke als virtuele producten aankunnen. De instanties die de testomgevingen voor regelgeving tot stand brengen moeten er bovendien voor zorgen dat de testomgevingen over voldoende financiële en personele middelen beschikken om naar behoren te kunnen functioneren.
Amendement 117 Voorstel voor een verordening Overweging 72
(72) De doelstellingen van testomgevingen voor regelgeving moeten bestaan in de bevordering van AI-innovatie door te zorgen voor een gecontroleerde experiment- en testomgeving in de ontwikkelingsfase en de fase vóór het in de handel brengen met het oog op het waarborgen van de overeenstemming van innovatieve AI-systemen met deze verordening en andere relevante wetgeving van de Unie en de lidstaten;het verbeteren van de rechtszekerheid voor innovatoren en het toezicht van de bevoegde autoriteiten en het begrijpen van de mogelijkheden, opkomende risico’s en de effecten van het gebruik van AI en het versnellen van de toegang tot markten, onder meer door belemmeringen voor kleine en middelgrote ondernemingen (kmo’s) en startende ondernemingen weg te nemen. Teneinde de uniforme uitvoering in de gehele Unie en schaalvoordelen te waarborgen, is het passend om gemeenschappelijke regels vast te stellen voor de uitvoering van testomgevingen voor regelgeving, evenals een kader voor de samenwerking tussen de relevante autoriteiten die betrokken zijn bij het toezicht op de testomgevingen. Deze verordening moet de rechtsgrondslag bieden voor het gebruik van persoonsgegevens die voor andere doeleinden zijn verzameld, met het oog op de ontwikkeling van bepaalde AI-systemen in het openbaar belang in de AI-testomgeving voor regelgeving, in lijn met artikel 6, lid 4, van Verordening (EU) 2016/679 en artikel 6 van Verordening (EU) 2018/1725 en onverminderd artikel 4, lid 2, van Richtlijn (EU) 2016/680. Deelnemers van de testomgeving moeten zorgen voor passende waarborgen en moeten samenwerken met de bevoegde autoriteiten, onder meer door hun richtsnoeren te volgen en snel en in goed vertrouwen te handelen om eventuele grote risico’s voor de veiligheid en de grondrechten te beperken die zich tijdens de ontwikkeling en het experimenteren in de testomgeving kunnen voordoen. Er moet rekening worden gehouden met het gedrag van de deelnemers van de testomgeving wanneer bevoegde autoriteiten besluiten om al dan niet een administratieve geldboete op te leggen op grond van artikel 83, lid 2, van Verordening (EU) 2016/679 en artikel 57 van Richtlijn (EU) 2016/680.
(72) De doelstellingen van testomgevingen voor regelgeving moeten erin bestaan: voor de autoriteiten die de testomgeving hebben ontwikkeld, hun inzicht in technische ontwikkelingen te vergroten, toezichtmethoden te verbeteren en richtsnoeren te verstrekken aan ontwikkelaars en aanbieders van AI-systemen om te komen tot overeenstemming van de regelgeving met deze verordening of, in voorkomend geval, andere relevante wetgeving van de Unie en de lidstaten, alsook met het Handvest van de grondrechten;voor de toekomstige aanbieders het testen en ontwikkelen van innovatieve oplossingen in verband met AI-systemen in de fase voorafgaand aan het in de handel brengen mogelijk te maken en te vergemakkelijken om de rechtszekerheid te vergroten, de autoriteiten die de testomgeving hebben ontwikkeld in een gecontroleerde omgeving meer te laten leren op regelgevingsgebied om betere richtsnoeren te ontwikkelen en mogelijke toekomstige verbeteringen van het rechtskader via de gewone wetgevingsprocedure in kaart te brengen. Significante risico’s die tijdens het ontwikkelen en testen van dergelijke AI-systemen worden vastgesteld, moeten onmiddellijk worden beperkt en bij gebreke daarvan leiden tot de opschorting van het ontwikkelings- en testproces totdat beperkende maatregelen worden getroffen. Teneinde de uniforme uitvoering in de gehele Unie en schaalvoordelen te waarborgen, is het passend om gemeenschappelijke regels vast te stellen voor de uitvoering van testomgevingen voor regelgeving, evenals een kader voor de samenwerking tussen de relevante autoriteiten die betrokken zijn bij het toezicht op de testomgevingen. De lidstaten moeten ervoor zorgen dat testomgevingen voor regelgeving in de hele Unie op grote schaal beschikbaar zijn, terwijl de deelname vrijwillig moet blijven. Het is bijzonder belangrijk ervoor te zorgen dat kmo’s en start-ups gemakkelijk toegang hebben tot deze testomgevingen en actief betrokken zijn bij en deelnemen aan de ontwikkeling en het testen van innovatieve AI-systemen, zodat zij met hun knowhow en ervaring bijdragen kunnen leveren.
Amendement 118 Voorstel voor een verordening Overweging 72 bis (nieuw)
(72 bis) Deze verordening moet de rechtsgrondslag bieden voor het gebruik van persoonsgegevens die voor andere doeleinden zijn verzameld, met het oog op de ontwikkeling van bepaalde AI-systemen in het openbaar belang in de AI-testomgeving voor regelgeving, alleen onder bepaalde voorwaarden in lijn met artikel 6, lid 4, van Verordening (EU) 2016/679 en artikel 6 van Verordening (EU) 2018/1725 en onverminderd artikel 4, lid 2, van Richtlijn (EU) 2016/680. Bij de testomgeving betrokken toekomstige aanbieders moeten zorgen voor passende waarborgen en moeten samenwerken met de bevoegde autoriteiten, onder meer door hun richtsnoeren te volgen en snel en in goed vertrouwen te handelen om eventuele grote risico’s voor de veiligheid, de gezondheid, het milieu en de grondrechten te beperken die zich tijdens de ontwikkeling en het experimenteren in de testomgeving kunnen voordoen. Er moet rekening worden gehouden met het gedrag van de bij de testomgeving betrokken toekomstige aanbieders wanneer bevoegde autoriteiten besluiten om hun deelname aan de testomgeving tijdelijk of permanent te schorsen of al dan niet een administratieve geldboete op te leggen op grond van artikel 83, lid 2, van Verordening (EU) 2016/679 en artikel 57 van Richtlijn (EU) 2016/680.
Amendement 119 Voorstel voor een verordening Overweging 72 ter (nieuw)
(72 ter) Om ervoor te zorgen dat artificiële intelligentie tot gunstige sociale en ecologische resultaten leidt, moeten de lidstaten onderzoek naar en ontwikkeling van AI ter ondersteuning van gunstige sociale en ecologische resultaten ondersteunen en bevorderen door voldoende middelen toe te wijzen, waaronder overheidsfinanciering en financiering door de Unie, en door het maatschappelijk middenveld geleide projecten prioritair toegang te geven tot testomgevingen voor regelgeving. Dergelijke projecten moeten gebaseerd zijn op het beginsel van interdisciplinaire samenwerking tussen AI-ontwikkelaars, deskundigen op het gebied van ongelijkheid en non-discriminatie, toegankelijkheid, consumentenrecht, milieurecht en digitale rechten, alsook academici.
Amendement 120 Voorstel voor een verordening Overweging 73
(73) Om de innovatie te bevorderen en beschermen, is het belangrijk dat de belangen van kleine aanbieders en gebruikers van AI-systemen in het bijzonder in aanmerking worden genomen. Hiertoe moeten de lidstaten initiatieven ontwikkelen die gericht zijn op deze operators en die onder meer betrekking hebben op bewustmaking en informatie en communicatie. Bovendien moet rekening worden gehouden met de specifieke belangen en behoeften van kleine aanbieders wanneer aangemelde instanties bijdragen voor de conformiteitsbeoordeling vaststellen. Vertaalkosten in verband met verplichte documentatie en communicatie met autoriteiten kunnen een aanzienlijke kostenpost vormen voor met name kleine aanbieders en andere operators. De lidstaten zouden ervoor kunnen zorgen dat een van de talen die door hen worden vastgesteld en aanvaard voor de documentatie van betrokken aanbieders en voor de communicatie met operators breed wordt begrepen door een zo groot mogelijk aantal grensoverschrijdende gebruikers.
(73) Om de innovatie te bevorderen en beschermen, is het belangrijk dat de belangen van kleine aanbieders en gebruikers van AI-systemen in het bijzonder in aanmerking worden genomen. Hiertoe moeten de lidstaten initiatieven ontwikkelen die gericht zijn op deze operators en die onder meer betrekking hebben op AI-geletterdheid, bewustmaking en informatie en communicatie. De lidstaten moeten hiervoor de bestaande kanalen gebruiken en waar nodig nieuwe specifieke kanalen voor de communicatie met kmo’s, start-ups, gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden. Die bestaande kanalen omvatten, maar zijn niet beperkt tot, de Enisa-teams voor respons op computerbeveiligingsincidenten, de nationale gegevensbeschermingsagentschappen, het platform voor AI on demand, de Europese digitale-innovatiehubs en andere relevante instrumenten die door EU-programma’s worden gefinancierd, evenals de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of Unieniveau zijn vastgesteld. Waar nodig moeten deze kanalen met elkaar samenwerken om synergieën te creëren en te zorgen voor een homogene aanpak bij hun adviezen aan start-ups, kmo’s en gebruikers. Bovendien moet rekening worden gehouden met de specifieke belangen en behoeften van kleine aanbieders wanneer aangemelde instanties bijdragen voor de conformiteitsbeoordeling vaststellen. De Commissie moet de certificerings- en nalevingskosten voor kmo’s en start-ups regelmatig beoordelen, onder meer via transparant overleg met kmo’s, start-ups en gebruikers, en moet met de lidstaten samenwerken om die kosten te verlagen. Vertaalkosten in verband met verplichte documentatie en communicatie met autoriteiten kunnen bijvoorbeeld een aanzienlijke kostenpost vormen voor met name kleine aanbieders en andere operators. De lidstaten zouden ervoor kunnen zorgen dat een van de talen die door hen worden vastgesteld en aanvaard voor de documentatie van betrokken aanbieders en voor de communicatie met operators breed wordt begrepen door een zo groot mogelijk aantal grensoverschrijdende gebruikers. Middelgrote ondernemingen die recentelijk veranderd zijn van de categorie “kleine onderneming” naar “middelgrote onderneming” in de zin van de bijlage bij Aanbeveling 2003/361/EG (artikel 16), moeten zolang de lidstaten dat gepast achten toegang blijven houden tot deze initiatieven en adviezen, aangezien deze nieuwe middelgrote ondernemingen soms de juridische middelen en opleiding ontberen om een goede kennis en naleving van de bepalingen te waarborgen.
Amendement 121 Voorstel voor een verordening Overweging 74
(74) Om de risico’s voor de uitvoering te beperken die voortvloeien uit een gebrek aan kennis en deskundigheid op de markt en om de nakoming door aanbieders en aangemelde organen van hun verplichtingen uit hoofde van deze verordening te vergemakkelijken, zouden het platform voor AI on demand, de Europese digitale-innovatiehubs en de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of EU-niveau zijn vastgesteld, kunnen bijdragen tot de uitvoering van deze verordening. Binnen hun respectievelijke mandaat en bevoegdheid kunnen zij met name technische en wetenschappelijke steun verlenen aan aanbieders en aangemelde instanties.
(74) Om de risico’s voor de uitvoering te beperken die voortvloeien uit een gebrek aan kennis en deskundigheid op de markt en om de nakoming door aanbieders en aangemelde organen van hun verplichtingen uit hoofde van deze verordening te vergemakkelijken, moeten het platform voor AI on demand, de Europese digitale-innovatiehubs en de faciliteiten voor tests en experimenteren die door de Commissie en de lidstaten op nationaal of EU-niveau zijn vastgesteld, bijdragen tot de uitvoering van deze verordening. Binnen hun respectievelijke mandaat en bevoegdheid kunnen zij met name technische en wetenschappelijke steun verlenen aan aanbieders en aangemelde instanties.
Amendement 122 Voorstel voor een verordening Overweging 76
(76) Teneinde een soepele, doeltreffende en geharmoniseerde uitvoering van deze verordening mogelijk te maken, moet een Europees Comité voor artificiële intelligentie worden opgericht. Het Comité moet verantwoordelijk zijn voor een aantal adviestaken, met inbegrip van het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, waaronder over technische specificaties of bestaande normen met betrekking tot de voorschriften van deze verordening en de adviesverlening aan en ondersteuning van de Commissie ten aanzien van specifieke vragen in verband met artificiële intelligentie.
(76) Teneinde versnippering te voorkomen, de optimale werking van de eengemaakte markt te garanderen, een doeltreffende en geharmoniseerde uitvoering van deze verordening te waarborgen, in de hele Unie een hoog niveau van betrouwbaarheid en bescherming van de gezondheid en veiligheid, de grondrechten, het milieu, de democratie en de rechtsstaat met betrekking tot AI-systemen te verwezenlijken, de nationale toezichthoudende autoriteiten en de instellingen, organen en instanties van de Unie actief te ondersteunen bij aangelegenheden in het kader van deze verordening, en het gebruik van artificiële intelligentie in de hele Unie te bevorderen, moet een Bureau voor artificiële intelligentie van de Europese Unie worden opgericht. Het AI-bureau moet rechtspersoonlijkheid hebben, moet volledig onafhankelijk handelen, moet verantwoordelijk zijn voor een aantal adviserende en coördinerende taken, waaronder het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, en moet over voldoende financiering en personeel beschikken. De lidstaten moeten zorgen voor de strategische leiding en controle van het AI-bureau via de raad van bestuur van het AI-bureau, samen met de Commissie, de EDPS, het FRA en het Enisa. Een uitvoerend directeur moet verantwoordelijk zijn voor het beheer van de activiteiten van het secretariaat van het AI-bureau en voor het vertegenwoordigen van het AI-bureau. Belanghebbenden moeten formeel deelnemen aan de werkzaamheden van het AI-bureau via een adviesforum dat voor een gevarieerde en evenwichtige vertegenwoordiging van de belanghebbenden moet zorgen en het AI-bureau moet adviseren over aangelegenheden die verband houden met deze verordening. Indien de oprichting van het AI-bureau niet voldoende blijkt te zijn om een volledig consistente toepassing van deze verordening op het niveau van de Unie en efficiënte grensoverschrijdende handhavingsmaatregelen te waarborgen, moet de oprichting van een AI-agentschap worden overwogen.
Amendement 123 Voorstel voor een verordening Overweging 77
(77) De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie, moetin elke lidstaat één nationale autoriteit worden aangewezen als nationale toezichthoudende autoriteit.
(77) Elke lidstaat moet een nationale toezichthoudende autoriteit aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Deze moet ook haar lidstaat in de raad van bestuur vanhet AI-bureau vertegenwoordigen. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie. Elke nationale toezichthoudende autoriteit moetvolledig onafhankelijk optreden bij de uitvoering van de taken en de uitoefening van de bevoegdheden die haar overeenkomstig deze verordening zijn toegewezen.
Amendement 124 Voorstel voor een verordening Overweging 77 bis (nieuw)
(77 bis) De nationale toezichthoudende autoriteiten moeten toezien op de toepassing van de bepalingen van deze verordening en bijdragen aan de consequente toepassing daarvan in de gehele Unie. Daartoe moeten de nationale toezichthoudende autoriteiten met elkaar en met de relevante nationale bevoegde autoriteiten, de Commissie en het AI-bureau samenwerken.
Amendement 125 Voorstel voor een verordening Overweging 77 ter (nieuw)
(77 ter) Ten aanzien van de vertrouwelijke informatie die hun bij de uitvoering van hun taken of de uitoefening van hun bevoegdheden ter kennis is gekomen, moet voor het lid of de personeelsleden van elke nationale toezichthoudende autoriteit zowel tijdens hun ambtstermijn als daarna het beroepsgeheim gelden, zulks overeenkomstig het Unierecht of intern recht. Tijdens hun ambtstermijn moet het beroepsgeheim met name gelden voor bedrijfsgeheimen en voor meldingen van inbreuken op deze verordening door natuurlijke personen.
Amendement 126 Voorstel voor een verordening Overweging 78
(78) Om ervoor te zorgen dat aanbieders van AI-systemen met een hoog risico rekening kunnen houden met de ervaring met het gebruik van AI-systemen met een hoog risico voor het verbeteren van hun systemen en het ontwerp- en ontwikkelingsproces of tijdig eventuele mogelijke corrigerende maatregelen kunnen nemen, moeten alle aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. Dit systeem is ook belangrijk om te waarborgen dat de mogelijke risico’s van AI-systemen die blijven “leren” nadat zij in de handel zijn gebracht of in gebruik zijn gesteld, op efficiëntere en tijdigere wijze kunnen worden aangepakt. In dit verband moeten aanbieders ook worden verplicht te zorgen voor een systeem om eventuele ernstige incidenten of eventuele inbreuken op het intern of Unierecht voor de bescherming van de grondrechten die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten.
(78) Om ervoor te zorgen dat aanbieders van AI-systemen met een hoog risico rekening kunnen houden met de ervaring met het gebruik van AI-systemen met een hoog risico voor het verbeteren van hun systemen en het ontwerp- en ontwikkelingsproces of tijdig eventuele mogelijke corrigerende maatregelen kunnen nemen, moeten alle aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. Dit systeem is ook belangrijk om te waarborgen dat de mogelijke risico’s van AI-systemen die blijven “leren” of zich blijven ontwikkelen nadat zij in de handel zijn gebracht of in gebruik zijn gesteld, op efficiëntere en tijdigere wijze kunnen worden aangepakt. In dit verband moeten aanbieders ook worden verplicht te zorgen voor een systeem om eventuele ernstige incidenten of eventuele inbreuken op het intern of Unierecht, waaronder bepalingen ter bescherming van de grondrechten en consumentenrechten, die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten en passende corrigerende maatregelen te nemen. Exploitanten moeten ook worden verplicht om eventuele ernstige incidenten of inbreuken op het intern of Unierecht die voortvloeien uit het gebruik van hun AI-systemen, te melden bij de relevante autoriteiten wanneer zij dergelijke ernstige incidenten of inbreuken vaststellen.
Amendement 127 Voorstel voor een verordening Overweging 79
(79) Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld.
(79) Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Voor de toepassing van deze verordening moeten de nationale toezichthoudende autoriteiten optreden als markttoezichtautoriteiten voor onder deze verordening vallende AI-systemen, met uitzondering van AI-systemen die onder bijlage II bij deze verordening vallen. Voor AI-systemen die onder de in bijlage II vermelde rechtshandelingen vallen, moeten de bevoegde autoriteiten uit hoofde van die rechtshandelingen de leidende autoriteit blijven. De nationale toezichthoudende autoriteiten en de bevoegde autoriteiten in de in bijlage II vermelde rechtshandelingen moeten waar nodig samenwerken. In voorkomend geval moeten de bevoegde autoriteiten in de in bijlage II vermelde rechtshandelingen bevoegd personeel naar de nationale toezichthoudende autoriteit sturen om haar bij de uitvoering van haar taken bij te staan. Voor de toepassing van deze verordening moeten de nationale toezichthoudende autoriteiten dezelfde bevoegdheden en verplichtingen hebben als markttoezichtautoriteiten uit hoofde van Verordening (EU) 2019/1020. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties of ‑organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld. Nadat alle andere redelijke manieren om de conformiteit te beoordelen of te verifiëren zijn uitgeput, moet de nationale toezichthoudende autoriteit op een met redenen omkleed verzoek toegang worden verleend tot de datareeksen voor training, validatie en tests, het getrainde model en het trainingsmodel van het AI-systeem met een hoog risico, met inbegrip van de relevante modelparameters en de uitvoerings-/werkomgeving ervan. In het geval van onder deze verordening vallende eenvoudigere softwaresystemen die niet gebaseerd zijn op getrainde modellen, en wanneer alle andere manieren om de conformiteit te verifiëren zijn uitgeput, kan de nationale toezichthoudende autoriteit bij wijze van uitzondering op een met redenen omkleed verzoek toegang krijgen tot de broncode. Wanneer de nationale toezichthoudende autoriteit overeenkomstig deze verordening toegang is verleend tot de datareeksen voor training, validatie en tests, moet die toegang worden verkregen met passende technische middelen en instrumenten, waaronder toegang ter plaatse en, in uitzonderlijke omstandigheden, toegang op afstand. De nationale toezichthoudende autoriteit moet alle verkregen informatie, met inbegrip van broncode, software en gegevens, voor zover van toepassing, als vertrouwelijke informatie behandelen en het toepasselijke Unierecht inzake de bescherming van intellectuele eigendom en bedrijfsgeheimen in acht nemen. De nationale toezichthoudende autoriteit moet alle verkregen informatie na afloop van het onderzoek wissen.
Amendement 128 Voorstel voor een verordening Overweging 80
(80) De wetgeving van de Unie inzake financiële diensten omvat regels en voorschriften met betrekking tot interne governance en risicobeheer die van toepassing zijn op gereguleerde financiële instellingen bij het verlenen van deze diensten, ook wanneer zij gebruikmaken van AI-systemen. Om te zorgen voor een coherente toepassing en handhaving van de verplichtingen uit hoofde van deze verordening en de relevante regels en voorschriften van de Uniewetgeving inzake financiële diensten, moeten de autoriteiten die verantwoordelijk zijn voor het toezicht op en de handhaving van de wetgeving inzake financiële diensten, met inbegrip van, waar van toepassing, de Europese Centrale Bank, worden aangewezen als bevoegde autoriteiten met het oog op het toezicht op de uitvoering van deze verordening, waaronder voor markttoezichtactiviteiten, met betrekking tot AI-systemen die worden geleverd of gebruikt door gereguleerde en gecontroleerde financiële instellingen. Teneinde de samenhang tussen deze verordening en de regels die van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU van het Europees Parlement en de Raad56 verder te verbeteren, is het ook passend om de procedure voor de conformiteitsbeoordeling en enkele van de procedurele verplichtingen van aanbieders in verband met het risicobeheer, de monitoring na het in de handel brengen en de documentatie op te nemen in de bestaande verplichtingen en procedures in het kader van Richtlijn 2013/36/EU. Om overlappingen te voorkomen, moet ook worden voorzien in beperkte afwijkingen in verband met het systeem voor kwaliteitsbeheer van aanbieders en de monitoringsverplichting voor gebruikers van AI-systemen met een hoog risico voor zover deze van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU.
(80) De wetgeving van de Unie inzake financiële diensten omvat regels en voorschriften met betrekking tot interne governance en risicobeheer die van toepassing zijn op gereguleerde financiële instellingen bij het verlenen van deze diensten, ook wanneer zij gebruikmaken van AI-systemen. Om te zorgen voor een coherente toepassing en handhaving van de verplichtingen uit hoofde van deze verordening en de relevante regels en voorschriften van de Uniewetgeving inzake financiële diensten, moeten de bevoegde autoriteiten die verantwoordelijk zijn voor het toezicht op en de handhaving van de wetgeving inzake financiële diensten, met inbegrip van, waar van toepassing, de Europese Centrale Bank, worden aangewezen als bevoegde autoriteiten met het oog op het toezicht op de uitvoering van deze verordening, waaronder voor markttoezichtactiviteiten, met betrekking tot AI-systemen die worden geleverd of gebruikt door gereguleerde en gecontroleerde financiële instellingen. Teneinde de samenhang tussen deze verordening en de regels die van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU van het Europees Parlement en de Raad56 verder te verbeteren, is het ook passend om de procedure voor de conformiteitsbeoordeling en enkele van de procedurele verplichtingen van aanbieders in verband met het risicobeheer, de monitoring na het in de handel brengen en de documentatie op te nemen in de bestaande verplichtingen en procedures in het kader van Richtlijn 2013/36/EU. Om overlappingen te voorkomen, moet ook worden voorzien in beperkte afwijkingen in verband met het systeem voor kwaliteitsbeheer van aanbieders en de monitoringsverplichting voor exploitanten van AI-systemen met een hoog risico voor zover deze van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU.
__________________
__________________
56 Richtlijn 2013/36/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende toegang tot het bedrijf van kredietinstellingen en het prudentieel toezicht op kredietinstellingen en beleggingsondernemingen, tot wijziging van Richtlijn 2002/87/EG en tot intrekking van de Richtlijnen 2006/48/EG en 2006/49/EG (PB L 176 van 27.6.2013, blz. 338).
56 Richtlijn 2013/36/EU van het Europees Parlement en de Raad van 26 juni 2013 betreffende toegang tot het bedrijf van kredietinstellingen en het prudentieel toezicht op kredietinstellingen en beleggingsondernemingen, tot wijziging van Richtlijn 2002/87/EG en tot intrekking van de Richtlijnen 2006/48/EG en 2006/49/EG (PB L 176 van 27.6.2013, blz. 338).
Amendement 129 Voorstel voor een verordening Overweging 80 bis (nieuw)
(80 bis) Gezien de doelstellingen van deze verordening, te weten het waarborgen van een gelijkwaardig niveau van bescherming van de gezondheid, de veiligheid en de grondrechten van natuurlijke personen en het garanderen van de bescherming van de rechtsstaat en de democratie, en rekening houdend met het feit dat het beperken van de risico’s van AI-systemen voor dergelijke rechten op nationaal niveau mogelijkerwijs onvoldoende kan worden gegarandeerd of verschillend kan worden geïnterpreteerd, hetgeen tot een ongelijk niveau van bescherming van natuurlijke personen en versnippering van de markt zou kunnen leiden, moet aan de nationale toezichthoudende autoriteiten de bevoegdheid worden verleend om met het oog op een doeltreffende handhaving gezamenlijke onderzoeken uit te voeren of gebruik te maken van de vrijwaringsprocedure van de Unie waarin deze verordening voorziet. Gezamenlijke onderzoeken moeten worden ingesteld in gevallen waarin de nationale toezichthoudende autoriteit voldoende reden heeft om te denken dat een inbreuk op deze verordening een wijdverbreide inbreuk of een wijdverbreide inbreuk met een Uniedimensie is, of het AI-systeem of het basismodel een risico vertegenwoordigt dat gevolgen heeft of waarschijnlijk gevolgen zal hebben voor ten minste 45 miljoen personen in meer dan één lidstaat.
Amendement 130 Voorstel voor een verordening Overweging 82
(82) Het is belangrijk dat AI-systemen die verband houden met producten en die overeenkomstig deze verordening geen hoog risico met zich meebrengen en derhalve niet hoeven te voldoen aan de voorschriften van deze verordening, desalniettemin veilig zijn wanneer zij in de handel worden gebracht of in gebruik worden gesteld. Met het oog op deze doelstelling zou Richtlijn 2001/95/EG van het Europees Parlement en de Raad57 als vangnet van toepassing zijn.
(82) Het is belangrijk dat AI-systemen die verband houden met producten en die overeenkomstig deze verordening geen hoog risico met zich meebrengen en derhalve niet hoeven te voldoen aan de voorschriften voor AI-systemen met een hoog risico, desalniettemin veilig zijn wanneer zij in de handel worden gebracht of in gebruik worden gesteld. Met het oog op deze doelstelling zou Richtlijn 2001/95/EG van het Europees Parlement en de Raad57 als vangnet van toepassing zijn.
__________________
__________________
57 Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid (PB L 11 van 15.1.2002, blz. 4).
57 Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid (PB L 11 van 15.1.2002, blz. 4).
Amendement 131 Voorstel voor een verordening Overweging 83
(83) Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening de vertrouwelijkheid eerbiedigen van informatie en data die zij bij de uitvoering van hun taken verkrijgen.
(83) Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening streven naar transparantie en openheid, met inachtneming van de vertrouwelijkheid van informatie en data die zij bij de uitvoering van hun taken verkrijgen, door technische en organisatorische maatregelen te treffen ter bescherming van de veiligheid en vertrouwelijkheid van de informatie die zij bij de uitvoering van hun activiteiten hebben verkregen, onder meer voor intellectuele-eigendomsrechten en openbare en nationale veiligheidsbelangen.Wanneer de activiteiten van de Commissie, nationale bevoegde autoriteiten en aangemelde instanties op grond van deze verordening leiden tot een inbreuk op intellectuele-eigendomsrechten, moeten de lidstaten voorzien in passende maatregelen en rechtsmiddelen om de handhaving van de intellectuele-eigendomsrechten te waarborgen overeenkomstig Richtlijn 2004/48/EG.
Amendement 132 Voorstel voor een verordening Overweging 84
(84) De lidstaten moeten alle nodige maatregelen treffen opdat de bepalingen van deze verordening worden uitgevoerd, onder meer door te voorzien in doeltreffende, evenredige en afschrikkende sancties bij inbreuken daarop. Voor bepaalde specifieke inbreuken moeten de lidstaten de marges en criteria van deze verordening in aanmerking nemen. De Europese Toezichthouder voor gegevensbescherming moet bevoegd zijn om geldboeten op te leggen aan instellingen, agentschappen en organen van de Unie die vallen onder het toepassingsgebied van deze verordening.
(84) Naleving van deze verordening moet kunnen worden afgedwongen middels het opleggen van geldboeten door de nationale toezichthoudende autoriteit, in het kader van door haar ingeleide procedures in overeenstemming met het bepaalde in deze verordening. De lidstaten moeten alle nodige maatregelen treffen opdat de bepalingen van deze verordening worden uitgevoerd, onder meer door te voorzien in doeltreffende, evenredige en afschrikkende sancties bij inbreuken daarop. Teneinde de administratieve straffen tegen inbreuken op deze verordening te versterken en te harmoniseren, moeten de maxima voor de vaststelling van de administratieve geldboeten voor bepaalde specifieke inbreuken worden vastgesteld. Bij de beoordeling van het bedrag van de geldboeten moeten de nationale bevoegde autoriteiten per afzonderlijk geval rekening houden met alle relevante omstandigheden van de specifieke situatie, met inachtneming van met name de aard, de ernst en de duur van de inbreuk, de gevolgen ervan en de omvang van de aanbieder, met name wanneer de aanbieder een kmo of een start-up is. De Europese Toezichthouder voor gegevensbescherming moet bevoegd zijn om geldboeten op te leggen aan instellingen, organen en instanties van de Unie die vallen onder het toepassingsgebied van deze verordening. De sancties en proceskosten uit hoofde van deze verordening mogen niet aan contractuele bepalingen of enig andere regeling worden onderworpen.
Amendement 133 Voorstel voor een verordening Overweging 84 bis (nieuw)
(84 bis) Aangezien de rechten en vrijheden van natuurlijke personen, rechtspersonen en groepen natuurlijke personen ernstig kunnen worden ondermijnd door AI-systemen, is het van essentieel belang dat natuurlijke personen en rechtspersonen of groepen natuurlijke personen betekenisvolle toegang hebben tot rapportage- en verhaalmechanismen en recht hebben op toegang tot evenredige en doeltreffende rechtsmiddelen. Zij moeten inbreuken op deze verordening aan hun nationale toezichthoudende autoriteit kunnen melden en het recht hebben een klacht in te dienen tegen de aanbieders of exploitanten van AI-systemen. In voorkomend geval moeten de exploitanten voorzien in interne klachtenmechanismen die door natuurlijke personen en rechtspersonen of groepen natuurlijke personen kunnen worden gebruikt. Onverminderd elke andere administratieve of buitengerechtelijke voorziening moeten natuurlijke personen, rechtspersonen en groepen natuurlijke personen daarnaast het recht hebben op een doeltreffende gerechtelijke voorziening in verband met een wettelijk bindend besluit van een nationale toezichthoudende autoriteit dat hen betreft, of indien de nationale toezichthoudende autoriteit een klacht niet in behandeling neemt, de indiener van een klacht niet informeert over de behandeling of de voorlopige uitkomst van de behandeling van de klacht, of zich niet houdt aan zijn verplichting om een definitief besluit te nemen.
Amendement 134 Voorstel voor een verordening Overweging 84 ter (nieuw)
(84 ter) Wanneer exploitanten een AI-systeem met een hoog risico gebruiken om beslissingen te nemen of te helpen nemen met betrekking tot natuurlijke personen, moeten de betrokken personen altijd ervan in kennis worden gesteld dat er een AI-systeem met een hoog risico op hen wordt toegepast. Deze informatie kan de betrokken personen een basis bieden om hun recht op uitleg uit hoofde van deze verordening uit te oefenen. Wanneer exploitanten de betrokken personen uit hoofde van deze verordening uitleg geven, moeten zij rekening houden met het niveau van deskundigheid en kennis van de gemiddelde consument of persoon.
Amendement 135 Voorstel voor een verordening Overweging 84 quater (nieuw)
(84 quater) De Uniewetgeving betreffende de bescherming van klokkenluiders (Richtlijn (EU) 2019/1937) is volledig van toepassing op academici, ontwerpers, ontwikkelaars, projectcontribuanten, auditors, productmanagers, ingenieurs en marktdeelnemers die informatie verkrijgen over inbreuken op het Unierecht door een aanbieder van AI-systemen of zijn AI-systeem.
Amendement 136 Voorstel voor een verordening Overweging 85
(85) Om ervoor te zorgen dat het regelgevingskader waar nodig kan worden aangepast, moet de Commissie de bevoegdheid krijgen om overeenkomstig artikel 290 VWEU handelingen vast te stellen teneinde wijzigingen aan te brengen in de technieken en benaderingen van bijlage I voor het definiëren van AI-systemen, de in de lijst van bijlage II opgenomen harmonisatiewetgeving van de Unie, de in de lijst van bijlage III opgenomen AI-systemen met een hoog risico, de bepalingen inzake technische documentatie van bijlage IV, de inhoud van de EU-conformiteitsverklaring van bijlage V, de bepalingen inzake de procedures voor de conformiteitsbeoordeling van de bijlagen VI en VII en de bepalingen inzake de vaststelling van de AI-systemen met een hoog risico waarop de procedure voor de conformiteitsbeoordeling op basis van de beoordeling van het systeem voor kwaliteitsbeheer en de beoordeling van de technische documentatie van toepassing moet zijn. Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven58. Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen, ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen systematisch toegang tot de vergaderingen van de deskundigengroepen van de Commissie die zich bezighouden met de voorbereiding van de gedelegeerde handelingen.
(85) Om ervoor te zorgen dat het regelgevingskader waar nodig kan worden aangepast, moet de Commissie de bevoegdheid krijgen om overeenkomstig artikel 290 VWEU handelingen vast te stellen teneinde wijzigingen aan te brengen in de in de lijst van bijlage II opgenomen harmonisatiewetgeving van de Unie, de in de lijst van bijlage III opgenomen AI-systemen met een hoog risico, de bepalingen inzake technische documentatie van bijlage IV, de inhoud van de EU-conformiteitsverklaring van bijlage V, de bepalingen inzake de procedures voor de conformiteitsbeoordeling van de bijlagen VI en VII en de bepalingen inzake de vaststelling van de AI-systemen met een hoog risico waarop de procedure voor de conformiteitsbeoordeling op basis van de beoordeling van het systeem voor kwaliteitsbeheer en de beoordeling van de technische documentatie van toepassing moet zijn. Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven58. Bij deze raadplegingen moet een evenwichtige selectie van belanghebbenden worden betrokken, waaronder consumentenorganisaties, het maatschappelijk middenveld, verenigingen die de betrokken personen vertegenwoordigen, vertegenwoordigers uit verschillende sectoren van het bedrijfsleven en van bedrijven van verschillende omvang, alsmede onderzoekers en wetenschappers. Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen, ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen systematisch toegang tot de vergaderingen van de deskundigengroepen van de Commissie die zich bezighouden met de voorbereiding van de gedelegeerde handelingen.
__________________
__________________
58 PB L 123 van 12.5.2016, blz. 1.
58 PB L 123 van 12.5.2016, blz. 1.
Amendement 137 Voorstel voor een verordening Overweging 85 bis (nieuw)
(85 bis) Gezien de snelle technologische ontwikkelingen en de vereiste technische deskundigheid bij de beoordeling van AI-systemen met een hoog risico, moet de Commissie de uitvoering van deze verordening, met name de verboden AI-systemen, de transparantieverplichtingen en de lijst van gebieden met een hoog risico en praktijkvoorbeelden, regelmatig en ten minste jaarlijks evalueren en daarbij het AI-bureau en de relevante belanghebbenden raadplegen.
Amendement 138 Voorstel voor een verordening Overweging 87 bis (nieuw)
(87 bis) Aangezien betrouwbare informatie over het hulpbronnen- en energieverbruik, de afvalproductie en andere milieueffecten van AI-systemen en aanverwante ICT-technologie, met inbegrip van software, hardware en met name datacentra, beperkt is, moet de Commissie een passende methode invoeren om het milieueffect en de doeltreffendheid van deze verordening te meten in het licht van de milieu- en klimaatdoelstellingen van de Unie.
Amendement 139 Voorstel voor een verordening Overweging 89
(89) Overeenkomstig artikel 42, lid 2, van Verordening (EU) 2018/1725 zijn de Europese Toezichthouder voor gegevensbescherming en het Europees Comité voor gegevensbescherming geraadpleegd, en op […] hebben zij een advies uitgebracht.
(89) Overeenkomstig artikel 42, lid 2, van Verordening (EU) 2018/1725 zijn de Europese Toezichthouder voor gegevensbescherming en het Europees Comité voor gegevensbescherming geraadpleegd, en op 18 juni 2021 hebben zij een advies uitgebracht.
Amendement 140 Voorstel voor een verordening Artikel 1 – lid 1 (nieuw)
1. Deze verordening heeft ten doel de introductie van mensgerichte en betrouwbare artificiële intelligentie te bevorderen en te zorgen voor een hoge mate van bescherming tegen de schadelijke effecten van artificiële-intelligentiesystemen (AI-systemen) op het vlak van gezondheid, veiligheid, grondrechten, democratie, de rechtsstaat en het milieu in de Unie, en voorts innovatie te ondersteunen.
Amendement 141 Voorstel voor een verordening Artikel 1 – alinea 1 – punt d
d) geharmoniseerde transparantievoorschriften voor AI-systemen die met natuurlijke personen moeten interageren, systemen voor het herkennen van emoties en systemen voor biometrische categorisering, evenals voor AI-systemen die worden gebruikt om beeld-, audio- of video-inhoud te genereren of te manipuleren;
d) geharmoniseerde transparantievoorschriften voor bepaalde AI-systemen;
Amendement 142 Voorstel voor een verordening Artikel 1 – alinea 1 – punt e
e) regels inzake markttoezicht en -monitoring.
e) regels inzake markttoezicht, marktmonitoring, governance en handhaving;
Amendement 143 Voorstel voor een verordening Artikel 1 – alinea 1 – punt e bis (nieuw)
e bis) maatregelen ter ondersteuning van innovatie, met bijzondere aandacht voor kmo’s en start-ups, met inbegrip van de oprichting van testomgevingen voor regelgeving en gerichte maatregelen om de regeldruk voor kmo’s en start-ups te verminderen;
Amendement 144 Voorstel voor een verordening Artikel 1 – alinea 1 – punt e ter (nieuw)
e ter) regels voor de oprichting en werking van het Bureau voor artificiële intelligentie (AI-bureau) van de Unie.
Amendement 145 Voorstel voor een verordening Artikel 2 – lid 1 – punt b
b) gebruikers van AI-systemen die zich in de Unie bevinden;
b) exploitanten van AI-systemen die gevestigd zijn of zich bevinden in de Unie;
Amendement 146 Voorstel voor een verordening Artikel 2 – lid 1 – punt c
c) aanbieders en gebruikers van AI-systemen die zich in een derde land bevinden wanneer de output van het systeem in de Unie wordt gebruikt.
c) aanbieders en exploitanten van AI-systemen die gevestigd zijn of zich bevinden in een derde land wanneer het lidstatelijke recht van toepassing is krachtens internationaal publiekrecht of de output van het systeem bedoeld is om in de Unie te worden gebruikt;
Amendement 147 Voorstel voor een verordening Artikel 2 – lid 1 – punt c bis (nieuw)
c bis) aanbieders die in artikel 5 bedoelde AI-systemen buiten de Unie in de handel brengen of in gebruik stellen, terwijl de aanbieder of distributeur van dergelijke systemen zich in de Unie bevindt;
Amendement 148 Voorstel voor een verordening Artikel 2 – lid 1 – punt c ter (nieuw)
c ter) importeurs en distributeurs van AI-systemen, alsook gemachtigden van aanbieders van AI-systemen, indien die importeurs, distributeurs of gemachtigden gevestigd zijn of zich bevinden in de Unie;
Amendement 149 Voorstel voor een verordening Artikel 2 – lid 1 – punt c quater (nieuw)
c quater) betrokken personen als gedefinieerd in artikel 3, punt 8 bis, die zich in de Unie bevinden en wier gezondheid, veiligheid of grondrechten negatief worden beïnvloed door het gebruik van een AI-systeem dat in de Unie in de handel wordt gebracht of in gebruik wordt gesteld.
Amendement 150 Voorstel voor een verordening Artikel 2 – lid 2 – inleidende formule
2. Op AI-systemen met een hoog risico die veiligheidscomponenten van producten of systemen vormen of die zelf producten of systemen zijn en die vallen onder de volgende handelingen is uitsluitend artikel 84 van deze verordening van toepassing:
2. Op AI-systemen met een hoog risico die veiligheidscomponenten van producten of systemen vormen of die zelf producten of systemen zijn en die binnen het toepassingsgebied van de in bijlage II, deel B, opgenomen harmonisatiewetgeving van de Unie vallen, is uitsluitend artikel 84 van deze verordening van toepassing.
Amendement 151 Voorstel voor een verordening Artikel 2 – lid 2 – punt a
a) Verordening (EG) nr. 300/2008;
Schrappen
Amendement 152 Voorstel voor een verordening Artikel 2 – lid 2 – punt b
b) Verordening (EU) nr. 167/2013;
Schrappen
Amendement 153 Voorstel voor een verordening Artikel 2 – lid 2 – punt c
c) Verordening (EU) nr. 168/2013;
Schrappen
Amendement 154 Voorstel voor een verordening Artikel 2 – lid 2 – punt d
d) Richtlijn 2014/90/EU;
Schrappen
Amendement 155 Voorstel voor een verordening Artikel 2 – lid 2 – punt e
e) Richtlijn (EU) 2016/797;
Schrappen
Amendement 156 Voorstel voor een verordening Artikel 2 – lid 2 – punt f
f) Verordening (EU) 2018/858;
Schrappen
Amendement 157 Voorstel voor een verordening Artikel 2 – lid 2 – punt g
g) Verordening (EU) 2018/1139;
Schrappen
Amendement 158 Voorstel voor een verordening Artikel 2 – lid 2 – punt h
h) Verordening (EU) 2019/2144.
Schrappen
Amendement 159 Voorstel voor een verordening Artikel 2 – lid 4
4. Deze verordening is niet van toepassing op overheidsinstanties in derde landen of internationale organisaties die overeenkomstig lid 1 onder het toepassingsgebied van deze verordening vallen wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale overeenkomsten voor samenwerking met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie.
4. Deze verordening is niet van toepassing op overheidsinstanties in derde landen of internationale organisaties die overeenkomstig lid 1 onder het toepassingsgebied van deze verordening vallen wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten voor samenwerking met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie en zij het onderwerp zijn van een besluit van de Commissie dat is vastgesteld overeenkomstig artikel 36 van Richtlijn (EU) 2016/680 of artikel 45 van Verordening (EU) 2016/679 (adequaatheidsbesluit) of deel uitmaken van een internationale overeenkomst tussen de Unie en dat derde land of die internationale organisatie overeenkomstig artikel 218 VWEU die passende waarborgen biedt met betrekking tot de bescherming van de persoonlijke levenssfeer en de grondrechten en fundamentele vrijheden van personen.
Amendement 160 Voorstel voor een verordening Artikel 2 – lid 5 bis (nieuw)
5 bis. Het Unierecht inzake de bescherming van persoonsgegevens, de privacy en de vertrouwelijkheid van communicatie is van toepassing op de verwerking van persoonsgegevens in verband met de rechten en verplichtingen die in deze verordening zijn vastgelegd. Deze verordening laat de Verordeningen (EU) 2016/679 en (EU) 2018/1725 en de Richtlijnen 2002/58/EG en (EU) 2016/680 onverlet, onverminderd de regelingen van artikel 10, lid 5, en artikel 54 van deze verordening.
Amendement 161 Voorstel voor een verordening Artikel 2 – lid 5 ter (nieuw)
5 ter. Deze verordening doet geen afbreuk aan de regels die zijn vastgesteld in andere rechtshandelingen van de Unie met betrekking tot consumentenbescherming en productveiligheid.
Amendement 162 Voorstel voor een verordening Artikel 2 – lid 5 quater (nieuw)
5 quater. Deze verordening belet de lidstaten of de Unie niet om wettelijke en bestuursrechtelijke bepalingen te handhaven of in te voeren die gunstiger zijn voor werknemers wat betreft de bescherming van hun rechten met betrekking tot het gebruik van AI-systemen door werkgevers, of om de toepassing van voor werknemers gunstigere collectieve overeenkomsten aan te moedigen of toe te staan.
Amendement 163 Voorstel voor een verordening Artikel 2 – lid 5 quinquies (nieuw)
5 quinquies. Deze verordening is niet van toepassing op onderzoeks-, test- en ontwikkelingsactiviteiten met betrekking tot een AI-systeem voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld, mits deze activiteiten met inachtneming van de grondrechten en het toepasselijke Unierecht worden uitgevoerd. Tests in reële omstandigheden vallen niet onder deze vrijstelling. De Commissie is bevoegd overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen ter verduidelijking van de toepassing van dit lid om deze vrijstelling te specificeren om bestaand en mogelijk misbruik ervan te voorkomen. Het AI-bureau verstrekt richtsnoeren over de governance inzake onderzoek en ontwikkeling overeenkomstig artikel 56 en streeft er ook naar de toepassing ervan door de nationale toezichthoudende autoriteiten te coördineren.
Amendement 164 Voorstel voor een verordening Artikel 2 – lid 5 sexies (nieuw)
5 sexies. Deze verordening is niet van toepassing op AI-componenten die worden aangeboden in het kader van gratis en opensourcelicenties, behalve voor zover zij in de handel worden gebracht of in gebruik worden gesteld door een aanbieder als onderdeel van een AI-systeem met een hoog risico of van een AI-systeem dat onder titel II of titel IV valt. Deze vrijstelling geldt niet voor basismodellen zoals gedefinieerd in artikel 3.
Amendement 165 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1
1) “artificiële-intelligentiesysteem” (AI-systeem): software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de lijst van bijlage I en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd;
1) “artificiële-intelligentiesysteem” (AI-systeem): een machinaal systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat voor expliciete of impliciete doelstellingen output kan genereren, zoals voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de fysieke of virtuele omgeving;
Amendement 166 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1 bis (nieuw)
1 bis) “risico” de combinatie van de kans op schade en de ernst van die schade;
Amendement 167 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1 ter (nieuw)
1 ter) “significant risico”: een risico dat aanzienlijk is als gevolg van de combinatie van de ernst, de intensiteit, de waarschijnlijkheid dat het zich voordoet, de duur van de gevolgen, en het vermogen om een persoon, meerdere personen of een bepaalde groep personen te treffen;
Amendement 168 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1 quater (nieuw)
1 quater) “basismodel”: een AI-systeemmodel dat is getraind aan de hand van grootschalige gegevens, is ontworpen voor allerhande output en kan worden aangepast aan tal van uiteenlopende taken;
Amendement 169 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1 quinquies (nieuw)
1 quinquies) “AI-systeem voor algemene doeleinden”: een AI-systeem dat kan worden gebruikt in en aangepast aan tal van toepassingen waarvoor het niet doelbewust en specifiek is ontworpen;
Amendement 170 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 1 sexies (nieuw)
1 sexies) “uitgebreide training”: het productieproces van een krachtig AI-model waarvoor computermiddelen boven een zeer hoge drempel nodig zijn;
Amendement 171 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 3
3) “kleine aanbieder”:een aanbieder die een micro- of kleine onderneming is in de zin van Aanbeveling 2003/361/EG van de Commissie61;
Schrappen
__________________
61 Aanbeveling van de Commissie van 6 mei 2003 betreffende de definitie van kleine, middelgrote en micro-ondernemingen (PB L 124 van 20.5.2003, blz. 36).
Amendement 172 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 4
4) “gebruiker”: een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit;
4) “exploitant”: een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit;
Amendement 173 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 8
8) “exploitant”: de aanbieder, gebruiker, gemachtigde, importeur en distributeur;
8) “operator”: de aanbieder, exploitant, gemachtigde, importeur en distributeur;
Amendement 174 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 8 bis (nieuw)
8 bis) “betrokken persoon”: elke natuurlijke persoon of groep personen die onderworpen is aan of anderszins wordt beïnvloed door een AI-systeem;
Amendement 175 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 11
11) “in gebruik stellen”: de directe levering van een AI-systeem aan de gebruiker voor het eerste gebruik of voor eigen gebruik op de markt van de Unie voor het beoogde doel;
11) “in gebruik stellen”: de directe levering van een AI-systeem aan de exploitant voor het eerste gebruik of voor eigen gebruik op de markt van de Unie voor het beoogde doel;
Amendement 176 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 13
13) “redelijkerwijs te voorzien misbruik”: het gebruik van een AI-systeem op een wijze die niet in overeenstemming is met het beoogde doel, maar die kan voortvloeien uit redelijkerwijs te voorzien menselijk gedrag of de redelijkerwijs te voorziene interactie met andere systemen;
13) “redelijkerwijs te voorzien misbruik”: het gebruik van een AI-systeem op een wijze die niet in overeenstemming is met het beoogde doel zoals aangegeven in de door de aanbieder opgestelde gebruiksaanwijzing, maar die kan voortvloeien uit redelijkerwijs te voorzien menselijk gedrag of de redelijkerwijs te voorziene interactie met andere systemen, met inbegrip van andere AI-systemen;
Amendement 177 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 14
14) “veiligheidscomponent van een product of systeem”: een component van een product of systeem die een veiligheidsfunctie voor dat product of systeem vervult of waarvan het falen of gebrekkig functioneren de gezondheid en veiligheid van personen of eigendom in gevaar brengt;
14) “veiligheidscomponent van een product of systeem”: in overeenstemming met de in bijlage II vermelde harmonisatiewetgeving van de Unie een component van een product of systeem die een veiligheidsfunctie voor dat product of systeem vervult of waarvan het falen of gebrekkig functioneren de gezondheid en veiligheid van personen in gevaar brengt;
Amendement 178 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 15
15) “gebruiksinstructies”: de door de aanbieder verstrekte informatie om de gebruiker te informeren over met name het beoogde doel en juiste gebruik van een AI-systeem, met inbegrip van de specifieke geografische, functionele of gedragsomgeving waarin het AI-systeem met een hoog risico moet worden gebruikt;
15) “gebruiksinstructies”: de door de aanbieder verstrekte informatie om de exploitant te informeren over met name het beoogde doel en juiste gebruik van een AI-systeem, alsook informatie over te nemen voorzorgsmaatregelen, met inbegrip van de specifieke geografische, functionele of gedragsomgeving waarin het AI-systeem met een hoog risico moet worden gebruikt;
Amendement 179 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 16
16) “terugroepen van een AI-systeem”: een maatregel gericht op het retourneren aan de aanbieder van een AI-systeem dat reeds aan gebruikers ter beschikking is gesteld;
16) “terugroepen van een AI-systeem”: een maatregel gericht op het retourneren aan de aanbieder van een AI-systeem dat reeds aan exploitanten ter beschikking is gesteld;
Amendement 180 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 20
20) “conformiteitsbeoordeling”: het proces van verificatie van de naleving van de voorschriften van titel III, hoofdstuk 2, van deze verordening in verband met een AI-systeem;
20) “conformiteitsbeoordeling”: het proces waarmee wordt aangetoond of is voldaan aan de voorschriften van titel III, hoofdstuk 2, van deze verordening in verband met een AI-systeem;
Amendement 181 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 22
22) “aangemelde instantie”: een conformiteitsbeoordelingsinstantie die overeenkomstig deze verordening en andere relevante harmonisatiewetgeving van de Unie is aangewezen;
22) “aangemelde instantie”: een conformiteitsbeoordelingsinstantie die overeenkomstig deze verordening en andere relevante harmonisatiewetgeving van de Unie is aangemeld;
Amendement 182 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 23
23) “ingrijpende wijziging”: een verandering van een AI-systeem nadat dit in de handel is gebracht of in gebruik is gesteld, die gevolgen heeft voor de overeenstemming van het AI-systeem met de voorschriften van titel III, hoofdstuk 2, van deze verordening of die resulteert in een wijziging van het beoogde doel waarvoor het AI-systeem is beoordeeld;
23) “ingrijpende wijziging”: een wijziging of een reeks wijzigingen van een AI-systeem nadat dit in de handel is gebracht of in gebruik is gesteld, die door de aanbieder niet is voorzien of gepland in de initiële risicobeoordeling en als gevolg waarvan de overeenstemming van het AI-systeem met de voorschriften van titel III, hoofdstuk 2, van deze verordening wordt beïnvloed of die resulteert in een wijziging van het beoogde doel waarvoor het AI-systeem is beoordeeld;
Amendement 183 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 24
24) “CE-conformiteitsmarkering” (CE-markering): een markering waarmee een aanbieder aangeeft dat een AI-systeem in overeenstemming is met de voorschriften van titel III, hoofdstuk 2, van deze verordening en andere toepasselijke wetgeving van de Unie tot harmonisatie van de voorwaarden voor het in de handel brengen van producten (hierna “harmonisatiewetgeving van de Unie” genoemd) die in het aanbrengen ervan voorziet;
24) “CE-conformiteitsmarkering” (CE-markering): een fysieke of digitale markering waarmee een aanbieder aangeeft dat een AI-systeem of een product met een ingebed AI-systeem in overeenstemming is met de voorschriften van titel III, hoofdstuk 2, van deze verordening en andere toepasselijke wetgeving van de Unie tot harmonisatie van de voorwaarden voor het in de handel brengen van producten (hierna “harmonisatiewetgeving van de Unie” genoemd) die in het aanbrengen ervan voorziet;
Amendement 184 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 29
29) “trainingsdata”: data die worden gebruikt voor het trainen van een AI-systeem door de leerbare parameters hiervan aan te passen, met inbegrip van de wegingen van een neuraal netwerk;
29) “trainingsdata”: data die worden gebruikt voor het trainen van een AI-systeem door de leerbare parameters hiervan aan te passen;
Amendement 185 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 30
30) “validatiedata”: data die worden gebruikt voor het verrichten van een evaluatie van het getrainde AI-systeem en voor het afstemmen van onder andere de niet-leerbare parameters en het leerproces ervan, om overfitting te voorkomen; de validatiedatareeks kan zowel een afzonderlijke datareeks als een deel van de datareeks voor de training zijn, als vaste of variabele verdeling;
30) “validatiedata”: data die worden gebruikt voor het verrichten van een evaluatie van het getrainde AI-systeem en voor het afstemmen van onder andere de niet-leerbare parameters en het leerproces ervan, om onderfitting of overfitting te voorkomen; de validatiedatareeks is zowel een afzonderlijke datareeks als een deel van de datareeks voor de training, als vaste of variabele verdeling;
Amendement 186 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 33
33) “biometrische gegevens”: persoonsgegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke, fysiologische of gedragsgerelateerde kenmerken van een natuurlijke persoon op grond waarvan eenduidige identificatievandie natuurlijke persoon mogelijk is of wordt bevestigd, zoals gezichtsafbeeldingen of vingerafdrukgegevens;
33) “biometrische gegevens”: biometrische gegevens als gedefinieerd in artikel 4, punt 14, van Verordening (EU) 2016/679;
Amendement 187 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 33 bis (nieuw)
33 bis) “op biometrie gebaseerde gegevens”: gegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke, fysiologische of gedragsgerelateerde kenmerken van een natuurlijke persoon;
Amendement 188 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 33 ter (nieuw)
33 ter) “biometrische identificatie”: de geautomatiseerde herkenning van fysieke, fysiologische, gedragsgerelateerde en psychologische menselijke kenmerken om de identiteit van een persoon vast te stellen door biometrische gegevens van die persoon te vergelijken met in een databank opgeslagen biometrische gegevens van personen (één-op-vele-identificatie);
Amendement 189 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 33 quater (nieuw)
33 quater) “biometrische verificatie”: de geautomatiseerde verificatie van de identiteit van natuurlijke personen door biometrische gegevens van een persoon te vergelijken met eerder verstrekte biometrische gegevens (één-op-één-verificatie, met inbegrip van authenticatie);
Amendement 190 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 33 quinquies (nieuw)
33 quinquies) “bijzondere categorieën persoonsgegevens”: de categorieën persoonsgegevens als bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679;
Amendement 191 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 34
34) “systeem voor het herkennen van emoties”: een AI-systeem dat is bedoeld voor het vaststellen of afleiden van emoties of intenties van natuurlijke personen op basis van hun biometrische gegevens;
34) “systeem voor het herkennen van emoties”: een AI-systeem dat is bedoeld voor het vaststellen of afleiden van emoties, gedachten, gemoedstoestanden of intenties van personen of groepen op basis van hun biometrische en op biometrie gebaseerde gegevens;
Amendement 192 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 35
35) “systeem voor biometrische categorisering”: een AI-systeem dat is bedoeld voor het indelen van natuurlijke personen in specifieke categorieën, zoals geslacht, leeftijd, haarkleur, oogkleur, tatoeages, etnische afkomst, seksuele gerichtheid ofpolitieke overtuiging, op basis van hun biometrische gegevens;
35) “biometrische categorisering”: het indelen van natuurlijke personen in specifieke categorieën, of het afleiden van hun kenmerken en eigenschappen op basis van hun biometrische ofop biometrie gebaseerde gegevens;
Amendement 193 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 36
36) “biometrisch systeem voor de identificatie op afstand”: een AI-systeem dat is bedoeld voor het identificeren van natuurlijke personen op afstand door middel van de vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank en zonder dat de gebruiker van het AI-systeem vooraf weet of de persoon hierin is opgenomen en kan worden geïdentificeerd;
36) “biometrisch systeem voor de identificatie op afstand”: een AI-systeem dat is bedoeld voor het identificeren van natuurlijke personen op afstand door middel van de vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank en zonder dat de exploitant van het AI-systeem vooraf weet of de persoon hierin is opgenomen en kan worden geïdentificeerd, met uitzondering van verificatiesystemen;
Amendement 194 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 37
37) “biometrisch systeem voor de identificatie op afstand in real time”: een biometrisch systeem voor de identificatie op afstand waarbij het vastleggen van biometrische gegevens, de vergelijking en de identificatie plaatsvinden zonder aanzienlijke vertraging. Dit omvat niet alleen de onmiddellijke identificatie, maar ook beperkte korte vertragingen om omzeiling te voorkomen;
37) “biometrisch systeem voor de identificatie op afstand in real time”: een biometrisch systeem voor de identificatie op afstand waarbij het vastleggen van biometrische gegevens, de vergelijking en de identificatie plaatsvinden zonder aanzienlijke vertraging. Dit omvat niet alleen de onmiddellijke identificatie, maar ook beperkte vertragingen om omzeiling te voorkomen;
Amendement 195 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 39
39) “openbare ruimte”: een fysieke plek die toegankelijk is voor het publiek, ongeacht of bepaalde voorwaarden voor de toegang van toepassing zijn;
39) “openbare ruimte”: een fysieke plek die in publieke of private handen is en toegankelijk is voor het publiek, ongeacht of bepaalde voorwaarden voor de toegang van toepassing zijn en ongeacht eventuele capaciteitsbeperkingen;
Amendement 196 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 41
41) “rechtshandhaving”: activiteiten die worden verricht door rechtshandhavingsinstanties met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;
41) “rechtshandhaving”: activiteiten die worden verricht door of namens rechtshandhavingsinstanties met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;
Amendement 197 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 42
42) “nationale toezichthoudende autoriteit”: de instantie waaraan een lidstaat de verantwoordelijkheid toekent voor de uitvoering en toepassing van deze verordening, voor de coördinatie van de activiteiten die aan die lidstaat zijn toevertrouwd, voor het optreden als enkel contactpunt voor de Commissie en voor het vertegenwoordigen van de lidstaat in het Europees Comité voor artificiële intelligentie;
42) “nationale toezichthoudende autoriteit”: een openbare instantie waaraan een lidstaat de verantwoordelijkheid toekent voor de uitvoering en toepassing van deze verordening, voor de coördinatie van de activiteiten die aan die lidstaat zijn toevertrouwd, voor het optreden als enkel contactpunt voor de Commissie en voor het vertegenwoordigen van de lidstaat in de raad van bestuur van het AI-bureau;
Amendement 198 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 43
43) “nationale bevoegde autoriteit”: de nationale toezichthoudende autoriteit, de aanmeldende autoriteit endemarkttoezichtautoriteit;
43) “nationale bevoegde autoriteit”: een van de nationale autoriteiten die verantwoordelijk zijn voordehandhaving van deze verordening;
Amendement 199 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 – inleidende formule
44) “ernstig incident”: elk incident dat direct of indirect leidt, kan hebben geleid of kan leiden tot:
44) “ernstig incident”: elk incident van een AI-systeem dat of elke storing van een AI-systeem die direct of indirect leidt, kan hebben geleid of kan leiden tot:
a) het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon, eigendom of het milieu;
a) het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon;
b) een ernstige verstoring van het beheer en de exploitatie van kritieke infrastructuur.
b) een ernstige verstoring van het beheer en de exploitatie van kritieke infrastructuur;
b bis) een schending van de krachtens het Unierecht beschermde grondrechten;
b ter) ernstige schade aan eigendom of het milieu;
Amendement 200 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 bis (nieuw)
44 bis) “persoonsgegevens”: persoonsgegevens zoals gedefinieerd in artikel 4, punt 1, van Verordening (EU) 2016/679;
Amendement 201 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 ter (nieuw)
44 ter) “niet-persoonsgebonden gegevens”: andere gegevens dan persoonsgegevens;
Amendement 202 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 quater (nieuw)
44 quater) “profilering”: elke vorm van geautomatiseerde verwerking van persoonsgegevens zoals gedefinieerd in artikel 4, punt 4, van Verordening (EU) 2016/679, of in het geval van rechtshandhavingsautoriteiten in artikel 3, punt 4, van Richtlijn (EU) 2016/680, of in het geval van instellingen, organen of instanties van de Unie in artikel 3, punt 5, van Verordening (EU) 2018/1725;
Amendement 203 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 quinquies (nieuw)
44 quinquies) “deepfake”: gemanipuleerde of synthetische audio-, beeld- of video-inhoud die ten onrechte authentiek of waarheidsgetrouw lijkt te zijn, en die voorstellingen bevat van personen die dingen lijken te zeggen of te doen die zij niet hebben gezegd of gedaan, geproduceerd met behulp van AI-technieken, waaronder machinaal leren en deep learning;
Amendement 204 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 sexies (nieuw)
44 sexies) “wijdverbreide inbreuk”: alle handelingen of omissies die in strijd zijn met het Unierecht ter bescherming van de belangen van personen:
a) die schade hebben veroorzaakt of waarschijnlijk zullen veroorzaken voor de collectieve belangen van personen met verblijfplaats in ten minste twee andere lidstaten dan de lidstaat waar:
i) de handeling of omissie haar oorsprong vond of plaatshad;
ii) de betrokken aanbieder of, waar van toepassing, diens gemachtigde is gevestigd; of,
iii) de exploitant is gevestigd, indien de inbreuk door de exploitant is gepleegd;
b) die schade hebben veroorzaakt, veroorzaken of waarschijnlijk zullen veroorzaken voor de collectieve belangen van personen en die gemeenschappelijke kenmerken hebben, waaronder dezelfde onrechtmatige praktijk of een inbreuk op hetzelfde belang, en die zich gelijktijdig voordoen en door dezelfde operator worden begaan in ten minste drie lidstaten;
Amendement 205 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 septies (nieuw)
44 septies) “wijdverbreide inbreuk met een Uniedimensie”: een wijdverbreide inbreuk die schade heeft veroorzaakt of waarschijnlijk zal veroorzaken voor de collectieve belangen van personen in ten minste twee derde van de lidstaten waarvan de bevolking ten minste twee derde uitmaakt van de bevolking van de Unie;
Amendement 206 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 octies (nieuw)
44 octies) “testomgeving voor regelgeving”: een door een overheidsinstantie tot stand gebrachte gecontroleerde omgeving ter vergemakkelijking van het volgens een specifiek plan en onder regelgevend toezicht ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld;
Amendement 207 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 nonies (nieuw)
44 nonies) “kritieke infrastructuur”: een voorziening, een faciliteit, apparatuur, een netwerk of een systeem, of een onderdeel van een voorziening, een faciliteit, apparatuur, een netwerk of een systeem, die of dat noodzakelijk is voor de verlening van een essentiële dienst in de zin van artikel 2, lid 4, van Richtlijn (EU) 2022/2557;
Amendement 208 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 duodecies (nieuw)
44 duodecies) “sociale scoring”: het beoordelen of classificeren van natuurlijke personen op basis van hun sociaal gedrag, sociaal-economische status of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken;
Amendement 209 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 terdecies (nieuw)
44 terdecies) “sociaal gedrag”: de manier waarop een natuurlijke persoon interageert met en invloed uitoefent op andere natuurlijke personen of de samenleving;
Amendement 210 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 quaterdecies (nieuw)
44 quaterdecies) “stand van de techniek”: het ontwikkelde stadium van technisch vermogen op een gegeven moment met betrekking tot producten, processen en diensten, op basis van de desbetreffende geconsolideerde bevindingen op het gebied van wetenschap, technologie en ervaring;
Amendement 211 Voorstel voor een verordening Artikel 3 – alinea 1 – punt 44 quindecies (nieuw)
44 quindecies) “testen in reële omstandigheden”: het tijdelijk testen van een AI-systeem voor zijn beoogde doel in reële omstandigheden buiten een laboratorium of een anderszins gesimuleerde omgeving;
Amendement 212 Voorstel voor een verordening Artikel 4
Artikel 4
Schrappen
Wijzigingen van bijlage I
De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot wijziging van de lijst van technieken en benaderingen van bijlage I, teneinde deze lijst bij te werken om rekening te houden met marktontwikkelingen en technologische ontwikkelingen op basis van kenmerken die vergelijkbaar zijn met de daarin opgenomen technieken en benaderingen.
Amendement 213 Voorstel voor een verordening Artikel 4 bis (nieuw)
Artikel 4 bis
Algemene beginselen die van toepassing zijn op alle AI-systemen
1. Alle onder deze verordening vallende operators stellen alles in het werk om AI-systemen of basismodellen te ontwikkelen en te gebruiken in overeenstemming met de volgende algemene beginselen die een kader op hoog niveau vormen ter bevordering van een coherente, mensgerichte Europese benadering van ethische en betrouwbare artificiële intelligentie, die volledig in overeenstemming is met het Handvest en met de waarden waarop de Unie is gegrondvest:
a) “invloed en toezicht door mensen”: AI-systemen worden ontwikkeld en gebruikt als een instrument dat ten dienste staat van mensen, dat de menselijke waardigheid en persoonlijke autonomie eerbiedigt, en dat functioneert op een wijze waar mensen op passende wijze controle en toezicht op kunnen houden;
b) “technische robuustheid en veiligheid”: AI-systemen worden zodanig ontwikkeld en gebruikt dat onbedoelde en onverwachte schade zoveel mogelijk wordt beperkt, dat zij robuust zijn in geval van onbedoelde problemen en dat zij bestand zijn tegen pogingen tot wijziging van het gebruik of de prestaties van het AI-systeem met het oog op onrechtmatig gebruik door kwaadwillige derden;
c) “privacy en databeheer”: AI-systemen worden ontwikkeld en gebruikt in overeenstemming met de bestaande regels inzake privacy en gegevensbescherming, en de verwerking van gegevens voldoet aan hoge normen wat kwaliteit en integriteit betreft;
d) “transparantie”: AI-systemen worden ontwikkeld en gebruikt op een wijze die passende traceerbaarheid en verklaarbaarheid mogelijk maakt, waarbij mensen ervan in kennis worden gesteld dat zij communiceren of interageren met een AI-systeem, en gebruikers naar behoren worden geïnformeerd over de mogelijkheden en beperkingen van dat AI-systeem en betrokken personen worden geïnformeerd over hun rechten;
e) “diversiteit, non-discriminatie en billijkheid”: AI-systemen worden zodanig ontwikkeld en gebruikt dat de inclusie van diverse actoren wordt gewaarborgd en dat gelijke toegang, gendergelijkheid en culturele diversiteit worden bevorderd, waarbij discriminerende effecten en onrechtvaardige vertekeningen die op grond van het Unierecht of het nationale recht verboden zijn, worden voorkomen;
f) “sociaal en ecologisch welzijn”: AI-systemen worden ontwikkeld en gebruikt op een duurzame en milieuvriendelijke wijze en op een manier die alle mensen ten goede komt, waarbij de langetermijneffecten op het individu, de samenleving en de democratie worden gemonitord en beoordeeld.
2. Lid 1 laat verplichtingen uit hoofde van het bestaande Unie- en nationale recht onverlet. Voor AI-systemen met een hoog risico worden de algemene beginselen door aanbieders of exploitanten omgezet en nageleefd door middel van de voorschriften van de artikelen 8 tot en met 15 en de in titel III, hoofdstuk 3, van deze verordening vastgelegde relevante verplichtingen. Voor basismodellen worden de algemene beginselen door aanbieders omgezet en nageleefd door middel van de voorschriften van de artikelen 28 tot en met 28 ter. Voor alle AI-systemen kan de toepassing van de in lid 1 bedoelde beginselen naargelang het geval worden bereikt door middel van de bepalingen van artikel 28, artikel 52 of de toepassing van geharmoniseerde normen, technische specificaties en gedragscodes als bedoeld in artikel 69, zonder nieuwe verplichtingen uit hoofde van deze verordening te creëren.
3. De Commissie en het AI-bureau nemen deze leidende beginselen op in normalisatieverzoeken en aanbevelingen in de vorm van technische richtsnoeren om aanbieders en exploitanten te helpen bij de ontwikkeling en het gebruik van AI-systemen. Bij de ontwikkeling van de passende geharmoniseerde normen voor AI-systemen met een hoog risico als bedoeld in artikel 40, lid 2 ter, nemen de Europese normalisatie-instellingen de in lid 1 van dit artikel bedoelde algemene beginselen in aanmerking als op uitkomst gebaseerde doelstellingen.
Amendement 214 Voorstel voor een verordening Artikel 4 ter (nieuw)
Artikel 4 ter
AI-geletterdheid
1. Bij de uitvoering van deze verordening bevorderen de Unie en de lidstaten maatregelen voor de ontwikkeling van een toereikend niveau van AI-geletterdheid, in alle sectoren en rekening houdend met de verschillende behoeften van groepen aanbieders, exploitanten en betrokken personen, onder meer door middel van programma’s voor onderwijs en opleiding en voor scholing en omscholing en met waarborging van een passend gender- en leeftijdsevenwicht, met het oog op democratische controle van AI-systemen.
2. Aanbieders en exploitanten van AI-systemen nemen maatregelen om te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.
3. Dergelijke maatregelen voor geletterdheid bestaan concreet uit het aanleren van basisbegrippen en -vaardigheden in verband met AI-systemen en de werking daarvan, met inbegrip van de verschillende soorten producten en gebruikssituaties en de risico’s en voordelen die eraan verbonden zijn.
4. Een toereikend niveau van AI-geletterdheid is een niveau dat voor zover nodig bijdraagt tot de bekwaamheid van aanbieders en exploitanten om naleving en handhaving van deze verordening te waarborgen.
Amendement 215 Voorstel voor een verordening Artikel 5 – lid 1 – punt a
a) het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken gebruikt waarvan personen zich niet bewust zijn om het gedrag van personen wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;
a) het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken waarvan personen zich niet bewust zijn of doelbewust manipulatieve of misleidende technieken gebruikt, met als doel of effect het gedrag van personen of een groep personen wezenlijk te verstoren door hun vermogen om een geïnformeerd besluit te nemen merkbaar te belemmeren, waardoor de persoon een besluit neemt dat deze anders niet had genomen, op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen, of een groep personen, aanzienlijke schade oplopen.
Het in de eerste alinea bedoelde verbod op AI-systemen die subliminale technieken toepassen, is niet van toepassing op AI-systemen die bedoeld zijn om voor goedgekeurde therapeutische doeleinden te worden gebruikt op basis van specifieke geïnformeerde toestemming van de personen die eraan zijn blootgesteld of, indien van toepassing, van hun wettelijke voogd;
Amendement 216 Voorstel voor een verordening Artikel 5 – lid 1 – punt b
b) het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een specifieke groep personen als gevolg van hun leeftijd of fysieke of geestelijke handicap om het gedrag van personen die tot deze groep behoren, wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;
b) het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een persoon of een specifieke groep personen, waaronder kenmerken van bekende of voorspelde persoonlijkheidskenmerken of de sociale of economische situatie, leeftijd of fysieke of geestelijke vermogens van deze persoon of deze groep personen, met als doel of effect het gedrag van deze persoon of van personen die tot deze groep behoren wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen aanzienlijke schade oplopen;
Amendement 217 Voorstel voor een verordening Artikel 5 – lid 1 – punt b bis (nieuw)
b bis) het in de handel brengen, in gebruik stellen of gebruiken van systemen voor biometrische categorisering die natuurlijke personen indelen op basis van gevoelige of beschermde eigenschappen of kenmerken, of op basis van het afleiden van die eigenschappen of kenmerken. Dit verbod is niet van toepassing op AI-systemen die bedoeld zijn om voor goedgekeurde therapeutische doeleinden te worden gebruikt op basis van specifieke geïnformeerde toestemming van de personen die eraan zijn blootgesteld of, indien van toepassing, van hun wettelijke voogd;
Amendement 218 Voorstel voor een verordening Artikel 5 – lid 1 – punt c – inleidende formule
c) het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen door of namens overheidsinstanties voor de evaluatie of classificatie van de betrouwbaarheid van natuurlijke personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:
c) het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen voor de sociale scoring, evaluatie of classificatie van natuurlijke personen of groepennatuurlijke personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:
Amendement 219 Voorstel voor een verordening Artikel 5 – lid 1 – punt c – i
i) de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of volledige groepen personen in een sociale context die geen verband houdt met de context waarin de data oorspronkelijk werden gegenereerd of verzameld;
(Niet van toepassing op de Nederlandse versie)
Amendement 220 Voorstel voor een verordening Artikel 5 – lid 1 – punt d – inleidende formule
d) het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, tenzij en voor zover een dergelijk gebruik strikt noodzakelijk is voor een van de volgende doelstellingen:
d) het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten;
Amendement 221 Voorstel voor een verordening Artikel 5 – lid 1 – punt d – i
i) het gericht zoeken naar specifieke potentiële slachtoffers van misdaad, waaronder vermiste kinderen;
Schrappen
Amendement 222 Voorstel voor een verordening Artikel 5 – lid 1 – punt d – ii
ii) het voorkomen van een specifieke, aanzienlijke en imminente dreiging voor het leven of de fysieke gezondheid van natuurlijke personen of van een terroristische aanslag;
Schrappen
Amendement 223 Voorstel voor een verordening Artikel 5 – lid 1 – punt d – iii
iii) de detectie, opsporing, identificatie of vervolging van een dader of verdachte van een strafbaar feit als bedoeld in artikel 2, lid 2, van Kaderbesluit 2002/584/JBZ van de Raad62, dat in de betrokken lidstaat strafbaar is met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel voor een maximumperiode van ten minste drie jaar, zoals bepaald in het recht van die lidstaat.
Schrappen
__________________
62 Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).
Amendement 224 Voorstel voor een verordening Artikel 5 – lid 1 – punt d bis (nieuw)
d bis) het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem voor het verrichten van risicobeoordelingen van natuurlijke personen of groepen natuurlijke personen om te beoordelen hoe groot het risico is dat een natuurlijke persoon (opnieuw) een strafbaar feit pleegt, dan wel om te voorspellen of een daadwerkelijk of potentieel strafbaar feit of een daadwerkelijke of potentiële administratieve overtreding (opnieuw) zal worden gepleegd, op basis van de profilering van een natuurlijke persoon of de beoordeling van persoonlijkheidskenmerken en kenmerken, waaronder de locatie van de persoon, of eerder crimineel gedrag van natuurlijke personen of groepen natuurlijke personen;
Amendement 225 Voorstel voor een verordening Artikel 5 – lid 1 – punt d ter (nieuw)
d ter) het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen die databanken voor gezichtsherkenning aanleggen of aanvullen door ongerichte scraping van gezichtsafbeeldingen van internet of CCTV-beelden;
Amendement 226 Voorstel voor een verordening Artikel 5 – lid 1 – punt d quater (nieuw)
d quater) het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen om emoties van een natuurlijke persoon af te leiden in het kader van rechtshandhaving, grensbeheer, de werkplek en onderwijsinstellingen;
Amendement 227 Voorstel voor een verordening Artikel 5 – lid 1 – punt d quinquies (nieuw)
d quinquies) het in gebruik stellen of gebruiken van AI-systemen voor de analyse van geregistreerde beelden van openbaar toegankelijke ruimten door middel van biometrische systemen voor identificatie op afstand “achteraf”, tenzij dit overeenkomstig het Unierecht onderworpen is aan voorafgaande rechterlijke toestemming en dit met het oog op rechtshandhaving strikt noodzakelijk is voor gerichte zoekopdrachten in verband met een specifiek ernstig strafbaar feit zoals gedefinieerd in artikel 83, lid 1, VWEU dat reeds heeft plaatsgevonden.
Amendement 228 Voorstel voor een verordening Artikel 5 – lid 1 bis (nieuw)
1 bis. Dit artikel doet geen afbreuk aan de verboden die van toepassing zijn wanneer een praktijk op het gebied van artificiële intelligentie een inbreuk vormt op andere Uniewetgeving, met inbegrip van het Unierecht inzake gegevensbescherming, non-discriminatie, consumentenbescherming of mededinging.
Amendement 229 Voorstel voor een verordening Artikel 5 – lid 2
2. Bij het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, punt d), genoemde doelstellingen wordt rekening gehouden met het volgende:
Schrappen
a) de aard van de situatie die aanleiding geeft tot het mogelijke gebruik van het systeem, met inbegrip van de ernst, waarschijnlijkheid en omvang van de schade die zonder het gebruik van het systeem zou worden veroorzaakt;
b) de gevolgen van het gebruik van het systeem voor de rechten en vrijheden van alle betrokken personen, en met name de ernst, waarschijnlijkheid en omvang van deze gevolgen.
Daarnaast moet het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, punt d), genoemde doelstellingen in overeenstemming zijn met noodzakelijke en evenredige waarborgen en voorwaarden in verband met het gebruik, en met name ten aanzien van de beperking in de tijd en de geografische en persoonlijke beperkingen.
Amendement 230 Voorstel voor een verordening Artikel 5 – lid 3
3. Wat betreft lid 1, punt d), en lid 2, wordt elk afzonderlijk gebruik met het oog op de rechtshandhaving van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten afhankelijk gesteld van een voorafgaande toestemming die wordt verleend door een gerechtelijke autoriteit of een onafhankelijke administratieve autoriteit van de lidstaat waarin het gebruik moet plaatsvinden en die wordt gegeven op verzoek en in overeenstemming met de gedetailleerde regels van het intern recht als bedoeld in lid 4. In een naar behoren gerechtvaardigde situatie van urgentie mag het gebruik van het systeem echter zonder toestemming worden gestart en mag de toestemming tijdens of na het gebruik worden aangevraagd.
Schrappen
De bevoegde gerechtelijke of administratieve autoriteit verleent de toestemming slechts wanneer zij er op basis van objectief bewijs of duidelijke indicaties die aan haar zijn voorgelegd van overtuigd is dat het gebruik van het biometrische systeem voor de identificatie op afstand in real time noodzakelijk is voor en evenredig is aan het bereiken van een van de in lid 1, punt d), gespecificeerde doelstellingen, zoals genoemd in het verzoek. Bij haar beslissing over het verzoek houdt de bevoegde gerechtelijke of administratieve autoriteit rekening met de in lid 2 bedoelde elementen.
Amendement 231 Voorstel voor een verordening Artikel 5 – lid 4
4. Een lidstaat kan besluiten om te voorzien in de mogelijkheid om volledig of gedeeltelijk toestemming te verlenen voor het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving binnen de grenzen en onder de voorwaarden van lid 1, punt d), en de leden 2 en 3. Deze lidstaat stelt in zijn interne recht de noodzakelijke gedetailleerde regels vast voor het verzoek om en de afgifte en het gebruik van, evenals het toezicht in verband met, de in lid 3 bedoelde vergunningen. In deze regels wordt ook gespecificeerd voor welke doelstellingen van lid 1, punt d), en voor welke strafbare feiten als bedoeld in punt iii) daarvan de bevoegde autoriteiten deze systemen mogen gebruiken met het oog op de rechtshandhaving.
Schrappen
Amendement 232 Voorstel voor een verordening Artikel 6 – lid 1 – punt a
a) het AI-systeem is bedoeld om te worden gebruikt als veiligheidscomponent van een product of is zelf een product dat valt onder de in bijlage II opgenomen harmonisatiewetgeving van de Unie;
a) het AI-systeem is bedoeld om te worden gebruikt als veiligheidscomponent van een product of het AI-systeem is zelf een product dat valt onder de in bijlage II opgenomen harmonisatiewetgeving van de Unie;
Amendement 233 Voorstel voor een verordening Artikel 6 – lid 1 – punt b
b) voor het product waarvan het AI-systeem de veiligheidscomponent vormt of voor het AI-systeem als product zelf moet een conformiteitsbeoordeling van een derde partij worden uitgevoerd met het oog op het in de handel brengen of in gebruik stellen van dat product overeenkomstig de in bijlage II opgenomen harmonisatiewetgeving van de Unie.
b) voor het product waarvan het AI-systeem overeenkomstig punt a) de veiligheidscomponent vormt of voor het AI-systeem als product zelf moet een conformiteitsbeoordeling van een derde partij met betrekking tot de risico’s voor de gezondheid en veiligheid worden uitgevoerd met het oog op het in de handel brengen of in gebruik stellen van dat product overeenkomstig de in bijlage II opgenomen harmonisatiewetgeving van de Unie.
Amendement 234 Voorstel voor een verordening Artikel 6 – lid 2
2. Naast de in lid 1 bedoelde AI-systemen met een hoog risico worden ook AI-systemen zoals bedoeld in bijlage III als AI-systeem met een hoog risico beschouwd.
2. Naast de in lid 1 bedoelde AI-systemen met een hoog risico worden ook AI-systemen die onder een of meer van de kritieke gebieden en praktijkvoorbeelden zoals bedoeld in bijlage III vallen als AI-systeem met een hoog risico beschouwd indien zij een significant risico op schade voor de gezondheid, de veiligheid of de grondrechten van natuurlijke personen inhouden. Wanneer een AI-systeem onder punt 2 van bijlage III valt, wordt het als een systeem met een hoog risico beschouwd indien het een significant risico op schade voor het milieu inhoudt.
De Commissie verstrekt zes maanden vóór de inwerkingtreding van deze verordening, na raadpleging van het AI-bureau en van relevante belanghebbenden, richtsnoeren waarin duidelijk de omstandigheden worden gespecificeerd waarin de output van in bijlage III bedoelde AI-systemen een significant risico op schade voor de gezondheid, de veiligheid of de grondrechten van natuurlijke personen zou inhouden, of wordt uitgelegd wanneer dit niet het geval zou zijn.
Amendement 235 Voorstel voor een verordening Artikel 6 – lid 2 bis (nieuw)
2 bis. Wanneer aanbieders die onder een of meer van de in bijlage III bedoelde kritieke gebieden en praktijkvoorbeelden vallen, van mening zijn dat hun AI-systeem geen significant risico als beschreven in lid 2 inhoudt, dienen zij bij de nationale toezichthoudende autoriteit een met redenen omklede kennisgeving in dat zij niet onderworpen zijn aan de voorschriften van titel III, hoofdstuk 2, van deze verordening. Wanneer het AI-systeem bedoeld is om in twee of meer lidstaten te worden gebruikt, wordt die kennisgeving gericht aan het AI-bureau. Onverminderd artikel 65 beoordeelt en beantwoordt de nationale toezichthoudende autoriteit de kennisgeving binnen drie maanden, hetzij rechtstreeks, hetzij via het AI-bureau, indien zij van mening is dat het AI-systeem verkeerd is geclassificeerd.
Amendement 236 Voorstel voor een verordening Artikel 6 – lid 2 ter (nieuw)
2 ter. Aanbieders die hun AI-systeem verkeerd classificeren als niet onderworpen aan de voorschriften van titel III, hoofdstuk 2, van deze verordening en het in de handel brengen vóór de uiterste termijn voor bezwaar door nationale toezichthoudende autoriteiten, worden overeenkomstig artikel 71 bestraft met geldboeten.
Amendement 237 Voorstel voor een verordening Artikel 6 – lid 2 quater (nieuw)
2 quater. De nationale toezichthoudende autoriteiten dienen bij het AI-bureau een jaarlijks verslag in met een gedetailleerd overzicht van het aantal ontvangen kennisgevingen, de daarmee verband houdende gebieden met een hoog risico en de besluiten die zijn genomen met betrekking tot de ontvangen kennisgevingen.
Amendement 238 Voorstel voor een verordening Artikel 7 – lid 1 – inleidende formule
1. De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot bijwerking van bijlage III door hieraan AI-systemen met een hoog risico toe te voegen wanneer aan beide van de volgende voorwaarden is voldaan:
1. De Commissie is bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door voor AI-systemen met een hoog risico gebieden of praktijkvoorbeelden toe te voegen of te wijzigen wanneer deze een significant risico inhouden op schade voor de gezondheid en veiligheid, of op nadelige effecten op de grondrechten, op het milieu of op de democratie en de rechtsstaat, en dat risico gezien de ernst en waarschijnlijkheid ervan gelijk is aan of groter is dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.
Amendement 239 Voorstel voor een verordening Artikel 7 – lid 1 – punt a
a) de AI-systemen zijn bedoeld om te worden gebruikt op een van de gebieden als bedoeld in bijlage III, punten 1 tot en met 8;
Schrappen
Amendement 240 Voorstel voor een verordening Artikel 7 – lid 1 – punt b
b) de AI-systemen vormen een risico op schade voor de gezondheid en veiligheid, of een risico op nadelige effecten op de grondrechten, dat, gezien de ernst en waarschijnlijkheid hiervan, gelijk is aan of groter is dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.
Schrappen
Amendement 241 Voorstel voor een verordening Artikel 7 – lid 1 bis (nieuw)
1 bis. De Commissie is tevens bevoegd om overeenkomstig artikel 73 gedelegeerde handelingen vast te stellen om praktijkvoorbeelden van AI-systemen met een hoog risico van de lijst in bijlage III te schrappen indien de in lid 1 bedoelde voorwaarden niet langer van toepassing zijn.
Amendement 242 Voorstel voor een verordening Artikel 7 – lid 2 – inleidende formule
2. Bij de beoordeling met het oog op lid 1 van de vraag of een AI-systeem een risico vormt op schade voor de gezondheid en veiligheid of op nadelige effecten op de grondrechten dat gelijk is aan of groter is dan het risico op schade dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III, houdt de Commissie rekening met de volgende criteria:
2. Bij de beoordeling van een AI-systeem met het oog op de leden 1 en 1 bis houdt de Commissie rekening met de volgende criteria:
Amendement 243 Voorstel voor een verordening Artikel 7 – lid 2 – punt a bis (nieuw)
a bis) de algemene capaciteiten en functionaliteiten van het AI-systeem ongeacht het beoogde doel ervan;
Amendement 244 Voorstel voor een verordening Artikel 7 – lid 2 – punt b bis (nieuw)
b bis) de aard van de gegevens en de hoeveelheid gegevens die door het AI-systeem worden verwerkt en gebruikt;
Amendement 245 Voorstel voor een verordening Artikel 7 – lid 2 – punt b ter (nieuw)
b ter) de mate waarin het AI-systeem autonoom handelt;
Amendement 246 Voorstel voor een verordening Artikel 7 – lid 2 – punt c
c) de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid of nadelige effecten op de grondrechten heeft veroorzaakt of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met het ontstaan van dergelijke schade of nadelige effecten, zoals aangetoond door verslagen of gedocumenteerde beschuldigingen die zijn ingediend bij de nationale bevoegde autoriteiten;
c) de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid heeft veroorzaakt, nadelige effecten op de grondrechten, het milieu, de democratie en de rechtsstaat heeft gehad of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met de waarschijnlijkheid van dergelijke schade of nadelige effecten, zoals aangetoond door bijvoorbeeld verslagen of gedocumenteerde beschuldigingen die zijn ingediend bij de nationale toezichthoudende autoriteiten, de Commissie, het AI-bureau, de EDPS of het Bureau van de Europese Unie voor de grondrechten;
Amendement 247 Voorstel voor een verordening Artikel 7 – lid 2 – punt d
d) de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen;
d) de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen of dat een bepaalde groep personen onevenredig wordt getroffen;
Amendement 248 Voorstel voor een verordening Artikel 7 – lid 2 – punt e
e) de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde uitkomst, met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze uitkomst af te zien;
e) de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde output, waarbij die output louter bijkomstig is ten aanzien van de te nemen relevante maatregelen of besluiten, met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze output af te zien;
Amendement 249 Voorstel voor een verordening Artikel 7 – lid 2 – punt e bis (nieuw)
e bis) het mogelijke misbruik en kwaadwillig gebruik van het AI-systeem en van de daaraan ten grondslag liggende technologie;
Amendement 250 Voorstel voor een verordening Artikel 7 – lid 2 – punt f
f) de mate waarin potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiker van een AI-systeem, met name als gevolg van onevenwichtige machtsverhoudingen, kennis, economische of sociale omstandigheden of leeftijd;
f) de mate waarin sprake is van een onevenwichtige machtsverhouding, of de potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiker van een AI-systeem, met name als gevolg van status, autoriteit, kennis, economische of sociale omstandigheden of leeftijd;
Amendement 251 Voorstel voor een verordening Artikel 7 – lid 2 – punt g
g) de mate waarin de aan de hand van een AI-systeem geproduceerde uitkomst gemakkelijk omkeerbaar is, waarbij uitkomsten die effecten hebben op de gezondheid of veiligheid van personen niet als gemakkelijk omkeerbaar worden beschouwd;
g) de mate waarin de aan de hand van een AI-systeem geproduceerde uitkomst gemakkelijk omkeerbaar of te verhelpen is, waarbij uitkomsten die nadelige effecten hebben op de gezondheid, de veiligheid, de grondrechten van personen, het milieu, of op de democratie en de rechtsstaat niet als gemakkelijk omkeerbaar worden beschouwd;
Amendement 252 Voorstel voor een verordening Artikel 7 – lid 2 – punt g bis (nieuw)
g bis) de mate van beschikbaarheid en gebruik van doeltreffende technische oplossingen en mechanismen voor de controle, betrouwbaarheid en corrigeerbaarheid van het AI-systeem;
Amendement 253 Voorstel voor een verordening Artikel 7 – lid 2 – punt g ter (nieuw)
g ter) de schaal en waarschijnlijkheid van de voordelen van de uitrol van het AI-systeem voor personen, groepen of de samenleving in het algemeen, met inbegrip van mogelijke verbeteringen op het gebied van productveiligheid;
Amendement 254 Voorstel voor een verordening Artikel 7 – lid 2 – punt g quater (nieuw)
g quater) de mate van menselijk toezicht en de mogelijkheid van tussenkomst door een mens om beslissingen of aanbevelingen die tot schade kunnen leiden terzijde te schuiven;
Amendement 255 Voorstel voor een verordening Artikel 7 – lid 2 – punt h
i) doeltreffende maatregelen om beroep aan te tekenen in verband met de risico’s van een AI-systeem, met uitzondering van vorderingen tot schadevergoeding;
h) de mate waarin in het bestaande Unierecht is voorzien in:
i) doeltreffende maatregelen om beroep aan te tekenen in verband met de schade die is veroorzaakt door een AI-systeem, met uitzondering van vorderingen tot vergoeding van directe of indirecte schade;
ii) doeltreffende maatregelen om deze risico’s te voorkomen of aanzienlijk te beperken.
Amendement 256 Voorstel voor een verordening Artikel 7 – lid 2 bis (nieuw)
2 bis. Bij de beoordeling van een AI-systeem met het oog op de leden 1 of 1 bis raadpleegt de Commissie het AI-bureau en, waar relevant, vertegenwoordigers van groepen waarop een AI-systeem van invloed is, de industrie, onafhankelijke deskundigen, de sociale partners en maatschappelijke organisaties. De Commissie houdt in dit verband ook openbare raadplegingen en maakt de resultaten van die raadplegingen en van de eindbeoordeling openbaar.
Amendement 257 Voorstel voor een verordening Artikel 7 – lid 2 ter (nieuw)
2 ter. Het AI-bureau, de nationale toezichthoudende autoriteiten of het Europees Parlement kunnen de Commissie verzoeken de indeling van een AI-systeem in een risicocategorie overeenkomstig de leden 1 en 1 bis opnieuw te beoordelen en te wijzigen. De Commissie geeft de redenen voor haar besluit en maakt deze openbaar.
Amendement 258 Voorstel voor een verordening Artikel 8 – lid 1 bis (nieuw)
1 bis. Bij de naleving van de in dit hoofdstuk vastgestelde voorschriften wordt naar behoren rekening gehouden met de ontwikkelde richtsnoeren als bedoeld in artikel 82 ter, en de algemeen erkende stand van de techniek, onder meer zoals die tot uiting komt in de relevante geharmoniseerde normen en gemeenschappelijke specificaties zoals bedoeld in de artikelen 40 en 41 of zoals reeds vastgesteld in de harmonisatiewetgeving van de Unie.
Amendement 259 Voorstel voor een verordening Artikel 8 – lid 2
2. Bij het waarborgen van de naleving van deze voorschriften wordt rekening gehouden met het beoogde doel van het AI-systeem met een hoog risico en het systeem voor risicobeheer als bedoeld in artikel 9.
2. Bij het waarborgen van de naleving van deze voorschriften wordt rekening gehouden met het beoogde doel van het AI-systeem met een hoog risico, het redelijkerwijs te voorziene misbruik en het systeem voor risicobeheer als bedoeld in artikel 9.
Amendement 260 Voorstel voor een verordening Artikel 8 – lid 2 bis (nieuw)
2 bis. Mits de voorschriften van titel III, hoofdstukken 2 en 3, of titel VIII, hoofdstukken 1, 2 en 3, voor AI-systemen met een hoog risico aan bod komen in de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie, wordt geacht te zijn voldaan aan de voorschriften of verplichtingen van die hoofdstukken van deze verordening, voor zover zij de AI-component omvatten. De voorschriften van titel III, hoofdstukken 2 en 3, of titel VIII, hoofdstukken 1, 2 en 3, voor AI-systemen met een hoog risico die niet aan bod komen in de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie, worden in voorkomend geval in die harmonisatiewetgeving van de Unie opgenomen. De desbetreffende conformiteitsbeoordeling wordt uitgevoerd in het kader van de procedures van de in bijlage II, afdeling A, vermelde harmonisatiewetgeving van de Unie.
Amendement 261 Voorstel voor een verordening Artikel 9 – lid 1
1. In verband met AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastgesteld, uitgevoerd, gedocumenteerd en in stand gehouden.
1. In verband met AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastgesteld, uitgevoerd, gedocumenteerd en in stand gehouden gedurende de gehele levensduur van het AI-systeem.Het systeem voor risicobeheer kan geïntegreerd worden in, of een onderdeel vormen van, reeds bestaande procedures voor risicobeheer die verband houden met de desbetreffende sectorale wetgeving van de Unie, voor zover het voldoet aan de voorschriften van dit artikel.
Amendement 262 Voorstel voor een verordening Artikel 9 – lid 2 – inleidende formule
2. Het systeem voor risicobeheer bestaat in een doorlopend iteratief proces tijdens de gehele levensduur van een AI-systeem met een hoog risico, dat periodieke systematische actualisering vereist. Het omvat de volgende stappen:
2. Het systeem voor risicobeheer bestaat in een doorlopend iteratief proces tijdens de gehele levensduur van een AI-systeem met een hoog risico, dat periodieke evaluatie en actualisering van het risicobeheersingsproces vereist om de blijvende doeltreffendheid ervan te waarborgen, alsook de documentatie van eventuele significante besluiten en maatregelen die op grond van dit artikel zijn genomen. Het omvat de volgende stappen:
Amendement 263 Voorstel voor een verordening Artikel 9 – lid 2 – punt a
a) het vaststellen en analyseren van de bekende en te voorziene risico’s die gepaard gaan met elk AI-systeem met een hoog risico;
a) het vaststellen, inschatten en evalueren van de bekende en de redelijkerwijs te voorziene risico’s die het AI-systeem met een hoog risico kan inhouden voor de gezondheid of veiligheid van natuurlijke personen, hun grondrechten, met inbegrip van gelijke toegang en kansen, de democratie en de rechtsstaat of het milieu wanneer het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan en in een situatie van redelijkerwijs te voorzien misbruik;
Amendement 264 Voorstel voor een verordening Artikel 9 – lid 2 – punt b
b) het inschatten en evalueren van de risico’s die zich kunnen voordoen wanneer het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan en in een situatie van redelijkerwijs te voorzien misbruik;
Schrappen
Amendement 265 Voorstel voor een verordening Artikel 9 – lid 2 – punt c
c) een evaluatie van andere risico’s die zich kunnen voordoen op basis van de analyse van de data die zijn verzameld door het systeem voor monitoring na het in de handel brengen als bedoeld in artikel 61;
c) een evaluatie van opkomende significante risico’s zoals omschreven in punt a) die zijn vastgesteld op basis van de analyse van de data die zijn verzameld door het systeem voor monitoring na het in de handel brengen als bedoeld in artikel 61;
Amendement 266 Voorstel voor een verordening Artikel 9 – lid 2 – punt d
d) het vaststellen van geschikte risicobeheersingsmaatregelen in overeenstemming met de bepalingen van de volgende leden.
d) het vaststellen van passende en gerichte risicobeheersingsmaatregelen die zijn afgestemd op het aanpakken van de overeenkomstig de punten a) en b) van dit lid vastgestelde risico’s, in overeenstemming met de bepalingen van de volgende leden.
Amendement 267 Voorstel voor een verordening Artikel 9 – lid 3
3. Ten aanzien van de in lid 2, punt d), bedoelde risicobeheersingsmaatregelen wordt naar behoren rekening gehouden met de effecten en mogelijke wisselwerkingen die voortvloeien uit de gecombineerde toepassing van de in dit hoofdstuk uiteengezette voorschriften. Er wordt rekening gehouden met de algemeen erkende stand van de techniek, onder meer zoals weerspiegeld in de relevante geharmoniseerde normen of gemeenschappelijke specificaties.
3. Ten aanzien van de in lid 2, punt d), bedoelde risicobeheersingsmaatregelen wordt naar behoren rekening gehouden met de effecten en mogelijke wisselwerkingen die voortvloeien uit de gecombineerde toepassing van de in dit hoofdstuk 2 uiteengezette voorschriften, teneinde risico’s doeltreffend te beperken en tegelijkertijd een passende en evenredige uitvoering van de voorschriften te waarborgen.
Amendement 268 Voorstel voor een verordening Artikel 9 – lid 4 – alinea 1
4. De in lid 2, punt d), bedoelde risicobeheersingsmaatregelen zijn zodanig dat eventuele restrisico’s in verband met elk gevaar en het totale restrisico van de AI-systemen met een hoog risico aanvaardbaar worden geacht, mits het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik. De gebruiker wordt op de hoogte gesteld van deze restrisico’s.
4. De in lid 2, punt d), bedoelde risicobeheersingsmaatregelen zijn zodanig dat relevante restrisico’s in verband met elk gevaar en het totale restrisico van de AI-systemen met een hoog risico op basis van een met redenen omklede beoordeling worden geacht aanvaardbaar te zijn, mits het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik. De exploitant wordt op de hoogte gesteld van deze restrisico’s en de met redenen omklede beoordeling daarvan.
Bij het vaststellen van de meest passende risicobeheersingsmaatregelen wordt het volgende gewaarborgd:
Amendement 269 Voorstel voor een verordening Artikel 9 – lid 4 – alinea 2 – punt a
a) de risico’s worden zo veel mogelijk uitgesloten of beperkt door middel van een adequaat ontwerp en adequate ontwikkeling;
a) de vastgestelde risico’s worden voor zover technisch haalbaar uitgesloten of beperkt door middel van een adequaat ontwerp en adequate ontwikkeling van het AI-systeem met een hoog risico, indien relevant met betrokkenheid van deskundigen en externe belanghebbenden;
Amendement 270 Voorstel voor een verordening Artikel 9 – lid 4 – alinea 2 – punt b
b) waar passend worden adequate maatregelen voor beperking en controle genomen in verband met risico’s die niet kunnen worden uitgesloten;
b) waar passend worden adequate maatregelen voor beperking en controle genomen voor het aanpakken van significante risico’s die niet kunnen worden uitgesloten;
Amendement 271 Voorstel voor een verordening Artikel 9 – lid 4 – alinea 2 – punt c
c) er wordt toereikende informatie verstrekt overeenkomstig artikel 13, met name met betrekking tot de in lid 2, punt b), van dit artikel bedoelde risico’s en er wordt waar passend voorzien in opleidingen voor gebruikers.
c) de vereiste informatie wordt verstrekt overeenkomstig artikel 13 en er wordt waar passend voorzien in opleidingen voor exploitanten.
Amendement 272 Voorstel voor een verordening Artikel 9 – lid 4 – alinea 3
Bij het uitsluiten of beperken van de risico’s die verband houden met het gebruik van het AI-systeem met een hoog risico wordt naar behoren aandacht besteed aan de te verwachten technische kennis, ervaring, scholing en opleiding van de gebruiker en de omgeving waarin het systeem dient te worden gebruikt.
Bij het uitsluiten of beperken van de risico’s die verband houden met het gebruik van het AI-systeem met een hoog risico besteden aanbieders naar behoren aandacht aan de technische kennis, ervaring, scholing en opleiding die de exploitant mogelijk nodig heeft, onder meer met betrekking tot de vermoedelijke gebruikscontext.
Amendement 273 Voorstel voor een verordening Artikel 9 – lid 5
5. AI-systemen met een hoog risico worden getest met het oog op het vaststellen van de passendste risicobeheersingsmaatregelen. De tests zorgen ervoor dat AI-systemen met een hoog risico consistent presteren ten aanzien van het beoogde doel ervan en in overeenstemming zijn met de voorschriften van dit hoofdstuk.
5. AI-systemen met een hoog risico worden getest met het oog op het vaststellen van de passendste en meest gerichte risicobeheersingsmaatregelen en het afwegen van dergelijke maatregelen tegen de potentiële voordelen en de beoogde doelen van het systeem. De tests zorgen ervoor dat AI-systemen met een hoog risico consistent presteren ten aanzien van het beoogde doel ervan en in overeenstemming zijn met de voorschriften van dit hoofdstuk.
Amendement 274 Voorstel voor een verordening Artikel 9 – lid 6
6. De testprocedures zijn geschikt om het beoogde doel van het AI-systeem te verwezenlijken en hoeven niet verder te gaan dan wat noodzakelijk is om dat doel te bereiken.
6. De testprocedures zijn geschikt om het beoogde doel van het AI-systeem te verwezenlijken.
Amendement 275 Voorstel voor een verordening Artikel 9 – lid 7
7. Het testen van AI-systemen met een hoog risico vindt, zoals passend, in de loop van het ontwikkelingsproces plaats en in ieder geval voordat het systeem in de handel wordt gebracht of in gebruik wordt gesteld. De tests worden uitgevoerd aan de hand van vooraf vastgestelde standaarden en probabilistische drempels die passend zijn voor het beoogde doel van het AI-systeem met een hoog risico.
7. Het testen van AI-systemen met een hoog risico vindt plaats voordat het systeem in de handel wordt gebracht of in gebruik wordt gesteld. De tests worden uitgevoerd aan de hand van vooraf vastgestelde standaarden en probabilistische drempels die passend zijn voor het beoogde doel of het redelijkerwijs te voorziene misbruik van het AI-systeem met een hoog risico.
Amendement 276 Voorstel voor een verordening Artikel 9 – lid 8
8. Bij de uitvoering van het systeem voor risicobeheer als beschreven in de leden 1 tot en met 7 wordt bijzondere aandacht besteed aan de vraag of het waarschijnlijk is dat kinderen toegang zullen hebben tot het AI-systeem met een hoog risico of dat het systeem gevolgen voor hen zal hebben.
8. Bij de uitvoering van het systeem voor risicobeheer als beschreven in de leden 1 tot en met 7 besteden aanbieders bijzondere aandacht aan de vraag of het waarschijnlijk is dat het AI-systeem met een hoog risico nadelige gevolgen voor kwetsbare groepen van mensen of kinderen zal hebben.
Amendement 277 Voorstel voor een verordening Artikel 9 – lid 9
9. Voor kredietinstellingen die vallen onder Richtlijn 2013/36/EU zijn de in de leden 1 tot en met 8 beschreven aspecten onderdeel van de risicobeheersingsprocedures die door deze instellingen overeenkomstig artikel 74 van die richtlijn zijn vastgesteld.
9. Voor aanbieders en AI-systemen die reeds onder het Unierecht vallen waardoor zij verplicht zijn een specifiek risicobeheer in te voeren, met inbegrip van kredietinstellingen die vallen onder Richtlijn 2013/36/EU, zijn de in de leden 1 tot en met 8 beschreven aspecten onderdeel van de risicobeheersingsprocedures die bij dat Unierecht zijn vastgesteld of worden zij daarmee gecombineerd.
Amendement 278 Voorstel voor een verordening Artikel 10 – lid 1
1. AI-systemen met een hoog risico die technieken gebruiken die het trainen van modellen met data omvatten, worden ontwikkeld op basis van datareeksen voor training, validatie en tests die voldoen aan de kwaliteitscriteria als bedoeld in de leden 2 tot en met 5.
1. AI-systemen met een hoog risico die technieken gebruiken die het trainen van modellen met data omvatten, worden ontwikkeld op basis van datareeksen voor training, validatie en tests die voldoen aan de kwaliteitscriteria als bedoeld in de leden 2 tot en met 5, voor zover dit technisch haalbaar is overeenkomstig het specifieke marktsegment of toepassingsgebied.
Technieken die geen geëtiketteerde inputdata vereisen, zoals ongecontroleerd leren en versterkend leren, worden ontwikkeld op basis van datareeksen zoals voor tests en verificatie die voldoen aan de in de leden 2 tot en met 5 bedoelde kwaliteitscriteria.
Amendement 279 Voorstel voor een verordening Artikel 10 – lid 2 – inleidende formule
2. Datareeksen voor training, validatie en tests worden onderworpen aan passende praktijken op het gebied van databeheer. Deze praktijken hebben in het bijzonder betrekking op:
2. Datareeksen voor training, validatie en tests worden onderworpen aan databeheer dat passend is voor de gebruikscontext en voor het beoogde doel van het AI-systeem. Deze maatregelen hebben in het bijzonder betrekking op:
Amendement 280 Voorstel voor een verordening Artikel 10 – lid 2 – punt a bis (nieuw)
a bis) transparantie met betrekking tot het oorspronkelijke doel van de dataverzameling;
Amendement 281 Voorstel voor een verordening Artikel 10 – lid 2 – punt b
b) dataverzameling;
b) processen voor dataverzameling;
Amendement 282 Voorstel voor een verordening Artikel 10 – lid 2 – punt c
c) relevante verwerkingsactiviteiten voor datavoorbereiding, zoals annotatie, etikettering, opschoning, verrijking en aggregatie;
c) verwerkingsactiviteiten voor datavoorbereiding, zoals annotatie, etikettering, opschoning, actualisering, verrijking en aggregatie;
Amendement 283 Voorstel voor een verordening Artikel 10 – lid 2 – punt d
d) het opstellen van relevante aannames, met name met betrekking tot de informatie die de data moeten meten en vertegenwoordigen;
d) het opstellen van aannames, met name met betrekking tot de informatie die de data moeten meten en vertegenwoordigen;
Amendement 284 Voorstel voor een verordening Artikel 10 – lid 2 – punt e
e) een voorafgaande beoordeling van de beschikbaarheid, kwantiteit en geschiktheid van de datareeksen die nodig zijn;
e) een beoordeling van de beschikbaarheid, kwantiteit en geschiktheid van de datareeksen die nodig zijn;
Amendement 285 Voorstel voor een verordening Artikel 10 – lid 2 – punt f
f) een beoordeling met het oog op mogelijke vertekeningen;
f) een beoordeling met het oog op mogelijke vertekeningen die waarschijnlijk gevolgen hebben voor de gezondheid en de veiligheid van personen, nadelige effecten hebben op de grondrechten, of leiden tot discriminatie die op grond van het Unierecht verboden is, vooral wanneer data-outputs invloed hebben op inputs voor toekomstige operaties (zogenaamde “terugkoppelingen”), en passende maatregelen om mogelijke vertekeningen op te sporen, te voorkomen en te beperken;
Amendement 286 Voorstel voor een verordening Artikel 10 – lid 2 – punt f bis (nieuw)
f bis) passende maatregelen om mogelijke vertekeningen op te sporen, te voorkomen en te beperken;
Amendement 287 Voorstel voor een verordening Artikel 10 – lid 2 – punt g
g) het identificeren van eventuele mogelijke leemten of tekortkomingen in de data en de manier waarop deze leemten en tekortkomingen kunnen worden aangepakt.
g) het identificeren van relevante leemten of tekortkomingen in de data die naleving van deze verordening in de weg staan, en de manier waarop deze leemten en tekortkomingen kunnen worden aangepakt.
Amendement 288 Voorstel voor een verordening Artikel 10 – lid 3
3. Datareeksen voor training, validatie en tests zijn relevant, representatief, foutenvrij en volledig. De datareeksen hebben bovendien de passende statistische kenmerken, onder meer, waar van toepassing, met betrekking tot de personen of groepen personen waarvoor de AI-systemen met een hoog risico moeten worden gebruikt. Deze kenmerken van de datareeksen kunnen op het niveau van de afzonderlijke datareeksen of combinatie daarvan worden verwezenlijkt.
3. Datareeksen voor training en, indien deze worden gebruikt, datareeksen voor validatie en tests, met inbegrip van de etikettering ervan, zijn relevant, voldoende representatief en zo volledig mogelijk en worden naar behoren doorgelicht op fouten met het oog op het beoogde doel. De datareeksen hebben bovendien de passende statistische kenmerken, onder meer, waar van toepassing, met betrekking tot de personen of groepen personen ten aanzien van wie de AI-systemen met een hoog risico moeten worden gebruikt. Deze kenmerken van de datareeksen worden op het niveau van de afzonderlijke datareeksen of combinatie daarvan verwezenlijkt.
Amendement 289 Voorstel voor een verordening Artikel 10 – lid 4
4. Ten aanzien van datareeksen voor training, validatie en tests wordt, voor zover vereist gezien het beoogde doel hiervan, rekening gehouden met de eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, functionele of gedragsomgeving waarin het AI-systeem moet worden gebruikt.
4. Ten aanzien van datareeksen wordt, voor zover vereist gezien het beoogde doel of het redelijkerwijs te voorziene misbruik van het AI-systeem, rekening gehouden met de eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, contextuele, functionele of gedragsomgeving waarin het AI-systeem moet worden gebruikt.
Amendement 290 Voorstel voor een verordening Artikel 10 – lid 5
5. Voor zover dit strikt noodzakelijk is om de monitoring, opsporing en correctie van vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico, mogen de aanbieders van dergelijke systemen bijzondere categorieën persoonsgegevens, zoals bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10 van Richtlijn (EU) 2016/680 en artikel 10, lid 1, van Verordening (EU) 2018/1725, verwerken, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen, met inbegrip van technische beperkingen voor het hergebruik en het gebruik van ultramoderne beveiligings- en privacybeschermende maatregelen, zoals pseudonimisering of versleuteling wanneer anonimisering aanzienlijke gevolgen kan hebben voor het nagestreefde doel.
5. Voor zover dit strikt noodzakelijk is om de opsporing en correctie van negatieve vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico, mogen de aanbieders van dergelijke systemen bij wijze van uitzondering bijzondere categorieën persoonsgegevens, zoals bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10 van Richtlijn (EU) 2016/680 en artikel 10, lid 1, van Verordening (EU) 2018/1725, verwerken, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen, met inbegrip van technische beperkingen voor het hergebruik en het gebruik van ultramoderne beveiligings- en privacybeschermende maatregelen. Voor deze verwerking gelden met name alle volgende voorwaarden: a) de opsporing en correctie van vertekeningen kunnen niet doeltreffend worden vervuld door het verwerken van synthetische of geanonimiseerde gegevens;
b) de gegevens zijn gepseudonimiseerd;
c) de aanbieder neemt passende technische en organisatorische maatregelen om ervoor te zorgen dat de voor de toepassing van dit lid verwerkte gegevens met passende waarborgen worden beveiligd en beschermd, en dat alleen gemachtigde personen met passende geheimhoudingsverplichtingen toegang tot die gegevens hebben;
d) de voor de toepassing van dit lid verwerkte gegevens worden niet verzonden, doorgegeven of anderszins geraadpleegd door andere partijen;
e) de voor de toepassing van dit lid verwerkte gegevens worden beschermd met passende technische en organisatorische maatregelen en worden gewist zodra de vertekening is gecorrigeerd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;
f) er worden doeltreffende en passende maatregelen getroffen om de beschikbaarheid en beveiliging van verwerkingssystemen en -diensten te waarborgen en ervoor te zorgen dat deze bestand zijn tegen technische of fysieke incidenten;
g) er worden doeltreffende en passende maatregelen getroffen om te zorgen voor de fysieke beveiliging van de locaties waar de gegevens worden opgeslagen en verwerkt, governance en beheer van interne IT en IT-beveiliging, certificering van processen en producten.
Aanbieders die een beroep doen op deze bepaling stellen documentatie op waarin wordt uitgelegd waarom de verwerking van bijzondere categorieën persoonsgegevens noodzakelijk was om vertekeningen op te sporen en te corrigeren.
Amendement 291 Voorstel voor een verordening Artikel 10 – lid 6 bis (nieuw)
6 bis. Indien de aanbieder niet aan de in dit artikel vastgestelde verplichtingen kan voldoen omdat deze aanbieder geen toegang heeft tot de gegevens en de gegevens uitsluitend in het bezit zijn van de exploitant, kan de exploitant, op basis van een contract, verantwoordelijk worden gesteld voor eventuele inbreuken op dit artikel.
Amendement 292 Voorstel voor een verordening Artikel 11 – lid 1 – alinea 2
De technische documentatie wordt op zodanige wijze opgesteld dat wordt aangetoond dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van dit hoofdstuk en dat nationale bevoegde autoriteiten en aangemelde instanties over alle noodzakelijke informatie beschikken om de overeenstemming van het AI-systeem met deze voorschriften te kunnen beoordelen. De documentatie omvat ten minste de in bijlage IV uiteengezette elementen.
De technische documentatie wordt op zodanige wijze opgesteld dat wordt aangetoond dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van dit hoofdstuk en dat nationale toezichthoudende autoriteiten en aangemelde instanties over de noodzakelijke informatie beschikken om de overeenstemming van het AI-systeem met deze voorschriften te kunnen beoordelen. De documentatie omvat ten minste de in bijlage IV uiteengezette elementen of, in het geval van kmo’s en start-ups, gelijkwaardige documentatie die aan dezelfde doelstellingen beantwoordt, mits de bevoegde nationale autoriteit daarmee instemt.
Amendement 293 Voorstel voor een verordening Artikel 11 – lid 2
2. Wanneer een AI-systeem met een hoog risico dat verband houdt met een product dat valt onder de in bijlage II, afdeling A, opgenomen rechtshandelingen in de handel wordt gebracht of in gebruik wordt gesteld, wordt een enkel technisch document opgesteld dat alle informatie bevat zoals uiteengezet in bijlageIV, alsook de informatie die vereist is op grond van die rechtshandelingen.
2. Wanneer een AI-systeem met een hoog risico dat verband houdt met een product dat valt onder de in bijlage II, afdeling A, opgenomen rechtshandelingen in de handel wordt gebracht of in gebruik wordt gesteld, wordt een enkel technisch document opgesteld dat alle informatie bevat zoals uiteengezet in lid1, alsook de informatie die vereist is op grond van die rechtshandelingen.
Amendement 294 Voorstel voor een verordening Artikel 11 – lid 3 bis (nieuw)
3 bis. Aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de technische documentatie als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.
Amendement 295 Voorstel voor een verordening Artikel 12 – lid 1
1. AI-systemen met een hoog risico worden ontworpen en ontwikkeld met capaciteiten die de automatische registratie van gebeurtenissen (hierna “logs” genoemd) tijdens de werking van het AI-systeem mogelijk maken. Deze loggingcapaciteiten moeten in overeenstemming zijn met erkende normen of gemeenschappelijke specificaties.
1. AI-systemen met een hoog risico worden ontworpen en ontwikkeld met capaciteiten die de automatische registratie van gebeurtenissen (hierna “logs” genoemd) tijdens de werking van het AI-systeem mogelijk maken. Deze loggingcapaciteiten moeten in overeenstemming zijn met de stand van de techniek en met erkende normen of gemeenschappelijke specificaties.
Amendement 296 Voorstel voor een verordening Artikel 12 – lid 2
2. De loggingcapaciteiten waarborgen een mate van traceerbaarheid van de werking van het AI-systeem tijdens de levensduur ervan die passend is voor het beoogde doel van het systeem.
2. Om te zorgen voor een mate van traceerbaarheid van de werking van het AI-systeem tijdens de gehele levensduur ervan die passend is voor het beoogde doel van het systeem, moeten de loggingcapaciteiten de monitoring van de werking zoals bedoeld in artikel 29, lid 4, en de monitoring na het in de handel brengen zoals bedoeld in artikel 61 mogelijk maken. Met name maken zij de registratie mogelijk van gebeurtenissen die relevant zijn voor de vaststelling van situaties die:
a) ertoe kunnen leiden dat het AI-systeem een risico inhoudt in de zin van artikel 65, lid 1; of
b) een ingrijpende wijziging van het AI-systeem tot gevolg hebben.
Amendement 297 Voorstel voor een verordening Artikel 12 – lid 2 bis (nieuw)
2 bis. AI-systemen met een hoog risico worden ontworpen en ontwikkeld met loggingcapaciteiten die het mogelijk maken het energieverbruik te registreren en het gebruik van hulpbronnen en de milieueffecten van het AI-systeem met een hoog risico tijdens alle fasen van de levensduur van het systeem te meten of te berekenen.
Amendement 298 Voorstel voor een verordening Artikel 12 – lid 3
3. De loggingcapaciteiten maken met name de monitoring van de werking van het AI-systeem met een hoog risico mogelijk met betrekking tot het optreden van situaties die ertoe kunnen leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, of die leiden tot een ingrijpende wijziging, en vergemakkelijken de monitoring na het in de handel brengen als bedoeld in artikel 61.
Schrappen
Amendement 299 Voorstel voor een verordening Artikel 13 – titel
Transparantie en informatieverstrekking aan gebruikers
Transparantie en informatieverstrekking
Amendement 300 Voorstel voor een verordening Artikel 13 – lid 1
1. AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om gebruikers in staat te stellen de output van het systeem te interpreteren en op passende wijze te gebruiken.Een passende soort en mate van transparantie wordt gewaarborgd met het oog op de naleving van de relevante verplichtingen van de gebruiker en de aanbieder zoals uiteengezet in hoofdstuk 3 van deze titel.
1. AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om aanbieders en gebruikers in staat te stellen de werking van het systeem redelijkerwijs te begrijpen.Er wordt gezorgd voor passende transparantie in overeenstemming met het beoogde doel van het AI-systeem, met het oog op de naleving van de relevante verplichtingen van de aanbieder en de gebruiker zoals uiteengezet in hoofdstuk 3 van deze titel.
Transparantie houdt daarbij in dat, op het moment dat het AI-systeem met een hoog risico in de handel wordt gebracht, alle beschikbare technische middelen in overeenstemming met de algemeen erkende stand van de techniek worden gebruikt om ervoor te zorgen dat de output van het AI-systeem door de aanbieder en de gebruiker kan worden geïnterpreteerd. De gebruiker wordt in staat gesteld het AI-systeem op passende wijze te begrijpen en te gebruiken door middel van algemene kennis over hoe het AI-systeem werkt en welke gegevens het verwerkt, zodat de gebruiker de door het AI-systeem genomen beslissingen kan uitleggen aan de betrokken persoon overeenkomstig artikel 68, punt c).
Amendement 301 Voorstel voor een verordening Artikel 13 – lid 2
2. AI-systemen met een hoog risico gaan vergezeld van gebruiksinstructies in een passend digitaal of ander formaat dat beknopte, volledige, juiste en duidelijke informatie bevat die relevant, toegankelijk en begrijpelijk is voor gebruikers.
2. AI-systemen met een hoog risico gaan vergezeld van begrijpelijke gebruiksinstructies in een passend digitaal formaat dat of op een andere manier beschikbaar gesteld op een duurzame drager die beknopte, juiste, duidelijke en voor zover mogelijk volledige informatie bevat die helpt bij de exploitatie en het onderhoud van het AI-systeem, die geïnformeerde besluitvorming door gebruikers ondersteunt en die redelijkerwijs relevant, toegankelijk en begrijpelijk is voor gebruikers.
Amendement 302 Voorstel voor een verordening Artikel 13 – lid 3 – inleidende formule
3. De in lid 2 bedoelde informatie omvat:
3. Om de in lid 1 bedoelde resultaten te bereiken, omvat de in lid 2 bedoelde informatie:
Amendement 303 Voorstel voor een verordening Artikel 13 – lid 3 – punt a
a) de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigde;
a) de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigden;
Amendement 304 Voorstel voor een verordening Artikel 13 – lid 3 – punt a bis (nieuw)
a bis) indien die niet dezelfde is als de aanbieder, de identiteit en de contactgegevens van de entiteit die de conformiteitsbeoordeling heeft uitgevoerd en, in voorkomend geval, van haar gemachtigde;
Amendement 305 Voorstel voor een verordening Artikel 13 – lid 3 – punt b – inleidende formule
b) de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder:
b) de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder, waar passend:
Amendement 306 Voorstel voor een verordening Artikel 13 – lid 3 – punt b – ii
ii) de mate van nauwkeurigheid, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;
ii) de mate van nauwkeurigheid, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele duidelijk bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;
Amendement 307 Voorstel voor een verordening Artikel 13 – lid 3 – punt b – iii
iii) eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten;
iii) eventuele duidelijk bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid, de grondrechten of het milieu, waar passend met inbegrip van voorbeelden ter illustratie van dergelijke beperkingen en van scenario’s waarvoor het systeem niet mag worden gebruikt;
Amendement 308 Voorstel voor een verordening Artikel 13 – lid 3 – punt b – iii bis (nieuw)
iii bis) de mate waarin het AI-systeem uitleg kan verstrekken bij beslissingen die het neemt;
Amendement 309 Voorstel voor een verordening Artikel 13 – lid 3 – punt b – v
v) waar passend, specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;
v) relevante informatie over handelingen van de gebruiker die van invloed kunnen zijn op de prestaties van het systeem, waaronder de soort of de kwaliteit van de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;
Amendement 310 Voorstel voor een verordening Artikel 13 – lid 3 – punt e
e) de verwachte levensduur van het AI-systeem met een hoog risico en eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem te waarborgen, ook in verband met software-updates.
e) eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem gedurende de verwachte levensduur ervan te waarborgen, ook in verband met software-updates;
Amendement 311 Voorstel voor een verordening Artikel 13 – lid 3 – punt e bis (nieuw)
e bis) een beschrijving van de mechanismen in het AI-systeem die gebruikers in staat stellen de logs naar behoren te verzamelen, op te slaan en te interpreteren overeenkomstig artikel 12, lid 1;
Amendement 312 Voorstel voor een verordening Artikel 13 – lid 3 – punt e ter (nieuw)
e ter) De informatie wordt ten minste verstrekt in de taal van het land waar het AI-systeem wordt gebruikt.
Amendement 313 Voorstel voor een verordening Artikel 13 – lid 3 bis (nieuw)
3 bis. Om aan de verplichtingen van dit artikel te voldoen, waarborgen aanbieders en gebruikers een toereikend niveau van AI-geletterdheid overeenkomstig artikel 4 ter.
Amendement 314 Voorstel voor een verordening Artikel 14 – lid 1
1. AI-systemen met een hoog risico worden zodanig ontworpen en ontwikkeld, met inbegrip van passende mens-machine-interface-instrumenten, dat hierop tijdens de periode dat het AI-systeem wordt gebruikt, op doeltreffende wijze toezicht kan worden uitgeoefend door natuurlijke personen.
1. AI-systemen met een hoog risico worden zodanig ontworpen en ontwikkeld, met inbegrip van passende mens-machine-interface-instrumenten, dat hierop op doeltreffende wijze toezicht wordt uitgeoefend door natuurlijke personen, in verhouding tot de risico’s die met die systemen gepaard gaan. Tijdens de periode dat het AI-systeem wordt gebruikt, beschikken natuurlijke personen die voor het menselijk toezicht moeten zorgen, over een toereikend niveau van AI-geletterdheid overeenkomstig artikel 4 ter en over de nodige ondersteuning en autoriteit om die functie te kunnen uitoefenen en om grondig onderzoek na een incident mogelijk te maken.
Amendement 315 Voorstel voor een verordening Artikel 14 – lid 2
2. Het menselijk toezicht is gericht op het voorkomen of beperken van de risico’s voor de gezondheid, veiligheid of grondrechten die zich kunnen voordoen wanneer een AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, met name wanneer dergelijke risico’s blijven bestaan ondanks de toepassing van andere voorschriften van dit hoofdstuk.
2. Het menselijk toezicht is gericht op het voorkomen of beperken van de risico’s voor de gezondheid, veiligheid, de grondrechten of het milieu die zich kunnen voordoen wanneer een AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, met name wanneer dergelijke risico’s blijven bestaan ondanks de toepassing van andere voorschriften van dit hoofdstuk en wanneer uitsluitend op geautomatiseerde verwerking door AI-systemen gebaseerde besluiten rechtsgevolgen of anderszins significante gevolgen hebben voor de personen of groepen personen voor wie het systeem moet worden gebruikt.
Amendement 316 Voorstel voor een verordening Artikel 14 – lid 3 – inleidende formule
3. Het menselijk toezicht wordt gewaarborgd door middel van een of alle van de volgende maatregelen:
3. Het menselijk toezicht is afgestemd op de specifieke risico’s, de mate van automatisering en de context van het AI-systeem en wordt gewaarborgd door middel van een of alle van de volgende soorten maatregelen:
Amendement 317 Voorstel voor een verordening Artikel 14 – lid 4 – inleidende formule
4. De in lid 3 bedoelde maatregelen stellen de personen die verantwoordelijk zijn voor het menselijk toezicht in staat om het volgende te doen, zoals passend gezien de omstandigheden:
4. Voor de toepassing van de leden1 tot en met 3 wordt het AI-systeem met een hoog risico zodanig aan de gebruiker verstrekt dat natuurlijke personen die verantwoordelijk zijn voor het menselijk toezicht, in staat worden gesteld om waar passend en in verhouding tot de omstandigheden het volgende te doen:
Amendement 318 Voorstel voor een verordening Artikel 14 – lid 4 – punt a
a) de capaciteiten en beperkingen van het AI-systeem met een hoog risico volledig begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;
a) zich bewust zijn van de relevante capaciteiten en beperkingen van het AI-systeem met een hoog risico en deze voldoende begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;
Amendement 319 Voorstel voor een verordening Artikel 14 – lid 4 – punt e
e) ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure.
e) ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure die het mogelijk maakt het systeem in een veilige toestand tot stilstand te brengen, tenzij het ingrijpen van de mens de risico’s vergroot of de prestaties negatief zou beïnvloeden, rekening houdend met de algemeen erkende stand van de techniek.
Amendement 320 Voorstel voor een verordening Artikel 14 – lid 5
5. Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 1, a), zijn de maatregelen als bedoeld in lid 3 zodanig dat zij waarborgen dat daarnaast door de gebruiker geen maatregelen worden getroffen of beslissingen worden genomen op basis van de identificatie door het systeem, tenzij deze door ten minste twee natuurlijke personen zijn geverifieerd en bevestigd.
5. Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 1, a), zijn de maatregelen als bedoeld in lid 3 zodanig dat zij waarborgen dat daarnaast door de gebruiker geen maatregelen worden getroffen of beslissingen worden genomen op basis van de identificatie door het systeem, tenzij deze door ten minste twee natuurlijke personen met de noodzakelijke competenties, opleiding en autoriteit zijn geverifieerd en bevestigd.
Amendement 321 Voorstel voor een verordening Artikel 15 – lid 1
1. AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat deze, met het oog op hun beoogde doel, een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging bieden, alsook consistente prestaties gedurende de levensduur met betrekking tot deze aspecten.
1. AI-systemen met een hoog risico worden ontworpen en ontwikkeld op basis van het beginsel van beveiliging door ontwerp en door standaardinstellingen. Met het oog op hun beoogde doel moeten zij een passend niveau van nauwkeurigheid, robuustheid, veiligheid en cyberbeveiliging bieden, alsook consistente prestaties gedurende de levensduur met betrekking tot deze aspecten. De naleving van deze vereisten moet verbonden zijn met de uitvoering van maatregelen die in overeenstemming zijn met de stand van de techniek in het specifieke marktsegment of toepassingsgebied.
Amendement 322 Voorstel voor een verordening Artikel 15 – lid 1 bis (nieuw)
1 bis. Ter verduidelijking van de technische aspecten van de meting van het passende niveau van nauwkeurigheid en robuustheid als voorzien in lid 1 van dit artikel brengt het Europees Comité voor artificiële intelligentie nationale en internationale metrologie- en benchmarkingautoriteiten bij elkaar en verstrekt niet-bindende richtsnoeren hierover, zoals voorzien in artikel 56, lid 2, punt a).
Amendement 323 Voorstel voor een verordening Artikel 15 – lid 1 ter (nieuw)
1 ter. Bij het aanpakken van opkomende kwesties in de gehele interne markt met betrekking tot cyberbeveiliging wordt het Agentschap van de Europese Unie voor cyberbeveiliging (Enisa) betrokken, samen met het Europees Comité voor artificiële intelligentie, zoals voorzien in artikel 56, lid 2, punt b).
Amendement 324 Voorstel voor een verordening Artikel 15 – lid 2
2. De niveaus van nauwkeurigheid en de relevante maatstaven voor de nauwkeurigheid van AI-systemen met een hoog risico worden vermeld in de bijbehorende gebruiksaanwijzingen.
2. De niveaus van nauwkeurigheid en de relevante maatstaven voor de nauwkeurigheid van AI-systemen met een hoog risico worden vermeld in de bijbehorende gebruiksaanwijzingen. De gebruikte formulering moet duidelijk zijn, geen misleidende opmerkingen bevatten of ruimte bieden voor misverstanden.
Amendement 325 Voorstel voor een verordening Artikel 15 – lid 3 – alinea 1
AI-systemen met een hoog risico zijn bestand tegen fouten en onregelmatigheden die zich binnen het systeem of de omgeving waarin het systeem wordt gebruikt, kunnen voordoen, met name als gevolg van de interactie ervan met natuurlijke personen of andere systemen.
Er worden technische en organisatorische maatregelen genomen om ervoor te zorgen dat AI-systemen met een hoog risico zo goed mogelijk bestand zijn tegen fouten en onregelmatigheden die zich binnen het systeem of de omgeving waarin het systeem wordt gebruikt, kunnen voordoen, met name als gevolg van de interactie ervan met natuurlijke personen of andere systemen.
Amendement 326 Voorstel voor een verordening Artikel 15 – lid 3 – alinea 2
De robuustheid van AI-systemen met een hoog risico kan worden gerealiseerd door middel van technische oplossingen voor redundantie, die plannen voor de back-up of de veiligheid bij defecten kunnen omvatten.
De robuustheid van AI-systemen met een hoog risico kan waar nodigdoor de desbetreffende aanbieder met input van de gebruiker worden gerealiseerd door middel van technische oplossingen voor redundantie, die plannen voor de back-up of de veiligheid bij defecten kunnen omvatten.
Amendement 327 Voorstel voor een verordening Artikel 15 – lid 3 – alinea 3
AI-systemen met een hoog risico die blijven leren nadat ze in de handel worden gebracht of in gebruik worden gesteld, worden op zodanige wijze ontwikkeld dat wordt gewaarborgd dat mogelijk vertekende outputs als gevolg van het gebruik van outputs als input voor toekomstige operaties (zogenaamde “terugkoppelingen”) naar behoren worden aangepakt aan de hand van passende beperkende maatregelen.
AI-systemen met een hoog risico die blijven leren nadat ze in de handel worden gebracht of in gebruik worden gesteld, worden op zodanige wijze ontwikkeld dat wordt gewaarborgd dat mogelijk vertekende outputs die van invloed zijn op de input voor toekomstige operaties (zogenaamde “terugkoppelingen”) en de kwaadwillige manipulatie van inputs die gebruikt zijn in het leerproces tijdens de werking van het systeem naar behoren worden aangepakt aan de hand van passende beperkende maatregelen.
Amendement 328 Voorstel voor een verordening Artikel 15 – lid 4 – alinea 1
AI-systemen met een hoog risico zijn bestand tegen pogingen van ongeautoriseerde derden om het gebruik of de prestaties ervan te wijzigen door gebruik te maken van de kwetsbaarheden van het systeem.
AI-systemen met een hoog risico zijn bestand tegen pogingen van ongeautoriseerde derden om het gebruik, de werking, de outputs of de prestaties ervan te wijzigen door gebruik te maken van de kwetsbaarheden van het systeem.
Amendement 329 Voorstel voor een verordening Artikel 15 – lid 4 – alinea 3
De technische oplossingen voor het aanpakken van AI-specifieke kwetsbaarheden omvatten, waar passend, maatregelen voor het voorkomen en beheersen van aanvallen waarmee een poging wordt gedaan tot het manipuleren van de datareeks voor de training (de zogenaamde “datavervuiling”), van input die is gecreëerd om fouten van het model te veroorzaken (zogenaamde “vijandige voorbeelden”) of van tekortkomingen van het model.
De technische oplossingen voor het aanpakken van AI-specifieke kwetsbaarheden omvatten, waar passend, maatregelen voor het voorkomen, traceren, reageren op, oplossen en beheersen van aanvallen waarmee een poging wordt gedaan tot het manipuleren van de datareeks voor de training (de zogenaamde “datavervuiling”), van vooraf getrainde componenten die in de training zijn gebruikt (de zogenaamde “modelvervuiling”), van input die is gecreëerd om fouten van het model te veroorzaken (zogenaamde “vijandige voorbeelden” of “modelontwijking”), van aanvallen om vertrouwelijke gegevens te bemachtigen of van tekortkomingen van het model, die kunnen leiden tot schadelijke besluitvorming.
Amendement 330 Voorstel voor een verordening Titel III – hoofdstuk 3 – titel
VERPLICHTINGEN VAN AANBIEDERS EN GEBRUIKERS VAN AI-SYSTEMEN MET EEN HOOG RISICO en andere partijen
VERPLICHTINGEN VAN AANBIEDERS EN EXPLOITANTEN VAN AI-SYSTEMEN MET EEN HOOG RISICO EN ANDERE PARTIJEN
Amendement 331 Voorstel voor een verordening Artikel 16 – titel
Verplichtingen van aanbieders van AI-systemen met een hoog risico
Verplichtingen van aanbieders en exploitanten van AI-systemen met een hoog risico en andere partijen
Amendement 332 Voorstel voor een verordening Artikel 16 – alinea 1 – punt a
a) zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de voorschriften van hoofdstuk 2 van deze titel;
a) zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de voorschriften van hoofdstuk 2 van deze titel alvorens deze in de handel te brengen of in gebruik te stellen;
Amendement 333 Voorstel voor een verordening Artikel 16 – alinea 1 – punt a bis (nieuw)
a bis) vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun adres en contactgegevens op het AI-systeem met een hoog risico, of wanneer dit niet mogelijk is, op de bij het product gevoegde documentatie, naargelang van het geval;
Amendement 334 Voorstel voor een verordening Artikel 16 – alinea 1 – punt a ter (nieuw)
a ter) zorgen ervoor dat natuurlijke personen die met het menselijk toezicht op AI-systemen met een hoog risico zijn belast specifiek bewust worden gemaakt van het risico van vooringenomenheid in geautomatiseerde processen (automation bias) en bevestigingsvooroordelen (confirmation bias);
Amendement 335 Voorstel voor een verordening Artikel 16 – alinea 1 – punt a quater (nieuw)
a quater) verstrekken specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen, waaronder hun beperkingen en veronderstellingen, rekening houdend met het beoogde doel en, het te voorziene en redelijkerwijs te voorziene misbruik van het AI-systeem;
Amendement 336 Voorstel voor een verordening Artikel 16 – alinea 1 – punt c
c) stellen de technische documentatie van het AI-systeem met een hoog risico op;
c) stellen de in artikel 11 bedoelde technische documentatie van het AI-systeem met een hoog risico op en actualiseren deze documentatie;
Amendement 337 Voorstel voor een verordening Artikel 16 – alinea 1 – punt d
d) bewaren de logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben;
d) bewaren de logs, wanneer zij hierover de controle hebben, die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd en die noodzakelijk zijn voor het waarborgen en aantonen van de naleving van deze verordening, overeenkomstig artikel 20;
Amendement 338 Voorstel voor een verordening Artikel 16 – alinea 1 – punt e
e) zorgen ervoor dat voor het AI-systeem met een hoog risico de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld;
e) zorgen ervoor dat voor het AI-systeem met een hoog risico de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld, in overeenstemming met artikel 43;
Amendement 339 Voorstel voor een verordening Artikel 16 – alinea 1 – punt e bis (nieuw)
e bis) stellen een EU-conformiteitsverklaring op, in overeenstemming met artikel 48;
Amendement 340 Voorstel voor een verordening Artikel 16 – alinea 1 – punt e ter (nieuw)
e ter) brengen de CE-markering aan op het AI-systeem met een hoog risico om aan te geven dat dit in overeenstemming is met deze verordening, conform artikel 49;
Amendement 341 Voorstel voor een verordening Artikel 16 – alinea 1 – punt g
g) nemen de noodzakelijke corrigerende maatregelen wanneer het AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;
g) nemen de noodzakelijke corrigerende maatregelen als bedoeld in artikel 21 en verstrekken informatie in verband daarmee;
Amendement 342 Voorstel voor een verordening Artikel 16 – alinea 1 – punt h
h) informeren de nationale bevoegde autoriteiten van de lidstaten waarin zij het AI-systeem beschikbaar hebben gemaakt of in gebruik hebben gesteld en, waar van toepassing, de aangemelde instantie over de non-conformiteit en over eventuele getroffen corrigerende maatregelen;
Schrappen
Amendement 343 Voorstel voor een verordening Artikel 16 – alinea 1 – punt i
i) brengen overeenkomstig artikel 49 de CE-markering aan op hun AI-systemen met een hoog risico om aan te geven dat deze in overeenstemming zijn met deze verordening;
Schrappen
Amendement 344 Voorstel voor een verordening Artikel 16 – alinea 1 – punt j
j) tonen op verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel.
j) tonen op met redenen omkleed verzoek van een nationale toezichthoudende autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel.
Amendement 345 Voorstel voor een verordening Artikel 16 – alinea 1 – punt j bis (nieuw)
j bis) zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidsvoorschriften.
Amendement 346 Voorstel voor een verordening Artikel 17 – lid 1 – inleidende formule
1. Aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures en instructies en omvat ten minste de volgende aspecten:
1. Aanbieders van AI-systemen met een hoog risico beschikken over een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures of instructies en kan worden opgenomen in een bestaand systeem voor kwaliteitsbeheer krachtens de passende sectorale wetgeving van de Unie. Het systeem omvat ten minste de volgende aspecten:
Amendement 347 Voorstel voor een verordening Artikel 17 – lid 1 – punt a
a) een strategie voor de naleving van de wet- en regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;
Schrappen
Amendement 348 Voorstel voor een verordening Artikel 17 – lid 1 – punt e
e) technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;
e) technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast of geen betrekking hebben op alle relevante voorschriften, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;
Amendement 349 Voorstel voor een verordening Artikel 17 – lid 1 – punt f
f) systemen en procedures voor databeheer, met inbegrip van dataverzameling, -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;
f) systemen en procedures voor databeheer, met inbegrip van dataverwerving, -verzameling, -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;
Amendement 350 Voorstel voor een verordening Artikel 17 – lid 1 – punt j
j) de communicatie met nationale bevoegde autoriteiten, bevoegde autoriteiten, met inbegrip van sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, aangemelde instanties, andere operatoren, klanten of andere belangstellenden;
j) de communicatie met de relevante bevoegde autoriteiten, met inbegrip van sectorale autoriteiten;
Amendement 351 Voorstel voor een verordening Artikel 17 – lid 2
2. De uitvoering van de in lid 1 bedoelde aspecten is evenredig aan de omvang van de organisatie van de aanbieder.
2. De uitvoering van de in lid 1 bedoelde aspecten is evenredig aan de omvang van de organisatie van de aanbieder. Aanbieders eerbiedigen hoe dan ook de striktheid en het beschermingsniveau die nodig zijn om te garanderen dat hun AI-systemen aan deze verordening voldoen.
Amendement 352 Voorstel voor een verordening Artikel 18 – titel
Verplichting om technische documentatie op te stellen
Schrappen
Amendement 353 Voorstel voor een verordening Artikel 18 – lid 1
1. Aanbieders van AI-systemen met een hoog risico stellen de in artikel 11 bedoelde technische documentatie op in overeenstemming met bijlage IV.
Schrappen
Amendement 354 Voorstel voor een verordening Artikel 18 – lid 2
2. Aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de technische documentatie als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.
Schrappen
Amendement 355 Voorstel voor een verordening Artikel 19
Artikel 19
Schrappen
Conformiteitsbeoordeling
1. Aanbieders van AI-systemen met een hoog risico zorgen ervoor dat voor hun systemen de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd in overeenstemming met artikel 43 voordat deze systemen in de handel worden gebracht of in gebruik worden gesteld. Wanneer de overeenstemming van de AI-systemen met de voorschriften van hoofdstuk 2 van deze titel is aangetoond aan de hand van die conformiteitsbeoordeling, stellen de aanbieders overeenkomstig artikel 48 een EU-conformiteitsverklaring op en brengen zij overeenkomstig artikel 49 de CE-conformiteitsmarkering aan.
2. Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 5, b), die in de handel worden gebracht of in gebruik worden gesteld door aanbieders die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, wordt de conformiteitsbeoordeling uitgevoerd als onderdeel van de in de artikelen 97 tot en met 101 van die richtlijn bedoelde procedure.
Amendement 356 Voorstel voor een verordening Artikel 20 – lid 1
1. Aanbieders van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door hun AI-systemen met een hoog risico, voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder hun controle vallen. De logs worden bewaard gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico en gezien de toepasselijke wettelijke verplichtingen op grond van het Unie- of intern recht.
1. Aanbieders van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door hun AI-systemen met een hoog risico, voor zover dergelijke logs onder hun controle vallen. Onverminderd het toepasselijke Unie- of nationale recht worden de logs gedurende ten minste zes maanden bewaard. De bewaartermijn is in overeenstemming met de normen in de sector en is passend voor het beoogde doel van het AI-systeem met een hoog risico.
Amendement 357 Voorstel voor een verordening Artikel 21 – alinea 1
Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen of terug te roepen. Zij stellen de distributeurs van het betrokken AI-systeem met een hoog risico en, indien van toepassing, de gemachtigden en importeurs dienovereenkomstig in kennis.
Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen, te deactiveren of terug te roepen.
In de in het eerste lid bedoelde gevallen brengen aanbieders onmiddellijk de volgende personen en instanties op de hoogte:
a) de distributeurs;
b) de importeurs;
c) de nationale bevoegde autoriteiten van de lidstaten waar zij het AI-systeem beschikbaar hebben gesteld of in gebruik hebben gesteld; alsmede
d) indien mogelijk, de exploitant.
Amendement 358 Voorstel voor een verordening Artikel 21 – alinea 1 bis (nieuw)
De aanbieders informeren ook de gemachtigde, indien er overeenkomstig artikel 25 een gemachtigde is aangewezen, en de aangemelde instantie indien het AI-systeem met een hoog risico overeenkomstig artikel 43 aan een conformiteitsbeoordeling door een derde instantie moest worden onderworpen. Waar toepasselijk buigen zij zich in samenwerking met de exploitant ook over de oorzaken.
Amendement 359 Voorstel voor een verordening Artikel 22 – alinea 1
Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, en dat risico bekend is bij de aanbieder van dat systeem, informeert deze aanbieder de nationale bevoegde autoriteiten van de lidstaten waarin hij het systeem beschikbaar heeft gemaakt en, waar van toepassing, de aangemelde instantie die een certificaat voor het AI-systeem met een hoog risico heeft afgegeven, met name over de non-conformiteit en over eventuele getroffen corrigerende maatregelen.
Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, en de aanbieder van dat systeem zich bewust wordt van dat risico, informeert deze aanbieder onmiddellijk de nationale toezichthoudende autoriteiten van de lidstaten waarin hij het systeem beschikbaar heeft gemaakt en, waar van toepassing, de aangemelde instantie die een certificaat voor het AI-systeem met een hoog risico heeft afgegeven, met name over de aard van de non-conformiteit en over eventuele relevante getroffen corrigerende maatregelen.
Amendement 360 Voorstel voor een verordening Artikel 22 – alinea 1 bis (nieuw)
In de in het eerste lid bedoelde gevallen brengen de aanbieders van het Ai-systeem met een hoog risico onmiddellijk de volgende personen en instanties op de hoogte:
a) de distributeurs;
b) de importeurs;
c) de nationale bevoegde autoriteiten van de lidstaten waar zij het AI-systeem beschikbaar hebben gesteld of in gebruik hebben gesteld; alsmede
d) indien mogelijk, de exploitanten.
Amendement 361 Voorstel voor een verordening Artikel 22 – alinea 1 ter (nieuw)
De aanbieders stellen ook de gemachtigde in kennis, indien er overeenkomstig artikel 25 een gemachtigde is aangewezen.
Amendement 362 Voorstel voor een verordening Artikel 23 – titel
Samenwerking met bevoegde autoriteiten
Samenwerking met bevoegde autoriteiten, het AI-bureau en de Commissie
Amendement 363 Voorstel voor een verordening Artikel 23 – alinea 1
Aanbieders van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten die hierom verzoeken van alle informatie en documentatie die noodzakelijk is om de overeenstemming van het AI-systemen met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een officiële taal van de Unie die door de betrokken lidstaat wordt bepaald. Op met redenen omkleed verzoek van een nationale bevoegde autoriteit verlenen aanbieders die autoriteit ook toegang tot de logs die automatisch zijn gegenereerd door hun AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder hun controle vallen.
Aanbieders en, in voorkomend geval, exploitanten van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten die hierom een met redenen omkleed verzoek doen, of, in voorkomend geval, het AI-bureau of de Commissie, van alle informatie en documentatie die noodzakelijk is om de overeenstemming van het AI-systemen met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een officiële taal van de Unie die door de betrokken lidstaat wordt bepaald.
Amendement 364 Voorstel voor een verordening Artikel 23 – alinea 1 bis (nieuw)
Op met redenen omkleed verzoek van een nationale bevoegde autoriteit of, in voorkomend geval, van de Commissie, verlenen aanbieders en, in voorkomend geval, exploitanten de verzoekende nationale bevoegde autoriteit of de Commissie, zoals van toepassing, ook toegang tot de logs die automatisch zijn gegenereerd door hun AI-systeem met een hoog risico voor zover dergelijke logs onder hun controle vallen.
Amendement 365 Voorstel voor een verordening Artikel 23 – alinea 1 ter (nieuw)
De door een nationale bevoegde instantie of door de Commissie volgens de bepalingen van dit artikel verkregen informatie en documentatie worden beschouwd als een bedrijfsgeheim en worden verwerkt overeenkomstig de in artikel 70 vastgestelde geheimhoudingsverplichtingen.
Amendement 366 Voorstel voor een verordening Artikel 25 – lid 1
1. Indien geen importeur kan worden geïdentificeerd, wijzen aanbieders die buiten de Unie zijn gevestigd, voordat zij hun systemen beschikbaar maken in de Unie, per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.
1. Aanbieders die buiten de Unie zijn gevestigd, wijzen voordat zij hun systemen beschikbaar maken in de Unie, per schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.
Amendement 367 Voorstel voor een verordening Artikel 25 – lid 1 bis (nieuw)
1 bis. De gemachtigde is woonachtig of gevestigd in een van de lidstaten waar de activiteiten krachtens artikel 2, lid 1 c ter, plaatsvinden.
Amendement 368 Voorstel voor een verordening Artikel 25 – lid 1 ter (nieuw)
1 ter. De aanbieder verschaft zijn gemachtigde de noodzakelijke bevoegdheden en middelen om zich van zijn taken in het kader van deze verordening te kwijten.
Amendement 369 Voorstel voor een verordening Artikel 25 – lid 2 – inleidende formule
2. De gemachtigde voert de taken uit die gespecificeerd zijn in het mandaat dat hij van de aanbieder heeft ontvangen. Het mandaat geeft de gemachtigde de bevoegdheid om de volgende taken te verrichten:
2. De gemachtigde voert de taken uit die gespecificeerd zijn in het mandaat dat hij van de aanbieder heeft ontvangen. Hij legt op verzoek een kopie van het mandaat over aan de markttoezichtautoriteiten, in een door de nationale bevoegde autoriteit gekozen officiële taal van de instellingen van de Unie. Voor de toepassing van deze verordening geeft het mandaat de gemachtigde de bevoegdheid om de volgende taken te verrichten:
Amendement 370 Voorstel voor een verordening Artikel 25 – lid 2 – punt a
a) een kopie van de EU-conformiteitsverklaring en de technische documentatie ter beschikking houden van de nationale bevoegde autoriteiten en nationale autoriteiten als bedoeld in artikel 63, lid 7;
a) waarborgen dat de EU-conformiteitsverklaring en de technische documentatie zijn opgesteld en door de aanbieder een passende conformiteitsbeoordelingsprocedure is gevolgd;
Amendement 371 Voorstel voor een verordening Artikel 25 – lid 2 – punt a bis (nieuw)
a bis) een kopie van de EU-conformiteitsverklaring, de technische documentatie en, indien van toepassing, het door de aangemelde instantie afgegeven certificaat, ter beschikking houden van de nationale bevoegde autoriteiten en nationale autoriteiten als bedoeld in artikel 63, lid 7;
Amendement 372 Voorstel voor een verordening Artikel 25 – lid 2 – punt b
b) een nationale bevoegde autoriteit op met redenen omkleed verzoek alle informatie en documentatie verstrekken die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder de controle van de aanbieder vallen;
b) een nationale bevoegde autoriteit op met redenen omkleed verzoek alle informatie en documentatie verstrekken die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs onder de controle van de aanbieder vallen;
Amendement 373 Voorstel voor een verordening Artikel 25 – lid 2 – punt c
c) op met redenen omkleed verzoek samenwerken met bevoegde nationale autoriteiten met betrekking tot een maatregel die door deze autoriteiten wordt getroffen in verband met het AI-systeem met een hoog risico.
c) op met redenen omkleed verzoek samenwerken met nationale toezichthoudende autoriteiten met betrekking tot een maatregel die door deze autoriteiten wordt getroffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken;
Amendement 374 Voorstel voor een verordening Artikel 25 – lid 2 – punt c bis (nieuw)
c bis) waar toepasselijk, voldoen aan de in artikel 51 bedoelde registratieverplichtingen of, indien de registratie door de aanbieder zelf wordt uitgevoerd, waarborgen dat de in bijlage VIII, punt 3, bedoelde informatie juist is.
Amendement 375 Voorstel voor een verordening Artikel 25 – lid 2 bis (nieuw)
2 bis. De gemachtigde wordt aangesteld als aanspreekpunt, naast of in plaats van de aanbieder, voor met name de nationale toezichthoudende autoriteit of de nationale bevoegde autoriteiten, met betrekking tot alle vraagstukken die verband houden met het waarborgen van de naleving van deze verordening.
Amendement 376 Voorstel voor een verordening Artikel 25 – lid 2 ter (nieuw)
2 ter. De gemachtigde beëindigt het mandaat indien hij van mening is of redenen heeft om aan te nemen dat de aanbieder in strijd met zijn verplichtingen uit hoofde van deze verordening handelt. In dat geval stelt hij ook de nationale toezichthoudende instantie van de lidstaat waar hij is gevestigd en, in voorkomend geval, de betrokken aangemelde instantie, onmiddellijk in kennis van de beëindiging van het mandaat en de redenen daarvoor.
Amendement 377 Voorstel voor een verordening Artikel 26 – lid 1 – inleidende formule
1. Voordat een AI-systeem met een hoog risico in de handel wordt gebracht, zorgen de importeurs van een dergelijk systeem dat:
1. Voordat een AI-systeem met een hoog risico in de handel wordt gebracht, zorgen de importeurs van een dergelijk systeem dat een dergelijk systeem in overeenstemming is met deze verordening door te waarborgen dat:
Amendement 378 Voorstel voor een verordening Artikel 26 – lid 1 – punt a
a) de passende conformiteitsbeoordelingsprocedure is uitgevoerd door de aanbieder van dat AI-systeem;
a) de relevante conformiteitsbeoordelingsprocedure als bedoeld in artikel 43 is uitgevoerd door de aanbieder van dat AI-systeem;
Amendement 379 Voorstel voor een verordening Artikel 26 – lid 1 – punt b
b) de aanbieder de technische documentatie heeft opgesteld in overeenstemming met bijlage IV;
b) de aanbieder de technische documentatie heeft opgesteld in overeenstemming met artikel 11 en bijlage IV;
Amendement 380 Voorstel voor een verordening Artikel 26 – lid 1 – punt c bis (nieuw)
c bis) de aanbieder, waar gepast, een gemachtigde heeft aangewezen, in overeenstemming met artikel 25, lid 1.
Amendement 381 Voorstel voor een verordening Artikel 26 – lid 2
2. Wanneer een importeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, brengt hij dat systeem niet in de handel voordat het in overeenstemming is gebracht. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de importeur de aanbieder van het AI-systeem en de markttoezichtautoriteiten hiervan in kennis.
2. Wanneer een importeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, is vervalst of wordt vergezeld van vervalste documenten, brengt hij dat systeem niet in de handel voordat het in overeenstemming is gebracht. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de importeur de aanbieder van het AI-systeem en de markttoezichtautoriteiten hiervan in kennis.
Amendement 382 Voorstel voor een verordening Artikel 26 – lid 3
3. Importeurs vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun contactadres op het AI-systeem met een hoog risico, of wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, zoals van toepassing.
3. Importeurs vermelden hun naam, geregistreerde handelsnaam of geregistreerde merknaam en hun contactadres op het AI-systeem met een hoog risico en op de verpakking of in de bij het product gevoegde documentatie, wanneer van toepassing.
Amendement 383 Voorstel voor een verordening Artikel 26 – lid 5
5. Importeurs voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een taal die deze nationale bevoegde autoriteit eenvoudig kan begrijpen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs op grond van een contractuele regeling met de gebruiker of anders op grond van wettelijke bepalingen onder de controle van de aanbieder vallen.Zij werken bovendien samen met deze autoriteiten met betrekking tot eventuele maatregelen die de nationale bevoegde autoriteit treft in verband met dat systeem.
5. Importeurs voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen, in een taal die deze autoriteiten eenvoudig kunnen begrijpen, met inbegrip van de logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico, voor zover dergelijke logs onder de controle van de aanbieder vallen, overeenkomstig artikel 20.
Amendement 384 Voorstel voor een verordening Artikel 26 – lid 5 bis (nieuw)
5 bis. Importeurs werken samen met de nationale bevoegde autoriteiten bij alle maatregelen die deze autoriteiten treffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken.
Amendement 385 Voorstel voor een verordening Artikel 27 – lid 1
1. Voordat zij een AI-systeem met een hoog risico in de handel brengen, controleren distributeurs of op het AI-systeem met een hoog risico de vereiste CE-conformiteitsmarkering is aangebracht, of het systeem vergezeld gaat van de vereiste documentatie en gebruiksinstructies en of de aanbieder en importeur van het systeem, als van toepassing, de verplichtingen van deze verordening hebben nageleefd.
1. Voordat zij een AI-systeem met een hoog risico in de handel brengen, controleren distributeurs of op het AI-systeem met een hoog risico de vereiste CE-conformiteitsmarkering is aangebracht, of het systeem vergezeld gaat van de vereiste documentatie en gebruiksinstructies en of de aanbieder en importeur van het systeem, als van toepassing, hun verplichtingen uit hoofde van artikel 16 respectievelijk artikel 26 van deze verordening hebben nageleefd.
Amendement 386 Voorstel voor een verordening Artikel 27 – lid 2
2. Wanneer een distributeur van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, brengt hij het AI-systeem met een hoog risico niet in de handel voordat het in overeenstemming is gebracht met deze voorschriften. Daarnaast stelt de distributeur, wanneer het systeem een risico vormt in de zin van artikel 65, lid 1, de aanbieder of de importeur van het AI-systeem, als van toepassing, hiervan in kennis.
2. Wanneer een distributeur van mening is of redenen heeft om, op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, brengt hij het AI-systeem met een hoog risico niet in de handel voordat het in overeenstemming is gebracht met deze voorschriften. Daarnaast stelt de distributeur, wanneer het systeem een risico vormt in de zin van artikel 65, lid 1, de aanbieder of de importeur van het AI-systeem en de relevante nationale bevoegde autoriteit, als van toepassing, hiervan in kennis.
Amendement 387 Voorstel voor een verordening Artikel 27 – lid 4
4. Een distributeur die van mening is of redenen heeft om aan te nemen dat een AI-systeem met een hoog risico dat hij in de handel heeft gebracht, niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, neemt de noodzakelijke corrigerende maatregelen om dat systeem in overeenstemming te brengen met deze voorschriften, uit de handel te nemen of terug te roepen of zorgt ervoor dat de aanbieder, de importeur of een eventuele betrokken operator, waar passend, dergelijke corrigerende maatregelen treft. Indien het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de distributeur de nationale bevoegde autoriteiten van de lidstaten waarin hij het product beschikbaar heeft gemaakt hiervan onmiddellijk in kennis, waarbij hij in het bijzonder de non-conformiteit en de eventueel getroffen corrigerende maatregelen uitvoerig beschrijft.
4. Een distributeur die van mening is of redenen heeft om, op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico dat hij in de handel heeft gebracht, niet in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel, neemt de noodzakelijke corrigerende maatregelen om dat systeem in overeenstemming te brengen met deze voorschriften, uit de handel te nemen of terug te roepen of zorgt ervoor dat de aanbieder, de importeur of een eventuele betrokken operator, waar passend, dergelijke corrigerende maatregelen treft. Indien het AI-systeem met een hoog risico een risico vormt in de zin van artikel 65, lid 1, stelt de distributeur de aanbieder of importeur van het systeem en de nationale bevoegde autoriteiten van de lidstaten waarin hij het product beschikbaar heeft gemaakt hiervan onmiddellijk in kennis, waarbij hij in het bijzonder de non-conformiteit en de eventueel getroffen corrigerende maatregelen uitvoerig beschrijft.
Amendement 388 Voorstel voor een verordening Artikel 27 – lid 5
5. Distributeurs van AI-systemen met een hoog risico voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die noodzakelijk is om de overeenstemming van een systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen. Distributeurs werken bovendien samen met deze nationale bevoegde autoriteit met betrekking tot eventuele maatregelen die deze autoriteit heeft getroffen.
5. Distributeurs van het AI-systeem met een hoog risico voorzien nationale bevoegde autoriteiten op met redenen omkleed verzoek van alle informatie en documentatie die zij in hun bezit hebben of waarover zij kunnen beschikken, overeenkomstig de verplichtingen van distributeurs als beschreven in lid 1, en die noodzakelijk is om de overeenstemming van een systeem met een hoog risico met de voorschriften van hoofdstuk 2 van deze titel aan te tonen.
Amendement 389 Voorstel voor een verordening Artikel 27 – lid 5 bis (nieuw)
5 bis. Distributeurs werken samen met de nationale bevoegde autoriteiten bij alle maatregelen die deze autoriteiten treffen om de risico’s van het AI-systeem met een hoog risico te verminderen en te beperken.
Amendement 390 Voorstel voor een verordening Artikel 28 - titel
Verplichtingen van distributeurs, importeurs, gebruikers en eventuele derden
Verantwoordelijkheden in de AI-waardeketen van aanbieders, distributeurs, importeurs, exploitanten en eventuele derden
Amendement 391 Voorstel voor een verordening Artikel 28 – lid 1 – inleidende formule
1. In de volgende omstandigheden wordt een distributeur, importeur, gebruiker of derde voor de toepassing van deze verordening beschouwd als een aanbieder en is hij onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16:
1. In de volgende omstandigheden wordt een distributeur, importeur, exploitant of derde voor de toepassing van deze verordening beschouwd als een aanbieder van een AI-systeem met een hoog risico en is hij onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16:
Amendement 392 Voorstel voor een verordening Artikel 28 – lid 1 – punt a
a) hij brengt een AI-systeem met een hoog risico onder zijn naam of merknaam in de handel of stelt dit onder zijn naam of merknaam in gebruik;
a) hij brengt zijn naam of merknaam aan op een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico;
Amendement 393 Voorstel voor een verordening Artikel 28 – lid 1 – punt b
b) hij wijzigt het beoogde doel van een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico; of
b) hij brengt een ingrijpende wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is genomen op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft overeenkomstig artikel 6; of
Amendement 394 Voorstel voor een verordening Artikel 28 – lid 1 – punt b bis (nieuw)
b bis) hij brengt een ingrijpende wijziging aan in een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is genomen, op zodanige wijze dat het AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt;
Amendement 395 Voorstel voor een verordening Artikel 28 – lid 2
2. Wanneer sprake is van de in lid 1, punt b) ofc), bedoelde omstandigheden, wordt de aanbieder die het AI-systeem met een hoog risico voor het eerst in de handel heeft gebracht of in gebruik heeft gesteld, niet langer beschouwd als aanbieder voor de toepassing van deze verordening.
2. Wanneer sprake is van de in lid 1, punt a) tot bbis), bedoelde omstandigheden, wordt de aanbieder die het AI-systeem voor het eerst in de handel heeft gebracht of in gebruik heeft gesteld, niet langer beschouwd als aanbieder van dat specifieke AI-systeem voor de toepassing van deze verordening. Deze voormalige aanbieder verstrekt de nieuwe aanbieder alle technische documentatie en alle andere relevante en redelijkerwijs te verwachten informatie over de capaciteiten van het AI-systeem, technische toegang of andere bijstand op basis van de algemeen erkende stand van de techniek, die nodig zijn voor de nakoming van de in deze verordening vastgestelde verplichtingen.
Dit lid is ook van toepassing op aanbieders van basismodellen zoals gedefinieerd in artikel 3 wanneer dit model rechtstreeks is opgenomen in een AI-systeem met een hoog risico.
Amendement 396 Voorstel voor een verordening Artikel 28 – lid 2 bis (nieuw)
2 bis. De aanbieder van een AI-systeem met een hoog risico en de derde partij die instrumenten, diensten, onderdelen of processen levert die worden gebruikt of geïntegreerd in het AI-systeem met een hoog risico, preciseren in een schriftelijke overeenkomst de informatie, capaciteiten, technische toegang en andere bijstand, op basis van de algemeen erkende stand van de techniek, die de derde partij moet verstrekken om de aanbieder van het AI-systeem met een hoog risico in staat te stellen volledig te voldoen aan de verplichtingen uit hoofde van deze verordening.
De Commissie ontwikkelt en doet aanbevelingen voor niet-bindende modelcontractvoorwaarden tussen aanbieders van AI-systemen met een hoog risico en derden die instrumenten, diensten, onderdelen of processen leveren die worden gebruikt of geïntegreerd in AI-systemen met een hoog risico, teneinde beide partijen te helpen bij het opstellen van en onderhandelen over contracten met evenwichtige contractuele rechten en verplichtingen, in overeenstemming met het controleniveau van elke partij. Bij de ontwikkeling van niet-bindende modelcontractvoorwaarden houdt de Commissie rekening met de contractuele vereisten die kunnen gelden in specifieke sectoren of businesscases. De niet-bindende contractvoorwaarden worden gepubliceerd en kosteloos beschikbaar gesteld in een gemakkelijk bruikbaar elektronisch formaat op de website van het AI-bureau.
Amendement 397 Voorstel voor een verordening Artikel 28 – lid 2 ter (nieuw)
2 ter. Voor de toepassing van dit artikel worden bedrijfsgeheimen bewaard en alleen bekendgemaakt op voorwaarde dat vooraf alle specifieke noodzakelijke maatregelen overeenkomstig Richtlijn (EU) 2016/943 worden genomen om de vertrouwelijkheid ervan te waarborgen, met name ten aanzien van derden. Indien nodig kunnen aangepaste technische en organisatorische regelingen voor de bescherming van intellectuele-eigendomsrechten of bedrijfsgeheimen worden vastgelegd.
Amendement 398 Voorstel voor een verordening Artikel 28 bis (nieuw)
Artikel 28 bis
Oneerlijke contractvoorwaarden die eenzijdig worden opgelegd aan een kmo of start-up
1. Een contractvoorwaarde betreffende de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, of betreffende de rechtsmiddelen voor inbreuken op of beëindiging van gerelateerde verplichtingen, die eenzijdig door een onderneming aan een kmo of start-up is opgelegd en oneerlijk is, is niet bindend voor deze kmo of start-up.
2. Een contractvoorwaarde wordt niet als oneerlijk beschouwd wanneer zij voortvloeit uit het toepasselijke Unierecht.
3. Een contractvoorwaarde is oneerlijk wanneer zij van zodanige aard is dat ze objectief afbreuk doet aan het vermogen van de partij aan wie de voorwaarde eenzijdig is opgelegd, om haar rechtmatige commerciële belang bij de informatie in kwestie te beschermen, of indien het gebruik ervan sterk afwijkt van de goede handelspraktijken bij de levering van instrumenten, diensten, onderdelen of processen die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, in strijd is met de beginselen van goede trouw en eerlijke behandeling, of tot een aanzienlijke verstoring leidt van het evenwicht tussen de rechten en verplichtingen van de contractpartijen. Een contractvoorwaarde is ook oneerlijk indien zij tot gevolg heeft dat de in artikel 71 bedoelde boetes of de daarmee gepaard gaande proceskosten worden verschoven tussen de contractpartijen, als bedoeld in artikel 71, lid 8.
4. Een contractvoorwaarde is oneerlijk in de zin van dit artikel indien zij het volgende tot doel of gevolg heeft:
a) de partij die de voorwaarde eenzijdig heeft opgelegd, draagt geen of beperkte aansprakelijkheid voor opzettelijke handelingen of grove nalatigheid;
b) de partij aan wie de voorwaarde eenzijdig is opgelegd, wordt uitgesloten van de rechtsmiddelen waarover deze beschikt in geval van niet-nakoming van contractuele verplichtingen, of de partij die de voorwaarde eenzijdig heeft opgelegd, draagt geen aansprakelijkheid in geval van niet-nakoming van die verplichtingen;
c) de partij die de voorwaarde eenzijdig heeft opgelegd beschikt over het exclusieve recht om te bepalen of de verstrekte technische documentatie en andere informatie in overeenstemming zijn met de overeenkomst of om een bepaling van de overeenkomst uit te leggen.
5. Een contractvoorwaarde wordt geacht eenzijdig te zijn opgelegd in de zin van dit artikel indien zij door een van de contractpartijen is gesteld en de andere partij ondanks een poging tot onderhandeling geen invloed op de inhoud ervan heeft kunnen uitoefenen. De contractpartij die een contractvoorwaarde heeft gesteld, moet bewijzen dat deze voorwaarde niet eenzijdig is opgelegd.
6. Wanneer de oneerlijke contractvoorwaarde kan worden gescheiden van de overige bepalingen van het contract, blijven die resterende bepalingen bindend. De partij die de betwiste voorwaarde in het contract heeft laten opnemen, kan zich er niet op beroepen dat de voorwaarde oneerlijk is.
7. Dit artikel is van toepassing op alle nieuwe contracten die van kracht worden na ... [datum van inwerkingtreding van deze verordening]. Ondernemingen onderwerpen de bestaande contractvoorwaarden die onder het toepassingsgebied van deze verordening vallen uiterlijk op ... [drie jaar na de datum van inwerkingtreding van deze verordening] aan een herziening.
8. Gezien de snelheid waarmee innovaties op de markt komen, herziet de Commissie de lijst van oneerlijke contractvoorwaarden van artikel 28 bis regelmatig en past zij deze waar nodig aan nieuwe handelspraktijken aan.
Amendement 399 Voorstel voor een verordening Artikel 28 ter (nieuw)
Artikel 28 ter
Verplichtingen van de aanbieder van een basismodel
1. Alvorens een basismodel op de markt aan te bieden of in gebruik te nemen, zorgt de aanbieder van zulk een model ervoor dat het in overeenstemming is met de vereisten van dit artikel, ongeacht of het als een op zichzelf staand model wordt geleverd, is ingebed in een AI-systeem of -product, of wordt aangeboden als dienst in het kader van vrije en open bronlicenties of via andere distributiekanalen.
2. Voor de toepassing van lid 1 van dit artikel doet de aanbieder van een basismodel het volgende:
a) hij toont aan, door middel van passend ontwerp en passende tests en analyses, dat redelijkerwijs voorzienbare risico’s voor het milieu, de gezondheid, veiligheid, grondrechten, democratie en rechtsstaat vóór en tijdens de ontwikkeling van het model aan de hand van passende methoden, onder meer met medewerking van onafhankelijke deskundigen, worden geïdentificeerd, verminderd en beperkt, en dat de resterende, niet-limiteerbare risico’s na de ontwikkeling ervan worden gedocumenteerd;
b) hij verwerkt en integreert alleen datareeksen die onderworpen zijn aan aangepaste maatregelen inzake databeheer voor basismodellen, met name maatregelen betreffende het onderzoeken van de geschiktheid van de gegevensbronnen, eventuele vertekeningen en gepaste risicobeperking;
c) hij ontwerpt en ontwikkelt het basismodel zodanig dat het gedurende zijn hele levenscyclus een gepast prestatieniveau en een gepast niveau van voorspelbaarheid, interpreteerbaarheid, corrigeerbaarheid, veiligheid en cyberveiligheid behoudt, en beoordeelt dit aan de hand van passende methoden zoals evaluaties met betrokkenheid van onafhankelijke deskundigen, gedocumenteerde analysen en uitgebreide tests tijdens de conceptualisering, het ontwerp en de ontwikkeling van het model;
d) hij maakt bij het ontwerpen en ontwikkelen van het basismodel gebruik van de geldende normen ter vermindering van energieverbruik, gebruik van hulpbronnen en afval en ter vergroting van de energie-efficiëntie en de algehele efficiëntie van het model, zonder hierbij afbreuk te doen aan het relevante bestaande Unie- en nationale recht. Deze verplichting geldt niet voordat de in artikel 40 bedoelde normen zijn bekendgemaakt. Basismodellen worden ontworpen met mogelijkheden om het verbruik van energie en hulpbronnen en, voor zover dat technisch haalbaar is, andere mogelijke milieueffecten van de uitrol en het gebruik van de modellen gedurende hun hele levensduur te meten en te registreren;
e) hij stelt uitgebreide technische documentatie en begrijpelijke gebruiksinstructies op om aanbieders downstream in staat te stellen hun verplichtingen uit hoofde van de artikelen 16 en 28, lid 1, na te komen;
f) hij zet een kwaliteitsbeheersysteem op om de naleving van dit artikel te waarborgen en te documenteren, waarbij het mogelijk is te experimenteren om aan deze vereiste te voldoen;
g) hij registreert het basismodel in de in artikel 60 bedoelde EU-databank, overeenkomstig de instructies in bijlage VIII, punt C.
Bij het voldoen aan deze vereisten houdt de aanbieder rekening met de algemeen erkende stand van de techniek, met de weerspiegeling hiervan in relevante geharmoniseerde normen of gemeenschappelijke specificaties en met de recentste evaluatie- en meetmethoden, met name de in artikel 58 bis bedoelde richtsnoeren en capaciteiten voor benchmarking.
3. Aanbieder van basismodellen houden gedurende een periode van tien jaar nadat hun model in de handel is gebracht of in bedrijf is gesteld, de in lid 2, punt e), bedoelde technische documentatie ter beschikking van de nationale bevoegde autoriteiten.
4. Aanbieders van basismodellen die worden gebruikt in AI-systemen waarvan het doel er specifiek in bestaat om met uiteenlopende mate van autonomie inhoud te genereren, zoals complexe tekst, afbeeldingen, audio- of videomateriaal (“generatieve AI”), en aanbieders die een basismodel aanpassen om het op te nemen in een generatief AI-systeem, moeten bovendien:
a) voldoen aan de transparantieverplichtingen van artikel 52, lid 1;
b) het basismodel op zodanige wijze trainen en eventueel ontwerpen en ontwikkelen dat er passende waarborgen worden geboden tegen het genereren van inhoud die in strijd is met het Unierecht, in overeenstemming met de algemeen erkende stand van de techniek en onverminderd de grondrechten en de vrijheid van meningsuiting;
c) een voldoende gedetailleerde samenvatting opstellen en publiek toegankelijk maken van het gebruik van trainingsdata die beschermd zijn uit hoofde van het auteursrecht, onverminderd de wetgeving van de Unie en de lidstaten inzake auteursrechten.
Amendement 400 Voorstel voor een verordening Artikel 29 – lid 1
1. Gebruikers van AI-systemen met een hoog risico gebruiken dergelijke systemen in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd, in overeenstemming met de leden 2 en 5.
1. Exploitanten van AI-systemen met een hoog risico nemen passende technische en organisatorische maatregelen om te waarborgen dat zij dergelijke systemen gebruiken in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd, in overeenstemming met de leden 2 en 5 van dit artikel.
Amendement 401 Voorstel voor een verordening Artikel 29 – lid 1 bis (nieuw)
1 bis. Voor zover exploitanten controle uitoefenen over het AI-systeem met een hoog risico:
i) oefenen zij menselijk toezicht uit overeenkomstig de vereisten van deze verordening
ii) zorgen zij ervoor dat de natuurlijke personen die belast zijn met het menselijk toezicht op de AI met een hoog risico bekwaam, naar behoren gekwalificeerd en opgeleid zijn en over de nodige middelen beschikken om een effectief toezicht op het AI-systeem overeenkomstig artikel 14 te waarborgen
iii) zorgen zij ervoor dat de relevante en passende maatregelen inzake robuustheid en cyberbeveiliging regelmatig op doeltreffendheid worden gecontroleerd en regelmatig worden aangepast of geactualiseerd.
Amendement 402 Voorstel voor een verordening Artikel 29 – lid 2
2. De verplichtingen van lid 1 doen geen afbreuk aan de andere verplichtingen van gebruikers op grond van het Unie- of intern recht en aan de beoordelingsvrijheid van gebruikers bij het organiseren van hun eigen middelen en activiteiten voor de uitvoering van de maatregelen inzake menselijk toezicht zoals aangegeven door de aanbieder.
2. De verplichtingen van de leden 1 en 1 bis, doen geen afbreuk aan de andere verplichtingen van de exploitant op grond van het Unie- of intern recht en aan de beoordelingsvrijheid van de exploitant bij het organiseren van hun eigen middelen en activiteiten voor de uitvoering van de maatregelen inzake menselijk toezicht zoals aangegeven door de aanbieder.
Amendement 403 Voorstel voor een verordening Artikel 29 – lid 3
3. Onverminderd lid 1 zorgt de gebruiker er, voor zover hij controle heeft over de inputdata, voor dat de inputdata relevant zijn voor het beoogde doel van het AI-systeem met een hoog risico.
3. Onverminderd lid 1 en lid 1 bis, zorgt de exploitant, voor zover hij controle heeft over de inputdata, ervoor dat de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico.
Amendement 404 Voorstel voor een verordening Artikel 29 – lid 4 – alinea 1
4. Gebruikers monitoren de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen. Wanneer zij redenen hebben om aan te nemen dat het gebruik overeenkomstig de gebruiksaanwijzingen ertoe kan leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, stellen zij de aanbieder of distributeur hiervan in kennis en onderbreken zij het gebruik van het systeem. Zij stellen de aanbieder of distributeur er ook van in kennis en onderbreken het gebruik van het AI-systeem wanneer zij een ernstig incident of eventuele gebrekkige werking hebben vastgesteld in de zin van artikel 62. Wanneer de gebruiker de aanbieder niet kan bereiken, is artikel 62 mutatis mutandis van toepassing.
4. Exploitanten monitoren de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en stellen in voorkomend geval de aanbieders in kennis overeenkomstig artikel 61. Wanneer zij redenen hebben om aan te nemen dat het gebruik overeenkomstig de gebruiksaanwijzingen ertoe kan leiden dat het AI-systeem een risico vormt in de zin van artikel 65, lid 1, stellen zij de aanbieder of distributeur en de desbetreffende nationale toezichthoudende autoriteiten hiervan onverwijld in kennis en onderbreken zij het gebruik van het systeem. Zij stellen ook eerst de aanbieder en vervolgens de importeur en de distributeur, alsmede de desbetreffende nationale toezichthoudende autoriteiten, er onmiddellijk van in kennis en onderbreken het gebruik van het AI-systeem wanneer zij een ernstig incident of eventuele gebrekkige werking hebben vastgesteld in de zin van artikel 62. Wanneer de exploitant de aanbieder niet kan bereiken, is artikel 62 mutatis mutandis van toepassing.
Amendement 405 Voorstel voor een verordening Artikel 29 – lid 4 – alinea 2
Voor gebruikers die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn wordt de monitoringsverplichting van lid 1 geacht te zijn nagekomen wanneer zij de regels inzake regelingen, processen en mechanismen voor interne governance naleven overeenkomstig artikel 74 van die richtlijn.
Voor exploitanten die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn wordt de monitoringsverplichting van lid 1 geacht te zijn nagekomen wanneer zij de regels inzake regelingen, processen en mechanismen voor interne governance naleven overeenkomstig artikel 74 van die richtlijn.
Amendement 406 Voorstel voor een verordening Artikel 29 – lid 5 – alinea 1
5. Gebruikers van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door die AI-systemen met een hoog risico voor zover dergelijke logs onder hun controle vallen.De logs worden bewaard gedurende een periode die passend is gezien het beoogde doel van het AI-systeem met een hoog risico en de toepasselijke wettelijke verplichtingen op grond van het Unie- of intern recht.
5. Exploitanten van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door die AI-systemen met een hoog risico voor zover dergelijke logs onder hun controle vallen en nodig zijn voor het waarborgen en aantonen van de naleving van deze verordening, voor audits achteraf van redelijkerwijs te voorziene storingen, incidenten of misbruiken van het systeem, of voor het waarborgen van en het toezicht op de goede werking van het systeem gedurende de gehele levenscyclus ervan.Onverminderd het toepasselijke Unie- of nationale recht worden de logs gedurende ten minste zes maanden bewaard. De bewaartermijn is in overeenstemming met de normen in de sector en is passend voor het beoogde doel van het AI-systeem met een hoog risico.
Amendement 407 Voorstel voor een verordening Artikel 29 – lid 5 – alinea 2
Gebruikers die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de logs als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.
Exploitanten die onder Richtlijn 2013/36/EU vallende kredietinstellingen zijn, bewaren de logs als onderdeel van de documentatie met betrekking tot de interne governance, regelingen, processen en mechanismen overeenkomstig artikel 74 van die richtlijn.
Amendement 408 Voorstel voor een verordening Artikel 29 – lid 5 bis (nieuw)
5 bis. Voordat exploitanten een AI-systeem met een hoog risico op de werkplek in bedrijf stellen of in gebruik nemen, raadplegen zij de werknemersvertegenwoordigers met het oog op het bereiken van een akkoord overeenkomstig Richtlijn 2002/14/EG, en stellen zij de werknemers die aan het systeem onderworpen worden in kennis.
Amendement 409 Voorstel voor een verordening Artikel 29 – lid 5 ter (nieuw)
5 ter. Exploitanten van AI-systemen met een hoog risico die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, of ondernemingen zijn als bedoeld in artikel 51, lid 1 bis, punt b), leven de in artikel 51 bedoelde registratieverplichtingen na.
Amendement 410 Voorstel voor een verordening Artikel 29 – lid 6
6. Gebruikers van AI-systemen met een hoog risico gebruiken de informatie die op grond van artikel 13 wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, indien van toepassing.
6. In voorkomend geval gebruiken exploitanten van AI-systemen met een hoog risico de informatie die op grond van artikel 13 wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, waarvan een samenvatting wordt gepubliceerd met betrekking tot het specifieke gebruik en de specifieke context waarin het AI-systeem geacht wordt te functioneren.Exploitanten kunnen voor een deel terugvallen op die gegevensbeschermingseffectbeoordelingen om aan sommige van de in dit artikel vastgestelde verplichtingen te voldoen, voor zover de gegevensbeschermingseffectbeoordeling aan die verplichtingen voldoet.
Amendement 411 Voorstel voor een verordening Artikel 29 – lid 6 bis (nieuw)
6 bis. Onverminderd artikel 52 stellen exploitanten van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen nemen of helpen bij het nemen van beslissingen met betrekking tot natuurlijke personen, de natuurlijke personen ervan in kennis dat het AI-systeem met een hoog risico op hen wordt toegepast. Deze informatie omvat tevens het beoogde doel en het soort besluitvorming waarvoor het wordt gebruikt. De exploitant stelt de natuurlijke persoon ook in kennis van zijn recht op een uitleg als bedoeld in artikel 68 quater.
Amendement 412 Voorstel voor een verordening Artikel 29 – lid 6 ter (nieuw)
6 ter. Exploitanten werken samen met de desbetreffende nationale bevoegde autoriteiten bij alle door hen genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de tenuitvoerlegging van deze verordening.
Amendement 413 Voorstel voor een verordening Artikel 29 bis (nieuw)
Artikel 29 bis
Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico
Voordat exploitanten een AI-systeem met een hoog risico als gedefinieerd in artikel 6, lid 2, in gebruik stellen, met uitzondering van AI-systemen die bedoeld zijn om te worden gebruikt op gebied 2 van bijlage III, voeren zij een beoordeling uit van de gevolgen van het systeem in de specifieke gebruikscontext. Bij deze beoordeling wordt ten minste gekeken naar de volgende elementen:
a) een duidelijke omschrijving van het beoogde doel waarvoor het systeem gebruikt wordt;
b) een duidelijke omschrijving van het beoogde geografische toepassingsgebied van het gebruik van het systeem en het bijbehorende tijdsbestek;
c) categorieën van natuurlijke personen en groepen die naar verwachting gevolgen zullen ondervinden van het gebruik van het systeem;
d) een verificatie om te bevestigen dat het gebruik van het systeem in overeenstemming is met het Unie- en nationale recht inzake grondrechten;
e) de redelijkerwijs te verwachten gevolgen voor de grondrechten van de ingebruikstelling van het AI-systeem met een hoog risico;
f) specifieke risico’s op schadelijke effecten die het systeem waarschijnlijk met zich meebrengt voor gemarginaliseerde personen of kwetsbare groepen;
g) het in redelijkheid voorzienbare negatieve effect van het gebruik van het systeem op het milieu;
h) een gedetailleerd plan met een uiteenzetting van de wijze waarop de negatieve gevolgen voor de grondrechten zullen worden beperkt.
j) het governancesysteem dat de exploitant zal invoeren, met inbegrip van menselijk toezicht, klachtenafhandeling en verhaal.
2. Als er geen gedetailleerd plan kan worden vastgesteld om de in het kader van de beoordeling overeenkomstig lid 1 omschreven risico’s te beperken, stelt de exploitant het AI-systeem met een hoog risico niet in gebruik en stelt hij de aanbieder en de nationale toezichthoudende autoriteit onverwijld in kennis. De nationale toezichthoudende autoriteiten nemen deze informatie, op grond van de artikelen 65 en 67, in aanmerking bij het onderzoek naar systemen die een risico op nationaal niveau kunnen vormen.
3. De verplichting als neergelegd in lid 1 is van toepassing op het eerste gebruik van een AI-systeem met een hoog risico. De exploitant kan in soortgelijke gevallen gebruikmaken van eerder uitgevoerde effectbeoordelingen op het gebied van de grondrechten of bestaande beoordelingen die door aanbieders zijn uitgevoerd. Indien de exploitant tijdens het gebruik van het AI-systeem met een hoog risico van oordeel is dat niet langer aan de in lid 1 genoemde criteria wordt voldaan, voert hij een nieuwe effectbeoordeling op het gebied van de grondrechten uit.
4. De exploitant, behalve als het gaat om een kmo, stelt de nationale toezichthoudende autoriteiten en de betrokken belanghebbenden in de loop van de effectbeoordeling op de hoogte en betrekt bij een en ander zo veel als mogelijk is de personen of groepen die waarschijnlijk de gevolgen zullen ondervinden van het AI-systeem met een hoog risico, als omschreven in lid 1, onder wie, maar niet beperkt tot: organen voor gelijke behandeling, agentschappen voor consumentenbescherming, sociale partners en gegevensbeschermingsagentschappen, met het oog op het verkrijgen van input voor de effectbeoordeling. De exploitant geeft de agentschappen zes weken de tijd om te reageren. Kmo’s kunnen de bepalingen van dit lid vrijwillig toepassen.
In het in artikel 47, lid 1, bedoelde geval kunnen overheidsinstanties van deze verplichtingen worden vrijgesteld.
5. Indien de exploitant een overheidsinstantie of een onderneming als bedoeld in artikel 51, lid 1bis, punt b), is maakt deze een samenvatting van de resultaten van de effectbeoordeling openbaar als onderdeel van de gebruiksregistratie op grond van de verplichting neergelegd in artikel 51, lid 2.
6. Wanneer de exploitant reeds verplicht is een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, wordt de in lid 1 bedoelde effectbeoordeling op het gebied van de grondrechten uitgevoerd in samenhang met de gegevensbeschermingseffectbeoordeling. De gegevensbeschermingseffectbeoordeling wordt als bijlage gepubliceerd.
Amendement 414 Voorstel voor een verordening Artikel 30 – lid 1
1. Elke lidstaat wijst een aanmeldende autoriteit aan of richt een aanmeldende autoriteit op die verantwoordelijk is voor het opzetten en uitvoeren van de nodige procedures voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties en voor het toezicht erop.
1. Elke lidstaat wijst een aanmeldende autoriteit aan of richt een aanmeldende autoriteit op die verantwoordelijk is voor het opzetten en uitvoeren van de nodige procedures voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties en voor het toezicht erop. Deze procedures worden ontwikkeld in samenwerking tussen de aanmeldende autoriteiten van alle lidstaten.
Amendement 415 Voorstel voor een verordening Artikel 30 – lid 7
7. Aanmeldende autoriteiten beschikken over een voldoende aantal bekwame personeelsleden om hun taken naar behoren uit te voeren.
7. Aanmeldende autoriteiten beschikken over een voldoende aantal bekwame personeelsleden om hun taken naar behoren uit te voeren. Waar van toepassing beschikt het bevoegde personeel over de nodige deskundigheid, zoals een diploma op een passend juridisch gebied, op het gebied van het toezicht op de in het Handvest van de grondrechten van de Europese Unie verankerde grondrechten.
Amendement 416 Voorstel voor een verordening Artikel 30 – lid 8
8. Aanmeldende autoriteiten zorgen ervoor dat conformiteitsbeoordelingen op evenredige wijze worden uitgevoerd, waarbij onnodige lasten voor aanbieders worden vermeden, en dat aangemelde instanties bij het verrichten van hun activiteiten naar behoren rekening houden met de omvang van de onderneming, de sector waarin deze actief is, de structuur ervan en de mate van complexiteit van het AI-systeem in kwestie.
8. Aanmeldende autoriteiten zorgen ervoor dat conformiteitsbeoordelingen op evenredige wijze en tijdig worden uitgevoerd, waarbij onnodige lasten voor aanbieders worden vermeden, en dat aangemelde instanties bij het verrichten van hun activiteiten naar behoren rekening houden met de omvang van de onderneming, de sector waarin deze actief is, de structuur ervan en de mate van complexiteit van het AI-systeem in kwestie. Er wordt bijzondere aandacht besteed aan het zoveel mogelijk beperken van de administratieve lasten en de nalevingskosten voor micro- en kleine ondernemingen als omschreven in de bijlage bij Aanbeveling 2003/361/EG van de Commissie.
Amendement 417 Voorstel voor een verordening Artikel 32 – lid 1
1. Aanmeldende autoriteiten mogen uitsluitend conformiteitsbeoordelingsinstanties aanmelden die aan de eisen in artikel 33 voldoen.
1. Aanmeldende autoriteiten melden uitsluitend conformiteitsbeoordelingsinstanties aan die aan de eisen in artikel 33 voldoen.
Amendement 418 Voorstel voor een verordening Artikel 32 – lid 2
2. Aanmeldende autoriteiten verrichten de aanmelding bij de Commissie en de andere lidstaten door middel van het door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.
2. Aanmeldende autoriteiten melden elke conformiteitsbeoordelingsinstantie als bedoeld in lid 1 aan bij de Commissie en de andere lidstaten door middel van het door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.
Amendement 419 Voorstel voor een verordening Artikel 32 – lid 3
3. Bij de aanmelding worden de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s) en de betrokken artificiële-intelligentietechnologieën uitvoerig beschreven.
3. Bij de aanmelding als bedoeld in lid 2 worden de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s), de betrokken artificiële-intelligentietechnologieën en de relevante bekwaamheidsattestatie uitvoerig beschreven.
Amendement 420 Voorstel voor een verordening Artikel 32 – lid 4
4. De betrokken conformiteitsbeoordelingsinstantie mag de activiteiten van een aangemelde instantie alleen verrichten als de Commissie en de andere lidstaten binnen één maand na een aanmelding geen bezwaren hebben ingediend.
4. De betrokken conformiteitsbeoordelingsinstantie mag de activiteiten van een aangemelde instantie alleen verrichten als de Commissie en de andere lidstaten binnen twee weken na goedkeuring van de aanmelding indien een accreditatiecertificaat in de zin van artikel 31, lid 2, wordt gebruikt, of binnen twee maanden na de aanmelding indien de in artikel 31, lid 3, bedoelde bewijsstukken worden gebruikt, geen bezwaren hebben ingediend.
Amendement 421 Voorstel voor een verordening Artikel 32 – lid 4 bis (nieuw)
4 bis. Indien er bezwaar wordt ingediend, treedt de Commissie onverwijld in overleg met de betrokken lidstaten en de conformiteitsbeoordelingsinstantie. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante conformiteitsbeoordelingsinstantie.
Amendement 422 Voorstel voor een verordening Artikel 32 – lid 4 ter (nieuw)
4 ter. De lidstaten melden conformiteitsbeoordelingsinstanties aan bij de Commissie en de andere lidstaten.
Amendement 423 Voorstel voor een verordening Artikel 33 – lid 2
2. Aangemelde instanties voldoen aan de eisen inzake organisatie, kwaliteitsbeheer, personeel en processen die nodig zijn voor het vervullen van hun taken.
2. Aangemelde instanties voldoen aan de eisen inzake organisatie, kwaliteitsbeheer, personeel en processen die nodig zijn voor het vervullen van hun taken, alsook aan de minimumeisen inzake cyberbeveiliging die zijn vastgesteld voor overheidsinstanties die overeenkomstig Richtlijn (EU) 2022/2555 als operators van essentiële diensten zijn aangemerkt.
Amendement 424 Voorstel voor een verordening Artikel 33 – lid 4
4. Aangemelde instanties zijn onafhankelijk van de aanbieder van een AI-systeem met een hoog risico met betrekking waartoe de aanbieder conformiteitsbeoordelingsactiviteiten verricht. Aangemelde instanties zijn ook onafhankelijk van andere exploitanten die een economisch belang hebben in het beoordeelde AI-systeem met een hoog risico, alsook van concurrenten van de aanbieder.
4. Aangemelde instanties zijn onafhankelijk van de aanbieder van een AI-systeem met een hoog risico met betrekking waartoe de aanbieder conformiteitsbeoordelingsactiviteiten verricht. Aangemelde instanties zijn ook onafhankelijk van andere operators die een economisch belang hebben in het beoordeelde AI-systeem met een hoog risico, alsook van concurrenten van de aanbieder. Dit belet echter niet dat de beoordeelde AI-systemen voor activiteiten van de conformiteitsbeoordelingsinstantie of voor persoonlijke doeleinden worden gebruikt.
Amendement 425 Voorstel voor een verordening Artikel 33 – lid 4 bis (nieuw)
4 bis. Een conformiteitsbeoordeling overeenkomstig lid 1 wordt uitgevoerd door werknemers van aangemelde instanties die in de periode van 12 maanden vóór de beoordeling geen andere met de beoordeling verband houdende dienst hebben verleend aan de aanbieder van een AI-systeem met een hoog risico of aan een met die aanbieder verbonden rechtspersoon en zich ertoe hebben verbonden deze diensten niet te verlenen in de periode van 12 maanden na de voltooiing van de beoordeling.
Amendement 426 Voorstel voor een verordening Artikel 33 – lid 6
6. Aangemelde instanties beschikken over gedocumenteerde procedures die waarborgen dat hun personeel, comités, dochterondernemingen, onderaannemers, geassocieerde instanties of personeel van externe instanties de vertrouwelijkheid in acht nemen van de informatie die zij tijdens conformiteitsbeoordelingsactiviteiten in hun bezit krijgen, behalve wanneer openbaarmaking wettelijk vereist is. Het personeel van aangemelde instanties is gebonden aan het beroepsgeheim ten aanzien van alle informatie waarvan het kennis neemt bij de uitoefening van de taken uit hoofde van deze verordening, behalve ten opzichte van de aanmeldende autoriteiten van de lidstaat waar de activiteiten plaatsvinden.
6. Aangemelde instanties beschikken over gedocumenteerde procedures die waarborgen dat hun personeel, comités, dochterondernemingen, onderaannemers, geassocieerde instanties of personeel van externe instanties de vertrouwelijkheid in acht nemen van de informatie die zij tijdens conformiteitsbeoordelingsactiviteiten in hun bezit krijgen, behalve wanneer openbaarmaking wettelijk vereist is. Het personeel van aangemelde instanties is gebonden aan het beroepsgeheim ten aanzien van alle informatie waarvan het kennis neemt bij de uitoefening van de taken uit hoofde van deze verordening, behalve ten opzichte van de aanmeldende autoriteiten van de lidstaat waar de activiteiten plaatsvinden. De door de aangemelde instanties volgens de bepalingen van dit artikel verkregen informatie en documentatie worden verwerkt met inachtneming van de in artikel 70 vastgestelde geheimhoudingsverplichtingen.
Amendement 427 Voorstel voor een verordening Artikel 34 – lid 3
3. Activiteiten mogen uitsluitend met instemming van de aanbieder worden uitbesteed of door een dochteronderneming worden uitgevoerd.
3. Activiteiten mogen uitsluitend met instemming van de aanbieder worden uitbesteed of door een dochteronderneming worden uitgevoerd. Aangemelde instanties maken een lijst van hun dochterondernemingen openbaar.
Amendement 428 Voorstel voor een verordening Artikel 34 – lid 4
4. Aangemelde instanties houden de relevante documenten over de beoordeling van de kwalificaties van de onderaannemer of de dochteronderneming en over de door de onderaannemer of dochteronderneming krachtens deze verordening uitgevoerde werkzaamheden ter beschikking van de aanmeldende autoriteit.
4. Aangemelde instanties houden de relevante documenten over de verificatie van de kwalificaties van de onderaannemer of de dochteronderneming en over de door de onderaannemer of dochteronderneming krachtens deze verordening uitgevoerde werkzaamheden ter beschikking van de aanmeldende autoriteit.
Amendement 429 Voorstel voor een verordening Artikel 35 - titel
Identificatienummers en lijsten van krachtens deze verordening aangewezen aangemelde instanties
Identificatienummers en lijsten van aangemelde instanties
Amendement 430 Voorstel voor een verordening Artikel 36 – lid 1
1. Wanneer een aanmeldende autoriteit het vermoeden heeft of heeft vernomen dat een aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, moet de autoriteit de kwestie onverwijld zo zorgvuldig mogelijk onderzoeken. In die context stelt zij de betrokken aangemelde instantie in kennis van de geopperde bezwaren en biedt zij haar de mogelijkheid haar standpunten kenbaar te maken. Als de aanmeldende autoriteit tot de conclusie komt dat de onderzochte aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, wordt de aanmelding door haar beperkt, geschorst of ingetrokken, als passend, afhankelijk van de ernst van de tekortkoming. Zij brengt daar ook de Commissie en de andere lidstaten onmiddellijk van op de hoogte.
1. Wanneer een aanmeldende autoriteit het vermoeden heeft of heeft vernomen dat een aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, moet de autoriteit de kwestie onverwijld zo zorgvuldig mogelijk onderzoeken. In die context stelt zij de betrokken aangemelde instantie in kennis van de geopperde bezwaren en biedt zij haar de mogelijkheid haar standpunten kenbaar te maken. Als de aanmeldende autoriteit tot de conclusie komt dat de aangemelde instantie niet meer aan de eisen van artikel 33 voldoet of haar verplichtingen niet nakomt, wordt de aanmelding door haar beperkt, geschorst of ingetrokken, als passend, afhankelijk van de ernst van de tekortkoming. Zij brengt daar ook de Commissie en de andere lidstaten onmiddellijk van op de hoogte.
Amendement 431 Voorstel voor een verordening Artikel 36 – lid 2
2. Wanneer de aanmelding wordt beperkt, geschorst of ingetrokken, of de aangemelde instantie haar activiteiten heeft gestaakt, doet de aanmeldende autoriteit het nodige om ervoor te zorgen dat de dossiers van die aangemelde instantie hetzij door een andere aangemelde instantie worden overgenomen, hetzij aan de verantwoordelijke aanmeldende autoriteiten op hun verzoek ter beschikking kunnen worden gesteld.
2. Wanneer de aanmelding wordt beperkt, geschorst of ingetrokken, of de aangemelde instantie haar activiteiten heeft gestaakt, doet de aanmeldende autoriteit het nodige om ervoor te zorgen dat de dossiers van die aangemelde instantie hetzij door een andere aangemelde instantie worden overgenomen, hetzij aan de verantwoordelijke aanmeldende autoriteiten en de markttoezichtautoriteit op hun verzoek ter beschikking kunnen worden gesteld.
Amendement 432 Voorstel voor een verordening Artikel 37 – lid 1
1. De Commissie onderzoekt indien nodig alle gevallen waarin er redenen zijn om te twijfelen of een aangemelde instantie aan de eisen van artikel 33 voldoet.
1. De Commissie onderzoekt indien nodig alle gevallen waarin er redenen zijn om te twijfelen aan de bekwaamheid van een aangemelde instantie of te twijfelen of een aangemelde instantie nog aan de toepasselijke eisen voldoet en haar verantwoordelijkheden nakomt.
Amendement 433 Voorstel voor een verordening Artikel 37 – lid 2
2. De aanmeldende autoriteit verstrekt de Commissie op verzoek alle relevante informatie over de aanmelding van de betrokken aangemelde instantie.
2. De aanmeldende autoriteit verstrekt de Commissie op verzoek alle relevante informatie over de aanmelding of het op peil houden van de bekwaamheid van de betrokken aangemelde instantie.
Amendement 434 Voorstel voor een verordening Artikel 37 – lid 3
3. De Commissie ziet erop toe dat alle vertrouwelijke informatie die zij in de loop van haar onderzoeken overeenkomstig dit artikel ontvangt, vertrouwelijk wordt behandeld.
3. De Commissie ziet erop toe dat alle gevoelige informatie die zij in de loop van haar onderzoeken overeenkomstig dit artikel ontvangt, vertrouwelijk wordt behandeld.
Amendement 435 Voorstel voor een verordening Artikel 37 – lid 4
4. Wanneer de Commissie vaststelt dat een aangemelde instantie niet of niet meer aan de eisen van artikel 33 voldoet, neemt zij een met redenen omkleed besluit om de aanmeldende lidstaat te verzoeken de nodige corrigerende maatregelen te nemen en zo nodig de aanmelding in te trekken. De uitvoeringshandeling wordt vastgesteld volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure.
4. Wanneer de Commissie vaststelt dat een aangemelde instantie niet of niet meer aan de aanmeldingseisen voldoet, brengt zij de aanmeldende lidstaat daarvan op de hoogte en verzoekt zij deze lidstaat de nodige corrigerende maatregelen te nemen, en zo nodig de aanmelding te schorsen of in te trekken.Indien de lidstaat niet de nodige corrigerende actie onderneemt, kan de Commissie door middel van een uitvoeringshandeling de aanwijzing schorsen, beperken of intrekken. De uitvoeringshandeling wordt vastgesteld volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure.
Amendement 436 Voorstel voor een verordening Artikel 38 – lid 2 bis (nieuw)
2 bis. De Commissie voorziet in de uitwisseling van kennis en beste praktijken tussen de nationale instanties van de lidstaten die verantwoordelijk zijn voor het aanmeldingsbeleid.
Amendement 437 Voorstel voor een verordening Artikel 40 – alinea 1
AI-systemen met een hoog risico die in overeenstemming zijn met geharmoniseerde normen of delen daarvan, waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die normen worden bestreken.
AI-systemen met een hoog risico en basismodellen die in overeenstemming zijn met geharmoniseerde normen of delen daarvan, waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt overeenkomstig Verordening (EU) 1025/2012, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 of artikel 28 ter, van deze titel beschreven voorschriften, voor zover die voorschriften door die normen worden bestreken.
Amendement 438 Voorstel voor een verordening Artikel 40 – alinea 1 bis (nieuw)
Uiterlijk ... [twee maanden na de datum van inwerkingtreding van deze verordening] doet de Commissie overeenkomstig artikel 10 van Verordening (EU) Nr. 1025/2012 normalisatieverzoeken voor alle eisen van deze verordening. Bij het opstellen van normalisatieverzoeken raadpleegt de Commissie het AI-bureau en het adviesforum;
Amendement 439 Voorstel voor een verordening Artikel 40 – alinea 1 ter (nieuw)
Bij het richten van een normalisatieverzoek aan Europese normalisatie-instellingen specificeert de Commissie dat normen consistent moeten zijn, met inbegrip van de in bijlage II vermelde sectorale wetgeving, en tot doel hebben ervoor te zorgen dat AI-systemen of basismodellen die in de Unie in de handel worden gebracht of in gebruik worden genomen, voldoen aan de relevante vereisten van deze verordening;
Amendement 440 Voorstel voor een verordening Artikel 40 – alinea 1 quater (nieuw)
De bij het normalisatieproces betrokken actoren houden rekening met de in artikel 4, punt a), vastgestelde algemene beginselen voor betrouwbare AI, streven naar het bevorderen van investeringen en innovatie in AI en het concurrentievermogen en de groei van de markt van de Unie, en dragen bij tot de versterking van de wereldwijde samenwerking op het gebied van normalisatie, rekening houdend met bestaande internationale normen op het gebied van AI die in overeenstemming zijn met de waarden, grondrechten en belangen van de Unie, en zorgen voor een evenwichtige vertegenwoordiging van de belangen en effectieve deelname van alle relevante belanghebbenden overeenkomstig de artikelen 5, 6 en 7 van Verordening (EU) nr. 1025/2012.
Amendement 441 Voorstel voor een verordening Artikel 41 – lid 1
1. Wanneer geharmoniseerde normen als bedoeld in artikel 40 niet bestaan of wanneer de Commissie meent dat de relevante geharmoniseerde normen ontoereikend zijn of specifieke punten op het gebied van veiligheid of grondrechten moeten worden aangepakt, kan de Commissie door middel van uitvoeringshandelingen gemeenschappelijke specificaties ten aanzien van de in hoofdstuk 2 van deze titel beschreven voorschriften vaststellen. Die uitvoeringshandelingen worden volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure vastgesteld.
Schrappen
Amendement 442 Voorstel voor een verordening Artikel 41 – lid 1 bis (nieuw)
1 bis. De Commissie kan, door middel van een uitvoeringshandeling die wordt vastgesteld overeenkomstig de in artikel 74, lid 2, bedoelde onderzoeksprocedure en na raadpleging van het AI-bureau en het AI-adviesforum, gemeenschappelijke specificaties vaststellen met betrekking tot de voorschriften van hoofdstuk 2 van deze titel of artikel 28 ter, indien aan elk van de volgende voorwaarden is voldaan:
a) er wordt niet verwezen naar reeds in het Publicatieblad van de Europese Unie gepubliceerde geharmoniseerde normen die verband houden met de essentiële eis(en), tenzij de geharmoniseerde norm in kwestie een bestaande norm is die moet worden herzien;
b) de Commissie heeft een of meer Europese normalisatie-instellingen verzocht een geharmoniseerde norm op te stellen ten aanzien van de essentiële eisen als bedoeld in hoofdstuk 2;
c) het verzoek als bedoeld in punt b) is door geen van de Europese normalisatieorganisaties aanvaard; of er is sprake is van onnodige vertragingen bij de vaststelling van een passende geharmoniseerde norm; of de verstrekte norm voldoet niet aan de vereisten van het toepasselijke Unierecht of voldoet niet aan het verzoek van de Commissie.
Amendement 443 Voorstel voor een verordening Artikel 41 – lid 1 ter (nieuw)
1 ter. Wanneer de Commissie van oordeel is dat specifieke problemen op het gebied van de grondrechten moeten worden aangepakt, wordt in de door de Commissie overeenkomstig lid 1 bis vastgestelde gemeenschappelijke specificaties ook aandacht besteed aan die specifieke problemen op het gebied van de grondrechten.
Amendement 444 Voorstel voor een verordening Artikel 41 – lid 1 quater (nieuw)
1 quater. De Commissie ontwikkelt gemeenschappelijke specificaties voor de methodologie om te voldoen aan de rapportage- en documentatievereisten inzake het verbruik van energie en hulpbronnen tijdens de ontwikkeling, opleiding en invoering van het AI-systeem met hoog risico.
Amendement 445 Voorstel voor een verordening Artikel 41 – lid 2
2. De Commissie vergaart bij het opstellen van de in lid 1 bedoelde gemeenschappelijke specificaties de standpunten van relevante instanties of deskundigengroepen die krachtens relevant sectoraal Unierecht zijn opgericht.
2. De Commissie raadpleegt gedurende het gehele proces van de opstelling van de in de leden 1 bis en 1 ter bedoelde gemeenschappelijke specificaties regelmatig het AI-bureau en het adviesforum, de Europese normalisatieorganisaties en -organen of deskundigengroepen die zijn opgericht uit hoofde van de desbetreffende sectorale wetgeving van de Unie, alsmede andere relevante belanghebbenden. De Commissie voldoet aan de in artikel 40, lid 1 quater, genoemde doelstellingen en motiveert naar behoren waarom zij heeft besloten gebruik te maken van gemeenschappelijke specificaties.
Wanneer de Commissie voornemens is gemeenschappelijke specificaties vast te stellen overeenkomstig lid 1 bis van dit artikel, geeft zij ook duidelijk aan welke specifiek probleem in verband met de grondrechten moet worden aangepakt.
Bij de vaststelling van gemeenschappelijke specificaties overeenkomstig de leden 1 bis en 1 ter van dit artikel houdt de Commissie rekening met het in artikel 56 sexies, punt b), van deze verordening bedoelde advies van het AI-bureau. Indien de Commissie besluit het advies van het AI-bureau niet op te volgen, verstrekt zij het AI-bureau een met redenen omklede toelichting.
Amendement 446 Voorstel voor een verordening Artikel 41 – lid 3
3. AI-systemen met een hoog risico die in overeenstemming zijn met de in lid 1 bedoelde gemeenschappelijke specificaties, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die gemeenschappelijke specificaties worden bestreken.
3. AI-systemen met een hoog risico die in overeenstemming zijn met de in lid 1 bis en 1 ter, bedoelde gemeenschappelijke specificaties, worden geacht in overeenstemming te zijn met de in hoofdstuk 2 van deze titel beschreven voorschriften, voor zover die voorschriften door die gemeenschappelijke specificaties worden bestreken.
Amendement 447 Voorstel voor een verordening Artikel 41 – lid 3 bis (nieuw)
3 bis. Wanneer een Europese normalisatieorganisatie een geharmoniseerde norm vaststelt en deze aan de Commissie voorstelt met het oog op de bekendmaking van de referentie ervan in het Publicatieblad van de Europese Unie, beoordeelt de Commissie de geharmoniseerde norm overeenkomstig Verordening (EU) nr. 1025/2012. Wanneer de referentie van een geharmoniseerde norm in het Publicatieblad van de Europese Unie wordt bekendgemaakt, trekt de Commissie de in lid 1 en 1 bis, bedoelde uitvoeringshandelingen of delen daarvan die betrekking hebben op dezelfde voorschriften als bedoeld in hoofdstuk 2 van deze titel, in.
Amendement 448 Voorstel voor een verordening Artikel 41 – lid 4
4. Wanneer aanbieders niet voldoen aan de in lid 1 bedoelde gemeenschappelijke specificaties, moeten zij naar behoren rechtvaardigen dat zij technische oplossingen hebben gekozen die minstens gelijkwaardig daarmee zijn.
4. Wanneer aanbieders van AI-systemen met een hoog risico niet voldoen aan de in lid 1 bedoelde gemeenschappelijke specificaties, moeten zij naar behoren rechtvaardigen dat zij technische oplossingen hebben gekozen die voldoen aan de in hoofdstuk 2 beschreven voorschriften in een mate die minstens gelijkwaardig daarmee is.
Amendement 449 Voorstel voor een verordening Artikel 42 – lid 1
1. Rekening houdend met het beoogde doel worden AI-systemen met een hoog risico die zijn getraind en getest op data betreffende de specifieke geografische, functionele en gedragsomgeving waarin zij zullen worden gebruikt, geacht in overeenstemming te zijn met de in artikel 10, lid 4, beschreven eis.
1. Rekening houdend met het beoogde doel worden AI-systemen met een hoog risico die zijn getraind en getest op data betreffende de specifieke geografische, functionele, contextuele en gedragsomgeving waarin zij zullen worden gebruikt, geacht in overeenstemming te zijn met de in artikel 10, lid 4, beschreven respectievelijke vereisten.
Amendement 450 Voorstel voor een verordening Artikel 43 – lid 1 – inleidende formule
1. Voor in punt 1 van bijlage III opgesomde AI-systemen met een hoog risico volgt de aanbieder, wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, een van de volgende procedures:
1. Voor in punt 1 van bijlage III opgesomde AI-systemen met een hoog risico kiest de aanbieder, wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, een van de volgende procedures:
Amendement 451 Voorstel voor een verordening Artikel 43 – lid 1 – punt a
a) de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI;
a) de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI; of
Amendement 452 Voorstel voor een verordening Artikel 43 – lid 1 – punt b
b) de conformiteitsbeoordelingsprocedure op basis van beoordeling van het kwaliteitsbeheersysteem en beoordeling van de technische documentatie, met betrokkenheid van een aangemelde instantie, als bedoeld in bijlage VII.
b) de conformiteitsbeoordelingsprocedure op basis van beoordeling van het kwaliteitsbeheersysteem en van de technische documentatie, met betrokkenheid van een aangemelde instantie, als bedoeld in bijlage VII.
Amendement 453 Voorstel voor een verordening Artikel 43 – lid 1 – alinea 2
Wanneer bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico de aanbieder geharmoniseerde normen als bedoeld in artikel 40 niet of slechts ten dele heeft toegepast of wanneer zulke geharmoniseerde normen niet bestaan en gemeenschappelijke specificaties als bedoeld in artikel 41 niet voorhanden zijn, volgt de aanbieder de in bijlage VII beschreven conformiteitsbeoordelingsprocedure.
Bij het aantonen van de overeenstemming met de in hoofdstuk 2 van deze titel beschreven voorschriften van een AI-systeem met een hoog risico volgt de aanbieder in de volgende gevallen de conformiteitsbeoordelingsprocedure van bijlage VII:
a) indien geharmoniseerde normen, als bedoeld in artikel 40 waarvan het referentienummer is gepubliceerd in het Publicatieblad van de Europese Unie en die alle voor het AI-systeem relevante veiligheidseisen dekken, niet bestaan en gemeenschappelijke specificaties als bedoeld in artikel 41 niet voorhanden zijn;
b) indien de onder a) bedoelde technische specificaties bestaan, maar de aanbieder deze niet of slechts gedeeltelijk heeft toegepast;
c) indien de onder a) bedoelde technische specificaties of een deel ervan met beperkingen zijn bekendgemaakt, en alleen met betrekking tot het deel van de norm waarvoor de beperkingen gelden;
d) indien de aanbieder van oordeel is dat de aard, het ontwerp, de constructie of het doel van het AI-systeem verificatie door derden noodzakelijk maakt, ongeacht het desbetreffende risiconiveau.
Amendement 454 Voorstel voor een verordening Artikel 43 – lid 1 – alinea 3
Voor de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII kan de aanbieder eender welke aangemelde instantie kiezen. Wanneer het systeem echter is bedoeld om door rechtshandhavings-, immigratie- of asielautoriteiten alsook EU-instellingen, -organen of -instanties in bedrijf te worden gesteld, treedt de markttoezichtautoriteit als bedoeld in artikel 63, lid 5 of 6, naar gelang van toepassing, als aangemelde instantie op.
Met het oog op de uitvoering van de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII kan de aanbieder eender welke aangemelde instantie kiezen. Wanneer het systeem echter is bedoeld om door rechtshandhavings-, immigratie- of asielautoriteiten alsook EU-instellingen, -organen of -instanties in bedrijf te worden gesteld, treedt de markttoezichtautoriteit als bedoeld in artikel 63, lid 5 of 6, naar gelang van toepassing, als aangemelde instantie op.
Amendement 455 Voorstel voor een verordening Artikel 43 – lid 4 – alinea 1
4. AI-systemen met een hoog risico ondergaan een nieuwe conformiteitsbeoordelingsprocedure telkens wanneer zij wezenlijk zijn gewijzigd, ongeacht of het gewijzigde systeem bedoeld is om verder te worden gedistribueerd of door de huidige gebruiker gebruikt blijft worden.
4. AI-systemen met een hoog risico die reeds aan een conformiteitsbeoordelingsprocedure zijn onderworpen, ondergaan een nieuwe conformiteitsbeoordelingsprocedure telkens wanneer zij wezenlijk zijn gewijzigd, ongeacht of het gewijzigde systeem bedoeld is om verder te worden gedistribueerd of door de huidige exploitant gebruikt blijft worden.
Amendement 456 Voorstel voor een verordening Artikel 43 – lid 4 bis (nieuw)
4 bis. De specifieke belangen en behoeften van kmo’s worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig dit artikel, waarbij die vergoedingen naar evenredigheid van hun omvang en marktaandeel worden verlaagd.
Amendement 457 Voorstel voor een verordening Artikel 43 – lid 5
5. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de bijlagen VI en VII, teneinde elementen van de conformiteitsbeoordelingsprocedures in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.
5. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de bijlagen VI en VII, teneinde elementen van de conformiteitsbeoordelingsprocedures in te voeren die noodzakelijk worden in het licht van de technische vooruitgang. Bij het opstellen van dergelijke gedelegeerde handelingen raadpleegt de Commissie het AI-bureau en de betrokken belanghebbenden;
Amendement 458 Voorstel voor een verordening Artikel 43 – lid 6
6. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen om de leden 1 en 2 te wijzigen, teneinde AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III te onderwerpen aan de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII of delen daarvan. De Commissie stelt zulke gedelegeerde handelingen vast rekening houdend met de doeltreffendheid van de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI bij het voorkomen of minimaliseren van de risico’s voor de gezondheid en veiligheid en de bescherming van grondrechten die zulke systemen inhouden alsook met de beschikbaarheid van voldoende capaciteit en personeel onder aangemelde instanties.
6. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen om de leden 1 en 2 te wijzigen, teneinde AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III te onderwerpen aan de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII of delen daarvan. De Commissie stelt zulke gedelegeerde handelingen vast rekening houdend met de doeltreffendheid van de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI bij het voorkomen of minimaliseren van de risico’s voor de gezondheid en veiligheid en de bescherming van grondrechten die zulke systemen inhouden alsook met de beschikbaarheid van voldoende capaciteit en personeel onder aangemelde instanties. Bij het opstellen van dergelijke gedelegeerde handelingen raadpleegt de Commissie het AI-bureau en de betrokken belanghebbenden;
Amendement 459 Voorstel voor een verordening Artikel 44 – lid 1
1. Door aangemelde instanties overeenkomstig bijlage VII afgegeven certificaten worden opgesteld in een officiële taal van de Unie, vastgesteld door de lidstaat waar de aangemelde instantie is gevestigd, of in een officiële taal van de Unie die voor de aangemelde instantie anderszins aanvaardbaar is.
1. Door aangemelde instanties overeenkomstig bijlage VII afgegeven certificaten worden opgesteld in een of meer officiële talen van de Unie, vastgesteld door de lidstaat waar de aangemelde instantie is gevestigd, of in een of meer officiële talen van de Unie die voor de aangemelde instantie anderszins aanvaardbaar zijn.
Amendement 460 Voorstel voor een verordening Artikel 44 – lid 2
2. Certificaten zijn geldig gedurende de daarin aangegeven periode, die niet meer dan vijf jaar mag bedragen. Op verzoek van de aanbieder kan de geldigheidsduur van een certificaat op grond van een herbeoordeling volgens de toepasselijke conformiteitsbeoordelingsprocedures worden verlengd met bijkomende perioden, die elk niet meer dan vijf jaar mogen bedragen.
2. Certificaten zijn geldig gedurende de daarin aangegeven periode, die niet meer dan vier jaar mag bedragen. Op verzoek van de aanbieder kan de geldigheidsduur van een certificaat op grond van een herbeoordeling volgens de toepasselijke conformiteitsbeoordelingsprocedures worden verlengd met bijkomende perioden, die elk niet meer dan vier jaar mogen bedragen.
Amendement 461 Voorstel voor een verordening Artikel 44 – lid 3
3. Indien een aangemelde instantie vaststelt dat een AI-systeem niet meer aan de in hoofdstuk 2 van deze titel beschreven voorschriften voldoet, gaat zij, rekening houdend met het evenredigheidsbeginsel, over tot schorsing of intrekking van het afgegeven certificaat of legt zij beperkingen op, tenzij de aanbieder van het systeem, met het oog op de naleving van deze voorschriften, binnen een door de aangemelde instantie vastgestelde passende termijn adequate corrigerende actie onderneemt. De aangemelde instantie geeft de redenen voor haar besluit op.
3. Indien een aangemelde instantie vaststelt dat een AI-systeem niet meer aan de in hoofdstuk 2 van deze titel beschreven voorschriften voldoet, gaat zij over tot schorsing of intrekking van het afgegeven certificaat of legt zij beperkingen op, tenzij de aanbieder van het systeem, met het oog op de naleving van deze voorschriften, binnen een door de aangemelde instantie vastgestelde passende termijn adequate corrigerende actie onderneemt. De aangemelde instantie geeft de redenen voor haar besluit op.
Amendement 462 Voorstel voor een verordening Artikel 45 – alinea 1
De lidstaten voorzien in een beroepsprocedure tegen besluiten van aangemelde instanties voor partijen die een rechtmatig belang bij dat besluit hebben.
De lidstaten voorzien in een beroepsprocedure tegen besluiten van aangemelde instanties, ook over afgegeven conformiteitscertificaten, voor partijen die een rechtmatig belang bij dat besluit hebben.
Amendement 463 Voorstel voor een verordening Artikel 46 – lid 3
3. Elke aangemelde instantie verstrekt de andere aangemelde instanties die soortgelijke conformiteitsbeoordelingsactiviteiten voor dezelfde artificiële-intelligentietechnologieën verrichten, relevante informatie over negatieve conformiteitsbeoordelingsresultaten, en op verzoek ook over positieve conformiteitsbeoordelingsresultaten.
3. Elke aangemelde instantie verstrekt de andere aangemelde instanties die soortgelijke conformiteitsbeoordelingsactiviteiten verrichten, relevante informatie over negatieve conformiteitsbeoordelingsresultaten, en op verzoek ook over positieve conformiteitsbeoordelingsresultaten.
Amendement 464 Voorstel voor een verordening Artikel 47 – lid 1
1. In afwijking van artikel 43 kan een markttoezichtautoriteit het in de handel brengen of in bedrijf stellen van specifieke AI-systemen met een hoog risico binnen het grondgebied van de betrokken lidstaat toelaten, om uitzonderlijke redenen van openbare veiligheid of de bescherming van het leven en de gezondheid van personen, milieubescherming en de bescherming van essentiële industriële en infrastructurele activa. De toelating geldt gedurende een beperkte periode, terwijl de nodige conformiteitsbeoordelingsprocedures worden uitgevoerd, en wordt beëindigd zodra die procedures zijn afgerond. Die procedures worden zo snel mogelijk afgerond.
1. In afwijking van artikel 43 kan een nationale toezichthoudende autoriteit een rechterlijke instantie verzoeken om het in de handel brengen of in bedrijf stellen van specifieke AI-systemen met een hoog risico binnen het grondgebied van de betrokken lidstaat goed te keuren, om uitzonderlijke redenen van de bescherming van het leven en de gezondheid van personen, milieubescherming en de bescherming van kritieke infrastructuur. De toelating geldt gedurende een beperkte periode, terwijl de nodige conformiteitsbeoordelingsprocedures worden uitgevoerd, en wordt beëindigd zodra die procedures zijn afgerond. Die procedures worden zo snel mogelijk afgerond.
Amendement 465 Voorstel voor een verordening Artikel 47 – lid 2
2. De in lid 1 bedoelde toelating wordt alleen verstrekt als de markttoezichtautoriteit concludeert dat het AI-systeem met een hoog risico aan de voorschriften van hoofdstuk 2 van deze titel voldoet. De markttoezichtautoriteit stelt de Commissie en de ander lidstaten in kennis van overeenkomstig lid 1 verstrekte toelatingen.
2. De in lid 1 bedoelde toelating wordt alleen verstrekt als de nationale toezichthoudende autoriteit en de rechterlijke instantie concluderen dat het AI-systeem met een hoog risico aan de voorschriften van hoofdstuk 2 van deze titel voldoet. De nationale toezichthoudende autoriteit stelt de Commissie, het AI-bureau en de andere lidstaten in kennis van alle gedane verzoeken en alle daarop volgende overeenkomstig lid 1 verstrekte toelatingen.
Amendement 466 Voorstel voor een verordening Artikel 47 – lid 3
3. Indien binnen 15 kalenderdagen na de ontvangst van de in lid 2 bedoelde informatie geen bezwaar is geopperd door een lidstaat of de Commissie tegen een door een markttoezichtautoriteit van een lidstaat overeenkomstig lid 1 verstrekte toelating, wordt die toelating geacht gerechtvaardigd te zijn.
3. Indien binnen 15 kalenderdagen na de ontvangst van de in lid 2 bedoelde informatie geen bezwaar is geopperd door een lidstaat of de Commissie tegen het verzoek van de nationale toezichthoudende autoriteit van de lidstaat in verband met een door een nationale toezichthoudende autoriteit van een lidstaat overeenkomstig lid 1 verstrekte toelating, wordt die toelating geacht gerechtvaardigd te zijn.
Amendement 467 Voorstel voor een verordening Artikel 47 – lid 4
4. Indien binnen 15 kalenderdagen na de ontvangst van in lid 2 bedoelde kennisgeving door een lidstaat bezwaren worden geopperd tegen een door een markttoezichtautoriteit van een andere lidstaat verstrekte toelating, of wanneer de Commissie de toelating in strijd met het Unierecht acht of de conclusie van de lidstaten ten aanzien van de conformiteit van het systeem als bedoeld in lid 2 ongegrond acht, treedt de Commissie onverwijld in overleg met de relevante lidstaat; de betrokken exploitanten worden geraadpleegd en hebben de mogelijkheid hun standpunten uiteen te zetten. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante exploitant(en).
4. Indien binnen 15 kalenderdagen na de ontvangst van in lid 2 bedoelde kennisgeving door een lidstaat bezwaren worden geopperd tegen een door een nationale toezichthoudende autoriteit van een andere lidstaat gedaan verzoek, of wanneer de Commissie de toelating in strijd met het Unierecht acht of de conclusie van de lidstaten ten aanzien van de conformiteit van het systeem als bedoeld in lid 2 ongegrond acht, treedt de Commissie onverwijld in overleg met de relevante lidstaat en het AI-bureau; de betrokken operator(s) worden geraadpleegd en hebben de mogelijkheid hun standpunten uiteen te zetten. Met het oog daarop besluit de Commissie of de toelating al dan niet gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en de relevante operator(s).
Amendement 468 Voorstel voor een verordening Artikel 47 – lid 5
5. Als de toelating ongerechtvaardigd wordt geacht, wordt deze ingetrokken door de markttoezichtautoriteit van de betrokken lidstaat.
5. Als de toelating ongerechtvaardigd wordt geacht, wordt deze ingetrokken door de nationale toezichthoudende autoriteit van de betrokken lidstaat.
Amendement 469 Voorstel voor een verordening Artikel 48 – lid 1
1. De aanbieder stelt voor elk AI-systeem een EU-conformiteitsverklaring op en houdt deze verklaring tot tien jaar na het in de handel brengen of het in bedrijf stellen van het AI-systeem ter beschikking van de nationale bevoegde autoriteiten. In de EU-conformiteitsverklaring wordt vermeld voor welk AI-systeem ze is opgesteld. Op verzoek wordt een kopie van de EU-conformiteitsverklaring aan de relevante nationale bevoegde autoriteiten verstrekt.
1. De aanbieder stelt voor elk AI-systeem met een hoog risico een machineleesbare EU-conformiteitsverklaring in fysieke of elektronische vorm op en houdt deze verklaring tot tien jaar na het in de handel brengen of het in bedrijf stellen van het AI-systeem met een hoog risico ter beschikking van de nationaletoezichthoudende autoriteit en de nationale bevoegde autoriteiten. Op verzoek wordt een kopie van de EU-conformiteitsverklaring aan de nationale toezichthoudende autoriteit en de relevante nationale bevoegde autoriteiten verstrekt.
Amendement 470 Voorstel voor een verordening Artikel 48 – lid 2
2. In de EU-conformiteitsverklaring wordt vermeld dat het betreffende AI-systeem met een hoog risico aan de hoofdstuk 2 van deze titel beschreven voorschriften voldoet. De EU-conformiteitsverklaring bevat de informatie die is vervat in bijlage V en wordt vertaald in een of meer officiële talen van de Unie, zoals vereist door de lidstaat (lidstaten) waarin het AI-systeem met een hoog risico wordt aangeboden.
2. In de EU-conformiteitsverklaring wordt vermeld dat het betreffende AI-systeem met een hoog risico aan de hoofdstuk 2 van deze titel beschreven voorschriften voldoet. De EU-conformiteitsverklaring bevat de informatie die is vervat in bijlage V en wordt vertaald in een of meer officiële talen van de Unie, zoals vereist door de lidstaat (lidstaten) waarin het AI-systeem met een hoog risico in de handel wordt gebracht of wordt aangeboden.
Amendement 471 Voorstel voor een verordening Artikel 48 – lid 3
3. Wanneer AI-systemen met een hoog risico onder andere harmonisatiewetgeving van de Unie vallen, waarvoor ook een EU-conformiteitsverklaring is vereist, wordt één EU-conformiteitsverklaring ten aanzien van alle op het AI-systeem met een hoog risico toepasselijke Uniewetgeving opgesteld. De verklaring bevat alle informatie die vereist is voor de identificatie van de harmonisatiewetgeving van de Unie waarop de verklaring betrekking heeft.
(Niet van toepassing op de Nederlandse versie)
Amendement 472 Voorstel voor een verordening Artikel 48 – lid 5
5. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de in bijlage V beschreven inhoud van de EU-conformiteitsverklaring, teneinde elementen in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.
5. De Commissie is bevoegd om, na raadpleging van het AI-bureau, gedelegeerde handelingen vast te stellen overeenkomstig artikel 73 ten behoeve van het bijwerken van de in bijlage V beschreven inhoud van de EU-conformiteitsverklaring, teneinde elementen in te voeren die noodzakelijk worden in het licht van de technische vooruitgang.
Amendement 473 Voorstel voor een verordening Artikel 49 – lid 1
1. De CE-markering wordt zichtbaar, leesbaar en onuitwisbaar op AI-systemen met een hoog risico aangebracht. Wanneer dit gezien de aard van het AI-systeem met een hoog risico niet mogelijk of niet gerechtvaardigd is, wordt de markering naargelang het geval op de verpakking of in de begeleidende documenten aangebracht.
1. De fysieke CE-markering wordt zichtbaar, leesbaar en onuitwisbaar op AI-systemen met een hoog risico aangebracht voordat het AI-systeem met een hoog risico in de handel wordt gebracht. Wanneer dit gezien de aard van het AI-systeem met een hoog risico niet mogelijk of niet gerechtvaardigd is, wordt de markering naargelang het geval op de verpakking of in de begeleidende documenten aangebracht. Vervolgens kan een pictogram dat of een andere markering worden aangebracht die een bijzonder risico of gebruik aanduidt;
Amendement 474 Voorstel voor een verordening Artikel 49 – lid 1 bis (nieuw)
1 bis. Voor uitsluitend digitale AI-systemen met een hoog risico wordt alleen een digitale CE-markering gebruikt als deze gemakkelijk toegankelijk is via de interface waarmee toegang wordt verkregen tot het AI-systeem of via een gemakkelijk toegankelijke machineleesbare code of andere elektronische middelen.
Amendement 475 Voorstel voor een verordening Artikel 49 – lid 3
3. Indien van toepassing, wordt de CE-markering gevolgd door het identificatienummer van de aangemelde instantie die verantwoordelijk is voor de in artikel 43 beschreven conformiteitsbeoordelingsprocedures. Het identificatienummer wordt ook vermeld in reclamemateriaal waarin staat dat een AI-systeem met een hoog risico aan de vereisten voor de CE-markering voldoet.
3. Indien van toepassing, wordt de CE-markering gevolgd door het identificatienummer van de aangemelde instantie die verantwoordelijk is voor de in artikel 43 beschreven conformiteitsbeoordelingsprocedures. Het identificatienummer van de aangemelde instantie wordt aangebracht door die instantie zelf dan wel overeenkomstig haar instructies door de gemachtigde van de aanbieder. Het identificatienummer wordt ook vermeld in reclamemateriaal waarin staat dat een AI-systeem met een hoog risico aan de vereisten voor de CE-markering voldoet;
Amendement 476 Voorstel voor een verordening Artikel 49 – lid 3 bis (nieuw)
3 bis. Indien AI-systemen met een hoog risico onder andere Uniewetgeving vallen die ook betrekking heeft op het aanbrengen van de CE-markering, vermeldt de CE-markering dat de AI-systemen met een hoog risico tevens aan de voorschriften van die andere wetgeving voldoen.
Amendement 477 Voorstel voor een verordening Artikel 50 – alinea 1 – inleidende formule
De aanbieder houdt gedurende een periode van tien jaar nadat het AI-systeem in de handel is gebracht of in bedrijf is gesteld de volgende elementen ter beschikking van de nationale bevoegde autoriteiten:
De aanbieder houdt gedurende een periode van tien jaar nadat het AI-systeem in de handel is gebracht of in bedrijf is gesteld de volgende elementen ter beschikking van de nationale toezichthoudende autoriteit en de nationale bevoegde autoriteiten:
Amendement 478 Voorstel voor een verordening Artikel 51 – alinea 1
Alvorens een AI-systeem met een hoog risico in de handel te brengen of in bedrijf te stellen als bedoeld in artikel 6, lid 2, registreert de aanbieder of in voorkomend geval de gemachtigde dat systeem in de in artikel 60 bedoelde EU-databank.
Alvorens een AI-systeem met een hoog risico in de handel te brengen of in bedrijf te stellen als bedoeld in artikel 6, lid 2, registreert de aanbieder of in voorkomend geval de gemachtigde dat systeem overeenkomstig artikel 60, lid 2, in de in artikel 60 bedoelde EU-databank.
Amendement 479 Voorstel voor een verordening Artikel 51 – alinea 1 bis (nieuw)
Alvorens een AI-systeem met een hoog risico in bedrijf te stellen of te gebruiken overeenkomstig artikel 6, lid 2, laten de volgende categorieën exploitanten het gebruik van dat AI-systeem in de in artikel 60 bedoelde EU-databank registreren.
a) exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn, of exploitanten die namens hen optreden;
b) exploitanten die ondernemingen zijn die krachtens Verordening (EU) 2022/1925 als poortwachter zijn aangewezen.
Amendement 480 Voorstel voor een verordening Artikel 51 – alinea 1 ter (nieuw)
Exploitanten die niet onder lid 1 bis vallen, hebben het recht het gebruik van een AI-systeem met een hoog risico als bedoeld in artikel 6, lid 2, vrijwillig te registreren in de in artikel 60 bedoelde EU-databank.
Amendement 481 Voorstel voor een verordening Artikel 51 – alinea 1 quater (nieuw)
Onmiddellijk na elke substantiële wijziging moet de registratie worden bijgewerkt.
Amendement 482 Voorstel voor een verordening Titel IV
TRANSPARANTIEVERPLICHTINGEN VOOR BEPAALDE AI-SYSTEMEN
TRANSPARANTIEVERPLICHTINGEN
Amendement 483 Voorstel voor een verordening Artikel 52 – titel
Transparantieverplichtingen voor bepaalde AI-systemen
Transparantieverplichtingen
Amendement 484 Voorstel voor een verordening Artikel 52 – lid 1
1. Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij interageren met een AI-systeem, tenzij de omstandigheden en de gebruikscontext dit duidelijk maken.Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten, tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden.
1. Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat het AI-systeem, de aanbieder zelf of de gebruiker de aan een AI-systeem blootgestelde natuurlijke personen tijdig, duidelijk en op begrijpelijke wijze informeert dat zij interageren met een AI-systeem, tenzij de omstandigheden en de gebruikscontext dit duidelijk maken.
Indien passend en relevant staat in deze informatie ook welke functies op AI gebaseerd zijn, of er sprake is van menselijk toezicht en wie verantwoordelijk is voor het besluitvormingsproces, alsook wat de bestaande rechten en processen zijn die natuurlijke personen of hun vertegenwoordigers overeenkomstig het Unierecht en het nationale recht in staat stellen bij hen bezwaar aan te tekenen tegen de toepassing van dergelijke systemen en beroep in te stellen tegen beslissingen die door AI-systemen zijn genomen of tegen door AI-systemen veroorzaakte schade, met inbegrip van hun recht om uitleg te krijgen. Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten, tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden.
Amendement 485 Voorstel voor een verordening Artikel 52 – lid 2
2. Gebruikers van een emotieherkenningssysteem of een biometrisch indelingssysteem informeren de daaraan blootgestelde natuurlijke personen over de werking van het systeem. Deze verplichting is niet van toepassing op voor biometrische indeling gebruikte AI-systemen, die bij wet zijn toegestaan om strafbare feiten op te sporen, te voorkomen en te onderzoeken.
2. Gebruikers van een emotieherkenningssysteem of een biometrisch indelingssysteem dat niet verboden is op grond van artikel 5 informeren de daaraan blootgestelde natuurlijke personen tijdig, duidelijk en op begrijpelijke wijze over de werking van het systeem en verkrijgen hun toestemming voorafgaand aan de verwerking van hun biometrische en andere persoonsgegevens overeenkomstig Verordening (EU) 2016/679, Verordening (EU) 2016/1725 en Richtlijn (EU) 2016/280, naargelang het geval. Deze verplichting is niet van toepassing op voor biometrische indeling gebruikte AI-systemen, die bij wet zijn toegestaan om strafbare feiten op te sporen, te voorkomen en te onderzoeken.
Amendement 486 Voorstel voor een verordening Artikel 52 – lid 3 – alinea 1
3. Gebruikers van een AI-systeem dat beeld-, audio- of videomateriaal genereert of bewerkt dat aanzienlijk op bestaande personen, objecten, plaatsen of andere entiteiten of gebeurtenissen lijkt en voor een persoon onterecht als authentiek of waarheidsgetrouw (“deep fake”) zou overkomen, maken bekend dat het materiaal kunstmatig is gegenereerd of bewerkt.
3. Gebruikers van een AI-systeem dat tekst-, audio- of beeldmateriaal genereert of bewerkt dat onterecht als authentiek of waarheidsgetrouw zou overkomen en waarop afbeeldingen van personen voorkomen die zonder hun toestemming dingen lijken te zeggen of te doen die ze niet hebben gezegd of gedaan (“deepfake”), maken tijdig en op passende, duidelijke en zichtbare wijze bekend dat het materiaal kunstmatig is gegenereerd of bewerkt, alsook, voor zover mogelijk, wat de naam van de natuurlijke of rechtspersoon is die het heeft gegeneerd of gemanipuleerd.Bekendmaking betekent het materiaal zodanig aanmerken dat voor de ontvanger van dat materiaal duidelijk zichtbaar is dat het niet authentiek is. Bij het aanmerken van het materiaal houden de gebruikers rekening met de algemeen erkende stand van de techniek en relevante geharmoniseerde normen en specificaties.
Amendement 487 Voorstel voor een verordening Artikel 52 – lid 3 – alinea 2
De eerste alinea is echter niet van toepassing wanneer het gebruik bij wet is toegestaan om strafbare feiten op te sporen, te voorkomen, te onderzoeken en te vervolgen of nodig is voor het doen gelden van het recht op vrijheid van meningsuiting en het recht op vrijheid van kunsten en wetenschappen die in het EU-Handvest van de grondrechten worden gewaarborgd, en behoudens passende waarborgen voor de rechten en vrijheden van derden.
3 bis. Het derde lid is niet van toepassing wanneer het gebruik van een AI-systeem dat tekst-, audio- of beeldmateriaal genereert of bewerkt bij wet is toegestaan of indien dit nodig is voor het doen gelden van het recht op vrijheid van meningsuiting en het recht op vrijheid van kunsten en wetenschappen die in het EU-Handvest van de grondrechten worden gewaarborgd, en behoudens passende waarborgen voor de rechten en vrijheden van derden. Wanneer de inhoud deel uitmaakt van duidelijk creatieve, satirische, artistieke of fictieve cinematografische beelden, beelden van videospellen of een soortgelijk werk of programma, zijn de in lid 3 bedoelde transparantieverplichtingen beperkt tot het openbaar maken van het bestaan van dergelijke gegenereerde of gemanipuleerde inhoud op een passende, duidelijke en zichtbare manier die de weergave van het werk niet belemmert, en in voorkomend geval het openbaar maken van de toepasselijke auteursrechten Het belet rechtshandhavingsinstanties evenmin om AI-systemen te gebruiken die bedoeld zijn om deepfakes op te sporen en strafbare feiten in verband met het gebruik ervan te voorkomen, te onderzoeken en te vervolgen.
Amendement 488 Voorstel voor een verordening Artikel 52 – lid 3 ter (nieuw)
3 ter. De verstrekking van de in de leden 1 tot en met 3 bedoelde informatie aan natuurlijke personen heeft uiterlijk plaats op het moment van de eerste interactie of blootstelling. De informatie moet, voor zover relevant en passend, toegankelijk zijn voor kwetsbare personen, zoals personen met een handicap of kinderen, en aangevuld zijn met interventie- of waarschuwingsprocedures voor de blootgestelde natuurlijke persoon, rekening houdend met de algemeen erkende stand van de techniek en relevante geharmoniseerde normen en gemeenschappelijke specificaties.
Amendement 489 Voorstel voor een verordening Artikel 53 – lid 1
1. Door bevoegde autoriteiten van een of meer lidstaten of de Europese Toezichthouder voor gegevensbescherming ontwikkelde AI-testomgevingen voor regelgeving voorzien in een gecontroleerde omgeving ter vergemakkelijking van het volgens een specifiek plan ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld. Dit vindt plaats onder direct toezicht en met directe begeleiding van de bevoegde autoriteiten teneinde naleving van de eisen van deze verordening te waarborgen en in voorkomend geval andere wetgeving van de Unie en de lidstaten onder toezicht binnen de testomgeving.
1. De lidstaten ontwikkelen op nationaal niveau ten minste één AI-testomgeving voor regelgeving, die uiterlijk op de dag van inwerkingtreding van deze verordening operationeel is. Deze testomgeving kan ook worden ontwikkeld samen met een of meer andere lidstaten;
Amendement 490 Voorstel voor een verordening Artikel 53 – lid 1 bis (nieuw)
1 bis. Er kunnen ook aanvullende AI-testomgevingen voor regelgeving worden ontwikkeld op regionaal of lokaal niveau of samen met andere lidstaten;
Amendement 491 Voorstel voor een verordening Artikel 53 – lid 1 ter (nieuw)
1 ter. De Commissie en de Europese Toezichthouder voor gegevensbescherming kunnen op eigen initiatief, gezamenlijk of in samenwerking met een of meer lidstaten ook AI-testomgevingen voor regelgeving op het niveau van de Unie ontwikkelen;
Amendement 492 Voorstel voor een verordening Artikel 53 – lid 1 quater (nieuw)
1 quater. De autoriteiten die een testomgeving ontwikkelen, wijzen voldoende middelen toe om effectief en tijdig aan dit artikel te voldoen;
Amendement 493 Voorstel voor een verordening Artikel 53 – lid 1 quinquies (nieuw)
1 quinquies. AI-testomgevingen voor regelgeving voorzien overeenkomstig de criteria in artikel 53 bis in een gecontroleerde omgeving ter bevordering van innovatie en ter vergemakkelijking van het ontwikkelen, testen en valideren van innovatieve AI-systemen, volgens een specifiek, tussen de toekomstige aanbieders en de autoriteit die de testomgeving heeft ontwikkeld overeengekomen plan, voor een beperkte duur voordat zij in de handel worden gebracht of in bedrijf worden gesteld.
Amendement 494 Voorstel voor een verordening Artikel 53 – lid 1 sexies (nieuw)
1 sexies. Het ontwikkelen van AI-testomgevingen voor regelgeving heeft tot doel een bijdrage te leveren aan de volgende doelstellingen:
a) het verstrekken van richtsnoeren door de bevoegde autoriteiten aan potentiële aanbieders van AI-systemen om te komen tot naleving van de met deze verordening vastgestelde regelgeving of, in voorkomend geval, andere toepasselijke regelgeving van de Unie en de lidstaten;
b) mogelijk maken en faciliteren dat toekomstige aanbieders innovatieve oplossingen in verband met AI-systemen testen en ontwikkelen;
c) in een gecontroleerde omgeving leren over de regelgeving.
Amendement 495 Voorstel voor een verordening Artikel 53 – lid 1 septies (nieuw)
1 septies. De autoriteiten die de testomgeving hebben ontwikkeld, verstrekken richtsnoeren en houden binnen de testomgeving toezicht met het oog op het identificeren van risico’s, met name voor de grondrechten, de democratie en de rechtsstaat, gezondheid en veiligheid en het milieu, zij testen en demonstreren risicobeperkende maatregelen voor geïdentificeerde risico’s en de doeltreffendheid hiervan, en zij waarborgen de naleving van de voorschriften van deze verordening en, in voorkomend geval, andere wetgeving van de Unie en de lidstaten;
Amendement 496 Voorstel voor een verordening Artikel 53 – lid 1 octies (nieuw)
1 octies. De autoriteiten die de testomgeving hebben ontwikkeld, verstrekken de bij de testomgeving betrokken toekomstige aanbieders die AI-systemen met een hoog risico ontwikkelen, richtsnoeren en houden toezicht op hen met betrekking tot de wijze waarop aan de vereisten van deze verordening kan worden voldaan, zodat de AI-systemen de testomgeving kunnen verlaten met de veronderstelling dat zij in overeenstemming zijn met de specifieke voorschriften van deze verordening die binnen de testomgeving zijn beoordeeld. Voor zover het AI-systeem bij het verlaten van de testomgeving voldoet aan de voorschriften, wordt het geacht in overeenstemming te zijn met deze verordening. In dit verband wordt met de exitverslagen die worden opgesteld door de autoriteit die de testomgeving heeft ontwikkeld, rekening gehouden door de markttoezichtautoriteiten of aangemelde instanties, naargelang het geval, in het kader van conformiteitsbeoordelingsprocedures of markttoezichtcontroles;
Amendement 497 Voorstel voor een verordening Artikel 53 – lid 2
2. De lidstaten zorgen ervoor dat voor zover de innovatieve AI-systemen betrekking hebben op de verwerking van persoonsgegevens of anderszins onder het toezicht van andere nationale autoriteiten of bevoegde autoriteiten vallen die toegang tot data verstrekken of ondersteunen, de nationale gegevensbeschermingsautoriteiten of die andere nationale autoriteiten bij de werking van de AI-testomgeving voor regelgeving zijn betrokken.
2. De autoriteiten die de testomgeving hebben ontwikkeld, zorgen ervoor dat voor zover de innovatieve AI-systemen betrekking hebben op de verwerking van persoonsgegevens of anderszins onder het toezicht van andere nationale autoriteiten of bevoegde autoriteiten vallen die toegang tot persoonsgegevens verstrekken of ondersteunen, de nationale gegevensbeschermingsautoriteiten, dan wel, in de in lid 1 ter bedoelde gevallen, de Europese Toezichthouder voor gegevensbescherming, of die andere nationale autoriteiten zijn betrokken bij de werking van de AI-testomgeving voor regelgeving en bij het toezicht op de aspecten die onder hun respectieve taken en bevoegdheden vallen.
Amendement 498 Voorstel voor een verordening Artikel 53 – lid 3
3. De AI-testomgevingen voor regelgeving laten de toezichthoudende en corrigerende bevoegdheden van de bevoegde autoriteiten onverlet. Significante risico’s voor de gezondheid en veiligheid en de grondrechten die tijdens het ontwikkelen en testen van dergelijke systemen worden vastgesteld, worden onmiddellijk beperkt en leiden bij gebreke daarvan tot de opschorting van het ontwikkelings- en testproces totdat beperkende maatregelen worden getroffen.
3. De AI-testomgevingen voor regelgeving laten de toezichthoudende en corrigerende bevoegdheden van de bevoegde autoriteiten onverlet, ook op regionaal of lokaal niveau. Significante risico’s voor de grondrechten, de democratie en de rechtsstaat, de gezondheid en veiligheid of het milieu die tijdens het ontwikkelen en testen van dergelijke AI-systemen worden vastgesteld, worden onmiddellijk op adequate wijze beperkt. De bevoegde autoriteiten hebben de bevoegdheid om het testproces of de deelname aan de testomgeving tijdelijk of permanent op te schorten indien geen doeltreffende beperkende maatregelen mogelijk zijn, en zij stellen het AI-bureau van een dergelijk besluit in kennis;
Amendement 499 Voorstel voor een verordening Artikel 53 – lid 4
4. Deelnemers aan de AI-testomgeving voor regelgeving blijven aansprakelijk overeenkomstig toepasselijke aansprakelijkheidswetgeving van de Unie en de lidstaten voor aan derden toegebrachte schade als gevolg van de experimenten in de testomgeving.
4. Bij de AI-testomgeving voor regelgeving betrokken toekomstige aanbieders blijven aansprakelijk overeenkomstig toepasselijke aansprakelijkheidswetgeving van de Unie en de lidstaten voor aan derden toegebrachte schade als gevolg van de experimenten in de testomgeving. Voor zover de toekomstige aanbieders(s) echter het in lid 1 quater bedoelde specifieke plan alsmede de voorwaarden voor hun deelname eerbiedigen en zich te goeder trouw houden aan de richtsnoeren van de autoriteiten die de testomgeving hebben ontwikkeld, leggen de autoriteiten geen administratieve boetes op voor de schending van deze verordening;
Amendement 500 Voorstel voor een verordening Artikel 53 – lid 5
5. De bevoegde autoriteiten van de lidstaten die AI-testomgevingen voor regelgeving hebben ontwikkeld, coördineren hun activiteiten en werken samen binnen het kader van het Europees Comité voor artificiële intelligentie. Zij dienen jaarverslagen bij het Comité en de Commissie in over de resultaten van de uitvoering van die regelingen, met inbegrip van goede praktijken, geleerde lessen en aanbevelingen over de opzet ervan en, waar relevant, over de toepassing van deze verordening en andere Uniewetgeving onder toezicht binnen de testomgeving.
5. De autoriteiten die de testomgeving hebben ontwikkeld, coördineren hun activiteiten en werken samen binnen het kader van het AI-bureau.
Amendement 501 Voorstel voor een verordening Artikel 53 – lid 5 bis (nieuw)
5 bis. De autoriteiten die de testomgeving hebben ontwikkeld, stellen het AI-bureau in kennis van de oprichting van een testomgeving en kunnen verzoeken om ondersteuning en begeleiding. Een lijst van geplande en bestaande testomgevingen wordt door het AI-bureau openbaar gemaakt en up-to-date gehouden om meer interactie in de testomgevingen voor regelgeving en transnationale samenwerking aan te moedigen;
Amendement 502 Voorstel voor een verordening Artikel 53 – lid 5 ter (nieuw)
5 ter. De autoriteiten die de testomgeving hebben ontwikkeld, dienen bij het AI-bureau en, tenzij de Commissie de testomgeving heeft ontwikkeld in haar eentje, bij de Commissie jaarverslagen in, te beginnen één jaar na de oprichting van de testomgeving en vervolgens elk jaar tot de beëindiging ervan, alsmede een eindverslag. In deze verslagen wordt informatie verstrekt over de vooruitgang en de resultaten met betrekking tot de uitvoering van die testomgevingen, met inbegrip van goede praktijken, incidenten, geleerde lessen en aanbevelingen over de opzet ervan en, waar relevant, over de toepassing en mogelijke herziening van deze verordening en andere wetgeving van de Unie onder toezicht binnen de testomgeving. Deze jaarverslagen of samenvattingen daarvan worden online ter beschikking gesteld van het publiek;
Amendement 503 Voorstel voor een verordening Artikel 53 – lid 6
6. De modaliteiten en de voorwaarden van de werking van de AI-testomgevingen voor regelgeving, waaronder de toelatingscriteria en de procedures voor de toepassing en selectie van, deelname aan en terugtrekking uit de testomgeving, en de rechten en plichten van de deelnemers worden in uitvoeringshandelingen uiteengezet. Die uitvoeringshandelingen worden volgens de in artikel 74, lid 2, bedoelde onderzoeksprocedure vastgesteld.
6. De Commissie ontwikkelt één specifieke interface met alle relevante informatie over testomgevingen, samen met één contactpunt op het niveau van de Unie om te communiceren met de testomgevingen voor regelgeving en belanghebbenden in staat te stellen vragen in te dienen bij de bevoegde autoriteiten, en om niet-bindende richtsnoeren te vragen over de conformiteit van innovatieve producten, diensten en bedrijfsmodellen waarin AI-technologieën zijn geïntegreerd;
de Commissie zorgt voor een proactieve coördinatie met de nationale, de regionale en in voorkomend geval ook de lokale autoriteiten;
Amendement 504 Voorstel voor een verordening Artikel 53 – lid 6 bis (nieuw)
6 bis. Voor de toepassing van de leden 1 en 1 bis speelt de Commissie een complementaire rol, waarbij zij enerzijds de lidstaten die aantoonbare ervaring hebben met het gebruik van testomgevingen in staat stelt voort te bouwen op hun expertise, en anderzijds de lidstaten die begeleiding wensen bij het ontwikkelen en beheren van testomgevingen voor regelgeving bijstaat en voorziet van technisch advies en hulpmiddelen;
Amendement 505 Voorstel voor een verordening Artikel 53 bis (nieuw)
Artikel 53 bis
Modaliteiten en werking van AI-testomgevingen voor regelgeving
1. Om versnippering in de Unie te voorkomen, stelt de Commissie, in overleg met het AI-bureau, een gedelegeerde handeling vast waarin de modaliteiten worden gespecificeerd voor de instelling, de ontwikkeling, de uitvoering en de werking van AI-testomgevingen voor regelgeving en voor het toezicht erop, met inbegrip van de toelatingscriteria en de procedure voor de aanvraag, de selectie, de deelname en het vertrek uit de testomgeving, alsmede de rechten en plichten van de deelnemers op basis van de bepalingen van dit artikel;
2. De Commissie is bevoegd om gedelegeerde handelingen vast te stellen volgens de procedure in artikel 73, uiterlijk twaalf maanden na de inwerkingtreding van deze verordening, en zij zorgt ervoor dat:
a) testomgevingen voor regelgeving openstaan voor elke toekomstige aanbieder van een AI-systeem die een aanvraag indient en die voldoet aan de toelatingscriteria en de selectiecriteria. De criteria voor toegang tot de testomgeving voor regelgeving zijn transparant en eerlijk en de autoriteiten die de testomgeving hebben ontwikkeld, stellen indieners van een aanvraag binnen drie maanden na de indiening van hun aanvraag in kennis van hun besluit;
b) testomgevingen voor regelgeving brede en gelijke toegang bieden en gelijke tred houden met de vraag om toestemming voor deelname;
c) de toegang tot de AI-testomgevingen voor regelgeving voor kmo’s en start-ups kosteloos is, onverminderd uitzonderlijke kosten die de autoriteiten die de testomgeving hebben ontwikkeld, op billijke en evenredige wijze mogen verhalen;
d) testomgevingen voor regelgeving de betrokkenheid vergemakkelijken van andere relevante actoren binnen het AI-ecosysteem, zoals aangemelde instanties en normalisatieorganisaties (kmo’s, start-ups, ondernemingen, innovatoren, test- en experimenteervoorzieningen, onderzoeks- en testlaboratoria en digitale-innovatiehubs, kenniscentra, individuele onderzoekers), teneinde samenwerking met de publieke en particuliere sector mogelijk te maken en te vergemakkelijken;
e) zij toekomstige aanbieders de mogelijkheid bieden om in een gecontroleerde omgeving te voldoen aan de verplichtingen inzake conformiteitsbeoordeling van deze verordening of de vrijwillige toepassing van de in artikel 69 vermelde gedragscodes;
f) de procedures, processen en administratieve vereisten voor de aanvraag, de selectie, de deelname en het vertrek uit de testomgeving voor regelgeving eenvoudig en gemakkelijk te begrijpen zijn en duidelijk worden gecommuniceerd, om de deelname van kmo’s en start-ups met beperkte juridische en administratieve capaciteiten te vergemakkelijken, en in de hele Unie worden gestroomlijnd, om versnippering te voorkomen, en dat de deelname aan een door een lidstaat, de Commissie of de EDPS opgerichte testomgeving voor regelgeving wederzijds en uniform wordt erkend en in de hele Unie dezelfde rechtsgevolgen heeft;
g) de deelname aan de AI-testomgeving voor regelgeving beperkt wordt tot een termijn die passend is gezien de complexiteit en de omvang van het project;
h) de testomgevingen de ontwikkeling bevorderen van instrumenten en infrastructuur voor het testen, benchmarken, beoordelen en verklaren van de voor testomgevingen relevante aspecten van AI-systemen, zoals nauwkeurigheid, robuustheid en cyberbeveiliging, alsook minimalisering van de risico’s voor de grondrechten, het milieu en de maatschappij in het algemeen.
3. Potentiële aanbieders in de testomgevingen, met name kmo’s en start-ups, krijgen gemakkelijker toegang tot diensten die aan de uitrol voorafgaan, zoals richtsnoeren voor de uitvoering van deze verordening, tot andere diensten die waarde toevoegen, zoals hulp bij normalisatiedocumenten en certificering en raadpleging, en tot andere initiatieven op het gebied van de digitale eengemaakte markt, zoals test- en experimenteervoorzieningen, digitale hubs, kenniscentra en EU-benchmarkcapaciteiten;
Amendement 506 Voorstel voor een verordening Artikel 54 – titel
Verdere verwerking van persoonsgegevens voor het ontwikkelen van bepaalde AI-systemen in het algemene belang in de AI-testomgeving voor regelgeving
Verdere verwerking van gegevens voor het ontwikkelen van bepaalde AI-systemen in het algemene belang in de AI-testomgeving voor regelgeving
Amendement 507 Voorstel voor een verordening Artikel 54 – lid 1 – inleidende formule
1. In de AI-testomgeving voor regelgeving worden rechtmatig voor andere doeleinden verzamelde persoonsgegevens onder de volgende voorwaarden verwerkt ten behoeve van het ontwikkelen en testen van bepaalde innovatieve AI-systemen in de testomgeving:
1. In de AI-testomgeving voor regelgeving kunnen rechtmatig voor andere doeleinden verzamelde persoonsgegevens uitsluitend worden verwerkt ten behoeve van het ontwikkelen en testen van bepaalde AI-systemen in de testomgeving indien aan alle volgende voorwaarden is voldaan:
Amendement 508 Voorstel voor een verordening Artikel 54 – lid 1 – punt a – inleidende formule
a) de innovatieve AI-systemen worden ontwikkeld voor het beschermen van zwaarwegend algemeen belang op een of meer van de volgende gebieden:
a) de AI-systemen worden ontwikkeld voor het beschermen van zwaarwegend algemeen belang op een of meer van de volgende gebieden:
ii) de openbare veiligheid en volksgezondheid, waaronder de opsporing, diagnose, preventie, beheersing en behandeling van ziekten;
iii) een hoog niveau van bescherming en verbetering van de kwaliteit van het milieu, bescherming van de biodiversiteit, beperking van vervuiling en van de klimaatverandering en aanpassing hieraan;
iii bis) de veiligheid en de veerkracht van vervoersystemen, kritieke vervoersinfrastructuur en vervoersnetwerken;
Amendement 509 Voorstel voor een verordening Artikel 54 – lid 1 – punt a – i
i) de voorkoming, het onderzoek, de opsporing of de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid, onder de controle en verantwoordelijkheid van de bevoegde autoriteiten. De verwerking is gebaseerd op het recht van de lidstaten of de Unie;
Schrappen
Amendement 510 Voorstel voor een verordening Artikel 54 – lid 1 – punt c
c) er zijn doeltreffende monitoringmechanismen om vast te stellen of zich tijdens de experimenten in de testomgeving hoge risico’s voor de grondrechten van de betrokkenen kunnen voordoen evenals responsmechanismen om die risico’s onmiddellijk te beperken en indien nodig de verwerking stop te zetten;
c) er zijn doeltreffende monitoringmechanismen om vast te stellen of zich tijdens de experimenten in de testomgeving hoge risico’s voor de rechten en vrijheden van de betrokkenen, als bedoeld in artikel 35 van Verordening (EU) 2016/679 en in artikel 35 van Verordening (EU) 2018/1725, kunnen voordoen evenals responsmechanismen om die risico’s onmiddellijk te beperken en indien nodig de verwerking stop te zetten;
Amendement 511 Voorstel voor een verordening Artikel 54 – lid 1 – punt d
d) in het kader van de testomgeving te verwerken persoonsgegevens bevinden zich in een functioneel gescheiden, geïsoleerde en beschermde omgeving voor dataverwerking onder de controle van de deelnemers, waarbij alleen bevoegde personen toegang hebben tot die data;
d) in het kader van de testomgeving te verwerken persoonsgegevens bevinden zich in een functioneel gescheiden, geïsoleerde en beschermde omgeving voor dataverwerking onder de controle van de toekomstige aanbieder, waarbij alleen bevoegde personen toegang hebben tot die data;
Amendement 512 Voorstel voor een verordening Artikel 54 – lid 1 – punt f
f) de verwerking van persoonsgegevens in het kader van de testomgeving mag niet leiden tot maatregelen of besluiten die gevolgen hebben voor de betrokkenen;
f) de verwerking van persoonsgegevens in het kader van de testomgeving mag niet leiden tot maatregelen of besluiten die gevolgen hebben voor de betrokkenen, noch gevolgen hebben voor de toepassing van hun rechten die zijn vastgelegd in het Unierecht inzake de bescherming van persoonsgegevens;
Amendement 513 Voorstel voor een verordening Artikel 54 – lid 1 – punt g
g) in het kader van de testomgeving verwerkte persoonsgegevens worden gewist nadat de deelname aan de testomgeving is beëindigd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;
g) in het kader van de testomgeving verwerkte persoonsgegevens worden beschermd met behulp van passende technische en organisatorische maatregelen en gewist nadat de deelname aan de testomgeving is beëindigd of de periode van bewaring van de persoonsgegevens ten einde is gekomen;
Amendement 514 Voorstel voor een verordening Artikel 54 – lid 1 – punt h
h) de logbestanden van de verwerking van persoonsgegevens in het kader van de testomgeving worden tijdens de duur van de deelname aan de testomgeving en één jaar na beëindiging ervan bewaard, uitsluitend ten behoeve van en alleen zo lang als nodig is voor het nakomen van aansprakelijkheids- en documenteringsverplichtingen overeenkomstig dit artikel of andere toepasselijke wetgeving van de Unie of de lidstaten;
h) de logbestanden van de verwerking van persoonsgegevens in het kader van de testomgeving worden tijdens de duur van de deelname aan de testomgeving bewaard;
Amendement 515 Voorstel voor een verordening Artikel 54 – lid 1 – punt j
j) een korte samenvatting van het in de testomgeving ontwikkelde AI-project en de doelstellingen en verwachte resultaten ervan worden op de website van de bevoegde autoriteiten gepubliceerd.
j) een korte samenvatting van het in de testomgeving ontwikkelde AI-systeem en de doelstellingen, hypothesen en verwachte resultaten ervan worden op de website van de bevoegde autoriteiten gepubliceerd;
Amendement 516 Voorstel voor een verordening Artikel 54 bis (nieuw)
Artikel 54 bis
Bevordering van AI-onderzoek en -ontwikkeling ter ondersteuning van voor de maatschappij en het milieu gunstige resultaten
1. De lidstaten bevorderen het onderzoek naar en de ontwikkeling van AI-oplossingen die voor de maatschappij en het milieu gunstige resultaten ondersteunen, waaronder, maar niet beperkt tot, de ontwikkeling van op AI gebaseerde oplossingen voor het vergroten van de toegankelijkheid voor personen met een handicap, het aanpakken van sociaal-economische ongelijkheden en het voldoen aan de duurzaamheids- en milieudoelstellingen, door:
a) relevante projecten prioritaire toegang te verlenen tot de AI-testomgevingen voor regelgeving, voor zover zij aan de toelatingscriteria voldoen;
b) overheidsmiddelen, onder meer uit relevante EU-fondsen, te reserveren voor AI-onderzoek en -ontwikkeling ter ondersteuning van voor de maatschappij en het milieu gunstige resultaten;
c) specifieke bewustmakingsactiviteiten te organiseren over de toepassing van deze verordening en over de beschikbaarheid van en de aanvraagprocedures voor specifieke financiering, afgestemd op de behoeften van deze projecten;
d) indien passend, toegankelijke specifieke kanalen op te zetten, onder andere in de testomgeving, voor communicatie met projecten, om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden.
De lidstaten ondersteunen het maatschappelijk middenveld en sociale belanghebbenden bij het leiden van of deelnemen aan dergelijke projecten;
Amendement 517 Voorstel voor een verordening Artikel 55 – titel
Maatregelen voor kleine aanbieders en gebruikers
Maatregelen voor kmo’s, start-ups en gebruikers
Amendement 518 Voorstel voor een verordening Artikel 55 – lid 1 – punt a
a) kleine aanbieders en start-ups prioritaire toegang verlenen tot de AI-testomgevingen voor regelgeving voor zover zij aan de toelatingscriteria voldoen;
a) kmo’s en start-ups die in de EU zijn gevestigd prioritaire toegang verlenen tot de AI-testomgevingen voor regelgeving voor zover zij aan de toelatingscriteria voldoen;
Amendement 519 Voorstel voor een verordening Artikel 55 – lid 1 – punt b
b) specifieke bewustmakingsactiviteiten organiseren rond de toepassing van deze verordening, afgestemd op de behoeften van kleine aanbieders en gebruikers;
b) specifieke bewustmakingsactiviteiten en activiteiten ter ontwikkeling van betere digitale vaardigheden organiseren met betrekking tot de toepassing van deze verordening, afgestemd op de behoeften van kmo’s, start-ups en gebruikers;
Amendement 520 Voorstel voor een verordening Artikel 55 – lid 1 – punt c
c) indien passend een specifiek kanaal voor communicatie met kleine aanbieders en gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden.
c) gebruikmaken van bestaande specifieke kanalen en indien passend nieuwe specifieke kanalen voor communicatie met kmo’s, start-ups en gebruikers en andere innovatoren opzetten om begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden;
Amendement 521 Voorstel voor een verordening Artikel 55 – lid 1 – punt c bis (nieuw)
c bis) de deelname van kmo’s en andere relevante belanghebbenden aan het proces voor de ontwikkeling van normen bevorderen.
Amendement 522 Voorstel voor een verordening Artikel 55 – lid 2
2. De specifieke belangen en behoeften van kleine aanbieders worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig artikel 43, waarbij die vergoedingen naar evenredigheid van hun omvang en marktgrootte worden verlaagd.
2. De specifieke belangen en behoeften van kmo’s, start-ups en gebruikers worden in aanmerking genomen bij het bepalen van de vergoedingen voor conformiteitsbeoordelingen overeenkomstig artikel 43, waarbij die vergoedingen naar evenredigheid van hun ontwikkelingsfase, omvang, marktgrootte en marktvraag worden verlaagd. De Commissie beoordeelt de certificerings- en nalevingskosten voor kmo’s en start-ups regelmatig, onder meer via transparant overleg met kmo’s, start-ups en gebruikers, en werkt met de lidstaten samen om die kosten waar mogelijk te verlagen. De Commissie doet verslag van haar bevindingen aan het Europees Parlement en de Raad als onderdeel van haar verslag over de evaluatie en toetsing van deze verordening voorzien in artikel 84, lid 2.
Amendement 523 Voorstel voor een verordening Artikel 56 – afdeling 1 - titel
Titel
Afdeling 1: Algemene bepalingen betreffende het Europees Bureau voor artificiële intelligentie
Amendement 524 Voorstel voor een verordening Artikel 56 - titel
Oprichting van het Europees Comité voor artificiële intelligentie
Oprichting van het Europees Bureau voor artificiële intelligentie
Amendement 525 Voorstel voor een verordening Artikel 56 – lid 1
1. Er wordt een Europees Comité voor artificiële intelligentie (het “Comité”) opgericht.
1. Hierbij wordt het Europees Bureau voor artificiële intelligentie (het “AI-bureau”) opgericht. Het AI-bureau is een onafhankelijk orgaan van de Unie. Het heeft rechtspersoonlijkheid.
Amendement 526 Voorstel voor een verordening Artikel 56 – lid 2 – inleidende formule
2. Het Comité verstrekt advies en bijstand aan de Commissie teneinde:
2. Het AI-bureau heeft een secretariaat en wordt voldoende gefinancierd en bemand voor de uitvoering van zijn taken uit hoofde van deze verordening.
Amendement 527 Voorstel voor een verordening Artikel 56 – lid 2 bis (nieuw)
2 bis. De zetel van het AI-bureau is in Brussel.
Amendement 528 Voorstel voor een verordening Artikel 56 bis (nieuw)
Artikel 56 bis
Structuur
De administratieve en beheersstructuur van het AI-bureau omvat:
a) een raad van bestuur, met onder andere een voorzitter;
b) een secretariaat, dat wordt beheerd door een uitvoerend directeur;
c) een adviesforum.
Amendement 529 Voorstel voor een verordening Artikel 56 ter (nieuw)
Artikel 56 ter
Taken van het Bureau
Het AI-bureau vervult de volgende functies:
a) ondersteunen van, adviseren van en samenwerken met de lidstaten, de nationale toezichthoudende autoriteiten, de Commissie en andere instellingen, organen en instanties van de Unie met betrekking tot de uitvoering van deze verordening;
b) monitoren en waarborgen van de effectieve, consistente toepassing van deze verordening, waarbij de taken van de nationale toezichthoudende autoriteiten onverlet worden gelaten;
c) bijdragen tot de coördinatie tussen de nationale toezichthoudende autoriteiten die verantwoordelijk zijn voor de toepassing van deze verordening;
d) als bemiddelaar fungeren bij discussies over ernstige meningsverschillen tussen bevoegde autoriteiten over de toepassing van de verordening;
e) coördineren van gezamenlijke onderzoeken overeenkomstig artikel 66 bis;
f) bijdragen aan de doeltreffende samenwerking met de bevoegde autoriteiten van derde landen en met internationale organisaties;
g) expertise en beste praktijken van de lidstaten verzamelen en delen en de nationale toezichthoudende autoriteiten van de lidstaten en de Commissie bijstaan bij de ontwikkeling van de organisatorische en technische deskundigheid die nodig is voor de uitvoering van deze verordening, onder meer door het faciliteren van het opzetten en onderhouden van een pool van deskundigen van de Unie;
h) op eigen initiatief of op verzoek van zijn raad van bestuur of de Commissie vraagstukken in verband met de uitvoering van deze verordening onderzoeken en adviezen, aanbevelingen of schriftelijke bijdragen uitbrengen, onder meer met betrekking tot:
i) technische specificaties of bestaande normen; ii) de richtsnoeren van de Commissie;
iii) gedragscodes en de toepassing ervan, in nauwe samenwerking met de bedrijfswereld en andere belanghebbenden;
iv) de mogelijke herziening van de verordening, de opstelling van de gedelegeerde handelingen en de mogelijke afstemming van deze verordening op de in bijlage II vermelde rechtshandelingen;
v) trends, bijvoorbeeld met betrekking tot het Europese mondiale concurrentievermogen op het gebied van artificiële intelligentie, de invoering van artificiële intelligentie in de Unie, de ontwikkeling van digitale vaardigheden en opkomende systemische bedreigingen in verband met artificiële intelligentie;
vi) richtsnoeren over de wijze waarop deze verordening van toepassing is op de steeds veranderende typologie van AI-waardeketens, met name wat de daaruit voortvloeiende gevolgen betreft voor de verantwoordingsplicht van alle betrokken entiteiten;
i) het volgende publiceren:
i) een jaarverslag met een evaluatie van de uitvoering van deze verordening, een evaluatie van de in artikel 62 bedoelde meldingen van ernstige incidenten en de werking van de in artikel 60 bedoelde databank, en
ii) aanbevelingen aan de Commissie over de categorisering van verboden praktijken, AI-systemen met een hoog risico als bedoeld in bijlage III, de in artikel 69 bedoelde gedragscodes en de toepassing van de algemene beginselen in artikel 4 bis;
j) de autoriteiten bijstaan bij het opzetten en ontwikkelen van testomgevingen voor regelgeving en de samenwerking tussen testomgevingen voor regelgeving vergemakkelijken;
k) vergaderingen organiseren met agentschappen en bestuursorganen van de Unie waarvan de taken verband houden met artificiële intelligentie en de uitvoering van deze verordening;
l) driemaandelijks overleg organiseren met het adviesforum en, in voorkomend geval, openbare raadplegingen organiseren met andere belanghebbenden, en de resultaten van die raadplegingen openbaar maken op zijn website;
m) het brede publiek beter bekendmaken met en meer inzicht verschaffen in de voordelen, de risico’s, de waarborgen en de rechten en plichten in verband met het gebruik van AI-systemen;
n) de ontwikkeling bevorderen van gemeenschappelijke criteria en een gedeeld begrip tussen marktdeelnemers en bevoegde autoriteiten met betrekking tot de relevante concepten waarin deze verordening voorziet;
o) basismodellen monitoren en een regelmatige dialoog organiseren met ontwikkelaars van basismodellen met betrekking tot hun conformiteit, en de conformiteit van AI-systemen die van dergelijke AI-modellen gebruikmaken;
p) interpretatieve richtsnoeren verstrekken over de wijze waarop de AI-verordening van toepassing is op de steeds veranderende typologie van AI-waardeketens, en wat de daaruit voortvloeiende gevolgen voor de verantwoordingsplicht van alle betrokken entiteiten zullen zijn in de verschillende scenario’s op basis van de algemeen erkende stand van de techniek, onder meer zoals weergegeven in relevante geharmoniseerde normen;
q) voorzien in specifiek toezicht en specifieke monitoring, en een institutioneel karakter geven aan een regelmatige dialoog met de aanbieders van basismodellen over de conformiteit van basismodellen, en AI-systemen die van dergelijke AI-modellen gebruikmaken, met artikel 28 ter van deze verordening, en over beste praktijken van de sector op het gebied van zelfbestuur. Elk van deze bijeenkomsten staat open voor bijwoning door en bijdragen van nationale toezichthoudende autoriteiten, aangemelde instanties en markttoezichtautoriteiten;
r) richtsnoeren opstellen en regelmatig bijwerken over de drempels voor het kwalificeren van de training van een basismodel als een uitgebreide training, bekende gevallen van uitgebreide training registreren en monitoren, en jaarlijks een verslag uitbrengen over de stand van zaken met betrekking tot de ontwikkeling, de proliferatie en het gebruik van basismodellen, naast beleidsopties om de risico’s en kansen die eigen zijn aan basismodellen aan te pakken;
Amendement 530 Voorstel voor een verordening Artikel 56 quater (nieuw)
Artikel 56 quater
Verantwoordingsplicht, onafhankelijkheid en transparantie
1. Het AI-bureau:
a) legt verantwoording af aan het Europees Parlement en de Raad, overeenkomstig deze verordening;
b) handelt onafhankelijk bij de uitvoering van zijn taken en de uitoefening van zijn bevoegdheden; alsmede
c) zorgt voor een hoge mate van transparantie met betrekking tot zijn activiteiten en ontwikkelt in dit verband goede administratieve praktijken.
Verordening (EG) nr. 1049/2001 is van toepassing op de documenten die bij het AI-bureau berusten.
Amendement 531 Voorstel voor een verordening Artikel -57 bis (nieuw) – hoofdstuk 2 – titel
Titel
Afdeling 2: Raad van bestuur
Amendement 532 Voorstel voor een verordening Artikel -57 bis (nieuw)
Artikel -57 bis
Samenstelling van de raad van bestuur
1. De raad van bestuur is samengesteld uit de volgende leden:
a) één vertegenwoordiger van de nationale toezichthoudende autoriteit van elke lidstaat;
b) één vertegenwoordiger van de Commissie;
c) één vertegenwoordiger van de Europese Toezichthouder voor gegevensbescherming (EDPS);
d) één vertegenwoordiger van het Agentschap van de Europese Unie voor cyberbeveiliging (Enisa);
e) één vertegenwoordiger van het Bureau voor de grondrechten (FRA).
Elke vertegenwoordiger van een nationale toezichthoudende autoriteit heeft één stem. De vertegenwoordigers van de Commissie, de EDPS, Enisa en het FRA hebben geen stemrecht. Elk lid heeft een plaatsvervanger. Bij de benoeming van leden en plaatsvervangende leden van de raad van bestuur wordt rekening gehouden met de noodzaak van genderevenwicht. De namen van de leden van de raad van bestuur en hun plaatsvervangers worden openbaar gemaakt.
2. De leden en plaatsvervangende leden van de raad van bestuur bekleden geen posten en hebben geen commerciële belangen die een conflict opleveren met betrekking tot enig onderwerp dat verband houdt met de toepassing van deze verordening.
3. De regels voor de vergaderingen en stemmingen van de raad van bestuur en de benoeming en het ontslag van de uitvoerend directeur worden vastgelegd in het in artikel -57 ter, punt a), bedoelde reglement.
Amendement 533 Voorstel voor een verordening Artikel -57 ter (nieuw)
Artikel -57 ter
Functies van de raad van bestuur
1. De raad van bestuur heeft de volgende taken:
a) strategische besluiten nemen over de activiteiten van het AI-bureau en zijn reglement vaststellen met een tweederdemeerderheid van zijn leden;
b) zijn reglement ten uitvoer leggen;
c) het ene programmeringsdocument van het AI-bureau en zijn jaarlijkse openbare verslag vaststellen en zowel aan het Europees Parlement als aan de Raad, de Commissie en de Rekenkamer toezenden;
d) de begroting van het AI-bureau vaststellen;
e) de uitvoerend directeur benoemen en, indien van toepassing, zijn of haar ambtstermijn verlengen of inkorten of hem of haar uit de functie ontheffen;
f) besluiten nemen over de oprichting van de interne structuren van het AI-bureau en, indien nodig, over de wijziging van de interne structuren die nodig zijn voor de uitvoering van de taken van het AI-bureau;
Amendement 534 Voorstel voor een verordening Artikel -57 quater (nieuw)
Artikel -57 quater
Voorzitterschap van de raad van bestuur
1. De raad van bestuur kiest met gewone meerderheid een voorzitter en twee vicevoorzitters uit zijn stemgerechtigde leden.
2. De ambtstermijn van de voorzitter en de vicevoorzitters bedraagt vier jaar. De ambtstermijn van de voorzitter en de vicevoorzitters kan eenmaal worden verlengd.
Amendement 535 Voorstel voor een verordening Artikel 57 – titel
Structuur van het Comité
Secretariaat
Amendement 536 Voorstel voor een verordening Artikel 57 – lid 1
1. Het Comité is samengesteld uit de nationale toezichthoudende autoriteiten, die worden vertegenwoordigd door het hoofd of een gelijkwaardige hoge ambtenaar van die autoriteit, en de Europese Toezichthouder voor gegevensbescherming.Andere nationale autoriteiten kunnen voor de vergaderingen worden uitgenodigd, wanneer de besproken kwesties relevant zijn voor hen.
1. De activiteiten van het secretariaat worden beheerd door een uitvoerend directeur. De uitvoerend directeur legt verantwoording af aan de raad van bestuur. Onverminderd de respectieve bevoegdheden van de raad van bestuur en de instellingen van de Unie vraagt noch aanvaardt de uitvoerend directeur instructies van een regering of een andere instantie.
Amendement 537 Voorstel voor een verordening Artikel 57 – lid 2
2. Het Comité stelt zijn reglement bij eenvoudige meerderheid van zijn leden vast, na goedkeuring door de Commissie. Het reglement bevat ook de operationele aspecten ten aanzien van de uitvoering van de taken van het Comité als vermeld in artikel 58.Het Comité kan in voorkomend geval subgroepen oprichten om specifieke kwesties te onderzoeken.
2. De uitvoerend directeur woont hoorzittingen bij over alle aangelegenheden die verband houden met de activiteiten van het AI-bureau en brengt op verzoek van het Europees Parlement of de Raad verslag uit over de uitvoering van de taken van de uitvoerend directeur.
Amendement 538 Voorstel voor een verordening Artikel 57 – lid 3
3. Het Comité wordt voorgezeten door de Commissie. De Commissie roept de vergaderingen bijeen en stelt de agenda op overeenkomstig de taken van het Comité krachtens deze verordening en overeenkomstig zijn reglement. De Commissie biedt administratieve en analytische steun voor de activiteiten van het Comité krachtens deze verordening.
3. De uitvoerend directeur vertegenwoordigt het AI-bureau, onder meer in internationale fora voor samenwerking met betrekking tot artificiële intelligentie.
Amendement 539 Voorstel voor een verordening Artikel 57 – lid 4
4. Het Comité kan externe deskundigen en waarnemers uitnodigen om zijn vergaderingen bij te wonen en kan besprekingen houden met belanghebbende derden om in passende mate informatie te verstrekken over zijn activiteiten. Hiertoe kan de Commissie uitwisseling van informatie tussen het Comité en andere instanties, bureaus, agentschappen en adviesgroepen van de Unie bevorderen.
4. Het secretariaat verstrekt de raad van bestuur en het adviesforum de analytische, administratieve en logistieke ondersteuning die nodig is om de taken van het AI-bureau uit te voeren, onder meer door:
a) de besluiten, programma’s en activiteiten uit te voeren die door de raad van bestuur zijn vastgesteld;
b) elk jaar het ontwerp van het ene programmeringsdocument, de ontwerpbegroting, het jaarlijkse activiteitenverslag over het AI-bureau, de ontwerpadviezen en de ontwerpstandpunten van het AI-bureau op te stellen en aan de raad van bestuur voor te leggen;
c) samen te werken met internationale fora voor samenwerking op het gebied van artificiële intelligentie.
Amendement 540 Voorstel voor een verordening Artikel 58 – titel
Taken van het Comité
Adviesforum
Amendement 541 Voorstel voor een verordening Artikel 58 – lid 1 – inleidende formule
Bij het verstrekken van advies en bijstand aan de Commissie in het kader van artikel 56, lid 2, heeft het Comité met name de volgende taken:
Het adviesforum biedt het AI-bureau input van belanghebbenden in aangelegenheden die verband houden met deze verordening, met name met betrekking tot de in artikel 56 ter, punt l), vermelde taken.
Amendement 542 Voorstel voor een verordening Artikel 58 – alinea 1 bis (nieuw)
De samenstelling van het adviesforum vertegenwoordigt een evenwichtige selectie van belanghebbenden, waaronder het bedrijfsleven, start-ups, kmo’s, het maatschappelijk middenveld, de sociale partners en de academische wereld. Bij de samenstelling van het adviesforum wordt een evenwicht in acht genomen tussen commerciële en niet-commerciële belangen en, binnen de categorie commerciële belangen, tussen kmo’s en andere ondernemingen.
Amendement 543 Voorstel voor een verordening Artikel 58 – alinea 1 ter (nieuw)
De raad van bestuur benoemt de leden van het adviesforum volgens de in het reglement van het AI-bureau vastgestelde selectieprocedure, rekening houdend met de behoefte aan transparantie, en op basis van de criteria in lid 2.
Amendement 544 Voorstel voor een verordening Artikel 58 – alinea 1 quater (nieuw)
De ambtstermijn van de leden van het adviesforum bedraagt twee jaar en kan maximaal met vier jaar worden verlengd.
Amendement 545 Voorstel voor een verordening Artikel 58 – alinea 1 quinquies (nieuw)
Het Europees Comité voor Normalisatie (CEN), het Europees Comité voor elektrotechnische normalisatie (CENELEC) en het Europees Instituut voor telecommunicatienormen (ETSI) zijn permanente leden van het adviesforum. Het Gemeenschappelijk Centrum voor Onderzoek is permanent lid, zonder stemrecht.
Amendement 546 Voorstel voor een verordening Artikel 58 – alinea 1 sexies (nieuw)
Het adviesforum stelt zijn reglement vast. Het kiest uit zijn leden twee covoorzitters, op basis van de criteria in lid 2. De ambtstermijn van de covoorzitters bedraagt twee jaar en kan één keer worden verlengd.
Amendement 547 Voorstel voor een verordening Artikel 58 – alinea 1 septies (nieuw)
Het adviesforum belegt minstens vier keer per jaar een vergadering. Het adviesforum kan deskundigen en andere belanghebbenden uitnodigen om zijn vergaderingen bij te wonen. De uitvoerend directeur kan ambtshalve de vergaderingen van het adviesforum bijwonen.
Amendement 548 Voorstel voor een verordening Artikel 58 – alinea 1 octies (nieuw)
Bij de uitvoering van zijn in lid 1 omschreven rol kan het adviesforum adviezen, aanbevelingen en schriftelijke bijdragen opstellen.
Amendement 549 Voorstel voor een verordening Artikel 58 – alinea 1 nonies (nieuw)
Het adviesforum kan in voorkomend geval permanente of tijdelijke subgroepen oprichten om specifieke vraagstukken met betrekking tot de doelstellingen van deze verordening te onderzoeken.
Amendement 550 Voorstel voor een verordening Artikel 58 – alinea1 decies (nieuw)
Het adviesforum stelt een jaarverslag van zijn activiteiten op. Dat verslag wordt openbaar gemaakt.
Amendement 551 Voorstel voor een verordening Artikel 58 bis (nieuw) – titel
Europese autoriteiten op het gebied van benchmarking
Amendement 552 Voorstel voor een verordening Artikel 58 bis (nieuw)
Artikel 58 bis
Benchmarking
De in artikel 15, lid 1 bis, bedoelde Europese autoriteiten op het gebied van benchmarking en het AI-bureau ontwikkelen gezamenlijk, in nauwe samenwerking met internationale partners, kosteneffectieve richtsnoeren en capaciteiten voor het meten en benchmarken van aspecten van AI-systemen en AI-componenten, met name van basismodellen die relevant zijn voor de naleving en handhaving van deze verordening op basis van de algemeen erkende stand van de techniek, onder meer zoals weerspiegeld in relevante geharmoniseerde normen.
Amendement 553 Voorstel voor een verordening Artikel 59 - titel
Aanwijzing van nationale bevoegde autoriteiten
Aanwijzing van nationale toezichthoudende autoriteiten
Amendement 554 Voorstel voor een verordening Artikel 59 – lid 1
1. Nationale bevoegde autoriteiten worden door elke lidstaat opgericht of aangewezen met het oog op het waarborgen van de toepassing en uitvoering van deze verordening.Nationale bevoegde autoriteiten worden zodanig georganiseerd dat de objectiviteit en onpartijdigheid van hun activiteiten en taken gewaarborgd zijn.
1. Elke lidstaat wijst één nationale toezichthoudende autoriteit aan, en deze wordt zodanig georganiseerd dat de objectiviteit en onpartijdigheid van haar activiteiten en taken uiterlijk [drie maanden na de datum van inwerkingtreding van deze verordening] gewaarborgd zijn.
Amendement 555 Voorstel voor een verordening Artikel 59 – lid 2
2. Elke lidstaat wijst een nationale toezichthoudende autoriteit onder de nationale bevoegde autoriteiten aan. De nationale toezichthoudende autoriteit treedt op als aanmeldende instantie en markttoezichtautoriteit tenzij een lidstaat organisatorische en administratieve redenen heeft om meer dan één autoriteit aan te wijzen.
2. De nationale toezichthoudende autoriteit zorgt voor de toepassing en uitvoering van deze verordening. Voor AI-systemen met een hoog risico, met betrekking tot producten waarop in bijlage II, deel A, vermelde rechtshandelingen van toepassing zijn, blijven de krachtens die rechtshandelingen aangewezen bevoegde autoriteiten de administratieve procedures leiden. Voor zover een geval betrekking heeft op aspecten die uitsluitend onder deze verordening vallen, zijn die bevoegde autoriteiten echter gebonden aan de aan die aspecten gerelateerde maatregelen die zijn uitgevaardigd door de krachtens deze verordening aangewezen nationale toezichthoudende autoriteit.De nationale toezichthoudende autoriteit treedt op als markttoezichtautoriteit.
Amendement 556 Voorstel voor een verordening Artikel 59 – lid 3
3. De lidstaten stellen de Commissie in kennis van hun aanwijzing(en) en, in voorkomend geval, van de redenen om meer dan één autoriteit aan te wijzen.
3. De nationale toezichthoudende autoriteit en informatie over hoe hiermee contact kan worden opgenomen worden uiterlijk [drie maanden na de datum van inwerkingtreding van deze verordening] door de lidstaten openbaar gemaakt en meegedeeld aan het AI-bureau en de Commissie. De nationale toezichthoudende autoriteit fungeert als enig contactpunt voor deze verordening en moet bereikbaar zijn via elektronische communicatiemiddelen.
Amendement 557 Voorstel voor een verordening Artikel 59 – lid 4
4. De lidstaten zorgen ervoor dat nationale bevoegde autoriteiten over voldoende financiële en personele middelen beschikken om hun taken krachtens deze verordening uit te voeren. Nationale bevoegde autoriteiten beschikken met name over voldoende permanent beschikbaar personeel waarvan de bekwaamheid en expertise bestaat uit een grondig inzicht in artificiële-intelligentietechnologieën, gegevens en gegevensverwerking, grondrechten, gezondheids- en veiligheidsrisico’s en kennis van bestaande normen en wettelijke eisen.
4. De lidstaten zorgen ervoor dat de nationale toezichthoudende autoriteit over voldoende technische, financiële en personele middelen en over passende infrastructuur beschikt om haar taken krachtens deze verordening effectief uit te voeren. De nationale toezichthoudende autoriteit beschikt met name over voldoende permanent beschikbaar personeel waarvan de bekwaamheid en expertise bestaat uit een grondig inzicht in artificiële-intelligentietechnologieën, gegevens en gegevensverwerking, bescherming van persoonsgegevens, cyberbeveiliging, mededingingsrecht, grondrechten, gezondheids- en veiligheidsrisico’s en kennis van bestaande normen en wettelijke eisen. De lidstaten beoordelen en, indien dit nodig wordt geacht, actualiseren de in dit lid bedoelde benodigde competenties en middelen jaarlijks.
Amendement 558 Voorstel voor een verordening Artikel 59 – lid 4 bis (nieuw)
4 bis. Elke nationale toezichthoudende autoriteit handelt bij het uitoefenen van haar bevoegdheden en het vervullen van haar verplichtingen op onafhankelijke, onpartijdige en onbevooroordeelde wijze. Bij de uitvoering van hun taken en de uitoefening van hun bevoegdheden krachtens deze verordening vragen noch aanvaarden de leden van elke nationale toezichthoudende autoriteit instructies van enig orgaan en verrichten zij geen handelingen die onverenigbaar zijn met hun taken.
Amendement 559 Voorstel voor een verordening Artikel 59 – lid 4 ter (nieuw)
4 ter. De nationale toezichthoudende autoriteiten voldoen aan de minimale cyberbeveiligingseisen die zijn vastgesteld voor overheidsdiensten die zijn aangemerkt als aanbieders van essentiële diensten overeenkomstig Richtlijn (EU) 2022/2555.
Amendement 560 Voorstel voor een verordening Artikel 59 – lid 4 quater (nieuw)
4 quater. Bij de uitvoering van haar taken eerbiedigt de nationale toezichthoudende autoriteit de in artikel 70 vastgelegde geheimhoudingsverplichtingen.
Amendement 561 Voorstel voor een verordening Artikel 59 – lid 5
5. De lidstaten brengen jaarlijks verslag uit aan de Commissie over de status van de financiële en personele middelen van de nationale bevoegde autoriteiten met een beoordeling van de toereikendheid ervan. De Commissie bezorgt die informatie ter bespreking en voor mogelijke aanbevelingen aan het Comité.
5. De lidstaten brengen jaarlijks verslag uit aan de Commissie over de status van de financiële en personele middelen van de nationale toezichthoudende autoriteit met een beoordeling van de toereikendheid ervan. De Commissie bezorgt die informatie ter bespreking en voor mogelijke aanbevelingen aan het AI-bureau.
Amendement 562 Voorstel voor een verordening Artikel 59 – lid 6
6. De Commissie bevordert de uitwisseling van ervaringen tussen de nationale bevoegde autoriteiten.
Schrappen
Amendement 563 Voorstel voor een verordening Artikel 59 – lid 7
7. Nationale bevoegde autoriteiten kunnen begeleiding bij en advies over de uitvoering van deze verordening verstrekken, ook aan kleine aanbieders. Wanneer nationale bevoegde autoriteiten van plan zijn te voorzien in begeleiding en advies ten aanzien van een AI-systeem op gebieden die onder andere Uniewetgeving vallen, worden in voorkomend geval de nationale bevoegde autoriteiten onder die Uniewetgeving geraadpleegd.De lidstaten kunnen ook één centraal contactpunt voor communicatie met exploitanten opzetten.
7. Nationale toezichthoudende autoriteiten kunnen begeleiding bij en advies over de uitvoering van deze verordening verstrekken, ook aan kmo’s en start-ups, rekening houdend met de richtsnoeren en het advies van het AI-bureau of de Commissie. Wanneer de nationale toezichthoudende autoriteit van plan is te voorzien in begeleiding en advies ten aanzien van een AI-systeem op gebieden die onder andere Uniewetgeving vallen, wordt de begeleiding in voorkomend geval opgesteld in overleg met de nationale bevoegde autoriteiten onder die Uniewetgeving.
Amendement 564 Voorstel voor een verordening Artikel 59 – lid 8
8. Wanneer instellingen, agentschappen en instanties van de Unie binnen het toepassingsgebied van deze verordening vallen, treedt de Europese Toezichthouder voor gegevensbescherming op als de bevoegde autoriteit voor het toezicht daarop.
8. Wanneer instellingen, agentschappen en instanties van de Unie binnen het toepassingsgebied van deze verordening vallen, treedt de Europese Toezichthouder voor gegevensbescherming op als de bevoegde autoriteit voor het toezicht daarop en de coördinatie daarvan.
Amendement 565 Voorstel voor een verordening Artikel 59 bis (nieuw)
Artikel 59 bis
Samenwerkingsmechanisme tussen de nationale toezichthoudende autoriteiten in gevallen waarbij twee of meer lidstaten betrokken zijn
1. Elke nationale toezichthoudende autoriteit voert de haar overeenkomstig deze verordening toegewezen taken uit en oefent de haar overeenkomstig deze verordening toegekende bevoegdheden uit op het grondgebied van haar lidstaat.
2. Indien er twee of meer nationale toezichthoudende autoriteiten bij een geval betrokken zijn, wordt de nationale toezichthoudende autoriteit van de lidstaat waar de inbreuk heeft plaatsgehad, beschouwd als de leidende toezichthoudende autoriteit.
3. In de in lid 2 bedoelde gevallen werken de betrokken toezichthoudende autoriteiten samen en wisselen zij tijdig alle relevante informatie uit. De nationale toezichthoudende autoriteiten werken samen om tot een consensus te komen.
Amendement 566 Voorstel voor een verordening Titel VII
VII EU-DATABANK VOOR AUTONOME AI-SYSTEMEN MET EEN HOOG RISICO
EU-DATABANK VOOR AI-SYSTEMEN MET EEN HOOG RISICO
Amendement 567 Voorstel voor een verordening Artikel 60 - titel
EU-databank voor autonome AI-systemen met een hoog risico
EU-databank voor AI-systemen met een hoog risico
Amendement 568 Voorstel voor een verordening Artikel 60 – lid 1
1. De Commissie zorgt in samenwerking met de lidstaten voor het opzetten en onderhouden van een EU-databank met informatie als bedoeld in lid 2 betreffende AI-systemen met een hoog risico als bedoeld in artikel 6, lid 2, die overeenkomstig artikel 51 zijn geregistreerd.
1. De Commissie zorgt in samenwerking met de lidstaten voor het opzetten en onderhouden van een publieke EU-databank met informatie als bedoeld in de leden 2 en 2 bis betreffende AI-systemen met een hoog risico als bedoeld in artikel 6, lid 2, die overeenkomstig artikel 51 zijn geregistreerd.
Amendement 569 Voorstel voor een verordening Artikel 60 – lid 2
2. De in bijlage VIII vermelde data worden door de aanbieders in de EU-databank ingevoerd.De Commissie geeft hun technische en administratieve ondersteuning.
2. De in bijlage VIII, deel A, vermelde data worden in de EU-databank ingevoerd door de aanbieders.
Amendement 570 Voorstel voor een verordening Artikel 60 – lid 2 bis (nieuw)
2 bis. De in bijlage VIII, deel B, vermelde data worden in de EU-databank ingevoerd door exploitanten die overheidsinstanties of instellingen, organen of instanties van de Unie zijn of namens hen optreden en door exploitanten die ondernemingen zijn als bedoeld in artikel 51, leden 1 bis en 1 ter.
Amendement 571 Voorstel voor een verordening Artikel 60 – lid 3
3. De informatie in de EU-databank is toegankelijk voor het publiek.
3. De informatie in de EU-databank is vrij beschikbaar voor het publiek, gebruiksvriendelijk en toegankelijk, gemakkelijk navigeerbaar en machineleesbaar, en bevat gestructureerde digitale gegevens op basis van een gestandaardiseerd protocol.
Amendement 572 Voorstel voor een verordening Artikel 60 – lid 4
4. De EU-databank bevat alleen persoonsgegevens voor zover die nodig zijn voor het verzamelen en verwerken van informatie overeenkomstig deze verordening. Deze informatie bevat de namen en contactgegevens van natuurlijke personen die verantwoordelijk zijn voor de registratie van het systeem en wettelijk gemachtigd zijn de aanbieder te vertegenwoordigen.
4. De EU-databank bevat alleen persoonsgegevens voor zover die nodig zijn voor het verzamelen en verwerken van informatie overeenkomstig deze verordening. Deze informatie bevat de namen en contactgegevens van natuurlijke personen die verantwoordelijk zijn voor de registratie van het systeem en wettelijk gemachtigd zijn de aanbieder of de exploitant die een overheidsinstantie of een instelling, orgaan of instantie van de Unie is of namens deze optreedt, of een exploitant die een onderneming is als bedoeld in artikel 51, leden 1 bis, punt b), en 1 ter, te vertegenwoordigen.
Amendement 573 Voorstel voor een verordening Artikel 60 – lid 5
5. De Commissie is voor de EU-databank de verantwoordelijke voor de verwerking. Zij biedt aanbieders ook adequate technische en administratieve ondersteuning.
5. De Commissie is voor de EU-databank de verantwoordelijke voor de verwerking. Zij biedt aanbieders en exploitanten ook adequate technische en administratieve ondersteuning.
De databank voldoet aan de toegankelijkheidsvoorschriften van bijlage I bij Richtlijn (EU) 2019/882.
Amendement 574 Voorstel voor een verordening Artikel 61 – lid 2
2. Het systeem voor monitoring na het in de handel brengen verzamelt, documenteert en analyseert actief en systematisch door gebruikers verstrekte of via andere bronnen verzamelde relevante data over de prestaties van AI-systemen met een hoog risico gedurende hun hele levensduur, en stelt de aanbieder in staat na te gaan of AI-systemen blijvend voldoen aan de in titel III, hoofdstuk 2, beschreven voorschriften.
2. Het systeem voor monitoring na het in de handel brengen verzamelt, documenteert en analyseert actief en systematisch door exploitanten verstrekte of via andere bronnen verzamelde relevante data over de prestaties van AI-systemen met een hoog risico gedurende hun hele levensduur, en stelt de aanbieder in staat na te gaan of AI-systemen blijvend voldoen aan de in titel III, hoofdstuk 2, beschreven voorschriften. In voorkomend geval wordt in het kader van de monitoring na het in de handel brengen een analyse uitgevoerd van de interactie met andere omgevingen waarin AI-systemen worden gebruikt, waaronder andere apparaten en software, rekening houdend met de regels die van toepassing zijn op gebieden zoals gegevensbescherming, intellectuele-eigendomsrechten en mededingingsrecht.
Amendement 575 Voorstel voor een verordening Artikel 61 – lid 3
3. Het systeem voor monitoring na het in de handel brengen is gebaseerd op een plan voor monitoring na het in de handel brengen. Het plan voor monitoring na het in de handel brengen maakt deel uit van de in bijlage IV bedoelde technische documentatie. De Commissie stelt een uitvoeringshandeling vast met daarin gedetailleerde bepalingen voor de opstelling van een model voor het plan voor monitoring na het in de handel brengen en de lijst van elementen die in het plan moeten worden opgenomen.
3. Het systeem voor monitoring na het in de handel brengen is gebaseerd op een plan voor monitoring na het in de handel brengen. Het plan voor monitoring na het in de handel brengen maakt deel uit van de in bijlage IV bedoelde technische documentatie. De Commissie stelt uiterlijk [twaalf maanden na de datum van inwerkingtreding van deze verordening] een uitvoeringshandeling vast met daarin gedetailleerde bepalingen voor de opstelling van een model voor het plan voor monitoring na het in de handel brengen en de lijst van elementen die in het plan moeten worden opgenomen.
Amendement 576 Voorstel voor een verordening Artikel 62 – titel
Melding van ernstige incidenten en van storingen
Melding van ernstige incidenten
Amendement 577 Voorstel voor een verordening Artikel 62 – lid 1 – alinea 1
1. Aanbieders van in de Unie in de handel gebrachte AI-systemen met een hoog risico melden ernstige incidenten met of storingen van die systemen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden, aan de markttoezichtautoriteiten van de lidstaten waar dat incident of die niet-nakoming plaatsvond.
1. Aanbieders en, indien exploitanten een ernstig incident hebben vastgesteld, exploitanten van in de Unie in de handel gebrachte AI-systemen met een hoog risico melden ernstige incidenten met of storingen van die systemen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden, aan de nationale toezichthoudende autoriteiten van de lidstaten waar dat incident of die niet-nakoming plaatsvond.
Amendement 578 Voorstel voor een verordening Artikel 62 – lid 1 – alinea 2
Een dergelijke melding vindt plaats onmiddellijk nadat de aanbieder een oorzakelijk verband tussen het AI-systeem en het incident of de storing of de redelijke waarschijnlijkheid van een dergelijk verband heeft vastgesteld en in ieder geval uiterlijk 15 dagen nadat de aanbieder zich bewust wordt van het ernstige incident of de storing.
Een dergelijke melding vindt plaats zo snel mogelijk nadat de aanbieder of, in voorkomend geval, de exploitant een oorzakelijk verband tussen het AI-systeem en het incident of de redelijke waarschijnlijkheid van een dergelijk verband heeft vastgesteld en in ieder geval uiterlijk 72 uur nadat de aanbieder of, in voorkomend geval, de exploitant zich bewust wordt van het ernstige incident.
Amendement 579 Voorstel voor een verordening Artikel 62 – lid 1 bis (nieuw)
1 bis. Wanneer aanbieders een oorzakelijk verband tussen het AI-systeem en het ernstige incident of de redelijke waarschijnlijkheid van een dergelijk verband vaststellen, nemen zij passende corrigerende maatregelen overeenkomstig artikel 21.
Amendement 580 Voorstel voor een verordening Artikel 62 – lid 2
2. Na ontvangst van een melding met betrekking tot een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten stelt de markttoezichtautoriteit de in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen in kennis. De Commissie ontwikkelt specifieke richtsnoeren om nakoming van de in lid 1 vermelde verplichtingen te vergemakkelijken. Die richtsnoeren worden uiterlijk twaalf maanden na de inwerkingtreding van deze verordening uitgevaardigd.
2. Na ontvangst van een melding met betrekking tot een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten stelt de nationale toezichthoudende autoriteit de in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen in kennis. De Commissie ontwikkelt specifieke richtsnoeren om nakoming van de in lid 1 vermelde verplichtingen te vergemakkelijken. Die richtsnoeren worden uiterlijk op ... [datum inwerkingtreding van deze verordening] uitgevaardigd en worden regelmatig geëvalueerd.
Amendement 581 Voorstel voor een verordening Artikel 62 – lid 2 bis (nieuw)
2 bis. De nationale toezichthoudende autoriteit neemt binnen 7 dagen na ontvangst van de in lid 1 bedoelde melding passende maatregelen. Wanneer de inbreuk plaatsvindt of waarschijnlijk plaatsvindt in andere lidstaten, meldt de nationale toezichthoudende autoriteit dit aan het AI-bureau en de relevante nationale bevoegde autoriteiten van deze lidstaten.
Amendement 582 Voorstel voor een verordening Artikel 62 – lid 3
3. Voor in punt 5, b), van bijlage III vermelde AI-systemen met een hoog risico die in de handel zijn gebracht of in bedrijf zijn gesteld door onder Richtlijn 2013/36/EU vallende kredietinstellingen en voor AI-systemen met een hoog risico die veiligheidscomponenten van apparaten zijn, of die zelf apparaten zijn, als bedoeld in Verordening (EU) 2017/745 en Verordening (EU) 2017/746, is de melding van ernstige incidenten of van storingen beperkt tot incidenten en storingen die een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten inhouden.
3. Voor in bijlage III vermelde AI-systemen met een hoog risico die in de handel zijn gebracht of in bedrijf zijn gesteld door aanbieders die onderworpen zijn aan wetgevingsinstrumenten van de Unie met daarin meldingsverplichtingen die gelijkwaardig zijn aan de in deze verordening vervatte meldingsverplichtingen, wordt de melding van ernstige incidenten die een schending van de grondrechten inhouden als bedoeld in het Unierecht doorgegeven aan de nationale toezichthoudende autoriteit.
Amendement 583 Voorstel voor een verordening Artikel 62 – lid 3 bis (nieuw)
3 bis. De nationale toezichthoudende autoriteiten stellen het AI-bureau jaarlijks in kennis van de ernstige incidenten die overeenkomstig dit artikel aan hen zijn gemeld.
Amendement 584 Voorstel voor een verordening Artikel 63 – lid 1 – inleidende formule
1. Verordening (EU) 2019/1020 is van toepassing op AI-systemen die onder deze verordening vallen. Voor de doeltreffende handhaving van deze verordening geldt echter het volgende:
1. Verordening (EU) 2019/1020 is van toepassing op AI-systemen en basismodellen die onder deze verordening vallen. Voor de doeltreffende handhaving van deze verordening geldt echter het volgende:
Amendement 585 Voorstel voor een verordening Artikel 63 – lid 1 – punt b bis (nieuw)
b bis) de nationale toezichthoudende autoriteiten treden op als markttoezichtautoriteiten als bedoeld in deze verordening en hebben dezelfde bevoegdheden en verplichtingen als markttoezichtautoriteiten als bedoeld in Verordening (EU) 2019/1020.
Amendement 586 Voorstel voor een verordening Artikel 63 – lid 2
2. De nationale toezichthoudende autoriteit brengt aan de Commissie regelmatig verslag uit over de resultaten van relevante markttoezichtactiviteiten. De nationale toezichthoudende autoriteit stelt de Commissie en relevante nationale mededingingsautoriteiten onverwijld in kennis van eventuele tijdens markttoezichtactiviteiten verkregen informatie die van potentieel belang kan zijn voor de toepassing van het Unierecht op mededingingsregels.
2. De nationale toezichthoudende autoriteit brengt jaarlijks aan de Commissie en het AI-bureau verslag uit over de resultaten van relevante markttoezichtactiviteiten. De nationale toezichthoudende autoriteit stelt de Commissie en relevante nationale mededingingsautoriteiten onverwijld in kennis van eventuele tijdens markttoezichtactiviteiten verkregen informatie die van potentieel belang kan zijn voor de toepassing van het Unierecht op mededingingsregels.
Amendement 587 Voorstel voor een verordening Artikel 63 – lid 3 bis (nieuw)
3 bis. Om een doeltreffende handhaving van deze verordening te waarborgen kunnen de nationale toezichthoudende autoriteiten:
a) onaangekondigde inspecties ter plaatse en op afstand uitvoeren met betrekking tot AI-systemen met een hoog risico;
b) monsters vergaren met betrekking tot AI-systemen met een hoog risico, onder meer door inspecties op afstand uit te voeren, om de AI-systemen te onderwerpen aan reverse-engineering en om bewijs van non-conformiteit te verkrijgen.
Amendement 588 Voorstel voor een verordening Artikel 63 – lid 5
5. Voor in lid 1, punt a), genoemde AI-systemen, voor zover de systemen voor rechtshandhavingsdoeleinden worden gebruikt volgens de punten 6 en 7 van bijlage III, wijzen de lidstaten als markttoezichtautoriteiten voor de toepassing van deze verordening hetzij de bevoegde toezichthoudende autoriteiten inzake gegevensbescherming krachtens Richtlijn (EU) 2016/680 of Verordening 2016/679 aan, hetzij de nationale bevoegde autoriteiten die toezicht houden op de activiteiten van de rechtshandhavings-, immigratie- of asielautoriteiten die deze systemen in bedrijf stellen of gebruiken.
5. Voor AI-systemen die voor rechtshandhavingsdoeleinden worden gebruikt wijzen de lidstaten als markttoezichtautoriteiten voor de toepassing van deze verordening de bevoegde toezichthoudende autoriteiten inzake gegevensbescherming krachtens Richtlijn(EU)2016/680 aan.
Amendement 589 Voorstel voor een verordening Artikel 63 – lid 7
7. De lidstaten vergemakkelijken de coördinatie tussen krachtens deze verordening aangewezen markttoezichtautoriteiten en andere relevante nationale autoriteiten of instanties die toezicht houden op de toepassing van in bijlage II vermelde harmonisatiewetgeving van de Unie of andere Uniewetgeving die relevant kan zijn voor de AI-systemen met een hoog risico als bedoeld in bijlage III.
7. De krachtens deze verordening aangewezen nationale toezichthoudende autoriteiten werken samen andere relevante nationale autoriteiten of instanties die toezicht houden op de toepassing van in bijlage II vermelde harmonisatiewetgeving van de Unie of ander Unierecht dat relevant kan zijn voor de AI-systemen met een hoog risico als bedoeld in bijlage III.
Amendement 590 Voorstel voor een verordening Artikel 64 – lid 1
1. In de context van hun activiteiten wordt de markttoezichtautoriteiten volledige toegang verleend tot de door de aanbieder gebruikte datareeksen voor trainings-, validatie- en testdoeleinden, onder meer via applicatieprogramma-interfaces (API’s) of andere passende technische middelen en instrumenten die toegang op afstand mogelijk maken.
1. In de context van hun activiteiten en op hun met redenen omkleed verzoek wordt de nationale toezichthoudende autoriteiten volledige toegang verleend tot de door de aanbieder of, in voorkomend geval, de exploitant gebruikte datareeksen voor trainings-, validatie- en testdoeleinden, die relevant en strikt noodzakelijk zijn met het oog op hun verzoek, via passende technische middelen en instrumenten.
Amendement 591 Voorstel voor een verordening Artikel 64 – lid 2
2. Indien dit nodig is om de overeenstemming van het AI-systeem met een hoog risico met de in titel III, hoofdstuk 2, beschreven voorschriften te beoordelen, wordt de markttoezichtautoriteiten na een met redenen omkleed verzoek toegang verleend tot de broncode van het AI-systeem.
2. Indien dit nodig is om de overeenstemming van het AI-systeem met een hoog risico met de in titel III, hoofdstuk 2, beschreven voorschriften te beoordelen, nadat alle andere redelijke manieren om de conformiteit te verifiëren, waaronder toepassing van lid 1, zijn uitgeput of ontoereikend zijn gebleken, wordt de nationale toezichthoudende autoriteiten na een met redenen omkleed verzoek toegang verleend tot de trainings- en getrainde modellen van het AI-systeem, met inbegrip van de relevante modelparameters ervan. Alle overeenkomstig artikel 70 verkregen informatie wordt behandeld als vertrouwelijke informatie, is onderworpen aan het bestaande Unierecht inzake de bescherming van intellectuele eigendom en bedrijfsgeheimen en wordt gewist na voltooiing van het onderzoek in verband waarmee om de informatie is verzocht.
Amendement 592 Voorstel voor een verordening Artikel 64 – lid 2 bis (nieuw)
2 bis. De leden 1 en 2 doen geen afbreuk aan de procedurele rechten van de betrokken operator overeenkomstig artikel 18 van Verordening (EU) 2019/1020.
Amendement 593 Voorstel voor een verordening Artikel 64 – lid 3
3. Nationale overheidsinstanties of -organen die de nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten met betrekking tot het gebruik van AI-systemen met een hoog risico als bedoeld in bijlage III controleren of handhaven, zijn bevoegd om krachtens deze verordening opgestelde of bijgehouden documentatie aan te vragen en in te zien wanneer toegang tot die documentatie nodig is voor de uitoefening van de bevoegdheden onder hun mandaat binnen de grenzen van hun rechtsgebied. De relevante overheidsinstantie of het relevante overheidsorgaan stelt de markttoezichtautoriteit van de betrokken lidstaat van een dergelijke aanvraag in kennis.
3. Nationale overheidsinstanties of -organen die de nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten met betrekking tot het gebruik van AI-systemen met een hoog risico als bedoeld in bijlage III controleren of handhaven, zijn bevoegd om krachtens deze verordening opgestelde of bijgehouden documentatie aan te vragen en in te zien wanneer toegang tot die documentatie nodig is voor de uitoefening van de bevoegdheden onder hun mandaat binnen de grenzen van hun rechtsgebied. De relevante overheidsinstantie of het relevante overheidsorgaan stelt de nationale toezichthoudende autoriteit van de betrokken lidstaat van een dergelijke aanvraag in kennis.
Amendement 594 Voorstel voor een verordening Artikel 64 – lid 4
4. Uiterlijk drie maanden na de inwerkingtreding van deze verordening moet elke lidstaat de in lid 3 bedoelde overheidsinstanties of -organen identificeren en een lijst openbaar maken op de website van de nationale toezichthoudende autoriteit. De lidstaten stellen de Commissie en alle andere lidstaten in kennis van de lijst en houden deze up-to-date.
4. Uiterlijk drie maanden na de inwerkingtreding van deze verordening moet elke lidstaat de in lid 3 bedoelde overheidsinstanties of -organen identificeren en een lijst openbaar maken op de website van de nationale toezichthoudende autoriteit. De nationale toezichthoudende autoriteiten stellen de Commissie, het AI-bureau en alle andere nationale toezichthoudende autoriteiten in kennis van de lijst en houden deze up-to-date. De Commissie maakt op een speciale website de lijst bekend met alle overeenkomstig dit artikel door de lidstaten aangewezen bevoegde autoriteiten.
Amendement 595 Voorstel voor een verordening Artikel 64 – lid 5
5. Indien de in lid 3 bedoelde documentatie ontoereikend is om vast te stellen of sprake is geweest van een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten, kunnen de in lid 3 bedoelde overheidsinstanties of -organen een met redenen omkleed verzoek bij de markttoezichtautoriteit indienen om over te gaan tot het testen van het AI-systeem met een hoog risico met technische middelen. De markttoezichtautoriteit organiseert de testprocedure binnen een redelijke termijn na het verzoek en met nauwe betrokkenheid van de verzoekende overheidsinstantie of het verzoekende overheidsorgaan.
5. Indien de in lid 3 bedoelde documentatie ontoereikend is om vast te stellen of sprake is geweest van een niet-nakoming van verplichtingen krachtens Unierecht ter bescherming van grondrechten, kunnen de in lid 3 bedoelde overheidsinstanties of -organen een met redenen omkleed verzoek bij de nationale toezichthoudende autoriteit indienen om over te gaan tot het testen van het AI-systeem met een hoog risico met technische middelen. De nationale toezichthoudende autoriteit organiseert de testprocedure binnen een redelijke termijn na het verzoek en met nauwe betrokkenheid van de verzoekende overheidsinstantie of het verzoekende overheidsorgaan.
Amendement 596 Voorstel voor een verordening Artikel 65 – lid 1
1. Onder AI-systemen die een risico inhouden wordt verstaan een product dat een in artikel 3, punt 19, van Verordening (EU) 2019/1020 gedefinieerd risico inhoudt voor zover dit betrekking heeft op risico’s voor de gezondheid of veiligheid of voor de bescherming van grondrechten van personen.
1. Onder AI-systemen die een risico vormen wordt verstaan een AI-systeem dat een ongunstige invloed kan hebben op de gezondheid en veiligheid en de grondrechten van personen in het algemeen, waaronder op het werk, consumentenbescherming, het milieu, de openbare veiligheid, de democratie of de rechtsstaat en andere openbare belangen die worden beschermd door de toepasselijke harmonisatiewetgeving van de Unie, in een mate die verder gaat dan wat redelijk en aanvaardbaar wordt geacht in verhouding tot het beoogde gebruik ervan of bij normale of redelijkerwijs voorzienbare omstandigheden van gebruik van het betrokken systeem, ook wat gebruiksduur en, indien van toepassing, de inbedrijfstelling, de installatie en de onderhoudseisen betreft.
Amendement 597 Voorstel voor een verordening Artikel 65 – lid 2 – alinea 1
2. Indien de markttoezichtautoriteit van een lidstaat voldoende redenen heeft om ervan uit te gaan dat een AI-systeem een risico inhoudt zoals bedoeld in lid 1, verricht zij een evaluatie van het betrokken AI-systeem ten aanzien van de overeenstemming ervan met alle eisen en verplichtingen van deze verordening. Wanneer sprake is van risico’s voor de bescherming van grondrechten, stelt de markttoezichtautoriteit ook de in artikel 64, lid 3, bedoelde relevante nationale overheidsinstanties of -organen in kennis. De relevante exploitanten werken indien nodig samen met de markttoezichtautoriteiten en de andere in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen.
2. Indien de nationale toezichthoudende autoriteit van een lidstaat voldoende redenen heeft om ervan uit te gaan dat een AI-systeem een risico inhoudt zoals bedoeld in lid 1, verricht zij een evaluatie van het betrokken AI-systeem ten aanzien van de overeenstemming ervan met alle eisen en verplichtingen van deze verordening. Wanneer sprake is van risico’s voor de grondrechten, stelt de nationale toezichthoudende autoriteit ook de in artikel 64, lid 3, bedoelde relevante nationale overheidsinstanties of -organen hiervan onverwijld in kennis en verleent zij deze instanties of organen haar volledige medewerking.Wanneer er voldoende reden is om aan te nemen dat een AI-systeem gebruikmaakt van de kwetsbaarheden van kwetsbare groepen of dat het systeem de rechten van kwetsbare groepen al dan niet opzettelijk schendt, heeft de nationale toezichthoudende autoriteit de plicht om de doelen van het ontwerp, de data-input, modelselectie, toepassing en resultaten van het AI-systeem te onderzoeken. De relevante operators werken indien nodig samen met de nationale toezichthoudende autoriteiten en de andere in artikel 64, lid 3, bedoelde nationale overheidsinstanties of -organen.
Amendement 598 Voorstel voor een verordening Artikel 65 – lid 2 – alinea 2
Indien de markttoezichtautoriteit bij deze beoordeling vaststelt dat het AI-systeem niet aan de eisen en verplichtingen van deze verordening voldoet, gelast zij de betrokken exploitant onverwijld passende corrigerende maatregelen te nemen om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico, conform te maken, uit de handel te nemen of terug te roepen.
Indien de nationale toezichthoudende autoriteit of, in voorkomend geval, de nationale overheidsinstantie als bedoeld in artikel 64, lid 3, bij deze beoordeling vaststelt dat het AI-systeem niet aan de eisen en verplichtingen van deze verordening voldoet, gelast zij de betrokken operator onverwijld passende corrigerende maatregelen te nemen om het AI-systeem binnen een door haar vast te stellen redelijke termijn, die evenredig is met de aard van het risico, doch in elk geval binnen 15 werkdagen of binnen de termijn die is vastgelegd in de van toepassing zijnde relevante harmonisatiewetgeving van de Unie, conform te maken, uit de handel te nemen of terug te roepen.
Amendement 599 Voorstel voor een verordening Artikel 65 – lid 2 – alinea 3
De markttoezichtautoriteit stelt de relevante aangemelde instantie daarvan in kennis. Artikel 18 van Verordening (EU) 2019/1020 is van toepassing op de in de tweede alinea genoemde maatregelen.
De nationale toezichthoudende autoriteit stelt de relevante aangemelde instantie daarvan in kennis. Artikel 18 van Verordening (EU) 2019/1020 is van toepassing op de in de tweede alinea genoemde maatregelen.
Amendement 600 Voorstel voor een verordening Artikel 65 – lid 3
3. Indien de markttoezichtautoriteit van mening is dat de non-conformiteit niet beperkt blijft tot haar nationale grondgebied, brengt zij de Commissie en de andere lidstaten op de hoogte van de resultaten van de evaluatie en van de maatregelen die zij de exploitant heeft opgelegd.
3. Indien de nationale toezichthoudende autoriteit van mening is dat de non-conformiteit niet beperkt blijft tot haar nationale grondgebied, brengt zij de Commissie, het AI-bureau en de nationale toezichthoudende autoriteiten van de andere lidstaten zo snel mogelijk op de hoogte van de resultaten van de evaluatie en van de maatregelen die zij de operator heeft opgelegd.
Amendement 601 Voorstel voor een verordening Artikel 65 – lid 5
5. Indien de exploitant van een AI-systeem niet binnen de in lid 2 bedoelde termijn doeltreffende corrigerende actie onderneemt, neemt de markttoezichtautoriteit alle passende voorlopige maatregelen om het op haar nationale markt aanbieden van het AI-systeem te verbieden of te beperken, het product in de betrokken lidstaat uit de handel te nemen of terug te roepen. Die autoriteit brengt de Commissie en de andere lidstaten onverwijld van deze maatregelen op de hoogte.
5. Indien de operator van een AI-systeem niet binnen de in lid 2 bedoelde termijn doeltreffende corrigerende actie onderneemt, neemt de nationale toezichthoudende autoriteit alle passende voorlopige maatregelen om het op haar nationale markt aanbieden of in gebruik stellen van het AI-systeem te verbieden of te beperken, het AI-systeem in de betrokken lidstaat uit de handel te nemen of terug te roepen. Die autoriteit brengt de Commissie, het AI-bureau en de nationale toezichthoudende autoriteiten van de andere lidstaten onmiddellijk van deze maatregelen op de hoogte.
Amendement 602 Voorstel voor een verordening Artikel 65 – lid 6 – inleidende formule
6. De in lid 5 bedoelde informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het non-conforme AI-systeem te identificeren en om de oorsprong van het AI-systeem, de aard van de beweerde non-conformiteit en van het risico, en de aard en de duur van de nationale maatregelen vast te stellen, evenals de argumenten die worden aangevoerd door de desbetreffende exploitant. De markttoezichtautoriteiten vermelden met name of de non-conformiteit een of meer van de volgende redenen heeft:
6. De in lid 5 bedoelde informatie omvat alle bekende bijzonderheden, met name de gegevens die nodig zijn om het non-conforme AI-systeem te identificeren en om de oorsprong van het AI-systeem en de toeleveringsketen, de aard van de beweerde non-conformiteit en van het risico, en de aard en de duur van de nationale maatregelen vast te stellen, evenals de argumenten die worden aangevoerd door de desbetreffende operator. De nationale toezichthoudende autoriteiten vermelden met name of de non-conformiteit een of meer van de volgende redenen heeft:
Amendement 603 Voorstel voor een verordening Artikel 65 – lid 6 – punt a
a) het AI-systeem voldoet niet aan in titel III, hoofdstuk 2, beschreven voorschriften;
a) het AI-systeem met een hoog risico voldoet niet aan in deze verordening beschreven voorschriften;
Amendement 604 Voorstel voor een verordening Artikel 65 – lid 6 – punt b bis (nieuw)
b bis) niet-naleving van het verbod van de in artikel 5 vermelde praktijken op het gebied van artificiële intelligentie;
Amendement 605 Voorstel voor een verordening Artikel 65 – lid 6 – punt b ter (nieuw)
b ter) niet-naleving van de bepalingen van artikel 52.
Amendement 606 Voorstel voor een verordening Artikel 65 – lid 7
7. De markttoezichtautoriteiten van de andere lidstaten dan die welke de procedure in gang heeft gezet, brengen de Commissie en de andere lidstaten onverwijld op de hoogte van door hen genomen maatregelen en van aanvullende informatie over de non-conformiteit van het AI-systeem waarover zij beschikken, en van hun bezwaren indien zij het niet eens zijn met de aangemelde nationale maatregel.
7. De nationale toezichthoudende autoriteiten van de andere lidstaten die welke de procedure in gang heeft gezet, brengen de Commissie, het AI-bureau en de andere lidstaten onverwijld op de hoogte van door hen genomen maatregelen en van aanvullende informatie over de non-conformiteit van het AI-systeem waarover zij beschikken, en van hun bezwaren indien zij het niet eens zijn met de aangemelde nationale maatregel.
Amendement 607 Voorstel voor een verordening Artikel 65 – lid 8
8. Indien binnen drie maanden na ontvangst van de in lid 5 bedoelde informatie door een lidstaat of de Commissie geen bezwaar tegen een voorlopige maatregel van een lidstaat is ingediend, wordt die maatregel geacht gerechtvaardigd te zijn. Dit is onverminderd de procedurele rechten van de betrokken exploitant overeenkomstig artikel 18 van Verordening (EU) 2019/1020.
8. Indien binnen drie maanden na ontvangst van de in lid 5 bedoelde informatie door een nationale toezichthoudende autoriteit van een lidstaat of de Commissie geen bezwaar tegen een voorlopige maatregel van een nationale toezichthoudende autoriteit van een andere lidstaat is ingediend, wordt die maatregel geacht gerechtvaardigd te zijn. Dit is onverminderd de procedurele rechten van de betrokken operator overeenkomstig artikel 18 van Verordening (EU) 2019/1020. De in de eerste zin van dit lid bedoelde termijn wordt verkort tot dertig dagen in geval van niet-naleving van het verbod op de in artikel 5 bedoelde praktijken op het gebied van artificiële intelligentie.
Amendement 608 Voorstel voor een verordening Artikel 65 – lid 9
9. De markttoezichtautoriteiten van alle lidstaten zorgen ervoor dat ten aanzien van het betrokken product onmiddellijk de passende beperkende maatregelen worden genomen, zoals het uit de handel nemen van het product op hun markt.
9. De nationale toezichthoudende autoriteiten van alle lidstaten zorgen ervoor dat ten aanzien van het betrokken AI-systeem onmiddellijk de passende beperkende maatregelen worden genomen, zoals het uit de handel nemen van het AI-systeem op hun markt.