Index 
Angenommene Texte
Mittwoch, 14. Juni 2023 - Straßburg
Abkommen über Partnerschaft und Zusammenarbeit EU-Thailand
 Abkommen über Partnerschaft und Zusammenarbeit EU-Thailand (Entschließung)
 Abkommen über Partnerschaft und Zusammenarbeit EU-Malaysia
 Abkommen über Partnerschaft und Zusammenarbeit EU-Malaysia (Entschließung)
 Partnerschaftliches Fischereiabkommen EU-Mauritius: Durchführungsprotokoll
 Gesetz über künstliche Intelligenz
 Batterien und Altbatterien
 Gewährleistung der Ernährungssicherheit und der langfristigen Widerstandsfähigkeit der Landwirtschaft in der EU
 Hochwertige Praktika in der EU

Abkommen über Partnerschaft und Zusammenarbeit EU-Thailand
PDF 121kWORD 43k
Legislative Entschließung des Europäischen Parlaments vom 14. Juni 2023 zu dem Entwurf eines Beschlusses des Rates über den Abschluss – im Namen der Union – des Rahmenabkommens über eine umfassende Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und dem Königreich Thailand andererseits (11908/2022 – C9-0429/2022 – 2022/0252(NLE))
P9_TA(2023)0231A9-0191/2023

(Zustimmung)

Das Europäische Parlament,

–  unter Hinweis auf den Entwurf eines Beschlusses des Rates (11908/2022),

–  unter Hinweis auf den Entwurf eines Rahmenabkommens über eine umfassende Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und dem Königreich Thailand andererseits(1),

–  unter Hinweis auf das vom Rat gemäß Artikel 209 und Artikel 218 Absatz 6 Unterabsatz 2 Buchstabe a Ziffer iii des Vertrags über die Arbeitsweise der Europäischen Union unterbreitete Ersuchen um Zustimmung (C9‑0429/2022),

–  unter Hinweis auf seine nichtlegislative Entschließung vom 14. Juni 2023(2) zu dem Entwurf eines Beschlusses,

–  gestützt auf Artikel 105 Absätze 1 und 4 und Artikel 114 Absatz 7 seiner Geschäftsordnung,

–  unter Hinweis auf die Empfehlung des Ausschusses für auswärtige Angelegenheiten (A9-0191/2023),

1.  gibt seine Zustimmung zu dem Abschluss des Abkommens;

2.  beauftragt seine Präsidentin, den Standpunkt des Parlaments dem Rat und der Kommission sowie den Regierungen und Parlamenten der Mitgliedstaaten und dem Königreich Thailand zu übermitteln.

(1) ABl. L 330 vom 23.12.2022, S. 72.
(2) Angenommene Texte, P9_TA(2023)0232.


Abkommen über Partnerschaft und Zusammenarbeit EU-Thailand (Entschließung)
PDF 164kWORD 53k
Nichtlegislative Entschließung des Europäischen Parlaments vom 14. Juni 2023 zu dem Entwurf eines Beschlusses des Rates über den Abschluss – im Namen der Union – des Rahmenabkommens über eine umfassende Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und dem Königreich Thailand andererseits (11908/2022 – C9-0429/2022 – 2022/0252M(NLE))
P9_TA(2023)0232A9-0193/2023

Das Europäische Parlament,

–  unter Hinweis auf den Entwurf eines Beschlusses des Rates (11908/2022),

–  unter Hinweis auf das vom Rat gemäß Artikel 209 und Artikel 218 Absatz 6 Unterabsatz 2 Buchstabe a Ziffer v des Vertrags über die Arbeitsweise der Europäischen Union unterbreitete Ersuchen um Zustimmung (C9-0429/2022),

–  unter Hinweis auf den Entwurf eines Rahmenabkommens über eine umfassende Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und dem Königreich Thailand andererseits(1),

–  unter Hinweis auf die Gemeinsamen Mitteilungen der Kommission und des Hohen Vertreters der Union für Außen- und Sicherheitspolitik vom 16. September 2021 zur EU-Strategie für die Zusammenarbeit im indopazifischen Raum (JOIN(2021)0024) und vom 1. Dezember 2021 zur Initiative „Global Gateway“ (JOIN(2021)0030),

–  unter Hinweis auf seine Entschließungen vom 7 Juni 2022 zu der EU und den sicherheitspolitischen Herausforderungen im indopazifischen Raum(2) und vom 5. Juli 2022 zur Strategie für den indopazifischen Raum im Bereich Handel und Investitionen(3),

–  unter Hinweis auf die gemeinsame Erklärung der Staats- und Regierungschefs, die auf dem Gedenkgipfeltreffen zwischen dem ASEAN und der EU am 14. Dezember 2022 in Brüssel vereinbart wurde,

–  unter Hinweis auf seine Entschließung vom 3. Oktober 2017 zu den politischen Beziehungen der EU mit dem ASEAN(4),

–  unter Hinweis auf das Kooperationsabkommen zwischen der Europäischen Wirtschaftsgemeinschaft und Indonesien, Malaysia, den Philippinen, Singapur und Thailand – Mitgliedsländer des Verbands südostasiatischer Nationen vom 7. März 1980, welches die rechtliche Basis für die Beziehungen zwischen dem ASEAN und der EU bildet(5),

–  unter Hinweis auf seine Entschließungen vom 8. Oktober 2015 zur Lage in Thailand(6) und vom 6. Oktober 2016 zu Thailand und vor allem zu dem Fall Andy Hall(7),

–  unter Hinweis auf die Schlussfolgerungen des Rates vom 14. Oktober 2019 zu Thailand,

–  unter Hinweis auf das 12. interparlamentarische Treffen zwischen Thailand und der EU, das am 8. Dezember 2022 per Videokonferenz stattfand,

–  unter Hinweis auf die Genfer Flüchtlingskonvention von 1951 und das dazugehörige Protokoll von 1967,

–  unter Hinweis auf die Übereinkommen der Internationalen Arbeitsorganisation (IAO),

–  unter Hinweis auf den Internationalen Pakt über bürgerliche und politische Rechte vom 16. Dezember 1966, zu dessen Vertragsparteien Thailand gehört,

–  unter Hinweis auf das Zweite Fakultativprotokoll zum Internationalen Pakt über bürgerliche und politische Rechte vom 15. Dezember 1989 zur Abschaffung der Todesstrafe,

–  unter Hinweis auf das Internationale Übereinkommen vom 23. Dezember 2010 zum Schutz aller Personen vor dem Verschwindenlassen,

–  unter Hinweis auf das Übereinkommen der Vereinten Nationen gegen Folter und andere grausame, unmenschliche oder erniedrigende Behandlung oder Strafe vom 10. Dezember 1984 und das dazugehörige Fakultativprotokoll,

–  unter Hinweis auf das Übereinkommen über die Rechte des Kindes,

–  unter Hinweis auf das Römische Statut des Internationalen Strafgerichtshofs vom 17. Juli 1998,

–  unter Hinweis auf die Mitteilung der Kommission vom 22. Juni 2022 mit dem Titel „Die Macht von Handelspartnerschaften: gemeinsam für ein grünes und gerechtes Wirtschaftswachstum“ (COM(2022)0409),

–  gestützt auf Artikel 105 Absatz 2 seiner Geschäftsordnung,

–  unter Hinweis auf das Schreiben des Ausschusses für Landwirtschaft und ländliche Entwicklung,

–  unter Hinweis auf den Bericht des Ausschusses für auswärtige Angelegenheiten (A9-0193/2023),

A.  in der Erwägung, dass der indopazifische Raum die Heimat zunehmend wichtiger politischer Handels- und Sicherheitspartner für die EU ist, darunter auch Thailand; in der Erwägung, dass ein freier, vernetzter und stabiler indopazifischer Raum, der sich auf Normen und die Achtung des Völkerrechts stützt und mit den Grundsätzen und Standards der EU im Einklang steht, für die Sicherheit und die Interessen der EU sehr wünschenswert ist;

B.  in der Erwägung, dass Thailand Gründungsmitglied des ASEAN ist; in der Erwägung, dass das bisher erste Gipfeltreffen zwischen den Staats- und Regierungschefs der Mitgliedstaaten der EU und des ASEAN vom 14. Dezember 2022 das 45-jährige Bestehen der Beziehungen zwischen dem ASEAN und der EU kennzeichnete und ihre gegenseitige Verpflichtung zu der strategischen Partnerschaft bekräftigte;

C.  in der Erwägung, dass die Beziehungen zwischen Thailand und der EU auf langjährigen politischen, wirtschaftlichen und kulturellen Beziehungen beruhen;

D.  in der Erwägung, dass die derzeitige Zusammenarbeit zwischen Thailand und der EU durch das Kooperationsabkommen zwischen dem ASEAN und der EU aus dem Jahr 1980 bestimmt wird;

E.  in der Erwägung, dass der Rat die Kommission im Jahr 2004 ermächtigt hat, ein individuelles Partnerschafts- und Kooperationsabkommen mit Thailand auszuhandeln;

F.  in der Erwägung, dass Thailand und die EU die Verhandlungen über ein Partnerschafts- und Kooperationsabkommen im März 2013 abgeschlossen haben, der Militärputsch in Thailand im Jahr 2014 den Prozess jedoch zum Stillstand brachte und dazu führte, dass sich die Wahl einer zivilen Regierung bis 2019 verzögerte;

G.  in der Erwägung, dass der Rat nach den Wahlen in Thailand im März 2019 in seinen Schlussfolgerungen vom Oktober 2019 erklärte, dass es angemessen sei, dass die EU Schritte zur Ausweitung ihres Engagements mit Thailand ergreift, indem sie die zeitnahe Unterzeichnung des Partnerschafts- und Kooperationsabkommens vorbereitet;

H.  in der Erwägung, dass die erneuten Verhandlungen über das Partnerschafts- und Kooperationsabkommen am 11. Juni 2022 abgeschlossen wurden;

I.  in der Erwägung, dass Thailand sowohl sehr stark vom Klimawandel betroffen ist als auch ein verhältnismäßig großer Verursacher weltweiter Emissionen ist; in der Erwägung, dass Thailand auf der 26. Konferenz der Vertragsparteien des Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen (COP 26) zugesagt hat, bis 2050 CO2-Neutralität zu erreichen;

J.  in der Erwägung, dass die EU und Thailand bestrebt sind, eine moderne, breit angelegte und für beide Seiten vorteilhafte Partnerschaft aufzubauen, die auf gemeinsamen Interessen und Grundsätzen beruht; in der Erwägung, dass sie durch das Partnerschafts- und Kooperationsabkommen ihre Achtung der in der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen von 1948 verankerten demokratischen Grundsätze, Menschenrechte und Grundfreiheiten bekräftigen;

K.  in der Erwägung, dass Thailand zu den ersten Ländern gehörte, die die Allgemeine Erklärung der Menschenrechte unterzeichneten, die allgemeine Menschenrechtslage des Landes jedoch nach wie vor problematisch ist;

L.  in der Erwägung, dass Thailand im Index der geschlechtsspezifischen Ungleichheit von 2021 auf Platz 79 rangierte und dass thailändische Frauen im Erwerbsleben und in der Politik immer noch stark unterrepräsentiert sind, obwohl das Land ein umgekehrtes Geschlechtergefälle bei der höheren Bildung verzeichnet und weltweit den ersten Platz einnimmt, was das Verhältnis von weiblichen zu männlichen Studenten anbelangt;

M.  in der Erwägung, dass die Arbeitsgruppe der Vereinten Nationen zur Frage des Verschwindenlassens von Personen 76 offene Fälle des erzwungenen oder unfreiwilligen Verschwindens von Personen in Thailand registriert hat;

N.  in der Erwägung, dass die Todesstrafe in Thailand nach wie vor angewandt wird, obwohl der vierte Nationale Menschenrechtsplan des Landes (2019–2023) die Verpflichtung enthält, auf die Abschaffung der Todesstrafe hinzuarbeiten; in der Erwägung, dass Thailand das Zweite Fakultativprotokoll zum Internationalen Pakt über bürgerliche und politische Rechte zur Abschaffung der Todesstrafe nicht unterzeichnet hat;

O.  in der Erwägung, dass Thailand kein Unterzeichnerstaat der Flüchtlingskonvention der Vereinten Nationen von 1951 und ihres Protokolls von 1967 ist und keinen innerstaatlichen Rechtsrahmen hat, um Flüchtlinge ausdrücklich anzuerkennen und ihnen Schutz zu bieten, insbesondere Flüchtlinge aus Myanmar, die in der Regel entweder in Lagern leben müssen oder in Gefahr sind, willkürlich festgenommen, inhaftiert oder gegen ihren Willen in ihr Herkunftsland deportiert zu werden, was gegen das Recht auf Asyl und den Grundsatz der Nichtzurückweisung verstößt;

P.  in der Erwägung, dass die thailändische Regierung vor Kurzem die Grundrechte, insbesondere das Recht auf freie Meinungsäußerung und Versammlungsfreiheit, unter anderem durch die willkürliche Festnahme von Demokratieverfechtern und führenden Oppositionellen eingeschränkt hat und im Jahr 2022 einen Gesetzentwurf zur strengen Kontrolle aller Organisationen der Zivilgesellschaft vorgelegt hat;

Q.  in der Erwägung, dass Thailand noch nicht alle grundlegenden Übereinkommen der IAO ratifiziert hat und dass insbesondere die Ratifizierung des Übereinkommens über die Vereinigungsfreiheit und den Schutz des Vereinigungsrechtes und des Übereinkommens über das Vereinigungsrecht und das Recht zu Kollektivverhandlungen noch aussteht; in der Erwägung, dass Gewerkschaftsführer und Arbeitnehmer in der Praxis häufig wegen ihrer gewerkschaftlichen Tätigkeit strafrechtlich verfolgt oder entlassen werden; in der Erwägung, dass in Thailand über zwei Millionen Wanderarbeitnehmer diskriminiert werden und sie nicht dieselben Arbeitnehmerrechte wie inländische Arbeitnehmer genießen, darunter das Vereinigungsrecht;

R.  in der Erwägung, dass mehr als die Hälfte der weltweiten Fischereifahrzeuge im Südchinesischen Meer aktiv ist, die etwa 12 % des Ertrags der Weltfischerei ausmachen; in der Erwägung, dass die EU auch im Rahmen eines Dialogs und einer Arbeitsgruppe in Bezug auf illegale, ungemeldete und unregulierte Fischerei mit Thailand zusammenarbeitet; in der Erwägung, dass viele Wanderarbeitnehmer in Thailand trotz der von der Regierung eingeleiteten Reformen in der Fischerei weiterhin Zwangsarbeit verrichten müssen;

S.  in der Erwägung, dass Thailand der weltweit führende Produzent von Thunfischkonserven und der Hauptkonkurrent der Wirtschaft der EU in diesem Marktsegment ist; in der Erwägung, dass ein Freihandelsabkommen mit Thailand eine erhebliche Bedrohung für die Hersteller von Fisch- und Meeresfrüchtekonserven in der EU bedeuten könnte, die in mehreren Küstengebieten aufgrund ihrer wichtigen Funktion bei der Schaffung von Arbeitsplätzen und Wohlstand und der Beschäftigung von Arbeitsnehmerinnen äußerst wichtig sind;

T.  in der Erwägung, dass die EU und die ASEAN-Länder jeweils die drittgrößten Handelspartner sind, während die EU der viertgrößte Handelspartner Thailands und der zweitgrößte Investor in Thailand ist;

U.  in der Erwägung, dass die Verhandlungen zwischen Thailand und der EU über ein bilaterales Freihandelsabkommen (FTA) im Jahr 2013 aufgenommen wurden, die EU die Verhandlungen jedoch im Jahr 2014 ausgesetzt hat; in der Erwägung, dass die EU und Thailand die Verhandlungen am 15. März 2023 wiederaufgenommen haben;

Engagement der EU im indopazifischen Raum

1.  betont, dass Thailand ein wichtiger Partner im indopazifischen Raum ist, der zu einer der geopolitischen Prioritäten der EU geworden ist;

2.  betont, dass sich die EU für einen freien, offenen und regelbasierten indopazifischen Raum einsetzt; bekräftigt, dass die neue Strategie der EU für den indopazifischen Raum rasch umgesetzt werden muss, um den Partnern der EU in der Region die Gelegenheit zu geben, die gemeinsamen Herausforderungen zusammen anzugehen, die regelbasierte internationale Ordnung zu verteidigen und für die gemeinsamen Werte und Grundsätze der EU und des ASEAN einzutreten; spricht sich für eine stärkere Zusammenarbeit mit Ländern in der Region, darunter insbesondere mit dem Verband südostasiatischer Nationen (ASEAN), aus;

3.  bekräftigt die politische Bedeutung starker Handels- und Investitionsbeziehungen auf der Grundlage gemeinsamer Werte und Prinzipien zwischen dem ASEAN und der EU im Allgemeinen und zwischen Thailand und der EU im Besonderen; begrüßt das Gipfeltreffen zwischen dem ASEAN und der EU im Dezember 2022 sowie die Verpflichtung zur weiteren Vertiefung dieser strategischen Partnerschaft;

4.  bekräftigt seine Forderung nach einer raschen Umsetzung der Global-Gateway-Strategie der EU in Abstimmung mit der Strategie für den indopazifischen Raum; hebt die geopolitische Bedeutung dieser Herangehensweise hervor, bei der die Dimensionen der Ausrichtung auf eine nachhaltige Entwicklung, der Transformation, der Resilienzförderung und der Wertebasiertheit in das Konzept „Team Europa“ integriert werden; begrüßt die Ankündigung eines Pakets in Höhe von 10 Mrd. EUR zur Beschleunigung von Infrastrukturinvestitionen in den Ländern des ASEAN mit dem Ziel, eine neue, wirtschaftlich tragfähige Partnerschaft aufzubauen, insbesondere im Hinblick auf den ökologischen Wandel und die nachhaltige Konnektivität;

5.  stellt fest, dass die Länder des ASEAN zu den Ländern gehören, die am stärksten von den Auswirkungen des Klimawandels betroffen sind; hebt die Initiative „Green Team Europe“ zur Unterstützung des ökologischen Wandels in den ASEAN-Ländern hervor; unterstreicht darüber hinaus die Bedeutung der Rolle Thailands als Koordinator des ASEAN für die Zusammenarbeit im Bereich der nachhaltigen Entwicklung;

6.  stellt fest, dass die Unterstützung der Partner im indopazifischen Raum im Hinblick auf die Abstimmung in der Generalversammlung der Vereinten Nationen über den nicht zu rechtfertigenden, unbegründeten und widerrechtlichen Krieg Russlands gegen die Ukraine sehr wertvoll war und ist; begrüßt, dass Thailand für Resolutionen der Generalversammlung der Vereinten Nationen gestimmt hat, in denen Russlands Überfall auf die Ukraine verurteilt wird, und würdigt die von Thailand geleistete humanitäre Hilfe für die Ukraine; fordert Thailand auf, die Achtung des Völkerrechts zu fördern, die Ukraine zu unterstützen und auch im Rahmen des ASEAN eine klare Haltung gegenüber dem russischen Angriffskrieg einzunehmen;

Partnerschafts- und Kooperationsabkommen zwischen Thailand und der EU

7.  bekräftigt die Bedeutung, die die EU den Beziehungen zu Thailand beimisst; begrüßt den Abschluss des Partnerschafts- und Kooperationsabkommens, das einen Rechtsrahmen für den Ausbau der seit langem bestehenden bilateralen politischen und wirtschaftlichen Beziehungen und der Zusammenarbeit in Fragen von globaler Tragweite bieten wird und einen wichtigen Schritt zur Stärkung der Rolle der EU im indopazifischen Raum darstellt;

8.  stellt fest, dass es sich bei dem Partnerschafts- und Kooperationsabkommen um ein umfassendes und modernes Abkommen handelt, das es ermöglichen wird, neue Modelle für nachhaltiges Wachstum und Entwicklung zu entwickeln und besser auf die aktuellen Herausforderungen in einer Vielzahl von Politikbereichen zu reagieren, darunter Umwelt, Energie, Klimawandel, Verkehr, Wissenschaft und Technologie, Handel, Beschäftigung und Soziales, Menschenrechte, Bildung, Landwirtschaft, Migration, Kultur, Nichtverbreitung von Kernwaffen, Terrorismusbekämpfung sowie Bekämpfung von Korruption und organisierter Kriminalität;

9.  hofft, dass der Abschluss des Partnerschafts- und Kooperationsabkommens einen deutlichen Anstoß für eine stärkere Zusammenarbeit zwischen Thailand und der EU zum Nutzen aller Bürgerinnen und Bürger, Einwohnerinnen und Einwohner, Unternehmen und anderer Interessenträger in Thailand und der EU geben wird; fordert die visumfreie Einreise nach Thailand für alle EU-Bürger; spricht sich dafür aus, auf eine Regelung für visumfreies Reisen in die EU für thailändische Bürger hinzuarbeiten;

10.  begrüßt, dass Thailand als erstes Land im asiatisch-pazifischen Raum einen nationalen Aktionsplan für Wirtschaft und Menschenrechte angenommen hat, und fordert dessen wirksame Umsetzung;

11.  fordert die Parteien auf, sich zu verpflichten, die Umsetzung und Durchsetzung der nationalen Rechtsvorschriften über die Sorgfaltspflicht und Rechenschaftspflicht von Unternehmen zu unterstützen, sich auf spezifischere Verpflichtungen im Hinblick auf Nachhaltigkeitsprüfungen zu einigen, relevante Informationen, etwa über die Zahl der Untersuchungen, Kontrollen und Durchsetzungsmaßnahmen, auszutauschen und Unternehmen Schulungen oder technische Unterstützung in Bezug auf die Sorgfaltspflicht und Rechenschaftspflicht von Unternehmen anzubieten;

12.  hebt hervor, dass die Parteien vereinbaren, in Bereichen von gemeinsamem Interesse in allen Bereichen der Wissenschaft, Technologie und Innovation zusammenzuarbeiten; begrüßt, dass am 9. September 2022 eine Verwaltungsvereinbarung über die Zusammenarbeit zwischen Thailand und der EU im Bereich der Pionierforschung unterzeichnet wurde;

13.  betont das gemeinsame Ziel der Parteien, die globale Reaktion auf den Klimawandel und seine Auswirkungen zu verstärken und die Zusammenarbeit bei politischen Maßnahmen zur Eindämmung des Klimawandels im Einklang mit dem Übereinkommen von Paris zu intensivieren; hebt die Zusagen der Parteien hervor, das Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen und das Übereinkommen von Paris wirksam umzusetzen;

14.  betont, dass Thailand in der Liste der Länder, die weltweit vom Klimawandel am stärksten betroffen sind, an neunter Stelle steht; begrüßt, dass sich Thailand im Rahmen der COP26 dazu verpflichtet hat, seinen national festgelegten Beitrag mit dem Ziel zu verstärken, seine Treibhausgasemissionen bis 2030 um 30 % zu senken; begrüßt in diesem Zusammenhang, dass 2022 eine überarbeitete langfristige Strategie für eine hinsichtlich der Treibhausgase emissionsarme Entwicklung verabschiedet wurde;

15.  betont die Bemühungen der Parteien, die Zusammenarbeit im Energiesektor zu verstärken, unter anderem beim Zugang zu erschwinglichen und nachhaltigen Energiedienstleistungen, bei der Entwicklung nachhaltiger und erneuerbarer Energieformen und bei der Förderung einer CO2-armen Stromerzeugung, die zu einer sauberen Energiewende beiträgt; legt den beiden Vertragsparteien nahe, ihre Anstrengungen zur Bekämpfung der Auswirkungen des Klimawandels zu verstärken, indem sie wirksamere klimapolitische Maßnahmen und Strategien im Hinblick auf den Energiewandel und die Dekarbonisierung beschließen und umsetzen;

16.  hebt hervor, dass Thailand sich in vielen Regionen mit einer zunehmenden Umweltzerstörung, einschließlich des Verlusts an biologischer Vielfalt und des Rückgangs von Wildtierbeständen, Entwaldung, Wüstenbildung, Wasserknappheit und Luft- und Wasserverschmutzung, konfrontiert sieht; fordert die Parteien nachdrücklich auf, bei der Bewältigung dieser Herausforderungen zusammenzuarbeiten;

17.  begrüßt die Aufnahme von Bestimmungen über die Zusammenarbeit bei nachhaltigen Lebensmittelsystemen in das Partnerschafts- und Kooperationsabkommen; betont, dass der Agrarsektor sowohl für Thailand als auch für die EU von sehr großer Bedeutung ist;

18.  ist der Ansicht, dass die EU ihr Engagement für eine nachhaltige Fischerei im indopazifischen Raum aufrechterhalten und ihre Zusammenarbeit mit Thailand bei der Bekämpfung von Überfischung, Überkapazitäten und IUU-Fischerei im indopazifischen Raum verstärken sollte;

19.  fordert die Kommission erneut auf, der Tatsache Rechnung zu tragen, dass einem bilateralen Freihandelsabkommen zwischen der EU und Thailand strenge Studien über die Auswirkungen auf die Nachhaltigkeit und eine detaillierte Analyse der potenziellen wirtschaftlichen, sozialen und ökologischen Folgen vorausgehen müssen;

20.  fordert die Kommission erneut auf, bei möglichen Handelsverhandlungen mit Thailand Fischkonserven und Meeresfrüchte als „sensible Erzeugnisse“ aufzunehmen;

21.  begrüßt, dass das Partnerschafts- und Kooperationsabkommen den persönlichen Austausch, wie beispielsweise die akademische Mobilität im Rahmen des Programms Erasmus+, und den Austausch bewährter Verfahren in der Jugendpolitik und Jugendarbeit fördert;

22.  begrüßt, dass mit dem Partnerschafts- und Kooperationsabkommen die Zusammenarbeit bei der Förderung der Gleichstellung der Geschlechter und der Stärkung der Rolle der Frau unterstützt wird; begrüßt die thailändischen Rechtsvorschriften zur Förderung der Frauenrechte, einschließlich der Verabschiedung des Gleichstellungsgesetzes im Jahr 2015; fordert die thailändischen staatlichen Stellen auf, ihre Umsetzungsbemühungen sowie die Anstrengungen zur Bekämpfung geschlechtsspezifischer Gewalt und zur Stärkung der Rolle von Frauen und Mädchen, insbesondere Migrantinnen, Frauen aus ländlichen Gebieten und Frauen, die Minderheiten angehören, im Einklang mit Artikel 21 des Partnerschafts- und Kooperationsabkommens zu verstärken;

23.  betont, dass nach Artikel 1 Absatz 1 des Partnerschafts- und Kooperationsabkommens die Menschenrechte und die Achtung der demokratischen Grundsätze, der Rechtsstaatlichkeit und der verantwortungsvollen Staatsführung wesentliche Elemente dieses Abkommens sind;

24.  bringt seine Besorgnis über das gewaltsame Vorgehen gegen friedliche Demonstranten in den Jahren 2020 und 2021 zum Ausdruck; fordert die thailändischen staatlichen Stelle auf, die an Demonstranten begangenen Menschenrechtsverletzungen zu untersuchen; fordert die thailändischen staatlichen Stellen nachdrücklich auf, diejenigen Gefangenen freizulassen, die willkürlich inhaftiert wurden, weil sie ihr Recht auf friedliche Versammlung ausgeübt haben;

25.  fordert die thailändische Regierung auf, die Rolle von Organisationen der Zivilgesellschaft, Menschenrechtsverteidigern, Demokratieverfechtern, Aktivisten der Zivilgesellschaft, Journalisten und anderen zu achten, die Meinungs- und Versammlungsfreiheit zu wahren, das Gesetz über Majestätsbeleidigung zu überprüfen und alle auf der Grundlage dieses Gesetzes festgenommenen Personen unverzüglich freizulassen und ihren Entwurf für ein Gesetz über die Tätigkeit von gemeinnützigen Organisationen von 2021, das Gesetz über Computerkriminalität und das Gesetz zum Straftatbestand der Verleumdung gemäß dem Internationalen Pakt über bürgerliche und politische Rechte, den Thailand unterzeichnet und ratifiziert hat, zu überprüfen;

26.  nimmt zur Kenntnis, dass mit dem Gleichstellungsgesetz von 2015 der Schutz der LGBTI-Gemeinschaft verbessert wurde; fordert Thailand auf, darauf hinzuarbeiten, die Rechte der LGBTI-Gemeinschaft zu fördern und uneingeschränkt zu schützen;

27.  ist zutiefst besorgt darüber, dass das Gesetz über Majestätsbeleidigung in bislang ungekanntem Maße gegen Kinder angewandt wird fordert Thailand auf, seinen internationalen Verpflichtungen im Rahmen des von Thailand ratifizierten Übereinkommens über die Rechte des Kindes nachzukommen;

28.  begrüßt die Verabschiedung des thailändischen Gesetzes zur Verhütung und Bekämpfung von Folter und erzwungenem oder unfreiwilligem Verschwinden von Personen im Jahr 2022 als entscheidenden Meilenstein bei der Bekämpfung von Folter, Misshandlung und erzwungenem oder unfreiwilligem Verschwinden in Thailand; bedauert, dass die thailändische Regierung am 14. Februar 2023 ein Dekret gebilligt hat, mit dem das Inkrafttreten von Teilen dieses Gesetzes von Februar auf Oktober 2023 verschoben wurde; fordert, dass das Gesetz rasch in Kraft tritt und vollständig und wirksam umgesetzt wird; fordert Thailand auf, das Internationale Übereinkommen zum Schutz aller Personen vor dem Verschwindenlassen zügig zu ratifizieren;

29.  fordert Thailand erneut nachdrücklich auf, konkrete Schritte zur Abschaffung der Todesstrafe zu unternehmen, darunter auch die Unterzeichnung und Ratifizierung des Zweiten Fakultativprotokolls zum Internationalen Pakt über bürgerliche und politische Rechte, das die Abschaffung der Todesstrafe zum Ziel hat; betont, wie wichtig die gemeinsame Erklärung zu Artikel 23 des Partnerschafts- und Kooperationsabkommens ist, um sicherzustellen, dass künftig keine Todesurteile mehr verhängt oder vollstreckt werden;

30.  fordert Thailand auf, die Genfer Flüchtlingskonvention von 1951 und das dazugehörige Protokoll von 1967 zu unterzeichnen und zu ratifizieren; fordert die thailändischen staatlichen Stellen nachdrücklich auf, die Abschiebungen ethnischer Rohingya und Uiguren sowie anderer Asylbewerber unverzüglich einzustellen, da diese Praxis einen eklatanten Verstoß gegen grundlegende internationale Verpflichtungen, an die Thailand gebunden ist, insbesondere gegen den Grundsatz der Nichtzurückweisung, darstellt; begrüßt die humanitären Hilfsprogramme der EU, mit denen Schutz- und Gesundheitsdienste für Rohingya-Flüchtlinge bereitgestellt werden, die in Flüchtlingslagern im Land leben;

31.  erkennt die Bemühungen der thailändischen Regierung an, gegen Menschenrechtsverletzungen im Zusammenhang mit Menschenhandel und Zwangsarbeit vorzugehen; ist jedoch nach wie vor über die Arbeitsbedingungen von Wanderarbeitnehmern besorgt;

32.  begrüßt die Vereinbarung der Parteien, zusammenzuarbeiten und einander technische Unterstützung zu leisten, um auf die Ratifizierung und Umsetzung der grundlegenden IAO-Übereinkommen hinzuarbeiten; fordert Thailand auf, die IAO-Übereinkommen Nr. 87, Nr. 98 und Nr. 155 zu ratifizieren, das Recht der Arbeitnehmer, sich zu organisieren und zu streiken wirksam zu garantieren, die gleichen Rechte für alle Arbeitnehmer unabhängig von ihrem Herkunftsland anzuerkennen und mit der EU bei der Förderung der Ratifizierung und Umsetzung anderer neuerer IAO-Übereinkommen zusammenzuarbeiten;

33.  fordert Thailand auf, im Einklang mit Artikel 5 des Partnerschafts- und Kooperationsabkommens und der diesbezüglichen gemeinsamen Erklärung das Römische Statut des Internationalen Strafgerichtshofs zu ratifizieren;

34.  weist erneut darauf hin, dass eine Vertragspartei, die der Auffassung ist, dass die andere Vertragspartei eine ihrer Verpflichtungen aus dem Partnerschafts- und Kooperationsabkommen - insbesondere im Hinblick auf dessen wesentliche Bestandteile - nicht erfüllt hat, geeignete Maßnahmen treffen kann, einschließlich der Aussetzung des Partnerschafts- und Kooperationsabkommens;

35.  stellt fest, dass die Kommission in den wiederaufgenommenen Verhandlungen über Freihandelsabkommen darauf abzielt, Handel und Investitionen zu fördern, indem sie sich mit den folgenden Themen befasst: Marktzugang für Waren, Dienstleistungen, Investitionen und das öffentliche Beschaffungswesen, zügige und wirksame gesundheitspolizeiliche und pflanzenschutzrechtliche Verfahren, Schutz der Rechte des geistigen Eigentums und die Beseitigung von Hindernissen für den digitalen Handel und den Handel mit Energie und Rohstoffen bei gleichzeitiger Unterstützung eines hohen Schutzniveaus für die Arbeitnehmerrechte und die Umwelt sowie der Verwirklichung ehrgeiziger Klimaziele;

36.  erinnert daran, dass in Artikel 1 Absatz 2 des Partnerschafts- und Kooperationsabkommen die Vertragsparteien ihre Entschlossenheit bekräftigen, die nachhaltige Entwicklung in all ihren Dimensionen zu fördern, bei der Bewältigung der Herausforderungen des Klimawandels und der Globalisierung zusammenzuarbeiten und einen Beitrag zur Agenda 2030 für nachhaltige Entwicklung zu leisten; hebt in diesem Zusammenhang den neuen Ansatz der EU hervor, wie er in der Mitteilung der Kommission vom 22. Juni 2022 mit dem Titel „Die Macht von Handelspartnerschaften: gemeinsam für ein grünes und gerechtes Wirtschaftswachstum“ dargelegt ist;

37.  betont, dass Menschenrechtsanliegen bei allen Verhandlungen mit Thailand berücksichtigt werden müssen;

38.  hebt hervor, dass die Freihandelsabkommen der EU die sogenannte „Nichterfüllungsklausel“ enthalten, die im Falle von Verstößen gegen wesentliche Bestandteile eines Partnerschafts- und Kooperationsabkommens zur Aussetzung der Handelspräferenzen führt;

o
o   o

39.  beauftragt seine Präsidentin, diese Entschließung dem Rat, der Kommission, dem Vizepräsidenten der Kommission und Hohen Vertreter der Union für Außen- und Sicherheitspolitik, den Regierungen und Parlamenten der Mitgliedstaaten sowie der Regierung und dem Parlament des Königreichs Thailand zu übermitteln.

(1) ABl. L 330 vom 23.12.2022, S. 72.
(2) ABl. C 493 vom 27.12.2022, S. 32.
(3) ABl. C 47 vom 7.2.2023, S. 15.
(4) ABl. C 346 vom 27.9.2018, S. 44.
(5) ABl. L 144 vom 10.6.1980, S. 2.
(6) ABl. C 349 vom 17.10.2017, S. 26.
(7) ABl. C 215 vom 19.6.2018, S. 37.


Abkommen über Partnerschaft und Zusammenarbeit EU-Malaysia
PDF 120kWORD 43k
Legislative Entschließung des Europäischen Parlaments vom 14. Juni 2023 zu dem Entwurf eines Beschlusses des Rates über den Abschluss – im Namen der Europäischen Union – des Rahmenabkommens über Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und der Regierung Malaysias andererseits (11714/2022 – C9-0430/2022 – 2022/0221(NLE))
P9_TA(2023)0233A9-0190/2023

(Zustimmung)

Das Europäische Parlament,

–  unter Hinweis auf den Entwurf eines Beschlusses des Rates (11714/2022),

–  unter Hinweis auf den Entwurf des Rahmenabkommens über Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und der Regierung Malaysias andererseits (11732/2022),

–  unter Hinweis auf das vom Rat gemäß Artikel 209 und Artikel 218 Absatz 6 Unterabsatz 2 Buchstabe a Ziffer v des Vertrags über die Arbeitsweise der Europäischen Union unterbreitete Ersuchen um Zustimmung (C9‑0430/2022),

–  unter Hinweis auf seine nichtlegislative Entschließung vom 14. Juni 2023(1) zu dem Entwurf eines Beschlusses,

–  gestützt auf Artikel 105 Absätze 1 und 4 und Artikel 114 Absatz 7 seiner Geschäftsordnung,

–  unter Hinweis auf die Empfehlung des Ausschusses für auswärtige Angelegenheiten (A9-0190/2023),

1.  gibt seine Zustimmung zu dem Abschluss des Abkommens;

2.  beauftragt seine Präsidentin, den Standpunkt des Parlaments dem Rat und der Kommission sowie den Regierungen und Parlamenten der Mitgliedstaaten und Malaysias zu übermitteln.

(1) Angenommene Texte, P9_TA(2023)0234.


Abkommen über Partnerschaft und Zusammenarbeit EU-Malaysia (Entschließung)
PDF 163kWORD 52k
Nichtlegislative Entschließung des Europäischen Parlaments vom 14. Juni 2023 zu dem Entwurf eines Beschlusses des Rates über den Abschluss – im Namen der Europäischen Union – des Rahmenabkommens über Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und der Regierung Malaysias andererseits (11714/2022 – C9-0430/2022 – 2022/0221M(NLE))
P9_TA(2023)0234A9-0194/2023

Das Europäische Parlament,

–  unter Hinweis auf den Entwurf eines Beschlusses des Rates über den Abschluss – im Namen der Europäischen Union – des Rahmenabkommens über Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und der Regierung Malaysias andererseits (11714/2022),

–  unter Hinweis auf das vom Rat gemäß Artikel 209 und Artikel 218 Absatz 6 Unterabsatz 2 Buchstabe a Ziffer iii des Vertrags über die Arbeitsweise der Europäischen Union unterbreitete Ersuchen um Zustimmung (C9‑0430/2022),

–  unter Hinweis auf den Entwurf eines Rahmenabkommens über Partnerschaft und Zusammenarbeit zwischen der Europäischen Union und ihren Mitgliedstaaten einerseits und der Regierung Malaysias andererseits (11732/2022),

–  unter Hinweis auf die gemeinsamen Mitteilungen der Kommission und des Hohen Vertreters der Union für Außen- und Sicherheitspolitik vom 16. September 2021 mit dem Titel „EU-Strategie für die Zusammenarbeit im indopazifischen Raum“ (JOIN(2021)0024) und vom 1. Dezember 2021 mit dem Titel „Global Gateway“ (JOIN(2021)0030),

–  unter Hinweis auf seine Entschließung vom 7. Juni 2022 zu der EU und den sicherheitspolitischen Herausforderungen im indopazifischen Raum(1) und seine Entschließung vom 5. Juli 2022 zur Strategie für den indopazifischen Raum im Bereich Handel und Investitionen(2),

–  unter Hinweis auf die gemeinsame Erklärung der Staats- und Regierungschefs, die auf dem Jubiläumsgipfel der EU und des Verbands südostasiatischer Nationen (ASEAN), der am 14. Dezember 2022 in Brüssel stattfand, vereinbart wurde,

–  unter Hinweis auf seine Entschließung vom 3. Oktober 2017 zu den politischen Beziehungen der EU zum ASEAN(3),

–  unter Hinweis auf das Kooperationsabkommen zwischen der Europäischen Wirtschaftsgemeinschaft und den Mitgliedsländern des Verbandes Südostasiatischer Nationen – Indonesien, Malaysia, Philippinen, Singapur und Thailand, das am 7. März 1980 unterzeichnet wurde(4) und die Rechtsgrundlage für die Beziehungen zwischen dem ASEAN und der EU bildet,

–  unter Hinweis auf das Zweite Fakultativprotokoll zum Internationalen Pakt über bürgerliche und politische Rechte vom 15. Dezember 1989 zur Abschaffung der Todesstrafe,

–  unter Hinweis auf den Internationalen Pakt über wirtschaftliche, soziale und kulturelle Rechte vom 16. Dezember 1966 und das dazugehörige Fakultativprotokoll,

–  unter Hinweis auf das Übereinkommen der Vereinten Nationen gegen Folter und andere grausame, unmenschliche oder erniedrigende Behandlung oder Strafe vom 10. Dezember 1984 und das dazugehörige Fakultativprotokoll,

–  unter Hinweis auf das Internationale Übereinkommen vom 23. Dezember 2010 zum Schutz aller Personen vor dem Verschwindenlassen,

–  unter Hinweis auf die Flüchtlingskonvention der Vereinten Nationen von 1951 und das dazugehörige Protokoll von 1967,

–  unter Hinweis auf die Übereinkommen der Internationalen Arbeitsorganisation (IAO-Übereinkommen),

–  unter Hinweis auf das Römische Statut des Internationalen Strafgerichtshofs vom 17. Juli 1998,

–  unter Hinweis auf den Internationalen Pakt über bürgerliche und politische Rechte vom 16. Dezember 1966 und das dazugehörige Fakultativprotokoll,

–  unter Hinweis auf seine Entschließung vom 11. September 2013 mit seiner Empfehlung an den Rat, die Kommission und den EAD zu den Verhandlungen über ein Partnerschafts- und Kooperationsabkommen zwischen der EU und Malaysia(5), seine Entschließung vom 17. Dezember 2015 zu Malaysia(6) und seine Entschließung vom 18. Januar 2023 zu Menschenrechten und Demokratie in der Welt und der Politik der Europäischen Union in diesem Bereich – Jahresbericht 2022(7),

–  gestützt auf Artikel 105 Absatz 2 seiner Geschäftsordnung,

–  unter Hinweis auf das Schreiben des Ausschusses für Landwirtschaft und ländliche Entwicklung,

–  unter Hinweis auf den Bericht des Ausschusses für auswärtige Angelegenheiten (A9-0194/2023),

A.  in der Erwägung, dass die EU und der indopazifische Raum angesichts der Verflechtung ihrer Volkswirtschaften und ihrer gemeinsamen globalen Herausforderungen untrennbar miteinander verbunden sind;

B.  in der Erwägung, dass das Europäische Parlament ausdrücklich zugesagt hat, den ASEAN als zentrale Organisation für die Zusammenarbeit in der Region zu unterstützen; in der Erwägung, dass Malaysia Gründungsmitglied des ASEAN ist und bei dessen allgemeinen Fortschritten eine entscheidende Rolle gespielt hat;

C.  in der Erwägung, dass die EU und der ASEAN im Jahr 2022 das 45-jährige Bestehen ihrer diplomatischen Beziehungen gefeiert haben; in der Erwägung, dass die Staats- und Regierungschefs der EU und des ASEAN bei dem Jubiläumsgipfel vom 14. Dezember 2022 in einer gemeinsamen Erklärung bekräftigten, dass die EU und der ASEAN strategische Partner mit einem gemeinsamen Interesse an einer friedlichen, stabilen und wohlhabenden Region sind;

D.  in der Erwägung, dass die derzeitige Zusammenarbeit zwischen der EU und Malaysia auf dem Kooperationsabkommen zwischen der EU und dem ASEAN von 1980 beruht; in der Erwägung, dass Malaysia in der Vergangenheit ein enger Partner der EU war;

E.  in der Erwägung, dass der Rat die Kommission im Jahr 2004 ermächtigte, ein individuelles Abkommen über Partnerschaft und Zusammenarbeit mit Malaysia auszuhandeln;

F.  in der Erwägung, dass die EU und Malaysia im Februar 2011 Verhandlungen über ein Abkommen über Partnerschaft und Zusammenarbeit aufgenommen und diese am 12. Dezember 2015 abgeschlossen haben;

G.  in der Erwägung, dass dem Rat am 5. August 2016 Entwürfe von Beschlüssen des Rates über die Unterzeichnung und den Abschluss des Abkommens über Partnerschaft und Zusammenarbeit als reines Unionsabkommen zwischen der Europäischen Union und Malaysia vorgelegt wurden; in der Erwägung, dass der Ausschuss der Ständigen Vertreter der Regierungen der Mitgliedstaaten bei der Europäischen Union am 17. März 2017 die Auffassung vertrat, dass das Abkommen als gemischtes Abkommen unterzeichnet und geschlossen werden sollte;

H.  in der Erwägung, dass Malaysia einem gemischten Abkommen über Partnerschaft und Zusammenarbeit zwar zustimmte, es jedoch vorzog, das Abkommen nicht vorläufig anzuwenden;

I.  in der Erwägung, dass die EU und Malaysia das Abkommen über Partnerschaft und Zusammenarbeit am 14. Dezember 2022 unterzeichnet haben;

J.  in der Erwägung, dass das Abkommen über Partnerschaft und Zusammenarbeit zur Intensivierung der Zusammenarbeit in einem breiten Spektrum von Politikbereichen dient, darunter Menschenrechte, Nichtverbreitung von Massenvernichtungswaffen, Terrorismusbekämpfung, Bekämpfung der Korruption und der organisierten Kriminalität, Handel, Migration, Umwelt, Energie, Klimawandel, Verkehr, Wissenschaft und Technologie, Beschäftigung und soziale Angelegenheiten, Bildung, Landwirtschaft und Kultur;

K.  in der Erwägung, dass beide Parteien des zwischen der EU und Malaysia geschlossenen Abkommens über Partnerschaft und Zusammenarbeit ihr Eintreten für die Wahrung der demokratischen Grundsätze und der Menschenrechte, wie sie in der Allgemeinen Erklärung der Menschenrechte und anderen einschlägigen internationalen Menschenrechtsinstrumenten festgelegt sind, bekräftigt haben; in der Erwägung, dass die Menschenrechtsbilanz Malaysias nach wie vor problematisch ist;

L.  in der Erwägung, dass die Organe und Einrichtungen der Union, einschließlich des Europäischen Auswärtigen Dienstes, dafür sorgen müssen, dass die Menschenrechtsverpflichtungen der Union und der Mitgliedstaaten im Rahmen der Gemeinsamen Außen- und Sicherheitspolitik der Union konsequent umgesetzt werden;

M.  in der Erwägung, dass sich die neue Einheitsregierung Malaysias in ihrem Bestreben, demokratische Reformen durchzuführen, unter anderem mit Blick auf die Rechtsstaatlichkeit, die Achtung der Menschenrechte und die Überwindung der starken gesellschaftlichen Polarisierung, mit enormen Herausforderungen konfrontiert sieht;

N.  in der Erwägung, dass das Gesetz über Volksverhetzung und das Kommunikations- und Multimedia-Gesetz Malaysias in einigen Fällen genutzt wurden, um das Recht von Mitgliedern des Parlaments des Landes auf freie Meinungsäußerung einzuschränken; in der Erwägung, dass die Freiheit der Meinungsäußerung und die Versammlungsfreiheit in Malaysia derzeit unter erheblichem Druck stehen, was unter anderem durch weit und unscharf gefasste Gesetze begünstigt wird, unter anderem durch das Gesetz über Volksverhetzung, das Gesetz über Druckmaschinen und Veröffentlichungen sowie die Abschnitte 504 und 505 Buchstabe b des Strafgesetzbuchs, durch die Äußerungen unter Strafe gestellt werden, die zu einer sogenannten Störung der öffentlichen Ruhe führen; in der Erwägung, dass die Staatsorgane Malaysias den Berichten verschiedener Menschenrechtsverteidiger zufolge zunehmend strafrechtliche Ermittlungen einsetzen, um Journalisten, zivilgesellschaftliche Aktivisten, Hochschulen und gewöhnliche Bürger, die soziale Medien nutzen, zu schikanieren;

O.  in der Erwägung, dass Malaysia kein Unterzeichnerstaat der Flüchtlingskonvention der Vereinten Nationen von 1951 ist; in der Erwägung, dass etwa 185 000 Flüchtlinge und Asylsuchende, wovon mehr als 100 000 der muslimischen Volksgruppe der Rohingya angehören, beim Flüchtlingswerk der Vereinten Nationen (Hoher Kommissar der Vereinten Nationen für Flüchtlinge) registriert sind, ihnen jedoch kein Rechtsstatus zuerkannt wurde; in der Erwägung, dass Malaysia Flüchtlinge zurück nach Myanmar abgeschoben hat, was offensichtlich einen Verstoß gegen das Recht auf Asyl und gegen den Grundsatz der Nichtzurückweisung darstellt;

P.  in der Erwägung, dass Arbeitsmigranten circa 20-30 % der Erwerbstätigen des Landes ausmachen und oftmals Opfer von Zwangsarbeit und Menschenrechtsverletzungen sind; in der Erwägung, dass Flüchtlinge, Asylsuchende und Staatenlose ebenfalls einem hohen Risiko von Zwangsarbeit ausgesetzt sind, da ihnen der Zugang zu rechtmäßiger Beschäftigung aufgrund ihres nicht anerkannten Status verwehrt wird; in der Erwägung, dass in jüngerer Zeit Nachweise für Zwangs- und Kinderarbeit in Malaysia gefunden wurden;

Q.  in der Erwägung, dass Malaysia das Zweite Fakultativprotokoll zum Internationalen Pakt über bürgerliche und politische Rechte zur Abschaffung der Todesstrafe nicht unterzeichnet hat;

R.  in der Erwägung, dass das malaysische Parlament am 3. April 2023 ein Gesetz angenommen hat, mit dem die obligatorische Verhängung der Todesstrafe eingestellt wurde und die Todesstrafe auf schwere Verbrechen beschränkt wurde;

S.  in der Erwägung, dass die EU und der ASEAN für den jeweils anderen der drittgrößte Handelspartner sind; in der Erwägung, dass die EU der fünftgrößte Handelspartner Malaysias und Malaysia der drittgrößte Handelspartner der EU innerhalb des ASEAN ist;

T.  in der Erwägung, dass im Jahr 2010 Verhandlungen über ein Freihandelsabkommen zwischen der EU und Malaysia aufgenommen, aber nach sieben Verhandlungsrunden im Jahr 2012 auf Antrag Malaysias ausgesetzt wurden;

EU-Strategie für den indopazifischen Raum und strategische Partnerschaft mit dem ASEAN

1.  stellt fest, dass der indopazifische Raum für Europa von zunehmender strategischer Bedeutung ist; bekräftigt seine Unterstützung für die EU-Strategie für die Zusammenarbeit im indopazifischen Raum;

2.  betont, dass sich die EU für einen freien, offenen und regelbasierten indopazifischen Raum einsetzt; bekräftigt, dass die neue Strategie der EU für den indopazifischen Raum rasch umgesetzt werden muss, um den Partnern der EU in der Region die Gelegenheit zu geben, die gemeinsamen Herausforderungen zusammen anzugehen, die regelbasierte internationale Ordnung zu verteidigen und für die gemeinsamen Werte und Grundsätze der EU und des ASEAN einzutreten; spricht sich für eine engere Zusammenarbeit mit den Ländern in der Region, insbesondere mit den ASEAN-Staaten, aus;

3.  betont, dass der ASEAN ein strategischer Partner für die EU im indopazifischen Raum ist; begrüßt den Jubiläumsgipfel der EU und des ASEAN vom 14. Dezember 2022; bringt die Hoffnung zum Ausdruck, dass die Umsetzung der gemeinsamen Erklärung der Staats- und Regierungschefs der EU und des ASEAN zu einer engeren Zusammenarbeit mit den südostasiatischen Ländern und insbesondere mit Malaysia führen wird; bekräftigt den politischen Wert starker bilateraler Beziehungen zwischen dem ASEAN und der EU im Allgemeinen sowie insbesondere zwischen Malaysia und der EU;

4.  bekräftigt seine Forderung nach einer raschen Umsetzung der Global-Gateway-Strategie der EU in Abstimmung mit der Strategie für den indopazifischen Raum; hebt die geopolitische Bedeutung dieser Herangehensweise hervor, bei der die Dimensionen der Ausrichtung auf eine nachhaltige Entwicklung, der Transformation, der Resilienzförderung und der Wertebasiertheit in das Konzept „Team Europa“ integriert werden; begrüßt, dass ein Finanzpaket in Höhe von 10 Mrd. EUR angekündigt wurde, um die Infrastrukturinvestitionen in den Ländern des ASEAN zu beschleunigen, insbesondere im Hinblick auf den ökologischen Wandel und die nachhaltige Konnektivität;

5.  begrüßt, dass die Staats- und Regierungschefs der EU und des ASEAN ihre gegenseitige Achtung der Grundsätze der Souveränität und territorialen Integrität, die in der Charta der Vereinten Nationen verankert sind, bekräftigt haben; bekräftigt, dass der Angriffskrieg Russlands gegen die Ukraine einen eklatanten Verstoß gegen das Völkerrecht darstellt; begrüßt, dass Malaysia für die Resolutionen der Vereinten Nationen zur Unterstützung der Ukraine gestimmt hat, einschließlich der Resolution, in der Russland aufgefordert wurde, alle seine Streitkräfte unverzüglich, vollständig und bedingungslos aus dem Hoheitsgebiet der Ukraine innerhalb ihrer international anerkannten Grenzen abzuziehen; fordert Malaysia auf, die Achtung des Völkerrechts zu fördern, die Ukraine zu unterstützen und eine deutliche Haltung gegenüber dem Angriffskrieg Russlands gegen die Ukraine einzunehmen, auch im Rahmen des ASEAN;

6.  stellt fest, dass Südostasien zu den Regionen der Welt gehört, die am stärksten durch die Auswirkungen der Erderwärmung gefährdet sind; sieht der Einberufung des ersten Dialogs auf Ministerebene zwischen dem ASEAN und der EU über Umwelt und den Klimawandel im Jahr 2023 erwartungsvoll entgegen; stellt fest, dass die Debatte über Palmöl für die Beziehungen zwischen der EU und Malaysia eine Herausforderung darstellte;

Abkommen über Partnerschaft und Zusammenarbeit zwischen der EU und Malaysia

7.  begrüßt den Abschluss des Abkommens über Partnerschaft und Zusammenarbeit mit Malaysia; ist der Ansicht, dass dieses Abkommen einen soliden Rechtsrahmen für die weitere Stärkung der langjährigen bilateralen politischen und wirtschaftlichen Beziehungen und für die Erörterung von Themen regionaler und globaler Bedeutung, wie unter anderem Förderung der Demokratie, Menschenrechte, internationale Gerichtsbarkeit, Stärkung des internationalen Rahmens für die Nichtverbreitung von Massenvernichtungswaffen, Terrorismusbekämpfung und Korruptionsbekämpfung, bietet;

8.  hebt hervor, dass ein modernes und zukunftsorientiertes Abkommen über Partnerschaft und Zusammenarbeit einen ambitionierten Rahmen für die Zusammenarbeit zur Bekämpfung des Klimawandels und für die Förderung der Gleichstellung der Geschlechter und der Frauenrechte bieten muss; fordert die EU auf, diese Aspekte im Zuge der Umsetzung des Abkommens über Partnerschaft und Zusammenarbeit in den Mittelpunkt der Beziehungen zwischen der EU und Malaysia zu stellen;

9.  fordert die Staatsorgane Malaysias auf, die diskriminierenden Gesetze über die Staatsangehörigkeit und Staatsbürgerschaft, mit denen die grundlegenden Menschenrechte von Frauen untergraben werden, zu ändern und wirksam gegen die Diskriminierung von Frauen am Arbeitsplatz, unter anderem in Form von Diskriminierung beim Zugang zu Beschäftigungsmöglichkeiten, Ungleichbehandlung, fehlendem Mutterschaftsurlaub und einer ungleichen Entlohnung von Männern und Frauen, vorzugehen;

10.  fordert die Vertragsparteien auf, sich zu verpflichten, die Umsetzung und Durchsetzung der innerstaatlichen Rechtsvorschriften über die Sorgfaltspflicht und Rechenschaftspflicht von Unternehmen zu unterstützen, vor dem Hintergrund von Nachhaltigkeitsprüfungen konkretere Verpflichtungen zu vereinbaren, einschlägige Informationen wie die Zahl der Untersuchungen, Kontrollen und Durchsetzungsmaßnahmen auszutauschen und Unternehmen Schulungen oder technische Unterstützung in Bezug auf die Sorgfaltspflicht und Rechenschaftspflicht von Unternehmen anzubieten;

11.  betont, dass die Vertragsparteien vereinbaren, in den Bereichen Wissenschaft, Technologie und Innovation sowie in den Bereichen umweltfreundliche Technologien, Energie und Verkehr zusammenzuarbeiten;

12.  weist darauf hin, dass die Vertragsparteien in dem Abkommen über Partnerschaft und Zusammenarbeit die Absicht bestätigen, die nachhaltige Entwicklung zu fördern, bei der Bewältigung der Herausforderungen des Klimawandels und der Globalisierung zusammenzuarbeiten und zur Verwirklichung der international vereinbarten Entwicklungsziele, insbesondere des in der Agenda 2030 erneuerten Ziels der Stärkung der weltweiten Entwicklungspartnerschaft, beizutragen; legt den beiden Vertragsparteien nahe, ihre Anstrengungen zur Bekämpfung der Auswirkungen des Klimawandels zu verstärken, indem sie wirksamere klimapolitische Maßnahmen und Strategien im Hinblick auf die Energiewende und die Dekarbonisierung beschließen und umsetzen;

13.  betont, dass die Vertragsparteien zugesagt haben, die Zusammenarbeit zu verstärken, um Fragen im Zusammenhang mit der Eindämmung des Klimawandels und der Anpassung an den Klimawandel gemäß dem Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen anzugehen; betont, dass die Vertragsparteien bei allen Maßnahmen, die sie aufgrund dieses Abkommens treffen, der Durchführung der anwendbaren multilateralen Umweltübereinkünfte, einschließlich des Übereinkommens von Paris, Rechnung tragen sollten;

14.  hebt hervor, dass Malaysia sich in vielen seiner Regionen mit einer zunehmenden Umweltzerstörung, unter anderem in Form von Entwaldung, Verlust an biologischer Vielfalt sowie Luft- und Wasserverschmutzung, konfrontiert sieht; fordert beide Vertragsparteien nachdrücklich auf, im Rahmen ihrer Zusammenarbeit einen besonderen Schwerpunkt auf die Bewältigung dieser Probleme zu legen;

15.  begrüßt, dass mit dem Abkommen über Partnerschaft und Zusammenarbeit die Förderung der Bildung und der kulturellen Zusammenarbeit, einschließlich des Austauschs zwischen den Menschen, unterstützt wird;

16.  betont, dass gemäß Artikel 1 Absatz 1 des Abkommens über Partnerschaft und Zusammenarbeit die Menschenrechte und die Stärkung demokratischer Grundsätze, die Rechtsstaatlichkeit und die verantwortungsvolle Staatsführung wesentliche Elemente dieses Abkommens sind; fordert, dass die bilaterale Zusammenarbeit bei der Förderung und dem Schutz der Menschenrechte gestärkt wird, insbesondere im Hinblick auf den Austausch über bewährte Verfahren, die Menschenrechtserziehung, die Einrichtung eines sinnvollen, breit angelegten Menschenrechtsdialogs und die Zusammenarbeit innerhalb der einschlägigen Menschenrechtsgremien der Vereinten Nationen; lobt Malaysia vor diesem Hintergrund dafür, dass es am 26. Februar 2019 eine ständige Einladung für die Sonderverfahren des Menschenrechtsrats der Vereinten Nationen ausgesprochen hat; legt Malaysia nahe, den Sonderberichterstatter der Vereinten Nationen über die Lage von Menschenrechtsverteidigern zu einem Besuch des Landes einzuladen;

17.  bekräftigt seine Forderung an die Staatsorgane Malaysias, das übermäßig weit gefasste Gesetz über Volksverhetzung aufzuheben und sämtliche Rechtsvorschriften – unter anderem das Gesetz über die Verhütung des Terrorismus, das Gesetz über Druckmaschinen und Veröffentlichungen, das Kommunikations- und Multimedia-Gesetz und das Gesetz über friedliche Versammlungen sowie andere einschlägige Bestimmungen des Strafgesetzbuchs – mit den internationalen Normen in den Bereichen Meinungsfreiheit, Versammlungsfreiheit und Schutz der Menschenrechte in Einklang zu bringen; fordert die Staatsorgane Malaysias darüber hinaus erneut auf, friedliche Versammlungen zu ermöglichen und die Sicherheit aller Teilnehmer und ihr Recht auf freie Meinungsäußerung zu garantieren;

18.  bekräftigt seine Besorgnis über das im Jahr 2016 angenommene Gesetz über den Nationalen Sicherheitsrat, durch das dem Nationalen Sicherheitsrat und den Sicherheitskräften außerordentliche Befugnisse gewährt werden; fordert die Staatsorgane Malaysias erneut auf, dieses Gesetz, das internationalen Menschenrechtsnormen widerspricht, aufzuheben; hebt hervor, dass bei der Wahrung der nationalen Sicherheit die Pflicht zum Schutz der Bürgerrechte und der politischen Rechte nicht außer Acht gelassen werden darf;

19.  fordert die Staatsorgane Malaysias erneut auf, die wesentlichen internationalen Menschenrechtsübereinkommen, darunter der Internationale Pakt über bürgerliche und politische Rechte, der Internationale Pakt über wirtschaftliche, soziale und kulturelle Rechte, das Internationale Übereinkommen zur Beseitigung jeder Form von Rassendiskriminierung und das Römische Statut des Internationalen Strafgerichtshofs, zu ratifizieren und umzusetzen;

20.  fordert die Regierung Malaysias auf, sämtliche Übereinkommen der IAO unverzüglich zu ratifizieren und umzusetzen, einschließlich des Übereinkommens Nr. 87 über die Vereinigungsfreiheit und den Schutz des Vereinigungsrechtes, des Übereinkommens Nr. 111 über Diskriminierung und des Übereinkommens Nr. 155 über Arbeitsschutz und Arbeitsumwelt; begrüßt, dass Malaysia kürzlich das Protokoll von 2014 zum Übereinkommen über Zwangsarbeit von 1930 ratifiziert hat; fordert die Regierung Malaysias nachdrücklich auf, entschieden gegen Zwangsarbeit, einschließlich missbräuchlicher Praktiken im Zusammenhang mit Hausangestellten, vorzugehen und es Arbeitgebern zu verbieten, ohne Einwilligung der Beschäftigten deren Pässe einzubehalten; legt den Staatsorganen Malaysias nahe, stärkere Anstrengungen zu unternehmen, um unter den Arbeitskräften bei Infrastrukturprojekten, die von staatsnahen Unternehmen der Volksrepublik China umgesetzt werden, Opfer von Menschenhandel zu ermitteln;

21.  äußert sich besorgt über die Lage religiöser und ethnischer Minderheiten sowie der indigenen Bevölkerung des Landes; legt den Staatsorganen Malaysias nahe, einen umfassenden Rahmen für den Schutz und die Unterstützung aller Minderheiten und indigenen Gruppen des Landes zu schaffen und dabei ihre Grundrechte, einschließlich der Religionsfreiheit und der kulturellen Rechte, gebührend zu berücksichtigen;

22.  verurteilt die weit verbreitete Diskriminierung der LGBTIQ+-Gemeinschaft; fordert die Regierung Malaysias auf, zügig einen Rechtsrahmen anzunehmen, um die Rechte der LGBTIQ+-Gemeinschaft unter umfassender Achtung der Grundrechte und im Einklang mit den internationalen Normen vor Diskriminierung zu schützen;

23.  äußert seine Besorgnis über die Lage der Flüchtlinge in Malaysia, insbesondere hinsichtlich der Inhaftierung und Abschiebung von Flüchtlingen und Asylsuchenden, einschließlich Rohingya-Flüchtlingen, in Länder, in denen ihnen schwere Menschenrechtsverletzungen drohen; verurteilt die Massenabschiebung von Tausenden von Bürgern Myanmars ohne Prüfung ihrer Asylanträge oder sonstiger Schutzansprüche, die einen Verstoß gegen den Grundsatz der Nichtzurückweisung darstellt; fordert die Staatsorgane Malaysias auf, die Zwangsabschiebungen unverzüglich einzustellen und dem Hohen Kommissar der Vereinten Nationen für Flüchtlinge rasch Zugang zu Gewahrsamseinrichtungen für Migranten zu gewähren; bekräftigt seine Forderung an die Staatsorgane Malaysias, die Flüchtlingskonvention der Vereinten Nationen von 1951 und das dazugehörige Protokoll von 1967 zu unterzeichnen und zu ratifizieren;

24.  betont, dass die Zusammenarbeit im Bereich der Migration unter uneingeschränkter Achtung des Völkerrechts umgesetzt werden muss; fordert die EU auf, bei ihrer Zusammenarbeit mit Malaysia im Bereich der Migration die internationalen Menschenrechtsnormen und insbesondere den Grundsatz der Nichtzurückweisung und den Grundsatz der freiwilligen Rückkehr zu fördern, zu achten und zu wahren;

25.  lobt Malaysia für die Abschaffung der obligatorischen Verhängung der Todesstrafe; fordert die Regierung Malaysias auf, das offizielle Moratorium für alle Hinrichtungen aufrechtzuerhalten, bis die Todesstrafe umfassend abgeschafft ist und alle Todesurteile in Haftstrafen umgewandelt sind;

26.  fordert die Staatsorgane Malaysias und die EU auf, die Zivilgesellschaft, Gewerkschaften und Menschenrechtsverteidiger bei der Umsetzung dieses Abkommens auf sinnvolle Weise einzubinden;

27.  betont, dass Menschenrechtsbelange bei allen Verhandlungen mit Malaysia berücksichtigt werden müssen;

28.  hebt hervor, dass die Freihandelsabkommen der EU die sogenannte „Nichterfüllungsklausel“ enthalten, die im Falle von Verstößen gegen wesentliche Bestandteile eines Abkommens über Partnerschaft und Zusammenarbeit zur Aussetzung der Handelspräferenzen führt;

o
o   o

29.  beauftragt seine Präsidentin, diese Entschließung dem Rat und der Kommission sowie den Regierungen und Parlamenten der Mitgliedstaaten und der Regierung und dem Parlament Malaysias zu übermitteln.

(1) ABl. C 493 vom 27.12.2022, S. 32.
(2) ABl. C 47 vom 7.2.2023, S. 15.
(3) ABl. C 346 vom 27.9.2018, S. 44.
(4) ABl. L 144 vom 10.6.1980, S. 2.
(5) ABl. C 93 vom 9.3.2016, S. 89.
(6) ABl. C 399 vom 24.11.2017, S. 137.
(7) Angenommene Texte, P9_TA(2023)0011.


Partnerschaftliches Fischereiabkommen EU-Mauritius: Durchführungsprotokoll
PDF 120kWORD 42k
Legislative Entschließung des Europäischen Parlaments vom 14. Juni 2023 zu dem Entwurf eines Beschlusses des Rates über den Abschluss des Protokolls zur Durchführung des partnerschaftlichen Fischereiabkommens zwischen der Europäischen Union und der Republik Mauritius (2022-2026) (12787/2022 – C9-0001/2023 – 2022/0249(NLE))
P9_TA(2023)0235A9-0196/2023

(Zustimmung)

Das Europäische Parlament,

–  unter Hinweis auf den Entwurf eines Beschlusses des Rates (12787/2022),

–  unter Hinweis auf das Protokoll zur Umsetzung des partnerschaftlichen Fischereiabkommens zwischen der Europäischen Union und der Republik Mauritius (2022-2026) (12785/2022),

–  unter Hinweis auf das vom Rat gemäß Artikel 43 und Artikel 218 Absatz 6 Unterabsatz 2 Buchstabe a Ziffer v des Vertrags über die Arbeitsweise der Europäischen Union unterbreitete Ersuchen um Zustimmung (C9‑0001/2023),

–  gestützt auf Artikel 105 Absätze 1 und 4 und Artikel 114 Absatz 7 seiner Geschäftsordnung,

–  unter Hinweis auf die Stellungnahme des Entwicklungsausschusses,

–  unter Hinweis auf die Stellungnahme des Haushaltsausschusses,

–  unter Hinweis auf die Empfehlung des Fischereiausschusses (A9-0196/2023),

1.  gibt seine Zustimmung zu dem Abschluss des Protokolls;

2.  beauftragt seine Präsidentin, den Standpunkt des Parlaments dem Rat, der Kommission sowie den Regierungen und Parlamenten der Mitgliedstaaten und der Republik Mauritius zu übermitteln.


Gesetz über künstliche Intelligenz
PDF 930kWORD 282k
Abänderungen des Europäischen Parlaments vom 14. Juni 2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))(1)
P9_TA(2023)0236A9-0188/2023

(Ordentliches Gesetzgebungsverfahren: erste Lesung)

Vorschlag der Kommission   Geänderter Text
Abänderung 1
Vorschlag für eine Verordnung
Bezugsvermerk 4 a (neu)
unter Hinweis auf die Stellungnahme der Europäischen Zentralbank,
Abänderung 2
Vorschlag für eine Verordnung
Bezugsvermerk 4 b (neu)
unter Hinweis auf die gemeinsame Stellungnahme des Europäischen Datenschutzausschusses und des Europäischen Datenschutzbeauftragten,
Abänderung 3
Vorschlag für eine Verordnung
Erwägung 1
(1)  Zweck dieser Verordnung ist es, das Funktionieren des Binnenmarkts zu verbessern, indem ein einheitlicher Rechtsrahmen insbesondere für die Entwicklung, Vermarktung und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union festgelegt wird. Diese Verordnung beruht auf einer Reihe von zwingenden Gründen des Allgemeininteresses, wie einem hohen Schutz der Gesundheit, der Sicherheit und der Grundrechte, und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.
(1)  Zweck dieser Verordnung ist es, die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz zu fördern und ein hohes Maß an Schutz der Gesundheit, der Sicherheit, der Grundrechte, der Demokratie und der Rechtsstaatlichkeit sowie der Umwelt vor schädlichen Auswirkungen von Systemen der künstlichen Intelligenz in der Union sicherzustellen und gleichzeitig die Innovation zu fördern und das Funktionieren des Binnenmarktes zu verbessern. Diese Verordnung legt einen einheitlichen Rechtsrahmen insbesondere für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und Verwendung künstlicher Intelligenz im Einklang mit den Werten der Union fest und gewährleistet den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert wird, dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von Systemen künstlicher Intelligenz (KI-Systemen) beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird. Bestimmte KI-Systeme können auch Auswirkungen auf die Demokratie und Rechtsstaatlichkeit sowie die Umwelt haben. Diese Bedenken werden in den kritischen Sektoren speziell angegangen und in den Anhängen dieser Verordnung sind Anwendungsfälle aufgeführt.
Abänderung 4
Vorschlag für eine Verordnung
Erwägung 1 a (neu)
(1a)  Diese Verordnung soll die Werte der Union wahren, dazu beitragen, dass die mit der KI verbundenen Vorteile der gesamten Gesellschaft zugutekommen, Einzelpersonen, Unternehmen, Demokratie und Rechtsstaatlichkeit sowie die Umwelt vor Risiken schützen und zugleich Innovation und Beschäftigung fördern und der Union eine Führungsrolle in diesem Bereich verschaffen.
Abänderung 5
Vorschlag für eine Verordnung
Erwägung 2
(2)  Systeme der künstlichen Intelligenz (KI-Systeme) können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, wobei Unterschiede, die den freien Verkehr von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird. Soweit diese Verordnung konkrete Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten enthält, mit denen vor allem die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eingeschränkt wird, sollte sich diese Verordnung in Bezug auf diese konkreten Vorschriften auch auf Artikel 16 AEUV stützen. Angesichts dieser konkreten Vorschriften und des Rückgriffs auf Artikel 16 AEUV ist es angezeigt, den Europäischen Datenschutzausschuss zu konsultieren.
(2)  KI-Systeme können problemlos in verschiedenen Bereichen der Wirtschaft und Gesellschaft, auch grenzüberschreitend, eingesetzt werden und in der gesamten Union verkehren. Einige Mitgliedstaaten haben bereits die Verabschiedung nationaler Vorschriften in Erwägung gezogen, damit künstliche Intelligenz vertrauenswürdig und sicher ist und unter Einhaltung der Grundrechte entwickelt und verwendet wird. Unterschiedliche nationale Vorschriften können zu einer Fragmentierung des Binnenmarkts führen und würden die Rechtssicherheit für Akteure, die KI-Systeme entwickeln oder verwenden, beeinträchtigen. Daher sollte in der gesamten Union ein einheitlich hohes Schutzniveau sichergestellt werden, um eine vertrauenswürdige KI zu erreichen, wobei Unterschiede, die den freien Verkehr, Innovationen, den Einsatz und die Verbreitung von KI-Systemen und damit zusammenhängenden Produkten und Dienstleistungen im Binnenmarkt behindern, vermieden werden sollten, indem den Akteuren einheitliche Verpflichtungen auferlegt werden und der gleiche Schutz der zwingenden Gründe des Allgemeininteresses und der Rechte von Personen im gesamten Binnenmarkt auf der Grundlage des Artikels 114 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) gewährleistet wird.
Abänderung 6
Vorschlag für eine Verordnung
Erwägung 2 a (neu)
(2a)  Da künstliche Intelligenz oft auf die Verarbeitung großer Datenmengen angewiesen ist und viele KI-Systeme und -Anwendungen auf der Verarbeitung personenbezogener Daten beruhen, sollte sich diese Verordnung auch auf Artikel 16 AEUV stützen, in dem das Recht auf den Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten verankert ist und der den Erlass von Vorschriften zum Schutz von Privatpersonen im Hinblick auf die Verarbeitung personenbezogener Daten vorsieht.
Abänderung 7
Vorschlag für eine Verordnung
Erwägung 2 b (neu)
(2b)  Das Grundrecht auf Schutz personenbezogener Daten wird insbesondere durch die Verordnungen (EU) 2016/679 und (EU) 2018/1725 und die Richtlinie (EU) 2016/680 gewahrt. Die Richtlinie 2002/58/EG schützt darüber hinaus die Privatsphäre und die Vertraulichkeit der Kommunikation und enthält Bedingungen für die Speicherung personenbezogener und nicht personenbezogener Daten auf Endgeräten und den Zugang dazu. Diese Rechtsakte bieten die Grundlage für eine nachhaltige und verantwortungsvolle Datenverarbeitung, auch wenn Datensätze eine Mischung aus personenbezogenen und nicht personenbezogenen Daten enthalten. Die Verordnung soll die Anwendung des bestehenden Unionsrechts zur Verarbeitung personenbezogener Daten, einschließlich der Aufgaben und Befugnisse der unabhängigen Aufsichtsbehörden, die für die Überwachung der Einhaltung dieser Instrumente zuständig sind, nicht berühren. Die Grundrechte auf Privatleben und den Schutz personenbezogener Daten, wie sie im Unionsrecht zum Datenschutz und zur Privatsphäre vorgesehen und in der Charta der Grundrechte der Europäischen Union (die „Charta“) verankert sind, werden von der Verordnung nicht berührt.
Abänderung 8
Vorschlag für eine Verordnung
Erwägung 2 c (neu)
(2c)  Systeme der künstlichen Intelligenz unterliegen in der Union den einschlägigen Rechtsvorschriften zur Produktsicherheit, durch die ein Rahmen bereitgestellt wird, durch den Verbraucher vor gefährlichen Produkten im Allgemeinen geschützt werden, wobei solche Rechtsvorschriften weiterhin gelten sollten. Diese Verordnung lässt die Vorschriften, die in anderen Rechtsakten der Union zur Regelung des Verbraucherschutzes und der Produktsicherheit festgelegt sind, insbesondere in der Verordnung (EU) 2017/2394, der Verordnung (EU) 2019/1020 und der Richtlinie 2001/95/EG über die allgemeine Produktsicherheit sowie der Richtlinie 2013/11/EU, unberührt.
Abänderung 9
Vorschlag für eine Verordnung
Erwägung 2 d (neu)
(2d)  In Übereinstimmung mit Artikel 114 Absatz 2 AEUV dient diese Verordnung als Ergänzung und sollte nicht die Rechte und Interessen von Arbeitnehmern beeinträchtigen. Diese Verordnung sollte daher nicht das Unionsrecht im Bereich der Sozialpolitik und die nationalen Arbeitsrechtsvorschriften und -gepflogenheiten berühren, d. h. jegliche gesetzlichen und vertraglichen Vorschriften über Beschäftigungs- und Arbeitsbedingungen, einschließlich der Gesundheit und Sicherheit am Arbeitsplatz sowie der Beziehung zwischen Arbeitgeber und Arbeitnehmer, einschließlich Unterrichtung, Anhörung und Beteiligung. Diese Verordnung sollte die Ausübung der in den Mitgliedstaaten und auf Unionsebene anerkannten Grundrechte, einschließlich des Rechts oder der Freiheit zum Streik oder zur Durchführung anderer Maßnahmen, die im Rahmen der spezifischen Systeme der Mitgliedstaaten im Bereich der Arbeitsbeziehungen nach ihren nationalen Rechtsvorschriften und/oder Gepflogenheiten vorgesehen sind, nicht beeinträchtigen. Sie sollte auch nicht die Konzertierungspraktiken und das Recht berühren, im Einklang mit den nationalen Rechtsvorschriften und/oder Gepflogenheiten Tarifverträge auszuhandeln, abzuschließen und durchzusetzen oder kollektive Maßnahmen zu ergreifen. Keinesfalls sollte sie die Kommission daran hindern, spezifische Rechtsvorschriften zu den Rechten und Freiheiten der Beschäftigten, die von KI-Systemen betroffen sind, vorzuschlagen.
Abänderung 10
Vorschlag für eine Verordnung
Erwägung 2 e (neu)
(2e)  Diese Verordnung sollte die in der Richtlinie ... [COD 2021/414/EG] zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit enthaltenen Bestimmungen nicht berühren.
Abänderung 11
Vorschlag für eine Verordnung
Erwägung 2 f (neu)
(2f)  Diese Verordnung sollte dazu beitragen, Forschung und Innovation zu unterstützen, und sollte Forschungs- und Entwicklungstätigkeiten nicht beeinträchtigen und die Freiheit der wissenschaftlichen Forschung wahren. Daher müssen KI-Systeme, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt werden, vom Anwendungsbereich der Verordnung ausgenommen werden, und es muss sichergestellt werden, dass sich die Verordnung nicht anderweitig auf wissenschaftliche Aktivitäten zur Forschung und Entwicklung in Bezug auf KI-Systeme auswirkt. In jedem Fall sollten jegliche Forschungs- und Entwicklungsaktivitäten in Übereinstimmung mit der Charta der Menschenrechte, dem Unionsrecht sowie den nationalen Rechtsvorschriften ausgeführt werden.
Abänderung 12
Vorschlag für eine Verordnung
Erwägung 3
(3)  Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, allgemeine und berufliche Bildung, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz sowie Klimaschutz und Anpassung an den Klimawandel.
(3)  Künstliche Intelligenz bezeichnet eine Reihe von Technologien, die sich rasant entwickeln und zu vielfältigem Nutzen für Wirtschaft, Umwelt und Gesellschaft über das gesamte Spektrum industrieller und gesellschaftlicher Aktivitäten hinweg beitragen können – und dies bereits tun –, wenn sie in Übereinstimmung mit den relevanten allgemeinen Grundsätzen entwickelt werden, die der Charta und den Werten, auf denen die Union beruht, entsprechen. Durch die Verbesserung der Vorhersage, Optimierung der Abläufe, Ressourcenzuweisung und Personalisierung digitaler Lösungen, die Einzelpersonen und Organisationen zur Verfügung stehen, kann die Verwendung künstlicher Intelligenz den Unternehmen wesentliche Wettbewerbsvorteile verschaffen und zu guten Ergebnissen für Gesellschaft und Umwelt führen, beispielsweise in den Bereichen Gesundheitsversorgung, Landwirtschaft, Lebensmittelsicherheit, allgemeine und berufliche Bildung, Medien, Sport, Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, Krisenmanagement, öffentliche Dienstleistungen, Sicherheit, Justiz, Ressourcen- und Energieeffizienz, Umweltüberwachung, die Bewahrung und Wiederherstellung der Biodiversität und der Ökosysteme sowie Klimaschutz und Anpassung an den Klimawandel.
Abänderung 13
Vorschlag für eine Verordnung
Erwägung 3 a (neu)
(3a)  Um dazu beizutragen, die Klimaneutralitätsziele zu erreichen, sollten europäische Unternehmen versuchen, alle verfügbaren technologischen Fortschritte zu nutzen, die hierbei hilfreich sein können. Künstliche Intelligenz ist eine Technologie, die eingesetzt werden kann, um die stets wachsende Datenmenge zu verarbeiten, die bei den Abläufen in Bereichen wie Wirtschaft, Umwelt und Gesundheit entsteht. Um Investitionen in Analyse- und Optimierungsinstrumente auf KI-Basis zu erleichtern, sollte diese Verordnung eine vorhersagbare und angemessene Umgebung für industrielle Lösungen mit geringem Risiko bereitstellen.
Abänderung 14
Vorschlag für eine Verordnung
Erwägung 4
(4)  Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung Risiken mit sich bringen und öffentliche Interessen und Rechte schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein.
(4)  Gleichzeitig kann künstliche Intelligenz je nach den Umständen ihrer konkreten Anwendung und Nutzung sowie der technologischen Entwicklungsstufe Risiken mit sich bringen und öffentliche oder private Interessen und grundlegende Rechte natürlicher Personen schädigen, die durch das Unionsrecht geschützt sind. Ein solcher Schaden kann materieller oder immaterieller Art sein, einschließlich physischer, psychischer, gesellschaftlicher oder wirtschaftlicher Schäden.
Abänderung 15
Vorschlag für eine Verordnung
Erwägung 4 a (neu)
(4a)  Angesichts der großen Auswirkungen, die künstliche Intelligenz auf die Gesellschaft haben kann, und der Notwendigkeit, Vertrauen aufzubauen, ist es von entscheidender Bedeutung, dass die künstliche Intelligenz und ihr Regulierungsrahmen im Einklang mit den in Artikel 2 EUV verankerten Werten der Union und den in den Verträgen, der Charta und den internationalen Menschenrechtsnormen verankerten Grundrechten und -freiheiten entwickelt werden. Als Voraussetzung sollte künstliche Intelligenz eine menschenzentrierte Technologie sein. Sie soll weder die menschliche Autonomie ersetzen noch den Verlust individueller Freiheit voraussetzen und in erster Linie den Bedürfnissen der Gesellschaft und dem Gemeinwohl dienen. Um die Entwicklung und Nutzung ethisch eingebetteter künstlicher Intelligenz sicherzustellen, die die Werte der Union und die Charta achtet, sollten Garantien vorgesehen werden.
Abänderung 16
Vorschlag für eine Verordnung
Erwägung 5
(5)  Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie Gesundheit und Sicherheit und den Schutz der durch das Unionsrecht anerkannten und geschützten Grundrechte zu gewährleisten. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen und die Inbetriebnahme bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Durch die Festlegung dieser Vorschriften unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.
(5)  Daher ist ein Rechtsrahmen der Union mit harmonisierten Vorschriften für künstliche Intelligenz erforderlich, um die Entwicklung, Verwendung und Verbreitung künstlicher Intelligenz im Binnenmarkt zu fördern und gleichzeitig einen hohen Schutz öffentlicher Interessen wie den Schutz der Grundrechte, der Demokratie, der Rechtsstaatlichkeit, der Umwelt, der Gesundheit und Sicherheit zu gewährleisten, wie sie durch das Unionsrecht anerkannt und geschützt werden. Zur Umsetzung dieses Ziels sollten Vorschriften für das Inverkehrbringen, die Inbetriebnahme und die Verwendung bestimmter KI-Systeme festgelegt werden, um das reibungslose Funktionieren des Binnenmarkts zu gewährleisten, sodass diesen Systemen der Grundsatz des freien Waren- und Dienstleistungsverkehrs zugutekommen kann. Diese Regeln sollten klar und robust sein, um die Grundrechte zu schützen, neue innovative Lösungen zu unterstützen und ein europäisches Ökosystem öffentlicher und privater Akteure zu ermöglichen, die KI-Systeme im Einklang mit den Werten der Union entwickeln. Durch die Festlegung dieser Vorschriften sowie durch Maßnahmen zur Unterstützung der Innovation mit besonderem Augenmerk auf KMU und Start-up-Unternehmen unterstützt die Verordnung das vom Europäischen Rat33 formulierte Ziel der Union, in Europa hergestellte KI zu fördern und bei der Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz weltweit eine Führungsrolle einzunehmen, und sorgt für den vom Europäischen Parlament34 ausdrücklich geforderten Schutz von Ethikgrundsätzen.
__________________
__________________
33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.
33 Europäischer Rat, Außerordentliche Tagung des Europäischen Rates (1. und 2. Oktober 2020) – Schlussfolgerungen, EUCO 13/20, 2020, S. 6.
34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).
34 Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zu dem Rahmen für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien, 2020/2012 (INL).
Abänderung 17
Vorschlag für eine Verordnung
Erwägung 5 a (neu)
(5a)  Darüber hinaus muss sich die Union – um die Entwicklung von KI-Systemen gemäß den Werten der Union zu fördern – den Hauptlücken und Hindernissen widmen, die das Potenzial des digitalen Wandels hemmen, wobei hier etwa der Mangel an in der Digitalisierung geschulten Arbeitskräften, Bedenken zur Internetsicherheit, zu wenige und zu geringer Zugang zu Investitionen sowie bestehende und potenzielle Lücken zwischen großen Unternehmen, KMU und Start-ups zu nennen sind. Dabei sollte besondere Aufmerksamkeit darauf gelegt werden, dass alle Regionen der Union von den Vorteilen der KI und von Innovationen in den neuen Technologien profitieren und dass ausreichende Investitionen und Ressourcen bereitgestellt werden, vor allem für Regionen, die in einigen Bereichen der Digitalisierung noch viel aufzuholen haben.
Abänderung 18
Vorschlag für eine Verordnung
Erwägung 6
(6)  Der Begriff „KI-System“ sollte klar definiert werden, um Rechtssicherheit zu gewährleisten und gleichzeitig genügend Flexibilität zu bieten, um künftigen technologischen Entwicklungen Rechnung zu tragen. Die Begriffsbestimmung sollte auf den wesentlichen funktionalen Merkmalen der Software beruhen, insbesondere darauf, dass sie im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren, sei es physisch oder digital. KI-Systeme können so konzipiert sein, dass sie mit verschiedenen Graden der Autonomie arbeiten und eigenständig oder als Bestandteil eines Produkts verwendet werden können, unabhängig davon, ob das System physisch in das Produkt integriert ist (eingebettet) oder der Funktion des Produkts dient, ohne darin integriert zu sein (nicht eingebettet). Die Bestimmung des Begriffs „KI-System“ sollte durch eine Liste spezifischer Techniken und Konzepte für seine Entwicklung ergänzt werden, die im Lichte der Marktentwicklungen und der technischen Entwicklungen auf dem neuesten Stand gehalten werden sollte, indem die Kommission delegierte Rechtsakte zur Änderung dieser Liste erlässt.
(6)  Der Begriff „KI-System“ in dieser Verordnung sollte klar definiert und eng mit der Tätigkeit internationaler Organisationen abgestimmt werden, die sich mit künstlicher Intelligenz befassen, um Rechtssicherheit, Harmonisierung und hohe Akzeptanz sicherzustellen und gleichzeitig genügend Flexibilität zu bieten, um künftigen, rapiden technologischen Entwicklungen in diesem Bereich Rechnung zu tragen. Darüber hinaus sollte die Begriffsbestimmung auf den wesentlichen Merkmalen der künstlichen Intelligenz wie ihren Lern-, Schlussfolgerungs- oder Modellierungsfähigkeiten beruhen und sie von einfacheren Softwaresystemen und Programmierungsansätzen abgrenzen. KI‑Systeme sind mit verschiedenen Graden der Autonomie ausgestattet, was bedeutet, dass sie zumindest bis zu einem gewissen Grad unabhängig von menschlicher Kontrolle agieren und in der Lage sind, ohne menschliches Eingreifen zu arbeiten. Die Bezeichnung „maschinenbasiert“ bezieht sich auf die Tatsache, dass KI-Systeme von Maschinen betrieben werden. Durch die Bezugnahme auf explizite oder implizite Ziele wird betont, dass KI-Systeme gemäß expliziten – von Menschen festgelegten – Zielen oder gemäß impliziten Zielen arbeiten können. Die Ziele des KI-Systems können sich – unter bestimmten Umständen – von dem eigentlich vorgesehenen Verwendungszweck unterscheiden. Der Verweis auf Vorhersagen umfasst auch Inhalte, die in dieser Verordnung als eine Form von Vorhersage in Bezug auf eines der möglichen von einem KI-System generierten Ergebnisse hervorgebracht werden. Für die Zwecke dieser Verordnung sollten „Umgebungen“ als Kontexte verstanden werden, in denen KI-Systeme betrieben werden, während die von einem KI-System erzeugten Inhalte – also Vorhersagen, Empfehlungen oder Entscheidungen – auf der Grundlage von Eingaben aus dem genannten Umfeld als Reaktion auf die Ziele des Systems entstehen. Durch solche Ergebnisse wird das genannte Umfeld wiederum beeinflusst, auch dadurch, dass ihm neue Informationen zugeführt werden.
Abänderung 19
Vorschlag für eine Verordnung
Erwägung 6 a (neu)
(6a)  KI-Systeme verfügen oft über Funktionen zum maschinellen Lernen, durch die es ihnen möglich ist, sich anzupassen und neue Aufgaben autonom auszuführen. Der Begriff „maschinelles Lernen“ bezieht sich auf den Rechenvorgang, bei dem die Parameter eines Modells auf der Grundlage von Daten optimiert werden, wobei es sich um ein mathematisches Konstrukt handelt, bei dem Ergebnisse auf der Grundlage von Eingabedaten erzeugt werden. Zu den Konzepten des maschinellen Lernens gehören z. B. beaufsichtigtes oder unbeaufsichtigtes und bestärkendes Lernen unter Verwendung einer Palette von Methoden, einschließlich des tiefen Lernens (Deep Learning) auf der Grundlage von neuronalen Netzwerken. Ziel dieser Verordnung ist es, bestimmte potenzielle Risiken anzugehen, die dadurch entstehen können, dass die Kontrolle über KI-Systeme übertragen wird, insbesondere wenn die Kontrolle auf KI-Systeme übertragen wird, die sich nach der Einführung des Systems entwickeln. Die Funktionen und Ergebnisse vieler dieser KI-Systeme beruhen auf abstrakten mathematischen Beziehungen, die für Menschen schwer zu verstehen und zu überwachen sind bzw. schwer auf spezifische Eingaben zurückzuführen sind. Diese komplexen und undurchsichtigen Merkmale („Black-Box-Elemente“) haben Auswirkungen auf die Zurechenbarkeit und Erklärbarkeit. Vergleichsweise einfachere Techniken, wie zum Beispiel wissensgestützte Konzepte, Bayessche Schätzungen oder Entscheidungsbäume können auch zu Rechtslücken führen, die durch diese Verordnung angegangen werden müssen, insbesondere, wenn sie in Verbindung mit Konzepten des maschinellen Lernens in hybriden Systemen verwendet werden.
Abänderung 20
Vorschlag für eine Verordnung
Erwägung 6 b (neu)
(6b)  KI-Systeme können als eigenständige Softwaresysteme verwendet werden, in ein physisches Produkt integriert (eingebettet) werden, der Funktion eines physischen Produkts dienen, ohne darin integriert zu sein (nicht eingebettet), oder als KI-Komponente eines größeren Systems verwendet werden. Wenn dieses größere System ohne die genannte KI-Komponente nicht funktionsfähig wäre, dann sollte das gesamte größere System im Rahmen dieser Verordnung als ein einziges KI-System angesehen werden.
Abänderung 21
Vorschlag für eine Verordnung
Erwägung 7
(7)  Der in dieser Verordnung verwendete Begriff „biometrische Daten“ steht im Einklang mit dem Begriff „biometrische Daten“ im Sinne von Artikel 4 Nummer 14 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates35, Artikel 3 Nummer 18 der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates36 und Artikel 3 Nummer 13 der Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates37 und sollte im Einklang damit ausgelegt werden.
(7)  Der in dieser Verordnung verwendete Begriff „biometrische Daten“ steht im Einklang mit dem Begriff „biometrische Daten“ im Sinne von Artikel 4 Nummer 14 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates35. „Biometrische Daten“ sind zusätzliche Daten, die sich aus der spezifischen technischen Verarbeitung physischer, physiologischer oder verhaltensbezogener Signale einer natürlichen Person ergeben, wie Gesichtsausdruck, Bewegungen, Pulsfrequenz, Stimme, Tastenanschlag oder Gang, die die eindeutige Identifizierung einer natürlichen Person ermöglichen oder bestätigen können.
__________________
__________________
35 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).
35 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).
36 Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates vom 23. Oktober 2018 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Union, zum freien Datenverkehr und zur Aufhebung der Verordnung (EG) Nr. 45/2001 und des Beschlusses Nr. 1247/2002/EG (ABl. L 295 vom 21.11.2018, S. 39).
37 Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates (Richtlinie zum Datenschutz bei der Strafverfolgung) (ABl. L 119 vom 4.5.2016, S. 89).
Abänderung 22
Vorschlag für eine Verordnung
Erwägung 7 a (neu)
(7a)  Der Begriff „biometrische Identifizierung“ sollte gemäß dieser Verordnung als automatische Erkennung physischer, physiologischer, verhaltensbezogener und psychischer menschlicher Merkmale wie Gesicht, Augenbewegungen, Gesichtsausdruck, Körperform, Stimme, Sprache, Gang, Haltung, Herzfrequenz, Blutdruck, Geruch, Tastenanschläge, psychologische Reaktionen (Wut, Kummer, Trauer usw.) zum Zweck der Überprüfung der Identität einer Person durch Abgleich der biometrischen Daten der entsprechenden Person mit den in einer Datenbank gespeicherten biometrischen Daten (1:n-Identifizierung) definiert werden, unabhängig davon, ob die Einzelperson ihre Zustimmung dazu gegeben hat oder nicht.
Abänderung 23
Vorschlag für eine Verordnung
Erwägung 7 b (neu)
(7b)  Der Begriff „biometrische Kategorisierung“ im Sinne dieser Verordnung sollte die Zuordnung natürlicher Personen zu bestimmten Kategorien oder die Ableitung ihrer Merkmale und Attribute wie soziales Geschlecht, Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische oder soziale Herkunft, Gesundheit, mentale oder körperliche Fähigkeiten, Persönlichkeits- oder Charaktermerkmale, Sprache, Religion oder Zugehörigkeit zu einer nationalen Minderheit oder sexuelle oder politische Ausrichtung auf der Grundlage ihrer biometrischen oder biometriegestützten Daten oder von Daten, die aus diesen Daten abgeleitet werden können, bezeichnen.
Abänderung 24
Vorschlag für eine Verordnung
Erwägung 8
(8)  Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, und unabhängig davon, welche Technik, Verfahren oder Arten biometrischer Daten dazu verwendet werden. Angesichts ihrer unterschiedlichen Merkmale und Einsatzformen sowie der unterschiedlichen Risiken, die mit ihnen verbunden sind, sollte zwischen biometrischen Echtzeit-Fernidentifizierungssystemen und Systemen zur nachträglichen biometrischen Fernidentifizierung unterschieden werden. Bei „Echtzeit-Systemen“ erfolgen die Erfassung der biometrischen Daten, der Abgleich und die Identifizierung unverzüglich, zeitnah oder auf jeden Fall ohne erhebliche Verzögerung. In diesem Zusammenhang sollte es keinen Spielraum für eine Umgehung der Bestimmungen dieser Verordnung über die „Echtzeit-Nutzung“ der betreffenden KI-Systeme geben, indem kleinere Verzögerungen vorgesehen werden. „Echtzeit-Systeme“ umfassen die Verwendung von „Live-Material“ oder „Near-live-Material“ wie Videoaufnahmen, die von einer Kamera oder einem anderen Gerät mit ähnlicher Funktion erzeugt werden. Bei Systemen zur nachträglichen Identifizierung hingegen wurden die biometrischen Daten schon zuvor erfasst und der Abgleich und die Identifizierung erfolgen erst mit erheblicher Verzögerung. Dabei handelt es sich um Material wie Bild- oder Videoaufnahmen, die von Video-Überwachungssystemen oder privaten Geräten vor der Anwendung des KI-Systems auf die betroffenen natürlichen Personen erzeugt wurden.
(8)  Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, und unabhängig davon, welche Technik, Verfahren oder Arten biometrischer Daten dazu verwendet werden, mit Ausnahme von Verifizierungssystemen, die nur die biometrischen Daten einer Person mit den in Bezug auf diese Person zuvor gewonnenen biometrischen Daten (eineindeutige Beziehung) vergleichen. Angesichts ihrer unterschiedlichen Merkmale und Einsatzformen sowie der unterschiedlichen Risiken, die mit ihnen verbunden sind, sollte zwischen biometrischen Echtzeit-Fernidentifizierungssystemen und Systemen zur nachträglichen biometrischen Fernidentifizierung unterschieden werden. Bei „Echtzeit-Systemen“ erfolgen die Erfassung der biometrischen Daten, der Abgleich und die Identifizierung unverzüglich, zeitnah oder auf jeden Fall ohne erhebliche Verzögerung. In diesem Zusammenhang sollte es keinen Spielraum für eine Umgehung der Bestimmungen dieser Verordnung über die „Echtzeit-Nutzung“ der betreffenden KI-Systeme geben, indem kleinere Verzögerungen vorgesehen werden. „Echtzeit-Systeme“ umfassen die Verwendung von „Live-Material“ oder „Near-live-Material“ wie Videoaufnahmen, die von einer Kamera oder einem anderen Gerät mit ähnlicher Funktion erzeugt werden. Bei Systemen zur nachträglichen Identifizierung hingegen wurden die biometrischen Daten schon zuvor erfasst und der Abgleich und die Identifizierung erfolgen erst mit erheblicher Verzögerung. Dabei handelt es sich um Material wie Bild- oder Videoaufnahmen, die von Video-Überwachungssystemen oder privaten Geräten vor der Anwendung des KI-Systems auf die betroffenen natürlichen Personen erzeugt wurden. Angesichts der Tatsache, dass das Konzept der biometrischen Identifizierung unabhängig von der Einwilligung einer Person ist, gilt diese Definition auch, wenn Warnmeldungen an dem Ort angebracht sind, der durch das biometrische Fernidentifizierungssystem überwacht wird, und ist durch die vorige Anmeldung nicht de facto ungültig.
Abänderung 25
Vorschlag für eine Verordnung
Erwägung 8 a (neu)
(8a)  Bei der Identifizierung natürlicher Personen aus der Ferne wird zwischen biometrischen Fernidentifizierungssystemen und Systemen zur Überprüfung von Einzelpersonen aus der Nähe unterschieden, die biometrische Identifizierungsinstrumente verwenden und deren einziger Zweck darin besteht, zu bestätigen, ob eine bestimmte natürliche Person, die sich zur Identifizierung vorstellt, beispielsweise berechtigt ist oder nicht, Zugang zu einem Dienst, einem Gerät oder einem Gebäude zu erhalten.
Abänderung 26
Vorschlag für eine Verordnung
Erwägung 9
(9)  Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager und Fabriken, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Auch Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Geschäfte und Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.
(9)  Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen der Öffentlichkeit zugänglichen physischen Ort bezieht, unabhängig davon, ob sich der betreffende Ort in privatem oder öffentlichem Eigentum befindet, und unabhängig von möglichen Kapazitätseinschränkungen. Daher erfasst der Begriff keine privaten Orte, wie Privathäuser, private Clubs, Büros, Lager und Fabriken, die normalerweise für Dritte, einschließlich Strafverfolgungsbehörden, nicht frei zugänglich sind, es sei denn, diese wurden ausdrücklich eingeladen oder ihr Zugang ausdrücklich erlaubt. Auch Online-Räume werden nicht erfasst, da es sich nicht um physische Räume handelt. Die bloße Tatsache, dass bestimmte Bedingungen für den Zugang zu einem bestimmten Raum gelten können, wie Eintrittskarten oder Altersbeschränkungen, bedeutet jedoch nicht, dass der Raum im Sinne dieser Verordnung nicht öffentlich zugänglich ist. Folglich sind neben öffentlichen Räumen wie Straßen, relevanten Teilen von Regierungsgebäuden und den meisten Verkehrsinfrastrukturen auch Bereiche wie Kinos, Theater, Sportplätze, Schulen, Universitäten, relevante Gebäudebereiche von Krankenhäusern und Banken, Vergnügungsparks, Festivals, Geschäfte und Einkaufszentren in der Regel öffentlich zugänglich. Ob ein bestimmter Raum öffentlich zugänglich ist, sollte jedoch von Fall zu Fall unter Berücksichtigung der Besonderheiten der jeweiligen individuellen Situation entschieden werden.
Abänderung 27
Vorschlag für eine Verordnung
Erwägung 9 a (neu)
(9a)  Es ist wichtig, festzustellen, dass KI-Systeme so konzipiert sind, dass es ihnen möglich ist, allgemeine Grundsätze einzuhalten, mit denen ein auf den Menschen ausgerichteter Rahmen auf hoher Ebene geschaffen wird, der einen kohärenten, auf den Menschen ausgerichteten Ansatz für ethische und vertrauenswürdige KI im Einklang mit der Charta der Grundrechte der Europäischen Union und den Werten, auf denen die Union beruht, fördert, einschließlich des Schutzes der Grundrechte, der Handlungs- und Kontrollfähigkeit des Menschen, der technischen Robustheit und Sicherheit, des Schutzes der Privatsphäre und der Datenverwaltung, der Transparenz, der Nichtdiskriminierung und Fairness sowie des gesellschaftlichen und ökologischen Wohlergehens.
Abänderung 28
Vorschlag für eine Verordnung
Erwägung 9 b (neu)
(9b)  Der Begriff „KI-Kompetenz“ bezieht sich auf Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Nutzern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme in Kenntnis der Sachlage einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden und dadurch ihre demokratische Kontrolle zu fördern. KI-Kompetenz sollte sich nicht auf das Lernen über Werkzeuge und Technologien beschränken, sondern auch darauf abzielen, Anbieter und Nutzer mit den Begriffen und Kompetenzen auszustatten, die erforderlich sind, um die Einhaltung und Durchsetzung dieser Verordnung sicherzustellen. Daher ist es notwendig, dass die Kommission, die Mitgliedstaaten sowie die Anbieter und Nutzer von KI-Systemen in Zusammenarbeit mit allen einschlägigen Interessenträgern die Entwicklung ausreichender KI-Kompetenzen bei Menschen aller Altersgruppen, einschließlich Frauen und Mädchen, in allen Bereichen der Gesellschaft fördern und dass die diesbezüglichen Fortschritte aufmerksam verfolgt werden.
Abänderung 29
Vorschlag für eine Verordnung
Erwägung 10
(10)  Um gleiche Wettbewerbsbedingungen und einen wirksamen Schutz der Rechte und Freiheiten natürlicher Personen in der gesamten Union zu gewährleisten, sollten die in dieser Verordnung festgelegten Vorschriften in nichtdiskriminierender Weise für Anbieter von KI-Systemen – unabhängig davon, ob sie in der Union oder in einem Drittland niedergelassen sind – und für Nutzer von KI-Systemen, die in der Union ansässig oder niedergelassen sind, gelten.
(10)  Um gleiche Wettbewerbsbedingungen und einen wirksamen Schutz der Rechte und Freiheiten natürlicher Personen in der gesamten Union und auf internationaler Ebene zu gewährleisten, sollten die in dieser Verordnung festgelegten Vorschriften in nichtdiskriminierender Weise für Anbieter von KI-Systemen – unabhängig davon, ob sie in der Union oder in einem Drittland niedergelassen sind – und für Betreiber von KI-Systemen, die in der Union ansässig oder niedergelassen sind, gelten. Damit die Union ihren Grundwerten treu bleibt, sollten KI-Systeme, die für Verfahren eingesetzt werden, die im Rahmen dieser Verordnung als unannehmbar angesehen werden, aufgrund ihrer besonders schädigenden Auswirkungen auf die in der Charta verankerten Grundrechte auch außerhalb der Union als unannehmbar gelten. Es ist daher angemessen, die Ausfuhr solcher KI-Systeme in Drittländer durch in der Union ansässige Betreiber zu verbieten.
Abänderung 30
Vorschlag für eine Verordnung
Erwägung 11
(11)  Angesichts ihres digitalen Charakters sollten bestimmte KI-Systeme in den Anwendungsbereich dieser Verordnung fallen, selbst wenn sie in der Union weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dies ist beispielsweise der Fall, wenn ein in der Union ansässiger oder niedergelassener Akteur bestimmte Dienstleistungen an einen außerhalb der Union ansässigen oder niedergelassenen Akteur im Zusammenhang mit einer Tätigkeit vergibt, die von einem KI-System ausgeübt werden soll, das als hochriskant einzustufen wäre und sich auf in der Union ansässige natürliche Personen auswirken würde. Unter diesen Umständen könnte das von dem Akteur außerhalb der Union betriebene KI-System Daten verarbeiten, die rechtmäßig in der Union erhoben und aus der Union übertragen wurden, und sodann dem vertraglichen Akteur in der Union die aus dieser Verarbeitung resultierenden Ergebnisse dieses KI-Systems liefern, ohne dass dieses KI-System dabei in der Union in Verkehr gebracht, in Betrieb genommen oder verwendet wird. Um die Umgehung dieser Verordnung zu verhindern und einen wirksamen Schutz in der Union ansässiger natürlicher Personen zu gewährleisten, sollte diese Verordnung auch für Anbieter und Nutzer von KI-Systemen gelten, die in einem Drittland ansässig oder niedergelassen sind, soweit die von diesen Systemen erzeugten Ergebnisse in der Union verwendet werden. Um jedoch bestehenden Vereinbarungen und besonderen Erfordernissen für die Zusammenarbeit mit ausländischen Partnern, mit denen Informationen und Beweismittel ausgetauscht werden, Rechnung zu tragen, sollte diese Verordnung nicht für Behörden eines Drittlands und internationale Organisationen gelten, wenn sie im Rahmen internationaler Übereinkünfte tätig werden, die auf nationaler oder europäischer Ebene für die Zusammenarbeit mit der Union oder ihren Mitgliedstaaten im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit geschlossen wurden. Solche Übereinkünfte wurden bilateral zwischen Mitgliedstaaten und Drittstaaten oder zwischen der Europäischen Union, Europol und anderen EU-Agenturen einerseits und Drittstaaten und internationalen Organisationen andererseits geschlossen.
(11)  Angesichts ihres digitalen Charakters sollten bestimmte KI-Systeme in den Anwendungsbereich dieser Verordnung fallen, selbst wenn sie in der Union weder in Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dies ist beispielsweise der Fall, wenn ein in der Union ansässiger oder niedergelassener Akteur bestimmte Dienstleistungen an einen außerhalb der Union ansässigen oder niedergelassenen Akteur im Zusammenhang mit einer Tätigkeit vergibt, die von einem KI-System ausgeübt werden soll, das als hochriskant einzustufen wäre und sich auf in der Union ansässige natürliche Personen auswirken würde. Unter diesen Umständen könnte das von dem Akteur außerhalb der Union betriebene KI-System Daten verarbeiten, die rechtmäßig in der Union erhoben und aus der Union übertragen wurden, und sodann dem vertraglichen Akteur in der Union die aus dieser Verarbeitung resultierenden Ergebnisse dieses KI-Systems liefern, ohne dass dieses KI-System dabei in der Union in Verkehr gebracht, in Betrieb genommen oder verwendet wird. Um die Umgehung dieser Verordnung zu verhindern und einen wirksamen Schutz in der Union ansässiger natürlicher Personen zu gewährleisten, sollte diese Verordnung auch für Anbieter, Nutzer und Betreiber von KI-Systemen gelten, die in einem Drittland ansässig oder niedergelassen sind, soweit die von diesen Systemen erzeugten Ergebnisse für die Nutzung in der Union vorgesehen sind. Um jedoch bestehenden Vereinbarungen und besonderen Erfordernissen für die Zusammenarbeit mit ausländischen Partnern, mit denen Informationen und Beweismittel ausgetauscht werden, Rechnung zu tragen, sollte diese Verordnung nicht für Behörden eines Drittlands und internationale Organisationen gelten, wenn sie im Rahmen internationaler Übereinkünfte tätig werden, die auf nationaler oder europäischer Ebene für die Zusammenarbeit mit der Union oder ihren Mitgliedstaaten im Bereich der Strafverfolgung und der justiziellen Zusammenarbeit geschlossen wurden. Solche Übereinkünfte wurden bilateral zwischen Mitgliedstaaten und Drittstaaten oder zwischen der Europäischen Union, Europol und anderen EU-Agenturen einerseits und Drittstaaten und internationalen Organisationen andererseits geschlossen. Diese Ausnahme sollte jedoch auf vertrauenswürdige Länder und internationale Organisationen beschränkt werden, die die Werte der Union teilen.
Abänderung 31
Vorschlag für eine Verordnung
Erwägung 12
(12)  Diese Verordnung sollte auch für Organe, Einrichtungen und sonstige Stellen der Union gelten, wenn sie als Anbieter oder Nutzer eines KI-Systems auftreten. KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden, sollten vom Anwendungsbereich dieser Verordnung ausgenommen werden, wenn diese Verwendung in den ausschließlichen Zuständigkeitsbereich der Gemeinsamen Außen- und Sicherheitspolitik fällt, der in Titel V des Vertrags über die Europäische Union (EUV) geregelt ist. Diese Verordnung sollte die Bestimmungen über die Verantwortlichkeit der Vermittler in der Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates [in der durch das Gesetz über digitale Dienste geänderten Fassung] unberührt lassen.
(12)  Diese Verordnung sollte auch für Organe, Einrichtungen und sonstige Stellen der Union gelten, wenn sie als Anbieter oder Betreiber eines KI-Systems auftreten. KI-Systeme, die ausschließlich für militärische Zwecke entwickelt oder verwendet werden, sollten vom Anwendungsbereich dieser Verordnung ausgenommen werden, wenn diese Verwendung in den ausschließlichen Zuständigkeitsbereich der Gemeinsamen Außen- und Sicherheitspolitik fällt, der in Titel V des Vertrags über die Europäische Union (EUV) geregelt ist. Diese Verordnung sollte die Bestimmungen über die Verantwortlichkeit der Vermittler in der Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates [in der durch das Gesetz über digitale Dienste geänderten Fassung] unberührt lassen.
Abänderung 32
Vorschlag für eine Verordnung
Erwägung 12 a (neu)
(12a)  Software und Daten, die offen geteilt werden und die Nutzer kostenlos abrufen, nutzen, verändern und weiter verteilen können, auch in veränderter Form, können zu Forschung und Innovation auf dem Markt beitragen. Durch Forschungsprojekte der Kommission wurde auch gezeigt, dass freie und quelloffene Software im Umfang von 65 Mrd. bis 95 Mrd. EUR zum Bruttoinlandsprodukt der Europäischen Union beitragen kann und dass durch sie wesentliche Wachstumsmöglichkeiten für die europäische Wirtschaft geschaffen werden. Nutzer haben die Möglichkeit, Software und Daten zu nutzen, zu kopieren, zu verbreiten, Studien zu ihr/ihnen durchzuführen, sie zu ändern und zu verbessern, einschließlich Modellen im Rahmen von freien und quelloffenen Lizenzen. Um die Entwicklung und den Einsatz von KI zu fördern – insbesondere durch KMU, Start-ups, die wissenschaftliche Forschung und auch durch Einzelpersonen –, sollte diese Verordnung nicht für solche freien und quelloffenen KI-Komponenten gelten, es sei denn, sie werden von einem Anbieter als Teil eines Hochrisiko-KI-Systems oder eines KI-Systems, das unter Titel II oder IV dieser Verordnung fällt, in Verkehr gebracht oder in Betrieb genommen.
Abänderung 33
Vorschlag für eine Verordnung
Erwägung 12 b (neu)
(12b)  Weder die gemeinsame Entwicklung von freien oder quelloffenen Softwarekomponenten noch ihr Verfügbarmachen auf offenen Portalen sollte ein Inverkehrbringen oder eine Inbetriebnahme darstellen. Eine gewerbliche Tätigkeit im Sinne der Bereitstellung auf dem Markt ist möglicherweise nicht nur dadurch gekennzeichnet, dass ein Entgelt verlangt wird, mit Ausnahme von Transaktionen zwischen Kleinstunternehmen für eine freie und quelloffene AI, sondern auch dadurch, dass für technische Unterstützungsleistungen ein Entgelt verlangt wird, dass eine Softwareplattform bereitgestellt wird, über die der Anbieter andere Dienste monetarisiert, oder dass personenbezogene Daten zu anderen Zwecken als der alleinigen Verbesserung der Sicherheit, Kompatibilität oder der Software verwendet werden.
Abänderung 34
Vorschlag für eine Verordnung
Erwägung 12 c (neu)
(12c)  Die Entwickler von freien und quelloffenen KI-Komponenten sollten im Rahmen dieser Verordnung nicht verpflichtet werden, Anforderungen zu erfüllen, die auf die Produktwertschöpfungskette der KI und insbesondere auf den Anbieter abzielen, der freie und quelloffene KI-Softwarekomponenten verwendet hat. Die Entwickler von freien und quelloffenen KI-Komponenten sollten jedoch dazu angehalten werden, weit verbreitete Dokumentationsverfahren, wie z. B. Modell- und Datenkarten, als Mittel dazu einzusetzen, den Informationsaustausch entlang der KI-Wertschöpfungskette zu beschleunigen, sodass vertrauenswürdige KI-Systeme in der Union gefördert werden können.
Abänderung 35
Vorschlag für eine Verordnung
Erwägung 13
(13)  Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta der Grundrechte der Europäischen Union (im Folgenden die „Charta“) im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.
(13)  Um einen einheitlichen und hohen Schutz öffentlicher Interessen im Hinblick auf die Gesundheit und Sicherheit sowie die Grundrechte, Demokratie, Rechtsstaatlichkeit und die Umwelt zu gewährleisten, werden für alle Hochrisiko-KI-Systeme gemeinsame Normen vorgeschlagen. Diese Normen sollten mit der Charta, dem europäischen Grünen Deal, der Gemeinsamen Erklärung zu den digitalen Rechten der Union und den Ethik-Leitlinien für vertrauenswürdige künstliche Intelligenz (KI) der hochrangigen Expertengruppe für künstliche Intelligenz im Einklang stehen, nichtdiskriminierend sein und mit den internationalen Handelsverpflichtungen der Union vereinbar sein.
Abänderung 36
Vorschlag für eine Verordnung
Erwägung 14
(14)  Um ein verhältnismäßiges und wirksames verbindliches Regelwerk für KI-Systeme einzuführen, sollte ein klar definierter risikobasierter Ansatz verfolgt werden. Bei diesem Ansatz sollten Art und Inhalt solcher Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Es ist daher notwendig, bestimmte Praktiken im Bereich der künstlichen Intelligenz zu verbieten und Anforderungen an Hochrisiko-KI-Systeme und Verpflichtungen für die betreffenden Akteure sowie Transparenzpflichten für bestimmte KI-Systeme festzulegen.
(14)  Um ein verhältnismäßiges und wirksames verbindliches Regelwerk für KI-Systeme einzuführen, sollte ein klar definierter risikobasierter Ansatz verfolgt werden. Bei diesem Ansatz sollten Art und Inhalt solcher Vorschriften auf die Intensität und den Umfang der Risiken zugeschnitten werden, die von KI-Systemen ausgehen können. Es ist daher notwendig, bestimmte unannehmbare Praktiken im Bereich der künstlichen Intelligenz zu verbieten und Anforderungen an Hochrisiko-KI-Systeme und Verpflichtungen für die betreffenden Akteure sowie Transparenzpflichten für bestimmte KI-Systeme festzulegen.
Abänderung 37
Vorschlag für eine Verordnung
Erwägung 15
(15)  Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.
(15)  Abgesehen von den zahlreichen nutzbringenden Verwendungsmöglichkeiten künstlicher Intelligenz kann diese Technik auch missbraucht werden und neue und wirkungsvolle Instrumente für manipulative, ausbeuterische und soziale Kontrollpraktiken bieten. Solche Praktiken sind besonders schädlich und missbräuchlich und sollten verboten werden, weil sie im Widerspruch zu den Werten der Union stehen, nämlich der Achtung der Menschenwürde, Freiheit, Gleichheit, Demokratie und Rechtsstaatlichkeit sowie der Grundrechte in der Union, einschließlich des Rechts auf Nichtdiskriminierung, Datenschutz und Privatsphäre sowie der Rechte des Kindes.
Abänderung 38
Vorschlag für eine Verordnung
Erwägung 16
(16)  Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die dazu bestimmt sind, menschliches Verhalten nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Kindern und anderen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung beeinträchtigten Personen ausnutzen. Dies geschieht mit der Absicht, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person Schaden zufügt oder zufügen kann. Diese Absicht kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung durchgeführt wird.
(16)  Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme, die das Ziel oder die Auswirkung haben, menschliches Verhalten maßgeblich nachteilig zu beeinflussen, und die zu physischen oder psychischen Schäden führen dürften, sollte verboten werden. Diese Einschränkung sollte so verstanden werden, dass sie Neurotechnologien einschließt, die von KI-Systemen unterstützt werden, die zur Überwachung, Nutzung oder Beeinflussung neuronaler Daten eingesetzt werden, die über Schnittstellen zwischen Gehirn und Computer gesammelt werden, da sie das Verhalten einer natürlichen Person auf eine Art maßgeblich beeinflussen, durch die wahrscheinlich dieser Person oder einer anderen Person wesentlicher Schaden zugefügt wird. Solche KI-Systeme setzen auf eine vom Einzelnen nicht zu erkennende unterschwellige Beeinflussung oder sollen die Schutzbedürftigkeit von Einzelpersonen und spezifischen Gruppen von Personen aufgrund ihrer bekannten oder vorhergesagten Persönlichkeitsmerkmale, ihres Alters oder ihrer körperlichen oder geistigen Behinderung oder ihrer sozialen oder wirtschaftlichen Situation ausnutzen. Dies geschieht mit der Absicht oder der Auswirkung, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person oder Gruppen von Personen wesentlichen Schaden zufügt oder zufügen kann, einschließlich Schäden, die sich im Laufe der Zeit akkumulieren. Diese Absicht, das Verhalten zu beeinflussen, kann nicht vermutet werden, wenn die nachteilige Beeinflussung des menschlichen Verhaltens auf Faktoren zurückzuführen ist, die nicht Teil des KI-Systems sind und außerhalb der Kontrolle des Anbieters oder Nutzers liegen, wie Faktoren, die nicht vernünftigerweise vorgesehen und vom Anbieter oder Betreiber des KI-Systems abgeschwächt werden können. In jedem Fall ist es nicht erforderlich, dass der Anbieter oder der Betreiber die Absicht haben, signifikanten Schaden zuzufügen, wenn dieser Schaden aufgrund von manipulativen oder ausbeuterischen KI-gestützten Praktiken entsteht. Die Verbote für solche KI-Praktiken ergänzen die Bestimmungen, die in Richtlinie 2005/29/EG enthalten sind und denen zufolge unlautere Geschäftspraktiken verboten sind – unabhängig davon, ob sie mit Rückgriff auf KI-Systeme oder auf andere Weise durchgeführt werden. In solchen Kontexten sollten zulässige Geschäftsverfahren – beispielsweise im Bereich der Werbung –, die mit dem Unionsrecht im Einklang stehen, nicht an sich als Verfahren angesehen werden, die gegen das Verbot verstoßen. Forschung zu legitimen Zwecken im Zusammenhang mit solchen KI-Systemen sollte durch das Verbot nicht unterdrückt werden, wenn diese Forschung nicht auf eine Verwendung des KI-Systems in Beziehungen zwischen Mensch und Maschine hinausläuft, durch die natürliche Personen geschädigt werden, und wenn diese Forschung im Einklang mit anerkannten ethischen Standards für die wissenschaftliche Forschung und auf der Grundlage der ausdrücklichen Zustimmung der Personen durchgeführt wird, die ihnen ausgesetzt sind, oder gegebenenfalls ihres gesetzlichen Vertreters.
Abänderung 39
Vorschlag für eine Verordnung
Erwägung 16 a (neu)
(16a)  KI-Systeme, die natürliche Personen kategorisieren, indem sie sie nach bekannten oder vermuteten sensiblen oder geschützten Merkmalen bestimmten Kategorien zuweisen, sind besonders intrusiv, verletzen die menschliche Würde und bringen ein großes Diskriminierungsrisiko mit sich. Zu solchen Merkmalen gehören Geschlecht und Geschlechtsidentität, Rasse, ethnische Herkunft, Migrations- oder Staatsbürgerschaftsstatus, politische Ausrichtung, sexuelle Ausrichtung, Religion, Behinderung oder jegliche anderen Gründe, die nach Artikel 21 der EU-Charta der Grundrechte und nach Artikel 9 der Verordnung (EU) 2016/769 keine Diskriminierung nach sich ziehen dürfen. Solche Systeme sollten daher verboten werden.
Abänderung 40
Vorschlag für eine Verordnung
Erwägung 17
(17)  KI-Systeme, die von Behörden oder in deren Auftrag das soziale Verhalten natürlicher Personen für allgemeine Zwecke bewerten, können zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen. Sie können die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit verletzen. Solche KI-Systeme bewerten oder klassifizieren die Vertrauenswürdigkeit natürlicher Personen auf der Grundlage ihres sozialen Verhaltens in verschiedenen Zusammenhängen oder aufgrund bekannter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale. Die aus solchen KI-Systemen erzielte soziale Bewertung kann zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden, oder zu einer Schlechterstellung in einer Weise führen, die im Hinblick auf ihr soziales Verhalten oder dessen Tragweite ungerechtfertigt oder unverhältnismäßig ist. Solche KI-Systeme sollten daher verboten werden.
(17)  KI-Systeme, die das soziale Verhalten natürlicher Personen für allgemeine Zwecke bewerten, können zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen. Sie verletzen die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit. Solche KI-Systeme bewerten oder klassifizieren die Vertrauenswürdigkeit natürlicher Personen oder Gruppen auf der Grundlage zahlreicher Datenpunkte und des zeitlichen Auftretens bestimmter Aspekte ihres sozialen Verhaltens in verschiedenen Zusammenhängen oder aufgrund bekannter, vermuteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale. Die aus solchen KI-Systemen erzielte soziale Bewertung kann zu einer Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden, oder zu einer Schlechterstellung in einer Weise führen, die im Hinblick auf ihr soziales Verhalten oder dessen Tragweite ungerechtfertigt oder unverhältnismäßig ist. Solche KI-Systeme sollten daher verboten werden.
Abänderung 41
Vorschlag für eine Verordnung
Erwägung 18
(18)  Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken gilt als besonders in die Rechte und Freiheiten der betroffenen Personen eingreifend, da sie die Privatsphäre eines großen Teils der Bevölkerung beeinträchtigt, ein Gefühl der ständigen Überwachung weckt und indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte abhalten kann. Darüber hinaus bergen die Unmittelbarkeit der Auswirkungen und die begrenzten Möglichkeiten weiterer Kontrollen oder Korrekturen im Zusammenhang mit der Verwendung solcher in Echtzeit betriebener Systeme erhöhte Risiken für die Rechte und Freiheiten der Personen, die von Strafverfolgungsmaßnahmen betroffen sind.
(18)  Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen greift besonders in die Rechte und Freiheiten der betroffenen Personen ein und kann letztendlich die Privatsphäre eines großen Teils der Bevölkerung beeinträchtigen, ein Gefühl der ständigen Überwachung wecken, Parteien, die biometrische Identifizierung in öffentlich zugänglichen Räumen einsetzen, in eine unkontrollierbare Machtposition bringen und indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte, die den Kern der Rechtsstaatlichkeit darstellen, abhalten. Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Darüber hinaus bergen die Unmittelbarkeit der Auswirkungen und die begrenzten Möglichkeiten weiterer Kontrollen oder Korrekturen im Zusammenhang mit der Verwendung solcher in Echtzeit betriebener Systeme erhöhte Risiken für die Rechte und Freiheiten der Personen, die von Strafverfolgungsmaßnahmen betroffen sind. Die Verwendung dieser Systeme in öffentlich zugänglichen Räumen sollte daher verboten werden. Gleichzeitig sollten KI-Systeme, die für die Analyse von aufgezeichnetem Filmmaterial von öffentlich zugänglichen Räumen durch Systeme zur nachträglichen biometrischen Fernidentifizierung verwendet werden, ebenfalls verboten werden, es sei denn, es liegt eine vorgerichtliche Genehmigung für die Verwendung im Rahmen der Strafverfolgung vor, wenn dies für die gezielte Durchsuchung im Zusammenhang mit einer bestimmten schweren Straftat, die bereits stattgefunden hat, unbedingt erforderlich ist, und dies nur mit einer vorgerichtlichen Genehmigung.
Abänderung 42
Vorschlag für eine Verordnung
Erwägung 19
(19)  Die Verwendung solcher Systeme zu Strafverfolgungszwecken sollte daher untersagt werden, außer in drei erschöpfend aufgeführten und eng abgegrenzten Fällen, in denen die Verwendung unbedingt erforderlich ist, um einem erheblichen öffentlichen Interesse zu dienen, dessen Bedeutung die Risiken überwiegt. Zu diesen Fällen gehört die Suche nach potenziellen Opfern von Straftaten, einschließlich vermisster Kinder, bestimmte Gefahren für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder die Gefahr eines Terroranschlags sowie das Erkennen, Aufspüren, Identifizieren oder Verfolgen von Tätern oder Verdächtigen von Straftaten im Sinne des Rahmenbeschlusses 2002/584/JI des Rates38 , sofern diese Straftaten in dem betreffenden Mitgliedstaat nach dessen Recht mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Höchstmaß von mindestens drei Jahren bedroht sind. Eine solche Schwelle für eine Freiheitsstrafe oder eine freiheitsentziehende Maßregel der Sicherung nach nationalem Recht trägt dazu bei sicherzustellen, dass die Straftat schwerwiegend genug ist, um den Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme zu rechtfertigen. Darüber hinaus sind einige der 32 im Rahmenbeschluss 2002/584/JI des Rates aufgeführten Straftaten in der Praxis eher relevant als andere, da der Rückgriff auf die biometrische Echtzeit-Fernidentifizierung für die konkrete Erkennung, Aufspürung, Identifizierung oder Verfolgung eines Täters oder Verdächtigen einer der verschiedenen aufgeführten Straftaten voraussichtlich in äußerst unterschiedlichem Maße erforderlich und verhältnismäßig sein wird und da dabei die wahrscheinlichen Unterschiede in Schwere, Wahrscheinlichkeit und Ausmaß des Schadens oder möglicher negativer Folgen zu berücksichtigen sind.
entfällt
__________________
38 Rahmenbeschluss 2002/584/JI des Rates vom 13. Juni 2002 über den Europäischen Haftbefehl und die Übergabeverfahren zwischen den Mitgliedstaaten (ABl. L 190 vom 18.7.2002, S. 1).
Abänderung 43
Vorschlag für eine Verordnung
Erwägung 20
(20)  Um sicherzustellen, dass diese Systeme verantwortungsvoll und verhältnismäßig genutzt werden, ist es auch wichtig, festzulegen, dass in jedem dieser drei erschöpfend aufgeführten und eng abgegrenzten Fälle bestimmte Elemente berücksichtigt werden sollten, insbesondere in Bezug auf die Art des dem Antrag zugrunde liegenden Falls und die Auswirkungen der Verwendung auf die Rechte und Freiheiten aller betroffenen Personen sowie auf die für die Verwendung geltenden Schutzvorkehrungen und Bedingungen. Darüber hinaus sollte die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung angemessenen zeitlichen und räumlichen Beschränkungen unterliegen, wobei insbesondere den Beweisen oder Hinweisen in Bezug auf die Bedrohungen, die Opfer oder den Täter Rechnung zu tragen ist. Die Personenreferenzdatenbank sollte für jeden Anwendungsfall in jeder der drei oben genannten Situationen geeignet sein.
entfällt
Abänderung 44
Vorschlag für eine Verordnung
Erwägung 21
(21)  Jede Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken sollte einer ausdrücklichen spezifischen Genehmigung durch eine Justizbehörde oder eine unabhängige Verwaltungsbehörde eines Mitgliedstaats unterliegen. Eine solche Genehmigung sollte grundsätzlich vor der Verwendung eingeholt werden, außer in hinreichend begründeten dringenden Fällen, d. h. in Situationen, in denen es wegen der Notwendigkeit der Verwendung der betreffenden Systeme tatsächlich und objektiv unmöglich ist, vor dem Beginn der Verwendung eine Genehmigung einzuholen. In solchen dringenden Fällen sollte die Verwendung auf das absolut notwendige Mindestmaß beschränkt werden und angemessenen Schutzvorkehrungen und Bedingungen unterliegen, die im nationalen Recht festgelegt sind und im Zusammenhang mit jedem einzelnen dringenden Anwendungsfall von der Strafverfolgungsbehörde selbst präzisiert werden. Darüber hinaus sollte die Strafverfolgungsbehörde in solchen Situationen versuchen, so bald wie möglich eine Genehmigung einzuholen, wobei sie begründen sollte, warum sie diese nicht früher beantragen konnte.
entfällt
Abänderung 45
Vorschlag für eine Verordnung
Erwägung 22
(22)  Darüber hinaus sollte innerhalb des durch diese Verordnung vorgegebenen erschöpfenden Rahmens festgelegt werden, dass eine solche Verwendung im Hoheitsgebiet eines Mitgliedstaats im Einklang mit dieser Verordnung nur möglich sein sollte, sofern der betreffende Mitgliedstaat in seinen detaillierten nationalen Rechtsvorschriften ausdrücklich vorgesehen hat, dass eine solche Verwendung genehmigt werden kann. Folglich steht es den Mitgliedstaaten im Rahmen dieser Verordnung frei, eine solche Möglichkeit generell oder nur in Bezug auf einige der in dieser Verordnung genannten Ziele, für die eine genehmigte Verwendung gerechtfertigt sein kann, vorzusehen.
entfällt
Abänderung 46
Vorschlag für eine Verordnung
Erwägung 23
(23)  Die Verwendung von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken erfordert zwangsläufig die Verarbeitung biometrischer Daten. Die Vorschriften dieser Verordnung, die vorbehaltlich bestimmter Ausnahmen eine solche Verwendung auf der Grundlage von Artikel 16 AEUV verbieten, sollten als Lex specialis in Bezug auf die in Artikel 10 der Richtlinie (EU) 2016/680 enthaltenen Vorschriften über die Verarbeitung biometrischer Daten gelten und somit die Verwendung und Verarbeitung der betreffenden biometrischen Daten umfassend regeln. Eine solche Verwendung und Verarbeitung sollte daher nur möglich sein, soweit sie mit dem in dieser Verordnung festgelegten Rahmen vereinbar ist, ohne dass es den zuständigen Behörden bei ihren Tätigkeiten zu Strafverfolgungszwecken Raum lässt, außerhalb dieses Rahmens solche Systeme zu verwenden und die damit verbundenen Daten aus den in Artikel 10 der Richtlinie (EU) 2016/680 aufgeführten Gründen zu verarbeiten. In diesem Zusammenhang soll diese Verordnung nicht als Rechtsgrundlage für die Verarbeitung personenbezogener Daten gemäß Artikel 8 der Richtlinie (EU) 2016/680 dienen. Die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu anderen Zwecken als der Strafverfolgung, auch durch zuständige Behörden, sollte jedoch nicht unter den in dieser Verordnung festgelegten spezifischen Rahmen für diese Verwendung zu Strafverfolgungszwecken fallen. Eine solche Verwendung zu anderen Zwecken als der Strafverfolgung sollte daher nicht der Genehmigungspflicht gemäß dieser Verordnung und der zu ihrer Durchführung anwendbaren detaillierten nationalen Rechtsvorschriften unterliegen.
entfällt
Abänderung 47
Vorschlag für eine Verordnung
Erwägung 24
(24)  Jede Verarbeitung biometrischer Daten und anderer personenbezogener Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung, ausgenommen im Zusammenhang mit der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Sinne dieser Verordnung, einschließlich der Fälle, in denen diese Systeme von den zuständigen Behörden in öffentlich zugänglichen Räumen zu anderen Zwecken als der Strafverfolgung genutzt werden, sollte weiterhin allen Anforderungen genügen, die sich gegebenenfalls aus Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 und Artikel 10 der Richtlinie (EU) 2016/680 ergeben.
(24)  Jede Verarbeitung biometrischer Daten und anderer personenbezogener Daten im Zusammenhang mit der Verwendung von KI-Systemen für die biometrische Identifizierung, ausgenommen im Zusammenhang mit der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen im Sinne dieser Verordnung, sollte weiterhin allen Anforderungen genügen, die sich gegebenenfalls aus Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 und Artikel 10 der Richtlinie (EU) 2016/680 ergeben.
Abänderung 48
Vorschlag für eine Verordnung
Erwägung 25
(25)  Nach Artikel 6a des dem EUV und dem AEUV beigefügten Protokolls Nr. 21 über die Position des Vereinigten Königreichs und Irlands hinsichtlich des Raums der Freiheit, der Sicherheit und des Rechts sind die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d und Artikel 5 Absätze 2 und 3 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, für Irland nicht bindend, wenn Irland nicht durch die Vorschriften gebunden ist, die die Formen der justiziellen Zusammenarbeit in Strafsachen oder der polizeilichen Zusammenarbeit regeln, in deren Rahmen die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften eingehalten werden müssen.
(25)  Nach Artikel 6a des dem EUV und dem AEUV beigefügten Protokolls Nr. 21 über die Position des Vereinigten Königreichs und Irlands hinsichtlich des Raums der Freiheit, der Sicherheit und des Rechts sind die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, für Irland nicht bindend, wenn Irland nicht durch die Vorschriften gebunden ist, die die Formen der justiziellen Zusammenarbeit in Strafsachen oder der polizeilichen Zusammenarbeit regeln, in deren Rahmen die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften eingehalten werden müssen.
Abänderung 49
Vorschlag für eine Verordnung
Erwägung 26
(26)  Nach den Artikeln 2 und 2a des dem EUV und dem AEUV beigefügten Protokolls Nr. 22 über die Position Dänemarks ist Dänemark durch die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d und Artikel 5 Absätze 2 und 3 dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, weder gebunden noch zu ihrer Anwendung verpflichtet.
(26)  Nach den Artikeln 2 und 2a des dem EUV und dem AEUV beigefügten Protokolls Nr. 22 über die Position Dänemarks ist Dänemark durch die auf der Grundlage des Artikels 16 AEUV festgelegten Vorschriften in Artikel 5 Absatz 1 Buchstabe d dieser Verordnung in Bezug auf die Verarbeitung personenbezogener Daten durch die Mitgliedstaaten im Rahmen der Ausübung von Tätigkeiten, die in den Anwendungsbereich des Dritten Teils Titel V Kapitel 4 und 5 AEUV fallen, weder gebunden noch zu ihrer Anwendung verpflichtet.
Abänderung 50
Vorschlag für eine Verordnung
Erwägung 26 a (neu)
(26a)  KI-Systeme, die von Strafverfolgungsbehörden oder in deren Auftrag eingesetzt werden, um Vorhersagen, Profile oder Risikobewertungen auf der Grundlage von Datenanalysen oder der Erstellung von Profilen von Gruppen natürlicher Personen oder Orten zu treffen bzw. zu erstellen oder um das Auftreten oder erneute Auftreten einer tatsächlichen oder potenziellen Straftat bzw. von anderem unter Strafe gestelltem Sozialverhalten vorherzusagen, bergen ein besonderes Risiko der Diskriminierung bestimmter Personen oder Personengruppen, da sie die Menschenwürde verletzen sowie gegen den zentralen Rechtsgrundsatz der Unschuldsvermutung verstoßen. Solche KI-Systeme sollten daher verboten werden.
Abänderung 51
Vorschlag für eine Verordnung
Erwägung 26 b (neu)
(26b)  Das wahllose und ungezielte Auslesen biometrischer Daten aus sozialen Medien oder Überwachungsvideos, um Gesichtserkennungsdatenbanken zu schaffen oder zu erweitern, verstärkt das Gefühl der Massenüberwachung und kann zu schweren Verstößen gegen die Grundrechte führen, einschließlich des Rechts auf Privatsphäre. Die Verwendung von KI-Systemen zu diesem Zweck sollte daher verboten werden.
Abänderung 52
Vorschlag für eine Verordnung
Erwägung 26 c (neu)
(26c)  Im Hinblick auf die wissenschaftliche Grundlage von KI-Systemen zur Erkennung von Emotionen, physischen oder physiologischen Merkmalen wie Gesichtsausdrücken, Bewegungen, der Pulsfrequenz oder der Stimme bestehen ernsthafte Bedenken. Emotionen oder Gefühlsausdrücke werden je nach Kultur und Situation anders wahrgenommen und selbst eine bestimmte Person zeigt in ähnlichen Situationen nicht immer dieselben Emotionen. Zu den größten Schwachstellen solcher Technologien gehören die begrenzte Zuverlässigkeit (Emotionskategorien werden weder zuverlässig durch einen gemeinsamen Satz von Gesichtsbewegungen ausgedrückt noch eindeutig damit in Verbindung gebracht), die mangelnde Spezifität (physische oder physiologische Ausdrücke stimmen nicht eins zu eins mit Emotionskategorien überein) und die begrenzte Verallgemeinerbarkeit (die Auswirkungen von Kontext und Kultur werden nicht ausreichend berücksichtigt). Probleme der Zuverlässigkeit und folglich größere Risiken für Missbrauch können insbesondere dann auftreten, wenn das System in realen Situationen in den Bereichen Strafverfolgung, Grenzverwaltung, Arbeitsplatz und Bildungseinrichtung eingesetzt wird. Daher sollte das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen, die in Kontexten verwendet werden sollen, um den emotionalen Zustand einer natürlichen Person auszumachen, verboten werden.
Abänderung 53
Vorschlag für eine Verordnung
Erwägung 26 d (neu)
(26d)  Praktiken, die nach Unionsrecht, einschließlich Datenschutzrecht, Nichtdiskriminierungsrecht, Verbraucherschutzrecht und Wettbewerbsrecht, verboten sind, sollten von dieser Verordnung nicht betroffen sein.
Abänderung 54
Vorschlag für eine Verordnung
Erwägung 27
(27)  Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht oder in Betrieb genommen werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben.
(27)  Hochrisiko-KI-Systeme sollten nur dann auf dem Unionsmarkt in Verkehr gebracht, in Betrieb genommen oder verwendet werden, wenn sie bestimmte verbindliche Anforderungen erfüllen. Mit diesen Anforderungen sollte sichergestellt werden, dass Hochrisiko-KI-Systeme, die in der Union verfügbar sind oder deren Ergebnisse anderweitig in der Union verwendet werden, keine unannehmbaren Risiken für wichtige öffentliche Interessen der Union bergen, wie sie im Unionsrecht anerkannt und geschützt sind, einschließlich der Grundrechte, der Demokratie, der Rechtstaatlichkeit oder der Umwelt. Um die Angleichung an die sektorspezifischen Rechtsvorschriften sicherzustellen und um Dopplungen zu vermeiden, sollten hinsichtlich der Anforderungen für Hochrisiko-KI-Systeme die sektorspezifischen Rechtsvorschriften berücksichtigt werden, die im Rahmen dieser Verordnung enthalten sind, etwa die Verordnung (EU) 2017/745 über Medizinprodukte, die Verordnung (EU) 2017/746 über In-vitro-Diagnostika oder die Richtlinie 2006/42/EG über Maschinen. Als hochriskant sollten nur solche KI-Systeme eingestuft werden, die erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Personen in der Union haben; etwaige mögliche Beschränkungen des internationalen Handels, die sich daraus ergeben, sollten so gering wie möglich bleiben. Angesichts der rasanten technologischen Entwicklung sowie der potenziellen Veränderungen bei der Nutzung von KI-Systemen sollten die Listen von Hochrisikobereichen und -anwendungsfällen in Anhang III jedoch durch die Durchführung regelmäßiger Bewertungen einer ständigen Überprüfung unterzogen werden.
Abänderung 55
Vorschlag für eine Verordnung
Erwägung 28
(28)  KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Komponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein. Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen verursachen kann, ebenfalls Rechnung getragen werden.
(28)  KI-Systeme könnten negative Auswirkungen auf die Gesundheit und Sicherheit von Personen haben, insbesondere wenn solche Systeme als Sicherheitskomponenten von Produkten zum Einsatz kommen. Im Einklang mit den Zielen der Harmonisierungsrechtsvorschriften der Union, die den freien Verkehr von Produkten im Binnenmarkt erleichtern und gewährleisten sollen, dass nur sichere und anderweitig konforme Produkte auf den Markt gelangen, ist es wichtig, dass die Sicherheitsrisiken, die ein Produkt als Ganzes aufgrund seiner digitalen Komponenten, einschließlich KI-Systeme, mit sich bringen kann, angemessen vermieden und gemindert werden. So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen. Desgleichen sollten die immer ausgefeilteren Diagnosesysteme und Systeme zur Unterstützung menschlicher Entscheidungen im Gesundheitssektor, in dem die Risiken für Leib und Leben besonders hoch sind, zuverlässig und genau sein.
Abänderung 56
Vorschlag für eine Verordnung
Erwägung 28 a (neu)
(28a)  Das Ausmaß der negativen Auswirkungen des KI-Systems auf die durch die Charta geschützten Grundrechte ist bei der Einstufung eines KI-Systems als hochriskant von besonderer Bedeutung. Zu diesen Rechten gehören die Würde des Menschen, die Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, die Freiheit der Meinungsäußerung und die Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Nichtdiskriminierung, die Gleichstellung der Geschlechter, das Recht auf Bildung, der Verbraucherschutz, die Arbeitnehmerrechte, die Rechte von Menschen mit Behinderungen, Geschlechtergleichstellung, Rechte des geistigen Eigentums, das Recht auf einen wirksamen Rechtsbehelf und ein faires Gerichtsverfahren, die Unschuldsvermutung und das Verteidigungsrecht sowie das Recht auf eine gute Verwaltung. Es muss betont werden, dass Kinder – zusätzlich zu diesen Rechten – über spezifische Rechte verfügen, wie sie in Artikel 24 der EU-Charta und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (UNCRC) (im Hinblick auf das digitale Umfeld weiter ausgeführt in der Allgemeinen Bemerkung Nr. 25 des UNCRC) verankert sind; in beiden wird die Berücksichtigung der Schutzbedürftigkeit der Kinder gefordert und ihr Anspruch auf den Schutz und die Fürsorge festgelegt, die für ihr Wohlergehen notwendig sind. Darüber hinaus sollte dem Grundrecht auf ein hohes Umweltschutzniveau, das in der Charta verankert ist und mit der Unionspolitik umgesetzt wird, bei der Bewertung der Schwere des Schadens, den ein KI-System u. a. in Bezug auf die Gesundheit und Sicherheit von Menschen oder die Umwelt verursachen kann, ebenfalls Rechnung getragen werden.
Abänderung 57
Vorschlag für eine Verordnung
Erwägung 29
(29)  In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.
(29)  In Bezug auf Hochrisiko-KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder Systemen oder selbst um Produkte oder Systeme handelt, die in den Anwendungsbereich der Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates39, der Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates40, der Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates41, der Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates42, der Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates43, der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates44, der Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates45 und der Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates46 fallen, ist es angezeigt, diese Rechtsakte zu ändern, damit die Kommission – aufbauend auf den technischen und regulatorischen Besonderheiten des jeweiligen Sektors und ohne Beeinträchtigung bestehender Governance-, Konformitätsbewertungs-, Marktüberwachungs- und Durchsetzungsmechanismen sowie der darin eingerichteten Behörden – beim Erlass von etwaigen künftigen delegierten Rechtsakten oder Durchführungsrechtsakten auf der Grundlage der genannten Rechtsakte die in der vorliegenden Verordnung festgelegten verbindlichen Anforderungen an Hochrisiko-KI-Systeme berücksichtigt.
__________________
__________________
39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).
39 Verordnung (EG) Nr. 300/2008 des Europäischen Parlaments und des Rates vom 11. März 2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt und zur Aufhebung der Verordnung (EG) Nr. 2320/2002 (ABl. L 97 vom 9.4.2008, S. 72).
40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1)
40 Verordnung (EU) Nr. 167/2013 des Europäischen Parlaments und des Rates vom 5. Februar 2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 1)
41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).
41 Verordnung (EU) Nr. 168/2013 des Europäischen Parlaments und des Rates vom 15. Januar 2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen (ABl. L 60 vom 2.3.2013, S. 52).
42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).
42 Richtlinie 2014/90/EU des Europäischen Parlaments und des Rates vom 23. Juli 2014 über Schiffsausrüstung und zur Aufhebung der Richtlinie 96/98/EG des Rates (ABl. L 257 vom 28.8.2014, S. 146).
43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).
43 Richtlinie (EU) 2016/797 des Europäischen Parlaments und des Rates vom 11. Mai 2016 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union (ABl. L 138 vom 26.5.2016, S. 44).
44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).
44 Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).
45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).
45 Verordnung (EU) 2018/1139 des Europäischen Parlaments und des Rates vom 4. Juli 2018 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit sowie zur Änderung der Verordnungen (EG) Nr. 2111/2005, (EG) Nr. 1008/2008, (EU) Nr. 996/2010, (EU) Nr. 376/2014 und der Richtlinien 2014/30/EU und 2014/53/EU des Europäischen Parlaments und des Rates, und zur Aufhebung der Verordnungen (EG) Nr. 552/2004 und (EG) Nr. 216/2008 des Europäischen Parlaments und des Rates und der Verordnung (EWG) Nr. 3922/91 des Rates (ABl. L 212 vom 22.8.2018, S. 1).
46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).
46 Verordnung (EU) 2019/2144 des Europäischen Parlaments und des Rates vom 27. November 2019 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge im Hinblick auf ihre allgemeine Sicherheit und den Schutz der Fahrzeuginsassen und von ungeschützten Verkehrsteilnehmern, zur Änderung der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates und zur Aufhebung der Verordnungen (EG) Nr. 78/2009, (EG) Nr. 79/2009 und (EG) Nr. 661/2009 des Europäischen Parlaments und des Rates sowie der Verordnungen (EG) Nr. 631/2009, (EU) Nr. 406/2010, (EU) Nr. 672/2010, (EU) Nr. 1003/2010, (EU) Nr. 1005/2010, (EU) Nr. 1008/2010, (EU) Nr. 1009/2010, (EU) Nr. 19/2011, (EU) Nr. 109/2011, (EU) Nr. 458/2011, (EU) Nr. 65/2012, (EU) Nr. 130/2012, (EU) Nr. 347/2012, (EU) Nr. 351/2012, (EU) Nr. 1230/2012 und (EU) 2015/166 der Kommission (ABl. L 325 vom 16.12.2019, S. 1).
Abänderung 58
Vorschlag für eine Verordnung
Erwägung 30
(30)  In Bezug auf KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder selbst um Produkte handelt, die unter bestimmte Harmonisierungsrechtsvorschriften der Union fallen, ist es angezeigt, sie im Rahmen dieser Verordnung als hochriskant einzustufen, wenn das betreffende Produkt gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union dem Konformitätsbewertungsverfahren durch eine als unabhängige Dritte auftretende Konformitätsbewertungsstelle unterzogen wird. Dabei handelt es sich insbesondere um Produkte wie Maschinen, Spielzeuge, Aufzüge, Geräte und Schutzsysteme zur bestimmungsgemäßen Verwendung in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Sportbootausrüstung, Seilbahnen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte und In-vitro-Diagnostika.
(30)  In Bezug auf KI-Systeme, bei denen es sich um Sicherheitskomponenten von Produkten oder selbst um Produkte handelt, die unter bestimmte Harmonisierungsrechtsvorschriften der Union fallen, die in Anhang II aufgelistet sind, ist es angezeigt, sie im Rahmen dieser Verordnung als hochriskant einzustufen, wenn das betreffende Produkt gemäß den einschlägigen Harmonisierungsrechtsvorschriften der Union dem Konformitätsbewertungsverfahren durch eine als unabhängige Dritte auftretende Konformitätsbewertungsstelle unterzogen wird, um sicherzustellen, dass es die wesentlichen Sicherheitsanforderungen erfüllt. Dabei handelt es sich insbesondere um Produkte wie Maschinen, Spielzeuge, Aufzüge, Geräte und Schutzsysteme zur bestimmungsgemäßen Verwendung in explosionsgefährdeten Bereichen, Funkanlagen, Druckgeräte, Sportbootausrüstung, Seilbahnen, Geräte zur Verbrennung gasförmiger Brennstoffe, Medizinprodukte und In-vitro-Diagnostika.
Abänderung 59
Vorschlag für eine Verordnung
Erwägung 31
(31)  Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht zwangsläufig bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist.
(31)  Die Einstufung eines KI-Systems als hochriskant gemäß dieser Verordnung sollte nicht bedeuten, dass von dem Produkt, dessen Sicherheitskomponente das KI-System ist, oder dem KI-System als Produkt selbst nach den Kriterien der einschlägigen Harmonisierungsrechtsvorschriften der Union für das betreffende Produkt ein hohes Risiko ausgeht. Dies betrifft insbesondere die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates47 und die Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates48, in denen für Produkte, die ein mittleres und hohes Risiko bergen, eine Konformitätsbewertung durch Dritte vorgesehen ist.
__________________
__________________
47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).
47 Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte, zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates (ABl. L 117 vom 5.5.2017, S. 1).
48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).
48 Verordnung (EU) 2017/746 des Europäischen Parlaments und des Rates vom 5. April 2017 über In-vitro-Diagnostika und zur Aufhebung der Richtlinie 98/79/EG und des Beschlusses 2010/227/EU der Kommission (ABl. L 117 vom 5.5.2017, S. 176).
Abänderung 60
Vorschlag für eine Verordnung
Erwägung 32
(32)  Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein hohes Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen zu schädigen, wobei sowohl die Schwere des möglichen Schadens als auch die Wahrscheinlichkeit seines Auftretens zu berücksichtigen sind, und sofern sie in einer Reihe von Bereichen verwendet werden, die in der Verordnung ausdrücklich festgelegt sind. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.
(32)  Bei eigenständigen KI-Systemen, d. h. Hochrisiko-KI-Systemen, bei denen es sich um andere Systeme als Sicherheitskomponenten von Produkten handelt oder die selbst Produkte sind und die unter einem der Bereiche und Anwendungsfälle in Anhang III aufgeführt sind, ist es angezeigt, sie als hochriskant einzustufen, wenn sie aufgrund ihrer Zweckbestimmung ein erhebliches Risiko bergen, die Gesundheit und Sicherheit oder die Grundrechte von Personen und – wenn das KI-System als Sicherheitskomponente einer kritischen Infrastruktur verwendet wird – die Umwelt wesentlich zu schädigen. Solche eheblichen Gefahrensrisiken sollten einerseits durch die Bewertung des Risikos in Bezug auf eine Kombination von Faktoren wie dem Schweregrad, der Intensität, der Wahrscheinlichkeit des Auftretens und andererseits in Bezug darauf ermittelt werden, ob das Risiko eine Einzelperson, mehrere Personen oder eine bestimmte Gruppe von Personen beeinträchtigen kann. Eine solche Kombination von Faktoren könnte – abhängig vom Kontext – zum Beispiel zu dem Ergebnis führen, dass zwar ein hoher Schweregrad, aber eine geringe Wahrscheinlichkeit vorliegt, eine natürliche Person zu beeinträchtigen, oder eine hohe Wahrscheinlichkeit besteht, eine ganze Gruppe von Personen mit einer geringen Intensität über einen langen Zeitraum zu beeinträchtigen. Die Bestimmung dieser Systeme erfolgt nach derselben Methode und denselben Kriterien, die auch für künftige Änderungen der Liste der Hochrisiko-KI-Systeme vorgesehen sind.
Abänderung 61
Vorschlag für eine Verordnung
Erwägung 32 a (neu)
(32a)  Anbieter von KI-Systemen, die unter einen der in Anhang III aufgeführten Bereiche und Anwendungsfälle fallen und die der Auffassung sind, dass ihre Systeme kein erhebliches Risiko für die Gesundheit, Sicherheit, Grundrechte oder die Umwelt darstellen, sollten die nationalen Aufsichtsbehörden informieren, indem sie eine mit Gründen versehene Notifizierung einreichen. Dies kann in Form einer einseitigen Zusammenfassung der relevanten Informationen zu dem jeweiligen KI-System erfolgen, in der auch der vorgesehene Zweck genannt wird und der Grund, warum das KI-System kein erhebliches Risiko für die Gesundheit, die Sicherheit, die Grundrechte oder die Umwelt darstellt. Die Kommission sollte die Kriterien genau spezifizieren, um den Unternehmen eine Bewertung zu ermöglichen, ob ihr System solche Risiken birgt, und damit sie ein einfach anwendbares, standardisiertes Muster für die Meldung entwickeln können. Anbieter sollten die Meldung so schnell wie möglich und in jedem Fall vor dem Inverkehrbringen des KI-Systems auf dem Markt oder seiner Inbetriebnahme einreichen – idealerweise bereits in der Entwicklungsphase –, und sie sollten die Freiheit haben, es nach der Meldung zu jedem gegebenen Zeitpunkt in Verkehr bringen. Falls das KI-System jedoch nach Einschätzung der Behörde falsch eingestuft wurde, sollte die Behörde der Meldung innerhalb eines Zeitraums von drei Monaten widersprechen. Der Widerspruch sollte begründet werden und es sollte ordnungsgemäß erklärt werden, warum das KI-System falsch eingestuft wurde. Dem Anbieter sollte das Recht vorbehalten sein, unter Angabe weiterer Argumente Rechtsmittel einzulegen. Auch wenn es drei Monate nach Einreichen der Meldung keinen Widerspruch gab, können die nationalen Aufsichtsbehörden – wie bei jedem anderen in Verkehr gebrachtem KI-System – dennoch eingreifen, wenn das KI-System auf nationaler Ebene ein Risiko darstellt. Die nationalen Aufsichtsbehörden sollten der KI-Behörde Jahresberichte einreichen, in denen die erhaltenen Notifizierungen und die getroffenen Entscheidungen detailliert aufgeführt werden.
Abänderung 62
Vorschlag für eine Verordnung
Erwägung 33
(33)  Technische Ungenauigkeiten von KI-Systemen, die für die biometrische Fernidentifizierung natürlicher Personen bestimmt sind, können zu verzerrten Ergebnissen führen und eine diskriminierende Wirkung haben. Dies ist von besonderer Bedeutung, wenn es um das Alter, die ethnische Herkunft, das Geschlecht oder Behinderungen geht. Daher sollten biometrische Echtzeit-Fernidentifizierungssysteme und Systeme zur nachträglichen biometrischen Fernidentifizierung als hochriskant eingestuft werden. Angesichts der mit ihnen verbundenen Risiken sollten für beide Arten von biometrischen Fernidentifizierungssystemen besondere Anforderungen im Hinblick auf die Protokollierungsfunktionen und die menschliche Aufsicht gelten.
entfällt
Abänderung 63
Vorschlag für eine Verordnung
Erwägung 33 a (neu)
(33a)  Da biometrische Daten in Übereinstimmung mit der Verordnung (EU) 2016/679 eine spezielle Kategorie sensibler personenbezogener Daten darstellen, ist es angemessen, bestimmte kritische Anwendungsfälle von biometrischen und auf Biometrie beruhenden Systemen als Hochrisikofälle einzustufen. KI-Systeme, die für die biometrische Identifizierung natürlicher Personen verwendet werden sollen, sowie KI-Systeme, durch die auf der Grundlage biometrischer oder biometriegestützter Daten Rückschlüsse auf persönliche Merkmale natürlicher Personen gezogen werden, einschließlich Systemen zum Erkennen von Emotionen, sollten daher – mit Ausnahme der Systeme, die gemäß dieser Verordnung verboten sind – als Hochrisiko-Systeme klassifiziert werden. Dies sollte keine KI-Systeme umfassen, die bestimmungsgemäß für die biometrische Fernidentifizierung verwendet werden sollen, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte Person die Person ist, für die sie sich ausgibt, sowie Systeme, die zur Bestätigung der Identität einer natürlichen Person zu dem alleinigen Zweck verwendet werden, ihr Zugang zu einem Dienst, einem Gerät oder einer Räumlichkeit zu gewähren (Eins-zu-Eins-Überprüfung). Biometrische und auf Biometrie beruhende Systeme, die gemäß den Rechtsvorschriften der Union bereitgestellt werden, um Maßnahmen zur Cybersicherheit und zum Schutz personenbezogener Daten zu ermöglichen, sollten nicht als erhebliches Risiko für die Gesundheit, Sicherheit und die Grundrechte angesehen werden.
Abänderung 64
Vorschlag für eine Verordnung
Erwägung 34
(34)  Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann.
(34)  Was die Verwaltung und den Betrieb kritischer Infrastrukturen anbelangt, so sollten KI-Systeme, die als Sicherheitskomponenten für das Management und den Betrieb des Straßenverkehrs sowie für die Wasser-, Gas-, Wärme- und Stromversorgung sowie kritische digitale Infrastruktur verwendet werden sollen, als hochriskant eingestuft werden, da ihr Ausfall oder ihre Störung die Sicherheit und Integrität solcher kritischer Infrastruktur oder in großem Umfang das Leben und die Gesundheit von Menschen gefährden und zu erheblichen Störungen bei der normalen Durchführung sozialer und wirtschaftlicher Tätigkeiten führen kann. Sicherheitskomponenten von kritischer Infrastruktur, einschließlich kritischer digitaler Infrastruktur, sind Systeme, die eingesetzt werden, um die physische Integrität von kritischer Infrastruktur oder die Gesundheit und Sicherheit von Personen und Eigentum unmittelbar zu schützen. Ein Ausfall oder eine Störung solcher Komponenten kann direkt zu einer Gefährdung der physischen Integrität kritischer Infrastruktur und somit zu einer Gefährdung der Gesundheit und Sicherheit von Menschen und Eigentum führen. Komponenten, die für die ausschließliche Verwendung zu Zwecken der Cybersicherheit vorgesehen sind, sollten nicht als Sicherheitskomponenten gelten. Zu den Beispielen solcher Sicherheitskomponenten können Systeme zur Überwachung des Wasserdrucks oder Brandmeldekontrollsysteme in Cloud-Rechenzentren gehören.
Abänderung 65
Vorschlag für eine Verordnung
Erwägung 35
(35)  KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen oder ihrer Zuordnung dazu zu bestimmen oder um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben.
(35)  Die Einführung von KI-Systemen im Bildungsbereich ist von wesentlicher Bedeutung, um zur Modernisierung ganzer Bildungssysteme beizutragen, die Qualität der Bildung sowohl offline als auch online zu erhöhen und die digitale Bildung zu beschleunigen und sie somit auch einem breiteren Publikum zugänglich zu machen. KI-Systeme, die in der allgemeinen oder beruflichen Bildung eingesetzt werden, insbesondere um den Zugang von Personen zu Bildungs- und Berufsbildungseinrichtungen zu bestimmen oder ihre Zuordnung dazu zu bestimmen oder um eine Entscheidung über die Zulassung wesentlich zu beeinflussen oder um Personen im Rahmen von Prüfungen als Teil ihrer Ausbildung oder als Voraussetzung dafür zu bewerten oder um zu bewerten, ob das Bildungsniveau einer Person angemessen ist, oder um das Niveau der Bildung und Ausbildung, das Personen erhalten oder zu dem sie Zugang erhalten, wesentlich zu beeinflussen oder zu überwachen, oder KI-Systeme, die zur Überwachung und Erkennung von verbotenem Verhalten von Schülern während Prüfungen eingesetzt werden, sollten als hochriskant angesehen werden, da sie über den Verlauf der Bildung und des Berufslebens einer Person entscheiden und daher ihre Fähigkeit beeinträchtigen können, ihren Lebensunterhalt zu sichern. Bei unsachgemäßer Konzeption und Verwendung können solche Systeme sehr intrusiv sein und das Recht auf allgemeine und berufliche Bildung sowie das Recht auf Nichtdiskriminierung verletzen und historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung.
Abänderung 66
Vorschlag für eine Verordnung
Erwägung 36
(36)  KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über Beförderung und Kündigung sowie für die Zuweisung, Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten Beschäftigte und Personen erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Personen sollten grundsätzlich nicht als Nutzer im Sinne dieser Verordnung gelten. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können sich auch auf ihre Rechte auf Datenschutz und Privatsphäre auswirken.
(36)  KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen oder für die wesentliche Beeinflussung von Entscheidungen über Einstellung, Beförderung und Kündigung, sowie KI-Systeme für die personalisierte Zuweisung von Arbeitsaufgaben auf der Grundlage von individuellem Verhalten, persönlichen Merkmalen oder biometrischen Daten, Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen, sollten ebenfalls als hochriskant eingestuft werden, da diese Systeme die künftigen Karriereaussichten und die Lebensgrundlagen dieser Personen und die Arbeitnehmerrechte spürbar beeinflussen können. Einschlägige Arbeitsvertragsverhältnisse sollten Beschäftigte und Personen sinnvoll erfassen, die Dienstleistungen über Plattformen erbringen, auf die im Arbeitsprogramm der Kommission für 2021 Bezug genommen wird. Solche Systeme können während des gesamten Einstellungsverfahrens und bei der Bewertung, Beförderung oder Nichtbeförderung von Personen in Arbeitsvertragsverhältnissen historische Diskriminierungsmuster fortschreiben, beispielsweise gegenüber Frauen, bestimmten Altersgruppen und Menschen mit Behinderungen oder Personen mit einer bestimmten rassischen oder ethnischen Herkunft oder sexuellen Ausrichtung. KI-Systeme zur Überwachung der Leistung und des Verhaltens dieser Personen können auch den Kern ihrer Grundrechte auf Datenschutz und Privatsphäre unterminieren. Diese Verordnung gilt unbeschadet der Tatsache, dass es in der Zuständigkeit der Union und der Mitgliedstaaten liegt, spezifischere Vorschriften für den Einsatz von KI-Systemen im Kontext von Beschäftigungsverhältnissen festzulegen.
Abänderung 67
Vorschlag für eine Verordnung
Erwägung 37
(37)  Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Angesichts des sehr begrenzten Auswirkungen und der auf dem Markt verfügbaren Alternativen ist es angezeigt, KI-Systeme zur Kreditwürdigkeitsprüfung und Kreditpunktebewertung auszunehmen, wenn sie von kleinen Anbietern für den Eigenbedarf in Betrieb genommen werden. Natürliche Personen, die staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.
(37)  Ein weiterer Bereich, in dem der Einsatz von KI-Systemen besondere Aufmerksamkeit verdient, ist der Zugang zu und die Nutzung von bestimmten grundlegenden privaten und öffentlichen Diensten, auch der Gesundheitsdienste und wesentlicher Dienstleistungen, einschließlich, jedoch nicht beschränkt auf, Wohnen, Strom, Heizung/Kühlung und Internet und Leistungen, die erforderlich sind, damit die Menschen uneingeschränkt an der Gesellschaft teilhaben oder ihren Lebensstandard verbessern können. Insbesondere KI-Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden, sollten als Hochrisiko-KI-Systeme eingestuft werden, da sie den Zugang dieser Personen zu Finanzmitteln oder wesentlichen Dienstleistungen wie Wohnraum, Elektrizität und Telekommunikationsdienstleistungen bestimmen. KI-Systeme, die zu diesem Zweck eingesetzt werden, können zur Diskriminierung von Personen oder Gruppen führen und historische Diskriminierungsmuster, beispielsweise aufgrund der rassischen oder ethnischen Herkunft, des Geschlechts, einer Behinderung, des Alters oder der sexuellen Ausrichtung, fortschreiben oder neue Formen von Diskriminierung mit sich bringen. Jedoch sollten KI-Systeme, die nach Rechtsvorschriften der Union zur Aufdeckung von Betrug beim Angebot von Finanzdienstleistungen vorgesehen sind, nicht als Hochrisiko-Systeme gemäß dieser Verordnung angesehen werden. Natürliche Personen, die grundlegende staatliche Unterstützungsleistungen und -dienste von Behörden beantragen oder erhalten, auch Gesundheitsdienste und wesentliche Dienstleistungen, einschließlich, jedoch nicht beschränkt auf, Wohnen, Strom, Heizung/Kühlung und Internet, sind in der Regel von diesen Leistungen und Diensten abhängig und befinden sich gegenüber den zuständigen Behörden in einer prekären Lage. Wenn KI-Systeme eingesetzt werden, um zu bestimmen, ob solche Leistungen und Dienste von den Behörden verweigert, gekürzt, widerrufen oder zurückgefordert werden sollten, können sie erhebliche Auswirkungen auf die Existenzgrundlage der Menschen haben und ihre Grundrechte wie das Recht auf sozialen Schutz, Nichtdiskriminierung, Menschenwürde oder einen wirksamen Rechtsbehelf verletzen. Ähnlich können KI-Systeme, die bestimmungsgemäß verwendet werden sollen, um Entscheidungen zu treffen oder erheblichen Einfluss auf Entscheidungen in Bezug auf die Anspruchsvoraussetzungen natürlicher Personen in den Bereichen Kranken- und Lebensversicherungen zu nehmen, ebenso signifikante Auswirkungen auf die Existenzgrundlage von Menschen haben und ihre Grundrechte beeinträchtigen, wie zum Beispiel den Zugang zur Gesundheitsversorgung oder durch die Fortschreibung von Diskriminierung aufgrund persönlicher Merkmale. Solche Systeme sollten daher als hochriskant eingestuft werden. Dennoch sollte diese Verordnung die Entwicklung und Anwendung innovativer Ansätze in der öffentlichen Verwaltung nicht behindern, die von einer breiteren Verwendung konformer und sicherer KI-Systeme profitieren würde, sofern diese Systeme kein hohes Risiko für juristische und natürliche Personen bergen. Schließlich sollten KI-Systeme, die bei der Bewertung und Einstufung von Notrufen durch natürliche Personen oder der Entsendung oder der Priorisierung der Entsendung von Rettungsdiensten eingesetzt werden, ebenfalls als hochriskant eingestuft werden, da sie in für das Leben und die Gesundheit von Personen und für ihr Eigentum sehr kritischen Situationen Entscheidungen treffen.
Abänderung 68
Vorschlag für eine Verordnung
Erwägung 37 a (neu)
(37a)  In Anbetracht der Rolle und Verantwortung von Polizei- und Justizbehörden und der Auswirkungen von Entscheidungen, die sie zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Vollstreckung von strafrechtlichen Sanktionen treffen, muss der Einsatz von KI-Anwendungen bei der Strafverfolgung vor allem in Situationen als hochriskant eingestuft werden, wenn die Möglichkeit besteht, dass er beträchtliche Auswirkungen auf das Leben von Einzelpersonen hat.
Abänderung 69
Vorschlag für eine Verordnung
Erwägung 38
(38)  Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden für individuelle Risikobewertungen, als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustands natürlicher Personen, zur Aufdeckung von „Deepfakes“, zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Vorhersage des Auftretens oder erneuten Auftretens einer tatsächlichen oder potenziellen Straftat auf der Grundlage des Profils natürlicher Personen oder zur Bewertung von Persönlichkeitsmerkmalen und Eigenschaften oder vergangenen kriminellen Verhaltens von natürlichen Personen oder Gruppen, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme gelten, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden.
(38)  Maßnahmen von Strafverfolgungsbehörden im Zusammenhang mit bestimmten Verwendungen von KI-Systemen sind durch ein erhebliches Machtungleichgewicht gekennzeichnet und können zur Überwachung, Festnahme oder zum Entzug der Freiheit einer natürlichen Person sowie zu anderen nachteiligen Auswirkungen auf die in der Charta verankerten Grundrechte führen. Insbesondere wenn das KI-System nicht mit hochwertigen Daten trainiert wird, die Anforderungen an seine Leistung, Genauigkeit oder Robustheit nicht erfüllt werden oder das System nicht ordnungsgemäß konzipiert und getestet wird, bevor es in Verkehr gebracht oder in anderer Weise in Betrieb genommen wird, kann es Personen in diskriminierender oder anderweitig falscher oder ungerechter Weise ausgrenzen. Darüber hinaus könnte die Ausübung wichtiger verfahrensrechtlicher Grundrechte wie des Rechts auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht sowie die Unschuldsvermutung und Verteidigungsrechte behindert werden, insbesondere wenn solche KI-Systeme nicht hinreichend transparent, erklärbar und dokumentiert sind. Daher ist es angezeigt, eine Reihe von KI-Systemen, die im Rahmen der Strafverfolgung eingesetzt werden sollen und bei denen Genauigkeit, Zuverlässigkeit und Transparenz besonders wichtig sind, als hochriskant einzustufen, um nachteilige Auswirkungen zu vermeiden, das Vertrauen der Öffentlichkeit zu erhalten und die Rechenschaftspflicht und einen wirksamen Rechtsschutz zu gewährleisten. Angesichts der Art der betreffenden Tätigkeiten und der damit verbundenen Risiken sollten diese Hochrisiko-KI-Systeme insbesondere KI-Systeme umfassen, die von Strafverfolgungsbehörden oder in ihrem Auftrag oder von Organen, Einrichtungen und sonstigen Stellen der Union als Lügendetektoren und ähnliche Instrumente zur Bewertung der Zuverlässigkeit von Beweismitteln in Strafverfahren, zur Erstellung eines Profils während der Aufdeckung, Untersuchung oder strafrechtlichen Verfolgung einer Straftat sowie zur Kriminalanalyse in Bezug auf natürliche Personen eingesetzt werden, sofern deren Verwendung gemäß den relevanten nationalen Rechtsvorschriften und denen der Union zugelassen ist. KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, sollten nicht als Hochrisiko-KI-Systeme eingestuft werden, die von Strafverfolgungsbehörden zum Zwecke der Verhütung, Aufdeckung, Untersuchung und strafrechtlichen Verfolgung von Straftaten eingesetzt werden. Der Einsatz von KI-Instrumenten durch Strafverfolgungs- und Justizbehörden sollte nicht zu einem Faktor der Ungleichheit, der sozialen Spaltung oder der Ausgrenzung werden. Die Auswirkungen des Einsatzes von KI-Instrumenten auf die Verteidigungsrechte von Verdächtigen sollten nicht außer Acht gelassen werden, insbesondere nicht die Schwierigkeit, aussagekräftige Informationen über ihre Funktionsweise zu erhalten, und die daraus resultierende Schwierigkeit der Anfechtung ihrer Ergebnisse vor Gericht, insbesondere durch Personen, gegen die ermittelt wird.
Abänderung 70
Vorschlag für eine Verordnung
Erwägung 39
(39)  KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, betreffen Menschen, die sich häufig in einer besonders prekären Lage befinden und vom Ergebnis der Maßnahmen der zuständigen Behörden abhängig sind. Die Genauigkeit, der nichtdiskriminierende Charakter und die Transparenz der KI-Systeme, die in solchen Zusammenhängen eingesetzt werden, sind daher besonders wichtig, um die Achtung der Grundrechte der betroffenen Personen, insbesondere ihrer Rechte auf Freizügigkeit, Nichtdiskriminierung, den Schutz des Privatlebens und personenbezogener Daten, den internationalen Schutz und die gute Verwaltung, zu gewährleisten. Daher ist es angezeigt, KI-Systeme als hochriskant einzustufen, die von den zuständigen mit Aufgaben in den Bereichen Migration, Asyl und Grenzkontrolle betrauten Behörden für Folgendes eingesetzt werden: als Lügendetektoren und ähnliche Instrumente oder zur Ermittlung des emotionalen Zustand einer natürlichen Person; zur Bewertung bestimmter Risiken, die von natürlichen Personen ausgehen, die in das Hoheitsgebiet eines Mitgliedstaats einreisen oder ein Visum oder Asyl beantragen; zur Überprüfung der Echtheit der einschlägigen Dokumente natürlicher Personen; zur Unterstützung der zuständigen Behörden bei der Prüfung von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick darauf, die Berechtigung der den Antrag stellenden natürlichen Personen festzustellen. KI-Systeme im Bereich Migration, Asyl und Grenzkontrolle, die unter diese Verordnung fallen, sollten den einschlägigen Verfahrensvorschriften der Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates49, der Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates und anderen einschlägigen Rechtsvorschriften entsprechen.
(39)  KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, betreffen Menschen, die sich häufig in einer besonders prekären Lage befinden und vom Ergebnis der Maßnahmen der zuständigen Behörden abhängig sind. Die Genauigkeit, der nichtdiskriminierende Charakter und die Transparenz der KI-Systeme, die in solchen Zusammenhängen eingesetzt werden, sind daher besonders wichtig, um die Achtung der Grundrechte der betroffenen Personen, insbesondere ihrer Rechte auf Freizügigkeit, Nichtdiskriminierung, den Schutz des Privatlebens und personenbezogener Daten, den internationalen Schutz und die gute Verwaltung, zu gewährleisten. Daher ist es angezeigt, KI-Systeme als hochriskant einzustufen, die von den zuständigen mit Aufgaben in den Bereichen Migration, Asyl und Grenzkontrolle betrauten Behörden oder den Organen, Einrichtungen und sonstigen Stellen der Union oder in ihrem Auftrag als Lügendetektoren und ähnliche Instrumente – sofern ihr Einsatz gemäß den relevanten nationalen Rechtsvorschriften oder denen der Union gestattet ist – oder zur Bewertung bestimmter Risiken eingesetzt werden, die von natürlichen Personen ausgehen, die in das Hoheitsgebiet eines Mitgliedstaats einreisen oder ein Visum oder Asyl beantragen; zur Überprüfung der Echtheit der einschlägigen Dokumente natürlicher Personen; zur Unterstützung der zuständigen Behörden bei der Prüfung und Bewertung des Wahrheitsgehalts von Nachweisen von Asyl- und Visumanträgen sowie Aufenthaltstiteln und damit verbundenen Beschwerden im Hinblick darauf, die Berechtigung der den Antrag stellenden natürlichen Personen festzustellen; zur Überwachung, Kontrolle oder Verarbeitung von personenbezogenen Daten im Zusammenhang mit Grenzkontrolltätigkeiten zur Ortung, Erkennung oder Identifizierung von natürlichen Personen; für Prognosen oder Vorhersagen von Trends im Zusammenhang mit Migrationsbewegungen und Grenzüberschreitungen. KI-Systeme im Bereich Migration, Asyl und Grenzkontrolle, die unter diese Verordnung fallen, sollten den einschlägigen Verfahrensvorschriften der Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates49, der Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates und anderen einschlägigen Rechtsvorschriften entsprechen. KI-Systeme, die in den Bereichen Migration, Asyl und Grenzkontrolle eingesetzt werden, sollten unter keinen Umständen von Mitgliedstaaten oder Organen, Einrichtungen und sonstigen Stellen der Union als Mittel zur Umgehung ihrer internationalen Verpflichtungen gemäß dem Genfer Abkommen vom 28. Juli 1951 über die Rechtsstellung der Flüchtlinge in der Fassung des Protokolls von New York vom 31. Januar 1967 genutzt noch unter Verstoß gegen den Grundsatz der Nichtzurückweisung oder zur Verweigerung sicherer und effektiver rechtmäßiger Wege in das Gebiet der Union gegenüber Asylsuchenden, auch in Bezug auf das Recht auf internationalen Schutz, verwendet werden.
__________________
__________________
49 Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 zu gemeinsamen Verfahren für die Zuerkennung und Aberkennung des internationalen Schutzes (ABl. L 180 vom 29.6.2013, S. 60).
49 Richtlinie 2013/32/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 zu gemeinsamen Verfahren für die Zuerkennung und Aberkennung des internationalen Schutzes (ABl. L 180 vom 29.6.2013, S. 60).
50 Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates vom 13. Juli 2009 über einen Visakodex der Gemeinschaft (Visakodex) (ABl. L 243 vom 15.9.2009, S. 1).
50 Verordnung (EG) Nr. 810/2009 des Europäischen Parlaments und des Rates vom 13. Juli 2009 über einen Visakodex der Gemeinschaft (Visakodex) (ABl. L 243 vom 15.9.2009, S. 1).
Abänderung 71
Vorschlag für eine Verordnung
Erwägung 40
(40)  Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die Justizbehörden dabei helfen sollen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, als hochriskant eingestuft werden. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.
(40)  Bestimmte KI-Systeme, die für die Rechtspflege und demokratische Prozesse bestimmt sind, sollten angesichts ihrer möglichen erheblichen Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit, die individuellen Freiheiten sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht als hochriskant eingestuft werden. Um insbesondere den Risiken möglicher Verzerrungen, Fehler und Undurchsichtigkeiten zu begegnen, sollten KI-Systeme, die von einer Justiz- oder Verwaltungsbehörde oder in ihrem Auftrag dazu eingesetzt werden, diese Justiz- oder Verwaltungsbehörde dabei zu unterstützen, Sachverhalte und Rechtsvorschriften zu ermitteln und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, oder auf ähnliche Weise in einem alternativem Streitbeilegungsverfahren eingesetzt werden, als hochriskant eingestuft werden. Der Einsatz von Instrumenten mit künstlicher Intelligenz kann die Entscheidungsgewalt von Richtern oder die Unabhängigkeit der Justiz unterstützen, sollte sie aber nicht ersetzen, da die endgültige Entscheidungsfindung eine von Menschen geleitete Tätigkeit und Entscheidung bleiben muss. Diese Einstufung sollte sich jedoch nicht auf KI-Systeme erstrecken, die für rein begleitende Verwaltungstätigkeiten bestimmt sind, die die tatsächliche Rechtspflege in Einzelfällen nicht beeinträchtigen, wie die Anonymisierung oder Pseudonymisierung gerichtlicher Urteile, Dokumente oder Daten, die Kommunikation zwischen dem Personal, Verwaltungsaufgaben oder die Zuweisung von Ressourcen.
Abänderung 72
Vorschlag für eine Verordnung
Erwägung 40 a (neu)
(40a)  Um die Risiken eines unzulässigen externen Eingriffs in das in Artikel 39 der Charta verankerte Wahlrecht und unverhältnismäßige Auswirkungen auf demokratische Verfahren, die Demokratie und die Rechtsstaatlichkeit anzugehen, sollten KI-Systeme, die bestimmungsgemäß verwendet werden sollen, um das Ergebnis einer Wahl oder eines Referendums oder das Wahlverhalten natürlicher Personen bei der Ausübung ihres Wahlrechts in einer Wahl oder in Referenden zu beeinflussen, als Hochrisiko-KI-Systeme eingestuft werden, mit Ausnahme von KI-Systemen, deren Ergebnissen natürliche Personen nicht direkt ausgesetzt sind, wie Instrumente zur Organisation, Optimierung und Strukturierung politischer Kampagnen in administrativer und logistischer Hinsicht.
Abänderung 73
Vorschlag für eine Verordnung
Erwägung 40 b (neu)
(40b)  Angesichts der Anzahl natürlicher Personen, die die Dienste nutzen, die von Social-Media-Plattformen bereitgestellt werden, die als sehr große Online-Plattformen gelten, können solche Online-Plattformen auf eine Weise eingesetzt werden, die die Online-Sicherheit stark gefährdet und die öffentliche Meinung und den öffentlichen Diskurs sowie Wahlverfahren und demokratische Prozesse oder soziale Belange stark beeinflusst. Es ist daher angezeigt, dass KI-Systeme, die von diesen Online-Plattformen in ihren Empfehlungssystemen verwendet werden, unter diese Verordnung fallen, um sicherzustellen, dass die KI-Systeme die in dieser Verordnung festgelegten Anforderungen erfüllen, einschließlich technischer Vorschriften in den Bereichen Datenverwaltung, technische Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit der Daten. Durch die Einhaltung der Bestimmungen dieser Verordnung sollte es den Betreibern sehr großer Online-Plattformen möglich sein, die umfassenderen Verpflichtungen zur Risikobewertung und Risikominderung gemäß Artikel 34 und 35 der Verordnung (EU) 2022/2065 zu erfüllen. Die Verpflichtungen gemäß der vorliegenden Verordnung lassen die Bestimmungen der Verordnung (EU) 2022/2065 unberührt und sollten die gemäß der Verordnung (EU) 2022/2065 festgesetzten Verpflichtungen in Fällen, in denen die soziale Medienplattform als sehr große Online-Plattform eingestuft wurde, ergänzen. Angesichts der europaweiten Auswirkungen von Social-Media-Plattformen, die als sehr große Online-Plattformen eingestuft wurden, sollten die nach Verordnung (EU) 2022/2065 festgelegten Behörden für die Zwecke der Durchsetzung dieser Bestimmung als Strafverfolgungsbehörden fungieren.
Abänderung 74
Vorschlag für eine Verordnung
Erwägung 41
(41)  Die Tatsache, dass ein KI-System gemäß dieser Verordnung als hochriskant eingestuft wird, sollte nicht dahingehend ausgelegt werden, dass die Verwendung des Systems nach anderen Rechtsakten der Union oder nach nationalen Rechtsvorschriften, die mit dem Unionsrecht vereinbar sind, zwangsläufig rechtmäßig ist, beispielsweise in Bezug auf den Schutz personenbezogener Daten, die Verwendung von Lügendetektoren und ähnlichen Instrumenten oder anderen Systemen zur Ermittlung des emotionalen Zustand einer natürlichen Person. Eine solche Verwendung sollte weiterhin ausschließlich im Einklang mit den geltenden Anforderungen erfolgen, die sich aus der Charta, dem anwendbaren Sekundärrecht der Union und nationalen Recht ergeben. Diese Verordnung sollte nicht so verstanden werden, dass sie eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten bildet, auch nicht für besondere Kategorien personenbezogener Daten.
(41)  Die Tatsache, dass ein KI-System gemäß dieser Verordnung als hochriskantes KI-System eingestuft wird, sollte nicht dahingehend ausgelegt werden, dass die Verwendung des Systems nach anderen Rechtsakten der Union oder nach nationalen Rechtsvorschriften, die mit dem Unionsrecht vereinbar sind, zwangsläufig rechtmäßig oder nicht rechtmäßig ist, beispielsweise in Bezug auf den Schutz personenbezogener Daten. Eine solche Verwendung sollte weiterhin ausschließlich im Einklang mit den geltenden Anforderungen erfolgen, die sich aus der Charta, dem anwendbaren Sekundärrecht der Union und nationalen Recht ergeben.
Abänderung 75
Vorschlag für eine Verordnung
Erwägung 41 a (neu)
(41a)  Eine gewisse Anzahl von verbindlichen Rechtsvorschriften auf Unions-, nationaler und internationaler Ebene, die für KI-Systeme relevant sind, gelten bereits, unter anderem das Primärrecht der EU (die EU-Verträge und die EU-Grundrechtecharta), das Sekundärrecht der EU (etwa die Datenschutzgrundverordnung, die Produkthaftungsrichtlinie, die Verordnung über den freien Verkehr nicht personenbezogener Daten, Antidiskriminierungsrichtlinien, das Verbraucherschutzrecht sowie die Richtlinien über Sicherheit und Gesundheitsschutz am Arbeitsplatz), die UN-Menschenrechtsübereinkommen, die Konventionen des Europarats (wie die Europäische Menschenrechtskonvention) sowie zahlreiche nationale Gesetze. Neben bereichsübergreifenden gibt es auch verschiedene fachspezifische Vorschriften, die für bestimmte KI-Anwendungen gelten (etwa die Verordnung über Medizinprodukte).
Abänderung 76
Vorschlag für eine Verordnung
Erwägung 42
(42)  Zur Minderung der Risiken für Nutzer und betroffene Personen, die von auf dem Unionsmarkt in Verkehr gebrachten oder anderweitig in Betrieb genommenen Hochrisiko-KI-Systemen ausgehen, sollten bestimmte verbindliche Anforderungen gelten, wobei der Zweckbestimmung des Systems und dem vom Anbieter einzurichtenden Risikomanagementsystem Rechnung zu tragen ist.
(42)  Zur Minderung der Risiken für Betreiber und betroffene Personen, die von auf dem Unionsmarkt in Verkehr gebrachten oder anderweitig in Betrieb genommenen Hochrisiko-KI-Systemen ausgehen, sollten bestimmte verbindliche Anforderungen gelten, wobei der Zweckbestimmung des Systems sowie der vernünftigerweise vorhersehbaren Fehlanwendung und dem vom Anbieter einzurichtenden Risikomanagementsystem Rechnung zu tragen ist. Diese Anforderungen sollten zielorientiert, zweckdienlich, angemessen und wirksam sein, ohne den Akteuren unangemessene zusätzliche regulatorische Belastungen oder Kosten aufzubürden.
Abänderung 77
Vorschlag für eine Verordnung
Erwägung 43
(43)  Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Cybersicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte entsprechend der Zweckbestimmung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.
(43)  Die Anforderungen sollten für Hochrisiko-KI-Systeme im Hinblick auf die Qualität und Relevanz der verwendeten Datensätze, die technische Dokumentation und die Aufzeichnungspflichten, die Transparenz und die Bereitstellung von Informationen für die Betreiber, die menschliche Aufsicht sowie die Robustheit, Genauigkeit und Sicherheit gelten. Diese Anforderungen sind erforderlich, um die Risiken für die Gesundheit, die Sicherheit und die Grundrechte sowie der Umwelt, Demokratie und Rechtsstaatlichkeit entsprechend der Zweckbestimmung oder vernünftigerweise vorhersehbaren Fehlanwendung des Systems wirksam zu mindern, und es stehen keine anderen weniger handelsbeschränkenden Maßnahmen zur Verfügung, sodass ungerechtfertigte Handelsbeschränkungen vermieden werden.
Abänderung 78
Vorschlag für eine Verordnung
Erwägung 44
(44)  Eine hohe Datenqualität ist für die Leistung vieler KI-Systeme von wesentlicher Bedeutung, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Die Trainings-, Validierungs- und Testdatensätze sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ, fehlerfrei und vollständig sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu beobachten, zu erkennen und zu korrigieren.
(44)  Ein Zugang zu einer hohen Datenqualität spielt eine zentrale Rolle bei der Bereitstellung von Strukturen und für die Sicherstellung der Leistung vieler KI-Systeme, insbesondere wenn Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, um sicherzustellen, dass das Hochrisiko-KI-System bestimmungsgemäß und sicher funktioniert und nicht zur Ursache für Diskriminierung wird, die nach dem Unionsrecht verboten ist. Für hochwertige Trainings-, Validierungs- und Testdatensätze müssen geeignete Daten-Governance- und Datenverwaltungsverfahren umgesetzt werden. Trainings- und – falls zutreffend – Validierungs- und Testdatensätze, einschließlich der Kennzeichnungen, sollten im Hinblick auf die Zweckbestimmung des Systems hinreichend relevant, repräsentativ sowie ordnungsgemäß auf Fehler überprüft und so vollständig wie möglich sein. Ferner sollten sie die geeigneten statistischen Merkmale haben, auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll, mit besonderem Augenmerk auf die Minderung möglicher Verzerrungen in den Datensätzen, die zu Risiken für die Grundrechte oder zu diskriminierenden Ergebnissen für die von dem Hochrisiko-KI-System betroffenen Personen führen könnten. Verzerrungen können zum Beispiel, insbesondere bei Verwendung historischer Daten, den zugrunde liegenden Datensätzen innewohnen sowie von den Entwicklern der Algorithmen eingeführt oder bei der Implementierung der Systeme in der realen Welt generiert werden. Die von einem KI-System ausgegebenen Ergebnisse werden durch solche inhärenten Verzerrungen beeinflusst und haben die Tendenz, allmählich zuzunehmen und dadurch bestehende Diskriminierungen fortzusetzen und zu verstärken, insbesondere im Hinblick auf Personen, die bestimmten ethnischen Gruppen oder aufgrund von Rassismus benachteiligten Gemeinschaften angehören. Insbesondere sollten die Trainings-, Validierungs- und Testdatensätze, soweit dies angesichts der Zweckbestimmung erforderlich ist, den Eigenschaften, Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, kontext- und verhaltensbezogenen oder funktionalen Rahmenbedingungen oder den Zusammenhängen, in denen das KI-System bestimmungsgemäß verwendet werden soll, typisch sind. Um das Recht anderer auf Schutz vor Diskriminierung, die sich aus Verzerrungen in KI-Systemen ergeben könnte, zu wahren, sollten die Anbieter – ausnahmsweise und nach Anwendung aller geltenden Bedingungen, die in dieser Verordnung und in der Verordnung (EU) 2016/679, der Richtlinie (EU) 2016/680 und der Verordnung (EU) 2018/1725 festgelegt sind – angesichts des erheblichen öffentlichen Interesses auch besondere Kategorien personenbezogener Daten verarbeiten dürfen, um Verzerrungen in Hochrisiko-KI-Systemen zu erkennen und zu korrigieren. Negative Verzerrungen sollten als Verzerrungen verstanden werden, durch die direkte oder indirekte diskriminierende Auswirkungen in Bezug auf eine natürliche Person entstehen. Die Anforderungen in Bezug auf die Datenverwaltung können erfüllt werden, indem auf Dritte zurückgegriffen wird, die zertifizierte Konformitätsdienstleistungen anbieten, einschließlich der Überprüfung der Datenverwaltung, der Integrität der Datensätze und der Datenschulungs-, Validierungs- und Testverfahren.
Abänderung 79
Vorschlag für eine Verordnung
Erwägung 45
(45)  Für die Entwicklung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.
(45)  Für die Entwicklung und Bewertung von Hochrisiko-KI-Systemen sollten bestimmte Akteure wie Anbieter, notifizierte Stellen und andere einschlägige Stellen wie Zentren für digitale Innovation, Erprobungs- und Versuchseinrichtungen und Forscher in der Lage sein, in ihren jeweiligen Tätigkeitsbereichen, die mit dieser Verordnung in Zusammenhang stehen, auf hochwertige Datensätze zuzugreifen und diese zu nutzen. Die von der Kommission eingerichteten gemeinsamen europäischen Datenräume und die Erleichterung des Datenaustauschs im öffentlichen Interesse zwischen Unternehmen und mit Behörden werden entscheidend dazu beitragen, einen vertrauensvollen, rechenschaftspflichtigen und diskriminierungsfreien Zugang zu hochwertigen Daten für das Training, die Validierung und das Testen von KI-Systemen zu gewährleisten. Im Gesundheitsbereich beispielsweise wird der europäische Raum für Gesundheitsdaten den diskriminierungsfreien Zugang zu Gesundheitsdaten und das Training von KI-Algorithmen mithilfe dieser Datensätze erleichtern, und zwar unter Wahrung der Privatsphäre, auf sichere, zeitnahe, transparente und vertrauenswürdige Weise und unter angemessener institutioneller Leitung. Die einschlägigen zuständigen Behörden, einschließlich sektoraler Behörden, die den Zugang zu Daten bereitstellen oder unterstützen, können auch die Bereitstellung hochwertiger Daten für das Training, die Validierung und das Testen von KI-Systemen unterstützen.
Abänderung 80
Vorschlag für eine Verordnung
Erwägung 45 a (neu)
(45a)  Das Recht auf Privatsphäre und den Schutz personenbezogener Daten muss während des gesamten Lebenszyklus des KI-Systems sichergestellt sein. In dieser Hinsicht sind die Grundsätze der Datenminimierung und des Datenschutzes durch Technikgestaltung und datenschutzfreundliche Voreinstellungen, wie sie im Datenschutzrecht der Union festgelegt sind, von wesentlicher Bedeutung, wenn die Verarbeitung von Daten erhebliche Risiken für die Grundrechte natürlicher Personen birgt. Anbieter und Nutzer von KI-Systemen sollten dem Stand der Technik entsprechende technische und organisatorische Maßnahmen ergreifen, um diese Rechte zu schützen. Zu diesen Maßnahmen gehören nicht nur die Anonymisierung und Verschlüsselung, sondern auch der Einsatz zunehmend verfügbarer Technik, die es ermöglicht, Algorithmen direkt am Ort der Datenerzeugung einzusetzen und wertvolle Erkenntnisse zu gewinnen, ohne dass die Daten zwischen den Parteien übertragen bzw. die Rohdaten oder strukturierten Daten selbst unnötig kopiert werden.
Abänderung 81
Vorschlag für eine Verordnung
Erwägung 46
(46)  Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihres gesamten Lebenszyklus funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte stets auf dem neuesten Stand gehalten werden.
(46)  Umfassende Informationen darüber, wie Hochrisiko-KI-Systeme entwickelt wurden und wie sie während ihrer gesamten Lebensdauer funktionieren, sind unerlässlich, um die Einhaltung der Anforderungen dieser Verordnung überprüfen zu können. Dies erfordert die Führung von Aufzeichnungen und die Verfügbarkeit einer technischen Dokumentation, die alle erforderlichen Informationen enthält, um die Einhaltung der einschlägigen Anforderungen durch das KI-System zu beurteilen. Diese Informationen sollten die allgemeinen Merkmale, Fähigkeiten und Grenzen des Systems, die verwendeten Algorithmen, Daten, Trainings-, Test- und Validierungsverfahren sowie die Dokumentation des einschlägigen Risikomanagementsystems umfassen. Die technische Dokumentation sollte während des gesamten Lebenszyklus des KI-Systems stets auf einem angemessenen Stand gehalten werden. KI-Systeme können während ihres gesamten Lebenszyklus wesentliche Auswirkungen auf die Umwelt und einen hohen Energieverbrauch haben. Um die Auswirkungen von KI-Systemen auf die Umwelt besser erfassen zu können, sollte die von den Anbietern erstellte technische Dokumentation Informationen zum Energieverbrauch des KI-Systems enthalten, einschließlich des Verbrauchs während der Entwicklung und des erwarteten Verbrauchs während der Nutzung. Bei diesen Informationen sollten die einschlägigen nationalen Rechtsvorschriften und Rechtsvorschriften der Union berücksichtigt werden. Die übermittelten Informationen sollten verständlich, vergleichbar und überprüfbar sein und zu diesem Zweck sollte die Kommission Leitlinien zu einer harmonisierten Methode für die Berechnung und Meldung solcher Informationen entwickeln. Um sicherzustellen, dass eine einzige technische Dokumentation erstellt werden kann, sollten die diese Dokumentation betreffenden Begriffe und Definitionen und jegliche anderen Dokumentationen in den einschlägigen Rechtsvorschriften so weit wie möglich angeglichen werden.
Abänderung 82
Vorschlag für eine Verordnung
Erwägung 46 a (neu)
(46a)  Hochrisiko-KI-Systeme müssen modernste Methoden und einschlägige geltende Normen berücksichtigen, um den Energie- und Ressourcenverbrauch sowie die Abfallerzeugung zu verringern und die Energieeffizienz sowie die Gesamteffizienz des Systems zu erhöhen. Die Umweltaspekte von KI-Systemen, die für die Zwecke dieser Verordnung signifikant sind, sind der Energieverbrauch des KI-Systems während der Entwicklungs-, Trainings- und Einführungsphase sowie bei der Aufzeichnung, Meldung und Speicherung dieser Daten. Durch die Konzeption von KI-Systemen sollte es möglich sein, den Energieverbrauch und die Energieressourcen während jeder Phase der Entwicklung, des Trainings und des Einsatzes zu messen und aufzuzeichnen. Die Beobachtung und Meldung der Emissionen von KI-Systemen muss robust, transparent, kohärent und genau sein. Um eine einheitliche Anwendung dieser Verordnung und ein stabiles rechtliches Umfeld für die Anbieter und Betreiber im Binnenmarkt sicherzustellen, sollte die Kommission eine gemeinsame Spezifikation für die Methodik entwickeln, damit die Berichterstattungs- und Dokumentierungspflichten zum Energieverbrauch und den Ressourcen während der Entwicklung, des Trainings und des Einsatzes von KI-Systemen erfüllt werden. Auf der Grundlage solcher gemeinsamer Spezifikationen kann eine Messmethode zur Erstellung eines Entwurfs eines Referenzszenarios entwickelt werden, mit der die Kommission – nachdem eine Folgenabschätzung unter Berücksichtigung des geltenden Rechts durchgeführt wurde – besser darüber entscheiden kann, ob künftige regulatorische Eingriffe erforderlich sind.
Abänderung 83
Vorschlag für eine Verordnung
Erwägung 46 b (neu)
(46b)  Um die Ziele dieser Verordnung zu erreichen und zu den Umweltzielen der Union beizutragen und gleichzeitig das reibungslose Funktionieren des Binnenmarkts sicherzustellen, könnte es erforderlich sein, Empfehlungen und Leitlinien zu erstellen und – letztendlich – auch Nachhaltigkeitsziele. Zu diesem Zweck ist die Kommission befugt, eine Methodik zu entwickeln, um damit zur Erstellung wesentlicher Leistungsindikatoren und eines Bezugsrahmens für die Nachhaltigkeitsziele der Vereinten Nationen beizutragen. Das Ziel sollte es vor allem sein, einen gerechten Vergleich zwischen den verschiedenen Möglichkeiten zur Umsetzung von KI zu ermöglichen, indem Anreize geschaffen werden, um die Nutzung effizienterer KI-Technologien in den Bereichen Energie und Ressourcen zu fördern. Um diese Ziele zu erreichen, sollten durch diese Verordnung die Mittel bereitgestellt werden, um eine grundlegende Datensammlung zu den gemeldeten Daten zu Emissionen zu erstellen, die während der Entwicklung, des Trainings und des Einsatzes von KI-Systemen entstehen.
Abänderung 84
Vorschlag für eine Verordnung
Erwägung 47 a (neu)
(47a)  Solche Anforderungen an Transparenz und Nachvollziehbarkeit der KI-Entscheidungsfindung sollten auch dazu beitragen, den abschreckenden Auswirkungen digitaler Asymmetrie und sogenannter „Dark Patterns“ entgegenzuwirken, die auf Einzelpersonen und ihre Einwilligung nach Aufklärung abzielen.
Abänderung 85
Vorschlag für eine Verordnung
Erwägung 49
(49)  Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Der Genauigkeitsgrad und die Genauigkeitskennzahlen sollte den Nutzern mitgeteilt werden.
(49)  Hochrisiko-KI-Systeme sollten während ihres gesamten Lebenszyklus beständig funktionieren und ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit entsprechend dem allgemein anerkannten Stand der Technik aufweisen. Leistungskennzahlen und ihre erwarteten Genauigkeitsgrade sollten mit dem vorrangigen Ziel festgelegt werden, Risiken und negative Auswirkungen des KI-Systems zu mindern. Der erwartete Grad der Leistungskennzahlen sollte den Betreibern auf klare, transparente, leicht nachvollziehbare und verständliche Weise mitgeteilt werden. Die Angabe von Leistungskennzahlen gibt keinen Aufschluss auf die künftige Leistung, sodass entsprechende Methoden angewandt werden müssen, um eine dauerhafte Leistung während der Nutzung sicherzustellen. Es sind zwar Normungsgremien vorhanden, um Normen vorzugeben, allerdings ist eine Abstimmung beim Leistungsvergleich vonnöten, um festzulegen, wie diese Standardvorgaben und -merkmale von KI-Systemen gemessen werden sollten. Der Europäische Ausschuss für künstliche Intelligenz sollte nationale und internationale Metrologie- und Benchmarking-Behörden zusammenbringen und Leitlinien herausgeben, um die technischen Aspekte der Messung der angemessenen Leistungs- und Robustheitsgrade anzugehen.
Abänderung 86
Vorschlag für eine Verordnung
Erwägung 50
(50)  Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt.
(50)  Die technische Robustheit ist eine wesentliche Voraussetzung für Hochrisiko-KI-Systeme. Sie sollten widerstandfähig gegenüber Risiken im Zusammenhang mit den Grenzen des Systems (z. B. Fehler, Störungen, Unstimmigkeiten, unerwartete Situationen) sowie gegenüber böswilligen Eingriffen sein, die die Sicherheit des KI-Systems gefährden und zu schädlichen oder anderweitig unerwünschtem Verhalten führen können. Ein fehlender Schutz vor diesen Risiken könnte die Sicherheit beeinträchtigen oder sich negativ auf die Grundrechte auswirken, wenn das KI-System beispielsweise falsche Entscheidungen trifft oder falsche oder verzerrte Ergebnisse hervorbringt. Die Nutzer des KI-Systems sollten Maßnahmen ergreifen, um sicherzustellen, dass der mögliche Kompromiss zwischen Robustheit und Genauigkeit nicht zu diskriminierenden oder negativen Ergebnissen für Untergruppen, die Minderheiten angehören, führt.
Abänderung 87
Vorschlag für eine Verordnung
Erwägung 51
(51)  Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist.
(51)  Die Cybersicherheit spielt eine entscheidende Rolle, wenn es darum geht sicherzustellen, dass KI-Systeme widerstandsfähig gegenüber Versuchen böswilliger Dritter sind, unter Ausnutzung der Schwachstellen der Systeme deren Verwendung, Verhalten, Leistung oder Sicherheitsmerkmale zu verändern. Cyberangriffe auf KI-Systeme können KI-spezifische Ressourcen wie Trainingsdatensätze (z. B. Datenvergiftung) oder trainierte Modelle (z. B. feindliche Angriffe oder Angriffe auf vertrauliche Daten) nutzen oder Schwachstellen in den digitalen Ressourcen des KI-Systems oder der zugrunde liegenden IKT-Infrastruktur ausnutzen. Um ein den Risiken angemessenes Cybersicherheitsniveau zu gewährleisten, sollten die Anbieter von Hochrisiko-KI-Systemen sowie die notifizierten Stellen, zuständigen nationalen Behörden und Marktüberwachungsbehörden daher geeignete Maßnahmen ergreifen, wobei gegebenenfalls auch die zugrunde liegende IKT-Infrastruktur zu berücksichtigen ist. Bei Hochrisiko-KI sollten Sicherheitslösungen und Patches für die gesamte Lebensdauer des Produkts oder, falls keine Abhängigkeit von einem bestimmten Produkt besteht, für einen vom Hersteller anzugebenden Zeitraum bereitgestellt werden.
Abänderung 88
Vorschlag für eine Verordnung
Erwägung 53 a (neu)
(53a)  Als Unterzeichner des Übereinkommens über die Rechte von Menschen mit Behinderungen der Vereinten Nationen (VN-BRK) sind die Union und alle Mitgliedstaaten rechtlich verpflichtet, Menschen mit Behinderungen vor Diskriminierung zu schützen und ihre Gleichstellung zu fördern, sicherzustellen, dass Menschen mit Behinderungen gleichberechtigt Zugang zu Informations- und Kommunikationstechnologien und -systemen haben, und die Achtung der Privatsphäre von Menschen mit Behinderungen sicherzustellen. Angesichts der zunehmenden Bedeutung und Nutzung von KI-Systemen sollte die strikte Anwendung der Grundsätze des universellen Designs auf alle neuen Technologien und Dienste einen vollständigen, gleichberechtigten und uneingeschränkten Zugang für alle Menschen sicherstellen, die potenziell von KI-Technologien betroffen sind oder diese nutzen, einschließlich Menschen mit Behinderungen, und zwar in einer Weise, die ihrer Würde und Vielfalt in vollem Umfang Rechnung trägt. Es ist daher von wesentlicher Bedeutung, dass die Anbieter die uneingeschränkte Einhaltung der Zugänglichkeitsanforderungen sicherstellen, einschließlich der in der Richtlinie (EU) 2016/2102 und Richtlinie (EU) 2019/882 festgelegten Anforderungen. Die Anbieter sollten die Einhaltung dieser Anforderungen durch Voreinstellungen sicherstellen. Die erforderlichen Maßnahmen sollten daher so weit wie möglich in die Konzeption von Hochrisiko-KI-Systemen integriert werden.
Abänderung 89
Vorschlag für eine Verordnung
Erwägung 54
(54)  Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.
(54)  Der Anbieter sollte ein solides Qualitätsmanagementsystem einrichten, die Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens sicherstellen, die einschlägige Dokumentation erstellen und ein robustes System zur Beobachtung nach dem Inverkehrbringen einrichten. Für Anbieter, die bereits Qualitätsmanagementsysteme auf der Grundlage von Normen wie der Norm ISO 9001 oder anderen einschlägigen Normen eingerichtet haben, sollte nicht ein weiteres, doppeltes Qualitätsmanagementsystem eingerichtet werden, sondern eher eine Anpassung der bereits bestehenden Systeme an bestimmte Aspekte vorgenommen werden, die mit der Einhaltung der spezifischen Anforderungen dieser Verordnung zusammenhängen. Dies sollte sich – in diesem Zusammenhang – auch in künftigen Normungstätigkeiten der Kommission oder von ihr angenommenen Leitlinien niederschlagen. Behörden, die Hochrisiko-KI-Systeme für den Eigengebrauch in Betrieb nehmen, können unter Berücksichtigung der Besonderheiten des Bereichs sowie der Zuständigkeiten und der Organisation der betreffenden Behörde die Vorschriften für das Qualitätsmanagementsystem als Teil des auf nationaler oder regionaler Ebene eingesetzten Qualitätsmanagementsystems annehmen und umsetzen.
Abänderung 90
Vorschlag für eine Verordnung
Erwägung 56
(56)  Um die Durchsetzung dieser Verordnung zu ermöglichen und gleiche Wettbewerbsbedingungen für die Akteure zu schaffen, muss unter Berücksichtigung der verschiedenen Formen der Bereitstellung digitaler Produkte sichergestellt sein, dass unter allen Umständen eine in der Union ansässige oder niedergelassene Person den Behörden alle erforderlichen Informationen über die Konformität eines KI-Systems zur Verfügung stellen kann. Daher benennen Anbieter, die außerhalb der Union niedergelassen sind, vor der Bereitstellung ihrer KI-Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten für den Fall, dass kein Einführer ermittelt werden kann.
(56)  Um die Durchsetzung dieser Verordnung zu ermöglichen und gleiche Wettbewerbsbedingungen für die Akteure zu schaffen, muss unter Berücksichtigung der verschiedenen Formen der Bereitstellung digitaler Produkte sichergestellt sein, dass unter allen Umständen eine in der Union ansässige oder niedergelassene Person den Behörden alle erforderlichen Informationen über die Konformität eines KI-Systems zur Verfügung stellen kann. Daher benennen Anbieter, die außerhalb der Union niedergelassen sind, vor der Bereitstellung ihrer KI-Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten.
Abänderung 91
Vorschlag für eine Verordnung
Erwägung 58
(58)  Angesichts des Charakters von KI-Systemen und der Risiken für die Sicherheit und die Grundrechte, die mit ihrer Verwendung verbunden sein können, ist es angebracht, besondere Zuständigkeiten für die Nutzer festzulegen, auch im Hinblick darauf, dass eine angemessene Überwachung der Leistung eines KI-Systems unter realen Bedingungen sichergestellt werden muss. Die Nutzer sollten insbesondere Hochrisiko-KI-Systeme gemäß der Gebrauchsanweisung verwenden, und es sollten bestimmte andere Pflichten in Bezug auf die Überwachung der Funktionsweise der KI-Systeme und gegebenenfalls auch Aufzeichnungspflichten festgelegt werden.
(58)  Angesichts des Charakters von KI-Systemen und der Risiken für die Sicherheit und die Grundrechte, die mit ihrer Verwendung verbunden sein können, ist es angebracht, besondere Zuständigkeiten für die Betreiber festzulegen, auch im Hinblick darauf, dass eine angemessene Überwachung der Leistung eines KI-Systems unter realen Bedingungen sichergestellt werden muss. Die Betreiber sollten insbesondere Hochrisiko-KI-Systeme gemäß der Gebrauchsanweisung verwenden, und es sollten bestimmte andere Pflichten in Bezug auf die Überwachung der Funktionsweise der KI-Systeme und gegebenenfalls auch Aufzeichnungspflichten festgelegt werden.
Abänderung 92
Vorschlag für eine Verordnung
Erwägung 58 a (neu)
(58a)  Während Risiken im Zusammenhang mit KI-Systemen einerseits aus der Art und Weise entstehen können, in der solche Systeme konzipiert sind, können sie sich andererseits auch aus der Art und Weise ergeben, in der diese Systeme verwendet werden. Betreiber von Hochrisiko-KI-Systemen spielen daher eine entscheidende Rolle bei der Gewährleistung des Schutzes der Grundrechte in Ergänzung der Pflichten der Anbieter bei der Entwicklung der KI-Systeme. Betreiber können am besten verstehen, wie das Hochrisiko-KI-System konkret eingesetzt wird, weshalb sie dank einer genaueren Kenntnis des Verwendungskontextes sowie der wahrscheinlich betroffenen Personen oder Personengruppen, einschließlich marginalisierter und schutzbedürftiger Gruppen, erhebliche potenzielle Risiken erkennen können, die in der Entwicklungsphase nicht vorausgesehen wurden. In diesem spezifischen Nutzungskontext sollten die Betreiber geeignete Verwaltungsstrukturen ermitteln, wie Regelungen für menschliche Aufsicht, Verfahren für die Bearbeitung von Beschwerden sowie Rechtsbehelfe, weil die Auswahl der Verwaltungsstrukturen für die Minderung der Risiken für Grundrechte in konkreten Anwendungsfällen von entscheidender Bedeutung sein kann. Um auf wirksame Weise sicherzustellen, dass die Grundrechte geschützt werden, sollten Betreiber von Hochrisiko-KI-Systemen daher vor der Inbetriebnahme dieser Systeme eine Folgenabschätzung im Hinblick auf die Grundrechte durchführen. Der Folgenabschätzung sollte ein detaillierter Plan beigefügt werden, in dem die Maßnahmen oder Instrumente beschrieben werden, die zur Minderung der festgestellten Risiken für die Grundrechte beitragen, spätestens ab dem Zeitpunkt der Einführung des Systems. Wenn ein solcher Plan nicht ermittelt werden kann, sollten die Betreiber davon absehen, das System einzuführen. Bei der Durchführung dieser Folgenabschätzung sollte der Betreiber die nationale Aufsichtsbehörde und – so weit wie möglich – die einschlägigen Interessenträger sowie die Vertreter von Personengruppen, die wahrscheinlich von dem KI-System betroffen sein werden, benachrichtigen, um die relevanten Informationen einzuholen, die erforderlich sind, die Folgenabschätzung durchzuführen und den Betreibern wird nahegelegt, die Zusammenfassung ihrer Folgenabschätzung in Bezug auf die Grundrechte auf ihrer Online-Website öffentlich zugänglich zu machen. Diese Verpflichtung sollte – angesichts fehlender Ressourcen – nicht für KMU gelten, die möglicherweise Schwierigkeiten haben, eine solche Konsultation durchzuführen. Dennoch sollten auch KMU es anstreben, solche Vertreter einzubeziehen, wenn sie ihre Folgenabschätzung in Bezug auf die Grundrechte durchführen. Darüber hinaus sollten Betreiber von Hochrisiko-KI-Systemen, die öffentliche Behörden oder Organe, Einrichtungen und sonstige Stellen der Union sowie Betreiber, die nach Verordnung (EU) 2022/1925 als Torwächter benannte Unternehmen sind, angesichts der potenziellen Auswirkungen und der Notwendigkeit demokratischer Aufsicht und Kontrolle verpflichtet werden, die Nutzung von Hochrisiko-KI-Systemen in einer öffentlichen Datenbank zu registrieren. Andere Betreiber können die Nutzung ihrer Hochrisiko-KI-Systeme freiwillig registrieren.
Abänderung 93
Vorschlag für eine Verordnung
Erwägung 59
(59)  Es ist angemessen, davon auszugehen, dass der Nutzer des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.
(59)  Es ist angemessen, davon auszugehen, dass der Betreiber des KI-Systems eine natürliche oder juristische Person oder eine Behörde, Einrichtung oder sonstige Stelle ist, die für den Betrieb eines KI-Systems verantwortlich ist, es sei denn, das KI-System wird im Rahmen einer persönlichen nicht beruflichen Tätigkeit verwendet.
Abänderung 94
Vorschlag für eine Verordnung
Erwägung 60
(60)  Angesichts der Komplexität der Wertschöpfungskette im Bereich der künstlichen Intelligenz sollten einschlägige Dritte, insbesondere diejenigen, die am Verkauf und der Bereitstellung von Software, Software-Tools und Komponenten, vortrainierten Modellen und Daten beteiligt sind, oder Netzdienstbetreiber gegebenenfalls mit Anbietern und Nutzern, denen die Einhaltung der Verpflichtungen aus dieser Verordnung ermöglicht werden soll, und mit den gemäß dieser Verordnung eingerichteten zuständigen Behörden zusammenarbeiten.
(60)  Innerhalb der KI-Wertschöpfungskette liefern häufig mehrere Unternehmen Tools und Dienstleistungen, aber auch Komponenten oder Prozesse, die dann vom Anbieter in das KI-System integriert werden, u. a. in Bezug auf die Datenerfassung und -vorverarbeitung, das Trainieren, Umtrainieren, Testen und Bewerten von Modellen, die Integration in Software oder andere Aspekte der Modellentwicklung. Die beteiligten Unternehmen können ihr Angebot direkt oder indirekt über Schnittstellen wie Anwendungsprogrammierschnittstellen (API) kommerziell zur Verfügung stellen und unter freien und quelloffenen Lizenzen vertreiben, aber auch zunehmend über KI-Arbeitskräfteplattformen, den Weiterverkauf von trainierten Parametern, DIY-Kits zum Bau von Modellen oder über das Angebot eines kostenpflichtigen Zugangs zu einer Modellservicearchitektur zur Entwicklung und zum Trainieren von Modellen. Angesichts dieser Komplexität der KI-Wertschöpfungskette sollten alle einschlägigen Dritten, insbesondere diejenigen, die an der Entwicklung, am Verkauf und an der kommerziellen Bereitstellung von Software-Tools, Komponenten, vortrainierten Modellen oder in das KI-System integrierten Daten beteiligt sind, oder Netzdienstbetreiber, ohne ihre eigenen Rechte an geistigem Eigentum oder Geschäftsgeheimnisse zu gefährden, die erforderlichen Informationen, Schulungen oder Fachkenntnisse zur Verfügung stellen und gegebenenfalls mit Anbietern, denen die Kontrolle über alle für die Einhaltung der Vorschriften relevanten Aspekte des KI-Systems, das unter diese Verordnung fällt, ermöglicht werden soll, zusammenarbeiten. Um eine kosteneffiziente Steuerung der KI-Wertschöpfungskette zu ermöglichen, muss der Grad der Kontrolle von jedem Dritten, der dem Anbieter ein Tool, eine Dienstleistung, eine Komponente oder ein Verfahren liefert, das später vom Anbieter in das KI-System integriert wird, ausdrücklich offengelegt werden.
Abänderung 95
Vorschlag für eine Verordnung
Erwägung 60 a (neu)
(60a)  Befindet sich eine Partei in einer stärkeren Verhandlungsposition, so besteht die Gefahr, dass diese Partei diese Position zum Nachteil der anderen Vertragspartei ausnutzt, wenn sie über die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder über die Abhilfemaßnahmen im Falle der Verletzung oder der Beendigung damit verbundener Verpflichtungen verhandelt. Solche vertraglichen Ungleichgewichte schaden insbesondere Kleinstunternehmen sowie kleinen und mittleren Unternehmen sowie Start-ups, es sei denn, sie befinden sich im Besitz eines Unternehmens oder werden von einem Unternehmen unter Vertrag genommen, das den Unterauftragnehmer angemessen entschädigen kann, da sie nicht in der Lage sind, die Bedingungen der vertraglichen Vereinbarung auszuhandeln, und unter Umständen keine andere Wahl haben, als Vertragsbedingungen ohne Verhandlungsspielraum zu akzeptieren. Daher sollten missbräuchliche Vertragsklauseln, die die Lieferung von Werkzeugen, Dienstleistungen, Bauteilen oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder die Abhilfemaßnahmen bei Verletzung oder Beendigung damit verbundener Verpflichtungen regeln, für solche Kleinstunternehmen, kleinen oder mittleren Unternehmen und Start-ups nicht verbindlich sein, wenn sie ihnen einseitig auferlegt wurden.
Abänderung 96
Vorschlag für eine Verordnung
Erwägung 60 b (neu)
(60b)  Bei den Vorschriften über Vertragsbedingungen sollte der Grundsatz der Vertragsfreiheit als wesentliches Konzept in den Geschäftsbeziehungen zwischen Unternehmen berücksichtigt werden. Daher sollten nicht alle Vertragsklauseln einer Missbräuchlichkeitsprüfung unterzogen werden, sondern nur solche Klauseln, die einseitig Kleinst-, kleinen und mittleren Unternehmen und Start-ups auferlegt werden. Dies betrifft Situationen ohne Verhandlungsspielraum, in denen eine Partei eine bestimmte Vertragsklausel einbringt und das Kleinstunternehmen bzw. das kleine oder mittlere Unternehmen und das Start-up den Inhalt dieser Klausel trotz eines Verhandlungsversuchs nicht beeinflussen kann. Eine Vertragsklausel, die lediglich von einer Partei eingebracht und von dem Kleinstunternehmen bzw. dem kleinen oder mittleren Unternehmen oder einem Start-up akzeptiert wird, oder eine Klausel, die zwischen den Vertragsparteien ausgehandelt und anschließend in geänderter Weise vereinbart wird, sollte nicht als einseitig auferlegt gelten.
Abänderung 97
Vorschlag für eine Verordnung
Erwägung 60 c (neu)
(60c)  Darüber hinaus sollten die Vorschriften über missbräuchliche Vertragsklauseln nur für diejenigen Vertragsbestandteile gelten, die sich auf die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren beziehen, die in einem Hochrisiko-KI-System verwendet werden oder darin integriert sind, oder auf die Abhilfemaßnahmen bei Verletzung oder Beendigung der damit verbundenen Verpflichtungen. Andere Teile desselben Vertrags, die nicht mit diesen Bestandteilen zusammenhängen, sollten nicht der in dieser Verordnung festgelegten Missbräuchlichkeitsprüfung unterliegen.
Abänderung 98
Vorschlag für eine Verordnung
Erwägung 60 d (neu)
(60d)  Kriterien für die Ermittlung missbräuchlicher Vertragsklauseln sollten nur auf überzogene Vertragsbedingungen angewandt werden, bei denen eine stärkere Verhandlungsposition missbraucht wird. Die überwiegende Mehrheit der Vertragsklauseln, die in wirtschaftlicher Hinsicht für eine Partei günstiger sind als für die andere, einschließlich derjenigen, die in Verträgen zwischen Unternehmen üblich sind, sind ein normaler Ausdruck des Grundsatzes der Vertragsfreiheit und gelten weiterhin. Ist eine Vertragsbedingung nicht in der Liste der Klauseln aufgeführt, die stets als missbräuchlich gelten, findet die allgemeine Missbräuchlichkeitsbestimmung Anwendung. In diesem Zusammenhang sollten die als missbräuchlich aufgeführten Klauseln als Maßstab für die Auslegung der allgemeinen Missbräuchlichkeitsbestimmung dienen.
Abänderung 99
Vorschlag für eine Verordnung
Erwägung 60 e (neu)
(60e)  Basismodelle sind eine neuere Entwicklung, bei der KI-Modelle auf der Grundlage von Algorithmen entwickelt werden, die im Hinblick auf Allgemeinheit und Vielseitigkeit der Ergebnisse optimiert wurden. Diese Modelle werden häufig auf der Grundlage eines breiten Spektrums von Datenquellen und großer Datenmengen trainiert, um eine Fülle nachgelagerter Aufgaben zu erfüllen, darunter auch solche, für die sie nicht speziell entwickelt und trainiert wurden. Das Basismodell kann unimodal oder multimodal sein und durch verschiedene Methoden wie überwachtes Lernen oder bestärkendes Lernen trainiert werden. KI-Systeme mit spezifischer Zweckbestimmung oder KI-Systeme mit allgemeinem Verwendungszweck können eine Implementierung eines Basismodells sein, was bedeutet, dass jedes Basismodell in unzähligen nachgelagerten KI-Systemen oder KI-Systemen mit allgemeinem Verwendungszweck wiederverwendet werden kann. Diese Modelle sind für viele nachgelagerte Anwendungen und Systeme von wachsender Bedeutung.
Abänderung 100
Vorschlag für eine Verordnung
Erwägung 60 f (neu)
(60f)  Im Falle von Basismodellen, die als Dienstleistung, z. B. über den API-Zugang, bereitgestellt werden, sollte sich die Zusammenarbeit mit nachgeschalteten Anbietern über den gesamten Zeitraum erstrecken, in dem dieser Dienst bereitgestellt und unterstützt wird, um eine angemessene Risikominderung zu ermöglichen, es sei denn, der Anbieter des Basismodells überträgt das Trainingsmodell sowie umfassende und angemessene Informationen über die Datensätze und den Entwicklungsprozess des Systems oder schränkt den Dienst, z. B. den API-Zugang, so ein, dass der nachgeschaltete Anbieter in der Lage ist, dieser Verordnung ohne weitere Unterstützung durch den ursprünglichen Anbieter des Basismodells vollständig zu entsprechen.
Abänderung 101
Vorschlag für eine Verordnung
Erwägung 60 g (neu)
(60g)  Angesichts der Art und Komplexität der Wertschöpfungskette für KI-Systeme ist es von entscheidender Bedeutung, die Rolle der Akteure zu klären, die zur Entwicklung von KI-Systemen beitragen. Es besteht erhebliche Unsicherheit darüber, wie sich Basismodelle entwickeln werden, sowohl in Bezug auf die Typologie der Modelle als auch in Bezug auf die Selbstverwaltung. Daher muss die rechtliche Situation der Anbieter von Basismodellen unbedingt geklärt werden. Angesichts ihrer Komplexität und unerwarteten Auswirkungen, der mangelnden Kontrolle des nachgelagerten KI-Anbieters über die Entwicklung des Basismodells und des sich daraus ergebenden Machtungleichgewichts und um eine gerechte Aufteilung der Verantwortung entlang der KI-Wertschöpfungskette zu gewährleisten, sollten solche Modelle im Rahmen dieser Verordnung angemessenen und spezifischeren Anforderungen und Verpflichtungen unterliegen. Insbesondere sollten Basismodelle mögliche Risiken und Schäden durch geeignete Gestaltung, Erprobung und Analyse bewerten und mindern, Maßnahmen zur Datenverwaltung, einschließlich der Bewertung von Verzerrungen, umsetzen und technische Gestaltungsanforderungen erfüllen, um ein angemessenes Niveau an Leistung, Vorhersagbarkeit, Interpretierbarkeit, Korrigierbarkeit, Sicherheit und Cybersicherheit zu gewährleisten, und sie sollten Umweltstandards einhalten. Diese Verpflichtungen sollten durch Normen ergänzt werden. Außerdem sollten für Basismodelle Informationspflichten gelten und alle erforderlichen technischen Unterlagen für potenzielle nachgeschaltete Anbieter erstellt werden müssen, damit diese ihren Verpflichtungen aus dieser Verordnung nachkommen können. Generative Basismodelle sollten Transparenz über die Tatsache sicherstellen, dass die Inhalte von einem KI-System und nicht von Menschen erzeugt werden. Diese spezifischen Anforderungen und Verpflichtungen laufen nicht darauf hinaus, Basismodelle als Hochrisiko-KI-Systeme zu betrachten, sondern sollen sicherstellen, dass die Ziele dieser Verordnung, nämlich ein hohes Maß an Schutz der Grundrechte, Gesundheit und Sicherheit, der Umwelt, der Demokratie und der Rechtsstaatlichkeit, erreicht werden. Vortrainierte Modelle, die für eine enger gefasste, weniger allgemeine und begrenztere Reihe von Anwendungen entwickelt wurden und nicht an ein breites Spektrum von Aufgaben angepasst werden können, wie z. B. einfache Mehrzweck-KI-Systeme, sollten für die Zwecke dieser Verordnung nicht als Basismodelle betrachtet werden, da sie besser interpretierbar sind und ihr Verhalten weniger unvorhersehbar ist.
Abänderung 102
Vorschlag für eine Verordnung
Erwägung 60 h (neu)
(60h)  Angesichts der Art der Basismodelle fehlt es an Fachwissen im Bereich der Konformitätsbewertung, und die Methoden zur Prüfung durch Dritte befinden sich noch in der Entwicklung. Die Branche selbst entwickelt daher neue Methoden zur Bewertung von Basismodellen, die zum Teil das Ziel der Prüfung erfüllen (z. B. Modellevaluierung, Red-Teaming oder Verifizierungs- und Validierungstechniken des maschinellen Lernens). Diese internen Bewertungen für Basismodelle sollten breit anwendbar sein (z. B. unabhängig von Vertriebskanälen, Modalität und Entwicklungsmethoden), um die für solche Modelle spezifischen Risiken unter Berücksichtigung der modernsten Praktiken der Branche anzugehen, und sich auf die Entwicklung eines ausreichenden technischen Verständnisses und einer ausreichenden Kontrolle über das Modell, das Management vernünftigerweise vorhersehbarer Risiken und eine umfassende Analyse und Prüfung des Modells durch geeignete Maßnahmen, z. B. durch die Einbeziehung unabhängiger Gutachter, konzentrieren. Da Basismodelle eine neue und schnell voranschreitende Entwicklung im Bereich der künstlichen Intelligenz sind, ist es angebracht, dass die Kommission und das Amt für künstliche Intelligenz den Rechts- und Verwaltungsrahmen für solche Modelle und insbesondere für generative KI-Systeme, die auf solchen Modellen beruhen, überwachen und regelmäßig bewerten, da diese erhebliche Fragen im Zusammenhang mit der Erzeugung von Inhalten, die gegen das Unionsrecht und die Vorschriften zum Urheberrecht verstoßen, und mit möglichem Missbrauch aufwerfen. Es sollte klargestellt werden, dass diese Verordnung das Unionsrecht zum Urheberrecht und zu verwandten Schutzrechten, einschließlich der Richtlinien 2001/29/EG, 2004/48/EG und (EU) 2019/790 des Europäischen Parlaments und des Rates, unberührt lassen sollte.
Abänderung 103
Vorschlag für eine Verordnung
Erwägung 61
(61)  Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Die Kommission könnte jedoch gemeinsame technische Spezifikationen in Bereichen annehmen, in denen es keine harmonisierten Normen gibt oder diese unzureichend sind.
(61)  Die Normung sollte eine Schlüsselrolle dabei spielen, den Anbietern technische Lösungen zur Verfügung zu stellen, um die Einhaltung dieser Verordnung zu gewährleisten. Die Einhaltung harmonisierter Normen gemäß der Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates54 sollte den Anbietern den Nachweis der Konformität mit den Anforderungen dieser Verordnung ermöglichen. Um die Wirksamkeit von Normen als politisches Instrument für die Union sicherzustellen und angesichts der Bedeutung von Normen für die Sicherstellung der Konformität mit den Anforderungen dieser Verordnung und für die Wettbewerbsfähigkeit von Unternehmen, ist es notwendig, für eine ausgewogene Interessenvertretung zu sorgen, indem alle relevanten Interessengruppen in die Entwicklung von Normen einbezogen werden. Der Normungsprozess sollte in Bezug auf die an den Normungstätigkeiten beteiligten juristischen und natürlichen Personen transparent sein.
__________________
__________________
54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).
54 Verordnung (EU) Nr. 1025/2012 des Europäischen Parlaments und des Rates vom 25. Oktober 2012 zur europäischen Normung, zur Änderung der Richtlinien 89/686/EWG und 93/15/EWG des Rates sowie der Richtlinien 94/9/EG, 94/25/EG, 95/16/EG, 97/23/EG, 98/34/EG, 2004/22/EG, 2007/23/EG, 2009/23/EG und 2009/105/EG des Europäischen Parlaments und des Rates und zur Aufhebung des Beschlusses 87/95/EWG des Rates und des Beschlusses Nr. 1673/2006/EG des Europäischen Parlaments und des Rates (ABl. L 316 vom 14.11.2012, S. 12).
Abänderung 104
Vorschlag für eine Verordnung
Erwägung 61 a (neu)
(61a)  Um die Einhaltung der Vorschriften zu erleichtern, sollten die ersten Normungsaufträge von der Kommission spätestens zwei Monate nach Inkrafttreten dieser Verordnung erteilt werden. Dies sollte die Rechtssicherheit verbessern und dadurch Investitionen und Innovationen im Bereich der KI sowie die Wettbewerbsfähigkeit und das Wachstum des Unionsmarktes fördern und gleichzeitig die Multi-Stakeholder-Governance voranbringen, bei der alle relevanten europäischen Interessenträger wie das Amt für KI, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Sachverständigengruppen sowie die Industrie, KMU, Start-ups, die Zivilgesellschaft, Forscher und Sozialpartner vertreten sind, und sollte letztlich die globale Zusammenarbeit bei der Normung im Bereich der KI in einer Weise erleichtern, die mit den Werten der Union vereinbar ist. Bei der Ausarbeitung des Normungsauftrags sollte die Kommission das Amt für KI und das KI-Beratungsforum konsultieren, um einschlägiges Fachwissen einzuholen.
Abänderung 105
Vorschlag für eine Verordnung
Erwägung 61 b (neu)
(61b)  Wenn KI-Systeme am Arbeitsplatz zum Einsatz kommen sollen, dürfen die harmonisierten Normen nur technische Spezifikationen und Verfahren betreffen.
Abänderung 106
Vorschlag für eine Verordnung
Erwägung 61 c (neu)
(61c)  Die Kommission sollte in der Lage sein, unter bestimmten Bedingungen gemeinsame Spezifikationen anzunehmen, wenn es keine einschlägige harmonisierte Norm gibt oder um spezifische Grundrechtsbelange zu berücksichtigen. Während des gesamten Entwurfsprozesses sollte die Kommission regelmäßig das Amt für KI und sein Beratungsforum, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Sachverständigengruppen sowie die einschlägigen Interessenträger wie Industrie, KMU, Start-ups, Zivilgesellschaft, Forscher und Sozialpartner konsultieren.
Abänderung 107
Vorschlag für eine Verordnung
Erwägung 61 d (neu)
(61d)  Bei der Annahme gemeinsamer Spezifikationen sollte die Kommission eine regulatorische Abstimmung der KI mit gleichgesinnten globalen Partnern anstreben. Dies ist der Schlüssel zur Förderung von Innovation und grenzüberschreitenden Partnerschaften im Bereich der KI, da die Koordinierung mit gleichgesinnten Partnern in internationalen Normungsgremien von großer Bedeutung ist.
Abänderung 108
Vorschlag für eine Verordnung
Erwägung 62
(62)  Um ein hohes Maß an Vertrauenswürdigkeit von Hochrisiko-KI-Systemen zu gewährleisten, sollten diese Systeme einer Konformitätsbewertung unterzogen werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden.
(62)  Um ein hohes Maß an Vertrauenswürdigkeit von Hochrisiko-KI-Systemen zu gewährleisten, sollten diese Systeme einer Konformitätsbewertung unterzogen werden, bevor sie in Verkehr gebracht oder in Betrieb genommen werden. Um das Vertrauen in die Wertschöpfungskette zu stärken und den Unternehmen Gewissheit über die Leistungsfähigkeit ihrer Systeme zu geben, sollten Dritte, die KI-Komponenten anbieten, die Möglichkeit haben, freiwillig eine Konformitätsbewertung durch Dritte zu beantragen.
Abänderung 109
Vorschlag für eine Verordnung
Erwägung 64
(64)  Angesichts der umfassenderen Erfahrung professioneller dem Inverkehrbringen vorgeschalteter Zertifizierer im Bereich der Produktsicherheit und der unterschiedlichen Art der damit verbundenen Risiken empfiehlt es sich, zumindest während der anfänglichen Anwendung dieser Verordnung für Hochrisiko-KI-Systeme, die nicht mit Produkten in Verbindung stehen, den Anwendungsbereich der Konformitätsbewertung durch Dritte einzuschränken. Daher sollte die Konformitätsbewertung solcher Systeme in der Regel vom Anbieter in eigener Verantwortung durchgeführt werden, mit Ausnahme von KI-Systemen, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, bei denen die Beteiligung einer notifizierten Stelle an der Konformitätsbewertung vorgesehen werden sollte, soweit diese Systeme nicht ganz verboten sind.
(64)  Angesichts der Komplexität von Hochrisiko-KI-Systemen und der damit verbundenen Risiken ist es unerlässlich, eine angemessenere Kapazität für die Anwendung der Konformitätsbewertung durch Dritte für Hochrisiko-KI-Systeme zu entwickeln. In Anbetracht der derzeitigen Erfahrung professioneller dem Inverkehrbringen vorgeschalteter Zertifizierer im Bereich der Produktsicherheit und der unterschiedlichen Art der damit verbundenen Risiken empfiehlt es sich jedoch, zumindest während der anfänglichen Anwendung dieser Verordnung für Hochrisiko-KI-Systeme, die nicht mit Produkten in Verbindung stehen, den Anwendungsbereich der Konformitätsbewertung durch Dritte einzuschränken. Daher sollte die Konformitätsbewertung solcher Systeme in der Regel vom Anbieter in eigener Verantwortung durchgeführt werden, mit Ausnahme von KI-Systemen, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, oder von KI-Systemen, die dazu bestimmt sind, auf der Grundlage biometrischer oder biometriegestützter Daten Rückschlüsse auf persönliche Merkmale natürlicher Personen zu ziehen, einschließlich Systemen zur Erkennung von Emotionen, bei denen die Beteiligung einer notifizierten Stelle an der Konformitätsbewertung vorgesehen werden sollte, soweit diese Systeme nicht ganz verboten sind.
Abänderung 110
Vorschlag für eine Verordnung
Erwägung 65
(65)  Damit KI-Systeme, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen, einer Konformitätsbewertung durch Dritte unterzogen werden können, sollten die notifizierten Stellen gemäß dieser Verordnung von den zuständigen nationalen Behörden benannt werden, sofern sie eine Reihe von Anforderungen erfüllen, insbesondere in Bezug auf Unabhängigkeit, Kompetenz und Nichtvorliegen von Interessenkonflikten.
(65)  Damit KI-Systeme, falls vorgeschrieben, Konformitätsbewertungen durch Dritte unterzogen werden können, sollten die notifizierten Stellen gemäß dieser Verordnung von den zuständigen nationalen Behörden benannt werden, sofern sie eine Reihe von Anforderungen erfüllen, insbesondere in Bezug auf Unabhängigkeit, Kompetenz, Nichtvorliegen von Interessenkonflikten und Mindestanforderungen an die Cybersicherheit. Die Mitgliedstaaten sollten die Benennung einer ausreichenden Zahl von Konformitätsbewertungsstellen fördern, um eine zeitnahe Zertifizierung zu ermöglichen. Die Verfahren zur Bewertung, Benennung, Notifizierung und Überwachung von Konformitätsbewertungsstellen sollten in den Mitgliedstaaten so einheitlich wie möglich angewandt werden, um administrative Grenzhindernisse zu beseitigen und dafür zu sorgen, dass das Potenzial des Binnenmarktes ausgeschöpft wird.
Abänderung 111
Vorschlag für eine Verordnung
Erwägung 65 a (neu)
(65a)  Im Einklang mit den Verpflichtungen der EU im Rahmen des Übereinkommens der Welthandelsorganisation über technische Handelshemmnisse ist es angemessen, die Akzeptanz von Prüfergebnissen zu erhöhen, die von den zuständigen Konformitätsbewertungsstellen unabhängig von dem Gebiet, in dem diese niedergelassen sind, erstellt werden, wenn dies für den Nachweis der Konformität mit den geltenden Anforderungen der Verordnung erforderlich ist. Die Kommission sollte aktiv mögliche internationale Instrumente zu diesem Zweck prüfen und insbesondere den Abschluss von Abkommen über die gegenseitige Anerkennung mit Ländern anstreben, die sich auf einem vergleichbaren technischen Entwicklungsstand befinden und kompatible Konzepte für die KI und die Konformitätsbewertung haben.
Abänderung 112
Vorschlag für eine Verordnung
Erwägung 66
(66)  Im Einklang mit dem allgemein anerkannten Begriff der wesentlichen Änderung von Produkten, für die Harmonisierungsrechtsvorschriften der Union gelten, ist es angebracht, dass ein KI-System einer neuen Konformitätsbewertung unterzogen wird, wenn eine Änderung eintritt, die die Einhaltung dieser Verordnung durch das System beeinträchtigen könnte, oder wenn sich die Zweckbestimmung des Systems ändert. Darüber hinaus müssen in Bezug auf KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen (d. h. sie passen automatisch an, wie die Funktionen ausgeführt werden), Vorschriften festgelegt werden, nach denen Änderungen des Algorithmus und seiner Leistung, die vom Anbieter vorab festgelegt und zum Zeitpunkt der Konformitätsbewertung bewertet wurden, keine wesentliche Änderung darstellen sollten.
(66)  Im Einklang mit dem allgemein anerkannten Begriff der wesentlichen Änderung von Produkten, für die Harmonisierungsrechtsvorschriften der Union gelten, ist es angebracht, dass ein Hochrisiko-KI-System einer neuen Konformitätsbewertung unterzogen wird, wenn eine ungeplante Änderung eintritt, die über kontrollierte oder vom Anbieter vorher festgelegte Änderungen, einschließlich kontinuierlicher Lernprozesse, hinausgeht und ein neues inakzeptables Risiko schaffen und die Einhaltung dieser Verordnung durch das Hochrisiko-KI-System erheblich beeinträchtigen könnte, oder wenn sich die Zweckbestimmung des Systems ändert. Darüber hinaus müssen in Bezug auf KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen (d. h. sie passen automatisch an, wie die Funktionen ausgeführt werden), Vorschriften festgelegt werden, nach denen Änderungen des Algorithmus und seiner Leistung, die vom Anbieter vorab festgelegt und zum Zeitpunkt der Konformitätsbewertung bewertet wurden, keine wesentliche Änderung darstellen sollten. Aus allgemeinen Sicherheitsgründen und zum Schutz vor aufkommenden Bedrohungen infolge von Systemmanipulationen sollte das Gleiche für Aktualisierungen des KI-Systems gelten, sofern sie keine wesentliche Änderung darstellen.
Abänderung 113
Vorschlag für eine Verordnung
Erwägung 67
(67)  Hochrisiko-KI-Systeme sollten grundsätzlich mit der CE-Kennzeichnung versehen sein, aus der ihre Konformität mit dieser Verordnung hervorgeht, sodass sie frei im Binnenmarkt verkehren können. Die Mitgliedstaaten sollten keine ungerechtfertigten Hindernisse für das Inverkehrbringen oder die Inbetriebnahme von Hochrisiko-KI-Systemen schaffen, die die in dieser Verordnung festgelegten Anforderungen erfüllen und mit der CE-Kennzeichnung versehen sind.
(67)  Hochrisiko-KI-Systeme sollten grundsätzlich mit der CE-Kennzeichnung versehen sein, aus der ihre Konformität mit dieser Verordnung hervorgeht, sodass sie frei im Binnenmarkt verkehren können. Bei physischen Hochrisiko-KI-Systemen sollte eine physische CE-Kennzeichnung angebracht werden, die durch eine digitale CE-Kennzeichnung ergänzt werden kann. Bei rein digitalen Hochrisiko-KI-Systemen sollte eine digitale CE-Kennzeichnung verwendet werden. Die Mitgliedstaaten sollten keine ungerechtfertigten Hindernisse für das Inverkehrbringen oder die Inbetriebnahme von Hochrisiko-KI-Systemen schaffen, die die in dieser Verordnung festgelegten Anforderungen erfüllen und mit der CE-Kennzeichnung versehen sind.
Abänderung 114
Vorschlag für eine Verordnung
Erwägung 68
(68)  Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit natürlicher Personen und des Schutzes des gewerblichen und kommerziellen Eigentums das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.
(68)  Unter bestimmten Bedingungen kann die rasche Verfügbarkeit innovativer Technik für die Gesundheit und Sicherheit von Menschen, die Umwelt und den Klimawandel und für die Gesellschaft insgesamt von entscheidender Bedeutung sein. Es ist daher angebracht, dass die Mitgliedstaaten aus außergewöhnlichen Gründen des Schutzes des Lebens und der Gesundheit natürlicher Personen, des Umweltschutzes und des Schutzes der kritischen Infrastruktur das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen, die keiner Konformitätsbewertung unterzogen wurden, genehmigen könnten.
Abänderung 115
Vorschlag für eine Verordnung
Erwägung 69
(69)  Um die Arbeit der Kommission und der Mitgliedstaaten im Bereich der künstlichen Intelligenz zu erleichtern und die Transparenz gegenüber der Öffentlichkeit zu erhöhen, sollten Anbieter von Hochrisiko-KI-Systemen, die nicht mit Produkten in Verbindung stehen, die unter die einschlägigen Harmonisierungsrechtsvorschriften der Union fallen, dazu verpflichtet werden, ihr Hochrisiko-KI-System in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren. Die Kommission sollte im Einklang mit der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates55 als für die Datenbank verantwortliche Stelle gelten. Um die volle Funktionsfähigkeit der Datenbank zu gewährleisten, sollte das Verfahren für die Einrichtung der Datenbank auch die Ausarbeitung von funktionalen Spezifikationen durch die Kommission und einen unabhängigen Prüfbericht umfassen.
(69)  Um die Arbeit der Kommission und der Mitgliedstaaten im Bereich der künstlichen Intelligenz zu erleichtern und die Transparenz gegenüber der Öffentlichkeit zu erhöhen, sollten Anbieter von Hochrisiko-KI-Systemen, die nicht mit Produkten in Verbindung stehen, die unter die einschlägigen Harmonisierungsrechtsvorschriften der Union fallen, dazu verpflichtet werden, ihr Hochrisiko-KI-System und ihre Basismodelle in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren. Diese Datenbank sollte frei und öffentlich zugänglich, leicht verständlich und maschinenlesbar sein. Die Datenbank sollte außerdem benutzerfreundlich und leicht navigierbar sein und zumindest Suchfunktionen enthalten, die es der Öffentlichkeit ermöglichen, die Datenbank nach bestimmten Hochrisikosystemen, Standorten, Risikokategorien gemäß Anhang IV und Schlüsselwörtern zu durchsuchen. Bereitsteller, die Behörden oder Organe, Einrichtungen, Ämter und Agenturen der Union sind, oder Bereitsteller, die in ihrem Namen handeln, sowie Bereitsteller, die Unternehmen sind, die gemäß der Verordnung (EU) 2022/1925 als Torwächter benannt wurden, sollten sich vor der ersten Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems sowie nach jeder wesentlichen Änderung ebenfalls in der EU-Datenbank registrieren. Andere Betreiber sollten berechtigt sein, dies freiwillig zu tun. Jede wesentliche Änderung von Hochrisiko-KI-Systemen muss ebenfalls in der EU-Datenbank registriert werden. Die Kommission sollte im Einklang mit der Verordnung (EU) 2018/1725 des Europäischen Parlaments und des Rates55 als für die Datenbank verantwortliche Stelle gelten. Um die volle Funktionsfähigkeit der Datenbank zu gewährleisten, sollte das Verfahren für die Einrichtung der Datenbank auch die Ausarbeitung von funktionalen Spezifikationen durch die Kommission und einen unabhängigen Prüfbericht umfassen. Die Kommission sollte bei der Wahrnehmung ihrer Aufgaben als Verantwortliche für die EU-Datenbank die Risiken im Zusammenhang mit Cybersicherheit und Gefährdungen berücksichtigen. Um für ein Höchstmaß an Verfügbarkeit und Nutzung der Datenbank durch die Öffentlichkeit zu sorgen, sollte die Datenbank, einschließlich der über sie zur Verfügung gestellten Informationen, den Anforderungen der Richtlinie (EU) 2019/882 entsprechen.
__________________
__________________
55 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).
55 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), (ABl. L 119 vom 4.5.2016, S. 1).
Abänderung 116
Vorschlag für eine Verordnung
Erwägung 71
(71)  Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die neuartige Formen der Regulierungsaufsicht und einen sicheren Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen innovationsfreundlichen, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die zuständigen nationalen Behörden eines oder mehrerer Mitgliedstaaten angehalten werden, Reallabore für künstliche Intelligenz einzurichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern.
(71)  Künstliche Intelligenz bezeichnet eine Reihe sich rasch entwickelnder Technologien, die eine Regulierungsaufsicht und einen sicheren und überwachten Raum für die Erprobung erfordern, wobei gleichzeitig eine verantwortungsvolle Innovation und die Integration geeigneter Schutzvorkehrungen und Risikominderungsmaßnahmen gewährleistet werden müssen. Um einen Innovationen fördernden, zukunftssicheren und gegenüber Störungen widerstandsfähigen Rechtsrahmen sicherzustellen, sollten die Mitgliedstaaten mindestens ein Reallabor für künstliche Intelligenz einrichten, um die Entwicklung und Erprobung innovativer KI-Systeme vor deren Inverkehrbringen oder anderweitiger Inbetriebnahme unter strenger Regulierungsaufsicht zu erleichtern. Es ist in der Tat wünschenswert, dass die Einrichtung von Reallaboren, deren Einrichtung derzeit im Ermessen der Mitgliedstaaten liegt, in einem nächsten Schritt anhand festgelegter Kriterien verbindlich gemacht wird. Dieses obligatorische Reallabor könnte auch gemeinsam mit einem oder mehreren anderen Mitgliedstaaten eingerichtet werden, sofern dieses Reallabor die jeweilige nationale Ebene der beteiligten Mitgliedstaaten abdecken würde. Zusätzliche Reallabore können außerdem auf verschiedenen Ebenen, auch zwischen Mitgliedstaaten, eingerichtet werden, um die grenzüberschreitende Zusammenarbeit und Synergien zu erleichtern. Mit Ausnahme des obligatorischen Reallabors auf nationaler Ebene sollten die Mitgliedstaaten ferner die Möglichkeit haben, virtuelle oder hybride Reallabore einzurichten. Alle Reallabore sollten sowohl physische als auch virtuelle Produkte abdecken können. Die einrichtenden Behörden sollten auch dafür Sorge tragen, dass die Reallabore über angemessene finanzielle und personelle Ressourcen für ihren Betrieb verfügen.
Abänderung 117
Vorschlag für eine Verordnung
Erwägung 72
(72)  Die Ziele der Reallabore sollten darin bestehen, Innovationen im Bereich KI zu fördern, indem eine kontrollierte Versuchs- und Erprobungsumgebung für die Entwicklungsphase und die dem Inverkehrbringen vorgelagerte Phase geschaffen wird, um sicherzustellen, dass die innovativen KI-Systeme mit dieser Verordnung und anderen einschlägigen Rechtsvorschriften der Union und der Mitgliedstaaten in Einklang stehen. Darüber hinaus sollen sie die Rechtssicherheit für Innovatoren sowie die Aufsicht und das Verständnis der zuständigen Behörden in Bezug auf die Möglichkeiten, neu auftretenden Risiken und der Auswirkungen der KI-Nutzung verbessern und den Marktzugang beschleunigen, unter anderem indem Hindernisse für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen abgebaut werden. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die vorliegende Verordnung sollte im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die am Reallabor Beteiligten sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der am Reallabor Beteiligten sollte berücksichtigt werden, wenn die zuständigen Behörden entscheiden, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.
(72)  Die Ziele der Reallabore sollten für die einrichtenden Behörden darin bestehen, ihr Verständnis der technischen Entwicklungen zu verbessern, die Überwachungsmethoden zu verbessern und den Entwicklern und Anbietern von KI-Systemen Leitlinien an die Hand zu geben, um die Einhaltung der Vorschriften dieser Verordnung oder gegebenenfalls anderer geltender Rechtsvorschriften der Union und der Mitgliedstaaten sowie der Charta der Grundrechte zu erreichen, und für die potenziellen Anbieter darin bestehen, die Erprobung und Entwicklung innovativer Lösungen im Zusammenhang mit KI-Systemen in der dem Inverkehrbringen vorgelagerten Phase zu ermöglichen und zu erleichtern, um die Rechtssicherheit zu verbessern, mehr regulatorisches Lernen durch die einrichtenden Behörden in einem kontrollierten Umfeld zu ermöglichen, um bessere Leitlinien zu entwickeln und mögliche künftige Verbesserungen des Rechtsrahmens im Rahmen des ordentlichen Gesetzgebungsverfahrens zu ermitteln. Alle erheblichen Risiken, die bei der Entwicklung und Erprobung solcher KI-Systeme festgestellt werden, sollten die unverzügliche Risikominderung und, falls diese fehlschlägt, die Aussetzung des Entwicklungs- und Erprobungsprozesses nach sich ziehen, bis diese Risikominderung erfolgt ist. Im Interesse einer unionsweit einheitlichen Umsetzung und der Erzielung von Größenvorteilen sollten gemeinsame Vorschriften für die Umsetzung von Reallaboren und ein Rahmen für die Zusammenarbeit zwischen den an der Beaufsichtigung der Reallabore beteiligten Behörden festgelegt werden. Die Mitgliedstaaten sollten dafür Sorge tragen, dass Reallabore in der gesamten Union weithin verfügbar sind, wobei die Teilnahme freiwillig bleiben sollte. Insbesondere muss sichergestellt werden, dass KMU und Start-up-Unternehmen einen einfachen Zugang zu diesen Reallaboren erhalten und aktiv in die Entwicklung und Erprobung innovativer KI-Systeme einbezogen werden und sich daran beteiligen, damit sie mit ihrem Know-how und ihrer Erfahrung einen Beitrag leisten können.
Abänderung 118
Vorschlag für eine Verordnung
Erwägung 72 a (neu)
(72a)  Die vorliegende Verordnung sollte nur unter bestimmten Voraussetzungen im Einklang mit Artikel 6 Absatz 4 der Verordnung (EU) 2016/679 und Artikel 6 der Verordnung (EU) 2018/1725 sowie unbeschadet des Artikels 4 Absatz 2 der Richtlinie (EU) 2016/680 die Rechtsgrundlage für die Verwendung personenbezogener Daten, die für andere Zwecke erhoben werden, zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse innerhalb der KI-Reallabore bilden. Die potenziellen Anbieter des Reallabors sollten angemessene Schutzvorkehrungen treffen und mit den zuständigen Behörden zusammenarbeiten, unter anderem indem sie deren Anweisungen befolgen und zügig und nach Treu und Glauben handeln, um etwaige hohe Risiken für die Sicherheit, die Gesundheit, die Umwelt und die Grundrechte, die bei der Entwicklung und Erprobung im Reallabor auftreten können, zu mindern. Das Verhalten der potenziellen Anbieter des Reallabors sollte berücksichtigt werden, wenn die zuständigen Behörden über die vorübergehende oder dauerhafte Aussetzung ihrer Beteiligung am Reallabor entscheiden oder darüber, ob sie eine Geldbuße gemäß Artikel 83 Absatz 2 der Verordnung (EU) 2016/679 und Artikel 57 der Richtlinie (EU) 2016/680 verhängen.
Abänderung 119
Vorschlag für eine Verordnung
Erwägung 72 b (neu)
(72b)  Um sicherzustellen, dass die künstliche Intelligenz für die Gesellschaft und die Umwelt von Nutzen ist, sollten die Mitgliedstaaten die Forschung und Entwicklung im Bereich von KI mit gesellschaftlichem und ökologischem Nutzen unterstützen und fördern, indem sie ausreichende Ressourcen bereitstellen, darunter staatliche Mittel und Unionsmittel, und Projekten, die von der Zivilgesellschaft getragen werden, vorrangigen Zugang zu Reallaboren gewähren. Diese Projekte sollten auf dem Grundsatz der interdisziplinären Zusammenarbeit zwischen KI-Entwicklern, Fachleuten in den Bereichen Gleichstellung und Nichtdiskriminierung, Barrierefreiheit und Verbraucher-, Umwelt- und digitale Rechte sowie Wissenschaftlern beruhen.
Abänderung 120
Vorschlag für eine Verordnung
Erwägung 73
(73)  Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch Sensibilisierungs- und Informationsmaßnahmen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden können für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird.
(73)  Um Innovationen zu fördern und zu schützen, ist es wichtig, die Interessen kleiner Anbieter und Nutzer von KI-Systemen besonders zu berücksichtigen. Zu diesem Zweck sollten die Mitgliedstaaten Initiativen ergreifen, die sich an diese Akteure richten, darunter auch KI-Kompetenz, Sensibilisierungs- und Informationsmaßnahmen. Die Mitgliedstaaten nutzen entsprechende bestehende Kanäle und richten gegebenenfalls neue Kanäle für die Kommunikation mit KMU, Start-up-Unternehmen und anderen Innovatoren ein, um Orientierungshilfe zu bieten und Fragen zur Durchführung dieser Verordnung zu beantworten. Zu solchen bestehenden Kanälen könnten unter anderem die folgenden gehören: das Netzwerk von Computer-Notfallteams der Agentur der Europäischen Union für Cybersicherheit (ENISA), nationale Datenschutzbehörden, die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation sowie andere durch EU-Programme finanzierte relevante Instrumente und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden. Diese Kanäle arbeiten gegebenenfalls zusammen, um Synergien zu schaffen und eine Homogenität ihrer Leitlinien für Start-up-Unternehmen, KMU und Nutzer sicherzustellen. Darüber hinaus sind die besonderen Interessen und Bedürfnisse kleinerer Anbieter bei der Festlegung der Gebühren für die Konformitätsbewertung durch die notifizierten Stellen zu berücksichtigen. Die Kommission bewertet regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Start-up-Unternehmen, unter anderem durch transparente Konsultationen mit KMU, Start-up-Unternehmen und Nutzern, und arbeitet mit den Mitgliedstaaten zusammen, um diese Kosten zu senken. So können zum Beispiel Übersetzungen im Zusammenhang mit der verpflichtenden Dokumentation und Kommunikation mit Behörden für Anbieter und andere Akteure, insbesondere den kleineren unter ihnen, erhebliche Kosten verursachen. Die Mitgliedstaaten sollten möglichst dafür sorgen, dass eine der Sprachen, die sie für die einschlägige Dokumentation der Anbieter und für die Kommunikation mit den Akteuren bestimmen und akzeptieren, eine Sprache ist, die von der größtmöglichen Zahl grenzüberschreitender Nutzer weitgehend verstanden wird. Mittlere Unternehmen, die kürzlich die Kategorie von der kleinen auf die mittlere Größe im Sinne des Anhangs der Empfehlung 2003/361/EG (Artikel 16) gewechselt haben, sollten während eines von den Mitgliedstaaten als angemessen erachteten Zeitraums Zugang zu diesen Initiativen und Orientierungshilfen haben, da diesen neuen mittleren Unternehmen mitunter die erforderlichen rechtlichen Mittel und Schulungsmöglichkeiten fehlen, um für ein angemessenes Verständnis und eine ordnungsgemäße Einhaltung der Bestimmungen zu sorgen.
Abänderung 121
Vorschlag für eine Verordnung
Erwägung 74
(74)  Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, möglichst zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.
(74)  Um die Risiken bei der Durchführung, die sich aus mangelndem Wissen und fehlenden Fachkenntnissen auf dem Markt ergeben, zu minimieren und den Anbietern und notifizierten Stellen die Einhaltung ihrer Verpflichtungen aus dieser Verordnung zu erleichtern, sollten die KI-Abruf-Plattform, die europäischen Zentren für digitale Innovation und die Erprobungs- und Versuchseinrichtungen, die von der Kommission und den Mitgliedstaaten auf nationaler oder EU-Ebene eingerichtet wurden/werden, zur Durchführung dieser Verordnung beitragen. Sie können Anbieter und notifizierte Stellen im Rahmen ihres jeweiligen Auftrags und ihrer jeweiligen Kompetenzbereiche insbesondere technisch und wissenschaftlich unterstützen.
Abänderung 122
Vorschlag für eine Verordnung
Erwägung 76
(76)  Um eine reibungslose, wirksame und harmonisierte Umsetzung dieser Verordnung zu erleichtern, sollte ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden. Der Ausschuss sollte für eine Reihe von Beratungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschlägen oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, darunter zu technischen Spezifikationen oder bestehenden Normen in Bezug auf die in dieser Verordnung festgelegten Anforderungen; außerdem sollte er die Kommission in spezifischen Fragen im Zusammenhang mit künstlicher Intelligenz beraten und unterstützen.
(76)  Um eine Fragmentierung zu vermeiden, für das optimale Funktionieren des Binnenmarkts zu sorgen, eine wirksame und harmonisierte Umsetzung dieser Verordnung sicherzustellen, ein hohes Maß an Vertrauenswürdigkeit und an Schutz für die Gesundheit und Sicherheit, die Grundrechte, die Umwelt, die Demokratie und die Rechtsstaatlichkeit in der gesamten Union in Bezug auf KI-Systeme zu erreichen, die nationalen Aufsichtsbehörden, die Organe, Einrichtungen, Ämter und Agenturen der Union in Angelegenheiten, die diese Verordnung betreffen, aktiv zu unterstützen und die Akzeptanz der künstlichen Intelligenz in der gesamten Union zu erhöhen, sollte ein Europäisches Amt für künstliche Intelligenz eingerichtet werden. Das Amt für künstliche Intelligenz sollte Rechtspersönlichkeit besitzen, in völliger Unabhängigkeit handeln, für eine Reihe von Beratungs- und Koordinierungsaufgaben zuständig sein und Stellungnahmen, Empfehlungen, Ratschläge oder Leitlinien zu Fragen im Zusammenhang mit der Umsetzung dieser Verordnung abgeben, und es sollte mit angemessenen Finanzmitteln und Personal ausgestattet sein. Die Mitgliedstaaten sollten gemeinsam mit der Kommission, dem EDSB, der FRA und der ENISA über den Verwaltungsrat des Amts für KI die strategische Leitung und Kontrolle des Amts für KI übernehmen. Ein Verwaltungsratsmitglied sollte für die Leitung der Tätigkeiten des Sekretariats des Amts für KI und für die Vertretung des Amts für KI verantwortlich sein. Interessenträger sollten sich im Wege eines Beratungsforums, das eine vielfältige und ausgewogene Vertretung von Interessenträgern sicherstellen und das Amt für KI in Angelegenheiten, die diese Verordnung betreffen, beraten sollte, formell an der Arbeit des Amts für KI beteiligen. Sollte sich die Einrichtung des Amts für KI als unzureichend erweisen, um eine vollständig kohärente Anwendung dieser Verordnung auf Unionsebene sowie effiziente grenzüberschreitende Durchsetzungsmaßnahmen zu gewährleisten, sollte die Einrichtung einer Agentur für KI in Betracht gezogen werden.
Abänderung 123
Vorschlag für eine Verordnung
Erwägung 77
(77)  Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigen. Um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten, sollte in jedem Mitgliedstaat eine nationale Behörde als nationale Aufsichtsbehörde benannt werden.
(77)  Jeder Mitgliedstaat sollte eine nationale Aufsichtsbehörde benennen, die die Anwendung und Umsetzung dieser Verordnung beaufsichtigt. Diese Behörde sollte zudem ihren Mitgliedstaat im Verwaltungsrat des Amts für KI vertreten, um die Effizienz der Organisation aufseiten der Mitgliedstaaten zu steigern und eine offizielle Kontaktstelle gegenüber der Öffentlichkeit und anderen Ansprechpartnern auf Ebene der Mitgliedstaaten und der Union einzurichten. Jede nationale Aufsichtsbehörde sollte bei der Erfüllung ihrer Aufgaben und Ausübung ihrer Befugnisse gemäß dieser Verordnung vollkommen unabhängig handeln.
Abänderung 124
Vorschlag für eine Verordnung
Erwägung 77 a (neu)
(77a)  Die nationalen Aufsichtsbehörden sollten die Anwendung der Bestimmungen dieser Verordnung überwachen und zu ihrer einheitlichen Anwendung in der gesamten Union beitragen. Zu diesem Zweck sollten die nationalen Aufsichtsbehörden untereinander, mit den jeweils zuständigen nationalen Behörden, mit der Kommission und mit dem Amt für KI zusammenarbeiten.
Abänderung 125
Vorschlag für eine Verordnung
Erwägung 77 b (neu)
(77b)  Das Mitglied oder die Bediensteten jeder nationalen Aufsichtsbehörde sollten gemäß dem Unionsrecht oder dem Recht der Mitgliedstaaten sowohl während ihrer Amts- beziehungsweise Dienstzeit als auch nach deren Beendigung verpflichtet sein, über alle vertraulichen Informationen, die ihnen bei der Wahrnehmung ihrer Aufgaben oder der Ausübung ihrer Befugnisse bekannt geworden sind, Verschwiegenheit zu wahren. Während dieser Amts- beziehungsweise Dienstzeit sollte diese Verschwiegenheitspflicht insbesondere für Geschäftsgeheimnisse und für die von natürlichen Personen gemeldeten Verstöße gegen diese Verordnung gelten.
Abänderung 126
Vorschlag für eine Verordnung
Erwägung 78
(78)  Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht zum Schutz der Grundrechte zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben.
(78)  Damit Anbieter von Hochrisiko-KI-Systemen die Erfahrungen mit der Verwendung von Hochrisiko-KI-Systemen bei der Verbesserung ihrer Systeme und im Konzeptions- und Entwicklungsprozess berücksichtigen oder rechtzeitig etwaige Korrekturmaßnahmen ergreifen können, sollten alle Anbieter über ein System zur Beobachtung nach dem Inverkehrbringen verfügen. Dieses System ist auch wichtig, damit den möglichen Risiken, die von KI-Systemen ausgehen, die nach dem Inverkehrbringen oder der Inbetriebnahme dazulernen oder sich weiterentwickeln, wirksamer und zeitnah begegnet werden kann. In diesem Zusammenhang sollten die Anbieter auch verpflichtet sein, ein System einzurichten, um den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht, einschließlich Rechtsvorschriften zum Schutz der Grundrechte und Verbraucherrechte, zu melden, die sich aus der Verwendung ihrer KI-Systeme ergeben, und geeignete Korrekturmaßnahmen zu ergreifen. Die Betreiber sollten zudem den zuständigen Behörden schwerwiegende Vorfälle oder Verstöße gegen nationales Recht und Unionsrecht, die sich aus der Verwendung ihrer KI-Systeme ergeben, melden, wenn sie Kenntnis von solchen schwerwiegenden Vorfällen oder Verstößen erlangen.
Abänderung 127
Vorschlag für eine Verordnung
Erwägung 79
(79)  Zur Gewährleistung einer angemessenen und wirksamen Durchsetzung der Anforderungen und Verpflichtungen gemäß dieser Verordnung, bei der es sich eine Harmonisierungsrechtsvorschrift der Union handelt, sollte das mit der Verordnung (EU) 2019/1020 eingeführte System der Marktüberwachung und der Konformität von Produkten in vollem Umfang gelten. Sofern dies für die Erfüllung ihres Auftrags erforderlich ist, sollten auch nationale Behörden oder Stellen, die die Anwendung des Unionsrechts zum Schutz der Grundrechte überwachen, einschließlich Gleichstellungsstellen, Zugang zu der gesamten im Rahmen dieser Verordnung erstellten Dokumentation haben.
(79)  Zur Gewährleistung einer angemessenen und wirksamen Durchsetzung der Anforderungen und Verpflichtungen gemäß dieser Verordnung, bei der es sich eine Harmonisierungsrechtsvorschrift der Union handelt, sollte das mit der Verordnung (EU) 2019/1020 eingeführte System der Marktüberwachung und der Konformität von Produkten in vollem Umfang gelten. Für die Zwecke dieser Verordnung sollten die nationalen Aufsichtsbehörden als Marktüberwachungsbehörden für unter diese Verordnung fallende KI-Systeme fungieren, mit Ausnahme von KI-Systemen, die unter Anhang II dieser Verordnung fallen. Bei KI-Systemen, die unter die in Anhang II aufgeführten Rechtsakte fallen, sollten die nach diesen Rechtsakten zuständigen Behörden weiterhin die federführende Behörde sein. Die nationalen Aufsichtsbehörden und die in den in Anhang II aufgeführten Rechtsakten genannten zuständigen Behörden sollten bei Bedarf zusammenarbeiten. Gegebenenfalls sollten die in den in Anhang II aufgeführten Rechtsakten genannten zuständigen Behörden kompetente Mitarbeiter an die nationale Aufsichtsbehörde entsenden, um sie bei der Wahrnehmung ihrer Aufgaben zu unterstützen. Für die Zwecke dieser Verordnung sollten die nationalen Aufsichtsbehörden die gleichen Befugnisse und Pflichten haben wie die Marktüberwachungsbehörden gemäß der Verordnung (EU) 2019/1020. Sofern dies für die Erfüllung ihres Auftrags erforderlich ist, sollten auch nationale Behörden oder Stellen, die die Anwendung des Unionsrechts zum Schutz der Grundrechte überwachen, einschließlich Gleichstellungsstellen, Zugang zu der gesamten im Rahmen dieser Verordnung erstellten Dokumentation haben. Nachdem alle anderen angemessenen Möglichkeiten zur Bewertung/Überprüfung der Konformität ausgeschöpft wurden, sollte der nationalen Aufsichtsbehörde auf begründeten Antrag Zugang zu den Trainings-, Validierungs- und Testdatensätzen, dem trainierten Modell und dem Trainingsmodell des Hochrisiko-KI-Systems, einschließlich seiner relevanten Modellparameter und seiner Ausführungs-/Prozessumgebung, gewährt werden. Bei einfacheren Softwaresystemen, die unter diese Verordnung fallen und nicht auf trainierten Modellen beruhen, und wenn alle anderen Möglichkeiten zur Überprüfung der Konformität ausgeschöpft wurden, kann die nationale Aufsichtsbehörde auf begründeten Antrag hin ausnahmsweise Zugang zum Quellcode erhalten. Wurde der nationalen Aufsichtsbehörde gemäß dieser Verordnung Zugang zu den Trainings-, Validierungs- und Testdatensätzen gewährt, so sollte dieser Zugang durch geeignete technische Mittel und Instrumente erfolgen, einschließlich des Zugangs vor Ort und in Ausnahmefällen des Fernzugangs. Die nationale Aufsichtsbehörde sollte alle erhaltenen Informationen, einschließlich des Quellcodes, der Software und gegebenenfalls der Daten, als vertrauliche Informationen behandeln und die einschlägigen Rechtsvorschriften der Union zum Schutz des geistigen Eigentums und der Geschäftsgeheimnisse beachten. Die nationale Aufsichtsbehörde sollte alle erhaltenen Informationen nach Abschluss der Untersuchung löschen.
Abänderung 128
Vorschlag für eine Verordnung
Erwägung 80
(80)  Die Rechtsvorschriften der Union über Finanzdienstleistungen enthalten Vorschriften und Anforderungen für die interne Unternehmensführung und das Risikomanagement, die für regulierte Finanzinstitute bei der Erbringung solcher Dienstleistungen gelten, auch wenn sie KI-Systeme verwenden. Um eine kohärente Anwendung und Durchsetzung der Verpflichtungen aus dieser Verordnung sowie der einschlägigen Vorschriften und Anforderungen der Rechtsvorschriften der Union für Finanzdienstleistungen zu gewährleisten, sollten die für die Beaufsichtigung und Durchsetzung der Rechtsvorschriften im Bereich der Finanzdienstleistungen zuständigen Behörden, gegebenenfalls einschließlich der Europäischen Zentralbank, auch als zuständige Behörden für die Überwachung der Durchführung dieser Verordnung, einschließlich der Marktüberwachungstätigkeiten, in Bezug auf von regulierten und beaufsichtigten Finanzinstituten bereitgestellte oder verwendete KI-Systeme benannt werden. Um die Kohärenz zwischen dieser Verordnung und den Vorschriften für Kreditinstitute, die unter die Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates56 fallen, weiter zu verbessern, ist es ferner angezeigt, das Konformitätsbewertungsverfahren und einige verfahrenstechnische Anbieterpflichten in Bezug auf das Risikomanagement, die Beobachtung nach dem Inverkehrbringen und die Dokumentation in die bestehenden Verpflichtungen und Verfahren gemäß der Richtlinie 2013/36/EU aufzunehmen. Zur Vermeidung von Überschneidungen sollten auch begrenzte Ausnahmen in Bezug auf das Qualitätsmanagementsystem der Anbieter und die Beobachtungspflichten der Nutzer von Hochrisiko-KI-Systemen in Betracht gezogen werden, soweit diese Kreditinstitute betreffen, die unter die Richtlinie 2013/36/EU fallen.
(80)  Das Unionsrecht zu Finanzdienstleistungen enthält Vorschriften und Anforderungen für die interne Unternehmensführung und das Risikomanagement, die für regulierte Finanzinstitute bei der Erbringung solcher Dienstleistungen gelten, auch wenn sie KI-Systeme verwenden. Um eine kohärente Anwendung und Durchsetzung der Verpflichtungen aus dieser Verordnung sowie der einschlägigen Vorschriften und Anforderungen des Unionsrechts zu Finanzdienstleistungen zu gewährleisten, sollten die für die Beaufsichtigung und Durchsetzung des Unionsrechts zu Finanzdienstleistungen zuständigen Behörden, gegebenenfalls einschließlich der Europäischen Zentralbank, auch als zuständige Behörden für die Überwachung der Durchführung dieser Verordnung, einschließlich der Marktüberwachungstätigkeiten, in Bezug auf von regulierten und beaufsichtigten Finanzinstituten bereitgestellte oder verwendete KI-Systeme benannt werden. Um die Kohärenz zwischen dieser Verordnung und den Vorschriften für Kreditinstitute, die unter die Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates56 fallen, weiter zu verbessern, ist es ferner angezeigt, das Konformitätsbewertungsverfahren und einige verfahrenstechnische Anbieterpflichten in Bezug auf das Risikomanagement, die Beobachtung nach dem Inverkehrbringen und die Dokumentation in die bestehenden Verpflichtungen und Verfahren gemäß der Richtlinie 2013/36/EU aufzunehmen. Zur Vermeidung von Überschneidungen sollten auch begrenzte Ausnahmen in Bezug auf das Qualitätsmanagementsystem der Anbieter und die Beobachtungspflichten der Betreiber von Hochrisiko-KI-Systemen in Betracht gezogen werden, soweit diese Kreditinstitute betreffen, die unter die Richtlinie 2013/36/EU fallen.
__________________
__________________
56 Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 über den Zugang zur Tätigkeit von Kreditinstituten und die Beaufsichtigung von Kreditinstituten und Wertpapierfirmen, zur Änderung der Richtlinie 2002/87/EG und zur Aufhebung der Richtlinien 2006/48/EG und 2006/49/EG (ABl. L 176 vom 27.6.2013, S. 338).
56 Richtlinie 2013/36/EU des Europäischen Parlaments und des Rates vom 26. Juni 2013 über den Zugang zur Tätigkeit von Kreditinstituten und die Beaufsichtigung von Kreditinstituten und Wertpapierfirmen, zur Änderung der Richtlinie 2002/87/EG und zur Aufhebung der Richtlinien 2006/48/EG und 2006/49/EG (ABl. L 176 vom 27.6.2013, S. 338).
Abänderung 129
Vorschlag für eine Verordnung
Erwägung 80 a (neu)
(80a)  Angesichts der Ziele dieser Verordnung, nämlich einen gleichwertigen Schutz der Gesundheit, der Sicherheit und der Grundrechte natürlicher Personen sowie den Schutz der Rechtsstaatlichkeit und der Demokratie sicherzustellen, und unter Berücksichtigung, dass die Minderung der von KI-Systemen ausgehenden Risiken gegenüber diesen Rechten auf nationaler Ebene möglicherweise nicht ausreichend erreicht wird oder Gegenstand unterschiedlicher Auslegungen sein kann, was letztlich zu einem ungleichen Schutzniveau für natürliche Personen und zu einer Fragmentierung der Märkte führen könnte, sollten die nationalen Aufsichtsbehörden ermächtigt werden, gemeinsame Untersuchungen durchzuführen oder zur wirksamen Durchsetzung das in dieser Verordnung vorgesehene Schutzklauselverfahren der Union anzuwenden. Gemeinsame Untersuchungen sollten eingeleitet werden, wenn die nationalen Aufsichtsbehörden hinreichende Gründe zu der Annahme haben, dass es sich bei einem Verstoß gegen diese Verordnung um einen weitverbreiteten Verstoß oder einen weitverbreiteten Verstoß mit unionsweiter Dimension handelt, oder wenn das KI-System oder das Basismodell ein Risiko darstellt, das mindestens 45 Millionen Personen in mehr als einem Mitgliedstaat betrifft oder betreffen könnte.
Abänderung 130
Vorschlag für eine Verordnung
Erwägung 82
(82)  Es ist wichtig, dass KI-Systeme im Zusammenhang mit Produkten, die gemäß dieser Verordnung kein hohes Risiko bergen und daher nicht die in dieser Verordnung festgelegten Anforderungen erfüllen müssen, dennoch sicher sind, wenn sie in Verkehr gebracht oder in Betrieb genommen werden. Um zu diesem Ziel beizutragen, würde die Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates57 als Sicherheitsnetz dienen.
(82)  Es ist wichtig, dass KI-Systeme im Zusammenhang mit Produkten, die gemäß dieser Verordnung kein hohes Risiko bergen und daher nicht die für Hochrisiko-KI-Systeme festgelegten Anforderungen erfüllen müssen, dennoch sicher sind, wenn sie in Verkehr gebracht oder in Betrieb genommen werden. Um zu diesem Ziel beizutragen, würde die Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates57 als Sicherheitsnetz dienen.
__________________
__________________
57 Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit (ABl. L 11 vom 15.1.2002, S. 4).
57 Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit (ABl. L 11 vom 15.1.2002, S. 4).
Abänderung 131
Vorschlag für eine Verordnung
Erwägung 83
(83)  Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren.
(83)  Zur Gewährleistung einer vertrauensvollen und konstruktiven Zusammenarbeit der zuständigen Behörden auf Ebene der Union und der Mitgliedstaaten, sollten alle an der Anwendung dieser Verordnung beteiligten Parteien Transparenz und Offenheit anstreben und gleichzeitig die Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen und Daten wahren, indem sie technische und organisatorische Maßnahmen zum Schutz der Sicherheit und Vertraulichkeit der im Rahmen der Durchführung ihrer Tätigkeiten erlangten Informationen, unter anderem für Rechte des geistigen Eigentums und öffentliche und nationale Sicherheitsinteressen, ergreifen. Für den Fall, dass die Tätigkeiten der Kommission, der zuständigen nationalen Behörden und der notifizierten Stellen gemäß dieser Verordnung zu einer Verletzung von Rechten des geistigen Eigentums führen, sollten die Mitgliedstaaten geeignete Maßnahmen und Rechtsbehelfe vorsehen, um die Durchsetzung der Rechte des geistigen Eigentums in Anwendung der Richtlinie 2004/48/EG zu gewährleisten.
Abänderung 132
Vorschlag für eine Verordnung
Erwägung 84
(84)  Die Mitgliedstaaten sollten alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass die Bestimmungen dieser Verordnung eingehalten werden, und dazu u. a. wirksame, verhältnismäßige und abschreckende Sanktionen für Verstöße festlegen. Bei bestimmten Verstößen sollten die Mitgliedstaaten die in dieser Verordnung festgelegten Spielräume und Kriterien berücksichtigen. Der Europäische Datenschutzbeauftragte sollte befugt sein, gegen Organe, Einrichtungen und sonstige Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, Geldbußen zu verhängen.
(84)  Die Einhaltung dieser Verordnung sollte durch die Verhängung von Geldbußen durch die nationale Aufsichtsbehörde bei der Durchführung von Verfahren nach dem in dieser Verordnung festgelegten Verfahren durchsetzbar sein. Die Mitgliedstaaten sollten alle erforderlichen Maßnahmen ergreifen, um sicherzustellen, dass die Bestimmungen dieser Verordnung eingehalten werden, und dazu u. a. wirksame, verhältnismäßige und abschreckende Sanktionen für Verstöße festlegen. Um die verwaltungsrechtlichen Sanktionen für Verstöße gegen diese Verordnung zu verschärfen und zu harmonisieren, sollten die Obergrenzen für die Festsetzung der Geldbußen bei bestimmten Verstößen festgelegt werden. Bei der Bemessung der Höhe der Geldbußen sollten die zuständigen nationalen Behörden in jedem Einzelfall alle relevanten Umstände der jeweiligen Situation berücksichtigen, insbesondere die Art, die Schwere und die Dauer des Verstoßes und seiner Folgen sowie die Größe des Anbieters, vor allem wenn es sich bei diesem um ein KMU oder ein Start-up-Unternehmen handelt. Der Europäische Datenschutzbeauftragte sollte befugt sein, gegen Organe, Einrichtungen und sonstige Stellen der Union, die in den Anwendungsbereich dieser Verordnung fallen, Geldbußen zu verhängen. Die Sanktionen und Gerichtskosten gemäß dieser Verordnung sollten nicht Gegenstand von Vertragsklauseln oder anderen Vereinbarungen sein.
Abänderung 133
Vorschlag für eine Verordnung
Erwägung 84 a (neu)
(84a)  Da die Rechte und Freiheiten natürlicher und juristischer Personen und Gruppen natürlicher Personen durch KI-Systeme ernsthaft beeinträchtigt werden können, ist es von wesentlicher Bedeutung, dass natürliche und juristische Personen oder Gruppen natürlicher Personen sinnvollen Zugang zu Melde- und Rechtsbehelfsmechanismen haben und das Recht auf Zugang zu verhältnismäßigen und wirksamen Rechtsbehelfen haben. Sie sollten in der Lage sein, Verstöße gegen diese Verordnung ihrer nationalen Aufsichtsbehörde zu melden, und das Recht haben, eine Beschwerde gegen die Anbieter oder Betreiber von KI-Systemen einzureichen. Gegebenenfalls sollten die Betreiber interne Beschwerdemechanismen bereitstellen, die von natürlichen und juristischen Personen oder Gruppen von natürlichen Personen genutzt werden können. Unbeschadet anderer verwaltungsrechtlicher oder außergerichtlicher Rechtsbehelfe sollten natürliche und juristische Personen und Gruppen natürlicher Personen auch das Recht auf einen wirksamen gerichtlichen Rechtsbehelf in Bezug auf eine sie betreffende rechtsverbindliche Entscheidung einer nationalen Aufsichtsbehörde oder, wenn die nationale Aufsichtsbehörde eine Beschwerde nicht bearbeitet, den Beschwerdeführer nicht über den Fortgang oder das vorläufige Ergebnis der eingereichten Beschwerde informiert oder ihrer Verpflichtung, eine endgültige Entscheidung zu treffen, nicht nachkommt, in Bezug auf die Beschwerde haben.
Abänderung 134
Vorschlag für eine Verordnung
Erwägung 84 b (neu)
(84b)  Betroffene Personen sollten stets darüber informiert werden, dass sie dem Einsatz eines Hochrisiko-KI-Systems ausgesetzt sind, wenn Betreiber ein Hochrisiko-KI-System zur Unterstützung bei der Entscheidungsfindung einsetzen oder Entscheidungen in Bezug auf natürliche Personen treffen. Auf der Grundlage dieser Information können betroffene Personen ihr Recht auf eine Erklärung gemäß dieser Verordnung wahrnehmen. Wenn die Betreiber betroffenen Personen im Rahmen dieser Verordnung eine Erklärung bieten, sollten sie den Sachverstand und die Kenntnisse des Durchschnittsverbrauchers oder der Durchschnittsperson berücksichtigen.
Abänderung 135
Vorschlag für eine Verordnung
Erwägung 84 c (neu)
(84c)  Das Unionsrecht zum Schutz von Hinweisgebern (Richtlinie (EU) 2019/1937) gilt uneingeschränkt für Wissenschaftler, Konstrukteure, Entwickler, Projektmitarbeiter, Prüfer, Produktmanager, Ingenieure und Wirtschaftsakteure, die Kenntnis von Informationen über Verstöße gegen das Unionsrecht durch einen Anbieter eines KI-Systems oder durch sein KI-System erlangen.
Abänderung 136
Vorschlag für eine Verordnung
Erwägung 85
(85)  Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang I genannten Techniken und Konzepte für die Einstufung von KI-Systemen, der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.
(85)  Damit der Rechtsrahmen erforderlichenfalls angepasst werden kann, sollte der Kommission die Befugnis übertragen werden, gemäß Artikel 290 AEUV Rechtsakte zur Änderung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der in Anhang III aufgeführten Hochrisiko-KI-Systeme, der Bestimmungen über die technische Dokumentation in Anhang IV, des Inhalts der EU-Konformitätserklärung in Anhang V, der Bestimmungen über die Konformitätsbewertungsverfahren in den Anhängen VI und VII und der Bestimmungen zur Festlegung der Hochrisiko-KI-Systeme zu erlassen, für die das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation gelten sollte. Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen, auch auf der Ebene von Sachverständigen, durchführt, die mit den Grundsätzen in Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung58 niedergelegt wurden. An diesen Konsultationen sollte eine ausgewogene Auswahl von Interessenträgern teilnehmen, einschließlich Verbraucherorganisationen, Verbänden, die betroffene Personen vertreten, Vertretern von Unternehmen aus verschiedenen Sektoren und von unterschiedlicher Größe sowie Forschern und Wissenschaftlern. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.
__________________
__________________
58 ABl. L 123 vom 12.5.2016, S. 1.
58 ABl. L 123 vom 12.5.2016, S. 1.
Abänderung 137
Vorschlag für eine Verordnung
Erwägung 85 a (neu)
(85a)  Angesichts der rasanten technologischen Entwicklungen und des erforderlichen technischen Fachwissens bei der Bewertung von Hochrisiko-KI-Systemen sollte die Kommission die Durchführung dieser Verordnung, insbesondere die verbotenen KI-Systeme, die Transparenzpflichten und die Liste der Bereiche und Anwendungsfälle mit hohem Risiko, regelmäßig, mindestens jedoch einmal jährlich, überprüfen und dabei das Amt für künstliche Intelligenz und die einschlägigen Interessenträger konsultieren.
Abänderung 138
Vorschlag für eine Verordnung
Erwägung 87 a (neu)
(87a)  Da es nur wenige verlässliche Informationen über den Ressourcen- und Energieverbrauch, die Abfallproduktion und andere Umweltauswirkungen von KI-Systemen und der damit verbundenen IKT-Technologie, einschließlich Software, Hardware und insbesondere Rechenzentren, gibt, sollte die Kommission eine angemessene Methodik zur Messung der Umweltauswirkungen und der Wirksamkeit dieser Verordnung im Hinblick auf die Umwelt- und Klimaziele der Union einführen.
Abänderung 139
Vorschlag für eine Verordnung
Erwägung 89
(89)  Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss wurden gemäß Artikel 42 Absatz 2 der Verordnung (EU) 2018/1725 angehört und haben am [...] eine Stellungnahme abgegeben —
(89)  Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss wurden gemäß Artikel 42 Absatz 2 der Verordnung (EU) 2018/1725 angehört und haben am 18. Juni 2021 eine Stellungnahme abgegeben —
Abänderung 140
Vorschlag für eine Verordnung
Artikel 1 – Absatz 1 (neu)
1.  Ziel dieser Verordnung ist es, die Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz zu fördern und ein hohes Maß an Schutz der Gesundheit, der Sicherheit, der Grundrechte, der Demokratie und der Rechtsstaatlichkeit sowie der Umwelt vor schädlichen Auswirkungen von Systemen der künstlichen Intelligenz in der Union sicherzustellen und gleichzeitig die Innovation zu fördern.
Abänderung 141
Vorschlag für eine Verordnung
Artikel 1 – Absatz 1 – Buchstabe d
d)  harmonisierte Transparenzvorschriften für KI-Systeme, die mit natürlichen Personen interagieren sollen, für KI-Systeme zur Emotionserkennung und zur biometrischen Kategorisierung sowie für KI-Systeme, die zum Erzeugen oder Manipulieren von Bild-, Ton- oder Videoinhalten verwendet werden;
d)  harmonisierte Transparenzvorschriften für bestimmte KI-Systeme;
Abänderung 142
Vorschlag für eine Verordnung
Artikel 1 – Absatz 1 – Buchstabe e
e)  Vorschriften für die Marktbeobachtung und Marktüberwachung.
e)  Vorschriften für die Marktbeobachtung sowie die Steuerung und Durchsetzung der Marktüberwachung;
Abänderung 143
Vorschlag für eine Verordnung
Artikel 1 – Absatz 1 – Buchstabe e a (neu)
ea)  Maßnahmen zur Innovationsförderung mit besonderem Augenmerk auf KMU und Start-ups, einschließlich der Einrichtung von Reallaboren und gezielter Maßnahmen zur Verringerung des Regelungsaufwands für KMU und Start-ups;
Abänderung 144
Vorschlag für eine Verordnung
Artikel 1 – Absatz 1 – Buchstabe e b (neu)
eb)  Vorschriften für die Einrichtung und Arbeitsweise des Amts für künstliche Intelligenz der Union.
Abänderung 145
Vorschlag für eine Verordnung
Artikel 2 – Absatz 1 – Buchstabe b
b)  Nutzer von KI-Systemen, die sich in der Union befinden;
b)  Betreiber von KI-Systemen, die ihren Sitz in der Union haben oder die sich in der Union befinden;
Abänderung 146
Vorschlag für eine Verordnung
Artikel 2 – Absatz 1 – Buchstabe c
c)  Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis in der Union verwendet wird.
c)  Anbieter und Betreiber von KI-Systemen, die ihren Sitz in einem Drittland haben oder die in einem Drittland niedergelassen oder ansässig sind, in dem entweder das Recht eines Mitgliedstaates aufgrund eines internationalen Rechts gilt oder wenn das vom System hervorgebrachte Ergebnis in der Union verwendet werden soll.
Abänderung 147
Vorschlag für eine Verordnung
Artikel 2 – Absatz 1 – Buchstabe c a (neu)
ca)  Anbieter, die die in Artikel 5 genannten KI-Systeme außerhalb der Union in Verkehr bringen oder in Betrieb nehmen, wenn der Anbieter oder Händler dieser Systeme in der Union ansässig ist;
Abänderung 148
Vorschlag für eine Verordnung
Artikel 2 – Absatz 1 – Buchstabe c b (neu)
cb)  Einführer und Händler von KI-Systemen sowie bevollmächtigte Vertreter von Anbietern von KI-Systemen, wenn diese Einführer, Händler oder bevollmächtigten Vertreter ihre Niederlassung in der Union haben oder dort ansässig sind;
Abänderung 149
Vorschlag für eine Verordnung
Artikel 2 – Absatz 1 – Buchstabe c c (neu)
cc)  betroffene Personen im Sinne von Artikel 3 Absatz 8a, die in der Union ansässig sind und deren Gesundheit, Sicherheit oder Grundrechte durch die Verwendung eines KI-Systems, das in der Union in Verkehr gebracht oder in Betrieb genommen wird, beeinträchtigt werden.
Abänderung 150
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Einleitung
(2)  Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind, die in den Anwendungsbereich der folgenden Rechtsakte fallen, gilt nur Artikel 84 dieser Verordnung:
(2)  Für Hochrisiko-KI-Systeme, die Sicherheitskomponenten von Produkten oder Systemen oder selbst Produkte oder Systeme sind und die in den Anwendungsbereich der in Anhang II Abschnitt B aufgeführten Harmonisierungsrechtsvorschriften fallen, gilt nur Artikel 84 dieser Verordnung;
Abänderung 151
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe a
a)  Verordnung (EG) Nr. 300/2008,
entfällt
Abänderung 152
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe b
b)  Verordnung (EU) Nr. 167/2013,
entfällt
Abänderung 153
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe c
c)  Verordnung (EU) Nr. 168/2013,
entfällt
Abänderung 154
Vorschlag für eine Verordnung
Artikel 2– Absatz 2 – Buchstabe d
d)  Richtlinie 2014/90/EU,
entfällt
Abänderung 155
Vorschlag für eine Verordnung
Artikel 2– Absatz 2 – Buchstabe e
e)  Richtlinie (EU) 2016/797,
entfällt
Abänderung 156
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe f
f)  Verordnung (EU) 2018/858,
entfällt
Abänderung 157
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe g
g)  Verordnung (EU) 2018/1139,
entfällt
Abänderung 158
Vorschlag für eine Verordnung
Artikel 2 – Absatz 2 – Buchstabe h
h)  Verordnung (EU) 2019/2144.
entfällt
Abänderung 159
Vorschlag für eine Verordnung
Artikel 2 – Absatz 4
(4)  Diese Verordnung gilt weder für Behörden in Drittländern noch für internationale Organisationen, die gemäß Absatz 1 in den Anwendungsbereich dieser Verordnung fallen, soweit diese Behörden oder Organisationen KI-Systeme im Rahmen internationaler Übereinkünfte im Bereich der Strafverfolgung und justiziellen Zusammenarbeit mit der Union oder mit einem oder mehreren Mitgliedstaaten verwenden.
(4)  Diese Verordnung gilt weder für Behörden in Drittländern noch für internationale Organisationen, die gemäß Absatz 1 in den Anwendungsbereich dieser Verordnung fallen, soweit diese Behörden oder Organisationen KI-Systeme im Rahmen internationaler Kooperationen oder Übereinkünfte im Bereich der Strafverfolgung und justiziellen Zusammenarbeit mit der Union oder mit einem oder mehreren Mitgliedstaaten verwenden und Gegenstand eines Beschlusses der Kommission sind, der gemäß Artikel 36 der Richtlinie (EU) 2016/680 oder Artikel 45 der Verordnung (EU) 2016/679 (Angemessenheitsbeschluss) erlassen wurde, oder Teil eines internationalen Abkommens sind, das zwischen der Union und dem betreffenden Drittland oder der internationalen Organisation gemäß Artikel 218 AEUV geschlossen wurde und angemessene Garantien in Bezug auf den Schutz der Privatsphäre und der Grundrechte und -freiheiten natürlicher Personen bietet;
Abänderung 160
Vorschlag für eine Verordnung
Artikel 2 – Absatz 5 a (neu)
(5a)  Das Unionsrecht zum Schutz personenbezogener Daten, der Privatsphäre und der Vertraulichkeit der Kommunikation gilt für die Verarbeitung personenbezogener Daten im Zusammenhang mit den in dieser Verordnung festgelegten Rechten und Pflichten. Diese Verordnung berührt nicht die Verordnungen (EU) 2016/679 und (EU) 2018/1725 sowie die Richtlinien 2002/58/EG und (EU) 2016/680, unbeschadet der in Artikel 10 Absatz 5 und Artikel 54 der vorliegenden Verordnung vorgesehenen Regelungen;
Abänderung 161
Vorschlag für eine Verordnung
Artikel 2 – Absatz 5 b (neu)
(5b)  Diese Verordnung berührt nicht die Vorschriften anderer Rechtsakte der Union zum Verbraucherschutz und zur Produktsicherheit;
Abänderung 162
Vorschlag für eine Verordnung
Artikel 2 – Absatz 5 c (neu)
(5c)  Diese Verordnung hindert die Mitgliedstaaten oder die Union nicht daran, Rechts- oder Verwaltungsvorschriften beizubehalten oder einzuführen, die für die Arbeitnehmer im Hinblick auf den Schutz ihrer Rechte bei der Verwendung von KI-Systemen durch die Arbeitgeber vorteilhafter sind, oder die Anwendung von Tarifverträgen zu fördern oder zuzulassen, die für die Arbeitnehmer vorteilhafter sind.
Abänderung 163
Vorschlag für eine Verordnung
Artikel 2 – Absatz 5 d (neu)
(5d)  Diese Verordnung gilt nicht für Forschungs-, Test- und Entwicklungstätigkeiten in Bezug auf ein KI-System, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, vorausgesetzt, dass diese Tätigkeiten unter Wahrung der Grundrechte und des geltenden Unionsrechts durchgeführt werden. Die Kommission wird ermächtigt, delegierte Rechtsakte gemäß Artikel 73 zu erlassen, die die Anwendung dieses Absatzes präzisieren, um diese Ausnahme zu spezifizieren und ihren bestehenden und potenziellen Missbrauch zu verhindern. Das Amt für künstliche Intelligenz stellt Leitlinien für die Steuerung von Forschung und Entwicklung gemäß Artikel 56 zur Verfügung, die auch darauf abzielen, die Anwendung dieser Leitlinien durch die nationalen Aufsichtsbehörden zu koordinieren;
Abänderung 164
Vorschlag für eine Verordnung
Artikel 2 – Absatz 5 e (neu)
(5e)  Diese Verordnung gilt nicht für KI-Komponenten, die unter freien Lizenzen und Open-Source-Lizenzen bereitgestellt werden, es sei denn, sie werden von einem Anbieter als Teil eines Hochrisiko-KI-Systems oder eines KI-Systems, das unter Titel II oder IV fällt, in Verkehr gebracht oder in Betrieb genommen. Diese Ausnahmeregelung gilt nicht für Basismodelle im Sinne von Artikel 3.
Abänderung 165
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1
1.  „System der künstlichen Intelligenz“ (KI-System) eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren;
1.  „System der künstlichen Intelligenz“ (KI-System) ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das physische oder virtuelle Umfeld beeinflussen;
Abänderung 166
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1 a (neu)
1a.  „Risiko“ die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Schadens;
Abänderung 167
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1 b (neu)
1b.  „erhebliches Risiko“ ein Risiko, das aufgrund der Kombination von Schwere, Intensität, Eintrittswahrscheinlichkeit und Dauer seiner Auswirkungen sowie seiner Eigenschaft, eine Einzelperson, eine Vielzahl von Personen oder eine bestimmte Personengruppe zu beeinträchtigen, erheblich ist;
Abänderung 168
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1 c (neu)
1c.  „Basismodell“ ein KI-Systemmodell, das auf einer breiten Datenbasis trainiert wurde, auf eine allgemeine Ausgabe ausgelegt ist und an eine breite Palette unterschiedlicher Aufgaben angepasst werden kann;
Abänderung 169
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1 d (neu)
1d.  „KI-System mit allgemeinem Verwendungszweck“ ein KI-System, das in einem breiten Spektrum von Anwendungen eingesetzt und an diese angepasst werden kann, für die es nicht absichtlich und speziell entwickelt wurde;
Abänderung 170
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 1 e (neu)
1e.  „große Trainingsläufe“ den Produktionsprozess eines leistungsstarken KI-Modells, der Rechenressourcen oberhalb einer sehr hohen Schwelle erfordert;
Abänderung 171
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 3
3.  „Kleinanbieter“ einen Anbieter, bei dem es sich um ein Kleinst- oder Kleinunternehmen im Sinne der Empfehlung 2003/361/EG der Kommission61 handelt;
entfällt
__________________
61 Empfehlung der Kommission vom 6. Mai 2003 betreffend die Definition der Kleinstunternehmen sowie der kleinen und mittleren Unternehmen (ABl. L 124 vom 20.5.2003, S. 36).
Abänderung 172
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 4
4.  „Nutzer“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;
4.  „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet;
Abänderung 173
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 8
8.  „Akteur“ den Anbieter, den Nutzer, den Bevollmächtigten, den Einführer und den Händler;
8.  „Akteur“ den Anbieter, den Betreiber, den Bevollmächtigten, den Einführer und den Händler;
Abänderung 174
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 8 a (neu)
8a.  „betroffene Person“ jede natürliche Person oder Personengruppe, die einem KI-System unterliegt oder anderweitig davon betroffen ist;
Abänderung 175
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 11
11.  „Inbetriebnahme“ die Bereitstellung eines KI-Systems auf dem Unionsmarkt zum Erstgebrauch direkt an den Nutzer oder zum Eigengebrauch entsprechend seiner Zweckbestimmung;
11.  „Inbetriebnahme“ die Bereitstellung eines KI-Systems auf dem Unionsmarkt zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung;
Abänderung 176
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 13
13.  „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen ergeben kann;
13.  „vernünftigerweise vorhersehbare Fehlanwendung“ die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung gemäß der vom Anbieter bereitgestellten Gebrauchsanweisung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen, einschließlich anderer KI-Systeme, ergeben kann;
Abänderung 177
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 14
14.  „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;
14.  „Sicherheitskomponente eines Produkts oder Systems“ einen Bestandteil eines Produkts oder Systems gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union, der eine Sicherheitsfunktion für dieses Produkt oder System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen gefährdet;
Abänderung 178
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 15
15.  „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Nutzer insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems zu informieren, einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;
15.  „Gebrauchsanweisung“ die Informationen, die der Anbieter bereitstellt, um den Betreiber insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems sowie über die zu treffenden Vorsichtsmaßnahmen zu informieren; einschließlich der besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen ein Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll;
Abänderung 179
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 16
16.  „Rückruf eines KI-Systems“ jede Maßnahme, die auf die Rückgabe eines den Nutzern bereits zur Verfügung gestellten KI-Systems an den Anbieter abzielt;
16.  „Rückruf eines KI-Systems“ jede Maßnahme, die auf die Rückgabe eines den Betreibern bereits zur Verfügung gestellten KI-Systems an den Anbieter abzielt;
Abänderung 180
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 20
20.  „Konformitätsbewertung“ das Verfahren zur Überprüfung, ob die in Titel III Kapitel 2 dieser Verordnung festgelegten Anforderungen an ein KI-System erfüllt worden sind;
20.  „Konformitätsbewertung“ das Verfahren für den Nachweis, ob die in Titel III Kapitel 2 dieser Verordnung festgelegten Anforderungen an ein KI-System erfüllt worden sind;
Abänderung 181
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 22
22.  „notifizierte Stelle“ eine Konformitätsbewertungsstelle, die gemäß dieser Verordnung und anderen einschlägigen Harmonisierungsvorschriften der Union benannt wurde;
22.  „notifizierte Stelle“ eine Konformitätsbewertungsstelle, die gemäß dieser Verordnung und anderen einschlägigen Harmonisierungsvorschriften der Union notifiziert wurde;
Abänderung 182
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 23
23.  „wesentliche Änderung“ eine Änderung des KI-Systems nach dessen Inverkehrbringen oder Inbetriebnahme, die sich auf die Konformität des KI-Systems mit den Anforderungen in Titel III Kapitel 2 dieser Verordnung auswirkt oder zu einer Änderung der Zweckbestimmung führt, für die das KI-System geprüft wurde;
23.  „wesentliche Änderung“ eine Änderung oder eine Reihe von Änderungen des KI-Systems nach dessen Inverkehrbringen oder Inbetriebnahme, die in der ursprünglichen Risikobewertung des Anbieters nicht vorgesehen oder geplant war und durch die die Konformität des KI-Systems mit den Anforderungen in Titel III Kapitel 2 dieser Verordnung beeinträchtigt wird oder die zu einer Änderung der Zweckbestimmung führt, für die das KI-System geprüft wurde;
Abänderung 183
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 24
24.  „CE-Konformitätskennzeichnung“ (CE-Kennzeichnung) eine Kennzeichnung, durch die ein Anbieter erklärt, dass ein KI-System die Anforderungen erfüllt, die in Titel III Kapitel 2 dieser Verordnung und in anderen einschlägigen Rechtsvorschriften der Union zur Harmonisierung der Bedingungen für die Vermarktung von Produkten („Harmonisierungsrechtsvorschriften der Union“), die die Anbringung dieser Kennzeichnung vorsehen, festgelegt sind;
24.  „CE-Konformitätskennzeichnung“ (CE-Kennzeichnung) eine physische oder digitale Kennzeichnung, durch die ein Anbieter erklärt, dass ein KI-System oder ein Produkt mit einem eingebetteten KI-System die Anforderungen erfüllt, die in Titel III Kapitel 2 dieser Verordnung und in anderen einschlägigen Rechtsvorschriften der Union zur Harmonisierung der Bedingungen für die Vermarktung von Produkten („Harmonisierungsrechtsvorschriften der Union“), die die Anbringung dieser Kennzeichnung vorsehen, festgelegt sind;
Abänderung 184
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 29
29.  „Trainingsdaten“ Daten, die zum Trainieren eines KI-Systems verwendet werden, wobei dessen lernbare Parameter und die Gewichte eines neuronalen Netzes angepasst werden;
29.  „Trainingsdaten“ Daten, die zum Trainieren eines KI-Systems verwendet werden, wobei dessen lernbare Parameter angepasst werden;
Abänderung 185
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 30
30.  „Validierungsdaten“ Daten, die zum Bewerten des trainierten KI-Systems und zum Abstimmen seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Überanpassung zu vermeiden; der Validierungsdatensatz kann ein separater Datensatz oder Teil des Trainingsdatensatzes mit fester oder variabler Aufteilung sein;
30.  „Validierungsdaten“ Daten, die zum Bewerten des trainierten KI-Systems und zum Abstimmen seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Unter- oder Überanpassung zu vermeiden; der Validierungsdatensatz ist ein separater Datensatz oder Teil des Trainingsdatensatzes mit fester oder variabler Aufteilung;
Abänderung 186
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 33
33.  „biometrische Daten“ mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen, wie Gesichtsbilder oder daktyloskopische Daten;
33.  „biometrische Daten“ biometrische Daten im Sinne der Begriffsbestimmung in Artikel 4 Nummer 14 der Verordnung (EU) 2016/679;
Abänderung 187
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 33 a (neu)
33a.  „biometriegestützte Daten“ Daten, die sich aus einer spezifischen technischen Verarbeitung von physischen, physiologischen oder verhaltensbezogenen Signalen einer natürlichen Person ergeben;
Abänderung 188
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 33 b (neu)
33b.  „biometrische Identifizierung“ die automatisierte Erkennung physischer, physiologischer, verhaltensbezogener und psychologischer menschlicher Merkmale zum Zwecke der Feststellung der Identität einer Person durch den Vergleich biometrischer Daten dieser Person mit gespeicherten biometrischen Daten von Personen in einer Datenbank (One-to-many-Identifizierung);
Abänderung 189
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 33 c (neu)
33 c)  „biometrische Überprüfung“ die automatisierte Überprüfung der Identität natürlicher Personen durch den Vergleich biometrischer Daten einer Person mit zuvor bereitgestellten biometrischen Daten (Eins-zu-Eins-Überprüfung, einschließlich Authentifizierung);
Abänderung 190
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 33 d (neu)
33d.  „besondere Kategorien personenbezogener Daten“ die in Artikel 9 Absatz 1der Verordnung (EU) 2016/679 aufgeführten Kategorien personenbezogener Daten;
Abänderung 191
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 34
34.  „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten;
34.  „Emotionserkennungssystem“ ein KI-System, das dem Zweck dient, Emotionen, Gedanken, Geisteszustände oder Absichten von Einzelpersonen oder Gruppen auf der Grundlage ihrer biometrischen und biometriegestützten Daten festzustellen oder daraus abzuleiten;
Abänderung 192
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 35
35.  „System zur biometrischen Kategorisierung“ ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierung, ethnische Herkunft oder sexuelle oder politische Ausrichtung zuzuordnen;
35.  „biometrische Kategorisierung“ die Zuordnung natürlicher Personen zu bestimmten Kategorien oder die Ableitung ihrer Merkmale und Atttribute auf der Grundlage ihrer biometrischen oder biometriegestützten Daten oder der Daten, die aus diesen Daten abgeleitet werden können;
Abänderung 193
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 36
36.  „biometrisches Fernidentifizierungssystem“ ein KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Nutzer des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann;
36.  „biometrisches Fernidentifizierungssystem“ ein KI-System, das dem Zweck dient, natürliche Personen aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, ohne dass der Betreiber des KI-Systems vorher weiß, ob die Person anwesend sein wird und identifiziert werden kann, mit Ausnahme von Verifizierungssystemen;
Abänderung 194
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 37
37.  „biometrisches Echtzeit-Fernidentifizierungssystem“ ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung biometrischer Daten, der Abgleich und die Identifizierung ohne erhebliche Verzögerung erfolgen; zur Vermeidung einer Umgehung der Vorschriften umfasst dies nicht nur die sofortige Identifizierung, sondern auch eine Identifizierung mit begrenzten kurzen Verzögerungen;
37.  „biometrisches Echtzeit-Fernidentifizierungssystem“ ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung biometrischer Daten, der Abgleich und die Identifizierung ohne erhebliche Verzögerung erfolgen; zur Vermeidung einer Umgehung der Vorschriften umfasst dies nicht nur die sofortige Identifizierung, sondern auch eine Identifizierung mit begrenzten Verzögerungen;
Abänderung 195
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 39
39.  „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen physischen Ort, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten;
39.  „öffentlich zugänglicher Raum“ einen der Öffentlichkeit zugänglichen physischen Ort in öffentlichem oder privatem Besitz, unabhängig davon, ob dafür bestimmte Zugangsbedingungen gelten, und unabhängig von möglichen Kapazitätsbeschränkungen;
Abänderung 196
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 41
41.  „Strafverfolgung“ Tätigkeiten der Strafverfolgungsbehörden zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit;
41.  „Strafverfolgung“ Tätigkeiten der Strafverfolgungsbehörden oder in deren Auftrag zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit;
Abänderung 197
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 42
42.  „nationale Aufsichtsbehörde“ die Behörde, der ein Mitgliedstaat die Verantwortung für die Durchführung und Anwendung dieser Verordnung, die Koordinierung der diesem Mitgliedstaat übertragenen Tätigkeiten, die Wahrnehmung der Funktion der zentralen Kontaktstelle für die Kommission und die Vertretung des Mitgliedstaats im Europäischen Ausschuss für künstliche Intelligenz überträgt;
42.  „nationale Aufsichtsbehörde“ eine öffentliche (AM 69) Behörde, der ein Mitgliedstaat die Verantwortung für die Durchführung und Anwendung dieser Verordnung, die Koordinierung der diesem Mitgliedstaat übertragenen Tätigkeiten, die Wahrnehmung der Funktion der zentralen Kontaktstelle für die Kommission und die Vertretung des Mitgliedstaats im Verwaltungsrat des Büros für künstliche Intelligenz überträgt;
Abänderung 198
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 43
43.  „zuständige nationale Behörde“ die nationale Aufsichtsbehörde, die notifizierende Behörde und die Marktüberwachungsbehörde;
43.  „zuständige nationale Behörde“ eine der nationalen Behörden, die für die Durchsetzung dieser Verordnung zuständig sind;
Abänderung 199
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 – Einleitung
44.  „schwerwiegender Vorfall“ ein Vorkommnis, das direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:
44.  „schwerwiegender Vorfall“ ein Vorkommnis oder eine Fehlfunktion eines KI-Systems, das bzw. die direkt oder indirekt eine der nachstehenden Folgen hat, hätte haben können oder haben könnte:
a)  den Tod einer Person oder eine schwere gesundheitliche Schädigung einer Person, schwere Sach- oder Umweltschäden,
a)  den Tod einer Person oder eine schwere gesundheitliche Schädigung einer Person,
b)   eine schwere Störung der Verwaltung und des Betriebs kritischer Infrastrukturen.
b)   eine schwere Störung der Verwaltung und des Betriebs kritischer Infrastrukturen,
ba)  einen Verstoß gegen die durch das Unionsrecht geschützten Grundrechte,
bb)  schwere Sach- oder Umweltschäden.
Abänderung 200
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 a (neu)
44a.  „personenbezogene Daten“ personenbezogene Daten im Sinne des Artikels 4 Nummer 1 der Verordnung (EU) 2016/679;
Abänderung 201
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 b (neu)
44b.  „nicht personenbezogene Daten“ Daten, die keine personenbezogenen Daten sind;
Abänderung 202
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 c (neu)
44c.  „Profiling“ jede Form der automatisierten Verarbeitung personenbezogener Daten im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder – im Falle von Strafverfolgungsbehörden – in Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder – im Falle von Organen, Einrichtungen und sonstigen Stellen der Union – in Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725;
Abänderung 203
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 d (neu)
44d.  „Deep Fake“ manipulierte oder künstliche Audio-, Bild- oder Videoinhalte, die fälschlicherweise den Anschein erwecken, authentisch oder wahrheitsgetreu zu sein, und die Darstellungen von Personen enthalten, die scheinbar Dinge sagen oder tun, die sie nicht gesagt oder getan haben, und die mit Hilfe von KI-Techniken, einschließlich maschinellen Lernens und Deep Learning, erstellt wurden;
Abänderung 204
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 e (neu)
44e.  „weitverbreiteter Verstoß“ jede Handlung oder Unterlassung, die gegen das Unionsrecht verstößt, das die Interessen des Einzelnen schützt,
a)  die die kollektiven Interessen von Einzelpersonen in mindestens zwei weiteren Mitgliedstaaten als dem Mitgliedstaat schädigt oder zu schädigen droht, in dem
i)  die Handlung oder die Unterlassung ihren Ursprung hatte oder stattfand,
ii)  der betreffende Anbieter oder gegebenenfalls sein Bevollmächtigter niedergelassen ist oder
iii)  der Betreiber niedergelassen ist, sofern der Verstoß vom Betreiber begangen wird;
b)  Handlungen oder Unterlassungen, die gegen das Unionsrecht verstoßen, das die Interessen des Einzelnen schützt, die die kollektiven Interessen von Einzelpersonen geschädigt haben, schädigen oder schädigen könnten und die gemeinsame Merkmale aufweisen, einschließlich derselben rechtswidrigen Praxis und desselben verletzten Interesses, und die gleichzeitig auftreten und von demselben Betreiber in mindestens drei Mitgliedstaaten begangen werden;
Abänderung 205
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 f (neu)
44f.  „weitverbreiteter Verstoß mit unionsweiter Dimension“ ein weitverbreiteter Verstoß, der die kollektiven Interessen von Einzelpersonen in mindestens zwei Dritteln der Mitgliedstaaten, die zusammen mindestens zwei Drittel der Bevölkerung der Union ausmachen, geschädigt hat oder zu schädigen droht;
Abänderung 206
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 g (neu)
44g.  „Reallabor“ ein von einer Behörde eingerichtetes kontrolliertes Umfeld, das die sichere Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum ermöglicht, bevor diese auf den Markt gebracht oder in Betrieb genommen werden, nach einem bestimmten Plan unter behördlicher Aufsicht;
Abänderung 207
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 h (neu)
44h.  „kritische Infrastrukturen“ Objekte, Anlagen, Ausrüstung, Netze oder Systeme oder Teile eines Objekts, einer Anlage, Ausrüstung, eines Netzes oder eines Systems, die für die Erbringung eines wesentlichen Dienstes erforderlich sind, im Sinne von Artikel 2 Nummer 4 der Richtlinie (EU) 2022/2557;
Abänderung 208
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Buchstabe 44 k (neu)
44k.  „Bewertung des sozialen Verhaltens“ die Bewertung oder Klassifizierung natürlicher Personen auf der Grundlage ihres sozialen Verhaltens, ihres sozioökonomischen Status oder bekannter oder vorhergesagter persönlicher oder charakterlicher Merkmale;
Abänderung 209
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 g (neu)
44l.  „soziales Verhalten“ die Art und Weise, wie eine natürliche Person mit anderen natürlichen Personen oder der Gesellschaft interagiert und diese beeinflusst;
Abänderung 210
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 m (neu)
44m.  „Stand der Technik“ den Entwicklungsstand der technischen Leistungsfähigkeit zu einem bestimmten Zeitpunkt in Bezug auf Produkte, Verfahren und Dienstleistungen, der auf den einschlägigen konsolidierten Erkenntnissen von Wissenschaft, Technik und Erfahrung beruht;
Abänderung 211
Vorschlag für eine Verordnung
Artikel 3 – Absatz 1 – Nummer 44 n (neu)
44n.  „Testen unter realen Bedingungen“ das zeitlich begrenzte Testen eines KI-Systems für den vorgesehenen Zweck unter realen Bedingungen außerhalb eines Labors oder einer anderweitig simulierten Umgebung;
Abänderung 212
Vorschlag für eine Verordnung
Artikel 4
Artikel 4
entfällt
Änderungen des Anhangs I
Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste der Techniken und Konzepte in Anhang I zu erlassen, um diese Liste auf der Grundlage von Merkmalen, die den dort aufgeführten Techniken und Konzepten ähnlich sind, an Marktentwicklungen und technische Entwicklungen anzupassen.
Abänderung 213
Vorschlag für eine Verordnung
Artikel 4 a (neu)
Artikel 4a
Allgemeine, für alle KI-Systeme geltende Grundsätze
(1)  Alle Betreiber, die unter diese Verordnung fallen, setzen alles daran, KI-Systeme oder Basismodelle im Einklang mit den folgenden allgemeinen Grundsätzen zu entwickeln und zu nutzen, mit denen ein höchste Ansprüche erfüllender Rahmen geschaffen wird, mit dem ein kohärenter, auf den Menschen ausgerichteter Ansatz der Union für ethische und vertrauenswürdige künstliche Intelligenz gefördert wird, der uneingeschränkt mit der Charta und den Werten, auf die sich die Union gründet, im Einklang steht:
a)  „Menschliches Handeln und menschliche Aufsicht“ bedeutet, dass KI-Systeme als Werkzeug entwickelt und verwendet werden, das den Menschen dient, die Menschenwürde und die persönliche Autonomie achtet und so funktioniert, dass es von Menschen angemessen kontrolliert und überwacht werden kann.
b)  „Technische Robustheit und Sicherheit“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass unbeabsichtigte und unerwartete Schäden minimiert werden und dass sie im Fall unbeabsichtigter Probleme robust und widerstandsfähig gegen Versuche sind, die Verwendung oder Leistung des KI-Systems so zu verändern, dass dadurch die unrechtmäßige Verwendung durch böswillige Dritte ermöglicht wird.
c)  „Privatsphäre und Datenqualitätsmanagement“ bedeutet, dass KI-Systeme im Einklang mit den geltenden Vorschriften zum Schutz der Privatsphäre und zum Datenschutz entwickelt und verwendet werden und dabei Daten verarbeiten, die hohen Qualitäts- und Integritätsstandards genügen.
d)  „Transparenz“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden müssen, dass sie angemessen nachvollziehbar und erklärbar sind, wobei den Menschen bewusst gemacht werden muss, dass sie mit einem KI-System kommunizieren oder interagieren, und dass die Nutzer ordnungsgemäß über die Fähigkeiten und Grenzen des KI-Systems und die betroffenen Personen über ihre Rechte informiert werden müssen.
e)  „Vielfalt, Diskriminierungsfreiheit und Fairness“ bedeutet, dass KI-Systeme in einer Weise entwickelt und verwendet werden, die unterschiedliche Akteure einbezieht und den gleichberechtigten Zugang, die Geschlechtergleichstellung und die kulturelle Vielfalt fördert, wobei diskriminierende Auswirkungen und unfaire Verzerrungen, die nach Unionsrecht oder nationalem Recht verboten sind, verhindert werden.
f)  „Soziales und ökologisches Wohlergehen“ bedeutet, dass KI-Systeme in nachhaltiger und umweltfreundlicher Weise und zum Nutzen aller Menschen entwickelt und verwendet werden, wobei die langfristigen Auswirkungen auf den Einzelnen, die Gesellschaft und die Demokratie überwacht und bewertet werden.
(2)  Absatz 1 lässt die Verpflichtungen unberührt, die durch geltendes Unionsrecht und nationales Recht festgelegt sind. Bei Hochrisiko-KI-Systemen werden die allgemeinen Grundsätze durch die in den Artikeln 8 bis 15 und die in Titel III Kapitel 3 dieser Verordnung festgelegten Anforderungen von den Anbietern oder Betreibern umgesetzt und von ihnen eingehalten. Bei Basismodellen werden die allgemeinen Grundsätze durch die in den Artikeln 28 bis 28b festgelegten Anforderungen von den Anbietern umgesetzt und von ihnen eingehalten. Bei allen KI-Systemen kann die Anwendung der in Absatz 1 genannten Grundsätze je nach Fall durch die Bestimmungen von Artikel 28, Artikel 52 oder die Anwendung harmonisierter Normen, technischer Spezifikationen und Verhaltenskodizes gemäß Artikel 69 erreicht werden, ohne dass dadurch neue Verpflichtungen im Rahmen dieser Verordnung entstehen.
(3)  Die Kommission und das Amt für künstliche Intelligenz lassen diese Grundsätze in Standardisierungsanträge sowie in Empfehlungen einfließen, bei denen es sich um technische Anleitungen handelt, um Anbieter und Betreiber bei der Entwicklung und Nutzung von KI-Systemen zu unterstützen. Die europäischen Normungsorganisationen berücksichtigen die in Absatz 1 dieses Artikels genannten allgemeinen Grundsätze als ergebnisorientierte Ziele, wenn sie geeignete harmonisierte Normen für AI-Systeme mit hohem Risiko im Sinne von Artikel 40 Absatz 2b entwickeln.
Abänderung 214
Vorschlag für eine Verordnung
Artikel 4 b (neu)
Artikel 4b
KI-Kompetenz
(1)  Bei der Durchführung dieser Verordnung fördern die Union und die Mitgliedstaaten Maßnahmen zur Entwicklung eines ausreichenden Niveaus an KI-Kompetenz, und zwar sektorübergreifend und unter Berücksichtigung der unterschiedlichen Bedürfnisse der jeweiligen Gruppen von Anbietern, Betreibern und betroffenen Personen, unter anderem durch Aus- und Weiterbildungs-, Qualifizierungs- und Umschulungsprogramme und unter Sicherstellung eines ausgewogenen Verhältnisses in Bezug auf Geschlecht und Alter, um eine demokratische Kontrolle von KI-Systemen zu ermöglichen.
(2)  Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.
(3)  Solche Maßnahmen zur Kompetenzsteigerung bestehen insbesondere darin, grundlegende Konzepte und Fähigkeiten über KI-Systeme und ihre Funktionsweise zu vermitteln, einschließlich der verschiedenen Arten von Produkten und Verwendungszwecke, ihrer Risiken und Vorteile.
(4)  Ein ausreichendes Maß an KI-Kompetenz trägt – falls angezeigt – dazu bei, dass Anbieter und Betreiber in der Lage sind, die Einhaltung und Durchsetzung dieser Verordnung sicherzustellen.
Abänderung 215
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe a
a)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetzt, um das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;
a)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Folge, dass das Verhalten einer Person oder einer Gruppe von Personen, indem die Fähigkeit der Person, eine fundierte Entscheidung zu treffen, spürbar beeinträchtigt wird, wodurch die Person veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Gruppe von Personen erheblichen Schaden zufügt oder zufügen kann.
Das Verbot von KI-Systemen, die gemäß Unterabsatz 1 Techniken der unterschwelligen Beeinflussung einsetzen, gilt nicht für KI-Systeme, die für anerkannte therapeutische Zwecke auf der Grundlage einer ausdrücklichen, nach Aufklärung erteilten Einwilligung der ihnen ausgesetzten Personen oder gegebenenfalls ihres gesetzlichen Vertreters verwendet werden sollen;
Abänderung 216
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe b
b)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer bestimmten Gruppe von Personen aufgrund ihres Alters oder ihrer körperlichen oder geistigen Behinderung ausnutzt, um das Verhalten einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann;
b)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das eine Schwäche oder Schutzbedürftigkeit einer Person oder einer bestimmten Gruppe von Personen einschließlich der Merkmale der bekannten oder vorhergesagten Persönlichkeitsmerkmale oder der sozialen oder wirtschaftlichen Situation der Person oder Gruppe von Personen, ihres Alters oder ihrer körperlichen oder geistigen Fähigkeiten ausnutzt, mit dem Ziel oder der Folge, das Verhalten dieser Person oder einer dieser Gruppe angehörenden Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person erheblichen Schaden zufügt oder zufügen kann;
Abänderung 217
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe b a (neu)
ba)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von Systemen zur biometrischen Kategorisierung, die natürliche Personen nach sensitiven oder geschützten Attributen oder Merkmalen oder auf der Grundlage von Rückschlüssen auf diese Attribute oder Merkmale kategorisieren. Dieses Verbot gilt nicht für KI-Systeme, die für anerkannte therapeutische Zwecke auf der Grundlage einer ausdrücklichen, nach Aufklärung erteilten Einwilligung der ihnen ausgesetzten Personen oder gegebenenfalls ihres gesetzlichen Vertreters verwendet werden.
Abänderung 218
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe c – Einleitung
c)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen durch Behörden oder in deren Auftrag zur Bewertung oder Klassifizierung der Vertrauenswürdigkeit natürlicher Personen über einen bestimmten Zeitraum auf der Grundlage ihres sozialen Verhaltens oder bekannter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem oder beiden der folgenden Ergebnisse führt:
c)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen zur Bewertung des sozialen Verhaltens oder Klassifizierung natürlicher Personen oder Gruppen von natürlichen Personen über einen bestimmten Zeitraum auf der Grundlage ihres sozialen Verhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale, wobei die soziale Bewertung zu einem oder beiden der folgenden Ergebnisse führt:
Abänderung 219
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe c – Ziffer i
i)  Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden;
i)  Schlechterstellung oder Benachteiligung bestimmter natürlicher Personen oder ganzer Gruppen natürlicher Personen in sozialen Zusammenhängen, die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden;
Abänderung 220
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d – Einleitung
d)  die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, außer wenn und insoweit dies im Hinblick auf eines der folgenden Ziele unbedingt erforderlich ist:
d)  die Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen;
Abänderung 221
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d – Ziffer i
i)  gezielte Suche nach bestimmten potenziellen Opfern von Straftaten oder nach vermissten Kindern;
entfällt
Abänderung 222
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d – Ziffer ii
ii)  Abwenden einer konkreten, erheblichen und unmittelbaren Gefahr für das Leben oder die körperliche Unversehrtheit natürlicher Personen oder eines Terroranschlags;
entfällt
Abänderung 223
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d – Ziffer iii
iii)  Erkennen, Aufspüren, Identifizieren oder Verfolgen eines Täters oder Verdächtigen einer Straftat im Sinne des Artikels 2 Absatz 2 des Rahmenbeschlusses 2002/584/JI des Rates62, der in dem betreffenden Mitgliedstaat nach dessen Recht mit einer Freiheitsstrafe oder einer freiheitsentziehenden Maßregel der Sicherung im Mindestmaß mit drei Jahren bedroht ist.
entfällt
__________________
62 Rahmenbeschluss 2002/584/JI des Rates vom 13. Juni 2002 über den Europäischen Haftbefehl und die Übergabeverfahren zwischen den Mitgliedstaaten (ABl. L 190 vom 18.7.2002, S. 1).
Abänderung 224
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d a (neu)
da)  das Inverkehrbringen, die Inbetriebnahme oder die Verwendung von KI-Systemen zur Risikobeurteilung natürlicher Personen oder von Gruppen natürlicher Personen, um das Risiko einer natürlichen Person, straffällig zu werden oder erneut straffällig zu werden, einzuschätzen oder um das Auftreten oder die Wiederholung einer tatsächlichen oder potenziellen Straftat oder Ordnungswidrigkeit auf der Grundlage von Profilen natürlicher Personen oder der Bewertung von Persönlichkeitsmerkmalen, Eigenschaften, einschließlich des Standorts der Person, oder früheren kriminellen Verhaltens von natürlichen Personen oder Gruppen von natürlichen Personen vorherzusagen;
Abänderung 225
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d b (neu)
db)  das Inverkehrbringen, die Inbetriebnahme oder die Nutzung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern;
Abänderung 226
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d c (neu)
dc)  das Inverkehrbringen, die Inbetriebnahme oder die Nutzung von KI-Systemen zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Strafverfolgung, Grenzmanagement, am Arbeitsplatz und in Bildungseinrichtungen;
Abänderung 227
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 – Buchstabe d d (neu)
dd)  die Inbetriebnahme oder Nutzung von KI-Systemen zur Analyse von aufgezeichnetem Bildmaterial öffentlich zugänglicher Räume durch Systeme zur nachträglichen biometrischen Fernidentifizierung, es sei denn, sie unterliegen einer vorgerichtlichen Genehmigung im Einklang mit dem Unionsrecht und sind für die gezielte Fahndung im Zusammenhang mit einer bestimmten schweren Straftat im Sinne von Artikel 83 Absatz 1 AEUV, die bereits zum Zweck der Strafverfolgung stattgefunden hat, unbedingt erforderlich.
Abänderung 228
Vorschlag für eine Verordnung
Artikel 5 – Absatz 1 a (neu)
(1a)  Dieser Artikel berührt nicht die Verbote, die gelten, wenn eine Praxis der künstlichen Intelligenz gegen ein anderes Unionsrecht verstößt, einschließlich des Unionsrechts zum Datenschutz, zur Diskriminierungsfreiheit, zum Verbraucherschutz oder zum Wettbewerb.
Abänderung 229
Vorschlag für eine Verordnung
Artikel 5 – Absatz 2
(2)  Bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Buchstabe d genannten Ziele werden folgende Elemente berücksichtigt:
entfällt
a)  die Art der Situation, die der möglichen Verwendung zugrunde liegt, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß des Schadens, der entstehen würde, wenn das System nicht eingesetzt würde;
b)  die Folgen der Verwendung des Systems für die Rechte und Freiheiten aller betroffenen Personen, insbesondere die Schwere, die Wahrscheinlichkeit und das Ausmaß solcher Folgen.
Darüber hinaus sind bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken im Hinblick auf die in Absatz 1 Buchstabe d genannten Ziele notwendige und verhältnismäßige Schutzvorkehrungen und Bedingungen für die Verwendung einzuhalten, insbesondere in Bezug auf die zeitlichen, geografischen und personenbezogenen Beschränkungen.
Abänderung 230
Vorschlag für eine Verordnung
Artikel 5 – Absatz 3
(3)  Im Hinblick auf Absatz 1 Buchstabe d und Absatz 2 ist für jede einzelne Verwendung eines biometrischen Echtzeit-Fernidentifizierungssystems in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken eine vorherige Genehmigung erforderlich, die von einer Justizbehörde oder einer unabhängigen Verwaltungsbehörde des Mitgliedstaats, in dem die Verwendung erfolgen soll, auf begründeten Antrag und im Einklang mit den in Absatz 4 genannten detaillierten Vorschriften des nationalen Rechts erteilt wird. In hinreichend begründeten dringenden Fällen kann jedoch mit der Verwendung des Systems zunächst ohne Genehmigung begonnen und die Genehmigung erst während oder nach der Nutzung beantragt werden.
entfällt
Die zuständige Justiz- oder Verwaltungsbehörde erteilt die Genehmigung nur dann, wenn sie auf der Grundlage objektiver Nachweise oder eindeutiger Hinweise, die ihr vorgelegt werden, davon überzeugt ist, dass die Verwendung des betreffenden biometrischen Echtzeit-Fernidentifizierungssystems für das Erreichen eines der in Absatz 1 Buchstabe d genannten Ziele – wie im Antrag angegeben – notwendig und verhältnismäßig ist. Bei ihrer Entscheidung über den Antrag berücksichtigt die zuständige Justiz- oder Verwaltungsbehörde die in Absatz 2 genannten Elemente.
Abänderung 231
Vorschlag für eine Verordnung
Artikel 5 – Absatz 4
(4)  Ein Mitgliedstaat kann die Möglichkeit einer vollständigen oder teilweisen Genehmigung der Verwendung biometrischer Echtzeit-Identifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken innerhalb der in Absatz 1 Buchstabe d, Absatz 2 und Absatz 3 aufgeführten Grenzen und unter den dort genannten Bedingungen vorsehen. Dieser Mitgliedstaat legt in seinem nationalen Recht die erforderlichen detaillierten Vorschriften für die Beantragung, Erteilung und Ausübung der in Absatz 3 genannten Genehmigungen sowie für die entsprechende Beaufsichtigung fest. In diesen Vorschriften wird auch festgelegt, im Hinblick auf welche der in Absatz 1 Buchstabe d genannten Ziele und welche der unter Ziffer iii genannten Straftaten die zuständigen Behörden ermächtigt werden können, diese Systeme zu Strafverfolgungszwecken zu verwenden.
entfällt
Abänderung 232
Vorschlag für eine Verordnung
Artikel 6 – Absatz 1 – Buchstabe a
a)  das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder ist selbst ein solches Produkt;
a)  das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder das KI-System ist selbst ein solches Produkt;
Abänderung 233
Vorschlag für eine Verordnung
Artikel 6 – Absatz 1 – Buchstabe b
b)  das Produkt, dessen Sicherheitskomponente das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden.
b)  das Produkt, dessen Sicherheitskomponente gemäß Buchstabe a das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte in Bezug auf die Risiken für Gesundheit und Sicherheit im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden;
Abänderung 234
Vorschlag für eine Verordnung
Artikel 6 – Absatz 2
(2)  Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten die in Anhang III genannten KI-Systeme ebenfalls als hochriskant.
(2)  Zusätzlich zu den in Absatz 1 genannten Hochrisiko-KI-Systemen gelten KI-Systeme, die unter einen oder mehrere der in Anhang III genannten kritischen Bereiche und Anwendungsfälle fallen, als hochriskant, wenn sie ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte von natürlichen Personen darstellen. Fällt ein KI-System unter Anhang III Nummer 2, so gilt es als hochriskant, wenn es ein erhebliches Risiko für die Umwelt birgt.
Die Kommission legt sechs Monate vor Inkrafttreten dieser Verordnung nach Anhörung des Amtes für künstliche Intelligenz und der einschlägigen Interessenträger Leitlinien vor, in denen eindeutig festgelegt ist, unter welchen Umständen die Ergebnisse der in Anhang III genannten Systeme der künstlichen Intelligenz ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen darstellen und in welchen Fällen dies nicht der Fall ist.
Abänderung 235
Vorschlag für eine Verordnung
Artikel 6 – Absatz 2 a (neu)
(2a)  Wenn Anbieter, die unter einen oder mehrere der in Anhang III genannten kritischen Bereiche und Anwendungsfälle fallen, der Ansicht sind, dass ihr KI-System kein erhebliches Risiko im Sinne von Absatz 2 darstellt, übermitteln sie der nationalen Aufsichtsbehörde eine begründete Mitteilung, dass sie nicht den Anforderungen von Titel III Kapitel 2 dieser Verordnung unterliegen. Wenn das KI-System in zwei oder mehr Mitgliedstaaten verwendet werden soll, ist diese Mitteilung an das Büro für künstliche Intelligenz zu richten. Unbeschadet des Artikels 65 überprüft die nationale Aufsichtsbehörde die Mitteilung und antwortet innerhalb von drei Monaten direkt oder über das Büro für künstliche Intelligenz, wenn sie der Ansicht ist, dass das KI-System falsch eingestuft wurde.
Abänderung 236
Vorschlag für eine Verordnung
Artikel 6 – Absatz 2 a (neu)
(2b)  Anbieter, die ihr KI-System fälschlicherweise als nicht den Anforderungen von Titel III Kapitel 2 dieser Verordnung unterliegend einstufen und es vor Ablauf der Einspruchsfrist der nationalen Aufsichtsbehörden auf den Markt bringen, werden gemäß Artikel 71 mit Geldbußen belegt.
Abänderung 237
Vorschlag für eine Verordnung
Artikel 6 – Absatz 2 b (neu)
(2c)  Die nationalen Aufsichtsbehörden legen dem Büro für künstliche Intelligenz jährlich einen Bericht vor, in dem sie die Anzahl der eingegangenen Meldungen, die betreffenden Hochrisikobereiche und die im Zusammenhang mit den eingegangenen Mitteilungen getroffenen Entscheidungen darlegen.
Abänderung 238
Vorschlag für eine Verordnung
Artikel 7 – Absatz 1 – Einleitung
(1)  Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung der Liste in Anhang III zu erlassen, um Hochrisiko-KI-Systeme hinzuzufügen, die beide folgenden Bedingungen erfüllen:
(1)  Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung von Anhang III zu erlassen, um Bereiche oder Anwendungsfälle von Hochrisiko-KI-Systemen hinzuzufügen oder zu ändern, wenn diese ein erhebliches Risiko für die Gesundheit und Sicherheit darstellen oder nachteilige Auswirkungen auf die Grundrechte, die Umwelt oder die Demokratie und die Rechtsstaatlichkeit nach sich ziehen und dieses Risiko hinsichtlich seiner Schwere und Eintrittswahrscheinlichkeit dem Risiko eines Schadens oder nachteiliger Auswirkungen, das von den bereits in Anhang III genannten AI-Systemen mit hohem Risiko ausgeht, entspricht oder größer ist.
Abänderung 239
Vorschlag für eine Verordnung
Artikel 7 – Absatz 1 – Buchstabe a
a)  die KI-Systeme sollen in einem der in Anhang III Nummern 1 bis 8 aufgeführten Bereiche eingesetzt werden;
entfällt
Abänderung 240
Vorschlag für eine Verordnung
Artikel 7 – Absatz 1 – Buchstabe b
b)  die KI-Systeme bergen ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder nachteiliger Auswirkungen auf die Grundrechte, das im Hinblick auf die Schwere und die Wahrscheinlichkeit des Eintretens dem Risiko der Schädigung, Beeinträchtigung oder negativer Auswirkungen gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt.
entfällt
Abänderung 241
Vorschlag für eine Verordnung
Artikel 7 – Absatz 1 a (neu)
(1a)  Der Kommission wird ferner die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 73 zu erlassen, um Anwendungsfälle von KI-Systemen mit hohem Risiko aus der Liste in Anhang III zu streichen, wenn die in Absatz 1 genannten Bedingungen nicht mehr gelten.
Abänderung 242
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Einleitung
(2)  Bei der Bewertung für die Zwecke des Absatzes 1, ob ein KI-System ein Risiko der Schädigung der Gesundheit oder der Beeinträchtigung der Sicherheit oder ein Risiko nachteiliger Auswirkungen auf die Grundrechte birgt, das dem Risiko der Schädigung oder Beeinträchtigung gleicht, das von den in Anhang III bereits aufgeführten Hochrisiko-KI-Systemen ausgeht, oder dieses übersteigt, berücksichtigt die Kommission folgende Kriterien:
(2)  Bei der Bewertung eines KI-Systems für die Zwecke der Absätze 1 und 1a berücksichtigt die Kommission folgende Kriterien:
Abänderung 243
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe a a (neu)
aa)  die allgemeinen Fähigkeiten und Funktionalitäten des KI-Systems unabhängig von seinem Verwendungszweck;
Abänderung 244
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe b a (neu)
ba)  die Art und Menge der vom KI-System verarbeiteten und verwendeten Daten;
Abänderung 245
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe b b (neu)
bb)  das Ausmaß, in dem das KI-System autonom handelt;
Abänderung 246
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe c
c)  das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte verursacht worden sind oder nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich des Eintretens solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;
c)  das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit geschädigt, die Sicherheit beeinträchtigt oder negative Auswirkungen auf die Grundrechte, die Umwelt, die Demokratie und die Rechtsstaatlichkeit verursacht worden sind oder beispielsweise nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Aufsichtsbehörden, der Kommission, dem Amt für künstliche Intelligenz, dem Europäischen Datenschutzbeauftragten oder der Agentur der Europäischen Union für Grundrechte übermittelt werden, Anlass zu erheblichen Bedenken hinsichtlich der Wahrscheinlichkeit solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen besteht;
Abänderung 247
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe d
d)  das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen;
d)  das potenzielle Ausmaß solcher Schäden, Beeinträchtigungen oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, eine Vielzahl von Personen zu beeinträchtigen oder eine bestimmte Gruppe von Personen unverhältnismäßig stark zu beeinträchtigen;
Abänderung 248
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe e
e)  das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;
e)  das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen von dem mithilfe eines KI-Systems hervorgebrachten Ergebnis abhängen und dieses Ergebnis für die zu treffende Maßnahme oder Entscheidung rein akzessorisch ist, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;
Abänderung 249
Vorschlag für eine Verordnung
Artikel 7– Absatz 2– Buchstabe e a (neu)
ea)  den möglichen Missbrauch und die böswillige Nutzung des KI-Systems und der ihm zugrunde liegenden Technologie;
Abänderung 250
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe f
f)  das Ausmaß, in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund eines Ungleichgewichts in Bezug auf Machtposition, Wissen, wirtschaftliche oder soziale Umstände oder Alter;
f)  das Ausmaß, in dem ein Machtungleichgewicht besteht oder in dem potenziell geschädigte oder beeinträchtigte Personen gegenüber dem Nutzer eines KI-Systems schutzbedürftig sind, insbesondere aufgrund von Status, Autorität, Wissen, wirtschaftlichen oder sozialen Umständen oder Alter;
Abänderung 251
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe g
g)  das Ausmaß, in dem das mit einem KI-System hervorgebrachte Ergebnis leicht rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit oder Sicherheit von Personen auswirken, nicht als leicht rückgängig zu machen gelten;
g)  das Ausmaß, in dem das mithilfe eines KI-Systems hervorgebrachte Ergebnis leicht rückgängig zu machen oder behebbar ist, wobei Ergebnisse, die sich negativ auf die Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt oder auf Demokratie und Rechtsstaatlichkeit auswirken, nicht als leicht rückgängig zu machen gelten;
Abänderung 252
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe g a (neu)
ga)  das Ausmaß der Verfügbarkeit und des Einsatzes von wirksamen technischen Lösungen und Mechanismen für die Kontrolle, Zuverlässigkeit und Korrigierbarkeit des KI-Systems;
Abänderung 253
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe g b (neu)
gb)  das Ausmaß und die Wahrscheinlichkeit, dass der Einsatz des KI-Systems für Einzelpersonen, Gruppen oder die Gesellschaft im Allgemeinen, einschließlich möglicher Verbesserungen der Produktsicherheit, nützlich ist;
Abänderung 254
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe g c (neu)
gc)  das Ausmaß menschlicher Aufsicht und die Möglichkeit menschlichen Eingreifens, um eine Entscheidung oder Empfehlungen, die potenziell zu Schaden führen können, außer Kraft zu setzen;
Abänderung 255
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 – Buchstabe h
i)  wirksame Abhilfemaßnahmen in Bezug auf die Risiken, die von einem KI-System ausgehen, mit Ausnahme von Schadenersatzansprüchen,
h)  das Ausmaß, in dem bestehende Rechtsvorschriften der Union Folgendes vorsehen:
i)  wirksame Abhilfemaßnahmen in Bezug auf die Schäden, die von einem KI-System verursacht wurden, mit Ausnahme von Ansprüchen im Falle direkter oder indirekter Schäden,
ii)  wirksame Maßnahmen zur Verhinderung oder zur wesentlichen Verringerung dieser Risiken.
Abänderung 256
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 a (neu)
(2a)  Bei der Bewertung eines KI-Systems für die Zwecke der Absätze 1 oder 1a konsultiert die Kommission das Amt für künstliche Intelligenz und gegebenenfalls Vertreter der Gruppen, auf die sich ein KI-System auswirkt, die Industrie, unabhängige Experten, die Sozialpartner und Organisationen der Zivilgesellschaft. Die Kommission führt in diesem Zusammenhang auch öffentliche Konsultationen durch und macht die Ergebnisse dieser Konsultationen und der endgültigen Bewertung öffentlich zugänglich.
Abänderung 257
Vorschlag für eine Verordnung
Artikel 7 – Absatz 2 b (neu)
(2b)  Das Amt für künstliche Intelligenz, die nationalen Aufsichtsbehörden oder das Europäische Parlament können die Kommission auffordern, die Risikokategorisierung eines KI-Systems gemäß den Absätzen 1 und 1a neu zu bewerten und neu einzustufen. Die Kommission begründet ihre Entscheidung und veröffentlicht die Begründung.
Abänderung 258
Vorschlag für eine Verordnung
Artikel 8 – Absatz 1 a (neu)
(1a)  Bei der Erfüllung der in diesem Kapitel festgelegten Anforderung sind die gemäß Artikel 82b entwickelten Leitlinien, der allgemein anerkannte Stand der Technik, einschließlich der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen gemäß den Artikeln 40 und 41 oder der bereits in den Harmonisierungsrechtsvorschriften der Union festgelegten Normen und Spezifikationen, angemessen zu berücksichtigen.
Abänderung 259
Vorschlag für eine Verordnung
Artikel 8 – Absatz 2
(2)  Bei der Gewährleistung der Einhaltung dieser Anforderungen wird der Zweckbestimmung des Hochrisiko-KI-Systems und dem in Artikel 9 genannten Risikomanagementsystem Rechnung getragen.
(2)  Bei der Gewährleistung der Einhaltung dieser Anforderungen wird der Zweckbestimmung des Hochrisiko-KI-Systems, den vernünftigerweise vorhersehbaren Fehlanwendungen und dem in Artikel 9 genannten Risikomanagementsystem Rechnung getragen.
Abänderung 260
Vorschlag für eine Verordnung
Artikel 8 – Absatz 2 a (neu)
(2a)  Solange die Anforderungen von Titel III Kapitel 2 und 3 oder Titel VIII Kapitel 1, 2 und 3 für Hochrisiko-KI-Systeme durch die in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union abgedeckt sind, gelten die Anforderungen oder Verpflichtungen dieser Kapitel dieser Verordnung als erfüllt, sofern sie die KI-Komponente umfassen. Die Anforderungen von Titel III Kapitel 2 und 3 oder Titel VIII Kapitel 1, 2 und 3 für Hochrisiko-KI-Systeme, die nicht unter die in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union fallen, werden gegebenenfalls in diese Harmonisierungsrechtsvorschriften der Union aufgenommen. Die entsprechende Konformitätsbewertung wird im Rahmen der Verfahren durchgeführt, die in den in Anhang II Abschnitt A aufgeführten Harmonisierungsrechtsvorschriften der Union festgelegt sind.
Abänderung 261
Vorschlag für eine Verordnung
Artikel 9– Absatz 1
(1)  Für Hochrisiko-KI-Systeme wird ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten.
(1)  Für Hochrisiko-KI-Systeme wird während des gesamten Lebenszyklus des KI-Systems ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten. Das Risikomanagementsystem kann in bereits bestehende Risikomanagementverfahren im Zusammenhang mit dem einschlägigen sektoralen Unionsrecht integriert werden oder Teil davon sein, sofern es die Anforderungen dieses Artikels erfüllt.
Abänderung 262
Vorschlag für eine Verordnung
Artikel 9 – Absatz 2 – Einleitung
(2)  Das Risikomanagementsystem versteht sich als ein kontinuierlicher iterativer Prozess während des gesamten Lebenszyklus eines KI-Systems, der eine regelmäßige systematische Aktualisierung erfordert. Es umfasst folgende Schritte:
(2)  Das Risikomanagementsystem versteht sich als ein kontinuierlicher iterativer Prozess während des gesamten Lebenszyklus eines KI-Systems, der eine regelmäßige Überprüfung und Aktualisierung des Risikomanagementprozesses erfordert, um seine kontinuierliche Wirksamkeit sowie eine Dokumentation aller wichtigen Entscheidungen und Maßnahmen, die gemäß diesem Artikel getroffen wurden, sicherzustellen. Es umfasst folgende Schritte:
Abänderung 263
Vorschlag für eine Verordnung
Artikel 9 – Absatz 2 – Buchstabe a
a)  Ermittlung und Analyse der bekannten und vorhersehbaren Risiken, die von jedem Hochrisiko-KI-System ausgehen;
a)  Ermittlung, Abschätzung und Bewertung der bekannten und vernünftigerweise vorhersehbaren Risiken, die das Hochrisiko-KI-System für die Gesundheit oder Sicherheit natürlicher Personen, ihre Grundrechte, einschließlich des gleichen Zugangs und der Chancengleichheit, die Demokratie und die Rechtsstaatlichkeit oder die Umwelt verursachen kann, wenn das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird;
Abänderung 264
Vorschlag für eine Verordnung
Artikel 9 – Absatz 2 – Buchstabe b
b)  Abschätzung und Bewertung der Risiken, die entstehen können, wenn das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird;
entfällt
Abänderung 265
Vorschlag für eine Verordnung
Artikel 9 – Absatz 2 – Buchstabe c
c)  Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Auswertung der Daten aus dem in Artikel 61 genannten System zur Beobachtung nach dem Inverkehrbringen;
c)  Bewertung auftretender erheblicher Risiken, wie unter Buchstabe a beschrieben und ermittelt auf der Grundlage der Auswertung der Daten aus dem in Artikel 61 genannten System zur Beobachtung nach dem Inverkehrbringen;
Abänderung 266
Vorschlag für eine Verordnung
Artikel 9 – Absatz 2 – Buchstabe d
d)  Ergreifung geeigneter Risikomanagementmaßnahmen gemäß den Bestimmungen der folgenden Absätze.
d)  Ergreifung geeigneter und gezielter Risikomanagementmaßnahmen zur Bewältigung der gemäß den Buchstaben a und b dieses Absatzes ermittelten Risiken gemäß den Bestimmungen der folgenden Absätze.
Abänderung 267
Vorschlag für eine Verordnung
Artikel 9– Absatz 3
(3)  Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der Anforderungen dieses Kapitels 2 ergeben, gebührend berücksichtigt. Diese Maßnahmen tragen dem allgemein anerkannten Stand der Technik Rechnung, wie er auch in einschlägigen harmonisierten Normen oder gemeinsamen Spezifikationen zum Ausdruck kommt.
(3)  Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der Anforderungen dieses Kapitels 2 ergeben, gebührend berücksichtigt, um die Risiken wirksam zu mindern und gleichzeitig eine angemessene und verhältnismäßige Umsetzung der Anforderungen sicherzustellen.
Abänderung 268
Vorschlag für eine Verordnung
Artikel 9 – Absatz 4 – Einleitung
(4)  Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass jedes mit einer bestimmten Gefahr verbundene Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken müssen den Nutzern mitgeteilt werden.
(4)  Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen werden so gestaltet, dass ein relevantes mit einer bestimmten Gefahr verbundenes Restrisiko sowie das Gesamtrestrisiko der Hochrisiko-KI-Systeme nach vernünftigem Ermessen als vertretbar beurteilt werden kann, sofern das Hochrisiko-KI-System entsprechend seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird. Diese Restrisiken und die begründeten Beurteilungen müssen den Betreibern mitgeteilt werden.
Bei der Festlegung der am besten geeigneten Risikomanagementmaßnahmen ist Folgendes sicherzustellen:
Abänderung 269
Vorschlag für eine Verordnung
Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe a
a)  weitestmögliche Beseitigung oder Verringerung der Risiken durch eine geeignete Konzeption und Entwicklung,
a)  soweit technisch machbar, eine Beseitigung oder Verringerung der identifizierten Risiken durch eine geeignete Konzeption und Entwicklung des Hochrisiko-KI-Systems, gegebenenfalls unter Einbeziehung von Experten und externen Interessenträgern,
Abänderung 270
Vorschlag für eine Verordnung
Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe b
b)  gegebenenfalls Anwendung angemessener Minderungs- und Kontrollmaßnahmen im Hinblick auf nicht auszuschließende Risiken;
b)  gegebenenfalls Anwendung angemessener Minderungs- und Kontrollmaßnahmen für nicht auszuschließende erhebliche Risiken;
Abänderung 271
Vorschlag für eine Verordnung
Artikel 9 – Absatz 4 – Unterabsatz 1 – Buchstabe c
c)  Bereitstellung angemessener Informationen gemäß Artikel 13, insbesondere bezüglich der in Absatz 2 Buchstabe b des vorliegenden Artikels genannten Risiken, und gegebenenfalls entsprechende Schulung der Nutzer.
c)  Bereitstellung der erforderlichen Informationen gemäß Artikel 13 und gegebenenfalls entsprechende Schulung der Betreiber.
Abänderung 272
Vorschlag für eine Verordnung
Artikel 9 – Absatz 4 – Unterabsatz 2
Bei der Beseitigung oder Verringerung der Risiken im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems werden die technischen Kenntnisse, die Erfahrungen und der Bildungsstand, die vom Nutzer erwarten werden können, sowie das Umfeld, in dem das System eingesetzt werden soll, gebührend berücksichtigt.
Bei der Beseitigung oder Verringerung der Risiken im Zusammenhang mit der Verwendung des Hochrisiko-KI-Systems berücksichtigen die Anbieter gebührend die technischen Kenntnisse, die Erfahrungen und den Bildungsstand, die der Betreiber möglicherweise benötigt, auch in Bezug auf den voraussichtlichen Nutzungskontext.
Abänderung 273
Vorschlag für eine Verordnung
Artikel 9– Absatz 5
(5)  Hochrisiko-KI-Systeme müssen getestet werden, um die am besten geeigneten Risikomanagementmaßnahmen zu ermitteln. Durch das Testen wird sichergestellt, dass Hochrisiko-KI-Systeme stets bestimmungsgemäß funktionieren und die Anforderungen dieses Kapitels erfüllen.
(5)  Hochrisiko-KI-Systeme müssen getestet werden, um die am besten geeigneten und gezielten Risikomanagementmaßnahmen zu ermitteln und diese Maßnahmen in Bezug auf den potenziellen Nutzen und die beabsichtigten Ziele des Systems abzuwägen. Durch das Testen wird sichergestellt, dass Hochrisiko-KI-Systeme stets bestimmungsgemäß funktionieren und die Anforderungen dieses Kapitels erfüllen.
Abänderung 274
Vorschlag für eine Verordnung
Artikel 9– Absatz 6
(6)  Die Testverfahren müssen geeignet sein, die Zweckbestimmung des KI-Systems zu erfüllen, und brauchen nicht über das hierfür erforderliche Maß hinauszugehen.
(6)  Die Testverfahren müssen geeignet sein, die Zweckbestimmung des KI-Systems zu erfüllen.
Abänderung 275
Vorschlag für eine Verordnung
Artikel 9– Absatz 7
(7)  Das Testen von Hochrisiko-KI-Systemen erfolgt zu jedem geeigneten Zeitpunkt während des gesamten Entwicklungsprozesses und in jedem Fall vor dem Inverkehrbringen oder der Inbetriebnahme. Das Testen erfolgt anhand vorab festgelegter Parameter und probabilistischer Schwellenwerte, die für die Zweckbestimmung des Hochrisiko-KI-Systems geeignet sind.
(7)  Das Testen von Hochrisiko-KI-Systemen erfolgt in jedem Fall vor dem Inverkehrbringen oder der Inbetriebnahme. Das Testen erfolgt anhand vorab festgelegter Parameter und probabilistischer Schwellenwerte, die für die Zweckbestimmung und vernünftigerweise vorhersehbare Fehlanwendung des Hochrisiko-KI-Systems geeignet sind.
Abänderung 276
Vorschlag für eine Verordnung
Artikel 9– Absatz 8
(8)  Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems ist insbesondere zu berücksichtigen, ob das Hochrisiko-KI-System wahrscheinlich für Kinder zugänglich ist oder Auswirkungen auf Kinder hat.
(8)  Bei der Umsetzung des in den Absätzen 1 bis 7 beschriebenen Risikomanagementsystems berücksichtigen die Anbieter insbesondere, ob das Hochrisiko-KI-System wahrscheinlich negative Auswirkungen auf gefährdete Personengruppen oder Kinder hat.
Abänderung 277
Vorschlag für eine Verordnung
Artikel 9– Absatz 9
(9)  Bei Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der von diesen Instituten gemäß Artikel 74 der Richtlinie festgelegten Risikomanagementverfahren.
(9)  Bei Anbietern und KI-Systemen, die bereits unter das Unionsrecht fallen, das ihnen die Einrichtung eines spezifischen Risikomanagements vorschreibt, einschließlich Kreditinstituten, die unter die Richtlinie 2013/36/EU fallen, sind die in den Absätzen 1 bis 8 beschriebenen Aspekte Bestandteil der durch dieses Unionsrecht festgelegten Risikomanagementverfahren oder werden mit diesen kombiniert.
Abänderung 278
Vorschlag für eine Verordnung
Artikel 10 – Absatz 1
(1)  Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.
(1)  Hochrisiko-KI-Systeme, in denen Techniken eingesetzt werden, bei denen Modelle mit Daten trainiert werden, müssen mit Trainings-, Validierungs- und Testdatensätzen entwickelt werden, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen, soweit dies je nach Marktsegment oder Anwendungsbereich technisch machbar ist.
Techniken, die keine gekennzeichneten Eingabedaten erfordern, wie z. B. unüberwachtes Lernen und bestärkendes Lernen, werden auf der Grundlage von Datensätzen entwickelt, z. B. zum Testen und Überprüfen, die den in den Absätzen 2 bis 5 genannten Qualitätskriterien entsprechen.
Abänderung 279
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Einleitung
(2)  Für Trainings-, Validierungs- und Testdatensätze gelten geeignete Data-Governance- und Datenverwaltungsverfahren. Diese Verfahren betreffen insbesondere
(2)  Für Trainings-, Validierungs- und Testdatensätze gilt eine Daten-Governance, die dem Nutzungskontext und dem beabsichtigten Zweck des KI-Systems angemessen ist. Diese Maßnahmen betreffen insbesondere
Abänderung 280
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe a a (neu)
aa)  die Transparenz in Bezug auf den ursprünglichen Zweck der Datenerfassung;
Abänderung 281
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe b
b)  die Datenerfassung,
b)  die Datenerfassungsprozesse,
Abänderung 282
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe c
c)  relevante Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Anreicherung und Aggregierung,
c)  Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Aktualisierung, Anreicherung und Aggregierung,
Abänderung 283
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe d
d)  die Aufstellung relevanter Annahmen, insbesondere in Bezug auf die Informationen, die mit den Daten erfasst und dargestellt werden sollen,
d)  die Aufstellung von Annahmen, insbesondere in Bezug auf die Informationen, die mit den Daten erfasst und dargestellt werden sollen,
Abänderung 284
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe e
e)  eine vorherige Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,
e)  eine Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,
Abänderung 285
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe f
f)  eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias);
f)  eine Untersuchung im Hinblick auf mögliche Verzerrungen (Bias), die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung führen könnten, insbesondere wenn die Datenoutputs die Inputs für künftige Operationen beeinflussen („Feedback-Schleifen“), sowie geeignete Maßnahmen zur Erkennung, Verhinderung und Abschwächung möglicher Verzerrungen;
Abänderung 286
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe f a (neu)
fa)  geeignete Maßnahmen zur Erkennung, Verhinderung und Abschwächung möglicher Verzerrungen;
Abänderung 287
Vorschlag für eine Verordnung
Artikel 10 – Absatz 2 – Buchstabe g
g)  die Ermittlung möglicher Datenlücken oder Mängel und wie diese Lücken und Mängel behoben werden können.
g)  die Ermittlung relevanter Datenlücken oder Mängel, die der Einhaltung dieser Verordnung entgegenstehen, und wie diese Lücken und Mängel behoben werden können;
Abänderung 288
Vorschlag für eine Verordnung
Artikel 10 – Absatz 3
(3)  Die Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, auf die das Hochrisiko-KI-System bestimmungsgemäß angewandt werden soll. Diese Merkmale der Datensätze können durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.
(3)  Die Trainingsdatensätze und, falls verwendet, die Validierungs- und Testdatensätze, einschließlich der Kennzeichnungen, müssen relevant, hinreichend repräsentativ, angemessen auf Fehler überprüft und im Hinblick auf den beabsichtigten Zweck so vollständig wie möglich sein. Sie haben die geeigneten statistischen Merkmale, gegebenenfalls auch bezüglich der Personen oder Personengruppen, für die das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll. Diese Merkmale der Datensätze müssen durch einzelne Datensätze oder eine Kombination solcher Datensätze erfüllt werden.
Abänderung 289
Vorschlag für eine Verordnung
Artikel 10 – Absatz 4
(4)  Die Trainings-, Validierungs- und Testdatensätze müssen, soweit dies für die Zweckbestimmung erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.
(4)  Die Datensätze müssen, soweit dies für die Zweckbestimmung oder den vernünftigerweise vorhersehbaren Fehlgebrauch des KI-Systems erforderlich ist, den Merkmalen oder Elementen entsprechen, die für die besonderen geografischen, kontextuellen, verhaltensbezogenen oder funktionalen Rahmenbedingungen, unter denen das Hochrisiko-KI-System bestimmungsgemäß verwendet werden soll, typisch sind.
Abänderung 290
Vorschlag für eine Verordnung
Artikel 10 – Absatz 5
(5)  Soweit dies für die Beobachtung, Erkennung und Korrektur von Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen wie Pseudonymisierung oder Verschlüsselung gehören, wenn der verfolgte Zweck durch eine Anonymisierung erheblich beeinträchtigt würde.
(5)  Soweit dies für die Erkennung und Korrektur von negativen Verzerrungen im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme in Ausnahmefällen besondere Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725 verarbeiten, wobei sie angemessene Vorkehrungen für den Schutz der Grundrechte und Grundfreiheiten natürlicher Personen treffen müssen, wozu auch technische Beschränkungen einer Weiterverwendung und modernste Sicherheits- und Datenschutzmaßnahmen gehören. Insbesondere müssen alle folgenden Bedingungen erfüllt sein, damit diese Verarbeitung stattfinden kann: a) die Erkennung und Korrektur von Verzerrungen kann durch die Verarbeitung künstlicher oder anonymisierter Daten nicht effektiv durchgeführt werden;
b)  die Daten sind pseudonymisiert;
c)  der Anbieter ergreift geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass die für die Zwecke dieses Absatzes verarbeiteten Daten gesichert, geschützt und angemessenen Sicherheitsvorkehrungen unterworfen sind und nur befugte Personen mit entsprechenden Vertraulichkeitsverpflichtungen Zugriff auf diese Daten haben;
d)  die für die Zwecke dieses Absatzes verarbeiteten Daten dürfen nicht an andere Parteien weitergegeben, übertragen oder anderweitig abgerufen werden;
e)  die für die Zwecke dieses Absatzes verarbeiteten Daten sind durch geeignete technische und organisatorische Maßnahmen geschützt und werden gelöscht, sobald die Verzerrung berichtigt wurde oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;
f)  wirksame und angemessene Maßnahmen sind vorhanden, um die Verfügbarkeit, Sicherheit und Widerstandsfähigkeit der Verarbeitungssysteme und -dienste gegen technische oder physische Zwischenfälle sicherzustellen;
g)  wirksame und angemessene Maßnahmen sind vorhanden, um die physische Sicherheit der Orte, an denen die Daten gespeichert und verarbeitet werden, die interne IT und die IT-Sicherheitssteuerung und -verwaltung sowie die Zertifizierung von Prozessen und Produkten sicherzustellen.
Anbieter, die sich auf diese Bestimmung berufen, erstellen eine Dokumentation, in der sie erläutern, warum die Verarbeitung besonderer Kategorien personenbezogener Daten notwendig war, um Verzerrungen aufzudecken und zu korrigieren.
Abänderung 291
Vorschlag für eine Verordnung
Artikel 10 – Absatz 6 a (neu)
(6a)  Kann der Anbieter den in diesem Artikel festgelegten Verpflichtungen nicht nachkommen, weil er keinen Zugang zu den Daten hat und sich die Daten ausschließlich im Besitz des Betreibers befinden, kann der Betreiber auf der Grundlage eines Vertrags für jeden Verstoß gegen diesen Artikel zur Verantwortung gezogen werden.
Abänderung 292
Vorschlag für eine Verordnung
Artikel 11 – Absatz 1 – Unterabsatz 1
Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den zuständigen nationalen Behörden und den notifizierten Stellen alle Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben.
Die technische Dokumentation wird so erstellt, dass aus ihr der Nachweis hervorgeht, wie das Hochrisiko-KI-System die Anforderungen dieses Kapitels erfüllt, und dass den nationalen Aufsichtsbehörden und den notifizierten Stellen die Informationen zur Verfügung stehen, die erforderlich sind, um zu beurteilen, ob das KI-System diese Anforderungen erfüllt. Sie enthält zumindest die in Anhang IV genannten Angaben oder im Falle von KMU und Start-ups gleichwertige Unterlagen, die dieselben Ziele verfolgen, vorbehaltlich der Genehmigung durch die zuständige nationale Behörde.
Abänderung 293
Vorschlag für eine Verordnung
Artikel 11 – Absatz 2
(2)  Wird ein Hochrisiko-KI-System, das mit einem Produkt verbunden ist, das unter die in Anhang II Abschnitt A aufgeführten Rechtsakte fällt, in Verkehr gebracht oder in Betrieb genommen, so wird eine einzige technische Dokumentation erstellt, die alle in Anhang IV genannten Informationen sowie die nach diesen Rechtsakten erforderlichen Informationen enthält.
(2)  Wird ein Hochrisiko-KI-System, das mit einem Produkt verbunden ist, das unter die in Anhang II Abschnitt A aufgeführten Rechtsakte fällt, in Verkehr gebracht oder in Betrieb genommen, so wird eine einzige technische Dokumentation erstellt, die alle in Absatz 1 genannten Informationen sowie die nach diesen Rechtsakten erforderlichen Informationen enthält.
Abänderung 294
Vorschlag für eine Verordnung
Artikel 11 – Absatz 3 a (neu)
(3a)  Anbieter, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, pflegen die technische Dokumentation als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie.
Abänderung 295
Vorschlag für eine Verordnung
Artikel 12 – Absatz 1
(1)  Hochrisiko-KI-Systeme werden mit Funktionsmerkmalen konzipiert und entwickelt, die eine automatische Aufzeichnung von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. Diese Protokollierung muss anerkannten Normen oder gemeinsamen Spezifikationen entsprechen.
(1)  Hochrisiko-KI-Systeme werden mit Funktionsmerkmalen konzipiert und entwickelt, die eine automatische Aufzeichnung von Vorgängen und Ereignissen („Protokollierung“) während des Betriebs der Hochrisiko-KI-Systeme ermöglichen. Diese Protokollierung muss dem Stand der Technik und den anerkannten Normen oder gemeinsamen Spezifikationen entsprechen.
Abänderung 296
Vorschlag für eine Verordnung
Artikel 12 – Absatz 2
(2)  Die Protokollierung gewährleistet, dass das Funktionieren des KI-Systems während seines gesamten Lebenszyklus in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist.
(2)  Um sicherzustellen, dass das Funktionieren des KI-Systems während seiner gesamten Lebensdauer in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist, müssen die Protokollierungsfunktionen die Überwachung der Vorgänge gemäß Artikel 29 Absatz 4 sowie die Überwachung nach dem Inverkehrbringen gemäß Artikel 61 erleichtern. Sie müssen insbesondere die Aufzeichnung von Ereignissen ermöglichen, die für die Identifizierung von Situationen relevant sind, die möglicherweise
a)  dazu führen, dass das KI-System eine Gefahr im Sinne von Artikel 65 Absatz 1 darstellt, oder
b)  zu einer wesentlichen Änderung des KI-Systems führen.
Abänderung 297
Vorschlag für eine Verordnung
Artikel 12 – Absatz 2 a (neu)
(2a)  Hochrisiko-KI-Systeme müssen so konzipiert und entwickelt werden, dass sie über Protokollierungsfunktionen verfügen, mit denen die Aufzeichnung des Energieverbrauchs, die Messung oder Berechnung des Ressourcenverbrauchs und der Umweltauswirkungen des Hochrisiko-KI-Systems während aller Phasen des Lebenszyklus des Systems möglich ist.
Abänderung 298
Vorschlag für eine Verordnung
Artikel 12 – Absatz 3
(3)  Die Protokollierung ermöglicht insbesondere die Überwachung des Betriebs des Hochrisiko-KI-Systems im Hinblick auf das Auftreten von Situationen, die dazu führen können, dass das KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, oder die zu einer wesentlichen Änderung führen, und erleichtert so die Beobachtung nach dem Inverkehrbringen gemäß Artikel 61.
entfällt
Abänderung 299
Vorschlag für eine Verordnung
Artikel 13 – Überschrift
Transparenz und Bereitstellung von Informationen für die Nutzer
Transparenz und Bereitstellung von Informationen
Abänderung 300
Vorschlag für eine Verordnung
Artikel 13 – Absatz 1
(1)  Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Nutzer die Ergebnisse des Systems angemessen interpretieren und verwenden können. Die Transparenz wird auf eine geeignete Art und in einem angemessenen Maß gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.
(1)  Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass ihr Betrieb hinreichend transparent ist, damit die Anbieter und Nutzer die Funktionsweise des Systems hinreichend verstehen können. Eine angemessene Transparenz wird entsprechend der Zweckbestimmung des KI-Systems gewährleistet, damit die Nutzer und Anbieter ihre in Kapitel 3 dieses Titels festgelegten einschlägigen Pflichten erfüllen können.
Transparenz bedeutet somit, dass zum Zeitpunkt des Inverkehrbringens des Hochrisiko-KI-Systems alle nach dem allgemein anerkannten Stand der Technik verfügbaren technischen Mittel eingesetzt werden, um sicherzustellen, dass die Ergebnisse des KI-Systems vom Anbieter und vom Nutzer interpretierbar sind. Der Nutzer muss in die Lage versetzt werden, das KI-System angemessen zu verstehen und zu nutzen, indem er allgemein weiß, wie das KI-System funktioniert und welche Daten es verarbeitet, sodass der Nutzer die vom KI-System getroffenen Entscheidungen der betroffenen Person gemäß Artikel 68 Buchstabe c erläutern kann.
Abänderung 301
Vorschlag für eine Verordnung
Artikel 13 – Absatz 2
(2)  Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.
(2)  Hochrisiko-KI-Systeme werden mit verständlichen Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise auf einem dauerhaften Datenträger mit Gebrauchsanweisungen versehen, die präzise, korrekte, eindeutige und möglichst vollständige Informationen, die den Betrieb und die Wartung des KI-Systems sowie die fundierte Entscheidungsfindung der Nutzer unterstützen, in einer für die Nutzer hinreichend relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.
Abänderung 302
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Einleitung
(3)  Die in Absatz 2 genannten Informationen umfassen:
(3)  Um die in Absatz 1 genannten Ergebnisse zu erzielen, umfassen die in Absatz 2 genannten Informationen:
Abänderung 303
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe a
a)  den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seines Bevollmächtigten;
a)  den Namen und die Kontaktangaben des Anbieters sowie gegebenenfalls seiner Bevollmächtigten;
Abänderung 304
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe a a (neu)
aa)  wenn es sich nicht um den Anbieter handelt, die Identität und die Kontaktdaten der Stelle, die die Konformitätsbewertung durchgeführt hat, und gegebenenfalls ihres Bevollmächtigten;
Abänderung 305
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe b – Einleitung
b)  die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich
b)  gegebenenfalls die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems, einschließlich
Abänderung 306
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe b – Ziffer ii
ii)  des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,
ii)  des Maßes an Genauigkeit, Robustheit und Cybersicherheit gemäß Artikel 15, für das das Hochrisiko-KI-System getestet und validiert wurde und das zu erwarten ist, sowie alle eindeutig bekannten und vorhersehbaren Umstände, die sich auf das erwartete Maß an Genauigkeit, Robustheit und Cybersicherheit auswirken können,
Abänderung 307
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii
iii)  aller bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können,
iii)  aller eindeutig bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit, die Grundrechte oder die Umwelt führen können, gegebenenfalls einschließlich anschaulicher Beispiele für solche Einschränkungen und für Szenarien, für die das System nicht verwendet werden sollte;
Abänderung 308
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe b – Ziffer iii a (neu)
iiia)  des Ausmaßes, in dem das KI-System die von ihm getroffenen Entscheidungen erklären kann;
Abänderung 309
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe b – Ziffer v
v)  gegebenenfalls der Spezifikationen für die Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;
v)  relevante Informationen über Benutzeraktionen, die die Systemleistung beeinflussen können, einschließlich Art oder Qualität der Eingabedaten oder sonstiger relevanter Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung der Zweckbestimmung des KI-Systems;
Abänderung 310
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe e
e)  die erwartete Lebensdauer des Hochrisiko-KI-Systems und alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates.
e)  alle erforderlichen Wartungs- und Pflegemaßnahmen zur Gewährleistung des ordnungsgemäßen Funktionierens dieses KI-Systems, auch in Bezug auf Software-Updates, während seiner erwarteten Lebensdauer.
Abänderung 311
Vorschlag für eine Verordnung
Artikel 13– Absatz 3– Buchstabe e a (neu)
ea)  eine Beschreibung der in das KI-System integrierten Mechanismen, die es den Nutzern ermöglicht, die Protokolle im Einklang mit Artikel 12 Absatz 1 ordnungsgemäß zu erfassen, zu speichern und auszuwerten.
Abänderung 312
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 – Buchstabe e b (neu)
eb)  Die Informationen müssen zumindest in der Sprache des Landes bereitgestellt werden, in dem das KI-System verwendet wird.
Abänderung 313
Vorschlag für eine Verordnung
Artikel 13 – Absatz 3 a (neu)
(3a)  Um den in diesem Artikel festgelegten Verpflichtungen nachzukommen, sorgen die Anbieter und die Nutzer im Einklang mit Artikel 4b für ein ausreichendes Niveau an KI-Kompetenz.
Abänderung 314
Vorschlag für eine Verordnung
Artikel 14 – Absatz 1
(1)  Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer der Verwendung des KI-Systems – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden können.
(1)  Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie in einem angemessenen Verhältnis zu den Risiken, die mit diesen Systemen verbunden sind, – auch mit geeigneten Werkzeugen einer Mensch-Maschine-Schnittstelle – von natürlichen Personen wirksam beaufsichtigt werden. Natürliche Personen, die mit der Sicherstellung der menschlichen Aufsicht betraut sind, müssen über ein ausreichendes Maß an KI-Kenntnissen gemäß Artikel 4b sowie über die notwendige Unterstützung und Befugnis verfügen, um diese Funktion während der Dauer der Verwendung des KI-Systems auszuüben und um eine gründliche Untersuchung nach einem Vorfall zu ermöglichen.
Abänderung 315
Vorschlag für eine Verordnung
Artikel 14 – Absatz 2
(2)  Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit oder die Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen.
(2)  Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für die Gesundheit, die Sicherheit, die Grundrechte oder die Umwelt, die entstehen können, wenn ein Hochrisiko-KI-System bestimmungsgemäß oder unter im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Kapitels fortbestehen und wenn Entscheidungen, die ausschließlich auf der automatisierten Verarbeitung durch KI-Systeme beruhen, rechtliche oder anderweitig erhebliche Auswirkungen auf die Personen oder Personengruppen haben, bei denen das System eingesetzt werden soll.
Abänderung 316
Vorschlag für eine Verordnung
Artikel 14 – Absatz 3 – Einleitung
(3)  Die menschliche Aufsicht wird durch eine oder alle der folgenden Vorkehrungen gewährleistet:
(3)  Die menschliche Aufsicht berücksichtigt die spezifischen Risiken, den Automatisierungsgrad und den Kontext des KI-Systems und wird durch eine oder alle der folgenden Arten von Vorkehrungen gewährleistet:
Abänderung 317
Vorschlag für eine Verordnung
Artikel 14 – Absatz 4 – Einleitung
(4)  Die in Absatz 3 genannten Maßnahmen müssen den Personen, denen die menschliche Aufsicht übertragen wurde, je nach den Umständen Folgendes ermöglichen:
(4)  Für die Zwecke der Umsetzung der Absätze 1 bis 3 wird das Hochrisiko-KI-System dem Nutzer so zur Verfügung gestellt, dass natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, soweit dies den Umständen angemessen und verhältnismäßig ist, Folgendes ermöglicht wird:
Abänderung 318
Vorschlag für eine Verordnung
Artikel 14 – Absatz 4 – Buchstabe a
a)  die Fähigkeiten und Grenzen des Hochrisiko-KI-Systems vollständig zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;
a)  die relevanten Fähigkeiten und Grenzen des Hochrisiko-KI-Systems zu kennen und hinreichend zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, damit Anzeichen von Anomalien, Fehlfunktionen und unerwarteter Leistung so bald wie möglich erkannt und behoben werden können;
Abänderung 319
Vorschlag für eine Verordnung
Artikel 14 – Absatz 4 – Buchstabe e
e)  in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen.
e)  in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, das es ermöglicht, das System in einem sicheren Zustand zum Stillstand zu bringen, es sei denn, der menschliche Eingriff erhöht die Risiken oder würde die Leistung unter Berücksichtigung des allgemein anerkannten Stands der Technik negativ beeinflussen.
Abänderung 320
Vorschlag für eine Verordnung
Artikel 14 – Absatz 5
(5)  Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen überprüft und bestätigt wurde.
(5)  Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 genannten Vorkehrungen so gestaltet sein, dass außerdem der Nutzer keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange dies nicht von mindestens zwei natürlichen Personen, die die notwendige Kompetenz, Schulung und Befugnis besitzen, überprüft und bestätigt wurde.
Abänderung 321
Vorschlag für eine Verordnung
Artikel 15 – Absatz 1
(1)  Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren.
(1)  Hochrisiko-KI-Systeme werden gemäß den Grundsätzen „Sicherheit durch technische Vorkehrungen“ und „Sicherheit durch entsprechende Grundeinstellungen“ konzipiert und entwickelt. Im Hinblick auf ihre Zweckbestimmung sollten sie ein angemessenes Maß an Genauigkeit, Robustheit, Sicherheit und Cybersicherheit erreichen und in dieser Hinsicht während ihres gesamten Lebenszyklus beständig funktionieren. Die Erfüllung dieser Anforderungen muss mit der Umsetzung von Maßnahmen verbunden sein, die dem Stand der Technik und dem jeweiligen Marktsegment oder Anwendungsbereich entsprechen.
Abänderung 322
Vorschlag für eine Verordnung
Artikel 15 – Absatz 1 a (neu)
(1a)  Um den technischen Aspekten der Bestimmung des angemessenen Grads an Genauigkeit und Robustheit gemäß Absatz 1 dieses Artikels Rechnung zu tragen, bringt das Amt für künstliche Intelligenz nationale Metrologie- und Benchmarking-Behörden zusammen und stellt unverbindliche Leitlinien zu dem Gegenstand von Artikel 56 Absatz 2 Buchstabe a bereit.
Abänderung 323
Vorschlag für eine Verordnung
Artikel 15 – Absatz 1 b (neu)
(1b)  Um aufkommende Probleme im Zusammenhang mit der Cybersicherheit im gesamten Binnenmarkt anzugehen, wird neben dem Europäischen Ausschuss für künstliche Intelligenz gemäß Artikel 56 Absatz 2 Buchstabe b auch die Agentur der Europäischen Union für Cybersicherheit (ENISA) einbezogen.
Abänderung 324
Vorschlag für eine Verordnung
Artikel 15 – Absatz 2
(2)  Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben.
(2)  Die Genauigkeitsgrade und die relevanten Genauigkeitskennzahlen von Hochrisiko-KI-Systemen werden in der ihnen beigefügten Gebrauchsanweisung angegeben. Die verwendete Sprache muss eindeutig sein und darf keine Missverständnisse oder irreführenden Aussagen enthalten.
Abänderung 325
Vorschlag für eine Verordnung
Artikel 15 – Absatz 3 – Unterabsatz 1
Hochrisiko-KI-Systeme müssen widerstandsfähig gegenüber Fehlern, Störungen oder Unstimmigkeiten sein, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.
Es müssen technische und organisatorische Maßnahmen ergriffen werden, um sicherzustellen, dass Hochrisiko-KI-Systeme so widerstandsfähig wie möglich gegenüber Fehlern, Störungen oder Unstimmigkeiten sind, die innerhalb des Systems oder der Umgebung, in der das System betrieben wird, insbesondere wegen seiner Interaktion mit natürlichen Personen oder anderen Systemen auftreten können.
Abänderung 326
Vorschlag für eine Verordnung
Artikel 15 – Absatz 3 – Unterabsatz 2
Die Robustheit von Hochrisiko-KI-Systemen kann durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.
Die Robustheit von Hochrisiko-KI-Systemen kann von dem jeweiligen Anbieter, erforderlichenfalls unter Mitwirkung des Nutzers, durch technische Redundanz erreicht werden, was auch Sicherungs- oder Störungssicherheitspläne umfassen kann.
Abänderung 327
Vorschlag für eine Verordnung
Artikel 15 – Absatz 3 – Unterabsatz 3
Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die durch eine Verwendung vorheriger Ergebnisse als Eingabedaten für den künftigen Betrieb entstehen („Rückkopplungsschleifen“), angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.
Hochrisiko-KI-Systeme, die nach dem Inverkehrbringen oder der Inbetriebnahme weiterhin dazulernen, sind so zu entwickeln, dass auf möglicherweise verzerrte Ergebnisse, die die Eingabedaten für den künftigen Betrieb beeinflussen („Rückkopplungsschleifen“), und böswillige Manipulation von Eingaben, die beim Lernen während des Betriebs verwendet werden, angemessen mit geeigneten Risikominderungsmaßnahmen eingegangen wird.
Abänderung 328
Vorschlag für eine Verordnung
Artikel 15 – Absatz 4 – Unterabsatz 1
Hochrisiko-KI-Systeme müssen widerstandfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung oder Leistung durch Ausnutzung von Systemschwachstellen zu verändern.
Hochrisiko-KI-Systeme müssen widerstandsfähig gegen Versuche unbefugter Dritter sein, ihre Verwendung, ihr Verhalten, ihre Ergebnisse oder ihre Leistung durch Ausnutzung von Systemschwachstellen zu verändern.
Abänderung 329
Vorschlag für eine Verordnung
Artikel 15 – Absatz 4 – Unterabsatz 3
Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen zur Verhütung und Kontrolle von Angriffen, mit denen versucht wird, den Trainingsdatensatz zu manipulieren („Datenvergiftung“), von Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“), oder von Modellmängeln.
Die technischen Lösungen für den Umgang mit KI-spezifischen Schwachstellen umfassen gegebenenfalls Maßnahmen, um Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („Datenvergiftung“) oder vortrainierter Komponenten, die beim Training verwendet werden („Modellvergiftung“), vorzunehmen, Eingabedaten, die das Modell zu Fehlern verleiten sollen („feindliche Beispiele“ oder „Modellvermeidung“), Angriffe auf vertrauliche Daten oder Modellmängel, die zu einer schädlichen Entscheidungsfindung führen könnten, zu verhüten, zu erkennen, darauf zu reagieren, sie zu beseitigen und zu kontrollieren.
Abänderung 330
Vorschlag für eine Verordnung
Titel III – Kapitel 3 – Überschrift
PFLICHTEN DER ANBIETER UND NUTZER VON HOCHRISIKO-KI-SYSTEMEN UND ANDERER BETEILIGTER
PFLICHTEN DER ANBIETER UND BETREIBER VON HOCHRISIKO-KI-SYSTEMEN UND ANDERER BETEILIGTER
Abänderung 331
Vorschlag für eine Verordnung
Artikel 16 – Überschrift
Pflichten der Anbieter von Hochrisiko-KI-Systemen
Pflichten der Anbieter und Betreiber von Hochrisiko-KI-Systemen und anderer Beteiligter
Abänderung 332
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe a
a)  sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;
a)  vor dem Inverkehrbringen oder der Inbetriebnahme ihrer KI-Systeme sicherstellen, dass ihre Hochrisiko-KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen;
Abänderung 333
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe a a (neu)
aa)  ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift und Kontaktinformationen auf dem Hochrisiko-KI-System selbst oder, wenn dies nicht möglich ist, in der beigefügten Dokumentation angeben;
Abänderung 334
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe a b (neu)
ab)  sicherstellen, dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, auf das Risiko einer Automatisierungs- oder Bestätigungsverzerrung aufmerksam gemacht worden sind;
Abänderung 335
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe a c (neu)
ac)  die Spezifikationen für die Eingabedaten oder sonstige relevante Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze zur Verfügung stellen, einschließlich ihrer Einschränkungen und Annahmen, unter Berücksichtigung der Zweckbestimmung und der vorhersehbaren sowie vernünftigerweise vorhersehbaren Fehlanwendungen des KI-Systems;
Abänderung 336
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe c
c)  die technische Dokumentation des Hochrisiko-KI-Systems erstellen;
c)  die in Artikel 11 genannte technische Dokumentation des Hochrisiko-KI-Systems erstellen und aufbewahren;
Abänderung 337
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe d
d)  die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle aufbewahren, wenn dies ihrer Kontrolle unterliegt;
d)  die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle, die erforderlich sind, um die Einhaltung dieser Verordnung sicherzustellen und nachzuweisen, gemäß Artikel 20 aufbewahren, wenn dies ihrer Kontrolle unterliegt;
Abänderung 338
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe e
e)  sicherstellen, dass das Hochrisiko-KI-System dem betreffenden Konformitätsbewertungsverfahren unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird;
e)  sicherstellen, dass das Hochrisiko-KI-System dem betreffenden Konformitätsbewertungsverfahren gemäß Artikel 43 unterzogen wird, bevor es in Verkehr gebracht oder in Betrieb genommen wird;
Abänderung 339
Vorschlag für eine Verordnung
Artikel 16– Absatz 1– Buchstabe e a (neu)
ea)  eine EU-Konformitätserklärung gemäß Artikel 48 ausstellen;
Abänderung 340
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe e b (neu)
eb)  die CE-Kennzeichnung an das Hochrisiko-KI-System anbringen, um Konformität mit dieser Verordnung gemäß Artikel 49 anzuzeigen;
Abänderung 341
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe g
g)  die erforderlichen Korrekturmaßnahmen ergreifen, wenn das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels nicht erfüllt;
g)  die erforderlichen Korrekturmaßnahmen gemäß Artikel 21 ergreifen und diesbezügliche Informationen übermitteln;
Abänderung 342
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe h
h)  die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das System bereitgestellt oder in Betrieb genommen haben, und gegebenenfalls die notifizierte Stelle über die Nichtkonformität und bereits ergriffene Korrekturmaßnahmen informieren;
entfällt
Abänderung 343
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe i
i)  die CE-Kennzeichnung an ihren Hochrisiko-KI-Systemen anbringen, um die Konformität mit dieser Verordnung gemäß Artikel 49 anzuzeigen;
entfällt
Abänderung 344
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe j
j)  auf Anfrage einer zuständigen nationalen Behörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.
j)  auf begründeten Anfrage einer nationalen Aufsichtsbehörde nachweisen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt.
Abänderung 345
Vorschlag für eine Verordnung
Artikel 16 – Absatz 1 – Buchstabe j a (neu)
ja)  sicherstellen, dass das Hochrisiko-KI-System die Anforderungen an die Zugänglichkeit erfüllt.
Abänderung 346
Vorschlag für eine Verordnung
Artikel 17 – Absatz 1 – Einleitung
(1)  Anbieter von Hochrisiko-KI-Systemen richten ein Qualitätsmanagementsystem ein, das die Einhaltung dieser Verordnung gewährleistet. Dieses System wird systematisch und ordnungsgemäß in Form schriftlicher Regeln, Verfahren und Anweisungen dokumentiert und umfasst mindestens folgende Aspekte:
(1)  Anbieter von Hochrisiko-KI-Systemen verfügen über ein Qualitätsmanagementsystem, das die Einhaltung dieser Verordnung gewährleistet. Es wird systematisch und ordnungsgemäß in Form schriftlicher Regeln, Verfahren oder Anweisungen dokumentiert und kann in ein bestehendes Qualitätsmanagementsystem gemäß den sektoralen Rechtsakten der Union integriert werden. Es umfasst mindestens folgende Aspekte:
Abänderung 347
Vorschlag für eine Verordnung
Artikel 17 – Absatz 1 – Buchstabe a
a)  ein Konzept zur Einhaltung der Regulierungsvorschriften, was die Einhaltung der Konformitätsbewertungsverfahren und der Verfahren für das Management von Änderungen an den Hochrisiko-KI-Systemen miteinschließt;
entfällt
Abänderung 348
Vorschlag für eine Verordnung
Artikel 17 – Absatz 1 – Buchstabe e
e)  die technischen Spezifikationen und Normen, die anzuwenden sind, falls die einschlägigen harmonisierten Normen nicht vollständig angewandt werden, sowie die Mittel, mit denen gewährleistet werden soll, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt;
e)  die technischen Spezifikationen und Normen, die anzuwenden sind, falls die einschlägigen harmonisierten Normen nicht vollständig angewandt werden oder sie nicht alle relevanten Anforderungen abdecken, sowie die Mittel, mit denen gewährleistet werden soll, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt;
Abänderung 349
Vorschlag für eine Verordnung
Artikel 17 – Absatz 1 – Buchstabe f
f)  Systeme und Verfahren für das Datenmanagement, einschließlich Datenerfassung, Datenanalyse, Datenkennzeichnung, Datenspeicherung, Datenfilterung, Datenauswertung, Datenaggregation, Vorratsdatenspeicherung und sonstiger Vorgänge in Bezug auf die Daten, die im Vorfeld und für die Zwecke des Inverkehrbringens oder der Inbetriebnahme von Hochrisiko-KI-Systemen durchgeführt werden;
f)  Systeme und Verfahren für das Datenmanagement, einschließlich Datengewinnung, Datenerfassung, Datenanalyse, Datenkennzeichnung, Datenspeicherung, Datenfilterung, Datenauswertung, Datenaggregation, Vorratsdatenspeicherung und sonstiger Vorgänge in Bezug auf die Daten, die im Vorfeld und für die Zwecke des Inverkehrbringens oder der Inbetriebnahme von Hochrisiko-KI-Systemen durchgeführt werden;
Abänderung 350
Vorschlag für eine Verordnung
Artikel 17 – Absatz 1 – Buchstabe j
j)  Kommunikation mit zuständigen nationalen Behörden, zuständigen Behörden, auch sektoralen Behörden, die den Zugang zu Daten gewähren oder erleichtern, sowie mit notifizierten Stellen, anderen Akteuren, Kunden oder sonstigen interessierten Kreisen;
j)  Kommunikation mit relevanten zuständigen Behörden, auch sektoralen Behörden;
Abänderung 351
Vorschlag für eine Verordnung
Artikel 17 – Absatz 2
(2)  Die Umsetzung der in Absatz 1 genannten Aspekte erfolgt in einem angemessenen Verhältnis zur Größe der Organisation des Anbieters.
(2)  Die Umsetzung der in Absatz 1 genannten Aspekte erfolgt in einem angemessenen Verhältnis zur Größe der Organisation des Anbieters. Die Anbieter müssen in jedem Fall den Grad der Strenge und das Schutzniveau einhalten, die erforderlich sind, um die Übereinstimmung ihrer KI-Systeme mit dieser Verordnung sicherzustellen.
Abänderung 352
Vorschlag für eine Verordnung
Artikel 18 – Überschrift
Pflicht zur Erstellung der technischen Dokumentation
entfällt
Abänderung 353
Vorschlag für eine Verordnung
Artikel 18 – Absatz 1
(1)  Anbieter von Hochrisiko-KI-Systemen erstellen die in Artikel 11 genannte technische Dokumentation gemäß Anhang IV.
entfällt
Abänderung 354
Vorschlag für eine Verordnung
Artikel 18 – Absatz 2
(2)  Anbieter, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, pflegen die technische Dokumentation als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie.
entfällt
Abänderung 355
Vorschlag für eine Verordnung
Artikel 19
Artikel 19
entfällt
Konformitätsbewertung
(1)  Die Anbieter von Hochrisiko-KI-Systemen stellen sicher, dass ihre Systeme vor dem Inverkehrbringen oder der Inbetriebnahme dem betreffenden Konformitätsbewertungsverfahren gemäß Artikel 43 unterzogen werden. Wurde infolge dieser Konformitätsbewertung nachgewiesen, dass die KI-Systeme die Anforderungen in Kapitel 2 dieses Titels erfüllen, erstellen die Anbieter eine EU-Konformitätserklärung gemäß Artikel 48 und bringen die CE-Konformitätskennzeichnung gemäß Artikel 49 an.
(2)  Bei den in Anhang III Nummer 5 Buchstabe b genannten Hochrisiko-KI-Systemen, die von Anbietern in Verkehr gebracht oder in Betrieb genommen werden, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, erfolgt die Konformitätsbewertung im Rahmen des in den Artikeln 97 bis 101 der Richtlinie genannten Verfahrens.
Abänderung 356
Vorschlag für eine Verordnung
Artikel 20 – Absatz 1
(1)  Anbieter von Hochrisiko-KI-Systemen bewahren die von ihren Hochrisiko-KI-Systemen automatisch erzeugten Protokolle auf, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage ihrer Kontrolle unterliegen. Die Protokolle werden für einen Zeitraum aufbewahrt, der der Zweckbestimmung des Hochrisiko-KI-Systems und den geltenden rechtlichen Verpflichtungen nach Unionsrecht oder nationalem Recht angemessen ist.
(1)  Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen. Unbeschadet des geltenden Unionsrechts oder des nationalen Rechts werden die Protokolle mindestens 6 Monate lang aufbewahrt. Die Speicherfrist muss den Industriestandards entsprechen und der Zweckbestimmung des Hochrisiko-KI-Systems angemessen sein.
Abänderung 357
Vorschlag für eine Verordnung
Artikel 21 – Absatz 1
Anbieter von Hochrisiko-KI-Systemen, die der Auffassung sind oder Grund zu der Annahme haben, dass ein von ihnen in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System nicht dieser Verordnung entspricht, ergreifen unverzüglich die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems herzustellen oder es gegebenenfalls zurückzunehmen oder zurückzurufen. Sie setzen die Händler des betreffenden Hochrisiko-KI-Systems und gegebenenfalls den Bevollmächtigten und die Einführer davon in Kenntnis.
Anbieter von Hochrisiko-KI-Systemen, die der Auffassung sind oder Grund zu der Annahme haben, dass ein von ihnen in Verkehr gebrachtes oder in Betrieb genommenes Hochrisiko-KI-System nicht dieser Verordnung entspricht, ergreifen unverzüglich die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems herzustellen oder es gegebenenfalls zurückzunehmen, zu deaktivieren oder zurückzurufen.
In den im Absatz 1 genannten Fällen informieren die Anbieter unverzüglich
a)  die Vertreiber;
b)  die Einführer;
c)  die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das KI-System zur Verfügung gestellt oder in Betrieb genommen haben; sowie
d)  wenn möglich, den Betreiber.
Abänderung 358
Vorschlag für eine Verordnung
Artikel 21 – Absatz 1 a (neu)
Die Anbieter informieren auch den Bevollmächtigten, falls ein solcher gemäß Artikel 25 benannt wurde, und die benannte Stelle, falls das Hochrisiko-KI-System einer Konformitätsbewertung durch Dritte gemäß Artikel 43 unterzogen werden musste. Gegebenenfalls untersuchen sie auch zusammen mit dem Betreiber die Ursachen.
Abänderung 359
Vorschlag für eine Verordnung
Artikel 22 – Absatz 1
Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 und ist dem Anbieter des Systems dieses Risiko bekannt, so informiert dieser Anbieter unverzüglich die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und gegebenenfalls die notifizierte Stelle, die eine Bescheinigung für das Hochrisiko-KI-System ausgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.
Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 und wird sich der Anbieter des Systems dieses Risikos bewusst, so informiert dieser Anbieter unverzüglich die zuständigen nationalen Aufsichtsbehörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und gegebenenfalls die notifizierte Stelle, die eine Bescheinigung für das Hochrisiko-KI-System ausgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Art der Nichtkonformität und zu bereits ergriffenen relevanten Korrekturmaßnahmen.
Abänderung 360
Vorschlag für eine Verordnung
Artikel 22 – Absatz 1 a (neu)
In den im Absatz 1 genannten Fällen informieren die Anbieter eines Hochrisiko-KI-Systems unverzüglich
a)  die Vertreiber;
b)  die Einführer;
c)  die zuständigen nationalen Behörden der Mitgliedstaaten, in denen sie das KI-System zur Verfügung gestellt oder in Betrieb genommen haben; sowie
d)  wenn möglich, die Betreiber.
Abänderung 361
Vorschlag für eine Verordnung
Artikel 22 – Absatz 1 b (neu)
Die Anbieter informieren auch den Bevollmächtigten, falls ein solcher gemäß Artikel 25 benannt wurde.
Abänderung 362
Vorschlag für eine Verordnung
Artikel 23 – Überschrift
Zusammenarbeit mit den zuständigen Behörden
Zusammenarbeit mit den zuständigen Behörden, dem Amt für künstliche Intelligenz und der Kommission
Abänderung 363
Vorschlag für eine Verordnung
Artikel 23 – Absatz 1
Anbieter von Hochrisiko-KI-Systemen übermitteln einer zuständigen nationalen Behörde auf deren Verlangen alle Informationen und Unterlagen, die erforderlich sind, um die Konformität des Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, in einer von dem betreffenden Mitgliedstaat festgelegten Amtssprache der Union. Auf begründetes Verlangen einer zuständigen nationalen Behörde gewähren die Anbieter dieser Behörde auch Zugang zu den von ihrem Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage ihrer Kontrolle unterliegen.
Anbieter und gegebenenfalls Betreiber von Hochrisiko-KI-Systemen übermitteln einer zuständigen nationalen Behörde oder gegebenenfalls dem Amt für künstliche Intelligenz oder der Kommission auf deren begründetes Verlangen alle Informationen und Unterlagen, die erforderlich sind, um die Konformität des Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, in einer von dem betreffenden Mitgliedstaat festgelegten Amtssprache der Union.
Abänderung 364
Vorschlag für eine Verordnung
Artikel 23 – Absatz 1 a (neu)
Auf begründetes Verlangen einer zuständigen nationalen Behörde oder gegebenenfalls der Kommission gewähren die Anbieter und gegebenenfalls die Betreiber der anfragenden zuständigen nationalen Behörde oder der Kommission auch Zugang zu den von dem Hochrisiko-KI-System automatisch erstellten Protokollen, soweit diese Protokolle ihrer Kontrolle unterliegen.
Abänderung 365
Vorschlag für eine Verordnung
Artikel 23 – Absatz 1 b (neu)
Alle Informationen und Unterlagen, in deren Besitz eine zuständige nationale Behörde oder die Kommission auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.
Abänderung 366
Vorschlag für eine Verordnung
Artikel 25 – Absatz 1
(1)  Anbieter, die außerhalb der Union niedergelassen sind, benennen vor der Bereitstellung ihrer Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten, wenn kein Einführer festgestellt werden kann.
(1)  Anbieter, die außerhalb der Union niedergelassen sind, benennen vor der Bereitstellung ihrer Systeme in der Union schriftlich einen in der Union niedergelassenen Bevollmächtigten,.
Abänderung 367
Vorschlag für eine Verordnung
Artikel 25 – Absatz 1 a (neu)
(1a)  Der Bevollmächtigte muss seinen Wohnsitz oder seine Niederlassung in einem der Mitgliedstaaten haben, in denen die Tätigkeiten nach Artikel 2 Absätze 1b und 1c ausgeübt werden.
Abänderung 368
Vorschlag für eine Verordnung
Artikel 25 – Absatz 1 b (neu)
(1b)  Der Anbieter stattet seinen Bevollmächtigten mit den erforderlichen Befugnissen und Ressourcen aus, damit er seine Aufgaben gemäß dieser Verordnung erfüllen kann.
Abänderung 369
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Einleitung
(2)  Der Bevollmächtigte nimmt die Aufgaben wahr, die in seinem vom Anbieter erhaltenen Auftrag festgelegt sind. Der Auftrag ermächtigt den Bevollmächtigten zumindest zur Wahrnehmung folgender Aufgaben:
(2)  Der Bevollmächtigte nimmt die Aufgaben wahr, die in seinem vom Anbieter erhaltenen Auftrag festgelegt sind. Den Marktüberwachungsbehörden wird auf Anfrage eine Kopie des Mandats in einer von der zuständigen nationalen Behörde festgelegten Amtssprache des Organs der Union zur Verfügung gestellt. Für die Zwecke dieser Verordnung ermächtigt der Auftrag den Bevollmächtigten zumindest zur Wahrnehmung folgender Aufgaben:
Abänderung 370
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Buchstabe a
a)  Bereithaltung eines Exemplars der EU-Konformitätserklärung und der technischen Dokumentation für die zuständigen nationalen Behörden und die in Artikel 63 Absatz 7 genannten nationalen Behörden;
a)  sicherstellen, dass die EU-Konformitätserklärung und die technische Dokumentation erstellt wurden und dass ein angemessenes Konformitätsbewertungsverfahren vom Anbieter durchgeführt wurde;
Abänderung 371
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Buchstabe a a (neu)
aa)  Bereithaltung einer Kopie der EU-Konformitätserklärung, der technischen Unterlagen und gegebenenfalls der von der benannten Stelle ausgestellten Bescheinigung für die zuständigen nationalen Behörden und die in Artikel 63 Absatz 7 genannten nationalen Behörden;
Abänderung 372
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Buchstabe b
b)  Übermittlung aller Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, an eine zuständige nationale Behörde auf deren begründetes Verlangen, einschließlich der Gewährung des Zugangs zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage der Kontrolle des Anbieters unterliegen;
b)  Übermittlung aller Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen, an eine zuständige nationale Behörde auf deren begründetes Verlangen, einschließlich der Gewährung des Zugangs zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle der Kontrolle des Anbieters unterliegen;
Abänderung 373
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Buchstabe c
c)  Zusammenarbeit mit den zuständigen nationalen Behörden auf deren begründetes Verlangen bei allen Maßnahmen, die Letztere im Zusammenhang mit dem Hochrisiko-KI-System ergreifen.
c)  Zusammenarbeit mit den nationalen Aufsichtsbehörden auf deren begründetes Verlangen bei allen Maßnahmen, die die Behörde ergreift, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern;
Abänderung 374
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 – Buchstabe c a (neu)
ca)  gegebenenfalls die Einhaltung der Registrierungspflichten im Einklang mit Artikel 51 oder, falls die Registrierung vom Anbieter selbst vorgenommen wird, Sicherstellung der Richtigkeit der in Anhang VIII Nummer 3 genannten Angaben.
Abänderung 375
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 a (neu)
(2a)  Der Bevollmächtigte wird beauftragt, sich neben oder anstelle des Anbieters insbesondere an die nationale Aufsichtsbehörde oder die zuständigen nationalen Behörden in allen Fragen zu wenden, die die Einhaltung dieser Verordnung betreffen.
Abänderung 376
Vorschlag für eine Verordnung
Artikel 25 – Absatz 2 b (neu)
(2b)  Der Bevollmächtigte beendet den Auftrag, wenn er der Auffassung ist oder Grund zu der Annahme hat, dass der Anbieter gegen seine Verpflichtungen aus dieser Verordnung verstößt. In diesem Fall unterrichtet er ferner unverzüglich die nationale Aufsichtsbehörde des Mitgliedstaats, in dem er niedergelassen ist, und gegebenenfalls die betreffende notifizierte Stelle über die Beendigung des Auftrags und deren Gründe.
Abänderung 377
Vorschlag für eine Verordnung
Artikel 26 – Absatz 1 – Einleitung
(1)  Bevor sie ein Hochrisiko-KI-System in Verkehr bringen, stellen die Einführer solcher Systeme sicher, dass
(1)  Bevor sie ein Hochrisiko-KI-System in Verkehr bringen, stellen die Einführer solcher Systeme sicher, dass die Systeme dieser Verordnung entsprechen, indem sie sicherstellen, dass
Abänderung 378
Vorschlag für eine Verordnung
Artikel 26 – Absatz 1 – Buchstabe a
a)  der Anbieter des KI-Systems das betreffende Konformitätsbewertungsverfahren durchgeführt hat;
a)  der Anbieter des KI-Systems das entsprechende Konformitätsbewertungsverfahren nach Artikel 43 durchgeführt hat;
Abänderung 379
Vorschlag für eine Verordnung
Artikel 26 – Absatz 1 – Buchstabe b
b)  der Anbieter die technische Dokumentation gemäß Anhang IV erstellt hat;
b)  der Anbieter die technische Dokumentation gemäß Artikel 11 und Anhang IV erstellt hat;
Abänderung 380
Vorschlag für eine Verordnung
Artikel 26 – Absatz 1 – Buchstabe c a (neu)
ca)  gegebenenfalls der Anbieter einen bevollmächtigten Vertreter gemäß Artikel 25 Absatz 1 bestellt hat.
Abänderung 381
Vorschlag für eine Verordnung
Artikel 26 – Absatz 2
(2)  Ist ein Einführer der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht dieser Verordnung entspricht, so bringt er dieses Hochrisiko-KI-System erst in Verkehr, nachdem die Konformität dieses Systems hergestellt worden ist. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Einführer den Anbieter des KI-Systems und die Marktüberwachungsbehörden davon in Kenntnis.
(2)  Ist ein Einführer der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht dieser Verordnung entspricht oder gefälscht ist oder diesem gefälschte Unterlagen beigefügt sind, so bringt er dieses Hochrisiko-KI-System erst in Verkehr, nachdem die Konformität dieses Systems hergestellt worden ist. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Einführer den Anbieter des KI-Systems und die Marktüberwachungsbehörden davon in Kenntnis.
Abänderung 382
Vorschlag für eine Verordnung
Artikel 26 – Absatz 3
(3)  Die Einführer geben ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift auf dem Hochrisiko-KI-System selbst oder, wenn dies nicht möglich ist, auf der Verpackung oder in der beigefügten Dokumentation an.
(3)  Die Einführer geben ihren Namen, ihren eingetragenen Handelsnamen oder ihre eingetragene Handelsmarke und ihre Kontaktanschrift auf dem Hochrisiko-KI-System selbst und gegebenenfalls auf der Verpackung oder in der beigefügten Dokumentation an.
Abänderung 383
Vorschlag für eine Verordnung
Artikel 26 – Absatz 5
(5)  Die Einführer übermitteln den zuständigen nationalen Behörden auf deren begründetes Verlangen alle Informationen und Unterlagen zum Nachweis der Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels in einer Sprache, die für die betreffende zuständige nationale Behörde leicht verständlich ist, und gewähren ihr Zugang zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle aufgrund einer vertraglichen Vereinbarung mit dem Nutzer oder auf gesetzlicher Grundlage der Kontrolle des Anbieters unterliegen. Sie arbeiten außerdem mit diesen Behörden bei allen Maßnahmen zusammen, die eine zuständige nationale Behörde im Zusammenhang mit diesem System ergreift.
(5)  Die Einführer übermitteln den zuständigen nationalen Behörden auf deren begründetes Verlangen alle Informationen und Unterlagen zum Nachweis der Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels in einer Sprache, die für sie leicht verständlich ist, und gewähren ihr Zugang zu den vom Hochrisiko-KI-System automatisch erzeugten Protokollen, soweit diese Protokolle der Kontrolle des Anbieters gemäß Artikel 20 unterliegen.
Abänderung 384
Vorschlag für eine Verordnung
Artikel 26 – Absatz 5 a (neu)
(5a)  Die Einführer arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden ergreifen, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern.
Abänderung 385
Vorschlag für eine Verordnung
Artikel 27 – Absatz 1
(1)  Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob das Hochrisiko-KI-System mit der erforderlichen CE-Konformitätskennzeichnung versehen ist, ob ihm die erforderliche Dokumentation und Gebrauchsanweisung beigefügt sind und ob der Anbieter bzw. gegebenenfalls der Einführer des Systems die in dieser Verordnung festgelegten Pflichten erfüllt hat.
(1)  Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob das Hochrisiko-KI-System mit der erforderlichen CE-Konformitätskennzeichnung versehen ist, ob ihm die erforderliche Dokumentation und Gebrauchsanweisung beigefügt sind und ob der Anbieter bzw. gegebenenfalls der Einführer des Systems seine in Artikel 16 und Artikel 26 Absatz 3 dieser Verordnung festgelegten Pflichten erfüllt hat.
Abänderung 386
Vorschlag für eine Verordnung
Artikel 27 – Absatz 2
(2)  Ist ein Händler der Auffassung oder hat er Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, so stellt er das Hochrisiko-KI-System erst auf dem Markt bereit, nachdem die Konformität mit den Anforderungen hergestellt worden ist. Birgt das System zudem ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Händler den Anbieter bzw. den Einführer des Systems davon in Kenntnis.
(2)  Ist ein Händler der Auffassung oder hat er aufgrund von Informationen, die ihm zur Verfügung stehen, Grund zu der Annahme, dass ein Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, so stellt er das Hochrisiko-KI-System erst auf dem Markt bereit, nachdem die Konformität mit den Anforderungen hergestellt worden ist. Birgt das System zudem ein Risiko im Sinne des Artikels 65 Absatz 1, so setzt der Händler den Anbieter bzw. den Einführer des Systems und die betreffende zuständige nationale Behörde davon in Kenntnis.
Abänderung 387
Vorschlag für eine Verordnung
Artikel 27 – Absatz 4
(4)  Ein Händler, der der Auffassung ist oder Grund zu der Annahme hat, dass ein von ihm auf dem Markt bereitgestelltes Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, ergreift die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems mit diesen Anforderungen herzustellen, es zurückzunehmen oder zurückzurufen, oder er stellt sicher, dass der Anbieter, der Einführer oder gegebenenfalls jeder relevante Akteur diese Korrekturmaßnahmen ergreift. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so informiert der Händler unverzüglich die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.
(4)  Ein Händler, der aufgrund von Informationen, die ihm zur Verfügung stehen, der Auffassung ist oder Grund zu der Annahme hat, dass ein von ihm auf dem Markt bereitgestelltes Hochrisiko-KI-System nicht den Anforderungen in Kapitel 2 dieses Titels entspricht, ergreift die erforderlichen Korrekturmaßnahmen, um die Konformität dieses Systems mit diesen Anforderungen herzustellen, es zurückzunehmen oder zurückzurufen, oder er stellt sicher, dass der Anbieter, der Einführer oder gegebenenfalls jeder relevante Akteur diese Korrekturmaßnahmen ergreift. Birgt das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1, so informiert der Händler unverzüglich den Anbieter bzw. den Einführer des Systems sowie die zuständigen nationalen Behörden der Mitgliedstaaten, in denen er das System bereitgestellt hat, und macht dabei ausführliche Angaben, insbesondere zur Nichtkonformität und zu bereits ergriffenen Korrekturmaßnahmen.
Abänderung 388
Vorschlag für eine Verordnung
Artikel 27 – Absatz 5
(5)  Auf begründetes Verlangen einer zuständigen nationalen Behörde übermitteln die Händler von Hochrisiko-KI-Systemen dieser Behörde alle Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen. Die Händler arbeiten außerdem mit dieser zuständigen nationalen Behörde bei allen von dieser Behörde ergriffenen Maßnahmen zusammen.
(5)  Auf begründetes Verlangen einer zuständigen nationalen Behörde übermitteln die Händler von Hochrisiko-KI-Systemen dieser Behörde im Einklang mit den Pflichten der Händler gemäß Absatz 1 alle sich in ihrem Besitz befindenden oder ihnen zur Verfügung stehenden Informationen und Unterlagen, die erforderlich sind, um die Konformität eines Hochrisiko-KI-Systems mit den Anforderungen in Kapitel 2 dieses Titels nachzuweisen.
Abänderung 389
Vorschlag für eine Verordnung
Artikel 27 – Absatz 5 a (neu)
(5a)  Die Händler arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden ergreifen, um die von dem Hochrisiko-KI-System ausgehenden Risiken zu verringern und abzumildern.
Abänderung 390
Vorschlag für eine Verordnung
Artikel 28 – Überschrift
Pflichten der Händler, Einführer, Nutzer oder sonstiger Dritter
Verantwortlichkeiten entlang der KI-Wertschöpfungskette der Anbieter, Händler, Einführer, Betreiber oder anderer Drittparteien
Abänderung 391
Vorschlag für eine Verordnung
Artikel 28 – Absatz 1 – Einleitung
(1)  In den folgenden Fällen gelten Händler, Einführer, Nutzer oder sonstige Dritte als Anbieter für die Zwecke dieser Verordnung und unterliegen den Anbieterpflichten gemäß Artikel 16:
(1)  In den folgenden Fällen gelten Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines Hochrisiko-KI-Systems für die Zwecke dieser Verordnung und unterliegen den Anbieterpflichten gemäß Artikel 16:
Abänderung 392
Vorschlag für eine Verordnung
Artikel 28 – Absatz 1 – Buchstabe a
a)  wenn sie ein Hochrisiko-KI-System unter ihrem Namen oder ihrer Marke in Verkehr bringen oder in Betrieb nehmen;
a)  wenn sie ihren Namen oder ihr Markenzeichen auf ein Hochrisiko-KI-System setzen, das bereits in Verkehr gebracht oder in Betrieb genommen wurde;
Abänderung 393
Vorschlag für eine Verordnung
Artikel 28 – Absatz 1 – Buchstabe b
b)  wenn sie die Zweckbestimmung eines bereits im Verkehr befindlichen oder in Betrieb genommenen Hochrisiko-KI-Systems verändern;
b)  wenn sie eine wesentliche Änderung an einem Hochrisiko-KI-System vornehmen, das bereits in Verkehr gebracht oder in Betrieb genommen wurde, und zwar so, dass es weiterhin ein Hochrisiko-KI-System im Sinne von Artikel 6 bleibt;
Abänderung 394
Vorschlag für eine Verordnung
Artikel 28 – Absatz 1 – Buchstabe b a (neu)
ba)  wenn sie ein KI-System, einschließlich eines KI-Systems für allgemeine Zwecke, das nicht als Hochrisiko-KI-System eingestuft wurde und bereits in Verkehr gebracht oder in Betrieb genommen wurde, so wesentlich verändern, dass das KI-System zu einem Hochrisiko-KI-System im Sinne von Artikel 6 wird
Abänderung 395
Vorschlag für eine Verordnung
Artikel 28 – Absatz 2
(2)  Unter den in Absatz 1 Buchstabe b oder c genannten Umständen gilt der Anbieter, der das Hochrisiko-KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter für die Zwecke dieser Verordnung.
(2)  Unter den in Absatz 1 Buchstaben a bis ba genannten Umständen gilt der Anbieter, der das KI-System ursprünglich in Verkehr gebracht oder in Betrieb genommen hatte, nicht mehr als Anbieter dieses spezifischen KI-Systems für die Zwecke dieser Verordnung. Dieser ehemalige Anbieter stellt dem neuen Anbieter die technische Dokumentation und alle anderen relevanten und vernünftigerweise zu erwartenden Informationen und Fähigkeiten des KI-Systems, den technischen Zugang oder sonstige Unterstützung auf der Grundlage des allgemein anerkannten Stands der Technik zur Verfügung, die für die Erfüllung der in dieser Verordnung festgelegten Verpflichtungen erforderlich sind.
Dieser Absatz gilt auch für Anbieter von Basismodellen im Sinne von Artikel 3, wenn das Basismodell direkt in ein Hochrisiko-KI-System integriert ist.
Abänderung 396
Vorschlag für eine Verordnung
Artikel 28 – Absatz 2 a (neu)
(2a)  Der Anbieter eines Hochrisiko-KI-Systems und der Dritte, der Werkzeuge, Dienste, Komponenten oder Verfahren bereitstellt, die in dem Hochrisiko-KI-System verwendet oder integriert werden, legen in einer schriftlichen Vereinbarung fest, welche Informationen, Fähigkeiten, technischen Zugang und/oder sonstige Unterstützung nach dem allgemein anerkannten Stand der Technik der Dritte bereitstellen muss, damit der Anbieter des Hochrisiko-KI-Systems die Verpflichtungen im Rahmen dieser Verordnung vollständig erfüllen kann.
Die Kommission entwickelt und empfiehlt unverbindliche Mustervertragsbedingungen zwischen Anbietern von Hochrisiko-KI-Systemen und Dritten, die Werkzeuge, Dienstleistungen, Komponenten oder Prozesse liefern, die in Hochrisiko-KI-Systemen verwendet oder integriert werden, um beide Parteien bei der Ausarbeitung und Aushandlung von Verträgen mit ausgewogenen vertraglichen Rechten und Pflichten zu unterstützen, die dem Kontrollniveau jeder Partei entsprechen. Bei der Ausarbeitung unverbindlicher Mustervertragsbedingungen berücksichtigt die Kommission mögliche vertragliche Anforderungen, die in bestimmten Sektoren oder Geschäftsfällen gelten. Die unverbindlichen Vertragsbedingungen werden auf der Website des Amts für künstliche Intelligenz veröffentlicht und sind dort kostenlos in einem leicht nutzbaren elektronischen Format verfügbar.
Abänderung 397
Vorschlag für eine Verordnung
Artikel 28 – Absatz 2 b (neu)
(2b)  Für die Zwecke dieses Artikels sind Geschäftsgeheimnisse zu wahren und werden nur offengelegt, wenn vorab alle besonderen Maßnahmen gemäß der Richtlinie (EU) 2016/943 getroffen worden sind, die erforderlich sind, um ihre Vertraulichkeit, insbesondere gegenüber Dritten, zu wahren. Bei Bedarf können geeignete technische und organisatorische Vorkehrungen getroffen werden, um geistige Eigentumsrechte oder Geschäftsgeheimnisse zu schützen.
Abänderung 398
Vorschlag für eine Verordnung
Artikel 28 a (neu)
Artikel 28a
Missbräuchliche Vertragsklauseln, die einem KMU oder einem Startup einseitig auferlegt werden
(1)  Eine Vertragsklausel über die Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, oder über die Abhilfemaßnahmen im Falle eines Verstoßes oder der Beendigung damit verbundener Verpflichtungen, die ein Unternehmen einem KMU oder einem Start-up einseitig auferlegt hat, ist für letzteres Unternehmen nicht bindend, wenn sie missbräuchlich ist.
(2)  Eine Vertragsbedingung gilt nicht als missbräuchlich, wenn sie aus anwendbarem EU-Recht hervorgeht.
(3)  Eine Vertragsklausel ist missbräuchlich, wenn sie so beschaffen ist, dass sie objektiv die Fähigkeit der Partei, der die Klausel einseitig auferlegt wurde, beeinträchtigt, ihre berechtigten geschäftlichen Interessen an den betreffenden Informationen zu schützen, oder wenn ihre Verwendung grob von der guten Geschäftspraxis bei der Lieferung von Werkzeugen, Dienstleistungen, Komponenten oder Verfahren, die in einem Hochrisiko-KI-System verwendet oder integriert werden, abweicht und gegen Treu und Glauben verstößt oder ein erhebliches Ungleichgewicht zwischen den Rechten und Pflichten der Vertragsparteien schafft. Eine Vertragsklausel ist auch dann missbräuchlich, wenn sie dazu führt, dass die in Artikel 71 genannten Vertragsstrafen oder die damit verbundenen Prozesskosten auf die Vertragsparteien verlagert werden, wie in Artikel 71 Absatz 8 beschrieben.
(4)  Eine Vertragsklausel ist missbräuchlich im Sinne dieses Artikels, wenn sie Folgendes bezweckt oder bewirkt:
a)  den Ausschluss oder die Beschränkung der Haftung der Partei, die die Klausel einseitig auferlegt hat, für vorsätzliche oder grob fahrlässige Handlungen;
b)  den Ausschluss der Rechtsbehelfe, die der Partei, der die Klausel einseitig auferlegt wurde, bei Nichterfüllung von Vertragspflichten zur Verfügung stehen, oder den Ausschluss der Haftung der Partei, die die Klausel einseitig auferlegt hat, bei einer Verletzung solcher Pflichten;
c)  das ausschließliche Recht der Partei, die die Klausel einseitig auferlegt hat, zu bestimmen, ob die gelieferten technischen Unterlagen und Informationen vertragsgemäß sind, oder eine Vertragsklausel auszulegen.
(5)  Eine Vertragsklausel gilt im Sinne dieses Artikels als einseitig auferlegt, wenn sie von einer Vertragspartei eingebracht wird und die andere Vertragspartei ihren Inhalt trotz des Versuchs, hierüber zu verhandeln, nicht beeinflussen kann. Die Vertragspartei, die eine Vertragsklausel eingebracht hat, trägt die Beweislast dafür, dass diese Klausel nicht einseitig auferlegt wurde.
(6)  Ist die missbräuchliche Vertragsklausel von den übrigen Bedingungen des Vertrags abtrennbar, so bleiben die übrigen Vertragsbedingungen bindend. Die Partei, die die beanstandete Klausel vorgelegt hat, kann sich nicht darauf berufen, dass es sich um eine missbräuchliche Klausel handelt.
(7)  Dieser Artikel gilt für alle neuen Verträge nach dem ... [Bitte Datum des Inkrafttretens dieser Verordnung einfügen]. Die Unternehmen überprüfen bestehende vertragliche Verpflichtungen, die unter diese Verordnung fallen, bis zum Jahr ... [drei Jahre nach Inkrafttreten dieser Verordnung].
(8)  Angesichts der Geschwindigkeit, in der Innovationen auf den Märkten auftreten, wird die Liste der missbräuchlichen Vertragsklauseln in Artikel 28 Absatz a regelmäßig von der Kommission überprüft und erforderlichenfalls entsprechend den neuen Geschäftspraktiken aktualisiert.
Abänderung 399
Vorschlag für eine Verordnung
Artikel 28 b (neu)
Artikel 28 b
Pflichten des Anbieters eines Basismodells
(1)  Ein Anbieter eines Basismodells muss, bevor er es auf dem Markt bereitstellt oder in Betrieb nimmt, sicherstellen, dass es den in diesem Artikel festgelegten Anforderungen entspricht, unabhängig davon, ob es als eigenständiges Modell oder eingebettet in ein KI-System oder ein Produkt oder unter freien und Open-Source-Lizenzen als Dienstleistung sowie über andere Vertriebskanäle bereitgestellt wird.
(2)  Für die Zwecke von Absatz 1 muss der Anbieter eines Basismodells
a)  durch geeignete Planung, Erprobung und Analyse die Identifizierung, Verringerung und Abschwächung von vernünftigerweise vorhersehbaren Risiken für Gesundheit, Sicherheit, Grundrechte, Umwelt sowie Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden, z. B. unter Einbeziehung unabhängiger Experten, sowie die Dokumentation der verbleibenden nicht abwendbaren Risiken nach der Entwicklung nachweisen;
b)  nur Datensätze verarbeiten und einbeziehen, die angemessenen Data-Governance-Maßnahmen für Basismodelle unterliegen, insbesondere Maßnahmen zur Prüfung der Eignung der Datenquellen und möglicher Verzerrungen und geeigneter Abhilfemaßnahmen;
c)  das Basismodell so konzipieren und entwickeln, dass während seines gesamten Lebenszyklus ein angemessenes Niveau an Leistung, Vorhersagbarkeit, Interpretierbarkeit, Korrigierbarkeit, Sicherheit und Cybersicherheit erreicht wird, das mit Hilfe geeigneter Methoden wie der Modellevaluierung unter Einbeziehung unabhängiger Experten, dokumentierter Analysen und umfassender Tests während der Konzeption, des Entwurfs und der Entwicklung bewertet wird;
d)  das Basismodell unter Verwendung der geltenden Normen zur Verringerung des Energieverbrauchs, des Ressourcenverbrauchs und des Abfalls sowie zur Steigerung der Energieeffizienz und der Gesamteffizienz des Systems entwerfen und entwickeln, unbeschadet des geltenden Unionsrechts und des nationalen Rechts. Diese Verpflichtung gilt nicht vor der Veröffentlichung der in Artikel 40 genannten Normen. Basismodelle müssen so konzipiert sein, dass der Energieverbrauch sowie der Verbrauch anderer Ressourcen und andere Umweltauswirkungen, die der Einsatz und die Nutzung der Systeme während ihres gesamten Lebenszyklus haben kann, gemessen und aufgezeichnet werden können;
e)  eine umfassende technische Dokumentation und verständliche Gebrauchsanweisungen erstellen, damit die nachgeschalteten Anbieter ihren Verpflichtungen gemäß Artikel 16 und 28 Absatz 1 nachkommen können;
f)  ein Qualitätsmanagementsystem einrichten, um die Einhaltung dieses Artikels sicherzustellen und zu dokumentieren, mit der Möglichkeit, bei der Erfüllung dieser Anforderung zu experimentieren;
g)  dieses Basismodell gemäß den Anweisungen in Anhang VIII Punkt C in der in Artikel 60 genannten EU-Datenbank registrieren.
Bei der Erfüllung dieser Anforderungen ist der allgemein anerkannte Stand der Technik zu berücksichtigen, der auch in den einschlägigen harmonisierten Normen oder gemeinsamen Spezifikationen zum Ausdruck kommt, sowie die neuesten Bewertungs- und Messmethoden, die insbesondere in den in Artikel 58 Absatz a genannten Benchmarking-Leitlinien und Fähigkeiten zum Ausdruck kommen;
(3)  Anbieter von Basismodellen halten die in Absatz 2 Buchstabe e genannten technischen Unterlagen während eines Zeitraums, der 10 Jahre nach dem Inverkehrbringen oder der Inbetriebnahme ihrer Basismodelle endet, für die zuständigen nationalen Behörden bereit.
(4)  Anbieter von Basismodellen, die in KI-Systemen verwendet werden, die speziell dazu bestimmt sind, mit unterschiedlichem Grad an Autonomie Inhalte wie komplexe Texte, Bilder, Audio- oder Videodateien zu generieren („generative KI“), sowie Anbieter, die ein Basismodell in ein generatives KI-System integrieren, müssen zusätzlich
a)  den in Artikel 52 Absatz 1 genannten Transparenzpflichten nachkommen;
b)  das Basismodell so gestalten und gegebenenfalls weiterentwickeln, dass ein angemessener Schutz gegen die Erzeugung von Inhalten, die gegen das Unionsrecht verstoßen, nach dem allgemein anerkannten Stand der Technik und unbeschadet der Grundrechte, einschließlich des Rechts auf freie Meinungsäußerung, sichergestellt ist;
c)  unbeschadet der Rechtsvorschriften der Union oder der Mitgliedstaaten oder der Union zum Urheberrecht eine hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Ausbildungsdaten dokumentieren und öffentlich zugänglich machen.
Abänderung 400
Vorschlag für eine Verordnung
Artikel 29 – Absatz 1
(1)  Die Nutzer von Hochrisiko-KI-Systemen verwenden solche Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisung und gemäß den Absätzen 2 und 5.
(1)  Die Betreiber von Hochrisiko-KI-Systemen treffen geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass sie solche Systeme entsprechend der den Systemen beigefügten Gebrauchsanweisungen und gemäß den Absätzen 2 und 5 dieses Artikels verwenden.
Abänderung 401
Vorschlag für eine Verordnung
Artikel 29 – Absatz 1 a (neu)
(1a)  In dem Maße, in dem die Betreiber die Kontrolle über das Hochrisiko-KI-System ausüben, müssen sie
i)  eine menschliche Aufsicht gemäß den in dieser Verordnung festgelegten Anforderungen sicherstellen;
ii)  sicherstellen, dass die mit der menschlichen Aufsicht über die Hochrisiko-KI-Systeme betrauten natürlichen Personen kompetent, angemessen qualifiziert und geschult sind und über die erforderlichen Ressourcen verfügen, um die wirksame Überwachung des KI-Systems gemäß Artikel 14 sicherzustellen;
iii)  sicherstellen, dass die einschlägigen und angemessenen Maßnahmen zur Robustheit und Cybersicherheit regelmäßig auf ihre Wirksamkeit hin überprüft und regelmäßig angepasst oder aktualisiert werden.
Abänderung 402
Vorschlag für eine Verordnung
Artikel 29 – Absatz 2
(2)  Die Pflichten nach Absatz 1 lassen sonstige Pflichten der Nutzer nach Unionsrecht oder nationalem Recht sowie das Ermessen der Nutzer bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.
(2)  Die Pflichten nach Absatz 1 und 1a lassen sonstige Pflichten der Betreiber nach Unionsrecht oder nationalem Recht sowie das Ermessen der Betreiber bei der Organisation ihrer eigenen Ressourcen und Tätigkeiten zur Wahrnehmung der vom Anbieter angegebenen Maßnahmen der menschlichen Aufsicht unberührt.
Abänderung 403
Vorschlag für eine Verordnung
Artikel 29 – Absatz 3
(3)  Unbeschadet des Absatzes 1 und soweit die Eingabedaten seiner Kontrolle unterliegen, sorgen die Nutzer dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems entsprechen.
(3)  Unbeschadet der Absätze 1 und 1a und soweit die Eingabedaten seiner Kontrolle unterliegen, sorgen die Betreiber dafür, dass die Eingabedaten der Zweckbestimmung des Hochrisiko-KI-Systems relevant und ausreichend repräsentativ sind.
Abänderung 404
Vorschlag für eine Verordnung
Artikel 29 – Absatz 4 – Einleitung
(4)  Die Nutzer überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie den Anbieter oder Händler und setzen die Verwendung des Systems aus. Sie informieren den Anbieter oder Händler auch, wenn sie einen schwerwiegenden Vorfall oder eine Fehlfunktion im Sinne des Artikels 62 festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Nutzer den Anbieter nicht erreichen, so gilt Artikel 62 entsprechend.
(4)  Die Betreiber überwachen den Betrieb des Hochrisiko-KI-Systems anhand der Gebrauchsanweisung und informieren gegebenenfalls die Anbieter gemäß Artikel 61. Haben sie Grund zu der Annahme, dass die Verwendung gemäß der Gebrauchsanweisung dazu führen kann, dass das Hochrisiko-KI-System ein Risiko im Sinne des Artikels 65 Absatz 1 birgt, so informieren sie unverzüglich den Anbieter oder Händler und die zuständigen nationalen Aufsichtsbehörden und setzen die Verwendung des Systems aus. Sie informieren unverzüglich zunächst den Anbieter und dann den Einführer oder Händler sowie die zuständigen nationalen Aufsichtsbehörden, wenn sie einen schwerwiegenden Vorfall oder eine Fehlfunktion im Sinne des Artikels 62 festgestellt haben, und unterbrechen die Verwendung des KI-Systems. Kann der Betreiber den Anbieter nicht erreichen, so gilt Artikel 62 entsprechend.
Abänderung 405
Vorschlag für eine Verordnung
Artikel 29 – Absatz 4 –Unterabsatz 1
Bei Nutzern, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, gilt die in Unterabsatz 1 vorgesehene Überwachungspflicht als erfüllt, wenn die Vorschriften über Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie eingehalten werden.
Bei Betreibern, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, gilt die in Unterabsatz 1 vorgesehene Überwachungspflicht als erfüllt, wenn die Vorschriften über Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie eingehalten werden.
Abänderung 406
Vorschlag für eine Verordnung
Artikel 29 – Absatz 5 – Einleitung
(5)  Nutzer von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen. Die Protokolle werden für einen Zeitraum aufbewahrt, der der Zweckbestimmung des Hochrisiko-KI-Systems und den geltenden rechtlichen Verpflichtungen nach Unionsrecht oder nationalem Recht angemessen ist.
(5)  Betreiber von Hochrisiko-KI-Systemen bewahren die von ihrem Hochrisiko-KI-System automatisch erzeugten Protokolle auf, soweit diese Protokolle ihrer Kontrolle unterliegen und erforderlich sind, um die Einhaltung dieser Verordnung sicherzustellen und nachzuweisen, um Ex-post-Prüfungen von vernünftigerweise vorhersehbaren Fehlfunktionen, Zwischenfällen oder Missbräuchen des Systems durchzuführen oder um das ordnungsgemäße Funktionieren des Systems während seines gesamten Lebenszyklus sicherzustellen und zu überwachen. Unbeschadet des geltenden Unionsrechts oder nationalen Rechts sind die Protokolle mindestens sechs Monate lang aufzubewahren. Die Speicherfrist muss den Industriestandards entsprechen und der Zweckbestimmung des Hochrisiko-KI-Systems angemessen sein.
Abänderung 407
Vorschlag für eine Verordnung
Artikel 29 – Absatz 5 – Unterabsatz 1
Nutzer, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, bewahren die Protokolle als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie auf.
Betreiber, die Kreditinstitute im Sinne der Richtlinie 2013/36/EU sind, bewahren die Protokolle als Teil ihrer Dokumentation über die Regelungen, Verfahren und Mechanismen der internen Unternehmensführung gemäß Artikel 74 der genannten Richtlinie auf.
Abänderung 408
Vorschlag für eine Verordnung
Artikel 29 – Absatz 5 a (neu)
(5a)  Vor der Inbetriebnahme oder Nutzung eines Hochrisiko-KI-Systems am Arbeitsplatz konsultieren die Betreiber die Arbeitnehmervertreter, um eine Vereinbarung gemäß der Richtlinie 2002/14/EG zu erzielen, und informieren die betroffenen Arbeitnehmer darüber, dass sie dem System unterliegen werden.
Abänderung 409
Vorschlag für eine Verordnung
Artikel 29 – Absatz 5 b (neu)
(5b)  Betreiber von Hochrisiko-KI-Systemen, bei denen es sich um Behörden oder Organe, Einrichtungen, Ämter und Agenturen der Union oder Unternehmen im Sinne von Artikel 51 Absatz 1a Buchstabe b handelt, müssen den Registrierungspflichten gemäß Artikel 51 nachkommen.
Abänderung 410
Vorschlag für eine Verordnung
Artikel 29 – Absatz 6
(6)  Die Nutzer von Hochrisiko-KI-Systemen verwenden die gemäß Artikel 13 bereitgestellten Informationen, um gegebenenfalls ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen.
(6)  Gegebenenfalls verwenden Betreiber von Hochrisiko-KI-Systemen die gemäß Artikel 13 bereitgestellten Informationen, um ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen, deren Zusammenfassung unter Berücksichtigung der spezifischen Nutzung und des spezifischen Kontexts, in dem das KI-System eingesetzt werden soll, veröffentlicht wird. Betreiber können bei der Erfüllung einiger der in diesem Artikel genannten Verpflichtungen teilweise auf diese Datenschutz-Folgenabschätzungen zurückgreifen, sofern die Datenschutz-Folgenabschätzungen diese Verpflichtungen erfüllen.
Abänderung 411
Vorschlag für eine Verordnung
Artikel 29 – Absatz 6 a (neu)
(6a)  Unbeschadet des Artikels 52 informieren die Betreiber der in Anhang III genannten Hochrisiko-KI-Systeme, die Entscheidungen in Bezug auf natürliche Personen treffen oder dabei helfen, Entscheidungen zu treffen, die natürlichen Personen darüber, dass sie dem Hochrisiko-KI-System unterliegen. Die betreffenden Informationen umfassen seine Zweckbestimmung und die Art der Entscheidungen, die davon getroffen werden. Der Betreiber informiert die natürliche Person auch über ihr Recht auf eine Erklärung gemäß Artikel 68c.
Abänderung 412
Vorschlag für eine Verordnung
Artikel 29 – Absatz 6 b (neu)
(6b)  Die Betreiber arbeiten mit den zuständigen nationalen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit dem Hochrisikosystem zur Umsetzung dieser Verordnung ergreifen.
Abänderung 413
Vorschlag für eine Verordnung
Artikel 29 a (neu)
Artikel 29a
Folgenabschätzung im Hinblick auf die Grundrechte für Hochrisiko-KI-Systeme
Vor der Inbetriebnahme eines Hochrisiko-KI-Systems im Sinne von Artikel 6 Absatz 2, mit Ausnahme von KI-Systemen, die für den Einsatz im Bereich 2 des Anhangs III bestimmt sind, führen die Betreiber eine Bewertung der Auswirkungen des Systems in dem konkreten Kontext seiner Anwendung durch. Diese Bewertung muss mindestens Folgendes umfassen:
a)  eine klare Darstellung des beabsichtigten Verwendungszwecks des Systems;
b)  eine klare Darstellung des geplanten geografischen und zeitlichen Anwendungsbereichs des Systems;
c)  die Kategorisierung der natürlichen Personen und Gruppen, die von der Verwendung des Systems betroffen sein könnten;
d)  die Prüfung und Bestätigung, dass die Verwendung des Systems dem Unionsrecht und den nationalen Rechtsvorschriften sowie den Grundrechten entspricht;
e)  die vernünftigerweise vorhersehbaren Auswirkungen der Inbetriebnahme des Hochrisiko-KI-Systems auf die Grundrechte;
f)  spezifische Schadensrisiken, die sich auf marginalisierte Personen oder schutzbedürftige Gruppen auswirken könnte;
g)  die vernünftigerweise vorhersehbaren negativen Auswirkungen der Nutzung des Systems auf die Umwelt;
h)  einen ausführlichen Plan, wie das erkannte Schadensrisiko sowie die negativen Auswirkungen auf die Grundrechte gemindert werden sollen.
j)  das Governance-System, das der Betreiber einsetzen wird, einschließlich menschlicher Überwachung, Bearbeitung von Beschwerden und Rechtsbehelfen.
(2)  Wenn kein ausführlicher Plan zur Minderung der im Zuge der Bewertung nach Absatz 1 beschriebenen Risiken bestimmt werden kann, sieht der Betreiber von der Inbetriebnahme des Hochrisiko-KI-Systems ab und informiert unverzüglich den Anbieter und die nationale Aufsichtsbehörde. Im Einklang mit den Artikeln 65 und 67 berücksichtigen die Aufsichtsbehörden diese Informationen bei der Untersuchung von Systemen, die auf nationaler Ebene ein Risiko darstellen.
(3)  Die in Absatz 1 beschriebene Verpflichtung gilt für die erste Verwendung eines Hochrisiko-KI-Systems. Der Betreiber kann in ähnlichen Fällen auf eine zuvor durchgeführte Folgenabschätzung für die allgemeinen Grundrechte oder eine bereits vorhandene Prüfung durch die Anbieter zurückgreifen. Ist der Betreiber während des Einsatzes des Hochrisiko-KI-Systems der Ansicht, dass die in Absatz 1 genannten Kriterien nicht mehr erfüllt sind, führt er eine neue Folgenabschätzung für die allgemeinen Grundrechte durch.
(4)  Im Verlauf der Folgenabschätzung benachrichtigt der Betreiber, mit Ausnahme von KMU, die nationale Aufsichtsbehörde und die relevanten Interessenträger und bezieht so weit wie möglich Vertreter der Personen oder Personengruppen ein, die von dem Hochrisiko-KI-System gemäß Absatz 1 betroffen sein könnten, einschließlich, aber nicht beschränkt auf: Gleichstellungsstellen, Verbraucherschutzbehörden, Sozialpartner und Datenschutzbehörden, um Beiträge zur Folgenabschätzung zu erhalten. Der Betreiber räumt den Stellen eine Frist von sechs Wochen für ihre Antwort ein. KMU können die in diesem Absatz festgelegten Bestimmungen freiwillig anwenden.
In dem in Artikel 47 Absatz 1 genannten Fall können öffentliche Stellen von dieser Verpflichtung befreit werden.
(5)  Ein Betreiber, bei dem es sich um eine Behörde oder ein Unternehmen im Sinne von Artikel 51 Absatz 1a Buchstabe b handelt, veröffentlicht eine Zusammenfassung der Ergebnisse der Folgenabschätzung als Teil der Registrierung der Nutzung gemäß seiner Verpflichtung nach Artikel 51 Absatz 2.
(6)  Ist der Betreiber bereits verpflichtet, eine Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 durchzuführen, wird die Folgenabschätzung für die allgemeinen Grundrechte gemäß Absatz 1 in Verbindung mit der Datenschutz-Folgenabschätzung durchgeführt und als Zusatz veröffentlicht. Die Datenschutz-Folgenabschätzung wird als Nachtrag veröffentlicht.
Abänderung 414
Vorschlag für eine Verordnung
Artikel 30 – Absatz 1
(1)  Jeder Mitgliedstaat sorgt für die Benennung oder Schaffung einer notifizierenden Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist.
(1)  Jeder Mitgliedstaat sorgt für die Benennung oder Schaffung einer notifizierenden Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren zur Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist. Diese Verfahren werden in Zusammenarbeit zwischen den notifizierenden Behörden aller Mitgliedstaaten entwickelt.
Abänderung 415
Vorschlag für eine Verordnung
Artikel 30 – Absatz 7
(7)  Notifizierende Behörden verfügen über kompetente Mitarbeiter in ausreichender Zahl, sodass sie ihre Aufgaben ordnungsgemäß wahrnehmen können.
(7)  Notifizierende Behörden verfügen über kompetente Mitarbeiter in ausreichender Zahl, sodass sie ihre Aufgaben ordnungsgemäß wahrnehmen können. Gegebenenfalls muss das zuständige Personal über die erforderliche Sachkenntnis, z. B. einen Abschluss in einem geeigneten Rechtsgebiet, für die Überwachung der in der Charta der Grundrechte der Europäischen Union verankerten Grundrechte verfügen.
Abänderung 416
Vorschlag für eine Verordnung
Artikel 30 – Absatz 8
(8)  Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen.
(8)  Notifizierende Behörden gewährleisten, dass Konformitätsbewertungen in angemessener und zeitnaher Art und Weise und ohne unnötige Belastungen für die Anbieter durchgeführt werden und dass die notifizierten Stellen bei ihren Tätigkeiten die Größe eines Unternehmens, die Branche, in der es tätig ist, seine Struktur und die Komplexität des betreffenden KI-Systems gebührend berücksichtigen. Besondere Aufmerksamkeit gilt der Minimierung des Verwaltungsaufwands und der Befolgungskosten für Kleinst- und Kleinunternehmen gemäß der Definition im Anhang der Empfehlung 2003/361/EG der Kommission.
Abänderung 417
Vorschlag für eine Verordnung
Artikel 32 – Absatz 1
(1)  Die notifizierenden Behörden dürfen nur Konformitätsbewertungsstellen notifizieren, die die Anforderungen des Artikels 33 erfüllen.
(1)  Die notifizierenden Behörden notifizieren nur Konformitätsbewertungsstellen, die die Anforderungen des Artikels 33 erfüllen.
Abänderung 418
Vorschlag für eine Verordnung
Artikel 32 – Absatz 2
(2)  Die notifizierenden Behörden unterrichten die Kommission und die übrigen Mitgliedstaaten mithilfe des elektronischen Notifizierungsinstruments, das von der Kommission entwickelt und verwaltet wird.
(2)  Die notifizierenden Behörden unterrichten die Kommission und die übrigen Mitgliedstaaten mithilfe des elektronischen Notifizierungsinstruments, das von der Kommission entwickelt und verwaltet wird, über jede Konformitätsbewertungsstelle gemäß Absatz 1.
Abänderung 419
Vorschlag für eine Verordnung
Artikel 32 – Absatz 3
(3)  Eine Notifizierung enthält vollständige Angaben zu den Konformitätsbewertungstätigkeiten, dem/den betreffenden Konformitätsbewertungsmodul(en) und den betreffenden Technologien der künstlichen Intelligenz.
(3)  Eine Notifizierung gemäß Absatz 2 enthält vollständige Angaben zu den Konformitätsbewertungstätigkeiten, dem/den betreffenden Konformitätsbewertungsmodul(en) und den betreffenden Technologien der künstlichen Intelligenz sowie die betreffende Bescheinigung der Kompetenz.
Abänderung 420
Vorschlag für eine Verordnung
Artikel 32 – Absatz 4
(4)  Die betreffende Konformitätsbewertungsstelle darf die Aufgaben einer notifizierten Stelle nur dann wahrnehmen, wenn weder die Kommission noch die übrigen Mitgliedstaaten innerhalb von einem Monat nach der Notifizierung Einwände erhoben haben.
(4)  Die betreffende Konformitätsbewertungsstelle darf die Aufgaben einer notifizierten Stelle nur dann wahrnehmen, wenn weder die Kommission noch die übrigen Mitgliedstaaten innerhalb von zwei Wochen nach der Validierung der Notifizierung, sofern eine Akkreditierungsurkunde gemäß Artikel 31 Absatz 2 vorgelegt wird, oder innerhalb von zwei Monaten nach der Notifizierung, sofern beweiskräftige Unterlagen gemäß Artikel 31 Absatz 3 vorgelegt werden, Einwände erhoben haben.
Abänderung 421
Vorschlag für eine Verordnung
Artikel 32 – Absatz 4 a (neu)
(4a)  Werden Einwände erhoben, konsultiert die Kommission unverzüglich die betreffenden Mitgliedstaaten und die Konformitätsbewertungsstelle. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an die zuständige Konformitätsbewertungsstelle.
Abänderung 422
Vorschlag für eine Verordnung
Artikel 32 – Absatz 4 b (neu)
(4b)  Die Mitgliedstaaten teilen der Kommission und den anderen Mitgliedstaaten die Konformitätsbewertungsstellen mit.
Abänderung 423
Vorschlag für eine Verordnung
Artikel 33 – Absatz 2
(2)  Die notifizierten Stellen müssen die Anforderungen an die Organisation, das Qualitätsmanagement, die Ressourcenausstattung und die Verfahren erfüllen, die zur Wahrnehmung ihrer Aufgaben erforderlich sind.
(2)  Die notifizierten Stellen müssen die Anforderungen an die Organisation, das Qualitätsmanagement, die Ressourcenausstattung und die Verfahren erfüllen, die zur Wahrnehmung ihrer Aufgaben erforderlich sind, sowie die Mindestanforderungen an die Cybersicherheit, die für öffentliche Verwaltungseinrichtungen gelten, die gemäß der Richtlinie (EU) 2022/2555 als Betreiber wesentlicher Dienste identifiziert wurden.
Abänderung 424
Vorschlag für eine Verordnung
Artikel 33 – Absatz 4
(4)  Die notifizierten Stellen sind von dem Anbieter eines Hochrisiko-KI-Systems, zu dem sie Konformitätsbewertungstätigkeiten durchführen, unabhängig. Außerdem sind die notifizierten Stellen von allen anderen Akteuren, die ein wirtschaftliches Interesse an dem bewerteten Hochrisiko-KI-System haben, und von allen Wettbewerbern des Anbieters unabhängig.
(4)  Die notifizierten Stellen sind von dem Anbieter eines Hochrisiko-KI-Systems, zu dem sie Konformitätsbewertungstätigkeiten durchführen, unabhängig. Außerdem sind die notifizierten Stellen von allen anderen Akteuren, die ein wirtschaftliches Interesse an dem bewerteten Hochrisiko-KI-System haben, und von allen Wettbewerbern des Anbieters unabhängig. Dies schließt die Verwendung von bewerteten KI-Systemen, die für die Tätigkeit der Konformitätsbewertungsstelle nötig sind, oder die Verwendung solcher Systeme zum persönlichen Gebrauch nicht aus.
Abänderung 425
Vorschlag für eine Verordnung
Artikel 33 – Absatz 4 a (neu)
(4a)  Eine Konformitätsbewertung gemäß Absatz 1 wird von Mitarbeitern notifizierter Stellen durchgeführt, die in den 12 Monaten vor der Bewertung weder für den Anbieter eines Hochrisiko-KI-Systems noch für eine mit diesem Anbieter verbundene juristische Person eine andere Dienstleistung im Zusammenhang mit dem bewerteten Sachverhalt erbracht haben und sich verpflichtet haben, in den 12 Monaten nach Abschluss der Bewertung keine derartigen Dienstleistungen für sie zu erbringen.
Abänderung 426
Vorschlag für eine Verordnung
Artikel 33 – Absatz 6
(6)  Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben.
(6)  Die notifizierten Stellen gewährleisten durch dokumentierte Verfahren, dass ihre Mitarbeiter, Ausschüsse, Zweigstellen, Unterauftragnehmer sowie alle zugeordneten Stellen oder Mitarbeiter externer Einrichtungen die Vertraulichkeit der Informationen, die bei der Durchführung der Konformitätsbewertungstätigkeiten in ihren Besitz gelangen, wahren, außer wenn die Offenlegung gesetzlich vorgeschrieben ist. Informationen, von denen Mitarbeiter der notifizierten Stellen bei der Durchführung ihrer Aufgaben gemäß dieser Verordnung Kenntnis erlangen, unterliegen der beruflichen Schweigepflicht, außer gegenüber den notifizierenden Behörden des Mitgliedstaats, in dem sie ihre Tätigkeiten ausüben. Alle Informationen und Unterlagen, in deren Besitz eine notifizierte Stelle auf der Grundlage dieses Artikels gelangt, werden im Einklang mit den in Artikel 70 festgelegten Vertraulichkeitspflichten behandelt.
Abänderung 427
Vorschlag für eine Verordnung
Artikel 34 – Absatz 3
(3)  Arbeiten dürfen nur mit Zustimmung des Anbieters an einen Unterauftragnehmer vergeben oder einer Zweigstelle übertragen werden.
(3)  Arbeiten dürfen nur mit Zustimmung des Anbieters an einen Unterauftragnehmer vergeben oder einer Zweigstelle übertragen werden. Die benannten Stellen machen eine Liste ihrer Zweigstellen öffentlich zugänglich.
Abänderung 428
Vorschlag für eine Verordnung
Artikel 34 – Absatz 4
(4)  Die notifizierten Stellen halten für die notifizierende Behörde die einschlägigen Unterlagen über die Bewertung der Qualifikation des Unterauftragnehmers oder der Zweigstelle und die von ihnen gemäß dieser Verordnung ausgeführten Arbeiten bereit.
(4)  Die notifizierten Stellen halten für die notifizierende Behörde die einschlägigen Unterlagen über die Überprüfung der Qualifikation des Unterauftragnehmers oder der Zweigstelle und die von ihnen gemäß dieser Verordnung ausgeführten Arbeiten bereit.
Abänderung 429
Vorschlag für eine Verordnung
Artikel 35 – Überschrift
Kennnummern und Verzeichnisse der nach dieser Verordnung benannten notifizierten Stellen
Kennnummern und Verzeichnisse notifizierter Stellen
Abänderung 430
Vorschlag für eine Verordnung
Artikel 36 – Absatz 1
(1)  Falls eine notifizierende Behörde vermutet oder darüber unterrichtet wird, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, so untersucht die den Sachverhalt unverzüglich und mit äußerster Sorgfalt. In diesem Zusammenhang teilt sie der betreffenden notifizierten Stelle die erhobenen Einwände mit und gibt ihr die Möglichkeit, dazu Stellung zu nehmen. Kommt die notifizierende Behörde zu dem Schluss, dass die überprüfte notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, schränkt sie die Notifizierung gegebenenfalls ein, setzt sie aus oder widerruft sie, wobei sie das Ausmaß der Nichterfüllung oder Pflichtverletzung berücksichtigt. Sie setzt zudem die Kommission und die übrigen Mitgliedstaaten unverzüglich davon in Kenntnis.
(1)  Falls eine notifizierende Behörde vermutet oder darüber unterrichtet wird, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, so untersucht die den Sachverhalt unverzüglich und mit äußerster Sorgfalt. In diesem Zusammenhang teilt sie der betreffenden notifizierten Stelle die erhobenen Einwände mit und gibt ihr die Möglichkeit, dazu Stellung zu nehmen. Kommt die notifizierende Behörde zu dem Schluss, dass die notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht mehr erfüllt oder dass sie ihren Verpflichtungen nicht nachkommt, schränkt sie die Notifizierung gegebenenfalls ein, setzt sie aus oder widerruft sie, wobei sie das Ausmaß der Nichterfüllung oder Pflichtverletzung berücksichtigt. Sie setzt zudem die Kommission und die übrigen Mitgliedstaaten unverzüglich davon in Kenntnis.
Abänderung 431
Vorschlag für eine Verordnung
Artikel 36 – Absatz 2
(2)  Wird die Notifizierung widerrufen, eingeschränkt oder ausgesetzt oder stellt die notifizierte Stelle ihre Tätigkeit ein, so ergreift die notifizierende Behörde geeignete Maßnahmen, um sicherzustellen, dass die Akten dieser notifizierten Stelle von einer anderen notifizierten Stelle übernommen bzw. für die zuständigen notifizierenden Behörden auf deren Verlangen bereitgehalten werden.
(2)  Wird die Notifizierung widerrufen, eingeschränkt oder ausgesetzt oder stellt die notifizierte Stelle ihre Tätigkeit ein, so ergreift die notifizierende Behörde geeignete Maßnahmen, um sicherzustellen, dass die Akten dieser notifizierten Stelle von einer anderen notifizierten Stelle übernommen bzw. für die zuständigen notifizierenden Behörden und die Marktüberwachungsbehörde auf deren Verlangen bereitgehalten werden.
Abänderung 432
Vorschlag für eine Verordnung
Artikel 37 – Absatz 1
(1)  Die Kommission untersucht erforderlichenfalls alle Fälle, in denen begründete Zweifel daran bestehen, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen erfüllt.
(1)  Die Kommission untersucht erforderlichenfalls alle Fälle, in denen begründete Zweifel an der Kompetenz einer notifizierten Stelle oder daran bestehen, dass eine notifizierte Stelle die geltenden Anforderungen und Pflichten weiterhin erfüllt.
Abänderung 433
Vorschlag für eine Verordnung
Artikel 37 – Absatz 2
(2)  Die notifizierende Behörde stellt der Kommission auf Anfrage alle Informationen über die Notifizierung der betreffenden notifizierten Stelle zur Verfügung.
(2)  Die notifizierende Behörde stellt der Kommission auf Anfrage alle Informationen über die Notifizierung oder das Fortbestehen der betreffenden notifizierten Stelle zur Verfügung.
Abänderung 434
Vorschlag für eine Verordnung
Artikel 37 – Absatz 3
(3)  Die Kommission stellt sicher, dass alle im Verlauf ihrer Untersuchungen gemäß diesem Artikel erlangten vertraulichen Informationen vertraulich behandelt werden.
(3)  Die Kommission stellt sicher, dass alle im Verlauf ihrer Untersuchungen gemäß diesem Artikel erlangten sensiblen Informationen vertraulich behandelt werden.
Abänderung 435
Vorschlag für eine Verordnung
Artikel 37 – Absatz 4
(4)  Stellt die Kommission fest, dass eine notifizierte Stelle die in Artikel 33 festgelegten Anforderungen nicht oder nicht mehr erfüllt, so erlässt sie einen begründeten Beschluss, in dem der notifizierende Mitgliedstaat aufgefordert wird, die erforderlichen Abhilfemaßnahmen zu treffen, einschließlich eines Widerrufs der Notifizierung, sofern dies nötig ist. Dieser Durchführungsrechtsakt wird gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.
(4)  Stellt die Kommission fest, dass eine notifizierte Stelle die Anforderungen für ihre Notifizierung nicht oder nicht mehr erfüllt, so setzt sie den notifizierenden Mitgliedstaat davon in Kenntnis und fordert ihn auf, die erforderlichen Abhilfemaßnahmen zu treffen, einschließlich eines Widerrufs der Notifizierung, sofern dies nötig ist. Versäumt es ein Mitgliedstaat, die erforderlichen Korrekturmaßnahmen zu ergreifen, kann die Kommission die Benennung mittels Durchführungsrechtsakt aussetzen, einschränken oder zurückziehen. Dieser Durchführungsrechtsakt wird gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.
Abänderung 436
Vorschlag für eine Verordnung
Artikel 38 – Absatz 2 a (neu)
(2a)  Die Kommission sorgt für den Austausch von Wissen und bewährten Verfahren zwischen den nationalen Behörden der Mitgliedstaaten, die für die Notifizierungspolitik zuständig sind.
Abänderung 437
Vorschlag für eine Verordnung
Artikel 40 – Absatz 1
Bei Hochrisiko-KI-Systemen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.
Bei Hochrisiko-KI-Systemen und Basismodellen, die mit harmonisierten Normen oder Teilen davon, deren Fundstellen gemäß der Verordnung (EU) 1025/2012 im Amtsblatt der Europäischen Union veröffentlicht wurden, übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels oder in Artikel 28b vermutet, soweit diese Anforderungen von den Normen abgedeckt sind.
Abänderung 438
Vorschlag für eine Verordnung
Artikel 40 – Absatz 1 a (neu)
Die Kommission erteilt gemäß Artikel 10 der Verordnung (EU) 1025/2012 spätestens [zwei Monate nach Inkrafttreten dieser Verordnung] Normungsaufträge für alle Anforderungen, die in der Verordnung gestellt werden. Bei der Ausarbeitung des Normungsauftrags konsultiert die Kommission das Amt für KI und das KI-Beratungsforum.
Abänderung 439
Vorschlag für eine Verordnung
Artikel 40 – Absatz 1 b (neu)
Bei der Erteilung eines Normungsauftrags an die europäischen Normungsorganisationen gibt die Kommission an, dass die Normen mit den in Anhang II aufgeführten sektoralen Rechtsvorschriften übereinstimmen müssen und sicherstellen sollen, dass die in der Union in Verkehr gebrachten oder in Betrieb genommenen KI-Systeme oder Basismodelle die in dieser Verordnung festgelegten einschlägigen Anforderungen erfüllen;
Abänderung 440
Vorschlag für eine Verordnung
Artikel 40 – Absatz 1 c (neu)
Die am Normungsprozess beteiligten Akteure berücksichtigen die in Artikel 4 Buchstabe a dargelegten allgemeinen Grundsätze für vertrauenswürdige KI, bemühen sich um die Förderung von Investitionen und Innovationen im Bereich der KI sowie der Wettbewerbsfähigkeit und des Wachstums des Unionsmarktes und tragen zur Stärkung der weltweiten Zusammenarbeit bei der Normung und zur Berücksichtigung bestehender internationaler Normen im Bereich der KI bei, die mit den Werten, Grundrechten und Interessen der Union im Einklang stehen, und stellen eine ausgewogene Vertretung der Interessen und eine wirksame Beteiligung aller relevanten Interessenträger gemäß den Artikeln 5, 6 und 7 der Verordnung (EU) Nr. 1025/2012 sicher.
Abänderung 441
Vorschlag für eine Verordnung
Artikel 41 – Absatz 1
(1)  Gibt es keine harmonisierten Normen gemäß Artikel 40 oder ist die Kommission der Auffassung, dass die einschlägigen harmonisierten Normen unzureichend sind oder dass bestimmte Bedenken hinsichtlich der Sicherheit oder der Grundrechte ausgeräumt werden müssen, so kann die Kommission im Wege von Durchführungsrechtsakten gemeinsame Spezifikationen für die Anforderungen in Kapitel 2 dieses Titels festlegen. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.
entfällt
Abänderung 442
Vorschlag für eine Verordnung
Artikel 41 – Absatz 1 a (neu)
(1a)  Die Kommission kann im Wege eines Durchführungsrechtsakts, der nach dem Prüfverfahren gemäß Artikel 74 Absatz 2 und nach Anhörung des Amtes für künstliche Intelligenz und des Beratungsforums für künstliche Intelligenz erlassen wird, gemeinsame Spezifikationen für die in Kapitel 2 dieses Titels oder in Artikel 28b genannten Anforderungen festlegen, wenn alle folgenden Bedingungen erfüllt sind:
a)  Es gibt keinen Verweis auf bereits im Amtsblatt der Europäischen Union veröffentlichte harmonisierte Normen, die sich auf die wesentliche(n) Anforderung(en) beziehen, es sei denn, die betreffende harmonisierte Norm ist eine bestehende Norm, die überarbeitet werden muss;
b)  Die Kommission hat eine oder mehrere europäische Normungsorganisationen mit der Erarbeitung einer harmonisierten Norm für die in Kapitel 2 genannte(n) grundlegende(n) Anforderung(en) beauftragt;
c)  Der unter Buchstabe b) genannte Auftrag ist bisher von keiner europäischen Normungsorganisation angenommen worden; oder es kommt zu unangemessenen Verzögerungen bei der Festlegung einer geeigneten harmonisierten Norm; oder die bereitgestellte Norm erfüllt nicht die Anforderungen des einschlägigen Unionsrechts oder entspricht nicht der Forderung der Kommission.
Abänderung 443
Vorschlag für eine Verordnung
Artikel 41 – Absatz 1 b (neu)
(1b)  Wenn die Kommission der Auffassung ist, dass besondere Grundrechtsbelange berücksichtigt werden müssen, müssen die von der Kommission gemäß Absatz 1a angenommenen gemeinsamen Spezifikationen auch diese besonderen Grundrechtsbelange berücksichtigen.
Abänderung 444
Vorschlag für eine Verordnung
Artikel 41 – Absatz 1 c (neu)
(1c)  Die Kommission entwickelt gemeinsame Spezifikationen für die Methodik zur Erfüllung der Berichterstattungs- und Dokumentationspflicht über den Energie- und Ressourcenverbrauch während der Entwicklung, Trainings und Einführung des Hochrisiko-KI-Systems.
Abänderung 445
Vorschlag für eine Verordnung
Artikel 41 – Absatz 2
(2)  Bei der Ausarbeitung der in Absatz 1 genannten gemeinsamen Spezifikationen holt die Kommission die Stellungnahmen der einschlägigen Stellen oder Expertengruppen ein, die nach den jeweiligen sektorspezifischen Rechtsvorschriften der Union eingerichtet wurden.
(2)  Bei der Ausarbeitung der in den Absätzen 1a und 1b genannten gemeinsamen Spezifikationen konsultiert die Kommission regelmäßig das Amt für KI und das Beratungsforum, die europäischen Normungsorganisationen und die im Rahmen des einschlägigen sektoralen Unionsrechts eingerichteten Gremien oder Expertengruppen sowie andere relevante Interessenträger. Die Kommission hat die in Artikel 40 Absatz 1c genannten Ziele zu erfüllen und ordnungsgemäß zu begründen, warum sie beschlossen hat, auf gemeinsame Spezifikationen zurückzugreifen.
Beabsichtigt die Kommission, gemeinsame Spezifikationen gemäß Absatz 1a des vorliegenden Artikels zu erlassen, so gibt sie auch klar an, welches spezifische Grundrechtsanliegen behandelt werden soll.
Bei der Annahme gemeinsamer Spezifikationen gemäß den Absätzen 1a und 1b des vorliegenden Artikels berücksichtigt die Kommission die Stellungnahme des in Artikel 56e Buchstabe b der vorliegenden Verordnung genannten Amts für KI. Beschließt die Kommission, der Stellungnahme des Amts für KI nicht zu folgen, so legt sie dem Amt für KI eine begründete Erklärung vor.
Abänderung 446
Vorschlag für eine Verordnung
Artikel 41 – Absatz 3
(3)  Bei Hochrisiko-KI-Systemen, die mit den in Absatz 1 genannten gemeinsamen Spezifikationen übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den gemeinsamen Spezifikationen abgedeckt sind.
(3)  Bei Hochrisiko-KI-Systemen, die mit den in den Absätzen 1a und 1b genannten gemeinsamen Spezifikationen übereinstimmen, wird eine Konformität mit den Anforderungen in Kapitel 2 dieses Artikels vermutet, soweit diese Anforderungen von den gemeinsamen Spezifikationen abgedeckt sind.
Abänderung 447
Vorschlag für eine Verordnung
Artikel 41 – Absatz 3 a (neu)
(3a)  Wird eine harmonisierte Norm von einer europäischen Normungsorganisation angenommen und der Kommission zur Veröffentlichung ihrer Fundstelle im Amtsblatt der Europäischen Union vorgeschlagen, so bewertet die Kommission die harmonisierte Norm gemäß der Verordnung (EU) Nr. 1025/2012. Wird die Fundstelle einer harmonisierten Norm im Amtsblatt der Europäischen Union veröffentlicht, so hebt die Kommission die in den Absätzen 1 und 1b genannten Rechtsakte oder Teile davon auf, die dieselben Anforderungen gemäß Kapitel 2 dieses Titels betreffen.
Abänderung 448
Vorschlag für eine Verordnung
Artikel 41 – Absatz 4
(4)  Wenn Anbieter die in Absatz 1 genannten gemeinsamen Spezifikationen nicht befolgen, müssen sie hinreichend nachweisen, dass sie technische Lösungen verwenden, die den gemeinsamen Spezifikationen zumindest gleichwertig sind.
(4)  Wenn Anbieter von Hochrisiko-KI-Systemen die in Absatz 1 genannten gemeinsamen Spezifikationen nicht befolgen, müssen sie hinreichend nachweisen, dass sie technische Lösungen verwenden, die den in Kapitel II genannten Anforderungen zumindest gleichwertig sind;
Abänderung 449
Vorschlag für eine Verordnung
Artikel 42 – Absatz 1
(1)  Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegte Anforderung erfüllen.
(1)  Unter Berücksichtigung der Zweckbestimmung gilt für Hochrisiko-KI-Systeme, die mit Daten zu den besonderen geografischen, verhaltensbezogenen, kontextuellen und funktionalen Rahmenbedingungen, unter denen sie bestimmungsgemäß verwendet werden sollen, trainiert und getestet wurden, die Vermutung, dass sie die in Artikel 10 Absatz 4 festgelegten jeweiligen Anforderungen erfüllen.
Abänderung 450
Vorschlag für eine Verordnung
Artikel 43 – Absatz 1 – Einleitung
(1)  Hat ein Anbieter zum Nachweis, dass sein in Anhang III Nummer 1 aufgeführtes Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, harmonisierte Normen gemäß Artikel 40 oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41 angewandt, so befolgt er eines der folgenden Verfahren:
(1)  Hat ein Anbieter zum Nachweis, dass sein in Anhang III Nummer 1 aufgeführtes Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, harmonisierte Normen gemäß Artikel 40 oder gegebenenfalls gemeinsame Spezifikationen gemäß Artikel 41 angewandt, so entscheidet er sich für eines der folgenden Verfahren;
Abänderung 451
Vorschlag für eine Verordnung
Artikel 43 – Absatz 1 – Buchstabe a
(a)  das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI;
(a)  das Konformitätsbewertungsverfahren auf der Grundlage einer internen Kontrolle gemäß Anhang VI; oder
Abänderung 452
Vorschlag für eine Verordnung
Artikel 43 – Absatz 1 – Buchstabe b
(b)  das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII.
(b)  das Konformitätsbewertungsverfahren auf der Grundlage der Bewertung des Qualitätsmanagementsystems und der technischen Dokumentation unter Beteiligung einer notifizierten Stelle gemäß Anhang VII;
Abänderung 453
Vorschlag für eine Verordnung
Artikel 43 – Absatz 1 – Unterabsatz 1
Hat ein Anbieter zum Nachweis, dass sein Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, die harmonisierten Normen gemäß Artikel 40 nicht oder nur teilweise angewandt oder gibt es solche harmonisierten Normen nicht und liegen keine gemeinsamen Spezifikationen gemäß Artikel 41 vor, so befolgt er das Konformitätsbewertungsverfahren gemäß Anhang VII.
Zum Nachweis, dass sein Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt, muss der Anbieter in den folgenden Fällen das Konformitätsbewertungsverfahren gemäß Anhang VII anwenden:
a)  Wenn es keine harmonisierten Normen gemäß Artikel 40 gibt, deren Fundstelle im Amtsblatt der Europäischen Union veröffentlicht wurde und die alle relevanten Sicherheitsanforderungen für das KI-System abdecken, und keine gemeinsamen Spezifikationen gemäß Artikel 41 vorliegen;
b)  Wenn die unter Buchstabe a genannten technischen Spezifikationen zwar vorliegen, der Anbieter sie aber nicht oder nur teilweise angewandt hat;
c)  Wenn eine oder mehrere der unter Buchstabe a genannten technischen Spezifikationen mit einer Einschränkung und nur für den eingeschränkten Teil der Norm veröffentlicht wurden;
d)  Wenn der Anbieter der Ansicht ist, dass Art, Gestaltung, Konstruktion oder Zweckbestimmung des KI-Systems eine Überprüfung durch Dritte erfordern, unabhängig von seinem Risikoniveau.
Abänderung 454
Vorschlag für eine Verordnung
Artikel 43 – Absatz 1 – Unterabsatz 2
Für die Zwecke des Konformitätsbewertungsverfahrens gemäß Anhang VII kann der Anbieter eine der notifizierten Stellen auswählen. Soll das System jedoch von Strafverfolgungs-, Einwanderungs- oder Asylbehörden oder von Organen, Einrichtungen oder sonstigen Stellen der EU in Betrieb genommen werden, so übernimmt die in Artikel 63 Absatz 5 oder 6 genannte Marktüberwachungsbehörde die Funktion der notifizierten Stelle.
Für die Zwecke der Durchführung des Konformitätsbewertungsverfahrens gemäß Anhang VII kann der Anbieter eine der notifizierten Stellen auswählen. Soll das System jedoch von Strafverfolgungs-, Einwanderungs- oder Asylbehörden oder von Organen, Einrichtungen oder sonstigen Stellen der EU in Betrieb genommen werden, so übernimmt die in Artikel 63 Absatz 5 oder 6 genannte Marktüberwachungsbehörde die Funktion der notifizierten Stelle.
Abänderung 455
Vorschlag für eine Verordnung
Artikel 43 – Absatz 4 – Einleitung
(4)  Hochrisiko-KI-Systeme werden einem neuen Konformitätsbewertungsverfahren unterzogen, wenn sie wesentlich geändert werden, unabhängig davon, ob das geänderte System noch weiter in Verkehr gebracht oder vom derzeitigen Nutzer weitergenutzt werden soll.
(4)  Hochrisiko-KI-Systeme, die bereits Gegenstand eines Konformitätsbewertungsverfahren gewesen sind, werden einem neuen Konformitätsbewertungsverfahren unterzogen, wenn sie wesentlich geändert werden, unabhängig davon, ob das geänderte System noch weiter in Verkehr gebracht oder vom derzeitigen Betreiber weitergenutzt werden soll.
Abänderung 456
Vorschlag für eine Verordnung
Artikel 43 – Absatz 4 a (neu)
(4a)  Bei der Festsetzung der Gebühren für die Konformitätsbewertung durch Dritte nach diesem Artikel werden die besonderen Interessen und Bedürfnisse von KMU berücksichtigt, indem diese Gebühren proportional zu ihrer Größe und der Größe ihres Marktes gesenkt werden.
Abänderung 457
Vorschlag für eine Verordnung
Artikel 43 – Absatz 5
(5)  Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden.
(5)  Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Aktualisierung der Anhänge VI und VII zu erlassen, um Elemente der Konformitätsbewertungsverfahren einzuführen, die angesichts des technischen Fortschritts erforderlich werden. Bei der Vorbereitung solcher delegierten Rechtsakte konsultiert die Kommission das Amt für KI und die betroffenen Interessenträger;
Abänderung 458
Vorschlag für eine Verordnung
Artikel 43 – Absatz 6
(6)  Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen.
(6)  Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte zur Änderung der Absätze 1 und 2 zu erlassen, um die in Anhang III Nummern 2 bis 8 genannten Hochrisiko-KI-Systeme dem Konformitätsbewertungsverfahren gemäß Anhang VII oder Teilen davon zu unterwerfen. Die Kommission erlässt solche delegierten Rechtsakte unter Berücksichtigung der Wirksamkeit des Konformitätsbewertungsverfahrens auf der Grundlage einer internen Kontrolle gemäß Anhang VI hinsichtlich der Vermeidung oder Minimierung der von solchen Systemen ausgehenden Risiken für die Gesundheit und Sicherheit und den Schutz der Grundrechte sowie hinsichtlich der Verfügbarkeit angemessener Kapazitäten und Ressourcen in den notifizierten Stellen. Bei der Vorbereitung solcher delegierten Rechtsakte konsultiert die Kommission das Amt für KI und die betroffenen Interessenträger;
Abänderung 459
Vorschlag für eine Verordnung
Artikel 44 – Absatz 1
(1)  Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer Amtssprache der Union ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer anderen Amtssprache der Union, mit der die notifizierte Stelle einverstanden ist.
(1)  Die von notifizierten Stellen gemäß Anhang VII erteilten Bescheinigungen werden in einer oder mehreren Amtssprachen der Union ausgefertigt, die der Mitgliedstaat, in dem die notifizierte Stelle niedergelassen ist, festlegt, oder in einer oder mehreren anderen Amtssprachen der Union, mit der die notifizierte Stelle einverstanden ist.
Abänderung 460
Vorschlag für eine Verordnung
Artikel 44 – Absatz 2
(2)  Die Bescheinigungen sind für die darin genannte Dauer gültig, die maximal fünf Jahre beträgt. Auf Antrag des Anbieters kann die Gültigkeit einer Bescheinigung auf der Grundlage einer Neubewertung gemäß den geltenden Konformitätsbewertungsverfahren um weitere Zeiträume von jeweils höchstens fünf Jahren verlängert werden.
(2)  Die Bescheinigungen sind für die darin genannte Dauer gültig, die maximal vier Jahre beträgt. Auf Antrag des Anbieters kann die Gültigkeit einer Bescheinigung auf der Grundlage einer Neubewertung gemäß den geltenden Konformitätsbewertungsverfahren um weitere Zeiträume von jeweils höchstens vier Jahren verlängert werden;
Abänderung 461
Vorschlag für eine Verordnung
Artikel 44 – Absatz 3
(3)  Stellt eine notifizierte Stelle fest, dass ein KI-System die Anforderungen in Kapitel 2 dieses Titels nicht mehr erfüllt, setzt sie die erteilte Bescheinigung aus oder widerruft diese oder schränkt sie ein, jeweils unter Berücksichtigung des Verhältnismäßigkeitsgrundsatzes, sofern die Einhaltung der Anforderungen nicht durch geeignete Korrekturmaßnahmen des Anbieters des Systems innerhalb einer von der notifizierten Stelle gesetzten angemessenen Frist wiederhergestellt wird. Die notifizierte Stelle begründet ihre Entscheidung.
(3)  Stellt eine notifizierte Stelle fest, dass ein KI-System die Anforderungen in Kapitel 2 dieses Titels nicht mehr erfüllt, setzt sie die erteilte Bescheinigung aus oder widerruft diese oder schränkt sie ein, sofern die Einhaltung der Anforderungen nicht durch geeignete Korrekturmaßnahmen des Anbieters des Systems innerhalb einer von der notifizierten Stelle gesetzten angemessenen Frist wiederhergestellt wird. Die notifizierte Stelle begründet ihre Entscheidung.
Abänderung 462
Vorschlag für eine Verordnung
Artikel 45 – Absatz 1
Die Mitgliedstaaten stellen sicher, dass ein Einspruchsverfahren gegen die Entscheidungen der notifizierten Stelle für Beteiligte vorgesehen ist, die ein berechtigtes Interesse an einer solchen Entscheidung haben.
Die Mitgliedstaaten stellen sicher, dass ein Einspruchsverfahren gegen die Entscheidungen der notifizierten Stelle – auch in Bezug auf ausgestellte Konformitätsbescheinigungen – für Beteiligte vorgesehen ist, die ein berechtigtes Interesse an einer solchen Entscheidung haben.
Abänderung 463
Vorschlag für eine Verordnung
Artikel 46 – Absatz 3
(3)  Jede notifizierte Stelle übermittelt den anderen notifizierten Stellen, die ähnlichen Konformitätsbewertungstätigkeiten für die gleiche KI-Technik nachgehen, ihre einschlägigen Informationen über negative und auf Anfrage auch über positive Konformitätsbewertungsergebnisse.
(3)  Eine notifizierte Stelle übermittelt anderen notifizierten Stellen, die ähnlichen Konformitätsbewertungstätigkeiten nachgehen, ihre einschlägigen Informationen über negative und auf Verlangen auch über positive Konformitätsbewertungsergebnisse.
Abänderung 464
Vorschlag für eine Verordnung
Artikel 47 – Absatz 1
(1)  Abweichend von Artikel 43 kann eine Marktüberwachungsbehörde das Inverkehrbringen oder die Inbetriebnahme bestimmter Hochrisiko-KI-Systeme im Hoheitsgebiet des betreffenden Mitgliedstaats aus außergewöhnlichen Gründen der öffentlichen Sicherheit, des Schutzes des Lebens und der Gesundheit von Personen, des Umweltschutzes und des Schutzes wichtiger Industrie- und Infrastrukturanlagen genehmigen. Diese Genehmigung wird auf die Dauer der erforderlichen Konformitätsbewertungsverfahren befristet und läuft mit dem Abschluss dieser Verfahren aus. Der Abschluss dieser Verfahren erfolgt unverzüglich.
(1)  In Abweichung von Artikel 43 kann eine nationale Aufsichtsbehörde von einer Justizbehörde fordern, das Inverkehrbringen oder die Inbetriebnahme bestimmter Hochrisiko-KI-Systeme im Hoheitsgebiet des betreffenden Mitgliedstaats aus außergewöhnlichen Gründen des Schutzes des Lebens und der Gesundheit von Personen, des Umweltschutzes und des Schutzes kritischer Infrastruktur zu genehmigen. Diese Genehmigung wird auf die Dauer der erforderlichen Konformitätsbewertungsverfahren befristet und läuft mit dem Abschluss dieser Verfahren aus. Der Abschluss dieser Verfahren erfolgt unverzüglich;
Abänderung 465
Vorschlag für eine Verordnung
Artikel 47 – Absatz 2
(2)  Die in Absatz 1 genannte Genehmigung wird nur erteilt, wenn die Marktüberwachungsbehörde zu dem Schluss gelangt, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die Marktüberwachungsbehörde unterrichtet die Kommission und die anderen Mitgliedstaaten über alle von ihr gemäß Absatz 1 erteilten Genehmigungen.
(2)  Die in Absatz 1 genannte Genehmigung wird nur erteilt, wenn die nationale Aufsichtsbehörde und die Justizbehörde zu dem Schluss gelangen, dass das Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die nationale Aufsichtsbehörde unterrichtet die Kommission, das Amt für künstliche Intelligenz und die anderen Mitgliedstaaten über alle gestellten Anträge und alle diesbezüglichen von ihr gemäß Absatz 1 erteilten Genehmigungen;
Abänderung 466
Vorschlag für eine Verordnung
Artikel 47 – Absatz 3
(3)  Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung Einwände gegen die von einer Marktüberwachungsbehörde eines Mitgliedstaats gemäß Absatz 1 erteilte Genehmigung, so gilt diese Genehmigung als gerechtfertigt.
(3)  Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung Einwände gegen den Antrag der nationalen Aufsichtsbehörde auf eine von einer nationalen Aufsichtsbehörde eines Mitgliedstaats gemäß Absatz 1 erteilte Genehmigung, so gilt diese Genehmigung als gerechtfertigt;
Abänderung 467
Vorschlag für eine Verordnung
Artikel 47 – Absatz 4
(4)  Erhebt innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung ein Mitgliedstaat Einwände gegen eine von einer Marktüberwachungsbehörde eines anderen Mitgliedstaats erteilte Genehmigung oder ist die Kommission der Auffassung, dass die Genehmigung mit dem Unionsrecht unvereinbar ist oder dass die Schlussfolgerung der Mitgliedstaaten in Bezug auf die Konformität des in Absatz 2 genannten Systems unbegründet ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat auf; der bzw. die betroffenen Akteur(e) werden konsultiert und erhalten Gelegenheit, dazu Stellung zu nehmen. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an den/die betroffenen Akteur(e).
(4)  Erhebt innerhalb von 15 Kalendertagen nach Erhalt der in Absatz 2 genannten Mitteilung ein Mitgliedstaat Einwände gegen einen von einer nationalen Aufsichtsbehörde eines anderen Mitgliedstaats gestellten Antrag oder ist die Kommission der Auffassung, dass die Genehmigung mit dem Unionsrecht unvereinbar ist oder dass die Schlussfolgerung der Mitgliedstaaten in Bezug auf die Konformität des in Absatz 2 genannten Systems unbegründet ist, so nimmt die Kommission unverzüglich Konsultationen mit dem betreffenden Mitgliedstaat und dem Amt für künstliche Intelligenz auf; der bzw. die betroffenen Akteur(e) werden konsultiert und erhalten Gelegenheit, dazu Stellung zu nehmen. In Anbetracht dessen entscheidet die Kommission, ob die Genehmigung gerechtfertigt ist oder nicht. Die Kommission richtet ihren Beschluss an die betroffenen Mitgliedstaaten und an den/die betroffenen Akteur(e);
Abänderung 468
Vorschlag für eine Verordnung
Artikel 47 – Absatz 5
(5)  Wird die Genehmigung als ungerechtfertigt erachtet, so muss sie von der Marktüberwachungsbehörde des betreffenden Mitgliedstaats zurückgenommen werden.
(5)  Wird die Genehmigung als ungerechtfertigt erachtet, so muss sie von der nationalen Aufsichtsbehörde des betreffenden Mitgliedstaats zurückgenommen werden;
Abänderung 469
Vorschlag für eine Verordnung
Artikel 48 – Absatz 1
(1)  Der Anbieter stellt für jedes KI-System eine schriftliche EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des KI-Systems für die zuständigen nationalen Behörden bereit. Aus der EU-Konformitätserklärung geht hervor, für welches KI-System sie ausgestellt wurde. Ein Exemplar der EU-Konformitätserklärung wird den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt.
(1)  Der Anbieter stellt für jedes Hochrisiko-KI-System eine schriftliche maschinenlesbare, physische oder elektronische EU-Konformitätserklärung aus und hält sie für einen Zeitraum von 10 Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems für die nationale Aufsichtsbehörde und die zuständigen nationalen Behörden bereit. Ein Exemplar der EU-Konformitätserklärung wird der nationalen Aufsichtsbehörde und den zuständigen nationalen Behörden auf Anfrage übermittelt;
Abänderung 470
Vorschlag für eine Verordnung
Artikel 48 – Absatz 2
(2)  Die EU-Konformitätserklärung besagt, dass das betreffende Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die EU-Konformitätserklärung enthält die in Anhang V aufgeführten Angaben und wird in eine oder mehrere Amtssprachen der Union übersetzt, die von dem/den Mitgliedstaat(en) vorgeschrieben wird/werden, in dem/denen das Hochrisiko-KI-System bereitgestellt wird.
(2)  Die EU-Konformitätserklärung besagt, dass das betreffende Hochrisiko-KI-System die Anforderungen in Kapitel 2 dieses Titels erfüllt. Die EU-Konformitätserklärung enthält die in Anhang V aufgeführten Angaben und wird in eine oder mehrere Amtssprachen der Union übersetzt, die von dem/den Mitgliedstaat(en) vorgeschrieben wird/werden, in dem/denen das Hochrisiko-KI-System in Verkehr gebracht oder bereitgestellt wird;
Abänderung 471
Vorschlag für eine Verordnung
Artikel 48 – Absatz 3
(3)  Unterliegen Hochrisiko-KI-Systeme noch anderen Harmonisierungsrechtsvorschriften der Union, die ebenfalls eine EU-Konformitätserklärung vorschreiben, so wird eine einzige EU-Konformitätserklärung ausgestellt, die sich auf alle für das Hochrisiko-KI-System geltenden Rechtsvorschriften der Union bezieht. Die Erklärung enthält alle erforderlichen Angaben zur Feststellung der Harmonisierungsrechtsvorschriften der Union, auf die sich die Erklärung bezieht.
(3)  Unterliegen Hochrisiko-KI-Systeme noch anderen Harmonisierungsrechtsvorschriften der Union, die ebenfalls eine EU-Konformitätserklärung vorschreiben, so kann eine einzige EU-Konformitätserklärung ausgestellt werden, die sich auf alle für das Hochrisiko-KI-System geltenden Rechtsvorschriften der Union bezieht. Die Erklärung enthält alle erforderlichen Angaben zur Feststellung der Harmonisierungsrechtsvorschriften der Union, auf die sich die Erklärung bezieht.
Abänderung 472
Vorschlag für eine Verordnung
Artikel 48 – Absatz 5
(5)  Der Kommission wird die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung des in Anhang V festgelegten Inhalts der EU-Konformitätserklärung zu erlassen, um Elemente einzuführen, die angesichts des technischen Fortschritts erforderlich werden.
(5)  Nach Anhörung des Amts für künstliche Intelligenz wird der Kommission die Befugnis übertragen, gemäß Artikel 73 delegierte Rechtsakte zur Änderung des in Anhang V festgelegten Inhalts der EU-Konformitätserklärung zu erlassen, um Elemente einzuführen, die angesichts des technischen Fortschritts erforderlich werden;
Abänderung 473
Vorschlag für eine Verordnung
Artikel 49 – Absatz 1
(1)  Die CE-Kennzeichnung wird gut sichtbar, leserlich und dauerhaft an Hochrisiko-KI-Systemen angebracht. Falls die Art des Hochrisiko-KI-Systems dies nicht zulässt oder nicht rechtfertigt, wird sie auf der Verpackung oder gegebenenfalls den Begleitunterlagen angebracht.
(1)  Die physische CE-Kennzeichnung wird gut sichtbar, leserlich und dauerhaft an Hochrisiko-KI-Systemen angebracht, bevor das Hochrisiko-KI-System in Verkehr gebracht wird. Falls die Art des Hochrisiko-KI-Systems dies nicht zulässt oder nicht rechtfertigt, wird sie auf der Verpackung oder gegebenenfalls den Begleitunterlagen angebracht. Dahinter kann ein Piktogramm oder ein anderes Zeichen stehen, das eine besondere Verwendungsgefahr angibt;
Abänderung 474
Vorschlag für eine Verordnung
Artikel 49 – Absatz 1 a (neu)
(1a)  Bei ausschließlich digitalen Hochrisiko-KI-Systemen wird eine digitale CE-Kennzeichnung nur dann verwendet, wenn sie über die Schnittstelle, von der aus auf das KI-System zugegriffen wird, oder über einen maschinenlesbaren Code oder andere elektronische Mittel angezeigt werden kann.
Abänderung 475
Vorschlag für eine Verordnung
Artikel 49 – Absatz 3
(3)  Wo erforderlich, wird der CE-Kennzeichnung die Kennnummer der für die Konformitätsbewertungsverfahren gemäß Artikel 43 zuständigen notifizierten Stelle hinzugefügt. Diese Kennnummer wird auch auf jeglichem Werbematerial angegeben, in dem darauf hingewiesen wird, dass das Hochrisiko-KI-System die Anforderungen für die CE-Kennzeichnung erfüllt.
(3)  Wo erforderlich, wird der CE-Kennzeichnung die Kennnummer der für die Konformitätsbewertungsverfahren gemäß Artikel 43 zuständigen notifizierten Stelle hinzugefügt. Diese Kennnummer der notifizierten Stelle ist entweder von der Stelle selbst oder nach ihren Anweisungen durch den Bevollmächtigten des Anbieters anzubringen. Diese Kennnummer wird auch auf jeglichem Werbematerial angegeben, in dem darauf hingewiesen wird, dass das Hochrisiko-KI-System die Anforderungen für die CE-Kennzeichnung erfüllt;
Abänderung 476
Vorschlag für eine Verordnung
Artikel 49 – Absatz 3 a (neu)
(3a)  Falls Hochrisiko-KI-Systeme ferner unter andere Rechtsvorschriften der Union fallen, in denen die CE-Kennzeichnung auch vorgesehen ist, bedeutet die CE-Kennzeichnung, dass das Hochrisiko-KI-System auch die Anforderungen dieser anderen Rechtsvorschriften erfüllt.
Abänderung 477
Vorschlag für eine Verordnung
Artikel 50 – Absatz 1 – Einleitung
Der Anbieter hält für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems folgende Unterlagen für die zuständigen nationalen Behörden bereit:
Der Anbieter hält für einen Zeitraum von zehn Jahren ab dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems folgende Unterlagen für die nationale Aufsichtsbehörde und die zuständigen nationalen Behörden bereit:
Abänderung 478
Vorschlag für eine Verordnung
Artikel 51 – Absatz 1
Vor dem Inverkehrbringen oder der Inbetriebnahme eines in Artikel 6 Absatz 2 genannten Hochrisiko-KI-Systems registriert der Anbieter oder gegebenenfalls sein Bevollmächtigter dieses System in der in Artikel 60 genannten EU-Datenbank.
Vor dem Inverkehrbringen oder der Inbetriebnahme eines in Artikel 6 Absatz 2 genannten Hochrisiko-KI-Systems registriert der Anbieter oder gegebenenfalls sein Bevollmächtigter dieses System gemäß Artikel 60 Absatz 2 in der in Artikel 60 genannten EU-Datenbank;
Abänderung 479
Vorschlag für eine Verordnung
Artikel 51 – Absatz 1 a (neu)
Vor der Inbetriebnahme oder der Nutzung eines Hochrisiko-KI-Systems gemäß Artikel 6 Absatz 2 registrieren die folgenden Kategorien von Betreibern die Nutzung dieses KI-Systems in der in Artikel 60 genannten EU-Datenbank:
a)  Betreiber, die Behörden oder Organe, Einrichtungen und sonstige Stellen der Union sind, oder Betreiber, die in deren Namen handeln;
b)  Betreiber, die nach Verordnung (EU) 2022/1925 als Gatekeeper benannte Unternehmen sind.
Abänderung 480
Vorschlag für eine Verordnung
Artikel 51 – Absatz 1 b (neu)
Betreiber, die nicht unter Unterabsatz 1 a fallen, sind berechtigt, die Verwendung eines Hochrisiko-KI-Systems im Sinne von Artikel 6 Absatz 2 freiwillig in der EU-Datenbank gemäß Artikel 60 zu registrieren.
Abänderung 481
Vorschlag für eine Verordnung
Artikel 51 – Absatz 1 c (neu)
Unmittelbar nach jeder wesentlichen Änderung muss ein aktualisierter Registrierungseintrag vorgenommen werden.
Abänderung 482
Vorschlag für eine Verordnung
Titel IV
TRANSPARENZPFLICHTEN FÜR BESTIMMTE KI-SYSTEME
TRANSPARENZPFLICHTEN
Abänderung 483
Vorschlag für eine Verordnung
Artikel 52 – Überschrift
Transparenzpflichten für bestimmte KI-Systeme
Transparenzpflichten
Abänderung 484
Vorschlag für eine Verordnung
Artikel 52 – Absatz 1
(1)  Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.
(1)  Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass das KI-System, der Anbieter selbst oder der Nutzer die natürliche Person, die einem KI-System ausgesetzt ist, rechtzeitig, klar und verständlich darüber informiert, dass sie es mit einem KI-System zu tun hat, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich.
Soweit angemessen und sachdienlich, umfassen diese Informationen auch, welche Funktionen KI-gestützt sind, ob es eine menschliche Aufsicht gibt und wer für den Entscheidungsprozess verantwortlich ist, sowie die bestehenden Rechte und Verfahren, die es natürlichen Personen oder ihren Vertretern nach dem Unionsrecht und dem nationalen Recht ermöglichen, gegen die Anwendung solcher Systeme auf sie Einspruch zu erheben und gerichtlichen Rechtsbehelf gegen Entscheidungen, die von KI-Systemen getroffen wurden, oder gegen Schäden, die durch sie verursacht wurden, einzulegen, einschließlich ihres Rechts, eine Erklärung zu verlangen. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.
Abänderung 485
Vorschlag für eine Verordnung
Artikel 52 – Absatz 2
(2)  Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.
(2)  Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung, das nicht gemäß Artikel 5 verboten ist, informieren die davon betroffenen natürlichen Personen rechtzeitig, klar und verständlich über den Betrieb des Systems und holen ihre Einwilligung vor der Verarbeitung ihrer biometrischen und sonstigen personenbezogenen Daten gemäß der Verordnung (EU) 2016/679, der Verordnung (EU) 2016/1725 bzw. der Richtlinie (EU) 2016/280 ein. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.
Abänderung 486
Vorschlag für eine Verordnung
Artikel 52 – Absatz 3 – Unterabsatz 1
(3)  Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
(3)  Nutzer eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, die fälschlicherweise als echt oder wahrhaftig erscheinen würden und in denen Personen ohne ihre Zustimmung dargestellt werden, die scheinbar Dinge sagen oder tun, die sie nicht gesagt oder getan haben („Deepfake“), müssen in angemessener, zeitnaher, klarer und sichtbarer Weise offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, sowie, wann immer möglich, den Namen der natürlichen oder juristischen Person, die sie erstellt oder manipuliert hat. Offenlegung bedeutet, dass der Inhalt in einer Weise gekennzeichnet wird, die darüber informiert, dass der Inhalt nicht echt ist, und die für den Empfänger dieses Inhalts deutlich sichtbar ist. Bei der Kennzeichnung der Inhalte berücksichtigen die Nutzer den allgemein anerkannten Stand der Technik und die einschlägigen harmonisierten Normen und Spezifikationen.
Abänderung 487
Vorschlag für eine Verordnung
Artikel 52 – Absatz 3 – Unterabsatz 2
Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.
(3a)  Absatz 3 gilt nicht, wenn die Verwendung eines KI-Systems, das Text-, Audio- oder visuelle Inhalte erzeugt oder manipuliert, gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. Wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen oder fiktionalen Filmwerks, Videospiels, visuellen Werks oder analogen Programms ist, so beschränken sich die Transparenzpflichten gemäß Absatz 3 darauf, das Vorhandensein solcher generierten oder manipulierten Inhalte in geeigneter, klarer und sichtbarer Weise offenzulegen, die die Darstellung des Werks nicht beeinträchtigt, und gegebenenfalls die geltenden Urheberrechte offenzulegen. Sie hindern die Strafverfolgungsbehörden auch nicht daran, KI-Systeme zu verwenden, die dazu bestimmt sind, Deepfakes aufzudecken und Straftaten im Zusammenhang mit ihrer Verwendung zu verhindern, zu untersuchen und zu verfolgen.
Abänderung 488
Vorschlag für eine Verordnung
Artikel 52 – Absatz 3 b (neu)
(3b)  Die in den Absätzen 1 bis 3 genannten Informationen werden den natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung bereitgestellt. Sie sind schutzbedürftigen Personen, etwa Menschen mit Behinderungen oder Kindern, zugänglich, und, sofern relevant und möglich, sind ergänzende Verfahren für die Intervention sowie die Meldung und Kennzeichnung von Inhalten seitens der betroffenen natürlichen Personen unter Berücksichtigung des allgemein anerkannten Stands der Technik und der einschlägigen harmonisierten Normen und gemeinsamen Spezifikationen vorzusehen.
Abänderung 489
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1
(1)  KI-Reallabore, die von den zuständigen Behörden eines oder mehrerer Mitgliedstaaten oder vom Europäischen Datenschutzbeauftragten eingerichtet werden, bieten eine kontrollierte Umgebung, um die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem spezifischen Plan zu erleichtern. Dies geschieht unter direkter Aufsicht und Anleitung der zuständigen Behörden, um die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten, die innerhalb des Reallabors beaufsichtigt wird, sicherzustellen.
(1)  Die Mitgliedstaaten richten mindestens ein KI-Reallabor auf nationaler Ebene ein, das spätestens am Tag des Inkrafttretens dieser Verordnung betriebsbereit ist. Dieses Reallabor kann auch gemeinsam mit einem oder mehreren anderen Mitgliedstaaten eingerichtet werden;
Abänderung 490
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 a (neu)
(1a)  Es können auch zusätzliche KI-Reallabore auf regionaler oder lokaler Ebene oder gemeinsam mit anderen Mitgliedstaaten eingerichtet werden;
Abänderung 491
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 b (neu)
(1b)  Die Kommission und der Europäische Datenschutzbeauftragte können, entweder allein, gemeinsam oder in Zusammenarbeit mit einem oder mehreren Mitgliedstaaten, ebenfalls KI-Reallabore auf Unionsebene einrichten;
Abänderung 492
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 c (neu)
(1c)  Die einrichtenden Behörden stellen ausreichende Mittel bereit, um diesem Artikel wirksam und rechtzeitig nachzukommen;
Abänderung 493
Vorschlag für eine Verordnung
Artikel 53– Absatz 1 d (neu)
(1d)  KI-Reallabore bieten gemäß den in Artikel 53 a festgelegten Kriterien eine kontrollierte Umgebung, um Innovation zu fördern und die Entwicklung, Erprobung und Validierung innovativer KI-Systeme für einen begrenzten Zeitraum vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme nach einem bestimmten zwischen den zukünftigen Anbietern und der einrichtenden Behörde vereinbarten Plan zu erleichtern;
Abänderung 494
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 e (neu)
(1e)  Die Einrichtung von KI-Reallaboren soll zu den folgenden Zielen beitragen:
a)  dass die zuständigen Behörden den zukünftigen Anbietern von KI-Systemen Anleitung bieten, um die Einhaltung dieser Verordnung oder gegebenenfalls anderer geltender Rechtsvorschriften der Union und der Mitgliedstaaten sicherzustellen;
b)  dass die zukünftigen Anbieter die Erprobung und Entwicklung innovativer Lösungen im Zusammenhang mit KI-Systemen ermöglichen und erleichtern;
c)  regulatorisches Lernen in einem kontrollierten Umfeld.
Abänderung 495
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 f (neu)
(1f)  Die einrichtenden Behörden bieten Anleitung und Aufsicht innerhalb des Reallabors, um Risiken, insbesondere für die Grundrechte, die Demokratie und die Rechtsstaatlichkeit, die Gesundheit und die Sicherheit sowie die Umwelt zu ermitteln, Maßnahmen zur Minderung ermittelter Risiken und deren Wirksamkeit zu prüfen und nachzuweisen und die Einhaltung der Anforderungen dieser Verordnung und gegebenenfalls anderer Rechtsvorschriften der Union und der Mitgliedstaaten sicherzustellen;
Abänderung 496
Vorschlag für eine Verordnung
Artikel 53 – Absatz 1 g (neu)
(1g)  Die einrichtenden Behörden bieten den zukünftigen Anbietern von Reallaboren, die Hochrisiko-KI-Systeme entwickeln, Anleitung und Aufsicht bei der Erfüllung der in dieser Verordnung festgelegten Anforderungen, sodass die KI-Systeme unter Annahme der Konformität mit den spezifischen Anforderungen dieser Verordnung, die im Reallabor bewertet wurden, aussteigen können. Sofern das KI-System beim Ausstieg aus dem Reallabor die Anforderungen erfüllt, wird von einer Konformität mit dieser Verordnung ausgegangen. In diesem Zusammenhang werden die von der einrichtenden Behörde erstellten Ausstiegsberichte je nach Fall von den Marktüberwachungsbehörden oder den notifizierten Stellen im Rahmen von Konformitätsbewertungsverfahren oder Marktüberwachungsprüfungen berücksichtigt;
Abänderung 497
Vorschlag für eine Verordnung
Artikel 53 – Absatz 2
(2)  Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu Daten gewähren oder unterstützen, sorgen die Mitgliedstaaten dafür, dass die nationalen Datenschutzbehörden und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors einbezogen werden.
(2)  Soweit die innovativen KI-Systeme personenbezogene Daten verarbeiten oder anderweitig der Aufsicht anderer nationaler Behörden oder zuständiger Behörden unterstehen, die den Zugang zu personenbezogenen Daten gewähren oder unterstützen, sorgen die einrichtenden Behörden dafür, dass die nationalen Datenschutzbehörden oder in den in Absatz 1 b genannten Fällen der EDSB und diese anderen nationalen Behörden in den Betrieb des KI-Reallabors sowie in die Überwachung dieser Aspekte im vollen Umfang ihrer entsprechenden Aufgaben und Befugnisse einbezogen werden;
Abänderung 498
Vorschlag für eine Verordnung
Artikel 53 – Absatz 3
(3)  Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden unberührt. Alle erheblichen Risiken für die Gesundheit und Sicherheit und die Grundrechte, die bei der Entwicklung und Erprobung solcher Systeme festgestellt werden, führen zur sofortigen Risikominderung oder, falls dies nicht möglich ist, zur Aussetzung des Entwicklungs- und Erprobungsprozesses bis eine solche Risikominderung erfolgt ist.
(3)  Die KI-Reallabore lassen die Aufsichts- und Abhilfebefugnisse der zuständigen Behörden, einschließlich auf regionaler oder lokaler Ebene, unberührt. Alle erheblichen Risiken für die Grundrechte, Demokratie und Rechtsstaatlichkeit, Gesundheit und Sicherheit oder die Umwelt, die bei der Entwicklung und Erprobung solcher KI-Systeme festgestellt werden, führen zur sofortigen und angemessenen Risikominderung. Die zuständigen Behörden sind befugt, den Erprobungsprozess oder die Teilnahme am Reallabor vorübergehend oder dauerhaft auszusetzen, wenn keine wirksame Risikominderung möglich ist, und unterrichten das Amt für künstliche Intelligenz über diese Entscheidung;
Abänderung 499
Vorschlag für eine Verordnung
Artikel 53 – Absatz 4
(4)  Die am KI-Reallabor Beteiligten bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen.
(4)  Die zukünftigen Anbieter im KI-Reallabor bleiben nach geltendem Recht der Union und der Mitgliedstaaten für Schäden haftbar, die Dritten infolge der Erprobung im Reallabor entstehen. Sofern die zukünftigen Anbieter den in Absatz 1c genannten spezifischen Plan und die Bedingungen für ihre Beteiligung beachten und in gutem Glauben die von den einrichtenden Behörden bereitgestellten Anleitung befolgen, werden jedoch von den Behörden keine Geldbußen für Verstöße gegen diese Verordnung verhängt.
Abänderung 500
Vorschlag für eine Verordnung
Artikel 53 – Absatz 5
(5)  Die zuständigen Behörden der Mitgliedstaaten, die KI-Reallabore eingerichtet haben, koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Europäischen Ausschusses für künstliche Intelligenz zusammen. Sie übermitteln dem Ausschuss und der Kommission jährliche Berichte über die Ergebnisse der Umsetzung dieser Systeme, einschließlich bewährter Verfahren, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung dieser Verordnung und anderer Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden.
(5)  Die einrichtenden Behörden koordinieren ihre Tätigkeiten und arbeiten im Rahmen des Amts für künstliche Intelligenz zusammen;
Abänderung 501
Vorschlag für eine Verordnung
Artikel 53 – Absatz 5 a (neu)
(5a)  Die einrichtenden Behörden unterrichten das Amt für künstliche Intelligenz über die Einrichtung eines Reallabors und können um Unterstützung und Anleitung bitten. Eine Liste der geplanten und bestehenden Reallabore wird vom Amt für künstliche Intelligenz öffentlich zugänglich gemacht und auf dem neuesten Stand gehalten, um eine stärkere Interaktion in den Reallaboren und die transnationale Zusammenarbeit zu fördern;
Abänderung 502
Vorschlag für eine Verordnung
Artikel 53 – Absatz 5 b (neu)
(5b)  Die einrichtenden Behörden übermitteln dem Amt für künstliche Intelligenz und, sofern die Kommission nicht die einzige einrichtende Behörde ist, der Kommission jährliche Berichte, und zwar erstmals ein Jahr nach der Einrichtung des Reallabors und dann jedes Jahr bis zu dessen Beendigung sowie einen Abschlussbericht. Diese Berichte informieren über den Fortschritt und die Ergebnisse der Umsetzung dieser Reallabore, einschließlich bewährter Verfahren, Vorfällen, gewonnener Erkenntnisse und Empfehlungen zu deren Aufbau, sowie gegebenenfalls über die Anwendung und mögliche Überarbeitung dieser Verordnung und anderen Rechtsvorschriften der Union, die innerhalb des Reallabors kontrolliert werden. Diese jährlichen Berichte oder Zusammenfassungen davon werden der Öffentlichkeit im Internet zur Verfügung gestellt;
Abänderung 503
Vorschlag für eine Verordnung
Artikel 53 – Absatz 6
(6)  Die Modalitäten und Bedingungen für den Betrieb der KI-Reallabore, einschließlich Genehmigungskriterien und Verfahren für die Beantragung, Auswahl, Beteiligung und für den Ausstieg aus dem Reallabor, sowie die Rechte und Pflichten der Beteiligten werden in Durchführungsrechtsakten festgelegt. Diese Durchführungsrechtsakte werden gemäß dem in Artikel 74 Absatz 2 genannten Prüfverfahren erlassen.
(6)  Die Kommission richtet eine eigene Schnittstelle, die alle relevanten Informationen zu den Reallaboren enthält, sowie eine zentrale Kontaktstelle auf Unionsebene ein, um mit den Reallaboren zu interagieren und den Interessenträgern die Möglichkeit zu geben, Anfragen an die zuständigen Behörden zu richten und unverbindliche Beratung zur Konformität innovativer Produkte, Dienstleistungen und Geschäftsmodelle mit integrierter KI-Technologie einzuholen;
Die Kommission stimmt sich proaktiv mit den nationalen, regionalen und gegebenenfalls auch lokalen Behörden ab;
Abänderung 504
Vorschlag für eine Verordnung
Artikel 53 – Absatz 6 a (neu)
(6a)  Für die Zwecke der Absätze 1 und 1a übernimmt die Kommission eine ergänzende Rolle, indem sie einerseits den Mitgliedstaaten die Möglichkeit gibt, auf ihrem Fachwissen aufzubauen, und andererseits jenen Mitgliedstaaten, die sich bei der Einrichtung und dem Betrieb dieser Reallabore beraten lassen wollen, mit technischen Schulungen und Ressourcen zur Seite steht.
Abänderung 505
Vorschlag für eine Verordnung
Artikel 53 a (neu)
Artikel 53a
Modalitäten und Funktionsweise von KI-Reallaboren
(1)  Um eine Zersplitterung in der Union zu vermeiden, erlässt die Kommission in Absprache mit dem Amt für künstliche Intelligenz einen delegierten Rechtsakt, in dem die Modalitäten für die Einrichtung, Entwicklung, Umsetzung, Funktionsweise und Überwachung der KI-Reallabore, einschließlich der Genehmigungskriterien und des Verfahrens für die Beantragung, die Auswahl, die Beteiligung und den Ausstieg aus dem Reallabor sowie der Rechte und Pflichten der Teilnehmer auf der Grundlage der Bestimmungen dieses Artikels festgelegt werden;
(2)  Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß dem Verfahren in Artikel 73 innerhalb von 12 Monaten nach Inkrafttreten dieser Verordnung zu erlassen, und sie sorgt dafür, dass
a)  Reallabore allen zukünftigen Anbietern eines KI-Systems, die einen Antrag stellen und die Eignungs- und Auswahlkriterien erfüllen, offen stehen. Die Kriterien für den Zugang zu den Reallaboren sind transparent und fair, und die einrichtenden Behörden teilen den Antragstellern ihre Entscheidung innerhalb von drei Monaten nach der Antragstellung mit;
b)  die Reallabore einen breiten und gleichberechtigten Zugang ermöglichen und mit der Nachfrage nach Beteiligung Schritt halten;
c)  der Zugang zu KI-Reallaboren für KMU und Start-ups kostenlos ist, unbeschadet außergewöhnlicher Kosten, die einrichtende Behörden in einer fairen und verhältnismäßigen Weise einfordern können;
d)  Reallabore die Einbeziehung anderer relevanter Akteure innerhalb des KI-Ökosystems, wie etwa notifizierte Stellen und Normungsorganisationen (KMU, Start-ups, Unternehmen, Innovatoren, Erprobungs- und Versuchseinrichtungen, Forschungs- und Versuchslabore und digitale Innovationszentren, Kompetenzzentren, einzelne Forscher) begünstigen, um die Zusammenarbeit mit dem öffentlichen und privaten Sektor zu ermöglichen und zu erleichtern;
e)  sie zukünftigen Anbietern ermöglichen, ihren Verpflichtungen zur Konformitätsbewertung nach dieser Verordnung oder der freiwilligen Anwendung der in Artikel 69 genannten Verhaltenskodizes in einem kontrollierten Umfeld nachzukommen;
f)  die Verfahren, Prozesse und administrativen Anforderungen für die Antragstellung, die Auswahl, die Teilnahme und den Ausstieg aus dem Reallabor einfach, leicht verständlich und klar kommuniziert sind, um die Teilnahme von KMU und Start-ups mit begrenzten rechtlichen und administrativen Kapazitäten zu erleichtern, und unionsweit gestrafft sind, um eine Zersplitterung zu vermeiden, und dass die Teilnahme an einem von einem Mitgliedstaat, der Kommission oder dem EDSB eingerichteten Reallabor gegenseitig und einheitlich anerkannt wird und in der gesamten Union die gleiche Rechtswirkung hat;
g)  die Beteiligung an dem KI-Reallabor auf einen der Komplexität und dem Umfang des Projekts entsprechenden Zeitraum beschränkt ist.
h)  die Reallabore die Entwicklung von Tools und Infrastruktur für die Erprobung, das Benchmarking, die Bewertung und die Erklärung der Dimensionen von KI-Systemen, die für Reallabore von Bedeutung sind, etwa Genauigkeit, Robustheit und Cybersicherheit, sowie die Minimierung der Risiken für die Grundrechte, die Umwelt und die Gesellschaft als Ganzes, erleichtern.
(3)  zukünftige Anbieter in den Reallaboren, insbesondere KMU und Start-ups, Zugang zu im Voraus bereitgestellten Dienstleistungen erhalten, z. B. zu Leitlinien für die Umsetzung dieser Verordnung, zu anderen wertvollen Dienstleistungen wie Hilfe bei Normungsdokumenten und Zertifizierungen und Konsultation sowie zu weiteren Initiativen des digitalen Binnenmarkts wie Erprobungs- und Versuchseinrichtungen, digitalen Knotenpunkten, Kompetenzzentren und EU-Benchmarking-Fähigkeiten;
Abänderung 506
Vorschlag für eine Verordnung
Artikel 54 – Überschrift
Weiterverarbeitung personenbezogener Daten zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse im KI-Reallabor
Weiterverarbeitung von Daten zur Entwicklung bestimmter KI-Systeme im öffentlichen Interesse im KI-Reallabor
Abänderung 507
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Einleitung
(1)  Im KI-Reallabor dürfen personenbezogene Daten, die rechtmäßig für andere Zwecke erhoben wurden, zur Entwicklung und Erprobung bestimmter innovativer KI-Systeme im Reallabor unter folgenden Bedingungen verarbeitet werden:
(1)  Im KI-Reallabor können personenbezogene Daten, die rechtmäßig für andere Zwecke erhoben wurden, ausschließlich zur Entwicklung und Erprobung bestimmter KI-Systeme im Reallabor verarbeitet werden, wenn alle nachstehenden Bedingungen erfüllt sind:
Abänderung 508
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe a – Einleitung
a)  die innovativen KI-Systeme werden entwickelt, um ein erhebliches öffentliches Interesse in einem oder mehreren der folgenden Bereiche zu wahren:
a)  KI-Systeme werden entwickelt, um ein erhebliches öffentliches Interesse in einem oder mehreren der folgenden Bereiche zu wahren:
ii)  öffentliche Sicherheit und öffentliche Gesundheit, einschließlich Erkennung, Diagnose, Verhütung, Bekämpfung und Behandlung von Krankheiten,
iii)  hohes Umweltschutzniveau und Verbesserung der Umweltqualität, Schutz der biologischen Vielfalt, Umweltverschmutzung sowie Klimaschutz und Anpassung an den Klimawandel;
iiia)  Sicherheit und Widerstandsfähigkeit von Verkehrssystemen, kritischen Infrastrukturen und Netzen.
Abänderung 509
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe a – Ziffer i
i)  Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit unter der Kontrolle und Verantwortung der zuständigen Behörden, wobei die Verarbeitung auf der Grundlage des Rechts der Mitgliedstaaten oder des Unionsrechts erfolgt,
entfällt
Abänderung 510
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe c
c)  es bestehen wirksame Überwachungsmechanismen, um festzustellen, ob während der Erprobung im Reallabor hohe Risiken für die Grundrechte der betroffenen Personen auftreten können, sowie Reaktionsmechanismen, um diese Risiken umgehend zu mindern und erforderlichenfalls die Verarbeitung zu beenden;
c)  es bestehen wirksame Überwachungsmechanismen, um festzustellen, ob während der Erprobung im Reallabor hohe Risiken für die Rechte und Freiheiten der betroffenen Personen gemäß Artikel 35 der Verordnung (EU) 2016/679 und gemäß Artikel 39 der Verordnung (EU) 2018/1725 auftreten können, sowie Reaktionsmechanismen, um diese Risiken umgehend zu mindern und erforderlichenfalls die Verarbeitung zu beenden;
Abänderung 511
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe d
d)  personenbezogene Daten, die im Rahmen des Reallabors verarbeitet werden sollen, befinden sich in einer funktional getrennten, isolierten und geschützten Datenverarbeitungsumgebung unter der Kontrolle der Beteiligten, und nur befugte Personen haben Zugriff auf diese Daten;
d)  personenbezogene Daten, die im Rahmen des Reallabors verarbeitet werden sollen, befinden sich in einer funktional getrennten, isolierten und geschützten Datenverarbeitungsumgebung unter der Kontrolle der zukünftigen Anbieter, und nur befugte Personen haben Zugriff auf diese Daten;
Abänderung 512
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe f
f)  eine Verarbeitung personenbezogener Daten im Rahmen des Reallabors führt zu keinen Maßnahmen oder Entscheidungen, die Auswirkungen auf die betroffenen Personen haben;
f)  eine Verarbeitung personenbezogener Daten im Rahmen des Reallabors führt zu keinen Maßnahmen oder Entscheidungen, die Auswirkungen auf die betroffenen Personen haben, und berührt nicht die Anwendung ihrer Rechte gemäß den Rechtsvorschriften der Union über den Schutz personenbezogener Daten;
Abänderung 513
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe g
g)  personenbezogene Daten, die im Rahmen des Reallabors verarbeitet wurden, werden gelöscht, sobald die Beteiligung an dem Reallabor beendet wird oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;
g)  personenbezogene Daten, die im Rahmen des Reallabors verarbeitet wurden, sind durch geeignete technische und organisatorische Maßnahmen geschützt und werden gelöscht, sobald die Beteiligung an dem Reallabor beendet wird oder das Ende der Speicherfrist für die personenbezogenen Daten erreicht ist;
Abänderung 514
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe h
h)  die Protokolle der Verarbeitung personenbezogener Daten im Rahmen des Reallabors werden für die Dauer der Beteiligung am Reallabor und noch 1 Jahr nach deren Beendigung ausschließlich zu dem Zweck und nur so lange aufbewahrt, wie dies zur Erfüllung der Rechenschafts- und Dokumentationspflichten nach diesem Artikel oder anderen anwendbaren Rechtsvorschriften der Union oder der Mitgliedstaaten erforderlich ist;
h)  die Protokolle der Verarbeitung personenbezogener Daten im Rahmen des Reallabors werden für die Dauer der Beteiligung am Reallabor aufbewahrt;
Abänderung 515
Vorschlag für eine Verordnung
Artikel 54 – Absatz 1 – Buchstabe j
j)  eine kurze Zusammenfassung des im KI-Reallabor entwickelten KI-Projekts, seiner Ziele und erwarteten Ergebnisse wird auf der Website der zuständigen Behörden veröffentlicht.
j)  eine kurze Zusammenfassung des im KI-Reallabor entwickelten KI-Systems, seiner Ziele, Hypothesen und erwarteten Ergebnisse wird auf der Website der zuständigen Behörden veröffentlicht;
Abänderung 516
Vorschlag für eine Verordnung
Artikel 54 a (neu)
Artikel 54a
Förderung der KI-Forschung und -Entwicklung zur Unterstützung sozial und ökologisch vorteilhafter Resultate
(1)  Die Mitgliedstaaten fördern die Forschung und Entwicklung von KI-Lösungen, die sozial und ökologisch vorteilhafte Ergebnisse unterstützen, einschließlich, aber nicht beschränkt auf die Entwicklung von KI-basierten Lösungen zur Verbesserung der Zugänglichkeit für Menschen mit Behinderungen, zur Beseitigung sozioökonomischer Ungleichheiten und zur Erfüllung von Nachhaltigkeits- und Umweltzielen, durch:
a)  vorrangigen Zugang relevanter Projekte zu den KI-Reallaboren, sofern sie die Voraussetzungen für die Auswahlkriterien erfüllen;
b)  Bereitstellung öffentlicher Mittel, auch aus den einschlägigen EU-Fonds, für die KI-Forschung und -Entwicklung zur Unterstützung sozial und ökologisch vorteilhafter Resultate;
c)  Organisation spezifischer Sensibilisierungsmaßnahmen über die Anwendung dieser Verordnung, die Verfügbarkeit von und die Antragsverfahren für gezielte Finanzierung, die auf die Bedürfnisse dieser Projekte zugeschnitten sind;
d)  gegebenenfalls die Einrichtung zugänglicher gezielter Kanäle, auch innerhalb der Reallabore, für die Kommunikation mit den Projekten, um Anleitungen zu geben und Anfragen zur Umsetzung dieser Verordnung zu beantworten.
Die Mitgliedstaaten unterstützen die Zivilgesellschaft und die gesellschaftlichen Akteuren bei der Leitung von oder der Beteiligung an solchen Projekten;
Abänderung 517
Vorschlag für eine Verordnung
Artikel 55 – Überschrift
Maßnahmen für Kleinanbieter und Kleinnutzer
Maßnahmen für KMU, Start-up-Unternehmen und Nutzer
Abänderung 518
Vorschlag für eine Verordnung
Artikel 55 – Absatz 1 – Buchstabe a
a)  Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für Kleinanbieter und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;
a)  Gewährung eines vorrangigen Zugangs zu den KI-Reallaboren für in der Union niedergelassene KMU und Start-up-Unternehmen, soweit sie die entsprechenden Voraussetzungen erfüllen;
Abänderung 519
Vorschlag für eine Verordnung
Artikel 55 – Absatz 1 – Buchstabe b
b)  Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse der Kleinanbieter und Kleinnutzer ausgerichtet sind;
b)  Durchführung besonderer Sensibilisierungsmaßnahmen für die Anwendung dieser Verordnung, die auf die Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern ausgerichtet sind;
Abänderung 520
Vorschlag für eine Verordnung
Artikel 55 – Absatz 1 – Buchstabe c
c)  gegebenenfalls Einrichtung eines eigenen Kanals für die Kommunikation mit Kleinanbietern, Kleinnutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten.
c)  Nutzung der entsprechenden bestehenden Kanäle und gegebenenfalls Einrichtung neuer eigener Kanäle für die Kommunikation mit KMU, Start-up-Unternehmen, Nutzern und anderen Innovatoren, um Orientierungen zu geben und Fragen zur Durchführung dieser Verordnung zu beantworten;
Abänderung 521
Vorschlag für eine Verordnung
Artikel 55 – Absatz 1 – Buchstabe c a (neu)
ca)  Förderung der Beteiligung von KMU und anderen einschlägigen Interessenträgern an der Entwicklung von Normen;
Abänderung 522
Vorschlag für eine Verordnung
Artikel 55 – Absatz 2
(2)  Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von Kleinanbietern berücksichtigt, indem diese Gebühren proportional zu ihrer Größe und der Größe ihres Marktes gesenkt werden.
(2)  Bei der Festsetzung der Gebühren für die Konformitätsbewertung gemäß Artikel 43 werden die besonderen Interessen und Bedürfnisse von KMU, Start-up-Unternehmen und Nutzern berücksichtigt, indem diese Gebühren proportional zum Entwicklungsstadium, zu ihrer Größe, der Größe ihres Marktes und der Marktnachfrage gesenkt werden. Die Kommission bewertet regelmäßig die Zertifizierungs- und Befolgungskosten für KMU und Start-up-Unternehmen, unter anderem durch transparente Konsultationen mit KMU, Start-up-Unternehmen und Nutzern, und arbeitet mit den Mitgliedstaaten zusammen, um diese Kosten nach Möglichkeit zu senken. Die Kommission erstattet dem Europäischen Parlament und dem Rat im Rahmen des Berichts über die Bewertung und Überarbeitung dieser Verordnung gemäß Artikel 84 Absatz 2 Bericht über diese Ergebnisse.
Abänderung 523
Vorschlag für eine Verordnung
Artikel 56 – ABSCHNITT 1 – Überschrift
Titel
ABSCHNITT 1: Allgemeine Bestimmungen über das Europäische Amt für künstliche Intelligenz
Abänderung 524
Vorschlag für eine Verordnung
Artikel 56 – Überschrift
Einrichtung des Europäischen Ausschusses für künstliche Intelligenz
Einrichtung des Europäischen Amts für künstliche Intelligenz
Abänderung 525
Vorschlag für eine Verordnung
Artikel 56 – Absatz 1
(1)  EinEuropäischer Ausschuss für künstliche Intelligenz“ (im Folgenden „Ausschuss“) wird eingerichtet.
(1)  DasEuropäische Amt für künstliche Intelligenz“ (im Folgenden „Amt für künstliche Intelligenz“) wird hiermit eingerichtet. Das Amt für künstliche Intelligenz ist eine selbständige Einrichtung der Union. Es besitzt Rechtspersönlichkeit.
Abänderung 526
Vorschlag für eine Verordnung
Artikel 56 – Absatz 2 – Einleitung
(2)  Der Ausschuss berät und unterstützt die Kommission zu folgenden Zwecken:
(2)  Das Amt für künstliche Intelligenz hat ein Sekretariat und wird angemessen mit Mitteln und Personal ausgestattet, um seine Aufgaben gemäß dieser Verordnung wahrzunehmen.
Abänderung 527
Vorschlag für eine Verordnung
Artikel 56 – Absatz 2 a (neu)
(2a)  Das Amt für künstliche Intelligenz hat seinen Sitz in Brüssel.
Abänderung 528
Vorschlag für eine Verordnung
Artikel 56 a (neu)
Artikel 56a
Struktur
Die Verwaltungs- und Leitungsstruktur des Amts für künstliche Intelligenz umfasst
a)  einen Verwaltungsrat, einschließlich eines Vorsitzes
b)  ein von einem Verwaltungsdirekter geleitetes Sekretariat
c)  einen Beirat.
Abänderung 529
Vorschlag für eine Verordnung
Artikel 56 b (neu)
Artikel 56b
Aufgaben des Amts für künstliche Intelligenz
Das Amt für künstliche Intelligenz nimmt folgende Aufgaben wahr:
a)  Unterstützung, Beratung und Zusammenarbeit mit den Mitgliedstaaten, den nationalen Aufsichtsbehörden, der Kommission und anderen Organen, Einrichtungen, Ämtern und Agenturen der Union bei der Durchführung dieser Verordnung;
b)  Überwachung und Sicherstellung der wirksamen und einheitlichen Anwendung dieser Verordnung unbeschadet der Aufgaben der nationalen Aufsichtsbehörden;
c)  Beteiligung an der Koordinierung zwischen den für die Anwendung dieser Verordnung zuständigen nationalen Aufsichtsbehörden;
d)  Vermittlerfunktion bei Diskussionen über schwerwiegende Meinungsverschiedenheiten, die sich zwischen den zuständigen Behörden hinsichtlich der Anwendung der Verordnung ergeben können;
e)  Koordinierung der gemeinsamen Untersuchungen gemäß Artikel 66a;
f)  Beitrag zur wirksamen Zusammenarbeit mit den zuständigen Behörden von Drittstaaten und mit internationalen Organisationen;
g)  Sammlung von Fachwissen und bewährten Verfahren und deren Austausch zwischen den Mitgliedstaaten sowie Unterstützung der nationalen Aufsichtsbehörden der Mitgliedstaaten und der Kommission bei der Entwicklung des für die Umsetzung dieser Verordnung erforderlichen organisatorischen und technischen Fachwissens, unter anderem durch die Förderung der Schaffung und Pflege eines Expertenpools der Union;
h)  Prüfung von Fragen im Zusammenhang mit der Durchführung dieser Verordnung auf eigene Initiative oder auf Anfrage seines Verwaltungsrates oder der Kommission sowie Abgabe von Stellungnahmen, Empfehlungen oder schriftlichen Beiträgen, unter anderem in Bezug auf:
i)  technische Spezifikation oder bestehende Normen; ii) die Leitlinien der Kommission
iii)  Verhaltenskodizes und deren Anwendung in enger Zusammenarbeit mit der Industrie und anderen einschlägigen Interessenträgern;
iv)  die mögliche Überarbeitung der Verordnung, die Ausarbeitung der delegierten Rechtsakte und mögliche Anpassungen dieser Verordnung an die in Anhang II aufgeführten Rechtsakte;
v)  Trends, wie z. B. die globale Wettbewerbsfähigkeit Europas im Bereich der künstlichen Intelligenz, die Übernahme von künstlicher Intelligenz in der Union, die Entwicklung digitaler Fähigkeiten und neu aufkommende systemische Bedrohungen im Zusammenhang mit künstlicher Intelligenz;
vi)  Empfehlungen, wie diese Verordnung auf die sich ständig weiterentwickelnde Typologie der KI-Wertschöpfungsketten, insbesondere auf die sich daraus ergebenden Auswirkungen auf die Rechenschaftspflicht aller beteiligten Stellen, Anwendung findet.
i)  Veröffentlichung
i)  eines jährlichen Berichts mit einer Bewertung der Durchführung dieser Verordnung, einer Überprüfung der Meldungen schwerwiegender Vorfälle gemäß Artikel 62 und das Funktionieren der in Artikel 60 genannten Datenbank sowie
ii)  von Empfehlungen an die Kommission zur Einstufung von verbotenen Praktiken, zu den in Anhang III genannten Hochrisiko-KI-Systemen, zu den in Artikel 69 genannten Verhaltenskodizes und zur Anwendung der in Artikel 4a dargelegten allgemeinen Grundsätze.
j)  Unterstützung der Behörden bei der Einrichtung und Entwicklung von Reallaboren und Erleichterung der Zusammenarbeit zwischen den Reallaboren;
k)  Veranstaltung von Sitzungen mit Agenturen und leitenden Organen der Union, deren Aufgaben mit künstlicher Intelligenz und der Durchführung dieser Verordnung zu tun haben;
l)  Abhaltung von vierteljährlichen Anhörungen mit dem Beirat und gegebenenfalls von öffentlichen Anhörungen mit anderen Interessenträgern sowie Veröffentlichung der Ergebnisse dieser Anhörungen auf seiner Website;
m)  Sensibilisierung und Aufklärung der Öffentlichkeit in Bezug auf die Vorteile, Risiken, Schutzmaßnahmen, Rechte und Pflichten im Zusammenhang mit der Nutzung von KI-Systemen;
n)  Erleichterung der Entwicklung gemeinsamer Kriterien und eines gemeinsamen Verständnisses der Marktteilnehmer und der zuständigen Behörden in Bezug auf die in dieser Verordnung vorgesehenen einschlägigen Konzepte;
o)  Überwachung von Basismodellen und Veranstaltung eines regelmäßigen Dialogs mit den Entwicklern von Basismodellen in Bezug auf deren Konformität sowie von KI-Systemen, die solche KI-Modelle nutzen;
p)  Bereitstellung eines Auslegungsleitfadens, wie das Gesetz über künstliche Intelligenz Anwendung auf die sich ständig weiterentwickelnde Typologie der KI-Wertschöpfungsketten findet und welche Auswirkungen sich daraus für die Rechenschaftspflicht aller beteiligten Stellen im Rahmen der verschiedenen Szenarien auf der Grundlage des allgemein anerkannten Stand der Technik ergeben, wie er auch in einschlägigen harmonisierten Normen zum Ausdruck kommt;
q)  Besondere Aufsicht und Überwachung sowie Institutionalisierung eines regelmäßigen Dialogs mit den Anbietern von Basismodellen über die Erfüllung des Artikels 28b dieser Verordnung von Basismodellen und KI-Systemen, die solche KI-Modelle nutzen, sowie über bewährte Verfahren der Branche für die Selbstverwaltung. Die nationalen Aufsichtsbehörden, die notifizierten Stellen und die Marktüberwachungsbehörden können an jeder solchen Sitzung teilnehmen und Beiträge leisten.
r)  Veröffentlichung und regelmäßige Aktualisierung von Leitlinien zu den Schwellenwerten, ab denen das Trainieren eines Basismodells als großer Trainingslauf gilt, Aufzeichnung und Überwachung bekannter Fälle von großen Trainingsläufen sowie Veröffentlichung eines jährlichen Berichts über den Stand der Entwicklung, Verbreitung und Nutzung von Basismodellen zusammen mit politischen Optionen zur Bewältigung der spezifischen Risiken und Chancen von Basismodellen.
s)  Förderung der KI-Kompetenz gemäß Artikel 4b.
Abänderung 530
Vorschlag für eine Verordnung
Artikel 56 c (neu)
Artikel 56c
Rechenschaftspflicht, Unabhängigkeit und Transparenz
(1)  Das Amt für künstliche Intelligenz
a)  ist im Einklang mit dieser Verordnung gegenüber dem Europäischen Parlament und dem Rat rechenschaftspflichtig;
b)  handelt bei der Erfüllung seiner Aufgaben oder der Ausübung seiner Befugnisse unabhängig; und
c)  stellt ein hohes Maß an Transparenz für seine Tätigkeiten sicher und entwickelt diesbezüglich gute Verwaltungspraktiken.
Für die Dokumente des Amts für künstliche Intelligenz findet die Verordnung (EG) Nr. 1049/2001 Anwendung.
Abänderung 531
Vorschlag für eine Verordnung
Artikel 57 a (neu) – ABSCHNITT 2 – Überschrift
Titel
ABSCHNITT 2: Verwaltungsrat
Abänderung 532
Vorschlag für eine Verordnung
Artikel 57 a (neu)
Artikel 57a
Zusammensetzung des Verwaltungsrats
(1)  Dem Verwaltungsrat gehören die folgenden Mitglieder an:
a)  ein Vertreter der nationalen Aufsichtsbehörde eines jeden Mitgliedstaats;
b)  ein Vertreter der Kommission;
c)  ein Vertreter des Europäischen Datenschutzbeauftragten (EDSB);
d)  ein Vertreter der Agentur der Europäischen Union für Cybersicherheit (ENISA);
e)  ein Vertreter der Agentur für Grundrechte (FRA)
Jeder Vertreter einer nationalen Aufsichtsbehörde hat eine Stimme. Die Vertreter der Kommission, des EDSB, der ENISA und der FRA haben kein Stimmrecht. Jedes Mitglied hat einen Stellvertreter. Bei der Ernennung der Mitglieder und der stellvertretenden Mitglieder des Verwaltungsrats wird auf ein ausgewogenes Verhältnis zwischen den Geschlechtern geachtet. Die Mitglieder des Verwaltungsrats und ihre stellvertretenden Mitglieder werden öffentlich bekannt gemacht.
(2)  Die Mitglieder und stellvertretenden Mitglieder des Verwaltungsrats dürfen keine im Konflikt stehenden Funktionen oder geschäftlichen Interessen in Bezug auf Themen im Zusammenhang mit der Anwendung dieser Verordnung innehaben bzw. haben.
(3)  Die Regeln für die Sitzungen und Abstimmungen des Verwaltungsrats sowie für die Ernennung und Abberufung des Exekutivdirektors werden in der in Artikel 57 b Buchstabe a genannten Geschäftsordnung festgelegt.
Abänderung 533
Vorschlag für eine Verordnung
Artikel 57 b (neu)
Artikel 57b
Aufgaben des Verwaltungsrats
(1)  Der Verwaltungsrat hat folgende Aufgaben:
a)  Verabschiedung strategischer Entscheidungen über die Tätigkeiten des Amts für künstliche Intelligenz und Erlass seiner Geschäftsordnung mit einer Mehrheit von zwei Dritteln seiner Mitglieder;
b)  Umsetzung seiner Geschäftsordnung;
c)  Annahme des einheitlichen Programmplanungsdokuments des Amts für künstliche Intelligenz sowie seines öffentlichen Jahresberichts und Übermittlung beider an das Europäische Parlament, den Rat, die Kommission und den Rechnungshof;
d)  Verabschiedung des Haushalts des Amts für künstliche Intelligenz;
e)  Ernennung des Exekutivdirektors und gegebenenfalls Verlängerung seiner Amtszeit oder seine Abberufung;
f)  Beschlussfassung über die Festlegung der internen Strukturen des Amts für künstliche Intelligenz und erforderlichenfalls über die Änderung dieser internen Strukturen, die für die Erfüllung der Aufgaben des Amts für künstliche Intelligenz erforderlich sind;
Abänderung 534
Vorschlag für eine Verordnung
Artikel 57 c (neu)
Artikel 57c
Vorsitz des Verwaltungsrats
(1)  Der Verwaltungsrat wählt aus dem Kreis seiner stimmberechtigten Mitglieder mit einfacher Mehrheit einen Vorsitz und zwei stellvertretende Vorsitze.
(2)  Die Amtszeit des Vorsitzes und des stellvertretenden Vorsitzes beträgt vier Jahre. Die Amtszeit des Vorsitzes und der stellvertretenden Vorsitze kann einmal verlängert werden.
Abänderung 535
Vorschlag für eine Verordnung
Artikel 57 – ABSCHNITT 3 – Überschrift
Struktur des Ausschusses
Sekretariat
Abänderung 536
Vorschlag für eine Verordnung
Artikel 57 – Absatz 1
(1)  Der Ausschuss besteht aus den nationalen Aufsichtsbehörden, vertreten durch ihren Leiter oder einen gleichwertigen hochrangigen Beamten der Behörde, und dem Europäischen Datenschutzbeauftragten. Weitere nationale Behörden können zu den Sitzungen eingeladen werden, wenn die erörterten Fragen für sie von Belang sind.
(1)  Die Tätigkeiten des Sekretariats werden von einem Exekutivdirektor geleitet. Der Exekutivdirektor ist dem Verwaltungsrat gegenüber rechenschaftspflichtig. Unbeschadet der jeweiligen Befugnisse des Verwaltungsrats und der Organe der Union darf der Exekutivdirektor Weisungen von Regierungen oder sonstigen Stellen weder einholen noch entgegennehmen.
Abänderung 537
Vorschlag für eine Verordnung
Artikel 57 – Absatz 2
(2)  Der Ausschuss gibt sich mit einfacher Mehrheit seiner Mitglieder und nach Zustimmung der Kommission eine Geschäftsordnung. Die Geschäftsordnung regelt auch die operativen Aspekte der Wahrnehmung der in Artikel 58 aufgeführten Aufgaben des Ausschusses. Der Ausschuss kann gegebenenfalls Untergruppen zur Prüfung besonderer Fragen einsetzen.
(2)  Der Exekutivdirektor nimmt an Anhörungen zu allen Fragen im Zusammenhang mit den Tätigkeiten des Amts für künstliche Intelligenz teil und erstattet auf Aufforderung des Europäischen Parlaments oder des Rates Bericht über die Erfüllung seiner Aufgaben.
Abänderung 538
Vorschlag für eine Verordnung
Artikel 57 – Absatz 3
(3)  Den Vorsitz im Ausschuss führt die Kommission. Die Kommission beruft die Sitzungen ein und bereitet die Tagesordnung im Einklang mit den Aufgaben des Ausschusses gemäß dieser Verordnung und seiner Geschäftsordnung vor. Die Kommission leistet administrative und analytische Unterstützung für die Tätigkeiten des Ausschusses gemäß dieser Verordnung.
(3)  Der Exekutivdirektor vertritt das Amt für künstliche Intelligenz, einschließlich in internationalen Gremien für die Zusammenarbeit im Bereich der künstlichen Intelligenz;
Abänderung 539
Vorschlag für eine Verordnung
Artikel 57 – Absatz 4
(4)  Der Ausschuss kann externe Sachverständige und Beobachter zu seinen Sitzungen einladen und einen Meinungsaustausch mit interessierten Dritten führen, um diesen in angemessenem Umfang in seine Tätigkeiten einfließen zu lassen. Dazu kann die Kommission den Austausch zwischen dem Verwaltungsrat und anderen Einrichtungen, Ämtern, Agenturen und Beratungsgruppen der Union fördern.
(4)  Das Sekretariat leistet dem Verwaltungsrat und dem Beirat die analytische, administrative und logistische Unterstützung, die zur Erfüllung der Aufgaben des Amts für künstliche Intelligenz erforderlich ist, unter anderem durch
a)  die Umsetzung der vom Verwaltungsrat angenommenen Beschlüsse, Programme und Maßnahmen;
b)  die alljährliche Erstellung des Entwurfs des einheitlichen Programmplanungsdokuments, des Entwurfs des Haushaltsplans, des jährlichen Bericht über die Tätigkeiten des Amts für künstliche Intelligenz, der Entwürfe von Stellungnahmen und Standpunkten des Amts für künstliche Intelligenz und deren Übermittlung an den Verwaltungsrat;
c)  die Koordinierung mit internationalen Foren für die Zusammenarbeit im Bereich der künstlichen Intelligenz;
Abänderung 540
Vorschlag für eine Verordnung
Artikel 58 – ABSCHNITT 4 – Überschrift
Aufgaben des Ausschusses
Beirat
Abänderung 541
Vorschlag für eine Verordnung
Artikel 58 – Absatz 1 – Einleitung
Bei der Beratung und Unterstützung der Kommission im Zusammenhang mit Artikel 56 Absatz 2 hat der Ausschuss insbesondere folgende Aufgaben:
Der Beirat liefert dem Amt für künstliche Intelligenz Beiträge der Interessenträger zu Fragen im Zusammenhang mit dieser Verordnung, insbesondere im Hinblick auf die in Artikel 56b Buchstabe l genannten Aufgaben:
Abänderung 542
Vorschlag für eine Verordnung
Artikel 58 – Absatz 2 (neu)
Die Mitglieder des Beirats vertreten eine ausgewogene Auswahl von Interessenträgern, darunter die Industrie, Start-up-Unternehmen, KMU, die Zivilgesellschaft, die Sozialpartner und die Wissenschaft. Bei der Zusammensetzung des Beirats wird auf ein ausgewogenes Verhältnis zwischen gewerblichen und nicht-gewerblichen Interessen und innerhalb der Kategorie der gewerblichen Interessen zwischen KMU und anderen Unternehmen geachtet.
Abänderung 543
Vorschlag für eine Verordnung
Artikel 58 – Absatz 3 (neu)
Der Verwaltungsrat ernennt die Mitglieder des Beirats nach dem in der Geschäftsordnung des Amts für künstliche Intelligenz festgelegten Auswahlverfahren und unter Berücksichtigung des Bedarfs an Transparenz sowie gemäß den in Absatz 2 genannten Kriterien;
Abänderung 544
Vorschlag für eine Verordnung
Artikel 58 – Absatz 4 (neu)
Die Amtszeit der Mitglieder des Beirats beträgt zwei Jahre; sie kann um höchstens vier Jahre verlängert werden.
Abänderung 545
Vorschlag für eine Verordnung
Artikel 58 – Absatz 5 (neu)
Das Europäische Komitee für Normung (CEN), das Europäische Komitee für elektrotechnische Normung (CENELEC) und das Europäische Institut für Telekommunikationsnormen (ETSI) sind ständige Mitglieder des Beirats. Die Gemeinsame Forschungsstelle ist ein ständiges Mitglied ohne Stimmrecht.
Abänderung 546
Vorschlag für eine Verordnung
Artikel 58 – Absatz 6 (neu)
Der Beirat gibt sich eine Geschäftsordnung. Er wählt gemäß den in Absatz 2 festgelegten Kriterien zwei Ko-Vorsitzende unter seinen Mitgliedern. Die Amtszeit der Ko-Vorsitzenden beträgt zwei Jahre und kann einmal verlängert werden.
Abänderung 547
Vorschlag für eine Verordnung
Artikel 58 – Absatz 7 (neu)
Der Beirat hält mindestens viermal pro Jahr Sitzungen ab. Der Beirat kann Experten und andere Interessenträger zu seinen Sitzungen einladen. Der Exekutivdirektor kann von Amts wegen an den Sitzungen des Beirats teilnehmen.
Abänderung 548
Vorschlag für eine Verordnung
Artikel 58 – Absatz 8 (neu)
Zur der Wahrnehmung seiner Aufgaben gemäß Absatz 1 kann der Beirat Stellungnahmen, Empfehlungen und schriftliche Beiträge ausarbeiten.
Abänderung 549
Vorschlag für eine Verordnung
Artikel 58 – Absatz 9 (neu)
Der Beirat kann gegebenenfalls ständige oder zeitweilige Untergruppen einsetzen, um spezifische Fragen im Zusammenhang mit den Zielen dieser Verordnung zu prüfen.
Abänderung 550
Vorschlag für eine Verordnung
Artikel 58 – Absatz 10 (neu)
Der Beirat erstellt jährlich einen Bericht über seine Tätigkeit. Dieser Bericht wird veröffentlicht.
Abänderung 551
Vorschlag für eine Verordnung
Artikel 58 a – ABSCHNITT 5 – Überschrift
Europäische Benchmarking-Behörden
Abänderung 552
Vorschlag für eine Verordnung
Artikel 58 a (neu)
Artikel 58a
Benchmarking
Die in Artikel 15 Absatz 1a genannten europäischen Benchmarking-Behörden und das Amt für künstliche Intelligenz entwickeln in enger Zusammenarbeit mit internationalen Partnern gemeinsam kosteneffiziente Leitlinien und Kapazitäten zur Messung und zum Vergleich von Aspekten von KI-Systemen und KI-Komponenten und insbesondere von Basismodellen, die für die Einhaltung und Durchsetzung dieser Verordnung relevant sind, und zwar auf der Grundlage des allgemein anerkannten Stands der Technik, wie er auch in einschlägigen harmonisierten Normen zum Ausdruck kommt.
Abänderung 553
Vorschlag für eine Verordnung
Artikel 59 – Überschrift
Benennung der zuständigen nationalen Behörden
Benennung der nationalen Aufsichtsbehörden
Abänderung 554
Vorschlag für eine Verordnung
Artikel 59 – Absatz 1
(1)  Um die Anwendung und Durchführung dieser Verordnung sicherzustellen, werden von jedem Mitgliedstaat zuständige nationale Behörden eingerichtet oder benannt. Die zuständigen nationalen Behörden werden so organisiert, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.
(1)  Jeder Mitgliedstaat benennt bis zum … [drei Monate nach dem Datum des Inkrafttretens dieser Verordnung] eine nationale Aufsichtsbehörde, die so organisiert ist, dass bei der Ausübung ihrer Tätigkeiten und der Wahrnehmung ihrer Aufgaben Objektivität und Unparteilichkeit gewahrt sind.
Abänderung 555
Vorschlag für eine Verordnung
Artikel 59 – Absatz 2
(2)  Jeder Mitgliedstaat benennt aus der Reihe der zuständigen nationalen Behörden eine nationale Aufsichtsbehörde. Die nationale Aufsichtsbehörde fungiert als notifizierende Behörde und als Marktüberwachungsbehörde, es sei denn, der Mitgliedstaat hat organisatorische und administrative Gründe, um mehr als eine Behörde zu benennen.
(2)  Die nationale Aufsichtsbehörde ist dafür verantwortlich, die Anwendung und Durchführung dieser Verordnung sicherzustellen. Hinsichtlich der Hochrisiko-AI-Systeme, die sich auf Produkte beziehen, für die die in Anhang II aufgeführten Rechtsakte gelten, führen die nach diesen Rechtsakten benannten zuständigen Behörden weiterhin die Verwaltungsverfahren durch. Soweit ein Fall jedoch Aspekte betrifft, die ausschließlich unter diese Verordnung fallen, sind die zuständigen Behörden an die von der gemäß dieser Verordnung benannten nationalen Aufsichtsbehörde erlassenen Maßnahmen gebunden. Die nationale Aufsichtsbehörde fungiert als Marktaufsichtsbehörde.
Abänderung 556
Vorschlag für eine Verordnung
Artikel 59 – Absatz 3
(3)  Die Mitgliedstaaten teilen der Kommission ihre Benennung oder Benennungen sowie gegebenenfalls ihre Gründe für die Benennung von mehr als einer Behörde mit.
(3)  Die Mitgliedstaaten machen die nationale Aufsichtsbehörde sowie Informationen darüber, wie sie kontaktiert werden kann, bis zum …[drei Monate nach dem Datum des Inkrafttreten dieser Verordnung] öffentlich zugänglich und setzen das Amt für künstliche Intelligenz und die Kommission darüber in Kenntnis. Die nationale Aufsichtsbehörde fungiert als zentrale Kontaktstelle für diese Verordnung und sollte über elektronische Kommunikationsmittel erreichbar sein.
Abänderung 557
Vorschlag für eine Verordnung
Artikel 59 – Absatz 4
(4)  Die Mitgliedstaaten sorgen dafür, dass die zuständigen nationalen Behörden mit angemessenen finanziellen und personellen Ressourcen ausgestattet werden, damit sie ihre Aufgaben im Rahmen dieser Verordnung wahrnehmen können. Insbesondere müssen die zuständigen nationalen Behörden ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen.
(4)  Die Mitgliedstaaten sorgen dafür, dass die nationale Aufsichtsbehörde mit angemessenen technischen, finanziellen und personellen Ressourcen und Infrastrukturen ausgestattet wird, damit sie ihre Aufgaben wirksam im Rahmen dieser Verordnung wahrnehmen kann. Insbesondere muss die nationale Aufsichtsbehörde ständig über eine ausreichende Zahl von Mitarbeitern verfügen, deren Kompetenzen und Sachkenntnis ein tiefes Verständnis der Technologien der künstlichen Intelligenz, der Daten und Datenverarbeitung, des Schutzes personenbezogener Daten, der Cybersicherheit, des Wettbewerbsrechts, der Grundrechte, der Gesundheits- und Sicherheitsrisiken sowie die Kenntnis der bestehenden Normen und rechtlichen Anforderungen einschließen. Die Mitgliedstaaten bewerten und aktualisieren, falls erforderlich, jährlich die in diesem Absatz genannten Anforderungen an die Kompetenzen und die Ressourcen.
Abänderung 558
Vorschlag für eine Verordnung
Artikel 59 – Absatz 4 a (neu)
(4a)  Jede nationale Aufsichtsbehörde ist bei der Ausübung ihrer Befugnisse und der Wahrnehmung ihrer Aufgaben unabhängig, unparteiisch und unvoreingenommen. Die Mitglieder jeder nationalen Aufsichtsbehörde holen bei der Erfüllung ihrer Aufgaben und der Ausübung ihrer Befugnisse gemäß dieser Verordnung weder Weisungen von Stellen ein noch nehmen sie Weisungen entgegen und sehen von allen mit den Aufgaben ihres Amts nicht zu vereinbarenden Handlungen ab.
Abänderung 559
Vorschlag für eine Verordnung
Artikel 59 – Absatz 4 b (neu)
(4b)  Die nationalen Aufsichtsbehörden erfüllen die Mindestanforderungen an die Cybersicherheit, die für als Betreiber wesentlicher Dienste eingestufte Einrichtungen der öffentlichen Verwaltung gemäß der Richtlinie (EU) 2022/2555 festgelegt wurden.
Abänderung 560
Vorschlag für eine Verordnung
Artikel 59 – Absatz 4 c (neu)
(4c)  Bei der Erfüllung ihrer Aufgaben hält sich die nationale Aufsichtsbehörde an in Artikel 70 festgelegten Vertraulichkeitspflichten.
Abänderung 561
Vorschlag für eine Verordnung
Artikel 59 – Absatz 5
(5)  Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der zuständigen nationalen Behörden, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an den Ausschuss zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.
(5)  Die Mitgliedstaaten übermitteln der Kommission jährlich einen Bericht über den Stand der finanziellen und personellen Ressourcen der nationalen Aufsichtsbehörde, in dem sie auch deren Angemessenheit bewerten. Die Kommission leitet diese Informationen an das Amt für künstliche Intelligenz zur Erörterung und etwaigen Abgabe von Empfehlungen weiter.
Abänderung 562
Vorschlag für eine Verordnung
Artikel 59 – Absatz 6
(6)  Die Kommission fördert den Erfahrungsaustausch zwischen den zuständigen nationalen Behörden.
entfällt
Abänderung 563
Vorschlag für eine Verordnung
Artikel 59 – Absatz 7
(7)  Die zuständigen nationalen Behörden können insbesondere auch Kleinanbietern mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen. Wenn zuständige nationale Behörden beabsichtigen, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, so sind gegebenenfalls die nach jenen Unionsvorschriften dafür zuständigen nationalen Behörden zu konsultieren. Mitgliedstaaten können auch eine zentrale Kontaktstelle für die Kommunikation mit den Akteuren einrichten.
(7)  Die nationalen Aufsichtsbehörden können insbesondere auch KMU und Start-up-Unternehmen unter Berücksichtigung der Leitlinien und Empfehlungen des Amts für künstliche Intelligenz oder der Kommission mit Orientierung und Rat bei der Anwendung dieser Verordnung zur Seite stehen. Wenn die nationale Aufsichtsbehörde beabsichtigt, Orientierung und Rat in Bezug auf KI-Systeme in Bereichen zu geben, die unter andere Rechtsvorschriften der Union fallen, werden die Leitlinien in Absprache mit den zuständigen nationalen Behörden gegebenenfalls nach jenen Unionsvorschriften entworfen.
Abänderung 564
Vorschlag für eine Verordnung
Artikel 59 – Absatz 8
(8)  Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung zuständigen Behörde.
(8)  Soweit Organe, Einrichtungen und sonstige Stellen der Union in den Anwendungsbereich dieser Verordnung fallen, übernimmt der Europäische Datenschutzbeauftragte die Funktion der für ihre Beaufsichtigung und Koordinierung zuständigen Behörde.
Abänderung 565
Vorschlag für eine Verordnung
Artikel 59 a (neu)
Artikel 59a
Mechanismus für die Zusammenarbeit zwischen nationalen Aufsichtsbehörden in Fällen, in denen zwei oder mehr Mitgliedstaaten betroffen sind
(1)  Jede nationale Aufsichtsbehörde nimmt die ihr gemäß dieser Verordnung übertragenen Aufgaben und Befugnisse im Hoheitsgebiet ihres eigenen Mitgliedstaats wahr.
(2)  In Fällen, in denen zwei oder mehr nationale Aufsichtsbehörden betroffen sind, gilt die nationale Aufsichtsbehörde des Mitgliedstaats, in dem der Verstoß begangen wurde, als federführende nationale Aufsichtsbehörde.
(3)  In den in Absatz 2 genannten Fällen arbeiten die betreffenden Aufsichtsbehörden zusammen und tauschen zu gegebener Zeit alle zweckdienlichen Informationen aus. Die nationalen Aufsichtsbehörden arbeiten zusammen, um einen Konsens zu erzielen.
Abänderung 566
Vorschlag für eine Verordnung
Titel VII
KAPITEL VII EU-DATENBANK FÜR EIGENSTÄNDIGE HOCHRISIKO-KI-SYSTEME
EU-DATENBANK FÜR HOCHRISIKO-KI-SYSTEME
Abänderung 567
Vorschlag für eine Verordnung
Artikel 60 – Überschrift
EU-Datenbank für eigenständige Hochrisiko-KI-Systeme
EU-Datenbank für Hochrisiko-KI-Systeme
Abänderung 568
Vorschlag für eine Verordnung
Artikel 60 – Absatz 1
(1)  Die Kommission errichtet und pflegt in Zusammenarbeit mit den Mitgliedstaaten eine EU-Datenbank mit den in Absatz 2 genannten Informationen über Hochrisiko-KI-Systeme nach Artikel 6 Absatz 2, die gemäß Artikel 51 registriert werden.
(1)  Die Kommission errichtet und pflegt in Zusammenarbeit mit den Mitgliedstaaten eine öffentliche EU-Datenbank mit den in Absatz 2 und 2 a genannten Informationen über Hochrisiko-KI-Systeme nach Artikel 6 Absatz 2, die gemäß Artikel 51 registriert werden.
Abänderung 569
Vorschlag für eine Verordnung
Artikel 60 – Absatz 2
(2)  Die in Anhang VIII aufgeführten Daten werden von den Anbietern in die EU-Datenbank eingegeben. Die Kommission leistet ihnen dabei technische und administrative Unterstützung.
(2)  Die in Anhang VIII Abschnitt A aufgeführten Daten werden von den Anbietern in die EU-Datenbank eingegeben.
Abänderung 570
Vorschlag für eine Verordnung
Artikel 60 – Absatz 2 a (neu)
(2a)  Die in Anhang VIII Abschnitt B aufgeführten Daten werden von den Betreibern, die Behörden oder Organe, Einrichtungen oder sonstige Stellen der Union sind oder in deren Namen handeln, sowie von Betreibern, die in Artikel 51 (1a) und (1b) genannte Unternehmen sind, in die EU-Datenbank eingegeben.
Abänderung 571
Vorschlag für eine Verordnung
Artikel 60 – Absatz 3
(3)  Die in der EU-Datenbank gespeicherten Daten sind öffentlich zugänglich.
(3)  Die in der EU-Datenbank gespeicherten Daten sind frei für die Öffentlichkeit verfügbar, benutzerfreundlich und zugänglich, einfach navigierbar und maschinenlesbar und enthalten strukturierte digitale Daten auf der Grundlage eines standardisierten Protokolls.
Abänderung 572
Vorschlag für eine Verordnung
Artikel 60 – Absatz 4
(4)  Die EU-Datenbank enthält personenbezogene Daten nur, soweit dies für die Erfassung und Verarbeitung von Informationen gemäß dieser Verordnung erforderlich ist. Zu diesen Informationen gehören die Namen und Kontaktdaten der natürlichen Personen, die für die Registrierung des Systems verantwortlich sind und die rechtlich befugt sind, den Anbieter zu vertreten.
(4)  Die EU-Datenbank enthält personenbezogene Daten nur, soweit dies für die Erfassung und Verarbeitung von Informationen gemäß dieser Verordnung erforderlich ist. Zu diesen Informationen gehören die Namen und Kontaktdaten der natürlichen Personen, die für die Registrierung des Systems verantwortlich sind und die rechtlich befugt sind, den Anbieter oder den Betreiber, der eine Behörde, ein Organ, eine Einrichtung, ein Amt oder eine Agentur der Union oder ein in deren Namen handelnder Betreiber oder ein in Artikel 51 (1a) und (1b) genanntes Unternehmen ist, zu vertreten.
Abänderung 573
Vorschlag für eine Verordnung
Artikel 60 – Absatz 5
(5)  Die Kommission gilt bezüglich der EU-Datenbank als die für die Verarbeitung verantwortliche Stelle. Sie sorgt auch für eine angemessene technische und administrative Unterstützung der Anbieter.
(5)  Die Kommission gilt bezüglich der EU-Datenbank als die für die Verarbeitung verantwortliche Stelle. Sie sorgt auch für eine angemessene technische und administrative Unterstützung der Anbieter und Betreiber.
Die Datenbank erfüllt die Zugänglichkeitsanforderungen von Anhang I der Richtlinie (EU) 2019/882.
Abänderung 574
Vorschlag für eine Verordnung
Artikel 61 – Absatz 2
(2)  Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen von den Nutzern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen an die KI-Systeme bewerten können.
(2)  Mit dem System zur Beobachtung nach dem Inverkehrbringen müssen sich die einschlägigen von den Betreibern bereitgestellten oder aus anderen Quellen gesammelten Daten zur Leistung der Hochrisiko-KI-Systeme über deren gesamte Lebensdauer hinweg aktiv und systematisch erfassen, dokumentieren und analysieren lassen, und der Anbieter muss damit die fortdauernde Einhaltung der in Titel III Kapitel 2 genannten Anforderungen an die KI-Systeme bewerten können. Soweit erforderlich, umfasst die Beobachtung nach dem Inverkehrbringen eine Analyse der Interaktion mit dem Umfeld anderer KI-Systeme, wozu auch andere Geräte und Software gehören, unter Berücksichtigung der Vorschriften aus Bereichen wie Datenschutz, Rechte des geistigen Eigentums und Wettbewerbsrecht.
Abänderung 575
Vorschlag für eine Verordnung
Artikel 61 – Absatz 3
(3)  Das System zur Beobachtung nach dem Inverkehrbringen muss auf einem entsprechenden Plan beruhen. Der Plan für die Beobachtung nach dem Inverkehrbringen ist Teil der in Anhang IV genannten technischen Dokumentation. Die Kommission erlässt einen Durchführungsrechtsakt, in dem sie die Bestimmungen für die Erstellung eines Musters des Plans für die Beobachtung nach dem Inverkehrbringen sowie die Liste der in den Plan aufzunehmenden Elemente detailliert festlegt.
(3)  Das System zur Beobachtung nach dem Inverkehrbringen muss auf einem entsprechenden Plan beruhen. Der Plan für die Beobachtung nach dem Inverkehrbringen ist Teil der in Anhang IV genannten technischen Dokumentation. Die Kommission erlässt einen Durchführungsrechtsakt, in dem sie die Bestimmungen für die Erstellung eines Musters des Plans für die Beobachtung nach dem Inverkehrbringen sowie die Liste der in den Plan aufzunehmenden Elemente bis zum [zwölf Monate nach dem Datum des Inkrafttreten dieser Verordnung] detailliert festlegt.
Abänderung 576
Vorschlag für eine Verordnung
Artikel 62 – Überschrift
Meldung schwerwiegender Vorfälle und Fehlfunktionen
Meldung schwerwiegender Vorfälle
Abänderung 577
Vorschlag für eine Verordnung
Artikel 62 – Absatz 1 – Einleitung
(1)  Anbieter von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen, melden schwerwiegende Vorfälle oder Fehlfunktionen dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen, den Marktüberwachungsbehörden des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.
(1)  Anbieter und Betreiber, die schwerwiegende Vorfälle von in der Union in Verkehr gebrachten Hochrisiko-KI-Systemen identifiziert haben, melden schwerwiegende Vorfälle dieser Systeme, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen, der nationalen Aufsichtsbehörde des Mitgliedstaats, in dem der Vorfall oder der Verstoß stattgefunden hat.
Abänderung 578
Vorschlag für eine Verordnung
Artikel 62 – Absatz 1 – Unterabsatz 1
Diese Meldung erfolgt unmittelbar, nachdem der Anbieter den kausalen Zusammenhang zwischen dem KI-System und dem Vorfall bzw. der Fehlfunktion oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 15 Tage, nachdem der Anbieter Kenntnis von diesem schwerwiegenden Vorfall oder der Fehlfunktion erlangt hat.
Diese Meldung erfolgt unverzüglich, nachdem der Anbieter oder gegebenenfalls der Betreiber den kausalen Zusammenhang zwischen dem KI-System und dem Vorfall oder die naheliegende Wahrscheinlichkeit eines solchen Zusammenhangs festgestellt hat, oder auf jeden Fall spätestens 72 Stunden, nachdem der Anbieter oder gegebenenfalls der Betreiber Kenntnis von diesem schwerwiegenden Vorfall erlangt hat.
Abänderung 579
Vorschlag für eine Verordnung
Artikel 62 – Absatz 1 a (neu)
(1a)  Nach Feststellung eines kausalen Zusammenhangs zwischen dem KI-System und dem schwerwiegenden Vorfall oder der naheliegenden Wahrscheinlichkeit eines solchen Zusammenhangs ergreift der Anbieter angemessene Korrekturmaßnahmen gemäß Artikel 21.
Abänderung 580
Vorschlag für eine Verordnung
Artikel 62 – Absatz 2
(2)  Sobald die Marktüberwachungsbehörde eine Meldung über einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte erhält, unterrichtet sie die in Artikel 64 Absatz 3 genannten nationalen Behörden oder öffentlichen Stellen. Zur leichteren Einhaltung der Pflichten nach Absatz 1 arbeitet die Kommission entsprechende Leitlinien aus. Diese Leitlinien werden spätestens 12 Monate nach dem Inkrafttreten dieser Verordnung veröffentlicht.
(2)  Sobald die nationale Aufsichtsbehörde eine Meldung über einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte erhält, unterrichtet sie die in Artikel 64 Absatz 3 genannten nationalen Behörden oder öffentlichen Stellen. Zur leichteren Einhaltung der Pflichten nach Absatz 1 arbeitet die Kommission entsprechende Leitlinien aus. Diese Leitlinien werden bis zum [Inkrafttreten dieser Verordnung] veröffentlicht und regelmäßig bewertet.
Abänderung 581
Vorschlag für eine Verordnung
Artikel 62 – Absatz 2 a (neu)
(2a)  Die nationale Aufsichtsbehörde ergreift innerhalb von sieben Tagen nach Eingang der in Absatz 1 genannten Meldung geeignete Maßnahmen. Findet der Verstoß in anderen Mitgliedstaaten statt oder ist damit zu rechnen, dass er in anderen Mitgliedstaaten stattfindet, unterrichtet die nationale Aufsichtsbehörde das Amt für künstliche Intelligenz und die jeweiligen nationalen Aufsichtsbehörden dieser Mitgliedstaaten.
Abänderung 582
Vorschlag für eine Verordnung
Artikel 62 – Absatz 3
(3)  Bei Hochrisiko-KI-Systemen nach Anhang III Nummer 5 Buchstabe b, die von Kreditinstituten im Sinne der Richtlinie 2013/36/EU in Verkehr gebracht oder in Betrieb genommen wurden, sowie bei Hochrisiko-KI-Systemen, bei denen es sich um Sicherheitskomponenten von Produkten handelt, die unter die Verordnung (EU) 2017/745 und die Verordnung (EU) 2017/746 fallen, oder die selbst solche Produkte sind, müssen nur jene schwerwiegenden Vorfälle oder Fehlfunktionen gemeldet werden, die einen Verstoß gegen die Bestimmungen des Unionsrechts zum Schutz der Grundrechte darstellen.
(3)  Bei Hochrisiko-KI-Systemen nach Anhang III, die von Anbietern in Verkehr gebracht oder in Betrieb genommen wurden, die Rechtsinstrumenten der Union mit gleichwertigen Meldepflichten wie jenen in dieser Verordnung festgesetzten unterliegen, wird die Meldung schwerwiegender Vorfälle, die nach dem Unionsrecht einen Verstoß gegen die Grundrechte darstellen, auf die nationale Aufsichtsbehörde übertragen.
Abänderung 583
Vorschlag für eine Verordnung
Artikel 62 – Absatz 3 a (neu)
(3a)  Die nationalen Aufsichtsbehörden melden dem Amt für künstliche Intelligenz jährlich die schwerwiegenden Vorfälle, die ihnen gemäß diesem Artikel gemeldet werden.
Abänderung 584
Vorschlag für eine Verordnung
Artikel 63 – Absatz 1 – Einleitung
(1)  Die Verordnung (EU) 2019/1020 gilt für KI-Systeme, die unter diese Verordnung fallen. Für die Zwecke einer wirksamen Durchsetzung dieser Verordnung gilt jedoch Folgendes:
(1)  Die Verordnung (EU) 2019/1020 gilt für KI-Systeme und Basismodelle, die unter diese Verordnung fallen. Für die Zwecke einer wirksamen Durchsetzung dieser Verordnung gilt jedoch Folgendes:
Abänderung 585
Vorschlag für eine Verordnung
Artikel 63 – Absatz 1 – Buchstabe b a (neu)
ba)  Die nationalen Aufsichtsbehörden fungieren im Rahmen dieser Verordnung als Marktaufsichtsbehörden und haben die gleichen Befugnisse und Pflichten wie Marktaufsichtsbehörden gemäß der Verordnung (EU) 2019/1020.
Abänderung 586
Vorschlag für eine Verordnung
Artikel 63 – Absatz 2
(2)  Die nationale Aufsichtsbehörde erstattet der Kommission regelmäßig über die Ergebnisse ihrer jeweiligen Marktüberwachungstätigkeiten Bericht. Die nationale Aufsichtsbehörde meldet der Kommission und den einschlägigen nationalen Wettbewerbsbehörden unverzüglich alle Informationen, die sie im Verlauf ihrer Marktüberwachungstätigkeiten erlangt hat und die für die Anwendung von Unionsrecht auf Wettbewerbsregeln von Interesse sein könnten.
(2)  Die nationale Aufsichtsbehörde erstattet der Kommission und dem Amt für künstliche Intelligenz jährlich über die Ergebnisse ihrer jeweiligen Marktüberwachungstätigkeiten Bericht. Die nationale Aufsichtsbehörde meldet der Kommission und den einschlägigen nationalen Wettbewerbsbehörden unverzüglich alle Informationen, die sie im Verlauf ihrer Marktüberwachungstätigkeiten erlangt hat und die für die Anwendung von Unionsrecht auf Wettbewerbsregeln von Interesse sein könnten.
Abänderung 587
Vorschlag für eine Verordnung
Artikel 63 – Absatz 3 a (neu)
(3a)  Zum Zweck einer wirksamen Durchsetzung dieser Verordnung können die nationalen Aufsichtsbehörden
a)  unangekündigte Vor-Ort- und Ferninspektionen von Hochrisiko-KI-Systemen durchführen;
b)  Stichproben von Hochrisiko-KI-Systemen nehmen, auch durch Ferninspektionen, um die KI-Systeme zurückzuentwickeln und Beweise für die Nichteinhaltung der Vorschriften zu sammeln.
Abänderung 588
Vorschlag für eine Verordnung
Artikel 63 – Absatz 5
(5)  Für die in Absatz 1 Buchstabe a genannten KI-Systeme, sofern diese Systeme für Strafverfolgungszwecke nach Anhang III Nummern 6 und 7 eingesetzt werden, benennen die Mitgliedstaaten für die Zwecke dieser Verordnung als Marktüberwachungsbehörden entweder die für den Datenschutz nach der Richtlinie (EU) 2016/680 oder der Verordnung (EU) 2016/679 zuständigen Aufsichtsbehörden oder die zuständigen nationalen Behörden, die die Tätigkeiten der Behörden im Bereich der Strafverfolgung, Einwanderung oder Asyl, die solche Systeme in Verkehr bringen oder einsetzen, beaufsichtigen.
(5)  Für KI-Systeme, die für Strafverfolgungszwecke eingesetzt werden, benennen die Mitgliedstaaten für die Zwecke dieser Verordnung als Marktüberwachungsbehörden die für den Datenschutz nach der Richtlinie (EU) 2016/680 zuständigen Aufsichtsbehörden.
Abänderung 589
Vorschlag für eine Verordnung
Artikel 63 – Absatz 7
(7)  Die Mitgliedstaaten erleichtern die Koordinierung zwischen den auf der Grundlage dieser Verordnung benannten Marktüberwachungsbehörden und anderen einschlägigen nationalen Behörden oder Stellen, die die Anwendung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union oder sonstigen Unionsrechts überwachen, das für die in Anhang III aufgeführten Hochrisiko-KI-Systeme relevant sein könnte.
(7)  Die auf der Grundlage dieser Verordnung benannten nationalen Aufsichtsbehörden stimmen sich mit anderen einschlägigen nationalen Behörden oder Stellen ab, die die Anwendung der in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union oder sonstiger Rechtsvorschriften der Union überwachen, die für die in Anhang III aufgeführten Hochrisiko-KI-Systeme relevant sein könnten.
Abänderung 590
Vorschlag für eine Verordnung
Artikel 64 – Absatz 1
(1)  Im Zusammenhang mit ihren Tätigkeiten erhalten die Marktüberwachungsbehörden uneingeschränkten Zugang zu den von den Anbietern genutzten Trainings-, Validierungs- und Testdatensätzen, auch über Anwendungsprogrammierschnittstellen (API) oder sonstige für den Fernzugriff geeignete technische Mittel und Instrumente.
(1)  Im Zusammenhang mit ihren Tätigkeiten und auf ihren begründeten Antrag erhält die nationale Aufsichtsbehörde oder gegebenenfalls der Betreiber über für den Fernzugriff geeignete technische Mittel und Instrumente uneingeschränkten Zugang zu den von den Anbietern genutzten Trainings-, Validierungs- und Testdatensätzen, die für den Zweck ihres Antrags relevant und unbedingt erforderlich sind.
Abänderung 591
Vorschlag für eine Verordnung
Artikel 64 – Absatz 2
(2)  Sofern dies für die Bewertung der Konformität der Hochrisiko-KI-Systeme mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, wird der Marktüberwachungsbehörde auf deren begründetes Verlangen Zugang zum Quellcode des KI-Systems gewährt.
(2)  Sofern dies für die Bewertung der Konformität der Hochrisiko-KI-Systeme mit den in Titel III Kapitel 2 festgelegten Anforderungen notwendig ist, und nachdem alle anderen sinnvollen Möglichkeiten der Überprüfung der Konformität einschließlich Absatz 1 ausgeschöpft sind oder sich als unzureichend erwiesen haben, wird der nationalen Aufsichtsbehörde auf deren begründetes Verlangen Zugang zu den Trainingsmodellen und trainierten Modellen des KI-Systems, einschließlich seiner relevanten Modellparameter, gewährt. Alle nach Artikel 70 erlangten Informationen werden als vertrauliche Informationen behandelt und unterliegen dem geltenden Unionsrecht zum Schutz des geistigen Eigentums und von Geschäftsgeheimnissen und werden nach Abschluss der Untersuchung, für die die Informationen angefordert wurden, gelöscht.
Abänderung 592
Vorschlag für eine Verordnung
Artikel 64 – Absatz 2 a (neu)
(2a)  Absatz 1 und 2 lassen die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 unberührt.
Abänderung 593
Vorschlag für eine Verordnung
Artikel 64 – Absatz 3
(3)  Nationale Behörden oder öffentliche Stellen, die die Einhaltung des Unionsrechts zum Schutz der Grundrechte in Bezug auf den Einsatz der in Anhang III aufgeführten Hochrisiko-KI-Systeme überwachen oder durchsetzen, sind befugt, alle auf der Grundlage dieser Verordnung erstellten oder geführten Unterlagen anzufordern und einzusehen, sofern der Zugang zu diesen Unterlagen für die Ausübung ihres Auftrags im Rahmen ihrer Befugnisse notwendig ist. Die jeweilige Behörde oder öffentliche Stelle unterrichtet die Marktüberwachungsbehörde des betreffenden Mitgliedstaats von jedem diesbezüglichen Verlangen.
(3)  Nationale Behörden oder öffentliche Stellen, die die Einhaltung des Unionsrechts zum Schutz der Grundrechte in Bezug auf den Einsatz der in Anhang III aufgeführten Hochrisiko-KI-Systeme überwachen oder durchsetzen, sind befugt, alle auf der Grundlage dieser Verordnung erstellten oder geführten Unterlagen anzufordern und einzusehen, sofern der Zugang zu diesen Unterlagen für die Ausübung ihres Auftrags im Rahmen ihrer Befugnisse notwendig ist. Die jeweilige Behörde oder öffentliche Stelle unterrichtet die nationale Aufsichtsbehörde des betreffenden Mitgliedstaats von jedem diesbezüglichen Verlangen.
Abänderung 594
Vorschlag für eine Verordnung
Artikel 64 – Absatz 4
(4)  Bis drei Monate nach dem Inkrafttreten dieser Verordnung muss jeder Mitgliedstaat die in Absatz 3 genannten Behörden oder öffentlichen Stellen benannt haben und deren Liste auf einer öffentlich zugänglichen Website der nationalen Aufsichtsbehörde veröffentlichen. Die Mitgliedstaaten übermitteln die Liste der Kommission und allen anderen Mitgliedstaaten und sorgen dafür, dass die Liste stets aktuell bleibt.
(4)  Bis drei Monate nach dem Inkrafttreten dieser Verordnung muss jeder Mitgliedstaat die in Absatz 3 genannten Behörden oder öffentlichen Stellen benannt haben und deren Liste auf einer öffentlich zugänglichen Website der nationalen Aufsichtsbehörde veröffentlichen. Die nationalen Aufsichtsbehörden übermitteln die Liste der Kommission, dem Amt für künstliche Intelligenz und allen anderen nationalen Aufsichtsbehörden und sorgen dafür, dass die Liste stets aktuell bleibt. Die Kommission veröffentlicht auf einer dafür eigens angelegten Website die Liste aller von den Mitgliedstaaten gemäß diesem Artikel benannten zuständigen Behörden.
Abänderung 595
Vorschlag für eine Verordnung
Artikel 64 – Absatz 5
(5)  Sollte die in Absatz 3 genannte Dokumentation nicht ausreichen, um feststellen zu können, ob ein Verstoß gegen das Unionsrecht zum Schutz der Grundrechte vorliegt, kann die in Absatz 3 genannte Behörde oder öffentliche Stelle bei der Marktüberwachungsbehörde einen begründeten Antrag auf Durchführung technischer Tests des Hochrisiko-KI-Systems stellen. Die Marktüberwachungsbehörde führt den Test unter enger Einbeziehung der beantragenden Behörde oder öffentlichen Stelle innerhalb eines angemessenen Zeitraums nach Eingang des Antrags durch.
(5)  Sollte die in Absatz 3 genannte Dokumentation nicht ausreichen, um feststellen zu können, ob ein Verstoß gegen das Unionsrecht zum Schutz der Grundrechte vorliegt, kann die in Absatz 3 genannte Behörde oder öffentliche Stelle bei der nationalen Aufsichtsbehörde einen begründeten Antrag auf Durchführung technischer Tests des Hochrisiko-KI-Systems stellen. Die nationale Aufsichtsbehörde führt den Test unter enger Einbeziehung der beantragenden Behörde oder öffentlichen Stelle innerhalb eines angemessenen Zeitraums nach Eingang des Antrags durch.
Abänderung 596
Vorschlag für eine Verordnung
Artikel 65 – Absatz 1
(1)  Als KI-Systeme, die ein Risiko bergen, gelten Produkte, mit denen ein Risiko im Sinne des Artikels 3 Nummer 19 der Verordnung (EU) 2019/1020 verbunden ist, sofern es sich dabei um Risiken für die Gesundheit oder Sicherheit oder den Schutz der Grundrechte von Personen handelt.
(1)  Als KI-Systeme, die ein Risiko bergen, gelten KI-Systeme, die die Gesundheit und Sicherheit, die Grundrechte von Personen im Allgemeinen, auch am Arbeitsplatz, den Verbraucherschutz, die Umwelt, die öffentliche Sicherheit oder Demokratie oder Rechtsstaatlichkeit und andere öffentliche Interessen, die durch die geltenden Harmonisierungsrechtsvorschriften der Union geschützt sind, in einem Maße beeinträchtigen können, das über das hinausgeht, was im Hinblick auf den beabsichtigten Zweck oder unter den normalen oder vernünftigerweise vorhersehbaren Bedingungen für die Nutzung des betreffenden Systems, einschließlich der Dauer der Nutzung und gegebenenfalls der Anforderungen an Inbetriebnahme, Installation und Wartung, als vernünftig und annehmbar gilt.
Abänderung 597
Vorschlag für eine Verordnung
Artikel 65 – Absatz 2 – Einleitung
(2)  Hat die Marktüberwachungsbehörde eines Mitgliedstaats hinreichende Gründe zu der Annahme, dass ein KI-System ein Risiko im Sinne des Absatzes 1 birgt, prüft sie das betreffende KI-System im Hinblick auf die Erfüllung aller in dieser Verordnung festgelegten Anforderungen und Pflichten. Bestehen Risiken für den Schutz von Grundrechten, unterrichtet die Marktüberwachungsbehörde auch die in Artikel 64 Absatz 3 genannten einschlägigen nationalen Behörden oder öffentlichen Stellen. Die betreffenden Akteure müssen im notwendigen Umfang mit den Marktüberwachungsbehörden und den in Artikel 64 Absatz 3 genannten anderen Behörden oder öffentlichen Stellen zusammenarbeiten.
(2)  Hat die nationale Aufsichtsbehörde eines Mitgliedstaats hinreichende Gründe zu der Annahme, dass ein KI-System ein Risiko im Sinne des Absatzes 1 birgt, prüft sie das betreffende KI-System im Hinblick auf die Erfüllung aller in dieser Verordnung festgelegten Anforderungen und Pflichten. Bestehen Risiken für die Grundrechte, unterrichtet die nationale Aufsichtsbehörde auch umgehend die in Artikel 64 Absatz 3 genannten einschlägigen nationalen Behörden oder öffentlichen Stellen und arbeitet uneingeschränkt mit ihnen zusammen. Dort wo hinreichender Grund zu der Annahme besteht, dass ein KI-System die Schutzbedürftigkeit von gefährdeten Gruppe ausnutzt oder ihre Rechte absichtlich oder unabsichtlich verletzt, ist die nationale Aufsichtsbehörde verpflichtet, die Gestaltungsziele, die Dateneingabe, die Modellauswahl, die Umsetzung und die Ergebnisse des KI-Systems zu untersuchen. Die betreffenden Akteure müssen im notwendigen Umfang mit der nationalen Aufsichtsbehörde und den in Artikel 64 Absatz 3 genannten anderen Behörden oder öffentlichen Stellen zusammenarbeiten.
Abänderung 598
Vorschlag für eine Verordnung
Artikel 65 – Absatz 2 – Unterabsatz 1
Stellt die Marktüberwachungsbehörde im Verlauf dieser Prüfung fest, dass das KI-System die in dieser Verordnung festgelegten Anforderungen und Pflichten nicht erfüllt, fordert sie den betreffenden Akteur unverzüglich auf, alle von ihr möglicherweise vorgegebenen Korrekturmaßnahmen zu ergreifen, die geeignet sind, die Konformität des KI-Systems wiederherzustellen, das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist zurückzurufen.
Stellt die nationale Aufsichtsbehörde oder gegebenenfalls die in Artikel 64 (3) genannte nationale Behörde im Verlauf dieser Prüfung fest, dass das KI-System die in dieser Verordnung festgelegten Anforderungen und Pflichten nicht erfüllt, fordert sie den betreffenden Akteur unverzüglich auf, alle von ihr möglicherweise vorgegebenen Korrekturmaßnahmen zu ergreifen, die geeignet sind, die Konformität des KI-Systems wiederherzustellen, das KI-System vom Markt zu nehmen oder es innerhalb einer der Art des Risikos angemessenen Frist und in jedem Falle innerhalb von fünfzehn Werktagen oder wie in den einschlägigen Harmonisierungsrechtsvorschriften der Union vorgesehen zurückzurufen.
Abänderung 599
Vorschlag für eine Verordnung
Artikel 65 – Absatz 2 – Unterabsatz 2
Die Marktüberwachungsbehörde unterrichtet die betreffende notifizierte Stelle entsprechend. Artikel 18 der Verordnung (EU) 2019/1020 gilt für die in Unterabsatz 2 genannten Maßnahmen.
Die nationale Aufsichtsbehörde unterrichtet die betreffende notifizierte Stelle entsprechend. Artikel 18 der Verordnung (EU) 2019/1020 gilt für die in Unterabsatz 2 genannten Maßnahmen.
Abänderung 600
Vorschlag für eine Verordnung
Artikel 65 – Absatz 3
(3)  Gelangt die Marktüberwachungsbehörde zu der Auffassung, dass die Nichtkonformität nicht auf ihr nationales Hoheitsgebiet beschränkt ist, unterrichtet sie die Kommission und die anderen Mitgliedstaaten über die Ergebnisse der Prüfung und über die Maßnahmen, zu denen sie den Akteur aufgefordert hat.
(3)  Gelangt die nationale Aufsichtsbehörde zu der Auffassung, dass die Nichtkonformität nicht auf ihr nationales Hoheitsgebiet beschränkt ist, unterrichtet sie die Kommission, das Amt für künstliche Intelligenz und die nationalen Aufsichtsbehörden der anderen Mitgliedstaaten unverzüglich über die Ergebnisse der Prüfung und über die Maßnahmen, zu denen sie den Akteur aufgefordert hat.
Abänderung 601
Vorschlag für eine Verordnung
Artikel 65 – Absatz 5
(5)  Ergreift der Akteur in Bezug auf sein KI-System keine geeigneten Korrekturmaßnahmen innerhalb der in Absatz 2 genannten Frist, trifft die Marktüberwachungsbehörde alle geeigneten vorläufigen Maßnahmen, um die Bereitstellung des KI-Systems auf ihrem nationalen Markt zu verbieten oder einzuschränken, das Produkt von diesem Markt zu nehmen oder es zurückzurufen. Diese Behörde unterrichtet die Kommission und die anderen Mitgliedstaaten unverzüglich über diese Maßnahmen.
(5)  Ergreift der Akteur in Bezug auf sein KI-System keine geeigneten Korrekturmaßnahmen innerhalb der in Absatz 2 genannten Frist, trifft die nationale Aufsichtsbehörde alle geeigneten vorläufigen Maßnahmen, um die Bereitstellung des KI-Systems auf ihrem nationalen Markt oder die Inbetriebnahme zu verbieten oder einzuschränken, das KI-System von diesem Markt zu nehmen oder es zurückzurufen. Diese Behörde unterrichtet die Kommission, das Amt für künstliche Intelligenz und die nationalen Aufsichtsbehörden der anderen Mitgliedstaaten umgehend über diese Maßnahmen.
Abänderung 602
Vorschlag für eine Verordnung
Artikel 65 – Absatz 6 – Einleitung
(6)  Die Unterrichtung nach Absatz 5 enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des nicht konformen Systems notwendigen Daten, den Ursprung des KI-Systems, die Art der vermuteten Nichtkonformität und das sich daraus ergebende Risiko, die Art und Dauer der ergriffenen nationalen Maßnahmen und die von dem betreffenden Akteur vorgebrachten Argumente. Die Marktüberwachungsbehörden geben insbesondere an, ob die Nichtkonformität eine oder mehrere der folgenden Ursachen hat:
(6)  Die Unterrichtung nach Absatz 5 enthält alle vorliegenden Angaben, insbesondere die für die Identifizierung des nicht konformen Systems notwendigen Daten, den Ursprung des KI-Systems und die Lieferkette, die Art der vermuteten Nichtkonformität und das sich daraus ergebende Risiko, die Art und Dauer der ergriffenen nationalen Maßnahmen und die von dem betreffenden Akteur vorgebrachten Argumente. Die nationale Aufsichtsbehörde gibt insbesondere an, ob die Nichtkonformität eine oder mehrere der folgenden Ursachen hat:
Abänderung 603
Vorschlag für eine Verordnung
Artikel 65 – Absatz 6 – Buchstabe a
a)  Nichterfüllung der in Titel III Kapitel 2 aufgeführten Anforderungen durch das KI-System;
a)  Nichterfüllung der in dieser Verordnung aufgeführten Anforderungen durch das Hochrisiko-KI-System;
Abänderung 604
Vorschlag für eine Verordnung
Artikel 65 – Absatz 6 – Buchstabe b a (neu)
ba)  Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken;
Abänderung 605
Vorschlag für eine Verordnung
Artikel 65 – Absatz 6 – Buchstabe b b (neu)
bb)  Nichterfüllung der Bestimmungen von Artikel 52.
Abänderung 606
Vorschlag für eine Verordnung
Artikel 65– Absatz 7
(7)  Die anderen Marktüberwachungsbehörden, die kein Verfahren eingeleitet haben, unterrichten unverzüglich die Kommission und die anderen Mitgliedstaaten von jeglichen Maßnahmen und etwaigen ihnen vorliegenden zusätzlichen Erkenntnissen über die Nichtkonformität des betreffenden KI-Systems sowie über ihre Einwände, falls sie die ihnen mitgeteilt nationale Maßnahme ablehnen.
(7)  Die anderen nationalen Aufsichtsbehörden, die kein Verfahren eingeleitet haben, unterrichten unverzüglich die Kommission, das Amt für künstliche Intelligenz und die anderen Mitgliedstaaten von jeglichen Maßnahmen und etwaigen ihnen vorliegenden zusätzlichen Erkenntnissen über die Nichtkonformität des betreffenden KI-Systems sowie über ihre Einwände, falls sie die ihnen mitgeteilt nationale Maßnahme ablehnen.
Abänderung 607
Vorschlag für eine Verordnung
Artikel 65– Absatz 8
(8)  Erhebt weder ein Mitgliedstaat noch die Kommission innerhalb von drei Monaten nach Eingang der in Absatz 5 genannten Unterrichtung Einwände gegen die von einem Mitgliedstaat erlassene vorläufige Maßnahme, so gilt diese Maßnahme als gerechtfertigt. Die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 bleiben hiervon unberührt.
(8)  Erhebt weder eine nationale Aufsichtsbehörde eines Mitgliedstaates noch die Kommission innerhalb von drei Monaten nach Eingang der in Absatz 5 genannten Unterrichtung Einwände gegen die von einer nationalen Aufsichtsbehörde eines anderen Mitgliedstaates erlassene vorläufige Maßnahme, so gilt diese Maßnahme als gerechtfertigt. Die Verfahrensrechte des betreffenden Akteurs nach Artikel 18 der Verordnung (EU) 2019/1020 bleiben hiervon unberührt. Die im ersten Satz dieses Absatzes genannte Frist wird bei Missachtung des Verbots der in Artikel 5 genannten KI-Praktiken auf dreißig Tage gekürzt.
Abänderung 608
Vorschlag für eine Verordnung
Artikel 65– Absatz 9
(9)  Die Marktüberwachungsbehörden aller Mitgliedstaaten tragen dafür Sorge, dass geeignete einschränkende Maßnahmen in Bezug auf das betreffende Produkt ergriffen werden, indem sie beispielsweise das Produkt unverzüglich von ihrem Markt nehmen.