Index 
 Zurück 
 Vor 
 Vollständiger Text 
Verfahren : 2020/2014(INL)
Werdegang im Plenum
Entwicklungsstadium in Bezug auf das Dokument : A9-0178/2020

Eingereichte Texte :

A9-0178/2020

Aussprachen :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Abstimmungen :

PV 20/10/2020 - 21

Angenommene Texte :

P9_TA(2020)0276

Angenommene Texte
PDF 263kWORD 89k
Dienstag, 20. Oktober 2020 - Brüssel
Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz
P9_TA(2020)0276A9-0178/2020
Entschließung
 Anlage
 Anlage

Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz (2020/2014(INL))

Das Europäische Parlament,

–  gestützt auf Artikel 225 des Vertrags über die Arbeitsweise der Europäischen Union,

–  unter Hinweis auf die Artikel 114 und 169 des Vertrags über die Arbeitsweise der Europäischen Union,

–  unter Hinweis auf die Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte(1) (Produkthaftungsrichtlinie),

–  unter Hinweis auf die Richtlinie 2005/29/EG des Europäischen Parlaments und des Rates vom 11. Mai 2005 über unlautere Geschäftspraktiken im binnenmarktinternen Geschäftsverkehr zwischen Unternehmen und Verbrauchern („Richtlinie über unlautere Geschäftspraktiken“)(2) und die Richtlinie 2011/83/EU des Europäischen Parlaments und des Rates vom 25. Oktober 2011 über die Rechte der Verbraucher(3) sowie andere Verbraucherschutzvorschriften,

–  unter Hinweis auf die Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte(4),

–  unter Hinweis auf die Verordnung (EU) 2018/1488 des Rates vom 28. September 2018 zur Gründung des Gemeinsamen Unternehmens für europäisches Hochleistungsrechnen(5),

–  unter Hinweis auf Richtlinie (EU) 2019/770 des Europäischen Parlaments und des Rates vom 20. Mai 2019 über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte und digitaler Dienstleistungen(6),

–  unter Hinweis auf die Interinstitutionelle Vereinbarung vom 13. April 2016 über eine bessere Rechtsetzung und die Leitlinien für eine bessere Rechtsetzung(7),

–  unter Hinweis auf den Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates vom 6. Juni 2018 zur Aufstellung des Programms „Digitales Europa“ für den Zeitraum 2021–2027, (COM(2018)0434),

–  unter Hinweis auf die Mitteilung der Kommission vom 25. April 2018 über „Künstliche Intelligenz für Europa“ (COM(2018)0237),

–  unter Hinweis auf die Mitteilung der Kommission vom 7. Dezember 2018 zu einem koordinierten Plan für künstliche Intelligenz (COM(2018)0795),

–  unter Hinweis auf die Mitteilung der Kommission vom 8. April 2019 zu „Schaffung von Vertrauen in eine auf den Menschen ausgerichtete künstliche Intelligenz“ (COM(2019)0168),

–  unter Hinweis auf den Bericht der Kommission vom 19. Februar 2020 an das Europäische Parlament, den Rat und den Europäischen Wirtschafts- und Sozialausschuss über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung (COM(2020)0064),

–  unter Hinweis auf das Weißbuch der Kommission vom 19. Februar 2020 mit dem Titel „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ (COM(2020)0065),

–  unter Hinweis auf seine Entschließung vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik(8),

–  unter Hinweis auf seine Entschließung vom 1. Juni 2017 zur Digitalisierung der europäischen Industrie(9),

–  unter Hinweis auf seine Entschließung vom 12. September 2018 zu autonomen Waffensystemen(10),

–  unter Hinweis auf seine Entschließung vom 12. Februar 2019 zur umfassenden europäischen Industriepolitik in Bezug auf künstliche Intelligenz und Robotik(11),

–  unter Hinweis auf seine Entschließung vom 12. Februar 2020 zum Thema „Automatisierte Entscheidungsfindungsprozesse: Gewährleistung des Verbraucherschutzes und des freien Verkehrs von Waren und Dienstleistungen“(12),

–  unter Hinweis auf den von der hochrangigen Expertengruppe für künstliche Intelligenz am 8. April 2019 veröffentlichten Bericht „Ethikleitlinien für vertrauenswürdige künstliche Intelligenz“,

–  unter Hinweis auf den von der hochrangigen Expertengruppe für künstliche Intelligenz am 8. April 2019 veröffentlichten Bericht „Definition der künstlichen Intelligenz: wichtigste Fähigkeiten und Wissenschaftsgebiete“ (A definition of AI: Main capabilities and disciplines),

–  unter Hinweis auf den von der hochrangigen Expertengruppe für künstliche Intelligenz am 26. Juni 2019 veröffentlichten Bericht „Empfehlungen zur Politik für und zu Investitionen in vertrauenswürdige künstliche Intelligenz“ (Policy and investment recommendations for trustworthy AI),

–  unter Hinweis auf den Bericht der Untergruppe für neue Technologien der Expertengruppe für Haftung und neue Technologien vom 21 November 2019 mit dem Titel „Haftung für künstliche Intelligenz und andere aufkommende digitale Technologien“ (Liability for Artificial Intelligence and other emerging digital technologies“),

–  unter Hinweis auf die vom Wissenschaftlichen Diensts des Europäischen Parlaments (EPRS) erstellte Studie zur Bewertung des europäischen Mehrwerts mit dem Titel: „Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz: Bewertung des europäischen Mehrwerts“(13),

–  unter Hinweis auf das von der Generaldirektion Wissenschaftlicher Dienst des Europäischen Parlaments erstellte STOA-Briefing zur Politik vom Juni 2016 über rechtliche und ethische Überlegungen zu Robotik(14),

–  unter Hinweis auf die Studie der Generaldirektion Interne Politikbereiche des Europäischen Parlaments vom Oktober 2016 für den Rechtsausschuss mit dem Titel „Zivilrechtliche Regelungen im Bereich Robotik“(15),

–  gestützt auf die Artikel 47 und 54 seiner Geschäftsordnung,

–  unter Hinweis auf die Stellungnahmen des Ausschusses für Binnenmarkt und Verbraucherschutz und des Ausschusses für Verkehr und Tourismus,

–  unter Hinweis auf den Bericht des Rechtsausschusses (A9-0178/2020),

A.  in der Erwägung, dass das Konzept der „Haftung“ im alltäglichen Leben zwei bedeutende Rollen spielt, dass nämlich zum einen sichergestellt wird, dass eine Person, die einen Personen- oder Sachschaden erlitten hat, berechtigt ist, von der Partei, die für den Personen- oder Sachschaden nachweislich haftbar ist, Schadensersatz zu verlangen und zu erhalten, und zum anderen wirtschaftliche Anreize für natürliche und juristische Personen geschaffen werden, an erster Stelle die Verursachung von Personen- oder Sachschäden zu vermeiden oder das Risiko einer Schadensersatzzahlung in ihr Verhalten einzukalkulieren;

B.  in der Erwägung, dass jeder zukunftsorientierte Rechtsrahmen für die zivilrechtliche Haftung Vertrauen in die Sicherheit, Zuverlässigkeit und Beständigkeit der Produkte und Dienstleistungen, auch im Bereich der digitalen Technologien, schaffen muss, um ein Gleichgewicht zwischen wirksamem und angemessenem Schutz von potenziellen Opfern eines Personen- oder Sachschadens und gleichzeitig ausreichendem Spielraum herzustellen, damit Unternehmen, insbesondere kleine und mittlere Unternehmen, neue Technologien, Produkte oder Dienstleistungen entwickeln können; in der Erwägung, dass dies dazu beitragen wird, Vertrauen aufzubauen und Investitionssicherheit zu schaffen; in der Erwägung, dass letztendlich das Ziel eines jeden haftungsrechtlichen Rahmens darin liegen muss, allen Parteien, gleich ob Hersteller, Betreiber, betroffener Person oder jedem Dritten, Rechtssicherheit zu bieten;

C.  in der Erwägung, dass im Rechtssystem eines Mitgliedstaats dessen Haftungsvorschriften für bestimmte Akteure angepasst oder für bestimmte Tätigkeiten strenger gefasst werden können; in der Erwägung, dass verschuldensunabhängige Haftung bedeutet, dass eine Partei auch bei fehlendem Verschulden haftbar gemacht werden kann; in der Erwägung, dass in vielen innerstaatlichen Deliktsrechten der Beklagte verschuldungsunabhängig haftbar ist, wenn ein vom Beklagten für die Öffentlichkeit verursachtes Risiko, beispielsweise in Form von Kraftfahrzeugen oder gefährlichen Tätigkeiten, oder ein von ihm nicht kontrollierbares Risiko, beispielsweise Tiere, einen Personen- oder Sachschaden verursacht;

D.  in der Erwägung, dass jeder künftigen Rechtsvorschrift der Union, die die ausdrückliche Zuweisung von Haftung für Systeme künstlicher Intelligenz (KI-Systeme) zum Ziel hat, eine Analyse und eine Konsultation mit den Mitgliedstaaten über die Übereinstimmung des vorgeschlagenen Gesetzgebungsakts mit den wirtschaftlichen, rechtlichen und sozialen Bedingungen vorausgehen sollte;

E.  in der Erwägung, dass die Frage der Regelung einer zivilrechtlichen Haftung für künstliche Intelligenz (KI) Gegenstand einer breiten öffentlichen Debatte unter Berücksichtigung aller auf dem Spiel stehender Interessen, insbesondere der ethischen, rechtlichen, wirtschaftlichen und sozialen Aspekte, sein sollte, um Missverständnisse und unbegründete Ängste, die diese Technologie bei den Bürgern hervorrufen kann, zu vermeiden; in der Erwägung, dass eine im Rahmen einer Folgenabschätzung durchgeführte sorgfältige Untersuchung der Folgen, die jeder neue Rechtsrahmen für alle Akteure mit sich bringt, eine Voraussetzung für weitere gesetzgeberische Maßnahmen sein sollte;

F.  in der Erwägung, dass der Begriff der KI-Systeme eine große Gruppe verschiedener Technologien umfasst, darunter einfache Statistik, maschinelles Lernen und Deep Learning;

G.  in der Erwägung, dass sich durch Verwendung des Begriffs „automatisierte Entscheidungsfindung“ die mögliche Mehrdeutigkeit des Begriffs „KI“ vermeiden ließe; in der Erwägung, dass „automatisierte Entscheidungsfindung“ einen Nutzer beinhaltet, der anfänglich durch Nutzung einer Software oder eines Dienstes eine Entscheidung teilweise oder ganz an eine Stelle überträgt; in der Erwägung, dass diese Stelle dann wiederum automatisch ausgeführte Entscheidungsmodelle nutzt, um im Namen eines Nutzers eine Handlung durchzuführen oder Informationen für die Entscheidungen des Nutzers bei der Durchführung einer Handlung zu liefern;

H.  in der Erwägung, dass bestimmte KI-Systeme signifikante rechtliche Herausforderungen für die bestehenden Haftungsvorschriften darstellen und zu Situationen führen könnten, in denen es aufgrund ihrer Opazität extrem aufwändig oder sogar unmöglich sein könnte zu identifizieren, unter wessen Kontrolle sich das mit einem KI-System einhergehende Risiko befand oder welcher Code, welche Eingabe oder welche Daten letztendlich zu dem schädlichen Vorgang geführt haben; in der Erwägung, dass dieser Faktor die Ermittlung des Zusammenhangs zwischen Personen- oder Sachschaden und dem verursachenden Verhalten erschweren könnte und dass in der Folge Opfer womöglich keine angemessene Entschädigung erhalten;

I.  in der Erwägung, dass sich die rechtlichen Herausforderungen auch aus der Konnektivität zwischen einem KI-System und anderen KI-Systemen und Nicht-KI-Systemen, ihrer Abhängigkeit von externen Daten, ihrer Anfälligkeit für Cybersicherheitsverletzungen sowie der Gestaltung zunehmend autonomer KI-Systeme ergeben, die unter anderem maschinelles Lernen und Deep-Learning-Techniken verwenden;

J.  in der Erwägung, dass angemessene ethische Standards für KI-Systeme in Verbindung mit soliden und gerechten Entschädigungsverfahren dabei helfen können, diesen rechtlichen Herausforderungen Rechnung zu tragen und das Risiko auszuräumen, dass eine aufstrebende Technologie bei Nutzern auf geringere Akzeptanz stößt; in der Erwägung, dass gerechte Entschädigungsverfahren bedeuten, dass jede Person, die einen von einem KI-System verursachten Personenschaden erleidet oder deren Sachschaden von einem KI-System verursacht wurde, den gleichen Schutzgrad erhalten muss wie in Fällen ohne Beteiligung eines KI-Systems. in der Erwägung, dass der Nutzer sicher sein muss, dass potenzielle Schäden, die durch Systeme, die KI einsetzen, verursacht werden, angemessen versichert sind und dass es einen festgelegten Rechtsweg für die Entschädigung gibt;

K.  in der Erwägung, dass die Rechtssicherheit auch eine wesentliche Voraussetzung für die dynamische Entwicklung und Innovation KI-gestützter Technologie, insbesondere für Start-ups, Kleinst-, kleine und mittlere Unternehmen, und ihre praktische Anwendung im Alltag ist; in der Erwägung, dass die entscheidende Rolle der Start-ups, Kleinst-, kleinen und mittleren Unternehmen, insbesondere in der europäischen Wirtschaft, einen streng verhältnismäßigen Ansatz rechtfertigt, damit sie sich entwickeln und Innovationen einführen können;

L.  in der Erwägung, dass die Bemühungen um die Ermittlung einer einzelnen Lösung, die für das gesamte Risikospektrum geeignet ist, durch die Vielfalt der KI-Systeme und die vielfältigen Risiken, die die Technologie mit sich bringt, erschwert werden; in der Erwägung, dass in diesem Zusammenhang ein Ansatz gewählt werden sollte, bei dem Versuche, Pilotprojekte und regulatorische Sandkästen zum Einsatz kommen, um verhältnismäßige und evidenzbasierte Lösungen zu finden, die bei Bedarf auf bestimmte Situationen und Bereiche zugeschnitten sind;

Einführung

1.  vertritt die Auffassung, dass die mit der Einführung von KI-Systemen in Gesellschaft, Arbeitswelt und Wirtschaft einhergehende Herausforderung eine der wichtigen Fragen der aktuellen politischen Agenda ist; in der Erwägung, dass auf KI beruhende Technologien das Leben in praktisch allen Teilen verbessern können und darauf ausgerichtet sein sollten, das zu tun, angefangen vom persönlichen Bereich – beispielsweise die Verkehrsbranche, personalisierte Bildung, Unterstützung schutzbedürftiger Personen, Fitnessprogramme und Kreditgewährung – über die Arbeitsumgebung – beispielsweise Entlastung von ermüdenden und sich wiederholenden Aufgaben – bis hin zu globalen Herausforderungen wie etwa Klimawandel, Gesundheitsversorgung, Ernährung und Logistik;

2.  ist davon überzeugt, dass für eine effiziente Nutzung der Vorteile und eine Verhinderung von potenziellem Missbrauch von KI-Systemen und für die Vermeidung einer regulatorischen Fragmentierung auf Ebene der Union eine einheitliche, auf Grundsätzen basierende und zukunftssichere Gesetzgebung in der gesamten Union für alle KI-Systeme von zentraler Bedeutung ist; ist der Ansicht, dass, während branchenspezifische Bestimmungen für ein breites Spektrum von möglichen Anwendungen zu bevorzugen sind, ein horizontaler und harmonisierter rechtlicher Rahmen, der auf gemeinsamen Grundsätzen beruht, notwendig erscheint, um für Rechtsklarheit zu sorgen, in der gesamten Union gleiche Standards festzulegen und unsere europäischen Werte und die Rechte der Bürger effektiv zu schützen;

3.  erklärt, dass der digitale Binnenmarkt vollständig harmonisiert sein muss, da die digitale Sphäre durch schnelle grenzübergreifende Dynamik und internationale Datenflüsse gekennzeichnet ist; vertritt die Auffassung, dass die Union die Ziele, die digitale Souveränität der Union aufrechtzuerhalten und digitale Innovation in Europa zu stärken, nur mit an eine Kultur der Neuerung angepassten, konsistenten und gemeinsamen Regeln erreichen wird;

4.  stellt fest, dass der globale Wettlauf um KI bereits im Gange ist und dass die Union darin eine führende Rolle spielen sollte, indem sie ihr wissenschaftliches und technologisches Potenzial ausschöpft; betont nachdrücklich, dass die technologische Entwicklung nicht den Schutz der Nutzer vor Schäden untergraben darf, die durch Geräte und Systeme, die KI einsetzen, verursacht werden können; regt an, die Standards der Union für die zivilrechtliche Haftung auf internationaler Ebene zu fördern;

5.  ist fest davon überzeugt, dass die neuen gemeinsamen Regeln für KI-Systeme nur die Form einer Verordnung annehmen sollten; vertritt die Auffassung, dass die Frage der Haftung bei von einem KI-System verursachten Personen- oder Sachschäden einer der wesentlichen Aspekte ist, die in diesem Rahmen gelöst werden müssen;

Haftung und künstliche Intelligenz

6.  vertritt die Ansicht, dass eine vollständige Überarbeitung der gut funktionierenden Haftungsvorschriften nicht erforderlich ist, aber die Komplexität, Konnektivität, Opazität, Anfälligkeit, die Fähigkeit, durch Aktualisierungen modifiziert zu werden, die Fähigkeit zum eigenständigen Lernen und die potenzielle Autonomie von KI-Systemen sowie die Vielzahl der beteiligten Akteure dennoch eine signifikante Herausforderung darstellen, was die Wirksamkeit der bestehenden Rechtsrahmen auf Unions- und nationaler Ebene im Bereich der Haftung betrifft; vertritt die Auffassung, dass konkrete und abgestimmte Anpassungen der Haftungsvorschriften notwendig sind, um zu vermeiden, dass Umstände eintreten, in denen erlittene Personen- oder Sachschaden letztendlich nicht entschädigt werden;

7.  stellt fest, dass alle von KI-Systemen angetriebenen physischen oder virtuellen Aktivitäten, Vorrichtungen oder Prozesse technisch die direkte oder indirekte Ursache eines Personen- oder Sachschadens sein können, aber doch fast immer das Ergebnis davon sind, dass jemand die Systeme konstruiert, betreibt oder auf sie einwirkt; stellt in diesem Zusammenhang fest, dass es nicht erforderlich ist, KI-Systemen Rechtspersönlichkeit zu verleihen; ist der Ansicht, dass Opazität, Konnektivität und Autonomie von KI-Systemen es in der Praxis sehr schwer oder sogar unmöglich machen könnten, konkrete schädliche Aktionen von KI-Systemen auf konkrete menschliche Eingaben oder Konstruktionsentscheidungen zurückzuführen; weist darauf hin, dass es gemäß den allgemein anerkannten Haftungskonzepten dennoch möglich ist, dieses Hindernis zu umgehen, indem die einzelnen Personen in der gesamten Wertschöpfungskette, die das mit dem KI-System verbundene Risiko verursachen, aufrechterhalten oder kontrollieren, haftbar gemacht werden;

8.  ist der Auffassung, dass sich die Produkthaftungsrichtlinie seit über 30 Jahren als wirksames Mittel erweist, einen Ausgleich für durch ein fehlerhaftes Produkt entstandenen Schaden zu erhalten, dass sie jedoch so überarbeitet werden sollte, dass sie an die digitale Welt angepasst wird und die durch die neuen digitalen Technologien entstehenden Herausforderungen regelt, um ein hohes Maß an wirksamem Verbraucherschutz sowie Rechtssicherheit für Verbraucher und Unternehmen zu gewährleisten und gleichzeitig hohe Kosten und Risiken für KMU und Start-ups zu vermeiden; fordert die Kommission nachdrücklich auf zu prüfen, ob die Produkthaftungsrichtlinie in eine Verordnung umgewandelt werden sollte, die Definition von „Produkten“ zu klären, indem sie feststellt, ob digitale Inhalte und digitale Dienste in ihren Geltungsbereich fallen, und die Anpassung von Begriffen wie „Schaden“, „Fehler“ und „Hersteller“ zu erwägen; vertritt die Auffassung, dass für den Zweck der Rechtssicherheit in der gesamten Union nach der Überarbeitung der Produkthaftungsrichtlinie der Begriff „Hersteller“ Hersteller, Entwickler, Programmierer, Dienstleister sowie Backend-Betreiber umfassen sollte; fordert die Kommission auf, in eindeutig festgelegten Fällen und nach einer eingehenden Prüfung eine Umkehrung der Vorschriften für die Beweislast bei Schäden, die durch neue digitale Technologien verursacht werden, in Erwägung zu ziehen; weist darauf hin, dass es sehr wichtig ist, dafür zu sorgen, dass sich der aktualisierte Rechtsakt der Union nach wie vor auf klar identifizierte Probleme beschränkt, für die es bereits praktikable Lösungen gibt, und gleichzeitig ermöglicht, dass künftige technologische Entwicklungen einschließlich Entwicklungen auf der Grundlage freier und quelloffener Software erfasst werden; stellt fest, dass die Produkthaftungsrichtlinie weiterhin auf zivilrechtliche Haftungsansprüche gegen den Hersteller eines mangelhaften KI-Systems Anwendung finden sollte, wenn das KI-System als unter diese Richtlinie fallendes Produkt zu betrachten ist; betont, dass jede Aktualisierung des Rahmens für die Produkthaftung mit einer Aktualisierung der Richtlinie 2001/95/EG des Europäischen Parlaments und des Rates vom 3. Dezember 2001 über die allgemeine Produktsicherheit(16) einhergehen sollte, um sicherzustellen, dass KI-Systeme dem Grundsatz der eingebauten Sicherheit („safety and security by design“) entsprechen;

9.  vertritt die Auffassung, dass das bestehende verschuldensabhängige Deliktsrecht der Mitgliedstaaten in den meisten Fällen einen ausreichenden Schutzgrad für Personen bietet, die durch einen eingreifenden Dritten, wie einen Hacker, einen Personenschaden erleiden oder deren Eigentum durch einen Dritten beschädigt wurde, da der Eingriff regelmäßig eine verschuldensabhängige Handlung darstellt; stellt fest, dass nur in bestimmten Fällen, einschließlich solcher, in denen der Dritte nicht auffindbar oder mittellos ist, die Hinzufügung von Haftungsvorschriften zur Ergänzung des bestehenden nationalen Deliktsrechts erforderlich erscheint;

10.  vertritt die Auffassung, dass es für diesen Bericht folglich angemessen ist, den Schwerpunkt auf zivilrechtliche Haftungsansprüche gegen den Betreiber eines KI-Systems zu legen; bekräftigt, dass die Haftung des Betreibers durch die Tatsache gerechtfertigt ist, dass er ähnlich dem Eigentümer eines Fahrzeugs ein mit dem KI-System verbundenes Risiko kontrolliert; vertritt die Auffassung, dass aufgrund der Komplexität und Konnektivität des KI-Systems der Betreiber in zahlreichen Fällen die erste sichtbare Ansprechstelle für die betroffene Person sein wird;

Haftung des Betreibers

11.  ist der Ansicht, dass Haftungsvorschriften, die den Betreiber involvieren, unabhängig davon, wo der Betrieb stattfindet und ob er physisch oder virtuell erfolgt, jeden Betrieb von KI-Systemen abdecken müssten; merkt an, dass der Betrieb in öffentlichen Räumen, in denen zahlreiche Personen einer Gefahr ausgesetzt sind, allerdings einen Fall darstellt, den es näher zu betrachten gilt; vertritt die Auffassung, dass potenziellen Opfern eines Personen- oder Sachschadens der Betrieb oft nicht bekannt ist und ihnen regelmäßig keine vertraglichen Haftungsansprüche gegen den Betreiber zustünden; stellt fest, dass, wenn ein Personen- oder Sachschaden eintritt, diesen Personen nur ein Anspruch aus verschuldensabhängiger Haftung zustünde und es sich für sie schwierig gestalten könnte, das Verschulden des Betreibers des KI-Systems nachzuweisen, und somit entsprechende Haftungsansprüche fehlschlagen würden;

12.  erachtet es als angemessen, unter „Betreiber“ sowohl den Frontend- als auch den Backend-Betreiber zu verstehen, solange Letzterer nicht unter die Produkthaftungsrichtlinie fällt; stellt fest, dass „Frontend-Betreiber“ als die natürliche oder juristische Person definiert werden sollte, die ein gewisses Maß an Kontrolle über ein mit dem Betrieb und der Funktionsweise des KI-Systems verbundenes Risiko ausübt und für die sein Betrieb einen Nutzen darstellt; stellt fest, dass der Backend-Betreiber als die natürliche oder juristische Person definiert werden sollte, die auf kontinuierlicher Basis die Merkmale der Technologie definiert, Daten und einen wesentlichen Backend-Support-Dienst bereitstellt und daher auch ein gewisses Maß an Kontrolle über das mit dem Betrieb und der Funktionsweise des KI-Systems verbundene Risiko ausübt; vertritt die Auffassung, dass die Ausübung von Kontrolle jede Handlung des Betreibers bedeutet, die den Betrieb des KI-Systems und damit das Ausmaß beeinflusst, in dem er Dritte seinen potenziellen Risiken aussetzt; vertritt die Auffassung, dass solche Handlungen den Betrieb eines KI-Systems von Anfang bis Ende durch die Bestimmung der Eingabe, der Ausgabe oder der Ergebnisse beeinflussen oder bestimmte Funktionen oder Prozesse innerhalb des KI-Systems verändern könnten;

13.  stellt fest, dass Situationen möglich sind, in denen es mehr als nur einen Betreiber gibt, zum Beispiel einen Backend- und einen Frontend-Betreiber; vertritt die Auffassung, dass in diesem Fall alle Betreiber gemeinschaftlich und gesamtschuldnerisch haften sollten, sie aber berechtigt sein sollten, sich gegenseitig anteilig in Regress zu nehmen; ist der Auffassung, dass die Haftungsanteile nach dem jeweiligen Grad der Kontrolle bestimmt werden sollten, die die Betreiber über das mit dem Betrieb und der Funktionsweise des KI-Systems verbundene Risiko hatten; ist der Auffassung, dass die Rückverfolgbarkeit von Produkten verbessert werden sollte, um die an den verschiedenen Phasen Beteiligten besser zu identifizieren;

Unterschiedliche Haftungsvorschriften für unterschiedliche Risiken

14.  stellt fest, dass die Art von KI-System, über das der Betreiber die Kontrolle ausübt, in Bezug auf die Haftung ein ausschlaggebender Faktor ist; stellt fest, dass ein KI-System, das mit einem hohen inhärenten Risiko behaftet ist und autonom handelt, die Öffentlichkeit potenziell viel stärker gefährdet; vertritt die Auffassung, dass es aufgrund der rechtlichen Herausforderungen, die KI-Systeme für die bestehenden zivilrechtlichen Haftungssysteme darstellen, angemessen erscheint, für diese autonomen KI-Systeme mit hohem Risiko eine gemeinsame verschuldensunabhängige Haftungsregelung zu begründen; betont, dass ein solcher risikobasierter Ansatz, der mehrere Risikostufen umfassen könnte, auf klaren Kriterien und einer geeigneten Definition eines hohen Risikos beruhen und für Rechtssicherheit sorgen sollte;

15.  vertritt die Ansicht, dass ein KI-System ein hohes Risiko darstellt, wenn sein autonomer Betrieb ein signifikantes Potenzial birgt, eine oder mehrere Personen auf eine Weise zu schädigen, die zufällig ist und über das hinausgeht, was vernünftigerweise erwartet werden kann; vertritt die Auffassung, dass bei der Bestimmung, ob ein KI-System ein hohes Risiko in sich birgt, auch der Bereich, in dem erhebliche Risiken zu erwarten sind, sowie die Art der durchgeführten Tätigkeiten berücksichtigt werden müssen; vertritt die Auffassung, dass die Bedeutung des Potenzials von der Wechselwirkung zwischen der Schwere des möglichen Schadens, der Wahrscheinlichkeit, dass das Risiko Personen- oder Sachschaden verursacht, und der Art, in der das KI-System verwendet wird, abhängt;

16.  empfiehlt, dass alle KI-Systeme mit hohem Risiko in einem Anhang der vorgeschlagenen Verordnung erschöpfend aufgeführt werden; stellt fest, dass angesichts der schnellen technologischen Entwicklungen und des erforderlichen technischen Fachwissens die Kommission diesen Anhang unverzüglich, mindestens jedoch alle sechs Monate überprüfen und gegebenenfalls mittels eines delegierten Rechtsakts ändern sollte; vertritt die Ansicht, dass die Kommission eng mit einem neu einzusetzenden ständigen Ausschuss, ähnlich dem bestehenden Ständigen Ausschuss für Ausgangsstoffe oder dem Technischen Ausschuss – Kraftfahrzeuge –, zusammenarbeiten sollte, an dem nationale Sachverständige der Mitgliedstaaten und Interessenträger teilnehmen; vertritt die Auffassung, dass die ausgewogene Zusammensetzung der „hochrangigen Expertengruppe für künstliche Intelligenz“ für die Bildung der Gruppe der Interessenträger als Beispiel dienen kann, wobei der Gruppe zusätzlich Sachverständige auf dem Gebiet der Ethik, Anthropologen, Soziologen und Fachleute auf dem Gebiet der geistigen Gesundheit angehören sollten; ist ferner der Auffassung, dass auch das Europäische Parlament Sachverständige benennen sollte, die dem neu eingesetzten ständigen Ausschuss beratend zur Seite stehen;

17.  stellt fest, dass die Entwicklung von KI-gestützten Technologien äußerst dynamisch ist und sich stetig beschleunigt; betont, dass zur Gewährleistung eines angemessenen Schutzes der Nutzer ein beschleunigter Ansatz erforderlich ist, um neue Geräte und Systeme, die die auf dem europäischen Markt aufkommenden KI-Systeme einsetzen, auf potenzielle Risiken zu untersuchen; empfiehlt, alle Verfahren in dieser Hinsicht so weit wie möglich zu vereinfachen; schlägt ferner vor, dass die Bewertung der Kommission, ob ein KI-System ein hohes Risiko birgt, zu demselben Zeitpunkt beginnen sollte wie die Bewertung der Produktsicherheit, um zu verhindern, dass ein KI-System mit hohem Risiko bereits für den Markt zugelassen, jedoch noch nicht als System mit hohem Risiko eingestuft ist und daher ohne den verpflichtenden Versicherungsschutz betrieben wird;

18.  stellt fest, dass die Kommission bewerten sollte, wie die Ermittlungsbehörde auf die auf KI-Systemen mit hohem Risiko erhobenen, aufgezeichneten oder gespeicherten Daten für die Zwecke der Beweiserhebung im Falle von durch das betreffende KI-System verursachten Personen- oder Sachschaden zugreifen und sie verwenden könnte und wie die Rückverfolgbarkeit und Überprüfbarkeit solcher Daten unter Berücksichtigung der Grund- und Datenschutzrechte verbessert werden könnte;

19.  stellt fest, dass in der vorgeschlagenen Verordnung in Übereinstimmung mit verschuldensunabhängigen Haftungssystemen der Mitgliedstaaten Verletzungen der wichtigen gesetzlich geschützten Rechte wie Leben, Gesundheit, körperliche Unversehrtheit und Eigentum eingeschlossen und die Höhe und das Ausmaß der Entschädigung sowie die Verjährungsfrist festgelegt sein sollten; ist der Auffassung, dass in die vorgeschlagene Verordnung auch ein erheblicher immaterieller Schaden aufgenommen werden sollte, der zu einem nachprüfbaren wirtschaftlichen Verlust oberhalb eines im Haftungsrecht der Union harmonisierten Schwellenwerts führt, wobei zwischen dem Zugang betroffener Personen zur Justiz und den Interessen anderer Beteiligter ein Gleichgewicht hergestellt werden muss; fordert die Kommission auf, den Schwellenwert für Schäden im Unionsrecht neu zu bewerten und anzugleichen; ist der Auffassung, dass die Kommission die Rechtstraditionen in allen Mitgliedstaaten und ihre bestehenden nationalen Gesetze, in denen ein Ausgleich für immaterielle Schäden gewährt wird, eingehend analysieren sollte, um zu evaluieren, ob die Einbeziehung immateriellen Schadens in KI-spezifische Gesetzgebungsakte notwendig ist und ob sie dem bestehenden Rechtsrahmen der Union widerspricht oder das innerstaatliche Recht der Mitgliedstaaten untergräbt;

20.  legt fest, dass alle von KI-Systemen angetriebenen Tätigkeiten, Vorrichtungen oder Prozesse, die einen Personen- oder Sachschaden verursachen, aber nicht im Anhang der vorgeschlagenen Verordnung aufgeführt sind, weiterhin der verschuldensabhängigen Haftung unterliegen sollten; vertritt die Ansicht, dass der betroffenen Person trotzdem die Annahme eines Verschuldens seitens des Betreibers zugutekommen sollte, der in der Lage sein sollte, sich durch den Nachweis zu entlasten, dass er seiner Sorgfaltspflicht nachgekommen ist;

21.  geht davon aus, dass ein KI-.System, das von der Kommission und dem neu einzusetzenden ständigen Ausschuss noch nicht bewertet wurde und folglich noch nicht als System mit hohem Risiko eingestuft und nicht in die Liste im Anhang der vorgeschlagenen Verordnung aufgenommen wurde, in Ausnahme von dem unter Ziffer 20 vorgesehenen System dennoch der verschuldensunabhängigen Haftung unterliegen sollte, wenn es wiederholte Zwischenfälle verursacht hat, die schwerwiegenden Personen- oder Sachschaden nach sich gezogen haben; stellt fest, dass die Kommission, wenn dies der Fall ist, auch unverzüglich bewerten sollte, ob es notwendig ist, diesen Anhang zu überarbeiten, um das betreffende KI-System in die Liste aufzunehmen; ist der Auffassung, dass, wenn die Kommission nach dieser Bewertung beschließt, dieses KI-System in die Liste aufzunehmen, diese Aufnahme rückwirkend ab dem Zeitpunkt des ersten nachgewiesenen Zwischenfalls, der einen schwerwiegenden Personen- oder Sachschaden nach sich gezogen hat, gelten sollte;

22.  fordert die Kommission auf zu evaluieren, ob Rechtsvorschriften auf Unionsebene über Verträge notwendig sind, um vertragliche Haftungsausschlussklauseln, auch in Beziehungen zwischen Unternehmen sowie zwischen Unternehmen und Behörden, zu verhindern;

Versicherungen und KI-Systeme

23.  vertritt die Auffassung, dass die Deckung der Haftung einer der entscheidenden Faktoren sein wird, an denen der Erfolg neuer Technologien, Produkte und Dienstleistungen festzumachen ist; beobachtet, dass eine korrekte Deckung der Haftung auch von grundlegender Bedeutung ist, damit die Öffentlichkeit trotz der Möglichkeit, einen Schaden zu erleiden oder sich rechtlichen Forderungen von betroffenen Personen stellen zu müssen, auf die neuen Technologien vertrauen kann; ist zugleich der Auffassung, dass mit diesem regulatorischen System der Schwerpunkt auf die Nutzung der Vorzüge von KI-Systemen und auf deren Entwicklung gelegt wird, während einige solide Schutzmaßnahmen eingeführt werden;

24.  vertritt die Auffassung, dass angesichts des erheblichen Potenzials, Schaden anzurichten, und unter Berücksichtigung der Richtlinie 2009/103/EG des Europäischen Parlaments und des Rates vom 16. September 2009 über die Kraftfahrzeug-Haftpflichtversicherung und die Kontrolle der entsprechenden Versicherungspflicht(17) alle Betreiber von im Anhang der vorgeschlagenen Verordnung aufgeführten KI-Systemen mit hohem Risiko eine Haftpflichtversicherung besitzen sollten; vertritt die Auffassung, dass eine solche verpflichtende Versicherungsregelung für KI-Systeme mit hohem Risiko die Höhe und das Ausmaß der in der vorgeschlagenen Verordnung festgelegten Entschädigungen abdecken muss; ist sich der Tatsache bewusst, dass eine solche Technologie derzeit noch sehr selten ist, da sie ein hohes Maß an Entscheidungsautonomie voraussetzt, und dass folglich die aktuellen Diskussionen größtenteils zukunftsorientiert sind; geht dennoch davon aus, dass die Unsicherheit in Bezug auf die Risiken nicht zu übermäßig hohen Versicherungsprämien führen und dadurch ein Hindernis für Forschung und Innovation darstellen sollte;

25.  ist davon überzeugt, dass ein mit öffentlichen Mitteln finanzierter Entschädigungsmechanismus auf Unionsebene nicht der richtige Weg ist, um potenzielle Versicherungslücken zu schließen; vertritt die Auffassung, dass ein Mangel an Daten über die mit KI-Systemen verbundenen Risiken in Kombination mit einer Ungewissheit in Bezug auf Entwicklungen der Zukunft es für die Versicherungsbranche schwierig gestaltet, angepasste oder neue Versicherungsprodukte auf den Markt zu bringen; vertritt die Auffassung, dass, wenn man die Entwicklung einer Pflichtversicherung vollständig dem Markt überließe, dies wahrscheinlich zu einem einheitlichen Ansatz mit unverhältnismäßig hohen Prämien und falschen Anreizen führen und die Betreiber dazu veranlassen würde, sich für die kostengünstigste Versicherung und nicht für den besten Versicherungsschutz zu entscheiden, und dass dies zu einem Hindernis für Forschung und Innovation werden könnte; vertritt die Auffassung, dass die Kommission eng mit der Versicherungsbranche zusammenarbeiten sollte, um herauszufinden, wie Daten und innovative Modelle genutzt werden können, um Versicherungspolicen zu entwickeln, die eine angemessene Deckung zu einem erschwinglichen Preis bieten;

Schlussaspekte

26.  fordert die Kommission auf, auf der Grundlage von Artikel 225 des Vertrags über die Arbeitsweise der Europäischen Union einen Vorschlag für eine Verordnung über die Haftung für den Betrieb von Systemen mit künstlicher Intelligenz vorzulegen und dabei den im Anhang dieses Dokuments enthaltenen Empfehlungen zu folgen;

27.  vertritt die Auffassung, dass der angeforderte Vorschlag keine finanziellen Auswirkungen hat;

o
o   o

28.  beauftragt seinen Präsidenten, diese Entschließung und die als Anlage beigefügten Empfehlungen der Kommission und dem Rat zu übermitteln.

(1) ABl. L 210 vom 7.8.1985, S. 29.
(2) ABl. L 149 vom 11.6.2005, S. 22.
(3) ABl. L 304 vom 22.11.2011, S. 64.
(4) ABl. L 117 vom 5.5.2017, S. 1.
(5) ABl. L 252 vom 8.10.2018, S. 1.
(6) ABl. L 136 vom 22.5.2019, S. 1.
(7) ABl. L 123 vom 12.5.2016, S. 1.
(8) ABl. C 252 vom 18.7.2018, S. 239.
(9) ABl. C 307 vom 30.8.2018, S. 163.
(10) ABl. C 433 vom 23.12.2019, S. 86.
(11) Angenommene Texte, P8_TA(2019)0081.
(12) Angenommene Texte, P9_TA(2020)0032.
(13) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178
(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf
(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf
(16) ABl. L 11 vom 15.1.2002, S. 4.
(17) ABl. L 263 vom 7.10.2009, S. 11.


ANLAGE ZUR ENTSCHLIESSUNG:

AUSFÜHRLICHE EMPFEHLUNGEN ZUR AUSARBEITUNG EINER VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES ÜBER HAFTUNG FÜR DEN BETRIEB VON SYSTEMEN MIT KÜNSTLICHER INTELLIGENZ

A.  GRUNDSÄTZE UND ZIELE DES VORSCHLAGS

In diesem Bericht wird ein wichtiger Aspekt der Digitalisierung behandelt, der selbst durch grenzübergreifende Aktivitäten, weltweiten Wettbewerb und wesentliche gesellschaftliche Faktoren geprägt ist. Die nachstehenden Grundsätze sollen als Leitlinien dienen:

1.  Ein echter digitaler Binnenmarkt erfordert eine umfassende Harmonisierung durch eine Verordnung.

2.   Neuen rechtlichen Herausforderungen infolge der Entwicklung von Systemen mit künstlicher Intelligenz (KI) muss Rechnung getragen werden, indem für größtmögliche Rechtssicherheit in der gesamten Haftungskette, einschließlich des Herstellers, des Betreibers, der betroffenen Person und sonstiger Dritter, gesorgt wird.

3.  Überregulierung und Verwaltungsaufwand müssen verhindert werden, da ansonsten die Innovation im Bereich der KI in Europa gehemmt würde, insbesondere wenn die Technologie, die Produkte oder die Dienstleistungen von KMU oder Start-up-Unternehmen entwickelt werden.

4.  Mit den Vorschriften über die zivilrechtliche Haftung beim Einsatz künstlicher Intelligenz sollte das Ziel verfolgt werden, ein Gleichgewicht zwischen dem Schutz der Bürger einerseits und der Förderung von Unternehmen bei Investitionen in Innovationen, insbesondere in KI-Systeme, andererseits sicherzustellen.

5.   Anstelle einer Ersetzung der gut funktionierenden bestehenden Haftungsregelungen sollten mit der Aufnahme von neuen und zukunftsorientierten Ideen einige notwendige Anpassungen vorgenommen werden.

6.  Der künftige Vorschlag für eine Verordnung und die Produkthaftungsrichtlinie sind zwei Säulen eines gemeinsamen Haftungsrahmens für KI-Systeme, die eine enge Koordinierung und Abstimmung zwischen allen politischen Akteuren auf Unionsebene und auf nationaler Ebene erfordern.

7.  Die Bürger müssen Anspruch auf das gleiche Schutzniveau und die gleichen Rechte erhalten, unabhängig davon, ob der Schaden von einem KI-System verursacht wurde und ob er physisch oder virtuell stattgefunden hat, damit ihr Vertrauen in die neue Technologie gestärkt wird.

8.  In dem künftigen Vorschlag für eine Verordnung sollten materielle und immaterielle Schäden berücksichtigt werden. Die Kommission wird auf Grundlage ihrer Mitteilung vom 19. Februar 2020 über die Auswirkungen künstlicher Intelligenz und der Robotik in Hinblick auf Sicherheit und Haftung und sonstiger Dokumente aufgefordert, die Rechtstraditionen in allen Mitgliedstaaten sowie die bestehenden rechtlichen Bestimmungen zur Gewährung von Entschädigung bei immateriellen Schäden eingehend zu analysieren, um zu prüfen, ob die Aufnahme von immateriellen Schäden in den künftigen Vorschlag für eine Verordnung rechtlich solide und aus Sicht der betroffenen Person erforderlich ist. Auf der Grundlage der derzeit verfügbaren Informationen ist das Europäische Parlament der Auffassung, dass erhebliche immaterielle Schäden, die bei der betroffenen Person zu einem spürbaren, d. h. nachprüfbaren wirtschaftlichen Verlust führen, aufgenommen werden sollten.

B.  TEXT DES ANGEFORDERTEN VORSCHLAGS

Vorschlag für eine

VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES

über Haftung für den Betrieb von Systemen mit künstlicher Intelligenz

DAS EUROPÄISCHE PARLAMENT UND DER RAT DER EUROPÄISCHEN UNION —

gestützt auf den Vertrag über die Arbeitsweise der Europäischen Union, insbesondere auf Artikel 114,

auf Vorschlag der Europäischen Kommission,

nach Zuleitung des Entwurfs des Gesetzgebungsakts an die nationalen Parlamente,

nach Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses(1),

gemäß dem ordentlichen Gesetzgebungsverfahren(2),

in Erwägung nachstehender Gründe:

(1)  Das Konzept der „Haftung“ spielt im alltäglichen Leben zwei bedeutende Rollen: Zum einen wird sichergestellt, dass eine Person, die einen Personen- oder Sachschaden erlitten hat, berechtigt ist, von der Person, die für den Personen- oder Sachschaden haftbar gemacht wird, Schadensersatz zu verlangen, und zum anderen werden wirtschaftliche Anreize für Personen geschaffen, an erster Stelle die Verursachung von Personen- oder Sachschäden zu vermeiden. Jeder haftungsrechtliche Rahmen sollte darauf ausgerichtet sein, Vertrauen in die sichere, zuverlässige und kontinuierliche Funktionsweise der Produkte und Dienstleistungen, einschließlich neuer digitaler Technologien wie der künstlichen Intelligenz (KI), des Internets der Dinge (IoT) und der Robotik, aufzubauen, um ein Gleichgewicht zwischen wirksamem Schutz von potenziellen Opfern eines Personen- oder Sachschadens und einem zugleich ausreichenden Spielraum zur Ermöglichung der Entwicklung neuer Technologien, Produkte oder Dienstleistungen zu erreichen.

(2)  Insbesondere am Anfang des Lebenszyklus von neuen Produkten und Dienstleistungen besteht, nachdem sie vorab getestet wurden, ein gewisser Risikograd für den Benutzer sowie für Dritte, dass etwas nicht ordnungsgemäß funktioniert. Dieser Prozess mit Versuch und Irrtum ist gleichzeitig ein wichtiges Instrument für technischen Fortschritt, ohne dass die meisten unserer Technologien nicht existieren würden. Bislang wurden die Begleitrisiken von neuen Produkten und Dienstleistungen durch strenge Produktsicherheitsbestimmungen und Haftungsvorschriften ordnungsgemäß abgeschwächt.

(3)  Der zunehmende Einsatz von künstlicher Intelligenz stellt für die bestehenden Haftungsrahmen jedoch eine erhebliche Herausforderung dar. Der Einsatz von KI-Systemen in unserem alltäglichen Leben wird zu Situationen führen, in denen es ihre Opazität („Blackbox”-Element) und die Vielzahl der Akteure, die in ihren Lebenszyklus eingreifen, außerordentlich kostspielig oder sogar unmöglich machen könnten, zu ermitteln, wer die Kontrolle über das Risiko der Verwendung des jeweiligen KI-Systems innehatte oder welcher Code oder welche Eingabe letztendlich zu dem schädlichen Betrieb führte. Diese Schwierigkeit setzt sich in gleichem Maße aus der Konnektivität zwischen einem KI-System und anderen KI-Systemen und Nicht-KI-Systemen, ihrer Abhängigkeit von externen Daten, ihrer Anfälligkeit für Cybersicherheitsverletzungen sowie der zunehmenden Autonomie von KI-Systemen, die durch maschinelles Lernen und Deep-Learning-Fähigkeiten ausgelöst wird, zusammen. Zusätzlich zu diesen komplexen Merkmalen und potenziellen Schwachstellen könnten KI-Systeme auch eingesetzt werden, um schwere Schäden zu verursachen, wie die Gefährdung der Menschenwürde und der europäischen Werte und Freiheiten durch Nachverfolgung von Einzelpersonen gegen ihren Willen, die Einführung von Sozialkreditsystemen, das Treffen verzerrter Entscheidungen, wenn es um Krankenversicherung, Kreditgewährung, gerichtliche Entscheidungen, Einstellung oder Beschäftigung geht, oder den Bau von tödlichen autonomen Waffensystemen.

(4)  Es ist wichtig, darauf hinzuweisen, dass die Vorteile der Bereitstellung von KI-Systemen die Nachteile deutlich überwiegen werden. Sie werden dabei helfen, wirksamer gegen den Klimawandel vorzugehen, ärztliche Untersuchungen und Arbeitsbedingungen zu verbessern, Menschen mit Behinderungen und ältere Menschen besser in die Gesellschaft zu integrieren und für alle Arten von Studierenden maßgeschneiderte Ausbildungskurse anzubieten. Um die verschiedenen technologischen Möglichkeiten zu nutzen und das Vertrauen der Menschen in den Einsatz von KI-Systemen zu stärken und zugleich schädliche Szenarien zu verhindern, sind angemessene ethische Standards verbunden mit soliden und gerechten Entschädigungsverfahren der beste Weg in die Zukunft.

(5)  Eine angemessene Haftungsregelung ist auch erforderlich, um dem Verstoß gegen Sicherheitsvorschriften entgegenzuwirken. Bei der mit der vorliegenden Verordnung festgelegten Haftungsregelung müssen jedoch alle auf dem Spiel stehenden Interessen berücksichtigt werden. Eine sorgfältige Untersuchung der Folgen, die ein neuer Rechtsrahmen für kleine und mittlere Unternehmen (KMU) und Start-up-Unternehmen mit sich bringt, ist eine Voraussetzung für weitere legislative Maßnahmen. Die entscheidende Bedeutung derartiger Unternehmen für die europäische Wirtschaft rechtfertigt einen in jedem Fall verhältnismäßigen Ansatz, damit sie sich entwickeln und Innovationen einführen können. Andererseits müssen die Opfer von durch KI-Systeme verursachten Personen- oder Sachschäden ein Recht auf Abhilfe und vollständige Entschädigung für die erlittenen Personen- und Sachschäden haben.

(6)  Im Rahmen der notwendigen Änderungen am bestehenden Rechtsrahmen sollte zunächst geklärt werden, dass KI-Systeme weder Rechtspersönlichkeit noch menschliches Gewissen besitzen und dass ihre einzige Aufgabe darin besteht, der Menschheit zu dienen. Viele KI-Systeme unterscheiden sich nicht einmal so stark von anderen Technologien, die manchmal auf einer noch komplexeren Software basieren. Letztendlich wird die große Mehrheit der KI-Systeme dazu verwendet, einfache Aufgaben zu erledigen, die kein oder ein minimales Risiko für die Gesellschaft darstellen. Durch die Verwendung des Begriffs „automatisierte Entscheidungsfindung“ könnte die mögliche Mehrdeutigkeit des Begriffs „KI“ vermieden werden. Dieser Begriff beschreibt eine Situation, in der ein Nutzer anfänglich durch eine Software oder einen Dienst eine Entscheidung teilweise oder ganz an eine Stelle überträgt. Diese Stelle wiederum nutzt automatisch ausgeführte Entscheidungsmodelle, um im Namen eines Nutzers eine Handlung durchzuführen oder Informationen für die Entscheidung des Nutzers bei der Durchführung einer Handlung zu liefern.

(7)  Es gibt aber auch KI-Systeme, die auf kritische Weise entwickelt und eingesetzt werden und auf Technologien wie neuronalen Netzen und Deep-Learning-Prozessen beruhen. Ihre Opazität und Autonomie könnten es deutlich erschweren, konkrete Aktionen auf konkrete menschliche Entscheidungen bei ihrer Konstruktion oder ihrem Betrieb zurückzuverfolgen. Betreiber eines solchen KI-Systems könnten beispielsweise anführen, dass sich physische oder virtuelle Aktivitäten, Vorrichtungen oder Prozesse, die einen Personen- oder Sachschaden verursacht haben, außerhalb ihrer Kontrolle befanden, weil der Schaden von einem autonomen Betrieb ihres KI-Systems verursacht wurde. Der reine Betrieb eines autonomen KI-Systems darf darüber hinaus keine ausreichende Begründung sein, um einem Haftungsanspruch stattzugeben. So können Haftungsfälle auftreten, in denen die Zuordnung der Haftung ungerecht oder ineffizient ist oder bei denen eine Person, die einen von einem KI-System verursachten Personen- oder Sachschaden erleidet, nicht in der Lage ist, das Verschulden des Herstellers, eines einwirkenden Dritten oder des Betreibers nachzuweisen und zuletzt keinen Schadensersatz erhält.

(8)  Es muss aber dennoch klar sein, dass jeder, der ein KI-System erstellt, unterhält, kontrolliert oder darauf einwirkt für die von der Aktivität, Vorrichtung oder dem Prozess verursachten Personen- oder Sachschäden verantwortlich sein muss. Das entspricht den allgemein anerkannten Haftungskonzepten der Gerechtigkeit, nach denen eine Person, die ein Risiko für die Öffentlichkeit hervorruft oder aufrechterhält, haftbar ist, wenn dieses Risiko Personen- oder Sachschäden verursacht, und somit dieses Risiko vorab minimieren oder nachträglich ausgleichen sollte. Folglich begründet das Aufkommen von KI-Systemen nicht die Notwendigkeit einer vollständigen Überarbeitung der Haftungsvorschriften in der gesamten Union. Konkrete Anpassungen der bestehenden Rechtsvorschriften und die Einführung sorgfältig bewerteter und zielgerichteter neuer Bestimmungen wären ausreichend, um die mit KI verbundenen Herausforderungen einzubinden, damit einer rechtlichen Fragmentierung vorgebeugt und eine Harmonisierung der Rechtsvorschriften im Bereich der zivilrechtlichen Haftung im Zusammenhang mit KI in der gesamten Union sichergestellt wird.

(9)  Die Richtlinie 85/374/EWG(3) des Rates (im Folgenden „Produkthaftungsrichtlinie“) hat sich seit über 30 Jahren als ein wirkungsvolles Mittel erwiesen, um Entschädigung für einen durch ein mangelhaftes Produkt verursachten Schaden zu erhalten. Daher könnte sie auch in Bezug auf zivilrechtliche Haftungsansprüche einer von Personen- oder Sachschäden betroffenen Partei gegenüber dem Hersteller eines mangelhaften KI-Systems angewendet werden. Im Sinne der Grundsätze der besseren Rechtsetzung der Union sollte allen erforderlichen Anpassungen von Rechtsvorschriften im Rahmen der erforderlichen Überarbeitung dieser Richtlinie Rechnung getragen werden. Das bestehende verschuldensabhängige Haftungsrecht der Mitgliedstaaten bietet auch in den meisten Fällen ein ausreichendes Schutzniveau für Personen, die einen durch einen eingreifenden Dritten verursachten Personen- oder Sachschaden erleiden, da der Eingriff regelmäßig eine verschuldensabhängige Handlung darstellt, in denen ein Dritter das KI-System einsetzt, um Schaden zu verursachen. Folglich sollte sich diese Verordnung auf Ansprüche gegenüber dem Betreiber eines KI-Systems konzentrieren.

(10)  Die Haftung des Betreibers gemäß dieser Verordnung beruht auf der Tatsache, dass er ein gewisses Maß an Kontrolle über ein mit dem Betrieb und der Funktionsweise eines KI-Systems verbundenes Risiko ausübt, das mit dem des Eigentümers eines Fahrzeugs vergleichbar ist. Je fortgeschrittener und autonomer ein System ist, desto größere Auswirkungen kann die Festlegung und Beeinflussung der Algorithmen, beispielsweise durch fortlaufende Aktualisierungen, haben. Da es oft mehr als eine Person gibt, die auf sinnvolle Weise als „Betreiber“ des KI-Systems angesehen werden könnte, sollte die Bezeichnung „Betreiber“ im Rahmen der Verordnung so verstanden werden, dass sie sowohl den Frontend-Betreiber als auch den Backend-Betreiber umfasst. Obwohl im Allgemeinen der Frontend-Betreiber als die Person auftritt, die „in erster Linie“ über die Verwendung des KI-Systems entscheidet, könnte der Backend-Betreiber tatsächlich ein höheres Maß an Kontrolle über die Risiken des Betriebs besitzen. Ist der Backend-Betreiber auch als „Hersteller“ im Sinne von Artikel 3 der Produkthaftungsrichtlinie anzusehen, sollte diese Richtlinie für ihn gelten. Wenn es nur einen Betreiber gibt und dieser Betreiber auch der Hersteller des KI-Systems ist, sollte diese Verordnung Vorrang vor der Produkthaftungsrichtlinie haben.

(11)  Ist ein Benutzer, der das KI-System verwendet, an dem Schadensereignis beteiligt, muss er gemäß dieser Verordnung nur haften, wenn der Benutzer auch als Betreiber zu betrachten ist. Andernfalls könnte der Umfang der grob fahrlässigen oder vorsätzlichen Risikobeteiligung des Nutzers zur verschuldensabhängigen Haftung des Nutzers gegenüber dem Antragsteller führen. Geltende Verbraucherrechte des Nutzers sollten unberührt bleiben.

(12)  Diese Verordnung sollte es der betroffenen Person ermöglichen, Haftungsansprüche in der gesamten Haftungskette und während des gesamten Lebenszyklus eines KI-Systems geltend zu machen. Sie sollte grundsätzlich auch alle KI-Systeme abdecken, unabhängig davon, wo sie betrieben werden und ob der Betrieb physisch oder virtuell erfolgt. Die meisten Haftungsansprüche im Rahmen dieser Verordnung sollten sich aber mit Fällen der Haftung Dritter befassen, in denen ein KI-System in einem öffentlichen Raum betrieben wird und zahlreiche Personen einem Risiko ausgesetzt werden. In dieser Situation ist den betroffenen Personen der Betrieb des KI-Systems nicht bewusst, und sie haben keine vertragliche oder rechtliche Beziehung mit dem Betreiber. Folglich werden sie durch den Betrieb des KI-Systems in eine Lage versetzt, in der ihnen, wenn Personen- oder Sachschäden verursacht werden, nur verschuldensabhängige Haftungsansprüche gegenüber dem Betreiber des KI-Systems zustehen, wobei es sich für sie sehr schwierig gestaltet, das Verschulden des Betreibers nachzuweisen.

(13)  Die Art des KI-Systems, über das der Betreiber die Kontrolle ausübt, ist ein wesentlicher Faktor. Ein KI-System, von dem ein hohes Risiko ausgeht, gefährdet potenziell den Nutzer oder die Öffentlichkeit deutlich stärker und auf eine Weise, die zufällig ist und über das hinausgeht, was vernünftigerweise erwartet werden kann. Das bedeutet, dass bei Aufnahme des autonomen Betriebs des KI-Systems die meisten potenziellen betroffenen Personen unbekannt und nicht identifizierbar sind, z. B. Personen auf einem öffentlichen Platz oder in einem benachbarten Haus, im Vergleich zu dem Betrieb eines KI-Systems, das konkrete Personen betrifft, die seinem Einsatz im Voraus regelmäßig zugestimmt haben, etwa bei einem chirurgischen Eingriff in einem Krankenhaus oder einer Verkaufsvorführung in einem kleinen Geschäft. Die Festlegung, wie bedeutend das Potenzial eines KI-Systems mit hohem Risiko zur Verursachung eines Personen- oder Sachschadens ist, ist von der Wechselwirkung zwischen dem Verwendungszweck, zu dem das KI-System auf den Markt gebracht wird, der Art der Verwendung des KI-Systems, der Schwere des potenziellen Personen- oder Sachschadens, dem Maß der Entscheidungsautonomie, die zu einem Personen- oder Sachschaden führen kann, und der Wahrscheinlichkeit, dass sich das Risiko verwirklicht, abhängig. Der Schweregrad sollte auf der Grundlage einschlägiger Faktoren, etwa des Ausmaßes des sich aus dem Betrieb ableitenden potenziellen Schadens bei betroffenen Personen, einschließlich besonderer Auswirkungen auf die Grundrechte, der Anzahl der betroffenen Personen, der Gesamthöhe des potenziellen Schadens sowie des Schadens für die Gesellschaft als Ganzes bestimmt werden. Die Wahrscheinlichkeit eines eintretenden Personen- oder Sachschadens sollte auf der Grundlage einschlägiger Faktoren wie der Rolle der algorithmischen Berechnungen im Entscheidungsfindungsprozess, der Komplexität der Entscheidung und der Umkehrbarkeit der Auswirkungen bestimmt werden. Schließlich sollte die Art der Verwendung von einschlägigen Faktoren wie dem Kontext und dem Sektor abhängen, in dem das KI-System betrieben wird, von seinen rechtlichen oder faktischen Auswirkungen auf wichtige gesetzlich geschützte Rechte der betroffenen Person und von der Frage, ob die Auswirkungen wirksam vermieden werden können.

(14)  Alle KI-Systeme mit hohem Risiko sollten in einem Anhang der Verordnung erschöpfend aufgeführt werden. Angesichts der schnellen Entwicklungen in der Technik und auf dem weltweiten Markt sowie der technischen Fachkenntnisse, die für eine angemessene Überprüfung von KI-Systemen notwendig sind, sollte die Befugnis zur Annahme von delegierten Rechtsakten im Sinne von Artikel 290 des Vertrags über die Arbeitsweise der Europäischen Union der Kommission übertragen werden, damit sie diese Verordnung in Bezug auf die Arten von KI-Systemen, die ein hohes Risiko bergen, und die kritischen Sektoren, in denen sie zum Einsatz kommen, abändern kann. Auf der Grundlage der in dieser Verordnung festgelegten Definitionen und Bestimmungen sollte die Kommission den Anhang ohne ungebührliche Verzögerung, mindestens jedoch alle sechs Monate überprüfen und erforderlichenfalls mittels delegierter Rechtsakte abändern. Die Bewertung der Kommission, ob ein KI-System ein hohes Risiko birgt, sollte zu demselben Zeitpunkt beginnen wie die Bewertung der Produktsicherheit, um zu verhindern, dass ein KI-System mit hohem Risiko bereits für den Markt zugelassen, jedoch noch nicht als System mit hohem Risiko eingestuft ist und daher ohne den verpflichtenden Versicherungsschutz betrieben wird. Um den Unternehmen und Forschungseinrichtungen ausreichend Planungs- und Investitionssicherheit zu gewähren, sollten Änderungen der kritischen Sektoren nur alle zwölf Monate vorgenommen werden. Die Betreiber sollten aufgefordert werden, der Kommission mitzuteilen, ob sie an neuen Technologien, Produkten oder Dienstleistungen arbeiten, die unter die im Anhang genannten bestehenden kritischen Sektoren fallen und später als KI-System mit hohem Risiko zu betrachten sind.

(15)  Es ist von besonderer Bedeutung, dass die Kommission im Zuge ihrer Vorbereitungsarbeit angemessene Konsultationen mit den maßgeblichen Interessenträgern, auch auf der Ebene von Sachverständigen, durchführt und dass diese Konsultationen mit den Grundsätzen im Einklang stehen, die in der Interinstitutionellen Vereinbarung vom 13. April 2016 über bessere Rechtsetzung(4) niedergelegt wurden. Ein ständiger Ausschuss unter der Bezeichnung „Technischer Ausschuss – KI-Systeme mit hohem Risiko“ (Technical Committee – high-risk AI-systems, TCRAI) sollte die Kommission bei der regelmäßigen Überarbeitung gemäß dieser Verordnung unterstützen. Dieser ständige Ausschuss sollte aus Vertretern der Mitgliedstaaten sowie einer ausgewogenen Auswahl von Interessenträgern, einschließlich Verbraucherorganisationen, Verbänden, die betroffene Personen vertreten, Vertretern von Unternehmen aus verschiedenen Sektoren und von unterschiedlicher Größe sowie Forschern und Wissenschaftlern zusammengesetzt sein. Um insbesondere für eine gleichberechtigte Beteiligung an der Vorbereitung delegierter Rechtsakte zu sorgen, erhalten das Europäische Parlament und der Rat alle Dokumente zur gleichen Zeit wie die Sachverständigen der Mitgliedstaaten, und ihre Sachverständigen haben systematisch Zugang zu den Sitzungen der Sachverständigengruppen der Kommission sowie des ständigen TCRAI-Ausschusses, die mit der Vorbereitung der delegierten Rechtsakte befasst sind.

(16)  Diese Verordnung sollte Personen- oder Sachschäden an Leben, Gesundheit, körperlicher Unversehrtheit und an Eigentum abdecken sowie einen erheblichen immateriellen Schaden, der zu einem nachprüfbaren wirtschaftlichen Verlust oberhalb eines im Haftungsrecht der Union harmonisierten Schwellenwerts führt, wobei zwischen dem Zugang betroffener Personen zur Justiz und den Interessen anderer Beteiligter ein Gleichgewicht hergestellt werden muss. Die Kommission sollte den Schwellenwert für Schäden im Unionsrecht neu bewerten und angleichen. Erhebliche immaterielle Schäden sollten als Schäden verstanden werden, in deren Folge die betroffene Person erhebliche Nachteile erleidet, eine objektive und nachweisliche Beeinträchtigung ihrer persönlichen Interessen und einen wirtschaftlichen Verlust, der beispielsweise unter Berücksichtigung jährlicher Durchschnittswerte früherer Einnahmen und anderer einschlägiger Umstände berechnet wird. In dieser Verordnung sollten auch die Höhe und das Ausmaß der Entschädigung sowie die Verjährungsfrist, innerhalb derer Haftungsansprüche geltend gemacht werden können, festgelegt werden. In dieser Verordnung sollte eine deutlich niedrigere Obergrenze für Entschädigungen festgelegt werden als die in der Produkthaftungsrichtlinie vorgesehene, da sich diese Verordnung nur auf den Personen- oder Sachschaden einer einzelnen Person infolge eines einzelnen Betriebs eines KI-Systems bezieht, während sich die genannte Richtlinie auf eine Anzahl von Produkten oder sogar eine Produktlinie mit dem gleichen Mangel bezieht.

(17)  Alle von KI-Systemen angetriebenen physischen oder virtuellen Aktivitäten, Vorrichtungen oder Prozesse, die nicht im Anhang dieser Verordnung als KI-Systeme mit hohem Risiko aufgeführt sind, sollten weiterhin der verschuldensabhängigen Haftung unterliegen, sofern keine strengeren nationalen Rechtsvorschriften und Verbraucherschutzvorschriften in Kraft sind. Das innerstaatliche Recht der Mitgliedstaaten, einschließlich der gesamten einschlägigen Rechtsprechung, in Bezug auf die Höhe und das Ausmaß des Schadensersatzes sowie die Verjährungsfrist sollten weiterhin Anwendung finden. Ein Betroffener, der einen von einem KI-System, das nicht als KI-System mit hohem Risiko aufgeführt ist, verursachten Personen- oder Sachschaden erleidet, sollte von der Annahme der Verschuldung des Betreibers profitieren.

(18)  Die von einem Betreiber zu erwartende Sorgfalt sollte in Einklang stehen mit (i) der Art des KI-Systems, (ii) dem potenziell betroffenen gesetzlich geschützten Recht, (iii) dem potenziellen Personen- oder Sachschaden, den das KI-System verursachen könnte, und (iv) der Wahrscheinlichkeit eines solchen Schadens. Dabei ist zu berücksichtigen, dass dem Betreiber die im KI-System verwendeten Algorithmen und Daten nur begrenzt bekannt sein könnten. Es sollte davon ausgegangen werden, dass der Betreiber bei der Auswahl eines geeigneten KI-Systems die gebührende Sorgfalt walten lassen hat, die vernünftigerweise erwartet werden kann, wenn der Betreiber ein KI-System ausgewählt hat, das im Rahmen eines Zertifizierungssystems, das mit dem von der Kommission vorgesehenen freiwilligen Zertifizierungssystem(5) vergleichbar ist, zertifiziert wurde. Es sollte davon ausgegangen werden, dass der Betreiber während des Betriebs des KI-Systems die gebührende Sorgfalt walten lassen hat, die vernünftigerweise erwartet werden kann, wenn der Betreiber nachweisen kann, dass er das KI-System während des Betriebs tatsächlich und regelmäßig überwacht und dem Hersteller potenzielle Unregelmäßigkeiten während des Betriebes gemeldet hat. Es sollte davon ausgegangen werden, dass der Betreiber in Bezug auf den Erhalt der betrieblichen Zuverlässigkeit die gebührende Sorgfalt walten lassen hat, die vernünftigerweise erwartet werden kann, wenn der Betreiber alle vom Hersteller des KI-Systems bereitgestellten Aktualisierungen installiert hat. Da das Niveau der Verständnisfähigkeit der Betreiber unterschiedlich sein kann, abhängig davon, ob es sich lediglich um Verbraucher oder um Fachpersonen handelt, sollten die Sorgfaltspflichten entsprechend angepasst werden.

(19)  Um dem Betreiber den Nachweis zu ermöglichen, dass ihm kein Verschulden vorzuwerfen ist oder der betroffenen Person die Möglichkeit zu geben, das Vorliegen eines Verschuldens nachzuweisen, müssen die Hersteller zur Zusammenarbeit mit beiden betroffenen Parteien, unter anderem durch die Bereitstellung hinreichend dokumentierter Informationen, verpflichtet werden. Inner- und außerhalb der Union niedergelassene Hersteller sollten außerdem verpflichtet werden, als Ansprechpartner zur Beantwortung aller Anfragen von Betreibern einen Vertreter für KI-Haftung in der Union zu benennen, vergleichbar mit dem Datenschutzbeauftragten gemäß Artikel 37 der Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates(6), dem Bevollmächtigten des Herstellers gemäß Artikel 3 Absatz 41 und Artikel 13 Absatz 4 der Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates(7) oder dem Bevollmächtigten gemäß Artikel 4 Absatz 2 und Artikel 5 der Verordnung (EU) 2019/1020 des Europäischen Parlaments und des Rates(8).

(20)  Der Gesetzgeber hat die Haftungsrisiken in Verbindung mit KI-Systemen während ihres gesamten Lebenszyklus, von der Entwicklung über den Einsatz bis zum Lebensende, einschließlich der Abfallbewirtschaftung und des Recyclings, zu betrachten. Die Aufnahme von KI-Systemen in ein Produkt oder eine Dienstleistung stellt für Unternehmen ein finanzielles Risiko dar und wirkt sich folglich stark auf die Fähigkeiten und Möglichkeiten von KMU sowie Start-up-Unternehmen in Bezug auf die Sicherstellung und Finanzierung ihrer auf neuen Technologien beruhenden Forschungs- und Entwicklungsprojekte aus. Somit besteht der Zweck der Haftung nicht nur darin, wichtige gesetzlich geschützte Rechte von Einzelpersonen zu wahren, sondern auch zu bestimmen, ob Unternehmen, insbesondere KMU und Start-up-Unternehmen, in der Lage sind, Kapital aufzunehmen, Innovationen und Forschung durchzuführen und letztendlich neue Produkte und Dienstleistungen anzubieten, und ob Verbraucher derartigen Produkten und Dienstleistungen vertrauen und bereit sind, sie trotz des potenziellen Risikos und geltend gemachter rechtlicher Ansprüche in Bezug auf derartige Produkte und Dienstleistungen zu verwenden.

(21)  Mit einer Versicherung kann dazu beigetragen werden, sicherzustellen, dass Opfer eine wirksame Entschädigung erhalten und die Risiken aller versicherten Personen gebündelt werden. Einer der Faktoren, auf deren Grundlage Versicherungsgesellschaften ihr Angebot an Versicherungsprodukten und -dienstleistungen stützen, ist die Risikobeurteilung nach Zugang zu ausreichenden Daten über den Forderungsverlauf. Besteht kein Zugang zu hochwertigen Daten oder ist deren Menge unzureichend, könnte das ein Grund dafür sein, warum es anfänglich schwierig ist, Versicherungsprodukte für neue und aufkommende Technologien zu erstellen. Ein verbesserter Zugang zu durch neue Technologien generierten Daten und eine bestmögliche Nutzung dieser Daten in Verbindung mit einer Verpflichtung zur Bereitstellung hinreichend dokumentierter Informationen hingegen würden es den Versicherern erleichtern, aufkommende Risiken zu modellieren und die Entwicklung von innovativeren Schutzmodalitäten zu fördern.

(22)  Da keine Daten über den Forderungsverlauf vorliegen, sollte untersucht werden, wie und unter welchen Voraussetzungen die Haftung versicherbar ist, um die Versicherung an das Produkt und nicht an die verantwortliche Person zu knüpfen. Es gibt bereits Versicherungsprodukte, die für einen Bereich nach dem anderen und einen Versicherungsschutz nach dem anderen im Laufe der Entwicklung der Technologie erstellt wurden. Viele Versicherer spezialisieren sich auf bestimmte Marktsegmente (z. B. KMU) oder auf den Versicherungsschutz für bestimmte Produktarten (z. B. Elektroartikel), was bedeutet, dass für den Versicherten normalerweise ein Versicherungsprodukt zur Verfügung steht. Eine Einheitslösung ist jedoch schwer vorstellbar und der Versicherungsmarkt braucht Zeit, um sich anpassen zu können. Die Kommission sollte eng mit dem Versicherungsmarkt zusammenarbeiten, um innovative Versicherungsprodukte zu entwickeln, mit denen die Versicherungslücke geschlossen werden kann. In Ausnahmefällen, beispielsweise bei einem massiven Schadensereignis, bei dem die Entschädigung deutlich über den in dieser Verordnung festgelegten Höchstbeträgen liegt, sollten die Mitgliedstaaten aufgefordert werden, für eine begrenzte Zeit einen besonderen Entschädigungsfonds einzurichten, der die spezifischen Bedürfnisse dieser Fälle abdeckt. Besondere Entschädigungsfonds könnten auch eingerichtet werden, um außergewöhnliche Fälle abzudecken, in denen ein KI-System, das noch nicht als KI-System mit hohem Risiko eingestuft und daher noch nicht versichert ist, einen Personen- oder Sachschaden verursacht. Um für Rechtssicherheit zu sorgen und die Verpflichtung zur Information aller potentiell betroffenen Personen zu erfüllen, sollten das Vorliegen des besonderen Entschädigungsfonds und die Voraussetzungen für seine Inanspruchnahme auf eindeutige und umfassende Weise veröffentlicht werden.

(23)  Es ist von größter Bedeutung, dass künftige Änderungen an dieser Verordnung mit der notwendigen Überarbeitung der Produkthaftungsrichtlinie einhergehen, damit diese umfassend und durchgängig überarbeitet wird und die Rechte und Verpflichtungen aller betroffenen Parteien in der gesamten Haftungskette sichergestellt werden. Für die Einführung von neuen Haftungsregelungen für Betreiber von KI-Systemen ist es notwendig, dass die Bestimmungen dieser Verordnung und die Überarbeitung der Produkthaftungsrichtlinie inhaltlich und in Bezug auf den Ansatz eng abgestimmt werden, damit sie zusammen einen konsistenten Haftungsrahmen für KI-Systeme bilden, in dem die Interessen von Herstellern, Betreibern, Verbrauchern und betroffenen Personen in Bezug auf das Haftungsrisiko und die einschlägigen Schadensersatzregelungen ausgewogen sind. Deshalb bedarf es der Anpassung und Rationalisierung der Definitionen von KI-System, Frontend- und Backend-Betreiber, Hersteller, Mangel, Produkt und Dienstleistung in allen Gesetzgebungstexten, was parallel ins Auge gefasst werden sollte.

(24)  Folglich ist es für die Ziele dieser Verordnung, d. h. die Schaffung eines zukunftsorientierten und vereinheitlichten Ansatzes auf Unionsebene, mit dem gemeinsame europäische Standards für die europäischen Bürger und Unternehmen gesetzt werden, und die Sicherstellung der Konsistenz von Rechten und Rechtssicherheit in der gesamten Union zur Verhinderung einer Fragmentierung des digitalen Binnenmarkts, die das Ziel des Erhalts der digitalen Hoheit, der Stärkung der digitalen Innovation in Europa und der Sicherstellung eines hohen Maßes an Schutz der Bürger- und Verbraucherrechte hemmen würde, notwendig, dass die Haftungsregelungen für KI-Systeme vollständig harmonisiert sind. Dies kann von den Mitgliedstaaten aufgrund des schnellen technologischen Wandels, der grenzübergreifenden Entwicklung sowie des Einsatzes von KI-Systemen und sich möglicherweise widersprechenden gesetzlichen Ansätzen in der Union nicht zufriedenstellend erreicht und aufgrund des Umfangs oder der Auswirkungen der Maßnahme eher auf Unionsebene verwirklicht werden. Die Union kann im Einklang mit dem in Artikel 5 des Vertrags über die Europäische Union verankerten Subsidiaritätsprinzip tätig werden. Entsprechend dem in demselben Artikel genannten Grundsatz der Verhältnismäßigkeit geht diese Verordnung nicht über das zur Erreichung dieser Ziele erforderliche Maß hinaus.

HABEN FOLGENDE VERORDNUNG ERLASSEN:

Kapitel I

Allgemeine Bestimmungen

Artikel 1

Gegenstand

Diese Verordnung legt Regeln für zivilrechtliche Haftungsansprüche von natürlichen und juristischen Personen gegen Betreiber von KI-Systemen fest.

Artikel 2

Geltungsbereich

1.  Diese Verordnung gilt im Hoheitsgebiet der Union, wenn durch von einem KI-System gesteuerte physische oder virtuelle Aktivitäten, Geräte oder Prozesse das Leben, die Gesundheit oder die körperliche Unversehrtheit einer natürlichen Person oder das Eigentum einer natürlichen oder juristischen Person geschädigt wurde oder ein erheblicher immaterieller Schaden entstanden ist, der zu einem nachweisbaren wirtschaftlichen Verlust geführt hat.

2.  Eine Vereinbarung zwischen dem Betreiber eines KI-Systems und einer natürlichen oder juristischen Person, die aufgrund des KI-Systems einen Schaden erleidet, durch die die in dieser Verordnung festgelegten Rechte und Pflichten umgangen oder eingeschränkt werden, und die vor oder nach dem Eintritt des Schadens geschlossen wurde, gilt in Bezug auf die in dieser Verordnung festgelegten Rechte und Pflichten als nichtig.

3.  Diese Verordnung gilt vorbehaltlich eventueller zusätzlicher Haftungsansprüche aus vertraglichen Beziehungen sowie aus Bestimmungen zu Produkthaftung, Verbraucherschutz, Diskriminierungsbekämpfung, Arbeitnehmer- und Umweltschutz zwischen dem Betreiber und der natürlichen oder juristischen Person, die aufgrund des KI-Systems einen Personen- oder Sachschaden erlitten hat, die nach Unionsrecht oder nationalem Recht an den Betreiber gestellt werden können.

Artikel 3

Begriffsbestimmungen

Für die Zwecke dieser Verordnung bezeichnet der Ausdruck

a)  „KI-System“ ein softwaregestütztes oder in Hardware-Geräte eingebettetes System, das ein Intelligenz simulierendes Verhalten zeigt, indem es unter anderem Daten sammelt und verarbeitet, seine Umgebung analysiert und interpretiert und mit einem gewissen Maß an Autonomie Maßnahmen ergreift, um bestimmte Ziele zu erreichen;

b)  „autonom“ ein KI-System, das durch Interpretation bestimmter Eingaben und durch Verwendung einer Reihe vorab festgelegter Anweisungen funktioniert, ohne durch solche Anweisungen beschränkt zu sein, wenngleich das Verhalten des Systems durch das ihm vorgegebene Ziel und andere relevante Vorgaben seines Entwicklers eingeschränkt wird bzw. auf die Erfüllung des Ziels ausgerichtet ist;

c)  „hohes Risiko“ bezeichnet ein signifikantes Potenzial eines autonom betriebenen KI-Systems, einer oder mehreren Personen einen Personen- oder Sachschaden auf eine Weise zu verursachen, die zufällig ist und darüber hinausgeht, was vernünftigerweise erwartet werden kann; die Bedeutung des Potenzials hängt von der Wechselwirkung zwischen der Schwere des möglichen Schadens, der Frage, inwieweit die Entscheidungsfindung autonom erfolgt, der Wahrscheinlichkeit, dass sich das Risiko verwirklicht, und der Art, in der das KI-System verwendet wird, ab;

d)  „Betreiber“ sowohl den Frontend- als auch den Backend-Betreiber, solange die Haftung des letzteren nicht bereits durch die Richtlinie 85/374/EWG abgedeckt ist;

e)  „Frontend-Betreiber“ die natürliche oder juristische Person, die ein gewisses Maß an Kontrolle über ein mit dem Betrieb und der Funktionsweise des KI-Systems verbundenes Risiko ausübt und für die sein Betrieb einen Nutzen darstellt;

f)  „Backend-Betreiber“ jede natürliche oder juristische Person, die auf kontinuierlicher Basis die Merkmale der Technologie definiert und Daten und einen wesentlichen Backend-Support-Dienst bereitstellt und daher auch ein gewisses Maß an Kontrolle über ein mit dem Betrieb und der Funktionsweise des KI-Systems verbundenes Risiko ausübt;

g)  „Kontrolle“ jede Handlung eines Betreibers, die den Betrieb eines KI-Systems beeinflusst und damit das Ausmaß, in dem der Betreiber Dritte den potenziellen Risiken aussetzt, die mit dem Betrieb und der Funktionsweise des KI-Systems verbunden sind; solche Handlungen können sich in jeder Phase auf den Betrieb auswirken oder bestimmte Funktionen oder Prozesse innerhalb des KI-Systems verändern; das Ausmaß, in dem diese Aspekte des Betriebs des KI-Systems durch die Handlung bestimmt werden, hängt vom Grad der Einflussnahme des Betreibers auf das mit dem Betrieb und der Funktionsweise des KI-Systems verbundene Risiko ab;

h)  „betroffene Person“ ist jede Person, die einen Personen- oder Sachschaden erleidet, der von einer durch ein KI-System angetriebenen physischen oder virtuellen Aktivität, Vorrichtung oder einem entsprechenden Prozess verursacht wird, und die nicht sein Betreiber ist;

i)  „Schaden“ eine nachteilige Auswirkung, die das Leben, die Gesundheit oder die körperliche Unversehrtheit einer natürlichen Person oder das Eigentum einer natürlichen oder juristischen Person beeinträchtigt oder einen erheblichen immateriellen Schaden verursacht, der zu einem nachweisbaren wirtschaftlichen Verlust geführt hat;

j)  „Hersteller“ den Hersteller gemäß der Definition in Artikel 3 der Richtlinie 85/374/EWG.

Kapitel II

KI-Systeme mit hohem Risiko

Artikel 4

Verschuldensunabhängige Haftung für KI-Systeme mit hohem Risiko

1.  Der Betreiber eines KI-Systems mit hohem Risiko unterliegt verschuldensunabhängiger Haftung für alle Personen- oder Sachschäden, die von einer von dem KI-System angetriebenen physischen oder virtuellen Aktivität, Vorrichtung oder Prozess verursacht wurden.

2.  Alle KI-Systeme mit hohem Risiko sowie alle kritischen Sektoren, in denen diese zum Einsatz kommen, sollen in dem Anhang der Verordnung aufgeführt werden. Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 13 zu erlassen, um diese unerschöpfliche Liste durch Folgendes zu ändern:

a)  Aufnahme von neuen Arten von KI-Systemen mit hohem Risiko und kritischen Sektoren, in denen diese eingesetzt werden;

b)  Löschung von Arten von KI-Systemen, die nicht länger als mit hohem Risiko behaftet betrachtet werden können; und/oder

c)  Ändern der kritischen Sektoren für bestehende KI-Systeme mit hohem Risiko.

Ein den Anhang ändernder delegierter Rechtsakt tritt sechs Monate nach seiner Annahme in Kraft. Werden neue KI-Systeme und/oder kritische Sektoren mit hohem Risiko für die Aufnahme in den Anhang mittels delegierten Rechtsakten bestimmt, muss die Kommission die in dieser Verordnung festgelegten Kriterien vollumfänglich berücksichtigen, insbesondere diejenigen nach Artikel 3 Buchstabe c.

3.  Betreiber von KI-Systemen mit hohem Risiko dürfen sich nicht von der Haftung befreien können, indem sie argumentieren, dass sie mit der gebührenden Sorgfalt gehandelt haben oder dass der Schaden durch autonome Aktivitäten, Geräte oder Prozesse verursacht wurde, die von ihrem KI-System gesteuert wurden. Betreiber sind nicht haftbar, wenn der Personen- oder Sachschaden durch höhere Gewalt verursacht wurde.

4.  Der Frontend-Betreiber eines KI-Systems mit hohem Risiko stellt sicher, dass der Betrieb dieses KI-Systems durch eine Haftpflichtversicherung abgedeckt ist, die im Verhältnis zu den Beträgen und dem Umfang der Entschädigung nach den Artikeln 5 und 6 dieser Verordnung angemessen ist. Der Backend-Betreiber stellt sicher, dass seine Dienste durch eine Betriebshaftpflicht- oder Produkthaftpflichtversicherung gedeckt sind, die im Verhältnis zu den Beträgen und dem Umfang der Entschädigung nach den Artikeln 5 und 6 dieser Verordnung angemessen ist. Ist davon auszugehen, dass eine bereits nach anderen Rechtsvorschriften der Union oder des betreffenden Mitgliedstaats bestehende Pflichtversicherung des Frontend- oder Backend-Betreibers oder bestehende freiwillige Unternehmensversicherungsfonds den Betrieb des KI-Systems oder die erbrachte Dienstleistung abdecken, gilt die Verpflichtung zum Abschluss einer Versicherung für das KI-System oder die erbrachte Dienstleistung gemäß dieser Verordnung als erfüllt, solange die einschlägige bestehende Pflichtversicherung oder der freiwillige Unternehmensversicherungsfonds die Beträge und den Umfang der Entschädigung gemäß den Artikeln 5 und 6 dieser Verordnung abdeckt.

5.  Diese Verordnung gilt im Fall von widersprechender Einstufung der verschuldensunabhängigen Haftung von KI-Systemen vorrangig vor nationalen Haftungsregelungen.

Artikel 5

Entschädigungsbetrag

1.  Der Betreiber eines KI-Systems mit hohem Risiko, der gemäß dieser Verordnung für Personen- oder Sachschäden haften muss, ist zu folgenden Entschädigungen verpflichtet:

a)  bis zu einem Höchstbetrag von zwei Mio. EUR bei Tod oder Beschädigung der Gesundheit oder körperlichen Unversehrtheit einer betroffenen Person infolge des Betriebs eines KI-Systems mit hohem Risiko;

b)  bis zu einem Höchstbetrag von einer Mio. EUR im Falle eines erheblichen immateriellen Schadens, der zu einem nachweisbaren wirtschaftlichen Verlust führt, oder eines Sachschadens, auch wenn mehrere Sachwerte einer betroffenen Person infolge eines einzigen Vorgangs eines einzigen KI-Systems mit hohem Risiko beschädigt wurden; wenn der betroffenen Person auch ein vertraglicher Haftungsanspruch gegen den Betreiber zusteht, ist keine Entschädigung nach dieser Verordnung zu leisten, wenn die Gesamthöhe des Schadens am Eigentum oder des erheblichen immateriellen Schadens weniger als [500 EUR] beträgt(9).

2.  Übersteigt die an mehrere Personen, die einen von dem gleichen Betrieb des gleichen KI-Systems mit hohem Risiko verursachten Personen- oder Sachschaden erlitten haben, zu entrichtende Gesamtentschädigung die in Absatz 1 festgelegten Höchstbeträge, so werden die an jede Einzelperson zu entrichtenden Beträge anteilig so verringert, dass die Gesamtentschädigung nicht die in Absatz 1 festgelegten Höchstbeträge übersteigt.

Artikel 6

Umfang der Entschädigung

1.  Im Rahmen der in Artikel 5 Absatz 1 Buchstabe a festgelegten Höhe ist die von dem haftenden Betreiber bei Personenschaden mit Todesfolge der betroffenen Person zu entrichtende Entschädigung auf der Grundlage der Kosten der medizinischen Behandlung, der die betroffene Person vor ihrem Tod unterzogen wurde, und dem finanziellen Nachteil vor dem Tod infolge der Beendigung oder Verringerung der Erwerbsfähigkeit oder ihrer erhöhten Bedürfnisse während der Dauer des Schadens vor dem Tod zu berechnen. Der haftende Betreiber muss außerdem die Kosten für die Bestattung der verstorbenen betroffenen Person an diejenige Partei erstatten, die für diese Aufwendungen aufkommen muss.

Stand zum Zeitpunkt des Ereignisses, das den zu ihrem Tod führenden Schaden verursacht hat, die betroffene Person in einer Beziehung zu einer dritten Person und unterlag der gesetzlichen Pflicht, diese Person zu unterstützen, muss der haftende Betreiber diese dritte Person durch Unterhaltszahlungen bis zu dem Ausmaß, zu dem die betroffene Person verpflichtet gewesen wäre, während der Dauer einer durchschnittlichen Lebenserwartung einer Person in diesem Alter und allgemeinen Zustand entschädigen. Der Betreiber muss die dritte Person auch dann entschädigen, wenn zum Zeitpunkt des zum Tod der geschädigten Person führenden Ereignisses die dritte Person bereits empfangen, aber noch nicht geboren war.

2.  Im Rahmen der in Artikel 5 Absatz 1 Buchstabe b festgelegten Höhe beinhaltet die vom haftenden Betreiber zu entrichtende Entschädigung bei Schaden an der Gesundheit oder körperlichen Unversehrtheit der betroffenen Person die Erstattung der Kosten für die erforderliche medizinische Behandlung sowie die Bezahlung von finanziellen Nachteilen der betroffenen Person infolge des vorübergehenden Ausfalls, der Minderung oder der permanenten Beendigung ihrer Erwerbsfähigkeit oder der daraus folgenden ärztlich attestierten erhöhten Bedürfnisse.

Artikel 7

Verjährungsfrist

1.  Gemäß Artikel 4 Absatz 1 geltend gemachte zivilrechtliche Haftungsansprüche wegen Schaden an Leben, Gesundheit oder körperlicher Unversehrtheit unterliegen einer besonderen Verjährungsfrist von 30 Jahren ab Eintrittsdatum des Schadens.

2.  Gemäß Artikel 4 Absatz 1 geltend gemachte zivilrechtliche Haftungsansprüche wegen Sachschäden oder erheblichen immateriellen Schäden, die zu einem nachweisbaren wirtschaftlichen Verlust führen, unterliegen einer besonderen Verjährungsfrist von:

a)  zehn Jahren ab dem Datum, an dem der Sachschaden bzw. der nachweisbare wirtschaftliche Verlust, der sich aus dem erheblichen immateriellen Schaden ergibt, eingetreten ist, oder

b)  30 Jahren ab dem Datum, an dem der Betrieb des KI-Systems mit hohem Risiko, der danach den Sachschaden oder erheblichen immateriellen Schaden verursacht hat, stattgefunden hat.

Von den im ersten Unterabsatz genannten Fristen findet diejenige Anwendung, die früher endet.

3.  Dieser Artikel gilt vorbehaltlich des innerstaatlichen Rechts, in dem die Aussetzung bzw. Unterbrechung von Verjährungsfristen geregelt ist.

Kapitel III

Andere KI-Systeme

Artikel 8

Verschuldensabhängige Haftung für andere KI-Systeme

1.  Der Betreiber eines KI-Systems, das kein KI-System mit hohem Risiko im Sinne von Artikel 3 Buchstabe c und Artikel 4 Absatz 2 ist und folglich nicht im Anhang der Verordnung aufgeführt ist, unterliegt für alle Personen- oder Sachschäden, die durch eine von dem KI-System angetriebene physische oder virtuelle Aktivität, Vorrichtung oder einen entsprechenden Prozess verursacht wurden, der verschuldensabhängigen Haftung.

2.  Der Betreiber haftet nicht, wenn er gestützt auf einen der nachstehenden Gründe nachweisen kann, dass der Personen- oder Sachschaden ohne sein Verschulden verursacht wurde:

a)  Das KI-System wurde ohne seine Kenntnis aktiviert, während alle angemessenen und erforderlichen Maßnahmen getroffen waren, um eine solche Aktivierung außerhalb der Kontrolle des Betreibers zu verhindern, oder

b)  Alle folgenden Maßnahmen wurden mit gebührender Sorgfalt getroffen: Auswahl eines geeigneten KI-Systems für die jeweilige Aufgabe und die jeweiligen Fähigkeiten, ordnungsgemäße Inbetriebnahme des KI-Systems, Überwachung der Aktivitäten und Aufrechterhaltung der betrieblichen Zuverlässigkeit durch regelmäßiges Installieren aller verfügbaren Aktualisierungen.

Der Betreiber darf sich seiner Haftung nicht entziehen können, indem er anführt, dass der Personen- oder Sachschaden durch eine von seinem KI-System angetriebene autonome Aktivität, Vorrichtung oder einen entsprechenden Prozess verursacht wurde. Der Betreiber haftet nicht, wenn der Personen- oder Sachschaden durch höhere Gewalt verursacht wurde.

3.  Wurde der Personen- oder Sachschaden von einem Dritten verursacht, der das KI-System in seiner Funktionsweise oder seinen Auswirkungen verändert hat, haftet der Betreiber dennoch für die Entrichtung der Entschädigung, wenn der Dritte nicht ausfindig gemacht werden kann oder zahlungsunfähig ist.

4.  Auf Aufforderung des Betreibers oder der betroffenen Person ist der Hersteller eines KI-Systems verpflichtet, in dem Ausmaß mit ihnen zusammenzuarbeiten und ihnen Informationen bereitzustellen, in dem es die Bedeutung des Anspruchs rechtfertigt, um die Feststellung der Haftung zu ermöglichen.

Artikel 9

Nationale Entschädigungs- und Verjährungsbestimmungen

Gemäß Artikel 8 Absatz 1 geltend gemachte zivilrechtliche Haftungsansprüche unterliegen bezüglich der Verjährungsfristen sowie der Höhe und dem Ausmaß der Entschädigung dem Recht des Mitgliedstaats, in dem der Personen- oder Sachschaden eingetreten ist.

Kapitel IV

Aufteilung der Haftung

Artikel 10

Mitwirkendes Verschulden

1.  Wird der Schaden sowohl durch von einem KI-System gesteuerte physische oder virtuelle Aktivitäten, Geräte oder Prozesse als auch durch die Handlungen einer betroffenen Person oder einer Person, für die die betroffene Person verantwortlich ist, verursacht, so wird der Haftungsumfang des Betreibers nach dieser Verordnung entsprechend verringert. Der Betreiber ist nicht haftbar, wenn die betroffene Person oder die Person, für die die betroffene Person verantwortlich ist, ausschließlich für den verursachten Personen- oder Sachschaden verantwortlich ist.

2.  Ein haftender Betreiber kann gemäß der Verordnung (EU) 2016/679 und sonstigen einschlägigen Datenschutzbestimmungen die vom KI-System generierten Daten verwenden, um ein Mitverschulden der betroffenen Person nachzuweisen. Die betroffene Person kann diese Daten ebenfalls als Nachweis oder zur Klarstellung bei dem Haftungsanspruch nutzen.

Artikel 11

Gesamtschuldnerische Haftung

Handelt es sich um mehrere Betreiber eines KI-Systems, haften sie gesamtschuldnerisch. Ist der Frontend-Betreiber auch der Hersteller des KI-Systems, gilt diese Verordnung vorrangig vor der Produkthaftungsrichtlinie. Ist der Backend-Betreiber auch als Hersteller im Sinne von Artikel 3 der Produkthaftungsrichtlinie anzusehen, sollte die Produkthaftungsrichtlinie für ihn gelten. Wenn es nur einen Betreiber gibt und dieser Betreiber auch der Hersteller des KI-Systems ist, sollte diese Verordnung Vorrang vor der Produkthaftungsrichtlinie haben.

Artikel 12

Regressanspruch

1.  Der Betreiber ist nicht berechtigt, einen Regressanspruch geltend zu machen, wenn die betroffene Person nicht in vollem Umfang die Entschädigung erhalten hat, auf die sie nach dieser Verordnung Anspruch hat.

2.  Haftet der Betreiber zusammen mit anderen Betreibern in Bezug auf eine betroffene Person gesamtschuldnerisch und hat er diese betroffene Person gemäß Artikel 4 Absatz 1 oder Artikel 8 Absatz 1 vollständig entschädigt, so kann der Betreiber den über seine anteilige Haftung hinausgehenden Teil der Entschädigung von den anderen Betreibern zurückerhalten.

Das Haftungsverhältnis richtet sich nach dem jeweiligen Grad der Kontrolle, die die Betreiber über das mit dem Betrieb und der Funktionsweise des KI-Systems verbundene Risiko hatten. Kann der einem gesamtschuldnerisch haftenden Betreiber beigemessene Beitrag von ihm nicht erhalten werden, wird der Fehlbetrag von den anderen Betreibern übernommen. Soweit ein gesamtschuldnerisch haftender Betreiber die betroffene Person entschädigt und von den anderen haftenden Betreibern eine Anpassung der Vorauszahlungen verlangt, geht der Anspruch der betroffenen Person gegen die anderen Betreiber auf den Betreiber über. Der Forderungsübergang darf nicht zum Nachteil der ursprünglichen Forderung geltend gemacht werden.

3.  Wenn der Betreiber eines mangelhaften KI-Systems die betroffene Person vollständig für Personen- oder Sachschäden gemäß Artikel 4 Absatz 1 oder Artikel 8 Absatz 1 dieser Verordnung entschädigt, kann er Schritte zur Wiedergutmachung gegen den Hersteller des mangelhaften KI-Systems gemäß der Richtlinie 85/374/EWG und den innerstaatlichen Haftungsbestimmungen für mangelhafte Produkte unternehmen.

4.  Entschädigt der Versicherer des Betreibers der betroffenen Person Personen- oder Sachschäden gemäß Artikel 4 Absatz 1 oder Artikel 8 Absatz 1, geht jeglicher zivilrechtliche Haftungsanspruch der betroffenen Person gegen eine andere Person wegen des gleichen Schadens auf den Versicherer des Betreibers in der Höhe über, in der der Versicherer des Betreibers die betroffene Person entschädigt hat.

Kapitel V

Schlussbestimmungen

Artikel 13

Ausübung der Befugnisübertragung

1.  Die Befugnis zum Erlass delegierter Rechtsakte wird der Kommission unter den in diesem Artikel festgelegten Bedingungen übertragen.

2.  Die Befugnis, delegierte Rechtsakte im Sinne von Artikel 4 Absatz 2 zu erlassen, wird der Kommission für einen Zeitraum von fünf Jahren ab dem [Datum des Anwendungsbeginns dieser Verordnung] übertragen.

3.  Die Befugnisübertragung gemäß Artikel 4 Absatz 2 kann jederzeit vom Europäischen Parlament oder vom Rat widerrufen werden. Der Beschluss über den Widerruf beendet die Übertragung der in diesem Beschluss angegebenen Befugnis. Er wird am Tag nach seiner Veröffentlichung im Amtsblatt der Europäischen Union oder zu einem im Beschluss über den Widerruf angegebenen späteren Zeitpunkt wirksam. Die Gültigkeit von delegierten Rechtsakten, die bereits in Kraft sind, wird von dem Beschluss über den Widerruf nicht berührt.

4.  Vor dem Erlass eines delegierten Rechtsakts konsultiert die Kommission den ständigen Technischen Ausschuss für KI-Systeme mit hohem Risiko (TCRAI-Ausschuss) im Einklang mit den in der Interinstitutionellen Vereinbarung über bessere Rechtsetzung vom 13. April 2016 enthaltenen Grundsätzen.

5.  Sobald die Kommission einen delegierten Rechtsakt erlässt, übermittelt sie ihn gleichzeitig dem Europäischen Parlament und dem Rat.

6.  Ein delegierter Rechtsakt, der gemäß Artikel 4 Absatz 2 erlassen worden ist, tritt nur in Kraft, wenn weder vom Europäischen Parlament noch vom Rat innerhalb einer Frist von zwei Monaten nach Mitteilung dieses Rechtsakts Einspruch erhoben wurde oder wenn vor Ablauf dieser Frist sowohl das Europäische Parlament als auch der Rat der Kommission mitgeteilt haben, dass sie keinen Einspruch erheben werden. Auf Initiative des Europäischen Parlaments oder des Rates wird diese Frist um zwei Monate verlängert.

Artikel 14

Überprüfung

Am 1. Januar 202X [3 Jahre nach dem Datum des Anwendungsbeginns dieser Verordnung] und danach alle drei Jahre legt die Kommission dem Europäischen Parlament, dem Rat und dem Europäischen Wirtschafts- und Sozialausschuss einen detaillierten Bericht zur Überprüfung dieser Verordnung vor dem Hintergrund der Weiterentwicklung der künstlichen Intelligenz vor.

Während der Ausarbeitung des im ersten Unterabsatz genannten Berichts holt die Kommission relevante Informationen von Mitgliedstaaten in Bezug auf Fallrecht, gerichtliche Vergleiche sowie Unfallstatistiken, u. a. mit Anzahl der Unfälle, entstandenem Schaden, involvierten KI-Anwendungen, von Versicherungsgesellschaften bezahlten Entschädigungen, sowie eine Bewertung der Zahl der von betroffenen Personen einzeln oder kollektiv geltend gemachten Ansprüche und der Zeiträume, innerhalb derer diese Ansprüche bei Gericht bearbeitet werden, ein.

Die Kommission fügt ihrem Bericht gegebenenfalls Gesetzgebungsvorschläge bei, mit denen etwaige in dem Bericht ermittelte Lücken geschlossen werden sollen.

Artikel 15

Inkrafttreten

Diese Verordnung tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft.

Sie gilt ab dem 1. Januar 202X.

Diese Verordnung ist in allen ihren Teilen verbindlich und gilt unmittelbar in den Mitgliedstaaten.

Geschehen zu ... am …

Im Namen des Europäischen Parlaments Im Namen des Rates

Der Präsident Der Präsident

(1) ABl. …
(2) ABl. …
(3) Richtlinie 85/374/EWG des Rates vom 25. Juli 1985 zur Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Haftung für fehlerhafte Produkte (ABl. L 210 vom 7.8.1985, S. 29).
(4) ABl. L 123 vom 12.5.2016, S. 1.
(5) Siehe Seite 24 des Weißbuchs der Kommission vom 19. Februar 2020 mit dem Titel „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ (COM(2020)0065).
(6) Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (ABl. L 119 vom 4.5.2016, S. 1).
(7) Verordnung (EU) 2018/858 des Europäischen Parlaments und des Rates vom 30. Mai 2018 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, zur Änderung der Verordnungen (EG) Nr. 715/2007 und (EG) Nr. 595/2009 und zur Aufhebung der Richtlinie 2007/46/EG (ABl. L 151 vom 14.6.2018, S. 1).
(8) Verordnung (EU) 2019/1020 des Europäischen Parlaments und des Rates vom 20. Juni 2019 über Marktüberwachung und die Konformität von Produkten sowie zur Änderung der Richtlinie 2004/42/EG und der Verordnungen (EG) Nr. 765/2008 und (EU) Nr. 305/2011 (ABl. L 169 vom 25.6.2019, S. 1).
(9) Von der Kommission zu überprüfen, wie in Ziffer 19 der Entschließung vorgesehen.


ANHANG

[...]

Letzte Aktualisierung: 22. Januar 2021Rechtlicher Hinweis - Datenschutzbestimmungen