von PASCAL BRONNER und NICOLAS ZIEGLER
Künstliche Intelligenz (KI) entwickelt sich rasant und hat das Potential, Quantensprünge in der Entwicklung nahezu jedes unserer Lebensbereiche herbeizuführen. Der Einsatz dieser Schlüsseltechnologie kann aber auch zu Schäden an hochrangigen Rechtsgütern führen. Obwohl sie dringend gebraucht werden, gibt es bisher jedoch noch keine zufriedenstellenden Haftungsregelungen für autonome Systeme. Dies versucht die EU nun mit einem regulatorischen Vorstoß zu ändern. Dieser Beitrag wirft einen generellen Blick auf diesen Vorstoß, beleuchtet die Grundsatzproblematiken der KI-Haftung und zeigt bisher angedachte rechtliche Lösungen auf.
Am 21.4.2021 hat die EU-Kommission den Vorschlag für den AI-Act vorgelegt. Dieser Entwurf verfolgt einen risikobasierten Regulierungsansatz. Er soll regeln, welche KI-Anwendungen überhaupt erlaubt sind und welche Sicherheitsvorkehrungen bei risikoreicheren KI-Systemen zur Risikominimierung getroffen werden müssen. Auch wenn der AI-Act-Entwurf mit dem Argument des Individualschutzzwecks vereinzelt als haftungsbegründendes Schutzgesetz nach § 823 Abs. 2 BGB klassifiziert wird, enthält er keine Schadensersatzregelungen für Fehler autonomer Systeme. Aus diesem Grund hat die EU-Kommission am 29.9.2022 nun einen Vorschlag für eine Richtlinie über KI-Haftung vorgelegt. Bereits im Oktober 2020 hatte das EU-Parlament in einer Entschließung eine entsprechende harmonisierende Verordnungsinitiative zur KI-Haftungsregulierung von der Kommission gefordert. Warum der AI-Act-Entwurf die Haftungsfrage nicht adressiert ist unklar, dürfte jedoch damit zusammenhängen, dass die Kommission Konsistenz mit der schon länger erwarteten Revision der Produkthaftungsrichtlinie herstellen wollte. Wie drängend das Bedürfnis nach einer solchen Kodifizierung ist, zeigen überdies die Befassung des aktuellen 73. DJT mit der Haftung digitaler autonomer Systeme und das Ergebnis der öffentlichen Konsultation im Gesetzgebungsverfahren zur Haftungsrichtlinie. Für Unternehmen stellt die Haftungsfrage nach einer repräsentativen Umfrage aus dem Jahr 2020 sogar eine der größten Barrieren beim Einsatz Künstlicher Intelligenz dar. Eine rechtsklare Haftung hat jedoch das Potential bis zu 1,1 Mrd. Euro zusätzlichen jährlichen Marktwert im Binnenmarkt zu generieren. Eine inhaltliche Auseinandersetzung mit der Richtlinie über KI-Haftung erfolgt in einem weiteren Beitrag. Im Folgenden soll zunächst der Regulierungsbedarf hinsichtlich der Haftung von KI-Systemen anhand ihrer kritischen Eigenschaften aufgezeigt (I.) und vor dem Haftungsrecht de lege lata beleuchtet werden (II.), um die Anforderungen de lege ferenda (III.) besser begreifen zu können
I. Regulierungsbedarf: Kritische Eigenschaften von KI-Systemen
Die potenziell schadensauslösenden Fehlerquellen von KI-Systemen sind grundsätzlich vielfältig und können sowohl technischer Natur sein als auch durch eine unzureichende menschliche Programmierung hervorgerufen werden. Zudem weisen sie eine Vielzahl von Eigenschaften auf, die einen haftungsrechtlichen Umgang mit Schäden verkomplizieren. Zum einen ist die Verantwortlichkeit, also die Frage, wer haftungsrechtlich für die von KI-Systemen verursachten Schäden einstehen muss, oft unklar. Die KI selbst hat keine Rechtspersönlichkeit und kann daher nicht haften. Durch KI entstehende Schäden müssen aber einem Rechtssubjekt zugerechnet werden, um einen interessensgerechten Haftungsausgleich zu gewährleisten. Beruht ein Schaden auf menschlichem Verschulden, beispielsweise auf Fehler beim Programmieren, oder der Überwachung, gibt es bereits de lege lata einen Verantwortlichen. Eng damit verbunden ist das sog. „Autonomierisiko“: KI-Systeme arbeiten nicht linear, sondern passen ihre Datensätze und Entscheidungsstrukturen sich verändernden Bedingungen ständig an. Sie handeln quasi-autonom und können daher auch selbstständig Fehlentscheidungen treffen, die niemandem verschuldensmäßig zugerechnet werden können. Zusätzlich kompliziert wird eine haftungsrechtliche Lösung durch die Black-Box-Problematik von KI-Systemen. Wie Entscheidungen getroffen werden, ist häufig schwer bis unmöglich nachzuvollziehen (sog. Opazitätsrisiko). Selbst dem Entwickler ist es oft nicht mehr möglich, den Fehler zu finden oder zu bestimmen, ob er diesen selbst, oder das KI-System im Betrieb verursacht hat. Dieses Kausalitätsproblem bereitet Anspruchsstellern große Probleme. Eines davon ist die Beweisbarkeit von Pflichtverletzungen und die daran anknüpfende Frage, wer in solchen Konstellationen die Beweislast trägt.
II. Konsequenzen für das Haftungsrecht de lege lata
Diese Erwägungen werfen für das geltende Haftungsrecht vor allem Fragen im Hinblick auf die Risikotragung und das adressierte Haftungssubjekt, sowie nach dem maßgeblichen Haftungsprinzip auf. Beide Problematiken sind dabei eng miteinander verknüpft. Vieldiskutiert und seit Jahren im Zentrum des rechtswissenschaftlichen KI-Diskurses bewegt sich die Frage nach dem Haftungssubjekt in der Entwicklungs- und Nutzungskette von KI-Systemen im Schadensfall. Neben dem Geschädigten als Risikoträger für Autonomie und fehlende Nachvollziehbarkeit kommen hierbei insbesondere der Hersteller (Entwicklung des KI-Systems), der Betreiber (Marktakteur mit möglichem Einfluss auf Lernverfahren des KI-Systems) sowie schließlich der Nutzer (Verwender des KI-Systems) in Betracht. Ohne eine gesetzliche Haftungsverlagerung zulasten dieser Akteure trägt grundsätzlich der Geschädigte das Risiko für autonome und nicht erklärbare KI-Fehler, obwohl sich der Schaden für diesen häufig als zufällig erweist. Verwirklicht sich das Autonomierisiko des algorithmischen Systems, gestaltet sich die Zurechnung der Haftung ganz generell nach geltendem deutschen Recht aber schwierig. Eine Verschuldenshaftung scheidet bei autonomen Fehlern gerade aus, da eine Sorgfaltspflichtverletzung des potenziell adressierten Akteurs nicht vorliegt und somit das erforderliche Vertretenmüssen (vertragliche Haftung) bzw. ein Verschulden (deliktische Haftung) nicht begründet wird. Bei Fehlentscheidungen von KI-Systemen bietet sich daher die Konstruktion über eine verschuldensunabhängige (Gefährdungs-)Haftung an. Hier fehlt aber – außer in Sonderfällen wie dem autonomen Fahren – eine entsprechende Regelung im deutschen Recht. Auch wenn das Produkthaftungsrecht als Inspiration für künftige Regelungen herangezogen werden kann, passt das geltende ProdHaftG mit seinen Voraussetzungen und insbesondere dem Stichtagsprinzip in § 1 Abs. 2 Nr. 2 ProdHaftG nicht auf autonom entstandene Schäden durch KI-Systeme. Abzuwarten bleibt in diesem Kontext, wie sich die Umsetzung des zeitgleich mit dem Entwurf der Richtlinie über KI-Haftung vorgestellten Überarbeitung der Produkthaftungs-RL entwickelt. Da der Geschädigte schließlich nicht nur i.d.R. das Autonomierisiko, sondern auch bei KI-Fehlern die Beweislast hinsichtlich Pflichtverletzung und Kausalität trägt, vermag das deutsche Haftungsrecht in seiner Eigenschaft als Risikosteuerungsinstrument de lege lata nicht, das Risiko auf denjenigen zu übertragen, der die Hoheit über die Eigenschaften und den Einsatz bestimmter KI-Systeme hat.
III. Anforderungen de lege ferenda
Angesichts des stetig zunehmenden Einsatzes von KI-Systemen braucht es daher besser heute als morgen eine tragfähige Regulierung der Haftung. Die hierfür geeignete verschuldensunabhängige Haftung von Herstellern, Betreibern oder Nutzern von KI-Systemen sollte durch eine klare Definition der Haftungsursache begrenzt werden. Hierbei können die Risikoklassifizierung des AI-Act-Entwurfs oder die Anpassung des geltenden Produkthaftungsrechts als Parameter herangezogen werden. Zur gerechteren Risikoverteilung empfiehlt sich darüber hinaus die Kodifizierung klarer Beweislastregeln, wie insbesondere einer Beweislastumkehr zulasten von Herstellern oder Betreibern von KI-Systemen. Ob die Richtlinie über KI-Haftung in diesem Kontext hinreichende Regelungen trifft, wird in einem weiteren Beitrag erörtert.
Zitiervorschlag: Bronner, Pascal/Ziegler, Nicolas, KI-Haftung Teil I: Die haftungsrechtliche Rebellion der Maschinen?, JuWissBlog Nr. 55/2022 v. 11.10.2022, https://www.juwiss.de/55-2022/.
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International Lizenz.