KI-Haftung Teil II: Die haftungsrechtliche Erlösung?

von PASCAL BRONNER und NICOLAS ZIEGLER

Am 28.09.2022 hat die EU-Kommission ihren Vorschlag für eine Richtlinie über KI-Haftung veröffentlicht. Zusammen mit dem ebenso vorgestellten Entwurf für eine Überarbeitung der Produkthaftungsrichtliniebeabsichtigt dieser regulatorische Vorstoß, die produktbezogene Herstellerhaftung – knapp 40 Jahre nach ihrer Etablierung – an das digitale Zeitalter und seine Besonderheiten anzupassen und Geschädigten geeignete Rechtsinstrumente im Schadensfall an die Hand zu geben. Dieser Beitrag soll einen Blick auf Zielsetzung und Inhalt der KI-Haftungsrichtlinie werfen und eine erste rechtliche Bewertung der Neuordnung der Haftung für KI-Systeme vornehmen.

KI-Systeme weisen vielfältige Charakteristika auf, die dem Haftungsrecht große Herausforderungen aufgeben. (s. Teil I). Den dringenden Regulierungsbedarf sah bereits das Europäische Parlament in seiner legislativen Initiativentschließung vom 20. Oktober 2020. Die Richtlinie über KI-Haftung folgt dieser Entschließung. Zusammen mit dem Entwurf des AI Act und dem der Modifizierung der Produkthaftungsrichtlinie soll die Richtlinie über KI-Haftung ein regulatorisches Maßnahmenpaket bilden, das die Entwicklung algorithmischer Systeme in der EU fördert und Vertrauen in KI-Systeme fördert. Im Folgenden sollen Zielsetzung (I.) und Inhalt (II.) der Richtlinie betrachtet werden, bevor die Richtlinie einer ersten rechtlichen Bewertung unterzogen wird (III.). Schließlich soll ein Ausblick auf das weitere Gesetzgebungsverfahren und den Einfluss der KI-Richtlinie im regulatorischen Haftungssystem kurz betrachtet werden (IV.).

I. Zielsetzung der Richtlinie

Die Richtlinie über KI-Haftung verfolgt das primäre Ziel, die außervertragliche, zivilrechtliche und verschuldensabhängige Haftung für Schäden, die durch den Einsatz von KI-Systemen entstehen, zu harmonisieren. Da bereits einige Mitgliedstaaten legislative Maßnahmen im Kontext der KI-Haftung angekündigt haben, ist nach Ansicht der EU-Kommission eine normative Zersplitterung zu befürchten. Den kritischen Eigenschaften algorithmischer Systeme – Autonomie, Opazität und Komplexität – soll auf Haftungsebene mit geeigneten regulatorischen Instrumenten (s. II.) interessensgerecht begegnet werden. Durch die intendierte Harmonisierung der Rechtsausübung durch Geschädigte soll die notwendige Rechtssicherheit geschaffen werden, um schließlich das Vertrauen in KI-Systeme sowie die Förderung vertrauenswürdiger KI zu stärken.

 II. Inhalt der Richtlinie

Die Begriffsbestimmungen der Richtlinie knüpfen in Art. 2 an die Definitionen des AI-Act an, um so eine einheitliche Auslegung innerhalb des harmonisierenden KI-Maßnahmenpakets zu gewährleisten. Zentrale Begrifflichkeiten sind dabei „KI-System“ und „Hochrisiko-KI-System“. Da der AI-Act auch den staatlichen Einsatz von KI zum Gegenstand hat, regelt die neue Richtlinie auch Haftung des Staates. Die Richtlinie hält sich in vielem bewusst zurück, um ihre möglichst unkomplizierte Umsetzbarkeit in die nationalen Haftungsregime sicherzustellen.

In Art. 3 Abs. 1 der Richtlinie ist vorgesehen, dass die Offenlegung von Unterlagen über vermutlich schadensursächliche Hochrisiko-KI-Systeme zu Beweiszwecken gerichtlich angeordnet werden kann. Gemeint sind mit diesen Unterlagen die umfangreichen Aufzeichnungen, die von Hochrisiko-KI-Systemen nach dem AI-Act angefertigt werden müssen. Dies gilt nach Art. 3 Abs. 4 jedoch nur in dem Umfang, in dem die Unterlagen für die Geltendmachung eines Anspruchs erforderlich sind. Werden Unterlagen trotzdem nicht offengelegt, greift eine widerlegliche Vermutung für die Nichteinhaltung einer Sorgfaltspflicht. Berücksichtigt wird in diesem Rahmen auch der Geschäftsgeheimnisschutz von KI-System-Herstellern, was unter anderem der Verband Bitkom als sehr positiv einordnet. Ob die offengelegten Daten jedoch sinnvoll im Prozess verwertet werden können, hängt davon ab, welchen Nutzen der Grundsatz der „explainable AI“ in Art. 13 Abs. 1 des AI-Act-Entwurfs haben wird.

Art. 4 ist das Herzstück der Richtlinie und auf sämtliche KI-Systeme anwendbar. Hier wird eine widerlegliche Vermutung der Kausalität zwischen dem Verschulden des Betreibers eines KI-Systems und dem Output des KI-Systems etabliert. Damit soll die Black-Box-Problematik umschifft werden. Die Sorgfaltspflichten für das Verschulden des Herstellers, Betreibers und der Nutzer sind derzeit vor allem im unionalen Recht, hier vornehmlich im AI-Act verortet. Nichtsdestotrotz ist ein Kläger für die Nichteinhaltung der Pflichten nach dem AI-Act weiterhin beweispflichtig. Warum Art. 4 keine Offenlegungspflicht enthält ist nicht nachvollziehbar. Das Beweisproblem ist schließlich unabhängig vom Risiko des KI-Systems.

III. Stellungnahme

Die umfangreiche Einbindung der Pflichten des AI-Acts bringt Licht und Schatten. Haftung ist einer Regulierung durch klassische Eingriffsverwaltung zur Risikosteuerung in der Regel überlegen, weshalb die Einbindung der Sorgfaltspflichten des AI-Acts eine gute Idee ist. Jedoch übernimmt die Haftungs-Richtlinie mit der Definition des „KI-Systems“ auch eines der zentralen Probleme des AI-Act-Entwurfs, das im dortigen Gesetzgebungsverfahren für viele Diskussionen sorgt: Sein Anwendungsbereich ist zu weit und umfasst nahezu sämtliche Software, sogar Taschenrechner. Der Vorschlag für die Haftung bei Hochrisiko-KI in Art. 3 wird seine hehren Ziele, Haftung für „Opfer von KI“ zu erleichtern, kaum erreichen können. Vielmehr dürfte er zu einer unnötig teuren und komplizierten Prozesskaskade führen. Das Zusammenspiel des AI-Acts und der in nationales Recht umzusetzenden Richtlinien zur Produkthaftung und KI-Haftung führt zu zusätzlichen Schwierigkeiten. Die EU-Kommission hätte gut daran getan, die Komplexität von KI-Systemen nicht haftungsrechtlich nachzuahmen.

Dabei läge die Lösung auf der Hand und war auch schon vom EU-Parlament gefordert worden: Eine verschuldensunabhängige Gefährdungshaftung für in der EU betriebene (Hochrisiko-)KI-Systeme. Eine Gefährdungshaftung klingt teuer und abschreckend. Das Gegenteil ist aber der Fall: Eine vom Hersteller vorgenommene Risikoabschätzung sorgt dafür, dass nur sichere KI-Systeme den europäischen Markt erblicken und gleichzeitig wird ein Anreiz zur Weiterentwicklung der Technologie gesetzt. Die bestechende Rechtsklarheit einer Gefährdungshaftung minimiert auch unnötige soziale Kosten, zu denen Rechtsunsicherheit bezüglich der Sorgfaltspflichten führen kann. Die Richtlinie lässt aber besonders viel Raum für richterliche Rechtsfortbildung und damit auch länger anhaltende Rechtsunsicherheit.

IV. Fazit und Ausblick

Spannend ist die gleichzeitig mit der KI-Haftungsrichtlinie vorgestellte Überarbeitung der Produkthaftungsrichtlinie von 1985. Ihr Anwendungsbereich soll sich gerade auch auf Software und als Unterfall auch KI-Systeme ausweiten. Zwar handelt es sich hierbei um eine verschuldensunabhängige Haftung, die zudem um zahlreiche bisherige Schwächen der Produkthaftung ärmer wird, doch das Nachweisproblem für Kläger wird bleiben. Die Barrieren für Geschädigte, Fehler von KI-Systemen zu beweisen, bleiben nämlich zu hoch, was auch bereits von einigen EU-Parlamentariern kritisiert wird. Es ist daher davon auszugehen, dass im weiteren Gesetzgebungsverfahren – Rat und Parlament müssen dem Kommissionsvorschlag nämlich noch zustimmen – auf eine stärkere Beweislastumkehr hingearbeitet wird, zumindest vom Parlament, das auch in seiner Entschließung eine solche empfohlen hat. Das Gesetzgebungsverfahren bleibt daher sehr spannend, auch weil sich die beiden anderen Gesetze des EU-KI-Maßnahmenpakets in der Legislativphase befinden. Aufgrund des realen Schädigungspotenzials autonomer Systeme wäre es jedoch für Geschädigte am Ende wünschenswert, wenn ihnen ein verschuldensunabhängiger Anspruch an die Hand gegeben würde, bei dem sie weniger Probleme haben, die hohen Hürden der Beweisbarkeit zu erklimmen.

Zitiervorschlag: Bronner, Pascal/Ziegler, Nicolas, KI-Haftung Teil II: Die haftungsrechtliche Erlösung?, JuWissBlog Nr. 56/2022 v. 12.10.2022, https://www.juwiss.de/56-2022/.

Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International Lizenz.

AI-Act, Haftung, KI, Regulierungsrecht
Nächster Beitrag
States’ obligations to protect human rights against climate change – a “perverse absurdity” or a matter of fact?
Vorheriger Beitrag
KI-Haftung Teil I: Die haftungsrechtliche Rebellion der Maschinen?

Ähnliche Beiträge

von CLAUDIA WUTSCHER Anders als in Deutschland enthält die österreichische Verfassungsordnung weder eine Pflicht zur Bundestreue noch konkrete Regelungen für den Umgang mit finanziellen Krisen von Bundesländern. Das Debakel um die Milliardenhaftungen Kärntens für die marode Hypo-Alpe-Adria zeigt freilich, dass es sich bei der Frage nach einer Einstandspflicht nicht um…
Weiterlesen
von ANNA MICHEL und DENISE MÜLLER Welche verfassungsrechtlichen Vorgaben gelten für Befugnisnormen, die den Gefahrenabwehrbehörden automatisierte – und sogar „intelligente“ – Datenauswertungen bzw. -analysen erlauben? Am Bundesverfassungsgericht sind aktuell zwei Verfahren anhängig (1 BvR 1547/19, 1 BvR 2634/20), in denen es um Rechtsgrundlagen zur automatisierten Datenverarbeitung (§ 25a Abs. 1 Alt. 1…
Weiterlesen
von PASCAL BRONNER und NICOLAS ZIEGLER Künstliche Intelligenz (KI) entwickelt sich rasant und hat das Potential, Quantensprünge in der Entwicklung nahezu jedes unserer Lebensbereiche herbeizuführen. Der Einsatz dieser Schlüsseltechnologie kann aber auch zu Schäden an hochrangigen Rechtsgütern führen. Obwohl sie dringend gebraucht werden, gibt es bisher jedoch noch keine zufriedenstellenden…
Weiterlesen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.