DSA statt NetzDG – Was ändert sich bei der Bekämpfung von Hassrede in sozialen Netzwerken?

von MARIUS KÜHNE

Das Europäische Parlament hat bereits am 5. Juli grünes Licht gegeben, die Zustimmung des zuständigen Ministerrates im September gilt als Formsache. Damit kann der Digital Services Act (DSA) Anfang 2024 in Kraft treten. Einige Vorschriften für besonders große Plattformen entfalten sogar früher Geltung. Der zuletzt in Deutschland eingeschlagene Weg, soziale Netzwerke verstärkt zur Übermittlung von Hassrede-Inhalten an Strafverfolgungsbehörden zu verpflichten, wird damit jedoch nicht fortgesetzt.

An großen Worten mangelte es nicht, als sich Parlament und Rat im Mai 2022 politisch auf den Gesetzestext einigten, der nun verabschiedet wurde. Die EU adressiert mit der Verordnung eine Vielzahl von Problemstellungen im Bereich der sozialen Medien. So sollen etwa zukünftig personalisierte Werbung für Minderjährige untersagt (Art. 24b) und die Nutzung besonders sensibler Datenkategorien zu Werbezwecken eingeschränkt (Art. 24 Abs. 3) werden. Zudem werden „sehr große“ Online-Plattformen erstmals dazu verpflichtet, regelmäßig die systemischen Risiken zu evaluieren, die sich aus der technischen Gestaltung ihrer Angebote, insbesondere aus der Nutzung von Empfehlungssystemen, ergeben (Art. 26). Zu den systemischen Risiken zählt explizit die Verbreitung „illegaler Inhalte“ (Art. 26 Abs. 1 lit. a), wozu u.a. strafbare Hassrede zählt. Ob diese Form der Risikobewertung und daran anknüpfende -minimierung erfolgreich sein wird, ist noch nicht abzusehen. Daher soll im Folgenden soll ein Blick darauf geworfen werden, wie der DSA sich im Übrigen auf die Bekämpfung von Hassrede in sozialen Netzwerken auswirkt.

Der Digital Services Act schafft ein abgestuftes System mit unterschiedlich intensiven Pflichten für verschiedene „Vermittlungsdienste“, die Informationen übermitteln sowie für die Übermittlung kurzzeitig zwischen- oder dauerhaft speichern. Dem Marktortprinzip folgend, gilt der DSA (wie auch schon die DSGVO) für alle Vermittlungsdienste, die Dienstleistungen für Nutzer:innen mit Niederlassung in der EU erbringen – unabhängig davon, wo der jeweilige Dienst seinen Sitz hat. Weitergehende Pflichten gelten für sog. Hosting-Dienste, etwa Webhosting- und Cloud-Angebote, sowie Online-Plattformen wie soziale Netzwerke, App-Stores und Online-Marktplätze (Art. 16-24e). Noch weiter gesteigert werden die Anforderungen an „besonders große Online-Plattformen“ mit monatlich mindestens 45 Millionen aktiven Nutzer:innen (Art. 25-33), was voraussichtlich vor allem die Angebote von Facebook, Instagram und TikTok betreffen wird. Als Online-Plattform gelten Hosting-Dienstanbieter, die im Auftrag ihrer Nutzer:innen Informationen speichern und öffentlich verbreiten, sofern es sich dabei nicht um eine unbedeutende „Nebenfunktion“ des eigentlichen Angebots handelt (Art. 2 lit. h). Dem Erwägungsgrund 14 zufolge soll dies auch Funktionen wie offene Telegram-Gruppen und -Kanäle umfassen – hinsichtlich des deutschen NetzDG war diese Frage lange Zeit umstritten, für die Bekämpfung strafbarer Hassrede in der Praxis aber von hoher Relevanz.

Löschung ja, Strafverfolgung nein

Ähnlich wie das deutsche NetzDG, verfolgt der DSA einen „notice and take down“-Ansatz, der auf die Mitwirkung der sozialen Netzwerke setzt. Dafür werden diese verpflichtet, ein funktionierendes Melde- und Abhilfeverfahren (Art. 14 Abs. 1) zu schaffen, mit dem Nutzer:innen problematische Inhalte beanstanden können. Daraufhin entscheidet die Online-Plattform über die Sperrung bzw. Löschung des fraglichen Inhaltes (Art. 14 Abs. 6) und informiert die Person, die den Inhalt gemeldet hat, über das Ergebnis der Prüfung (Art. 14 Abs. 5). Meldungen durch sog. ‚trusted flagger‘, die von den nationalen Regulierungsbehörden diesen Status erhalten haben, dürfen von den Online-Plattformen priorisiert bearbeitet werden (Art. 19).

Strikte Zeitvorgaben zur Löschung entsprechender Inhalte, wie sie sich im deutschen NetzDG finden, kennt der DSA nicht. Dessen Vorgabe, über gemeldete Inhalte „in zeitnaher, sorgfältiger und objektiver Weise“ zu entscheiden (Art. 14 Abs. 6), ist so zu verstehen, als dass für komplexere Entscheidungen länger Zeit bleibt (ErwG 58a). Als ‚Ansporn‘ für die Inhalte-Löschung durch soziale Netzwerke dient die Regelung, dass die dahinterstehenden Konzerne andernfalls ihre Haftungsprivilegierung verlieren (Art. 14 Abs. 3). Nutzer:innen, deren Inhalt gesperrt wurde, erhalten hierfür eine Erklärung (Art. 15 Abs. 2); gegen die Entscheidung können sie ein Beschwerdeverfahren bemühen (Art. 17), wie es auch 2021 als sog. Gegenvorstellungsverfahren in § 3b NetzDG aufgenommen wurde. In Extremfällen ist auch die temporäre Sperrung von Usern möglich, die regelmäßig illegale Inhalte veröffentlichen (Art. 20 Abs. 1).

Anders als § 3a NetzDG sieht der DSA eine Pflicht zur Übermittlung von Inhalten durch Online-Plattformen an Justiz- und Strafverfolgungsbehörden nur in Ausnahmefällen vor, in denen eine Gefahr für das Leben oder die Sicherheit von Personen besteht (Art. 15a). Die NetzDG-Vorschrift, nach der soziale Netzwerke strafbare Inhalte an das BKA übermitteln müssen, stand ohnehin im Schatten rechtlicher Zweifel an deren Verhältnismäßigkeit und Vereinbarkeit mit dem Unionsrecht. Mit Beschlüssen vom 01.03.2022 gab das Verwaltungsgericht Köln zwei dagegen gerichteten Anträgen (Az. 6 L 1277/21; 6 L 1354/21) auf einstweiligen Rechtsschutz des Unternehmens Google (YouTube) und des Meta-Konzerns (Facebook, Instagram) statt. Mit den, soweit stattgebend, mittlerweile rechtskräftigen Beschlüssen hielt das Gericht fest, dass eine Übermittlung strafbarer Inhalte durch die Konzerne entgegen der seit dem 01.02.2022 geltenden Gesetzeslage bis zu einer Entscheidung in der Hauptsache nicht verlangt werden kann. Diese Entscheidung spiegelt sie zukünftig auch im geltenden Recht wieder, wenn das NetzDG vollständig oder zumindest überwiegend durch den DSA verdrängt wird.

Anwendungspraxis offen

Dreh- und Angelpunkt der Hassredebekämpfung im Digital Services Act ist der Begriff der „illegalen Inhalte“. Davon sollen alle Informationen umfasst sein, „die als solche oder durch ihre Bezugnahme auf eine Tätigkeit […] nicht im Einklang mit dem Unionsrecht oder dem Recht eines Mitgliedstaats stehen, ungeachtet des genauen Gegenstands oder der Art der betreffenden Rechtsvorschriften“ (Art. 2 lit. g). Der Begriff der illegalen Inhalte ist damit deutlich weiter als der Begriff der „rechtswidrigen Inhalte“ in § 1 Abs. 3 NetzDG, der nur Verstöße gegen bestimmte Strafvorschriften umfasst. Mit dem DSA können zukünftige alle Rechtsverstöße, insbesondere auch solche gegen das Ehrschutz- oder Urheberrecht zum Gegenstand des Melde- und Abhilfeverfahrens werden. Praktisch bedeutsam könnte dies vor allem bei der rechtswidrigen Veröffentlichung intimer Aufnahmen, häufig durch ehemalige Partner:innen, sein, wie sie unter dem Schlagwort „revenge porn“ diskutiert werden. Inwiefern die Plattformen dabei auch die Meinungsäußerungsfreiheit der Urheber:innen kontroverser Inhalte berücksichtigen werden, ist noch schwer abzusehen und eng verknüpft mit der Frage nach der (mittelbaren) Grundrechtsbindung sozialer Netzwerke.

Konfliktpotential birgt der weit gefasste Begriff der „illegalen Inhalte“ auch, da Art. 8 Abs. 1 DSA explizit vorsieht, dass die zuständigen Justiz- oder Verwaltungsbehörden der Mitgliedstaaten gegenüber den Online-Plattformen anordnen können, gegen bestimmte Inhalte vorzugehen. Zwar macht der DSA hier materielle und prozessuale Vorgaben: Ein Inhalt muss illegal sein „auf der Grundlage des geltenden Unionsrechts oder des nationales Rechts im Einklang mit dem Unionsrecht“. Zudem muss die Anordnung eine Begründung und Angaben zu Rechtsbehelfen (Art. 8 Abs. 2) enthalten sowie über den jeweiligen Digital Services Coordinator auch den Amtskolleg:innen der anderen Mitgliedstaaten übermittelt werden (Art. 8 Abs. 3). Gleichwohl wird der Umgang mit Löschanordnungen aus Mitgliedstaaten, deren Rechtstaatlichkeit derzeit zweifelhaft ist, große Herausforderungen mit sich bringen.

Potential und Risiken

Auch ohne den inhaltlich unzutreffenden, aber medial vielfach kolportierten Slogan eines „Grundgesetzes für das Internet“ zu übernehmen, lässt sich die Einigung auf den DSA als „historisch“ bezeichnen. Damit schafft die Europäische Union ein zentrales Gesetz der Plattformregulierung mit einem deutlich breiten Fokus auf „illegale Inhalte“, als ihn das deutsche NetzDG hatte. Positiv ist auch, dass die EU-Verordnung auf das unions- und verfassungsrechtlich umstrittene Übermittlungsverfahren strafbarer Inhalte an das BKA verzichtet. Ob sich die Gefahren des weit gefassten Begriffs „illegaler Inhalte“ in der Rechtsanwendung grundrechtsschonend handhaben lassen, muss sich zukünftig noch erweisen.

 

Zitiervorschlag: Kühne, Marius, DSA statt NetzDG – Was ändert sich bei der Bekämpfung von Hassrede in sozialen Netzwerken?, JuWissBlog Nr. 49/2022 v. 04.08.2022, https://www.juwiss.de/49-2022/.

Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International Lizenz.

Digital Services Act, Hassrede, Hate Speech, Marius Kühne, NetzDG, Soziale Medien
Nächster Beitrag
Deutschland sucht den Digital Services Koordinator – Zur nationalen Umsetzung des Digital Services Act
Vorheriger Beitrag
Quo vaditis, Klimaklagen?

Ähnliche Beiträge

Von AMÉLIE HELDT Über das Netzwerkdurchsetzungsgesetz (NetzDG) wurden nicht viele positive Worte verloren – außer vielleicht von autokratischen Regimen, die das NetzDG als Vorbild für die Regulierung von Meinungsäußerungen sehen. Das Gesetz wurde 2017 zur Bekämpfung von „Hasskriminalität und strafbaren Falschnachrichten auf Plattformen“ verabschiedet und es verpflichtet, soziale Netzwerke ab…
Weiterlesen
von AMÉLIE HELDT Anfang 2018 kündigte Präsident Macron ein Gesetz gegen „fake news“ an. Auslöser war die Verbreitung falscher Informationen während des Wahlkampfs und die generelle Befürchtung, das Verbreiten von Falschinformationen im Netz könnte eine zunehmende Verfälschung des politischen Diskurses vorantreiben. Seit Mai 2018 liegt der Entwurf der Regierung vor…
Weiterlesen
Von SEBASTIAN SCHWAB Auf der Kurznachrichtenplattform Twitter hat in der vergangenen Woche ein Video große Verbreitung gefunden, das zeigt, wie letztlich zwölf Polizeibeamte einen 15-jährigen Jugendlichen mit Schlagstock und Pfefferspray überwältigen, um seine Identität festzustellen, nachdem er ordnungswidrig mit seinem E-Roller auf dem Bürgersteig gefahren war. Unabhängig von der in…
Weiterlesen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.