von JENS MILKER
Donald Trump und Hillary Clinton haben es gemacht. Die AfD hat es für 2017 ebenfalls angekündigt – dementierte aber wenig später. Die Rede ist vom Einsatz von Meinungsrobotern, auch „Socialbots“ (kurz: Bots) genannt. Dabei handelt es sich um spezielle Computerprogramme, die nach einem festgelegten Algorithmus arbeiten und sich als reale Nutzer von Social-Media-Plattformen ausgeben. Sie verfassen Beiträge, kommentieren, liken oder teilen – natürlich ganz im Sinne desjenigen, der sie einsetzt. Diese Bots sind geradezu prädestiniert, die öffentliche Meinungsbildung vor allem im Wahlkampf zu beeinflussen. Es soll daher der Frage nachgegangen werden, ob die Tätigkeit der Bots durch die Meinungsfreiheit geschützt ist und sie als Wahlkampfinstrument zulässig sind. Bundesinnenminister Thomas De Maizière forderte die Parteien jedenfalls auf, öffentlich auf den Einsatz solcher Bots zu verzichten.
Wie funktionieren Meinungsroboter?
Durch Meinungsroboter lassen sich Social-Media-Profile automatisch steuern. Für einen Dritten ist der Unterschied zu einem „echten“ Nutzer kaum erkennbar. In der Regel werden zunächst gefälschte Profile registriert, die als „Körper“ dienen. Sie sind massenweise für geringe Summen und ohne größere Probleme online erhältlich. Das tatsächliche „Hirn“ des Social-Media-Profils ist der Bot. Er nutzt nach vorprogrammierten Abläufen die auch einem echten Nutzer zur Verfügung stehenden Funktionen des jeweiligen Profils. Was der Bot dann inhaltlich in das soziale Netzwerk einspeist, wird im Algorithmus verankert und kann so anhand abstrakter Kriterien gesteuert werden. Ein Bot kann vor allem so „trainiert“ werden, dass er auf bestimmte Aussagen treffende Konter anhand einprogrammierter Formulierungsmuster äußert, z. B. auf die Aussage „Putin ist ein Diktator“ entgegnet der Bot: „Ich glaube nicht, dass …“.
Wozu werden Bots eingesetzt?
Bots können mittlerweile vielfältig eingesetzt werden. In der Vergangenheit wurden sie primär dazu genutzt um „Likes“ auf Facebook für Unternehmenswebseiten zu generieren oder die Anzahl der Follower bei einem Twitter-Profil künstlich in die Höhe zu treiben. Mittlerweile folgen Bots nicht mehr nur passiv, sondern schaffen aktiv eigene Inhalte, indem sie selbst Beiträge verfassen oder sie kommentieren. Auf diese Weise können Bot-Armeen das öffentliche Meinungsbild erheblich beeinflussen. Zur Verdeutlichung sollen die folgenden aktuellen Beispiele dienen. Um seine verständlicherweise schlechten Umfragewerte bei Wählern mit lateinamerikanischen Wurzeln zu verbessern, setzte Donald Trump Bots mit spanisch klingenden Namen bei Twitter ein, die sich positiv über ihn äußerten. In ähnlicher Weise wurden Pro-Brexit Tweets und faschistische Äußerungen im Ukraine-Konflikt durch Bots getätigt, um die öffentliche Diskussion in sozialen Netzwerken zu manipulieren.
Meinungsfreiheit für Bots?
Es stellt sich nun die Frage, ob die Kommentare und Beiträge der Bots durch die Meinungsfreiheit gemäß Art. 5 Abs. 1 S. 1 Hs. 1 GG geschützt sind. Das wird vor allem dann relevant, wenn der Bot ehrverletzende oder volksverhetzende Aussagen tätigt. In persönlicher Hinsicht sind nur natürliche und ggf. auch juristische Personen erfasst – Maschinen selbst genießen keinen Grundrechtsschutz. Fraglich ist, ob sich die Benutzer der Bots in sachlicher Hinsicht auf die Meinungsfreiheit berufen können. Ihr Schutzbereich umfasst die Äußerung und Verbreitung von Meinungen und Tatsachen – auch unter einem Pseudonym oder anonymisiert (vgl. BGH, Urt. v. 23.06.2009, Az.: VI ZR 196/08, Rn. 38). Fraglich ist schon, ob mit der Programmierung der Bots eine hinreichende – antizipierte – Äußerung einer Meinung oder Tatsache vorliegt. Das wird teilweise in Zweifel gezogen. Die Äußerung einer Meinung kann aber nach richtiger Auffassung auch durch die tendenziöse Programmierung eines Algorithmus erfolgen. Der menschliche Entscheidungsprozess über das Ob, Wann und Wie einer Äußerung ist dann nur zeitlich vorverlagert und in abstrakte Kriterien übersetzt worden. Die darauf basierenden automatisch kreierten Inhalte sind nach den Grundsätzen der automatisierten Willenserklärung demjenigen zuzurechnen, der den Bot einsetzt. In der Autocomplete-Entscheidung hat der BGH auch eine Zurechnung automatisch erstellter Suchvorschläge bejaht (vgl. BGH, Urt. v. 14.05.2013, Az.: VI ZR 269/12 – Autocomplete). Nichtdestotrotz ist der Einsatz eines Bots von vornherein bewusst auf Täuschung der Öffentlichkeit angelegt. Es soll der Anschein erweckt werden, ein „echter“ Nutzer habe den Beitrag verfasst. Unrichtige Informationen stellen in Bezug auf die Meinungsfreiheit prinzipiell kein schützenswertes Gut dar, weil sie nicht zum öffentlichen Diskurs beitragen können (vgl. BVerfG, Beschl. v. 03.06.1980, Az.: 1 BvR 797/78). Bewusst unwahre Tatsachenbehauptungen fallen von vornherein aus dem Schutzbereich heraus (BVerfG, Beschl. v. 10.11.1998, Az.: 1 BvR 1531/96, Rn. 53). Das bezieht sich aber nur auf den Inhalt der Äußerung, nicht auf deren Modalitäten. Im Ergebnis ist eine Berufung auf die Meinungsfreiheit möglich. Der Täuschungscharakter kann in einer etwaigen Grundrechtsabwägung berücksichtigt werden.
Grenzen für Parteien im Wahlkampf?
Probleme ergeben sich im Wahlkampf aus den Wahlrechtsgrundsätzen des Art. 38 Abs. 1 S. 1 GG. Konkret könnte die Freiheit der Wahl betroffen sein. Sie besteht vor allem darin, dass die Wähler ihr Wahlrecht „ohne Zwang oder sonstige unzulässige Beeinflussung“ ausüben können (BVerfG, Urt. v. 10.04.1997, Az.: 2 BvF 1/95). Der Schutz umfasst nicht nur den Akt der Stimmabgabe an sich, sondern auch den Wahlkampf im Vorfeld (vgl. BVerfG, Urt. v. 08.02.2001, Az.: 2 BvF 1/00, Rn. 98). Der Wähler „soll sein Urteil in einem freien, offenen Prozess der Meinungsbildung gewinnen und fällen können“ (BVerfG, Urteil, 02.03.1977, Az.: 2 BvE 1/76). Dies hat der Staat auch im Verhältnis zu Parteien und sonstigen Privatpersonen sicherzustellen. Sie dürfen allerdings im Rahmen von Art. 5 Abs. 1, 2 GG sowie Art. 21 GG auf die Wahl Einfluss nehmen. Einschränkungen ergeben sich aus den allgemeinen Gesetzen. Dazu zählt vor allem die strafbare Wählernötigung aus § 108 StGB. Die Vorschrift konkretisiert in verfassungskonformer Weise die unzulässige Wahlbeeinflussung durch Privatpersonen (vgl. BVerfG, Urt. v. 08.02.2001, Az.: 2 BvF 1/00, Rn. 97). Voraussetzung ist stets, dass Zwang oder Druck ausgeübt wird oder in „ähnlich schwer wiegender Art und Weise auf die Wählerwillensbildung eingewirkt worden ist, ohne dass eine hinreichende Möglichkeit der Abwehr, z. B. […] mit Mitteln des Wahlwettbewerbs, bestanden hätte“ (vgl. BVerfG, Urt. v. 08.02.2001, Az.: 2 BvF 1/00, Rn. 98). Täuschungen und Lügen kann man mit Mitteln einer Gegendarstellung im Meinungskampf entgegentreten. Ferner ist es ansatzweise medienkompetenten Bürgern sowohl zumutbar, den Inhalt einer Aussage auf seinen Wahrheitsgehalt zu untersuchen, als auch vor allem im Internet die Echtheit der Person, die die Aussage getätigt hat, kritisch zu hinterfragen. Das Bundesverfassungsgericht nimmt auf Grundlage einer historischen Interpretation ebenfalls an, dass die bloße Verbreitung von „Täuschungen und Lügen“ von privater Seite keine unzulässige Wahlbeeinflussung darstellt (BVerfG, Urt. v. 08.02.2001, Az.: 2 BvF 1/00, Rn. 86). Der Einsatz von Bots durch Parteien im Wahlkampf ist damit vor dem Hintergrund der Freiheit der Wahl unbedenklich, auch wenn er ethisch zu missbilligen ist.
Schlussbemerkung
Die sozialen Medien gewinnen immer mehr Einfluss auf die politische Willensbildung, insbesondere bei jungen Wählern. Mit Socialbots steht vor allem Politikern und Regierungen ein mächtiges Instrument zur Verfügung, um die öffentliche Diskussion in die gewünschte Richtung zu lenken. Da nach derzeitiger Rechtslage der Einsatz von Socialbots im Wahlkampf durch Parteien grundsätzlich unbedenklich ist, bleiben nur zwei kurzfristige Maßnahmen, um dieser Entwicklung entgegenzusteuern. Erstens muss unsere Medienkompetenz dahingehend geschärft werden, dass wir nicht nur die Beiträge selbst auf ihren Wahrheitsgehalt überprüfen, sondern auch die Person dahinter auf ihre Echtheit – ggf. mit Hilfe technischer Mittel. Zweitens müssen weitere Maßnahmen der Social-Media-Plattformen selbst zur Identifikation von Bots, deren Einsatz regelmäßig gegen die Nutzungsbedingungen verstößt, entwickelt werden. Wie auch bisher schon steht die kritische Auseinandersetzung mit Aussagen im öffentlichen Meinungskampf im Vordergrund – gerade das macht eine Demokratie aus.
5 Kommentare. Hinterlasse eine Antwort
Lieber Jens,
vielen Dank für den spannenden Post! Zum sachlichen Schutzbereich muss ich dir widersprechen. Geschützt wird das Haben und Äußern einer Meinung und die Freiheit, eine Meinung für sich zu behalten. Das passiert beim Programmieren eines Bots gerade nicht, wie du selbst ausführst: Dort beschreibt der Programmierende die Meinung, die dann im öffentlichen Diskurs nicht dem Programmierer, sondern dem Bot zugeordnet wird. Dies steht dem Sinn und Zweck der Meinungsfreiheit entgegen, den öffentlichen Diskurs zu ermöglichen.
[…] MILKER explains the legal situation of „social bots“ as tools to influence electoral campaigns, and TOBIAS BRINGS-WIESEN replies (in […]
[…] „Bot-Armeen“ als Meinungsmacher im Wahlkampf von Jens Milker bei Junge Wissenschaft im Öffentlichen Recht e.V. […]
[…] automatisierter Meinungsäußerungen zutreffend bejahend Dankert/Dreyer, K&R 2017, 73, 75.; Milker, „Bot-Armeen“ als Meinungsmacher im Wahlkampf […]
[…] manipulativen Programmen auf sozialen Netzwerken grassierte (auf dem JuWissBlog dazu bereits etwa hier, hier und hiersowie auch andernorts), führen nunmehr kleine Italiener unter der Bezeichnung […]