„Hate Speech“ im Internet

Die aktuelle Debatte um die Flüchtlingskrise stellt unsere Gesellschaft nicht nur vor politische und ökonomische Herausforderungen, sondern wirft auch Fragen nach der Reichweite der Meinungsfreiheit auf. In diesem Kontext hat der Begriff “Hate-Speech” eine besondere Bedeutung erlangt: Wie weit reicht der Schutz der Meinungsfreiheit bei Hassbotschaften im Internet und wie sollen der Staat und wir, die Nutzer von Online-Plattformen, damit umgehen? Die Antworten auf diese Fragen sind alles andere als eindeutig. Fest steht: Die schädlichen Auswirkungen des digitalen Hate-Speech-Phänomens haben längst die analoge Welt erreicht.

Hate-Speech ist….

ein Phänomen, dessen rechtliche Grenzen zwischen den Staaten unterschiedlich bewertet werden. Eine allgemein anerkannte Begriffsdefinition von Hate-Speech existiert nicht. Das deutsche Recht kennt den Begriff der „Hassrede“ bereits nicht als eigenständigen Rechtsbegriff. Aus historischen Gründen enthält das deutsche Recht jedoch vergleichsweise restriktive Regelungen im Bereich der politischen Meinungsbildung. Äußerungsdelikte wie das Aufstacheln zum Hass werden insbesondere über den Straftatbestand der Volksverhetzung gemäß § 130 StGB erfasst. In Frankreich, Österreich und der Schweiz gelten ähnliche Regelungen. Großbritannien stellt im europäischen Vergleich höhere Anforderungen an die Strafbarkeit von Hate-Speech und entspricht damit einem –stärker dem US-Recht ähnelnden– rigorosen Verständnis der Meinungsfreiheit.

Nach der Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte (EGMR) findet die Meinungsfreiheit mitunter in den Bestimmungen des Art. 17 der Europäischen Menschenrechtskonvention (EMRK) ihre Grenzen. Danach ist eine Handlung zu verbieten, „die darauf abzielt, die in der Konvention festgelegten Rechte und Freiheiten abzuschaffen oder sie stärker einzuschränken, als es in der Konvention vorgesehen ist“. Der EGMR hat dies beispielsweise bei Äußerungen bejaht, die den Holocaust leugnen. Das Ministerkomitee des Europarats definiert den Begriff Hate-Speech „als jegliche Ausdrucksformen, welche Rassenhass, Fremdenfeindlichkeit, Antisemitismus oder andere Formen von Hass, die auf Intoleranz gründen, propagieren, dazu anstiften, sie fördern oder rechtfertigen, einschliesslich der Intoleranz, die sich in Form eines aggressiven Nationalismus und Ethnozentrismus, einer Diskriminierung und Feindseligkeit gegenüber Minderheiten, Einwanderern und der Einwanderung entstammenden Personen ausdrückt“.

Reaktion von Facebook auf Hate-Speech

Mitunter ausgelöst durch die anhaltenden Flüchtlingsströme hat das Phänomen des Hate-Speech insbesondere auf sozialen Plattformen wie Facebook eine traurige neue Dimension erreicht. Zahlreiche Kommentare verbreiten Hassbotschaften und rufen zum Teil auch zu Gewalt auf. Mittlerweile hat sich die Staatsanwaltschaft Hamburg eingeschaltet. Nachdem bereits im September 2015 Strafanzeige gegen drei Facebook-Manager gestellt worden war, leitete die Staatsanwaltschaft kurz darauf auch Ermittlungen gegen Martin Ott, leitenden Manager und Nordeuropa-Direktor bei Facebook, wegen des Verdachts auf Beihilfe zur Volksverhetzung ein. Anlass dafür waren 61 Meldungen fremdenfeindlicher Einträge, von denen Facebook nur 27 löschte. Erst im Oktober setzte sich außerdem Justizminister Heiko Maas mit Facebook-Vertretern an einen Tisch und kündigte weitere Maßnahmen gegen Hate-Speech an. Dazu zählen eine Partnerschaft mit der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) und anderen NGOs, finanzielle Unterstützung seitens Facebook für die bestehenden Internet-Beschwerdestellen und Kampagnen gegen Hassbotschaften. Derzeit verlässt sich Facebook vor allem auf die Initiative seiner Nutzer: Herabwürdigende Kommentare sollen unverzüglich bei den Administratoren gemeldet werden. Trotzdem lehnt das soziale Netzwerk das Löschen gemeldeter Einträge immer wieder mit Verweis auf seine Gemeinschaftsrichtlinien ab. Eine zweifelsfreie Einordnung von Kommentaren nach den Vorgaben dieser Richtlinien erweist sich in der Praxis oft als schwierig und führt teilweise zu unbefriedigenden Ergebnissen.

Facebook und seine Standards

Facebook und andere Betreiber von Internetseiten, die es Nutzern erlauben, eigene Inhalte öffentlich zu machen, verfügen über ein sogenanntes „virtuelles Hausrecht“. Danach können sie durch verbindliche Nutzungsbedingungen festlegen, unter welchen Voraussetzungen eine Nutzung der Seite erlaubt ist.

Die Nutzungsbedingungen von Facebook verbieten gemäß § 3 Nr. 7 FB-AGB das Posten von Einträgen, “die Hassreden enthalten, bedrohlich oder pornografisch sind, zu Gewalt verleiten oder Nacktdarstellungen bzw. grafische sowie sonstige Gewalt enthalten.” Dennoch zirkulieren Gewaltaufrufe insbesondere gegen Flüchtlinge teils ungestört und sammeln Likes und Shares. Die rechtliche Verantwortlichkeit für die geposteten Inhalte liegt grundsätzlich bei den Plattformnutzern. Da die Nutzer aber oft unter Pseudonym schreiben und daher mitunter schwer zu identifizieren sind, stellt sich die Frage nach einer Haftung des Plattformbetreibers selbst. §10 TMG regelt die strafrechtliche Verantwortlichkeit und die Schadensersatzhaftung für fremde Inhalte speziell für Hostprovider, die die Informationen für Nutzer dauerhaft speichern. Ausgehend von der Vorstellung einer eingeschränkten Kontrollmöglichkeit und einer bloßen Vermittlerrolle wird dabei eine Haftungsprivilegierung für Diensteanbieter wie Facebook statuiert. Diese haften allein bei “Kenntnis von der rechtwidrigen Handlung oder Information”: Facebook muss die von den Nutzern verfassten Einträge nicht selbst auf mögliche Rechtsverletzungen hin kontrollieren. Wird Facebook die Veröffentlichung einer potenziellen Rechtsverletzung bekannt, etwa durch Meldung von Nutzern, muss es jedoch “unverzüglich tätig werden, um die Information zu entfernen oder den Zugang zu ihr zu sperren” (§ 10 S. 1 Nr. 2 TMG).

Meinungsfreiheit vs. Löschungsanspruch

In der Debatte um die Löschung von Hate-Speech-Einträgen auf digitalen Plattformen wird oftmals die Meinungsfreiheit als Argument ins Feld geführt. Zu beachten ist dabei aber: Die Meinungsfreiheit besteht nicht unbegrenzt. Das Grundgesetz schränkt ihre Reichweite etwa zum Schutz der persönlichen Ehre ein. Außerdem entfaltet die Meinungsfreiheit – wie alle andere Grundrechte auch – im Verhältnis zwischen Privaten, etwa Facebook und seinen Nutzern, nur mittelbare Wirkung. Unmittelbare Ansprüche gegen Facebook lassen sich aus der Meinungsfreiheit nicht ableiten.

Bedeutung gewinnt die Meinungsfreiheit aber bei der Auslegung der Richtlinien von Facebook. Zum besseren Verständnis der derzeitigen Praxis von Facebook muss man sich bewusst machen, dass die Meinungsfreiheit in den USA wesentlich umfassender geschützt wird als im deutschen Recht. Dieses liberale Verständnis der Meinungsfreiheit legt Facebook als US-amerikanisches Unternehmen bei der Auslegung seiner Nutzungsbedingungen und der Ausübung seines virtuellen Hausrechts zugrunde.

Es stellt sich daher die Frage, ob Facebook seine Nutzungsbedingungen zumindest für deutsche Nutzer neu formulieren muss. Als global agierendes Unternehmen benötigt Facebook allgemeingültige Regelungen zum Schutz seiner Nutzer; länderspezifische Regelungen sind daher schwer praktikabel. Nach jüngsten Ankündigungen will Facebook jedoch in Zukunft die Gemeinschaftsrichtlinien strenger interpretieren. Der öffentliche Druck in Deutschland hat also Wirkung gezeigt. Ob diese Ankündigung tatsächlich zu Veränderungen führt, wird die Zukunft beweisen. In jedem Fall tragen wir alle eine gesellschaftliche Verantwortung, uns gegen Hate-Speech zur Wehr zu setzen. Auch als einzelne Nutzer können wir dazu beitragen, indem wir rassistische oder rechtsextreme Äußerungen im Netz melden – und Facebook so weiterhin unter Druck setzen. (D.Sh.)

IT-Gipfel 2015: Kann Deutschland „Gigabit-Gesellschaft“ und IT-Sicherheitsweltmeister gleichzeitig werden?
Der Rächer der Kopierten? – EuGH fällt Reprobel-Urteil

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *