Delete and block offensive content
Mika Baumeister via Unsplash (Brochure by Landesanstalt für Medien NRW)

Langer Atem statt kurzer Prozess: Online-Meinungsfreiheit in Deutschland

Ein Beitrag von Torben Klausa

Plötzlich ging es ganz schnell: Keine Woche brauchten Facebook, Twitter und YouTube Anfang Januar, um dem damaligen US-Präsidenten den Stecker zu ziehen. Nach jahrelangem Zögern sperrten die Tech-Riesen Donald Trump und seine Hass-Inhalte damit im Handstreich von ihren Plattformen aus – und warfen damit ein Schlaglicht auf die Machtfrage im Netz: Hängt unser Online-Diskurs allein vom Fingerzeig einzelner Unternehmenschef:innen ab? Die deutsche Politik weiß längst, dass sie den Kampf gegen Hass im Netz nur mithilfe der Plattformen gewinnen kann, und versucht seit Jahren, sie an die kurze Leine zu nehmen. Dass das so lange dauert, ist ein gutes Zeichen.

Bereits auf drei Ebenen schrauben unsere Gesetzgeber:innen an neuen Regeln für digitale Plattformen. Die Länder haben im November 2020 den Medienstaatsvertrag (MStV) verabschiedet, der neue Regeln für Facebook & Co beinhaltet und den öffentlichen Diskurs im Netz schützen soll. Auf Bundesebene ist seit 2017 das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft, um deutschem Recht auch auf US-Plattformen zur Durchsetzung zu verhelfen. Und schließlich hat die EU-Kommission im Dezember 2020 ihren Entwurf eines Digital Services Act (DSA) vorgelegt, der viele Konzepte aus NetzDG und MStV enthält und auch darüber hinaus einen europäischen Regulierungsrahmen schaffen soll.

Wer jedoch knallharte neue Regeln für soziale Netzwerke erwartet hat, wird vom bisherigen Regulierungsansatz enttäuscht. Denn MStV, NetzDG und DSA machen vor allem eines deutlich: Die Politik weiß, dass sie die Netzwirtschaft (noch) nicht gut genug versteht. Sie setzt deshalb auf Altbewährtes – und auf die eigene Lernkurve.

Bestes Beispiel hierfür ist das NetzDG: Statt neue Regeln aufzustellen, soll es zunächst dafür sorgen, dass sich soziale Netzwerke an bestehendes Recht halten. So müssen die Plattformen illegale Inhalte auf Hinweis ihrer Nutzer:innen entfernen, vom Hakenkreuz bis zur Beleidigung. Das ist an sich nichts Neues, jedoch haperte es vor dem NetzDG gehörig an der Umsetzung.

Außerdem soll das NetzDG Licht ins Dunkel der Inhalte-Moderation bringen. „Transparenz“ heißt das Regulierungsschlagwort der Stunde. So fordert das Gesetz zweimal jährlich einen ausführlichen Bericht der sozialen Netzwerke: Wie viele Beschwerden sind bei ihnen worüber eingegangen und wie lange dauerte es, um zu welchem Ergebnis zu gelangen? Die ersten dieser Transparenzberichte warfen weitere Fragen auf. Der Gesetzgeber steuerte prompt nach: Bald müssen die Plattformen zusätzliche Details veröffentlichen, etwa: Werden automatische Verfahren zur Erkennung der Inhalte eingesetzt? Bekommen Forscher:innen Zugang zu den Daten?

Dieses Herantasten an schärfere Regeln mag zu langsam wirken. Doch gerade dort, wo die Meinungsfreiheit berührt ist, arbeitet der Staat besser mit dem Skalpell als mit der Keule. Auch deshalb sind in erster Linie die Plattformen in der Bringschuld, mit passenden „Hausordnungen“, die digitale Kommunikation vor Hass zu schützen. Regulierer und Gerichte können dort nachfassen, wo es noch hapert, ohne pauschale Sprechverbote zu verhängen. Ein Beispiel: Die Lösch-Praxis sozialer Netzwerke erscheint bisweilen willkürlich und schlecht nachvollziehbar. Nach der neuesten NetzDG-Änderung sollen Nutzer:innen deshalb gegen die Entscheidungen von Facebook & Co Einspruch einlegen und eine ausführliche Begründung verlangen können.

Ein ähnlicher Ansatz findet sich im neuen Medienstaatsvertrag der Länder, der sich mit dem Einfluss der Plattformen auf den Online-Diskurs insgesamt beschäftigt. Auch der MStV zwingt Facebook & Co keine neuen Inhalte-Regeln auf, sondern verpflichtet sie schlicht dazu, ihre bestehenden Kriterien verständlich offenzulegen und sich daran zu halten. Und der Entwurf des Digital Services Act der EU-Kommission widmet sich in gleich fünf Artikeln ebenfalls neuen Transparenzvorschriften für große Digitalkonzerne. Zusätzlich fordert der DSA von ihnen eine regelmäßige Risikoeinschätzung – Welche Gefahr stellt Plattform X für die europäische Demokratie dar? – und einen Datenzugang für Forscher:innen, um dieser Einschätzung auf den Zahn zu fühlen.

Bei alldem sollte man nicht vergessen: Transparenz ist kein Selbstzweck und auch kein Allheilmittel, wie Bernhard Rieder und Jeanette Hofmann mahnen. Denn zum einen bedeutet der Einblick in Plattform-Abläufe nicht automatisch, sie zu verstehen; zum anderen beruht die Wirkung digitaler Plattformen ja nicht nur auf ihren Algorithmen – sondern auch auf dem Umfeld, in dem sie zu Anwendung kommen. In anderen Worten: Für den Sturm aufs Kapitol braucht es nicht nur Facebook, sondern auch Donald Trump und seine Anhänger:innen.

Wie geht man also mit einem US-Präsidenten um, der am Rande der Legalität online zur Gewalt anstachelt? Diese Frage nimmt keines der erwähnten Gesetze den Plattformen ab, und das ist gut so. Denn der Staat hat sich zurückzuhalten, solange die Grenzen des Rechts nicht überschritten sind. Das heißt übrigens nicht, dass eben diese Grenzen nicht reformbedürftig wären, besonders mit Blick auf die Risiken digitaler Plattformen für unseren demokratischen Diskurs. Doch genau diese Risiken gilt es zu verstehen, bevor wir der Meinungsfreiheit neue Grenzen setzen. Denn der Kampf gegen Hass und Hetze im Netz erfordert Umsicht und langen Atem – und keinen kurzen Prozess.

27.1.2021