Direkt zum Inhalt
Forschung

Moderationspraxis in deutschen Redaktionen: Zwischenergebnisse eines Forschungsprojekts der FU Berlin

Das Ziel des dreijährigen Verbundprojekts NOHATE ist es, Hasskommunikation in Sozialen Medien, Online-Foren und Kommentarbereichen auf seine (Früh-)Erkennbarkeit, Ursachen und Dynamiken sowie auf potentielle Deeskalationsmöglichkeiten zu untersuchen und praktisch anwendbare, softwaregestützte Handlungsoptionen zu entwickeln. Eine mehrdimensionale Fallstudie für das Themenfeld "Flüchtlinge, Migration, Ausländer" soll dafür Datenmaterial und ein experimentelles Handlungsfeld bereitstellen.

Partner des Verbundprojekts sind neben der Freien Universität Berlin, die Beuth Hochschule für Technik Berlin und die VICO Research & Consulting GmbH. Gefördert wird das Projekt vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme "Zusammenhalt stärken in Zeiten von Krisen und Umbrüchen".
Weitergehende Informationen zu dem Forschungsprojekt findet ihr hier.

Mit 20 deutschsprachigen Nachrichtenseiten wurden im Januar und Februar 2018 jeweils 50-minütige Leitfadeninterviews durchgeführt, telefonisch oder persönlich. Vor allem mit Redaktionen, die eine sehr große Reichweite haben, aber auch mit lokalen Medien. Wichtig für die Auswahl war eine Variation der Online-Angebote. Da wir uns für den Transfer aus der Wissenschaft in die Praxis einsetzen, berichten wir hier über ausgewählte Zwischenergebnisse, die am 23.11.2018 präsentiert wurden. 

Die Moderation von Kommentaren ist in Redaktionen unterschiedlich geregelt 
Die Anzahl von Kommentaren auf Nachrichtenseiten ist in den letzten Jahren enorm gestiegen und die Kommentare sind insgesamt rauer im Ton geworden. Die Redaktionsstruktur in den Medienhäusern und die Tätigkeitsbereiche derjenigen, die Kommentare moderieren, variieren stark. Bei manchen gibt es Überschneidungen mit den Mitarbeiter*innen, die für Social Media zuständig sind, manche haben die Moderation von Kommentaren sogar an externe Anbieter ausgelagert. 

Insgesamt bemängeln viele Interviewte eine fehlende Unterstützung der Redaktionen bei ihrer nervenaufreibenden Arbeit. Auch ein fehlender Austausch mit den Autor*innen der Artikel wurde beklagt. Die Jobbezeichnungen derjenigen, die Hate Speech (und andere) Kommentare moderieren, ist sehr uneinheitlich, genauso wie ihre Ausbildung. Nicht immer sind schriftlich fixierte Regelwerke zur Arbeit vorhanden, da eine Standarisierung der Entscheidungen auch schwierig ist. Deshalb ist ein hohes Maß an Selbständigkeit gefordert.

Das Rollenselbstbild war bei vielen Befragten ähnlich: Sie wollen ansprechbar sein, fair und freundlich, schnell und flexibel reagieren. Sie möchten die Kommentierenden ernst nehmen und durch ihre Moderation zu einer positiven und konstruktiven Debatte beitragen. 

Auf gut moderierten Seiten gibt es vor allem indirekte Formen von Hate Speech 
Doch welche Kommentare gelten als Hate Speech? Auf gut moderierten Medienseiten tauchen eindeutige Fälle von Hate Speech, z.B. explizit rassistische, sexistische und antisemitische Kommentare, selten auf. Der Regelfall sind implizite Ausdrucksformen von Hass. Häufig können Kommentare nur im Kontext als Hate Speech klassifiziert werden, sowie durch eine Intention, die im Laufe von einem oder mehreren Kommentaren erkennbar wird.

Die Unschärfe schafft einen gewissen Interpretationsspielraum. Tarnstrategien und Formen kodierter Sprache müssen ge- und erkannt werden. Beispiele sind die Formulierung  „Goldstücke“ statt “Geflüchtete” oder die Verballhornung von Wörtern und Namen (“Angela Ferkel”) oder die bewusst falsche Nutzung von emojis, z.B. Jubel-Symbole unter einer Meldung über den Tod von geflüchteten Menschen. 

Haupttrigger für Hate Speech ist das Thema des Artikels
Welche Artikel erhalten mehr destruktive und menschenverachtende Kommentare und warum? Die Interviews bestätigen die These, dass vor allem das Thema des Artikels verletzende und diskriminierende Kommentare anzieht. Themen wie Migration, Integration, Frauenrechte, Feminismus, Islam, Religion, Kriminalität provozieren wesentlich mehr Hate Speech als andere Themen. Aber auch Kinderbetreuung, Fußball, Impfen und zum Beispiel Rente sind hier zu nennen. Die emotional aufgeladenen Themen werden von Hater*innen gezielt bespielt, weil sie eine breite Masse erreichen und emotional ansprechen. Sie ziehen eine Unmenge an Kommentaren nach sich. 

Ein weiterer Auslöser für Hate Speech ist die Art und Weise der journalistischen Darstellung, z.B. eine sehr emotionalisierende Berichterstattung. Weitere Trigger sind bestimmte zitierte Namen, z.B. Frau Merkel. Und auch bestimmte Charakteristika der Autor*innen der Artikel wurden genannt: besonders junge Frauen, junge Politikerinnen und Menschen mit mutmaßlich nicht-deutschen Namen, die die Artikel geschrieben haben oder darin vorkommen, provozieren übermäßig viel Kommentare, die als Hate Speech klassifiziert werden können. 

Drei unterschiedliche Moderations-Strategien von Hass-Kommentaren 
Grundsätzlich gilt und dies wird durch dieses Projekt und andere Studien bewiesen: Je besser die Moderation, umso weniger Hate Speech. Aber was macht eine gute Moderation aus? Hate Speech ist dynamisch und setzt eine Abwärtsspirale in Gang: Ein Hasskommentar provoziert einen weiteren, noch schlimmeren Ein Hasskommentar kann aber auch einen gegenteiligen Effekt bewirken, wenn er Leser*innen dazu bewegt, Gegenrede zu üben oder Moderator*innen klug antworten. 

Die Forschenden haben aus den Antworten der Befragten drei unterschiedliche Strategien bei der Moderation von menschenfeindlichen Kommentaren herausgearbeitet: 

1) “Konflikte vermeiden”: Beschränkter Zugang zur Diskussion oder beschränkte Themenauswahl

2) “Die Masse beherrschen”: eine offene Diskussion mit “unsichtbarer” Moderation im Hintergrund. Es werden teilweise Tools wie Wortfilter eingesetzt. Bei “sensiblen” Themen wird auf einen passenden Zeitpunkt geachtet, z.B. Freitag abend keine Geschichte mehr über Geflüchtete zusätzlich auf Facebook zu teilen. Empfohlen wird eine möglichst frühe Intervention, auch das Löschen von besonders krassen Kommentaren, um eine weitere Eskalation zu vermeiden oder das Schließen von Kommentarspalten. 

3) “Erwünschtes unterstützen”: Besonders konstruktive Kommentare werden wertgeschätzt (“editor´s pick”) oder spezielle Formate der direkten Begegnung ermöglicht, z.B. Diskussion per Stream. 

Positive Beispiele der Gegenrede hervorzuheben dient nicht nur der Moderation und der Debattenkultur, sondern hat noch den netten Nebeneffekt, dass es die Moderator*innen motiviert. 

Hanna Gleiß / Das NETTZ / Projektleitung mit Schwerpunkt Networking und Management
Autor*in

Hanna Gleiß

Das NETTZ: Projektleitung mit Schwerpunkt Networking und Management
zum Newsletter
Newsletter-icon

Du willst zum Thema "Hass im Netz"
auf dem Laufenden bleiben?

Dann abonniere unseren
DAS NETTZ-Newsletter.