Wie können wir in Zukunft im Netz noch debattieren, wenn viele Diskussionen von Reichsbürgern, Trollen, Hatern, ewig Unzufrieden, Whataboutism-Nutzern und anderen zerschossen werden? Gibt es Ideen, diese Leute wieder für ernsthafte inhaltliche Diskussionen zu gewinnen oder – wenn nicht – sie zumindest von bestimmten Diskussionen fernzuhalten?
Auf der Republica und der Media Convention in Berlin ist Anfang Mai viel darüber diskutiert worden. Dabei wurden auch Perspektiven aufgezeigt für eine bessere Debattenkultur im Netz. Denn ein Netz ganz ohne Debatten – das geht nicht, findet Carline Mohr, die bis April das Social-Media-Team bei bild.de geleitet hat und ab Juni bei Spiegel online arbeitet.
Drei Punkte, denen in Berlin viele Social-Media-Redakteure zugestimmt haben.
1. Klar Kante zeigen
Klar Kante zeigen heißt: Beleidigungen, Rassismus, Sexismus, Homophobie, Aufruf zu Gewalttaten und andere strafbare Inhalte konsequent ausblenden und gegebenenfalls auch juristisch verfolgen. Keine neue Idee, aber immer noch notwendig. Denn es gibt Nutzer, die sind auf anderem Wege nicht mehr für eine Debatte zurückzugewinnen, findet auch Carline Mohr.
Auch Jörg Heidrich, Justitiar beim Onlineportal Heise in Hannover, entdeckt in den Foren von heise.de immer wieder Einträge von Nutzern, die den Rahmen dessen überschreiten, was noch als erlaubte Meinung durchgehen kann. Diese Beiträge würden schnell gelöscht.
Volksverhetzung, Aufruf zu strafbaren Handlungen, Beleidigungen sollte man auch weiter nicht hinnehmen, sagt Heidrich.
2. Mit den Lesern sprechen
Viele Nutzer vertreten allerdings durchaus Meinungen, die zwar noch von der Meinungsfreiheit gedeckt sind, aber die Diskussion vergiften können. Ihre Beteiligung beschränkt sich darauf, auf ihrer Meinung zu beharren, ohne sie argumentativ zu stützen. Ich habe dazu hier schon mal geschrieben:
…oft vermisse ich schon die Bereitschaft, überhaupt nur über die Meinung zu diskutieren. (…) Meistens (…) fehlt den Nutzern die kognitive Fähigkeit, sich über ein Thema auseinanderzusetzen. Selten wird ein sachliches Argument genannt, oft mit modernen Whataboutisms abgelenkt, wird mit Gefühlen, Klischees und Vorurteilen argumentiert, die sich niemand durch Fakten widerlegen lassen möchte.
Heike Gallery, bei ZEIT online zuständig für Social Media, sagte auf der Media Convention in Berlin, man müsse sich mit den Lesern und Nutzern austauschen. ZEIT online versuche, einen öffentlichen Raum herzustellen mit der Community, in dem Austausch möglichst sei, sachlich und konstruktiv.
Im Eröffnungspanel hat Frank Richter, Direktor der Landeszentrale für politische Bildung in Sachsen, diese Gesprächsbereitschaft noch weiter gefasst. Zum Thema „Gesellschaft – it´s broken, let´s fix it!“ sagte er, vielen Menschen, die sich bei AfD und Pegida darüber beklagen würden, dass ihre Stimme nicht wichtig sei, würden sich wertgeschätzt fühlen, wenn sie endlich einmal öffentlich sagen könnten, was sie meinen, und dafür Zustimmung fänden (im Video ab Min. 8´24).
3. Die eigene Community stärken
Entsprechend versuchen seit einiger Zeit ZEIT online und sueddeutsche.de, ihre Community zu stärken.
Bei der Süddeutschen Zeitung können seit anderthalb Jahren nur noch ausgewählte Beiträge online kommentiert werden. Daniel Wüllner, Teamleiter Social Media und Leserdialog, findet das für eine gezielte und konstruktive Diskussion außerordentlich praktisch, denn gerade zu den am meisten diskutierten Themen eines Tages gebe es oft mehrere Beiträge – zum Beispiel ein aktuelles Stück, einen Hintergrund, Reaktionen und einen Kommentar. Würde man dort jeweils separat diskutieren, gäbe es gleich mehrere Diskussionsstränge zum selben Thema. Stattdessen bündelt sueddeutsche.de diese Beiträge zu einem einzigen Diskussionsstrang. Zieht sich ein Thema über mehrere Tage hin, könnten an jedem Tag verschiedene Aspekte diskutiert werden.
Heike Gallery von ZEIT online empfindet die Verengung der Themen, über die man bei sueddeutsche.de diskutieren kann, als nicht zeitgemäß. Es handle sich um das klassische Gatekeeper-Modell, weil Journalisten bestimmten, worum es gehen soll. Nutzer würden sich dann lieber andere Seiten suchen, um über die Themen zu diskutieren, die sie wichtig fänden, etwa bei Facebook. Gallery will die Leser aber lieber bei zeit.de halten, um die Hoheit über die Inhalte zu behalten und sich wie im Fall von Facebook nicht von einem US-Unternehmen abhängig zu machen.
Die ZEIT stärkt ihre Community, indem sie aus Kommentaren ihrer Nutzer kleine Boxen bastelt, die sie zum Beispiel per Twitter verbreitet.
Warum hatte Sina mit 24 noch keinen Freund? Unser Leser hat einen Verdacht: https://t.co/p3ZbRVnk3o (nd) pic.twitter.com/hPNqwzUV3d
— ZEIT ONLINE (@zeitonline) 17. Mai 2016
Vorteil dieser Communitys: Jeder Kommentar wird gelesen, bevor er veröffentlicht wird.
4. Sich helfen lassen
Bei Facebook geht das nicht: Die Kommentarfunktion kann nicht abgeschaltet werden, und jeder Post geht direkt online. Je nach Medium, je nach Thema, je nach Mobilisierung der Nutzer ist es für die Redaktionen unmöglich, alle Kommentare zu lesen. Da wäre eine technische Hilfe wünschenswert, die Redakteuren kritische Kommentare zur Begutachtung vorlegt.
Ein Forschungsprojekt an der Universität Münster will da weiterhelfen. Der Wirtschaftsinformatiker Sebastian Köffer entwickelt einen Algorithmus, der Kommentare mit Hatespeech und Propaganda herausfiltern soll. Das ist gar nicht so leicht, denn Sprache ist längst nicht eindeutig, so dass ein Algorithmus direkt versteht, wie brisant ein Kommentar ist.
Schwierig wird es vor allem dadurch, dass Mehrdeutigkeit, Wortschöpfungen, Sarkasmus und Verneinungen schwer zu erkennen seien, sagt Köffer.
In solchen Fällen können auch Metadaten helfen. Die zeigen zum Beispiel, ob Profile gerade erst angelegt und Texte hineinkopiert wurden – und das bei vielen Profilen kurz nacheinander, was auf den Einsatz bezahlter Kommentatoren hindeutet.
Bis das Instrumentarium einsetzbar ist, kann es aber noch einige Zeit dauern. Und Köffer sagt, dass es nicht unbedingt auf allen Plattformen einsetzbar ist. Facebook zum Beispiel hat massenhaft Daten und Metadaten, um sich selbst ein solches Instrumentarium zu schaffen und anzuwenden. Was da passiert, wisse man aber nicht, so Köffer.
5. Mit Journalismuskritik umgehen
Eine besondere Herausforderung bei der Umgang mit Kommentaren stellt sich dann, wenn sich die Kritik von Nutzern gegen die eigene Arbeit richtet, man also in eigener Sache argumentieren muss. Journalisten geraten dann leicht in Erklärungsnot, weil Nutzer oft Dinge bemängeln, die entweder
- nicht in der Verantwortung der Journalisten liegen (also wenn sie die Meinung maßgeblicher Protagonisten wiedergeben, die von Nutzern als unerwünscht angesehen werden – wenn also der Überbringer der Nachricht dafür geschlagen wird)
- oder immanenter Bestandteil journalistischer Arbeit sind (schnelle Erstberichterstattung zunächst ohne Einordnung und Reaktionen)
- oder vage Vorwürfe erheben (tendenzielle Berichterstattung zugunsten bestimmter Gruppen, ohne das zu belegen)
Es gibt freilich auch berechtigte Kritik. Die New York Times hat sich dafür vier Jahre lang eine Ombudsfrau geleistet. Margret Sullivan hat Fragen von Nutzern aufgegriffen, die Stichhaltigkeit der Anfragen und Vorwürfe geprüft und Redakteure weitergeleitet, die zur Antwort verpflichtet waren. Auch SZ-Redakteur Daniel Wüllner kann sich ein solches Amt vorstellen. Er sieht aber auch gewisse Probleme, dafür jemanden Vertrauenswürdigen zu finden, der sich sowohl bei Nutzern als auch bei den Journalistenkollegen unbeliebt macht.
An dieser Stelle gilt es noch weiter nachzudenken. Das wird unter anderem beim 2. Kölner Forum für Journalismuskritik am 10. Juni versucht.