Fake-News: Die Verantwortung der Nutzer

Manchmal kann es ganz schnell gehen.

Am Abend des 29. Dezembers meldete der Twitter-Account @BBCUKI den angeblichen Tod der englischen Königin Elizabeth II. Adresse und Aufmachung wirkten wie ein offizieller Account der BBC. Blendle-Kurator Tibor Martini wies schon kurz danach darauf hin, dass es sich um einen Fake-Account handle.

Dass der verlinkte Tweet inzwischen nicht mehr verfügbar ist, liegt an der relativ schnellen Reaktion von Twitter. Anthony Cheung hat den Tweet als Screenshot gesichert.

Dass dahinter keine Substanz steckt, lässt sich für jeden User relativ leicht herausfinden. Schaut man sich das Profil des Accounts an, sieht man, dass darüber nur gelegentlich Inhalte geteilt werden, die nach Nachrichten aussehen. Stattdessen wurden immer wieder auch fragwürdige Tweets anderer geteilt. Auf den Webseiten seriöser Medien gab es keinerlei Informationen über die Queen. Alles Hinweise auf Fake-News.

Neben mehreren anderen habe auch ich auf den Account hingewiesen und mehrmals darum gebeten, die Inhalte nicht zu teilen.

Es besteht eine gewisse Gefahr darin, so darauf aufmerksam zu machen, wo man den Account und seine Inhalte eigentlich ignorieren sollte. Ich wollte aber mal ausprobieren, ob Prävention wirkungsvoller ist als später, nachdem die Fake-News schon die Runde gemacht haben, die Scherben wieder aufzusammeln. Auch wenn das in diesem Fall wegen der Prominenz der Person und der leichten Widerlegbarkeit des Ereignisses relativ simpel sein dürfte.

Ich selbst habe den Account nicht zum Sperren gemeldet, jemand anderes hatte das aber offenbar getan; kurze Zeit später war der Account dicht. So verpufften die Fake-News relativ wirkungslos. Ein großer Trost ist das allerdings nicht. Schnell ist ein neuer Account geöffnet, schnell die nächsten Fake-News angelegt. Es wird ein immerwährender Kampf bleiben, der meines Erachtens vor allem durch die Nutzer selbst gewonnen werden kann.

Nur diese haben es in der Hand, eine solche Information auf ihren Wahrheitsgehalt hin zu prüfen. Wie wahrscheinlich sind die zugrundeliegenden Sachverhalte? Wer hat die Nachricht verbreitet? Welche Nachrichten hat er in der Vergangenheit verbreitet? Berichten andere über das Ereignis? Nur wenn die Nutzer selbst prüfen, was sie verbreiten, können sie die Ausbreitung von Fake-News stoppen.

Nachtrag 03. Januar: Der Journalist Dirk von Gehlen, Leiter „Social Media/Innovation“ bei der Süddeutschen Zeitung, hat sieben Regeln für mehr Social-Media-Gelassenheit aufgestellt, die auch den Nutzern selbst helfen sollen, nicht in Panik zu verfallen. Eine davon:

Ich bin mir bewusst, dass eine von mir verbreitete Information gerade bei Freunden als verlässlich wahrgenommen wird. Dieser Verantwortung meinen Freunden gegenüber versuche ich gerade in schwierigen Situationen gerecht zu werden – und poste deshalb nicht unüberlegt.

„Die Wortwahl wird immer radikaler“, sagt Volker Kauder, meint aber nicht sich

Der Vorsitzende der Unionsfraktion im Bundestag, Volker Kauder, beklagt sich im Interview mit dem „Spiegel“ über eine zunehmende Verrohung der Sprache. Er sagte unter anderem:

Wir erleben ein erschreckendes Maß von Anfeindungen gegen unsere Demokratie. Mal sind Politiker die Zielscheibe, mal die Medien, aber eben auch zunehmend unser Staat insgesamt. Die Wortwahl wird immer radikaler und schlägt auch in Gewalt um. Das bereitet mir große Sorgen.

Und weiter:

Wir sind noch längst nicht so weit wie in der Weimarer Republik. Aber auch damals haben sich Worte und Taten immer mehr hochgeschaukelt.

Dabei müsste Kauder bei sich selbst anfangen. Der Schriftsteller Roger Willemsen stellt ihm kein gutes Zeugnis aus. Er hat im Jahr 2013 an allen Sitzungen des Bundestags teilgenommen und den Parlamentsbetrieb beobachtet. In einem Interview im Deutschlandradio Kultur erzählte er:

Der schlimmste Flegel ist Volker Kauder, der Dinge reinruft, die nicht mal einen Ordnungsruf bekommen. Und das ist zum Teil schlimm. Der sagt dann: „Führen Sie doch die Blockwarte wieder ein.“ Also, das ist ein übler Assoziationsraum, der auch zum Teil der Ausputzer oder die Blutgrätsche für Merkel macht. Das heißt, der sagt dann auch, „ja, Friedensnobelpreis für Edward Snowden“ und macht sich über einen Mann lustig, den wir alle viel verdanken, weil diese Aufklärung wir niemals ohne ihn bekommen hätten und der sein Leben mehr oder weniger zu einem Teil der Zivilcourage geopfert hat.

Willemsen kritisierte damals nicht nur Kauder als schlimmsten Zwischenrufer des Bundestags, sondern auch die anderen Abgeordneten und vor allem das Präsidium, das nicht gegen solche Ausfälle vorgehe.

Es ist schlimm, dass der Bundestag an bestimmten Stellen, die Inhumanität bestimmter Standpunkte nicht rigider kenntlich macht. Ich finde nicht, dass jemand einen Parlamentarier als einen Blockwart-Rufenden bezeichnen darf, nur weil der sagt, „ich will eine Kontrolle des Abhörens“, und der dann höhnisch reinruft: „Sie sind doch nur böse, weil Gysis Handy nicht abgehört worden ist“ oder so etwas. Also, das ist einfach eine Verachtung gegenüber unseren Bürgerrechten und ich finde das nicht tolerierbar.

„Wo kann man noch diskutieren? Wo ist man noch bereit zur Debatte?“

Wie können wir in Zukunft im Netz noch debattieren, wenn viele Diskussionen von Reichsbürgern, Trollen, Hatern, ewig Unzufrieden, Whataboutism-Nutzern und anderen zerschossen werden? Gibt es Ideen, diese Leute wieder für ernsthafte inhaltliche Diskussionen zu gewinnen oder – wenn nicht – sie zumindest von bestimmten Diskussionen fernzuhalten?

Auf der Republica und der Media Convention in Berlin ist Anfang Mai viel darüber diskutiert worden. Dabei wurden auch Perspektiven aufgezeigt für eine bessere Debattenkultur im Netz. Denn ein Netz ganz ohne Debatten – das geht nicht, findet Carline Mohr, die bis April das Social-Media-Team bei bild.de geleitet hat und ab Juni bei Spiegel online arbeitet.

Drei Punkte, denen in Berlin viele Social-Media-Redakteure zugestimmt haben.

1. Klar Kante zeigen

Klar Kante zeigen heißt: Beleidigungen, Rassismus, Sexismus, Homophobie, Aufruf zu Gewalttaten und andere strafbare Inhalte konsequent ausblenden und gegebenenfalls auch juristisch verfolgen. Keine neue Idee, aber immer noch notwendig. Denn es gibt Nutzer, die sind auf anderem Wege nicht mehr für eine Debatte zurückzugewinnen, findet auch Carline Mohr.

Auch Jörg Heidrich, Justitiar beim Onlineportal Heise in Hannover, entdeckt in den Foren von heise.de immer wieder Einträge von Nutzern, die den Rahmen dessen überschreiten, was noch als erlaubte Meinung durchgehen kann. Diese Beiträge würden schnell gelöscht.

Volksverhetzung, Aufruf zu strafbaren Handlungen, Beleidigungen sollte man auch weiter nicht hinnehmen, sagt Heidrich.

2. Mit den Lesern sprechen

Viele Nutzer vertreten allerdings durchaus Meinungen, die zwar noch von der Meinungsfreiheit gedeckt sind, aber die Diskussion vergiften können. Ihre Beteiligung beschränkt sich darauf, auf ihrer Meinung zu beharren, ohne sie argumentativ zu stützen. Ich habe dazu hier schon mal geschrieben:

…oft vermisse ich schon die Bereitschaft, überhaupt nur über die Meinung zu diskutieren. (…) Meistens (…) fehlt den Nutzern die kognitive Fähigkeit, sich über ein Thema auseinanderzusetzen. Selten wird ein sachliches Argument genannt, oft mit modernen Whataboutisms abgelenkt, wird mit Gefühlen, Klischees und Vorurteilen argumentiert, die sich niemand durch Fakten widerlegen lassen möchte.

Heike Gallery, bei ZEIT online zuständig für Social Media, sagte auf der Media Convention in Berlin, man müsse sich mit den Lesern und Nutzern austauschen. ZEIT online versuche, einen öffentlichen Raum herzustellen mit der Community, in dem Austausch möglichst sei, sachlich und konstruktiv.

Im Eröffnungspanel hat Frank Richter, Direktor der Landeszentrale für politische Bildung in Sachsen, diese Gesprächsbereitschaft noch weiter gefasst. Zum Thema „Gesellschaft – it´s broken, let´s fix it!“ sagte er, vielen Menschen, die sich bei AfD und Pegida darüber beklagen würden, dass ihre Stimme nicht wichtig sei, würden sich wertgeschätzt fühlen, wenn sie endlich einmal öffentlich sagen könnten, was sie meinen, und dafür Zustimmung fänden (im Video ab Min. 8´24).

3. Die eigene Community stärken

Entsprechend versuchen seit einiger Zeit ZEIT online und sueddeutsche.de, ihre Community zu stärken.

Bei der Süddeutschen Zeitung können seit anderthalb Jahren nur noch ausgewählte Beiträge online kommentiert werden. Daniel Wüllner, Teamleiter Social Media und Leserdialog, findet das für eine gezielte und konstruktive Diskussion außerordentlich praktisch, denn gerade zu den am meisten diskutierten Themen eines Tages gebe es oft mehrere Beiträge – zum Beispiel ein aktuelles Stück, einen Hintergrund, Reaktionen und einen Kommentar. Würde man dort jeweils separat diskutieren, gäbe es gleich mehrere Diskussionsstränge zum selben Thema. Stattdessen bündelt sueddeutsche.de diese Beiträge zu einem einzigen Diskussionsstrang. Zieht sich ein Thema über mehrere Tage hin, könnten an jedem Tag verschiedene Aspekte diskutiert werden.

Heike Gallery von ZEIT online empfindet die Verengung der Themen, über die man bei sueddeutsche.de diskutieren kann, als nicht zeitgemäß. Es handle sich um das klassische Gatekeeper-Modell, weil Journalisten bestimmten, worum es gehen soll. Nutzer würden sich dann lieber andere Seiten suchen, um über die Themen zu diskutieren, die sie wichtig fänden, etwa bei Facebook. Gallery will die Leser aber lieber bei zeit.de halten, um die Hoheit über die Inhalte zu behalten und sich wie im Fall von Facebook nicht von einem US-Unternehmen abhängig zu machen.

Die ZEIT stärkt ihre Community, indem sie aus Kommentaren ihrer Nutzer kleine Boxen bastelt, die sie zum Beispiel per Twitter verbreitet.

Vorteil dieser Communitys: Jeder Kommentar wird gelesen, bevor er veröffentlicht wird.

4. Sich helfen lassen

Bei Facebook geht das nicht: Die Kommentarfunktion kann nicht abgeschaltet werden, und jeder Post geht direkt online. Je nach Medium, je nach Thema, je nach Mobilisierung der Nutzer ist es für die Redaktionen unmöglich, alle Kommentare zu lesen. Da wäre eine technische Hilfe wünschenswert, die Redakteuren kritische Kommentare zur Begutachtung vorlegt.

Ein Forschungsprojekt an der Universität Münster will da weiterhelfen. Der Wirtschaftsinformatiker Sebastian Köffer entwickelt einen Algorithmus, der Kommentare mit Hatespeech und Propaganda herausfiltern soll. Das ist gar nicht so leicht, denn Sprache ist längst nicht eindeutig, so dass ein Algorithmus direkt versteht, wie brisant ein Kommentar ist.

Schwierig wird es vor allem dadurch, dass Mehrdeutigkeit, Wortschöpfungen, Sarkasmus und Verneinungen schwer zu erkennen seien, sagt Köffer.

In solchen Fällen können auch Metadaten helfen. Die zeigen zum Beispiel, ob Profile gerade erst angelegt und Texte hineinkopiert wurden – und das bei vielen Profilen kurz nacheinander, was auf den Einsatz bezahlter Kommentatoren hindeutet.

Bis das Instrumentarium einsetzbar ist, kann es aber noch einige Zeit dauern. Und Köffer sagt, dass es nicht unbedingt auf allen Plattformen einsetzbar ist. Facebook zum Beispiel hat massenhaft Daten und Metadaten, um sich selbst ein solches Instrumentarium zu schaffen und anzuwenden. Was da passiert, wisse man aber nicht, so Köffer.

5. Mit Journalismuskritik umgehen

Eine besondere Herausforderung bei der Umgang mit Kommentaren stellt sich dann, wenn sich die Kritik von Nutzern gegen die eigene Arbeit richtet, man also in eigener Sache argumentieren muss. Journalisten geraten dann leicht in Erklärungsnot, weil Nutzer oft Dinge bemängeln, die entweder

  • nicht in der Verantwortung der Journalisten liegen (also wenn sie die Meinung maßgeblicher Protagonisten wiedergeben, die von Nutzern als unerwünscht angesehen werden – wenn also der Überbringer der Nachricht dafür geschlagen wird)
  • oder immanenter Bestandteil journalistischer Arbeit sind (schnelle Erstberichterstattung zunächst ohne Einordnung und Reaktionen)
  • oder vage Vorwürfe erheben (tendenzielle Berichterstattung zugunsten bestimmter Gruppen, ohne das zu belegen)

Es gibt freilich auch berechtigte Kritik. Die New York Times hat sich dafür vier Jahre lang eine Ombudsfrau geleistet. Margret Sullivan hat Fragen von Nutzern aufgegriffen, die Stichhaltigkeit der Anfragen und Vorwürfe geprüft und Redakteure weitergeleitet, die zur Antwort verpflichtet waren. Auch SZ-Redakteur Daniel Wüllner kann sich ein solches Amt vorstellen. Er sieht aber auch gewisse Probleme, dafür jemanden Vertrauenswürdigen zu finden, der sich sowohl bei Nutzern als auch bei den Journalistenkollegen unbeliebt macht.

An dieser Stelle gilt es noch weiter nachzudenken. Das wird unter anderem beim 2. Kölner Forum für Journalismuskritik am 10. Juni versucht.

„Es ist wichtig, mit den Lesern zu sprechen“

Ein Schwerpunkt der diesjährigen Republica und der Media Convention in Berlin war der Umgang mit Hass im Netz. Das wird seit dem vorigen Jahr breit diskutiert, nachdem die Anzahl der Hasskommentare vor allem gegen die vielen ankommenden Flüchtlinge enorm zugenommen hatte. In Berlin wurden Perspektiven aufgezeigt für eine bessere Debattenkultur im Netz. Welche das sind, darüber habe ich für das Medienmagazin des Deutschlandfunks, „Markt und Medien“, berichtet.

Mit Stimmen von

  • Carline Mohr, bis April Social-Media-Leiterin bei bild.de
  • Jörg Heidrich, Justiziar beim Onlineportal heise.de
  • Daniel Wüllner, Teamleiter Social Media und Leserdialog bei sueddeutsche.de
  • Sebastian Köffer, Wirtschaftsinformatiker von der Universität Münster