Lügen, so sagt der Volksmund, hätten kurze Beine – womit gemeint war, dass die Wahrheit sie immer einholen kann (und das sogar, so möchte man hoffen, sehr schnell). Doch in den Sozialen Medien, wo sich inzwischen zwei von drei erwachsenen Amerikanern regelmäßig ihre Nachrichten holen, laufen Falschmeldungen nicht nur weiter, sondern auch viel schneller, wie eine Analyse von Politologen und Medienwissenschaftlern des Massachusetts Institute of Technology in der aktuellen Ausgabe von Science nachweisen kann: The spread of true and false news online. Die drei Forscher – Sinan Aral, Deb Roy und Soroush Vosoughi – fanden bei ihrer Analyse von 126.000 Twitter-Kaskaden (= Postings, die “retweetet” wurden) aus der Zeit von 2013 bis 2017, dass Falschmeldungen (dazu gleich noch ein paar Worte*) eine um 70 Prozent höhere Chance hatten, sie als Retweet weitergereicht zu wurden als wahre Meldungen, und dass sie – vor allem, wenn sie sich um politische Themen handelten (was übrigens die Mehrzahl der Retweets war) – in einem Drittel der Zeit, die andere Meldungen brauchten, um auf 10.000 LeserInnen zu kommen, schon die 20.000-er-Grenze überschritten hatten:
F3.large

Fig. 3 Complementary cumulative distribution functions (CCDFs) of false political and other types of rumor cascades.

(A) Depth. (B) Size. (C) Maximum breadth. (D) Structural virality. (E and F) The number of minutes it takes for false political and other false news cascades to reach any (E) depth and (F) number of unique Twitter users. (G) The number of unique Twitter users reached at every depth and (H) the mean breadth of these false rumor cascades at every depth. In (H), plot is lognormal. Standard errors were clustered at the rumor level.

Der Artikel ist, soweit ich das von hier aus beurteilen kann, frei einsehbar (wenn nicht oder nicht mehr, hilft vielleicht diese Pressemitteilung des MIT); die Zahlen sind, soweit ich das beurteilen kann, ziemlich solide. Und ja, was die Identifizierung von Falschmeldungen angeht, noch zwei Bemerkungen: Erstens wurden die Nachrichten-Tweet-Stränge durch Abgleich von insgesamt sechs Faktenprüfseiten auf ihre Zuverlässigkeit geprüft (Factcheck.org, hoax-slayer.com, politifact.com, snopes.com, thruthorfiction.com und urbanlegends.about.co; die sollte eigentlich jede/r, der/die hier bei ScienceBlogs.de mitliest, als Lesezeichen im Browser gespeichert haben – mit Ausnahme der letzten Quelle, für die ich als Folge der Umbenennung in dotdash keinen Link mehr finde), und zweitens haben sich die Autoren nicht einfach nur am Begriff “Fake News” orientiert, der ja längst ein politisches Kampf- und Schimpfwort geworden ist:

As politicians have implemented a political strategy of labeling news sources that do not support their positions as unreliable or fake news, whereas sources that support their positions are labeled reliable or not fake, the term has lost all connection to the actual veracity of the information presented, rendering it meaningless for use in academic classification.

Und nein, die Schuld an dieser rasanten Verbreitung liegt nicht bei den Bots, die sich inzwischen schon massiv in den sozialen Netzwerken breit gemacht haben: nach akademischen Schätzungen werden 9 bis 15 Prozent aller Twitter-Konten von Bots bedient; auf Facebook rechnet man mit etwa 60 Millionen solcher Bots – wobei da nicht immer nur böse Absichten eine Rolle spielen, denn in gewisser Weise ist ja auch unsere ScienceBlogs-Facebook-Seite ein “Bot” (genauer gesagt; ein Cyborg). Bots sind zwar generell viel schneller als Menschen, wenn’s ums Weiterverbreiten von Tweets und Facebook-Posts geht – aber sie machen, wie die MIT-Forscher feststellen konnten, dabei keinen Unterschied zwischen echten und falschen Meldungen – auch nach Eliminierung aller Bot-bezogenen Tweets kamen noch die gleichen Präferenzen für Falschmeldungen heraus wie mit unter Einbeziehung der Bots.

Die Erklärung, die auch im Science-Artikel angeboten wird, ist ziemlich plausibel und auch schon mit einem kleinen bisschen logischem Nachdenken nachvollziehbar: Menschen sind sehr gut darin, Überraschendes zu erkennen und darauf zu reagieren. Es ist der alte Witz: Hund beißt Mann ist keine Nachrichter, Mann beißt Hund aber schon. Und es ist das Element des Unerwarteten, des Überraschenden, das eine Nachricht erst wirklich interessant macht. Das alleine motiviert schon zum Retweet – “ich wusste das nicht, also wussten es andere vielleicht auch nicht”.

Aber es gibt in den sozialen Medien, speziell bei Twitter, noch einen zusätzlichen Anreiz, selbst die absurdesten Meldungen so schnell wie möglich zu verbreiten: Reteets und damit das Anstoßen einer “Trending”-Meldung bringen Aufmerksamkeit und Sozial-Media-Ruhm. Das Ego der Retweeter wird durch die Tiefe der Kaskade erhöht – und wenn es nur für eine kurze Zeit ist. (Interessanter Weise sind es nicht die Twitter-User mit dem größten Folgschaften, die solche Falschmeldungen am eifrigsten verbreiten.)

Die Frage bleibt, wie sich solche Falschmeldungs-Kaskaden vermeiden ließen. Ein Weg wäre natürlich, verdächtige Retweet-Muster zu identifizieren (bei solch dramatischen Unterschieden sollte das ja mit einer relativ hoen Trefferquote möglich sein), und die damit verbundenen Kaskaden zu “entschleunigen” (zum Beispiel durch eine Warnung an die Retweeter, dass es Anzeichen dafür gibt, dass sie dabei sind, eine Falschmeldung zu verbreiten), oder solche Meldungen nach Verifizierungen – die entsprechenden Möglichkeiten gibt es ja schon, siehe oben (snopes etc.) – als “zuverlässig” oder “unzuverlässig” zu markieren. Allein das sollte schon dem eiligen Retweeten einen gewissen Hemmschuh anlegen…

*”Falschmeldungen” sind übrigens nicht einfach Meldungen, die falsch im Sinn von frei erfunden sind. Die gibt es natürlich, und sie können drastische Folgen haben, wie das Beispiel Pizzagate zeigt, oder die Falschmeldung, dass Barack Obama bei einem Anschlag aufs Weiße Haus verletzt wurde, die einen Börseneinbruch zur Folge hatte, der runde 130 Milliarden Dollar an Kursverlusten zur Folge hatte. Oft genügt es schon, eine alte Meldung (beispielsweise über einen Terroranschlag) als neu zu recyceln, oder eine Meldung, die in einem weit entfernten Land passiert, so umzuformulieren, dass sie klingt, als ob sie hier und heute passiert wäre (Beispiele habt Ihr sicher schon selbst gesehen). Oder Meldungen werden unvollständig wiedergegeben.

Ein anderes Beispiel geistert gerade wieder durch Facebook, angestoßen durch diese – zweifelhafte – Seite: Es ist zwar richtig, dass eine junge Frau in Saudiarabien, die von einer Gruppe von Männern vergewaltigt worden war, wegen unmoralischen Verhaltens zu sechs Monaten Haft und 200 Peitschenhieben verurteilt worden war – aber erstens liegt dieser Fall, der als Qatif Rape Case berüchtigt wurde, schon runde 12 Jahre zurück (was die “aktuelle” Meldung nicht mit einer Silbe erwähnt), zweitens wurde dieses himmelschreiende Urteil zwar tatsächlich gefällt, aber nie vollstreckt, im Gegenteil: Die junge Frau wurde vom damaligen saudischen König Abdullah ibn Abd al-Aziz Al Saʿud begnadigt – was zwar den Justizskandal an sich nicht eliminiert, aber dennoch nicht geeignet ist, die Story der unmenschlichen Moslems zu belegen. Und gar nicht erwähnt wird, dass die Vergewaltiger zu Strafen bis zu 1000 Peitschenhieben und zehn Jahren Gefängnis verurteilt wurde (auch das ist barbarisch, aber durch das Nicht-Erwähnen wird – absichtlich! – der Eindruck erweckt, dass nur das Vergewaltigungsopfer bestraft wurde. Verfälschung durch Weglassen ist eine der perfidesten Methoden der Nachrichtenmanupulation, und leider eine, die sich nicht auf soziale Medien beschränkt…

flattr this!

Kommentare (6)

  1. #1 roel
    14. März 2018

    @Jürgen Schönstein Schade das der King of fake news in der Studie noch gar nicht erwähnt wird.

    “Der Artikel ist, soweit ich das von hier aus beurteilen kann, frei einsehbar” Das ist so!

    “mit Ausnahme der letzten Quelle, für die ich als Folge der Umbenennung in dotdash keinen Link mehr finde”

    Das müsste dieser hier sein:
    https://urbanlegendsonline.com/

  2. #3 anderer Michael
    17. März 2018

    Im deutschsprachigen Raum hilft mimikama.at bei der Wahrheitssuche.

  3. #4 Laie
    19. März 2018

    @anderer Michael
    Wirklich?
    Abgesehen vom wirklich sehr schlechten Deutsch ist inhaltlich bei den wenigen Artikeln die ich von dort las einiges zu bemängeln. Eine Satireseite? Der Postilion ist wenigstens unterhaltsamer, obwohl politisch leicht unausgeglichen… 🙂

  4. #5 Laie
    19. März 2018

    Mein Deutsch: nicht ganz soo schlecht: nur wurde das 2. EL in Postillon oben aufgetrennt und zum i verfälscht…

  5. #6 Bullet
    21. März 2018

    Was “Wirklich sehr schlechtes Deutsch”? Bei mimikama? Halte ich für ein Gerücht.