Lügen, so sagt der Volksmund, hätten kurze Beine – womit gemeint war, dass die Wahrheit sie immer einholen kann (und das sogar, so möchte man hoffen, sehr schnell). Doch in den Sozialen Medien, wo sich inzwischen zwei von drei erwachsenen Amerikanern regelmäßig ihre Nachrichten holen, laufen Falschmeldungen nicht nur weiter, sondern auch viel schneller, wie eine Analyse von Politologen und Medienwissenschaftlern des Massachusetts Institute of Technology in der aktuellen Ausgabe von Science nachweisen kann: The spread of true and false news online. Die drei Forscher – Sinan Aral, Deb Roy und Soroush Vosoughi – fanden bei ihrer Analyse von 126.000 Twitter-Kaskaden (= Postings, die “retweetet” wurden) aus der Zeit von 2013 bis 2017, dass Falschmeldungen (dazu gleich noch ein paar Worte*) eine um 70 Prozent höhere Chance hatten, sie als Retweet weitergereicht zu wurden als wahre Meldungen, und dass sie – vor allem, wenn sie sich um politische Themen handelten (was übrigens die Mehrzahl der Retweets war) – in einem Drittel der Zeit, die andere Meldungen brauchten, um auf 10.000 LeserInnen zu kommen, schon die 20.000-er-Grenze überschritten hatten:
F3.large

Fig. 3 Complementary cumulative distribution functions (CCDFs) of false political and other types of rumor cascades.

(A) Depth. (B) Size. (C) Maximum breadth. (D) Structural virality. (E and F) The number of minutes it takes for false political and other false news cascades to reach any (E) depth and (F) number of unique Twitter users. (G) The number of unique Twitter users reached at every depth and (H) the mean breadth of these false rumor cascades at every depth. In (H), plot is lognormal. Standard errors were clustered at the rumor level.

Der Artikel ist, soweit ich das von hier aus beurteilen kann, frei einsehbar (wenn nicht oder nicht mehr, hilft vielleicht diese Pressemitteilung des MIT); die Zahlen sind, soweit ich das beurteilen kann, ziemlich solide. Und ja, was die Identifizierung von Falschmeldungen angeht, noch zwei Bemerkungen: Erstens wurden die Nachrichten-Tweet-Stränge durch Abgleich von insgesamt sechs Faktenprüfseiten auf ihre Zuverlässigkeit geprüft (Factcheck.org, hoax-slayer.com, politifact.com, snopes.com, thruthorfiction.com und urbanlegends.about.co; die sollte eigentlich jede/r, der/die hier bei ScienceBlogs.de mitliest, als Lesezeichen im Browser gespeichert haben – mit Ausnahme der letzten Quelle, für die ich als Folge der Umbenennung in dotdash keinen Link mehr finde), und zweitens haben sich die Autoren nicht einfach nur am Begriff “Fake News” orientiert, der ja längst ein politisches Kampf- und Schimpfwort geworden ist:

As politicians have implemented a political strategy of labeling news sources that do not support their positions as unreliable or fake news, whereas sources that support their positions are labeled reliable or not fake, the term has lost all connection to the actual veracity of the information presented, rendering it meaningless for use in academic classification.

Und nein, die Schuld an dieser rasanten Verbreitung liegt nicht bei den Bots, die sich inzwischen schon massiv in den sozialen Netzwerken breit gemacht haben: nach akademischen Schätzungen werden 9 bis 15 Prozent aller Twitter-Konten von Bots bedient; auf Facebook rechnet man mit etwa 60 Millionen solcher Bots – wobei da nicht immer nur böse Absichten eine Rolle spielen, denn in gewisser Weise ist ja auch unsere ScienceBlogs-Facebook-Seite ein “Bot” (genauer gesagt; ein Cyborg). Bots sind zwar generell viel schneller als Menschen, wenn’s ums Weiterverbreiten von Tweets und Facebook-Posts geht – aber sie machen, wie die MIT-Forscher feststellen konnten, dabei keinen Unterschied zwischen echten und falschen Meldungen – auch nach Eliminierung aller Bot-bezogenen Tweets kamen noch die gleichen Präferenzen für Falschmeldungen heraus wie mit unter Einbeziehung der Bots.

Die Erklärung, die auch im Science-Artikel angeboten wird, ist ziemlich plausibel und auch schon mit einem kleinen bisschen logischem Nachdenken nachvollziehbar: Menschen sind sehr gut darin, Überraschendes zu erkennen und darauf zu reagieren. Es ist der alte Witz: Hund beißt Mann ist keine Nachrichter, Mann beißt Hund aber schon. Und es ist das Element des Unerwarteten, des Überraschenden, das eine Nachricht erst wirklich interessant macht. Das alleine motiviert schon zum Retweet – “ich wusste das nicht, also wussten es andere vielleicht auch nicht”.

flattr this!

1 / 2 / Auf einer Seite lesen

Kommentare (6)

  1. #1 roel
    14. März 2018

    @Jürgen Schönstein Schade das der King of fake news in der Studie noch gar nicht erwähnt wird.

    “Der Artikel ist, soweit ich das von hier aus beurteilen kann, frei einsehbar” Das ist so!

    “mit Ausnahme der letzten Quelle, für die ich als Folge der Umbenennung in dotdash keinen Link mehr finde”

    Das müsste dieser hier sein:
    https://urbanlegendsonline.com/

  2. #3 anderer Michael
    17. März 2018

    Im deutschsprachigen Raum hilft mimikama.at bei der Wahrheitssuche.

  3. #4 Laie
    19. März 2018

    @anderer Michael
    Wirklich?
    Abgesehen vom wirklich sehr schlechten Deutsch ist inhaltlich bei den wenigen Artikeln die ich von dort las einiges zu bemängeln. Eine Satireseite? Der Postilion ist wenigstens unterhaltsamer, obwohl politisch leicht unausgeglichen… 🙂

  4. #5 Laie
    19. März 2018

    Mein Deutsch: nicht ganz soo schlecht: nur wurde das 2. EL in Postillon oben aufgetrennt und zum i verfälscht…

  5. #6 Bullet
    21. März 2018

    Was “Wirklich sehr schlechtes Deutsch”? Bei mimikama? Halte ich für ein Gerücht.