Die Einsicht, dass der Zwang für Wissenschaftler, ihre Reputation (und damit letztlich ihre Existenz) durch quantitativ eindrucksvolles Publizieren in einschlägig anerkannten Journalen (“Publish or Perish”) aufbauen und bewahren zu müssen, der Qualität von Wissenschaft nicht förderlich ist, hat sich hier bei den ScienceBlogs ja schon vielfältig manifestiert. Gerade hat Marcus Anhäuser bei Plazeboalarm einen trotz satirischer Töne absolut ernst zu nehmenden Beitrag aus John Olivers “Last Week Tonight” geteilt, der dieses Problem aufspießt und filetiert. Aber diese Kritik kommt, dankenswerter Weise, auch aus den Reihen der WissenschaftlerInnen selbst – aktuell beispielsweise in diesem Meinungsbeitrag für die neue Ausgabe des Journals nature: The pressure to publish pushes down quality, von Daniel Sarewitz. Nicht nur, so seine These, scheint die Zahl der wissenschaftlichen Publikationen exponentiell zu wachsen, mit rund zwei Millionen neuer Paper pro Jahr; sie werden auch, dank leicht verfügbarer online-Recherche, trotz dieser explodierenden Anzahl ausgiebig zitiert – ein durchschnittliches bimomedizinisches Paper werde im Lauf von fünf Jahren zwischen 10 und 20 Mal zitiert. Und das, obwohl die Qualität oft zweifelhaft sei: Allein in der Krebsforschung beruhten, laut Sarewitz, etwa 10.000 Paper, die alljährlich veröffentlicht werden, auf kontaminierten oder misidentifizierten (also unbrauchbaren) Zell-Linien – “Metastase hat sich in der Krebsliteratur ausgebreitet”, warnt er.

Eine Nebenwirkung dieses Publikationswahns ist ja, dass sich niemand mehr Zeit nimmt, publizierte Forschung zu replizieren. Dieser – vorgebliche – Kontrollmechanismus soll ja gerade verhindern, dass Junk Science zum wissenschaftlichen Kanon erhoben wird. Doch im Nacharbeiten der Arbeit anderer Forscher liegt kein Ruhm – und nur eine kleine Chance, ein publikationsfähiges Paper zu generieren (eigentlich nur, wenn die Erkenntnisse des Originalpapers fundamental und spektakulär widerlegt werden können).  Ich überlege schon seit einiger Zeit, ob es nicht ein paar Alternativen zum etablierten Publikationszirkus geben könnte – ich habe eine Idee, die aber noch zu unausgereift ist, um sie hier zu präsentieren. Statt dessen zitiere ich mich (aus diesem Kommentar) einfach mal selbst:

WissenschaftlerInnen haben dieses System selbst geschaffen und halten es am Leben. Wer hat denn gefordert, dass WissenschaftlerInnen nicht nach der Qualität, sondern nach der Quantität ihrer Publikationen beurteilt werden sollen? Gremien vielleicht – aber immer Gremien, in denen WissenschaflerInnen sitzen und (an den Hochschulen, beispielsweise) den Ton angeben.

Mir ist schon klar, dass es hier einen internen Konflikt gibt, der quasi aus einer “Währungsreform” entstehen wurde: Diejenigen, die es “geschafft” haben, die also eine eindrucksvolle Liste ihrer Publikationen aufgebaut haben, werden nur wenig Interesse daran haben, dieses Reputationskapital abzuwerten oder gar abzuschaffen. Doch mit dem gleichen Argument lassen sich auch allerlei widerwärtige Aufnahmerituale begründen, die alljährlich zigtausende junger Studentinnen und Studenten an US-Hochschulen immer noch über sich ergehen lassen – in der verzweifelten Hoffnung, endlich “dazu” zu gehören.

flattr this!

Kommentare (5)

  1. #1 Matthias
    12. Mai 2016

    Ich glaube nicht so ganz, dass in diesen Gremien von Wissenschaftlern gefordert würde, nach der Quantität der Publikationen zu beurteilen. Es ging vermutlich darum, besonders gute Kandidaten erkennen zu wollen, mit guter wissenschaftlicher Reputation. Da ist Zählen vllt. einfach nur das einfachste Maß – jemand der gar nichts veröffentlicht, hat seine Ideen damit auch noch nicht dem peer-review ausgesetzt.
    Die Frage ist doch, was eine gute Alternative wäre. Konferenz- und Journal-Rankings führen dazu, dass absurde Akzeptanzquoten entstehen und auch sehr gute Papiere abgelehnt werden, Hirsch Index lässt sich genauso optimieren, wie die meisten anderen Maße eben auch. “Open-Access” ist in vielen Fällen auch eher ein “pay-for-publish” Modell mit sehr zwielichten Zeitschriften.
    Auf die hoffentlich bald ausgereifte Idee bin ich schon gespannt.

  2. #2 roel
    ******
    12. Mai 2016

    @Jürgen Schönstein Ich denke es braucht ein geteiltes System.

    1. noch nicht Replizierte Publikationen, die dann auch nicht zitiert werden dürften

    2. Replizierte Publikationen, die dann auch zitiert werden dürfen

    Alle nicht replizierten Publikationen, sollten nach einem angemessenen Zeitraum wieder aus 1. gestrichen werden.

    Als zusätzlichen Anreiz könnte die Replizierenden mit als Autoren aufgeführt werden, wobei eine Unabhängigkeit von einander gewahrt bleiben muss.

    Alles in allem scheint das Nichtreplizieren ein Problem für die Wissenschaft zu sein. Die Gefahr lauert, dass Junk-Science sich verbreitet und später mühsam wieder aussortiert werden muss. Wenn die Wissenschaft jetzt keine Zeit hat zu replizieren, dann hat sie demnächst noch weniger Zeit, zusätzlich auch noch auszusortieren.

  3. #3 CM
    12. Mai 2016

    @roel:

    Was ist mit publizierten Beobachtungen, Thesen oder Methoden (z. B. Software)? Die können nicht einfach repliziert werden. Klar, das sind “Ausnahmen”.

    Was ist mit Studien? Durchaus auch klinischen Studien. Die können auch nicht in dem Sinne repliziert werden – man kann allenfalls wiederholen und metaanalytisch zusammenfassen.

    Aber auch experimentelle Arbeiten: Da gibt es durchaus diejenigen, die ganz klassisch Experiment, Messung und Hypothese aufweisen. Warum replizieren? Das kann sinnvoll sein, ohne Frage – und ich unterstütze durchaus die Argumente – aber wesentlich ist noch der Versuch zu falsifizieren. Viel mehr als Replikate stören mich oft Versuche zu falisizieren – und nicht zuletzt Negativresultate.

    Insg. möchte ich Dir / Euch nicht wiedersprechen. Ich denke vor allem sind die Drittmittelgeber gefordert: Gefordert explizit Geld für Replikationen und Co. zu reservieren. Und nicht zu letzt auch für nachhaltige Projekte (z. B. nicht nur wissenschaftliche Wegwerfsoftware, die nach Abgabe der Diss nicht mehr gepflegt wird).

    Insg. also ein weites Feld.

  4. #4 CM
    12. Mai 2016

    Viel mehr als Replikate stören mich oft Versuche zu falisizieren – und nicht zuletzt Negativresultate.

    ->

    Viel mehr als das Fehlen der Replikate stören mich oft die fehlenden Versuche zu falisizieren – und nicht zuletzt fehlende, publizierte Negativresultate.

    Entschuldigung.

  5. #5 Omnivor
    Am Nordpol von NRW
    13. Mai 2016

    Citation-Index 4.0?

    Im Zeitalter der E-Publikationen müsste es doch möglich, sein wissenschaftliche Publikationen genauer in Ihrer Wichtigkeit/Qualität zu bewerten.
    1.) Zitate, z. B. danach ob die zitierenden Publikationen von einem der Autoren sind oder aus der gleichen Universität.
    2.) Ein Facebook-artiges Like/Punkte-System. Die Teilnehmer müßten registriert sein und und Ihre Wertung würden danach gewichtet, wie sehr ihre eigenen Veröffentlichungen zu dem Thema passen.
    3.) Eine Rubrik, in der Probleme (falscher Zelltyp, falsches Studiendesign) bis zur Rücknahme der Publikation kodiert werden, aber auch begündet werden müssen.

    Solch ein System bräuchte eine weltweit zentrale Institution, die die Teilnehmer akkreditiert, so daß eine Veröffentlichung des “Institute of Health and Diet” nicht möglich wäre.
    Jeder Teilnehmer kann publizieren, so viel er will und wird von der Community bewertet.
    Die Öffentlichkeit kann die Publikationen und die Kritik (Rubrik 3) einsehen.

    So hätte man ein Bewertungssystem für die Publikationen wie für die Autoren.