Kuh

(Zeichnung: Andrea Walter)

Die als „Kälber-Studie“ bekannte Untersuchung schlägt Wellen, da sie angeblich zeigt, dass schwache Magnetfelder die Produktion von Melatonin stören, einem endogenen Radikalfänger und vermuteten Anti-Krebshormon. Allerdings sind die Daten aus verschiedenen Gründen so merkwürdig, dass sie eigentlich nicht stimmen können. Die Reaktion der Herausgeber ist, darauf angesprochen, mau, um nicht zu sagen: Null. In der Theorie wendet sich ein Leser an ein Journal, wenn ihm seltsame Daten in einer Publikation auffallen, die eigentlich gar nicht real sein können, und erwartet eine Erklärung. Wenn in der Praxis ein geschlagenes halbes Jahr überhaupt nichts in dieser Richtung passiert, ist etwas grundsätzlich verkehrt. Wobei das nicht wirklich überrascht, denn das passiert eigentlich dauernd. Die Gretchenfrage lautet nämlich: wer hat ein Interesse daran, solche seltsamen Daten entweder plausibel zu erklären oder – falls das nicht gelingt – sie zu entsorgen. Dazu später mehr, jetzt erst einmal der aktuelle Fall.

Mitte September 2015 publizierten Forscher aus Deutschland, Belgien und Tschechien Befunde (Kolbabová et al., 2015, Open Access), die scheinbar belegten, dass sehr schwache künstliche Magnetfelder die Melatoninproduktion von Kälbern beeinflussen (für die Technik-Nerds: 0,4 µTesla, 50 Hz Sinus bei ca. 50 µTesla statischem Erdmagnetfeld). Das wäre schon ein ganz interessantes Ergebnis, da Hochspannungsleitungen solche schwachen Magnetfelder produzieren und im Verdacht stehen, mit kindlicher Leukämie assoziiert zu sein. Nur passen einige Daten in der Publikation überhaupt nicht zum Stand der Wissenschaft, andere hingegen passen viel zu gut zu anderen Daten in demselben Paper.

Wenige Tage nach der Online-Publikation Mitte September 2015 machte ich die Redaktion auf die Punkte aufmerksam, die mir aufgefallen waren, und das waren einige. Bislang habe ich lediglich immer wieder gehört, man kümmere sich darum. Seit mehr als sechs Monaten.

Die „Seltsamkeiten“: Die Abweichungen der Balkengrafiken waren in vielen Fällen exakt gleich, obwohl es sich ja um unterschiedliche Stichproben handelte. So bei Abb. 1 und 2, und auch bei Abb. 3, jedenfalls für die Daten des Sommers.

Abbildung 1 der Studie von Kolbabová et al., 2015. Die roten Rechtecke für die Standardfehler in den Teilabbildungen sind jeweils identisch (sie haben jeweils identische Maße).

Abbildung 1 der Studie von Kolbabová et al., 2015. Die von mir eingefügten roten Rechtecke für die Standardfehler in den Teilabbildungen sind jeweils identisch (sie haben jeweils identische Maße).

Abbildung 2 der Studie von Kolbabová et al., 2015. Die roten Rechtecke für die Standardfehler in den Teilabbildungen sind jeweils identisch (sie haben jeweils identische Maße).

Abbildung 2 der Studie von Kolbabová et al., 2015. Die von mir eingefügten roten Rechtecke für die Standardfehler in den Teilabbildungen sind jeweils identisch (sie haben jeweils identische Maße).

Abb3

Abbildung 3 der Studie von Kolbabová et al., 2015. Die von mir eingefügten roten und grünen Rechtecke für die Standardfehler in der rechten Teilabbildung sind identisch (sie haben jeweils identische Maße).

Ach ja, Sommer: Im Sommer sollen die Melatoninwerte höher sein als im Winter? Stimmt mit der Literatur nicht überein. Und bei Weibchen viel höher als bei Männchen? Auch nicht. Tageszeitliche Werte? Ebenfalls nicht. Am Tag ist Melatonin üblicherweise so gut wie nicht messbar, nachts dagegen deutlich erhöht. In der Publikation sind keine solchen Unterschiede zu sehen. Und die absoluten Werte? Auch die stimmen mit der Literatur nicht überein, da sie vergleichsweise viel zu hoch liegen. Interessanterweise sind die mittleren Werte in der Studie, die von den Autoren als Referenz für die Methode angaben, meilenweit von ihren jetzigen entfernt.

Alles in allem mehr als genügend Gründe, an den Resultaten fundamentale Zweifel anzumelden und diese auch für jedermann sichtbar zu platzieren. Dies umso mehr, als der Netzausbau mit hunderten neuer Hochspannungsleitungskilometern natürlich Besorgnis in der Bevölkerung auslöst, wenn höchst seltsame Befunde wie diese kursieren und so lange unkommentiert bleiben. Verantwortung der Herausgeber sieht für mich anders aus.

Nebenbei: ein solches Paper überhaupt zur Publikation anzunehmen, ist aus einem weiteren Grund mehr als fragwürdig: die Anzahl Kälber pro Gruppe war 4 (vier!). 4 exponiert, 4 Kontrollen, und das Ganze mal im Sommer, mal im Winter (die Angaben n=80 bzw. n=20 kommen daher, dass an 5 Tagen zu je 4 unterschiedlichen Zeiten Proben genommen wurden). Wäre das ein Tierversuch in Deutschland gewesen, hätte allein dieser Umstand bei der Genehmigung vermutlich große Probleme verursacht. Aber die Studie wurde ja in der Nähe von Prag durchgeführt…

Nun zur Frage: warum passiert eigentlich so lange nichts? Warum werden die Leser dieser Publikation nicht über die Probleme informiert? Immerhin hatte die Studie ein erhebliches Echo in der Presselandschaft, und das Problem des Netzausbaus und der zusätzlichen Hochspannungsleitungen geht sehr viele Bürgerinnen und Bürger an. Wenn meine kritischen Kommentare hinsichtlich der völlig unplausiblen Melatoninwerte vielleicht akademisch anmuten, so wären zumindest die identischen Standardabweichungen ganz sicher Grund genug gewesen, sofort einen Kommentar der Herausgeber zu verfassen und zu veröffentlichen, damit die Leserschaft informiert wird.

Die Antwort könnte sein, dass dem Herausgeber oder dem Verlag (Nature Publishing Group) das alles lästig ist; dass die Autoren keine Antworten geben; dass es der Zeitschrift unangenehm oder peinlich ist einzugestehen, dass sie eine Studie publizierten, die so voller Seltsamkeiten ist; dass die Herausgeber zugeben müssten, nicht die richtigen Gutachter gewählt zu haben; dass gewartet werden soll, bis die Studie zumindest ein paar Mal zitiert worden ist, um den Impact Factor hochzuschrauben und und und…

Ich habe schon viel erlebt, seit ich begonnen habe, Studien kritisch zu analysieren. Bei einem Dutzend war die Konsequenz die Retraktion. Bei anderen war es eine komplette Weigerung der Herausgeber, überhaupt tätig zu werden (oder noch Schlimmeres – doch, das geht!). Und wieder bei anderen war es irgendetwas dazwischen. So funktioniert die Sicherung des wissenschaftlichen Niveaus, dem sich doch alle Herausgeber und Verlage für wissenschaftliche Zeitschriften verpflichtet fühlen sollten, aber nicht. Es kann nicht sein, dass Herausgeber oder Verlage einfach tun und – vor allem – lassen können, was sie wollen, ohne dass sie ihrer Verantwortung gerecht werden und eben notfalls dazu gezwungen werden. Im Interesse der Wissenschaft und auch im Interesse der Allgemeinheit, die letzten Endes ja die Forschung finanzieren.

Wir brauchen eine unabhängige Instanz der wissenschaftlichen Kontrolle, wenn Fälle wie diese zu klären sind. Das Vorbild kann das US-amerikanische Office for Research Integrity (ORI) sein, das hervorragende Arbeit leistet.

Wir brauchen ein GORI, ein German Office for Research Integrity!

 

Kommentare (8)

  1. #1 Marcus Anhäuser
    12. April 2016

    Interessant. Schon versucht bei Pub Peer eine Diskussion zu starten, das erzeugt vielleicht mehr Druck und es schauen sich mehr Kollegen die Publikation an: https://pubpeer.com/publications/3F4D2FB7A0802E3DEE944E902AFB49

  2. #2 B. Schlindwein
    Freising
    12. April 2016

    auch Retraction Watch https://retractionwatch.com/ wäre eine Adresse.

  3. #3 Lars Dittrich
    Köln
    12. April 2016

    Boh, was für ein Megamurks. Alleine die Fehlerbalken zeigen, dass mindestens etwas massiv falsch gemacht wurde, ganz wie du sagst. Aus 20 technischen Replikaten von 4 Tieren n=80 zu machen, ist auch schon ein Fehler, der zu einer Retraction führen müsste. Weil eben p nicht kleiner als 0.005 ist, wie behauptet.
    Danke für die Mühe!

  4. #4 Joachim
    12. April 2016

    Wir brauchen ein EORI. Besser noch ein WORI. Nationale Alleingänge bringen nichts, Forschung ist international. Ein an die UN angegliedertes WORI, dazu vielleicht zur besseren Kontrolle nationale Subabteilungen. Leider tut sich nichts, obwohl es nötig.

  5. #5 Bettina Wurche (meertext)
    https://scienceblogs.de/meertext/
    12. April 2016

    @Alexander: Hmmm…ja, die Methode hört sich ziemlich fragwürdig an. Eine solche Studie mit n=4 durchzuführen, ist schon sportlich. Gerade weil es ein “heißes” Thema ist, über das schon so viel Blödsinn kursiert.
    Eine Anmerkung zum Text: Statt “Tschechei” bitte “Tschechien” oder “Tschechische Republik” schreiben. “Tschechei” ist sehr ungut vorbelastet.

    • #6 Alexander Lerchl
      12. April 2016

      Das mit der Tschechei habe ich übersehen, danke für den Hinweis. Ist geändert!

  6. #7 Marcus Anhäuser
    12. April 2016

    Und was spricht dagegen zumindest in der Kommentar-Section einen Kommentar zu hinterlassen: https://www.nature.com/articles/srep14206#comments

  7. #8 rolak
    12. April 2016

    noch Schlimmeres – doch, das geht!

    Beileid ;‑) Und schönen Dank für die Vorarbeit, so eine ständig wachsende Liste paper.sinnvoll(ja|nein und warum) kann nur sinnvoll sein…