Wo ist der Zusammenhang zwischen der Reproduzierbarkeitskrise in den Laborwissenschaften, dem Klimawandel und Verschwörungstheoretikern aus dem universitären Umfeld? Ein paar Gedanken …

Kits & Computer = “Klimafrevel” durch Ignoranz?

Mindestens die Hälfte aller bedeutenden biochemischen Publikationen sind nicht gut reproduzierbar, andere Schätzungen nennen eher zwei Drittel[Begley & Ellis, 2012; Prinz et al. 2011]. Das bedeutet unzählige umsonst durchgeführte Experimente: Weil man zusammen pipettiert, wo das Scheitern unabwendbar ist (niemand hat das längst bekannte Negativresultat publiziert); weil man eine Methode anwendet, die so nicht funktionieren kann (ups, da fehlte wohl ein Detail in der Originalpublikation) – und so weiter.

Allein in letzten Jahr sind mehr als 50.000 Publikationen erschienen, die irgendetwas mit “Krebs”, “Mikrobiologie”, “DNA” oder “RNA” zu tun haben – das ist konservativ geschätzt, andere Mitteilungen listen mehr. Man darf getrost annehmen, dass ein großer Teil ebenfalls unter Reproduzierbarkeitsmängeln leidet. Viele dieser Veröffentlichungen sind darüber hinaus nicht originell, sondern Nachahmerarbeiten. Und natürlich sind diejenigen Arbeiten darunter, die von vornherein überflüssig waren, weil negative Resultate nicht publiziert wurden.

Nun gibt die Deutsche Forschungsgemeinschaft, DFG, mehr als ein Drittel ihres Budget für lebenswissenschaftliche Forschung aus – mehr als eine Milliarde Euro im Jahr. Wenn nur die Hälfte davon in Publikationen zweifelhaften Wertes oder überflüssige Arbeiten mündet, wo bleibt der Aufschrei der Rechnungshöfe? Doch Forschung ist vor allem ein internationales Geschäft – es geht also um viele Milliarden (Euroäquivalente) weltweit.

Und die praktische Seite? Nun in biochemischen Laboren wird schon länger nicht mehr selber alles gemixt, was man braucht: Da werden “Kits” bestellt. Kleine Boxen zur DNA/RNA-Extraktion, zur Restriktionsanalyse und viele andere Zwecke und viel andere Ausrüstung. Es ist sicherlich gut fürs BIP viel zu bestellen und die Gelder fließen ja auch: Zum Großteil folglich in solche Kits, Lösungsmittel & Co, die – wir reden ja über die Konsequenzen überflüssiger Versuche im Zusammenhang mit der Reproduzierbarkeitskrise – völlig unnötig hergestellt, transportiert und verbraucht werden.

In anderen Fachgebieten sieht es wenig besser aus. Für die Bioinformatik habe ich das bereits unterstrichen – es wird viel, viel gerechnet, was sich auch in Schubladen wie me too-Arbeiten und nicht publizierten Negativresultaten mit ihren Konsequenzen einsortieren lässt. Die Tendenz in manchen Teilen der Bioinformatik nicht optimierte Software zusammen zu stöpseln, bis ein proof of concept erreicht werden kann, resultiert in ganz eigenen Reproduzierbarkeits-, Effizienz- und Verschwendungsproblemen.

Vor allem aber wird in vielen Bereichen der Naturwissenschaften sehr viel Rechenbedarf angemeldet. Die Republik reagierte in dem sie eine Hochleistungsrecheninfrastruktur aufbaute – mit der Konsequenz jährlich zusätzliche Millionen Euro zur Reinvestition und für den Strombedarf in die Hand nehmen zu müssen. Dabei ist diese Art des Rechnens noch sehr viel kostengünstiger (und energiesparender) als die Alternativen: Die bestehen nämlich oftmals gerade in den Lebenswissenschaften darin, dass Professor/in Superwichtig eigene Server betreibt – auf die Wartung geht die Arbeitskraft der Gruppe drauf, die oftmals gar nicht weiß wie sie einen Server zu warten oder gar zu sichern hat. Angeschafft werden diese Server, weil gerade Bedarf ist – und dann gammeln auch diese mit mauer Auslastung vor sich hin bis sie nicht mehr zu gebrauchen sind. Die Republik hat dennoch weiteres Geld in die Hand genommen und eine weitere Infrastruktur aufgebaut, was sicher auch an der Hybris der Hochleistungsrechenwelt mit ihrer Bioaversion liegt, auf der ineffiziente Skripte abertausendfach laufen.

Möglichkeiten Ressourcen zu schonen …

… gibt es folglich viele. Und ich maße mir nicht an, auf alle oder auch nur die oben beschriebenen Probleme, die sicher nur eine Teilmenge der Verschwendung beschreiben, eine Antwort zu kennen. Doch dort wo die scientists for future gesellschaftliche Veränderungen mit unterstützen wollen, finde ich sollten Bio*-ForscherInnen (also alles, was Biologie, Bioinformatik, Landschaftsökologie, etc. ist) zuvorderst der Verschwendung in den eigenen Reihen einen Riegel vorschieben: Denn warum studiert man eigentlich Biologie oder ein Bio-Fach? Aus Verachtung für die Umwelt?!?

Sehr viele Effizienz- und Müllvermeidungsfrüchte hängen in den Instituten, in denen häufig noch nicht einmal simple Mülltrennung funktioniert und Desktoprechner 24/7 ihre elektronischen Däumchen drehen, tief: Die Fachbereiche müssen sich dringen Gedanken darüber machen, wie das Bewusstsein für die Reproduzierbarkeitskrise und ihre Konsequenzen in den Köpfen der Studierenden verankert wird. Und damit letztlich auch weniger Verschwendung in den Laboren herrschen wird, wenn die praktizierenden WissenschaftlerInnen wissen worauf sie bei Experiment, Protokollierung und Publikation zu achten haben.

Die Politik ihrerseits sollte aufhören Kriege führen zu wollen – insbesondere international sind sie ja beliebt die “Kriege” und groß angekündigte Initiativen gegen den Krebs und andere Übel. Das führt zu unbedachtem Materialeinsatz und hat in den vergangenen Jahrzehnten nur begrenzt Erfolge erzielt.

Außerdem kochen in vielen Fachbereichen die Arbeitsgruppen in Allem ihr eigenes Süppchen. Die Landesregierungen sollten die ProfessorInnen dazu drängen Allmendestrukturen (Neudeutsch: core facilities) aufzubauen (ein Prozess der vielerorts begonnen hat) und zu nutzen – und denjenigen, die sich sträuben, Geld entziehen. Warum sollten gleich mehrere Arbeitsgruppen eines Institutes Mikroskope und andere optische Instrumente warten? Wie viele Ultrazentrifugen, Fluorimeter, Kalorimeter, etc. (die >90% ihrer Zeit als gräuliche Kunstobjekte manches Labor verschönern) kann oder sollte man sich leisten?

Wie schon im schönen (und vergessenen?) Buch “Die Zunft” (Quelle: Achtung kommerzieller Link) beschrieben, bräuchte es wohl eine recht harte kultusministerielle Hand, um den Augiasstall auszumisten. Also hoffen auf ein Wunder oder anpacken?

Und die Verbindung zu den Verschwörungsheinis?

Der Zusammenhang ist nicht sehr deutlich, aber keine Sorge: Hier wird jetzt keine Weltverschwörung des Mittelmaßes konstruiert, der die Universitäten und Forschungseinrichtungen mit dem Ziel des vollständigen Vertrauensverlustes in die Wissenschaft unterwandert und deren Resultat die Reproduzierbarkeitskrise ist. Obwohl sich manchmal der Eindruck aufdrängt …

Doch gut Forschen muss man lernen. Und zwar an Universitäten. Von LehrerInnen, die einst selber Forschen lernten. Wer Medizin oder Ingenieurswissenschaften studiert, lernt kein forschungsnahes Fach. (Ich kenne einige sehr gute Wissenschaftler, die genau diese Fächer studiert haben! Die Aussage sagt nichts über die Qualität der Studiengänge oder der Leute aus, sondern über den Inhalt, der nicht Wissenschaft, sondern Wissen und dessen Anwendung ist.) Wer Sozialwissenschaften, Juristerei oder, ach, Theologie studiert gewinnt schlicht einen ganz anderen Eindruck von Forschung als Leute, die in die Naturwissenschaften gegangen sind. Und auch dort hat nicht natur-wissenschaftliches Arbeiten gelernt, wer vor der Doktorarbeit das Fach an den Nagel hängt. Ein Fach zu studieren bedeutet zunächst Erkenntnisse vermittelt zu bekommen und viel Handwerkszeug.

Das Handwerk des Forschens wird durch Mentoren vermittelt – und dies eher unsystematisch[Schatz, 2004] – lesenswert! – im Lauf langer Jahre. Der harte Ausleseprozess auf dem Weg zur Professur verhindert vielleicht Schlimmeres, aber das Berufungsunwesen lässt auch sehr viele ungeeignete Menschen auf Stellen, auf denen sie besser nicht wären[Woolston, 2020].

Hier nun kommen zwei Dinge zusammen, die nicht zusammen gehören: Erstens, Leute, die häufig nicht gut oder zumindest nicht systematisch in die Wissenschaft eingeführt wurden. Und zweitens, das gehört zur Wissenschaft wie zum Blogschreiben, ein gewisses Geltungsbedürfnis haben.

Wer dann obendrauf auf eine Professur berufen wird, darf die eigene “Güte” weitergeben und die nächste Generation prägen. Vor allem aber hat, wer erst einmal auf mitunter gut gepolsterten Stuhl sitzt fortan eine besondere Trumpfkarte: Akademische Glaubwürdigkeit. Auch wenn es um die Qualität der Arbeit nicht gut bestellt ist, diese Karte werden vor allem diejenigen ausspielen, die sonst nicht viel erforschen (Beispiel).

Wer also studiert hat, findet immer wieder Studien oder andere Arbeiten, die steile Hypothesen belegen und seien sie auch noch so schwachmithin nicht reproduzierbar (da ließen sich – SB-LeserInnen werden nicht überrascht sein – sehr viel mehr Beispiele finden). Mangelndes Verständnis wissenschaftlicher Arbeit und das angesprochene Geltungsbedürfnis sind eine Grundlage für Scharlatanerie. Nicht nur US-Präsidenten neigen dazu zu glauben, was sie sich und anderen mantraartig erzählen – wir alle neigen dazu. So glaubt der Eine daran, dass er mit unfairen Mittel um seine Wiederwahl gebracht wurde und der Andere daran ein Infektionsepidemiologe oder Superheiler oder irgendetwas Anderes zu sein.

Ein Teilgrund ist folgender: Die Qualität wissenschaftlichen Outputs (also: Studien, experimentelle Arbeiten, etc.) folgt einer Verteilung (egal welche; das festzustellen wäre interessant, tut aber nichts zur Sache). Es gibt viel solides Mittelmaß, weniger extrem gute und extrem miese Arbeiten. Doch da so viel publiziert wird, es so enorm viele Praktikanten der Wissenschaft gibt und Wissenschaft eben nicht systematisch unterrichtet wird, gibt es – das Gesetz der großen Zahl lässt grüßen – auch Leute, die Wissenschaft nur als etwas völlig Beliebiges oder gar Falsches und Gefälschtes kennengelernt haben.

Und das Letzte hier ist selbstverständlich nur meine Beobachtung im Lauf langer Jahre und zu vieler Meetings: Die aufgeblasensten WissenschaftlerInnen, diejenigen die in den Naturwissenschaften arbeiten aber Pseudomedizin für ihre Familie propagieren und diejenigen, die aktiv Pseudoforschung betreiben sind durchweg weniger gute WissenschaftlerInnen. Sie konnten dennoch ihre Meriten erringen (sprich: wissenschaftliche Publikationen in wissenschaftlichen Journalen unterbringen) und zumindest zeitweise akademische Posten besetzen. Sieht man von manchen Anfängen der Pseudowissenschaft ab (Hahnemann beispielsweise hat seinen Mist zu einer Zeit verbrochen, wo die Medizingockel auf den größten Haufen saßen und der zarte Keim evidenzbasierter Heilkunde durch das Geschiss zu ersticken drohte), scheint das im Großen und Ganzen auch für die Scharlatane und Bullshitscientists außerhalb meines Bekanntenkreises zu gelten – da gibt es genug einschlägige Literatur (Achtung kommerzielle Links: Beispiel und Beispiel).

Also?

Damit haben wir, die wir Wissenschaft mögen, noch zwei weitere Gründe das Heft der Reproduzierbarkeit hoch zuhalten, einzufordern und gutes Handwerk zu lehren:

  1. es wäre ein guter Beitrag gegen Ressourcenverschwendung
  2. Scharlatane hätten weniger Futter und könnten auch nicht selber abstruse Paper in seriösen Zeitschriften unterbringen (was leider immer wieder passiert, auch wenn bevorzugte Kanäle der Scharlatane eher Webseiten und predatory journals sind)

flattr this!

Kommentare (21)

  1. #1 rolak
    3. Januar 2021

    Angenehm agitierender Text.

    Die einzige Frage betrifft ein recht rand­ständiges Detail: Nichts gegen trigger warnings im Allgemeinen, doch was macht den Quer­verweis zur nicht erhältlichen Zunft so vor­warnungs­bedürftig kommerziell gegenüber zB den fast text­ab­schließenden Verweisen B&B bei den Amazonen?

    • #2 Christian Meesters
      3. Januar 2021

      gar nichts, außer meinem Vergessen / Übersehen – ist korrigiert / erweitert

      • #3 rolak
        3. Januar 2021

        dachte schon, ich hätte den Schuss nicht gehört ;•)

  2. #4 opaunke
    3. Januar 2021

    Zu jedem Peer review sollte gehören, das Experiment in einem anderen Labor zu reproduzieren.

    • #5 Christian Meesters
      3. Januar 2021

      Schöner Wunsch, ja. Leider ein Ding der Unmöglichkeit: Nicht wenige Experimente sind teuer und zeitintensiv, nicht wenige Studien riesig, nicht wenige Veröffentlichungen haben gar kein Experiment, keine Studie zum Inhalt.

  3. #6 Lercherl
    3. Januar 2021

    @opaunke

    Zu jedem Peer review sollte gehören, das Experiment in einem anderen Labor zu reproduzieren.

    Volle Zustimmung! Zum Beispiel https://doi.org/10.1016/j.physletb.2012.08.020 hätte unbedingt vor der Publikation in einem anderen Labor reproduziert werden müssen!

  4. #7 Michael Kuhn
    3. Januar 2021

    Ein einfacher Ausweg aus der Reproduktionskrise wäre bei geförderten Projekten Gelder zurückzufordern, wenn sich Ergebnisse später nicht reproduzieren lassen. Ich will das nicht in Tiefe jetzt ausführen, aber es ist eigentlich der einzige Ansatzpunkt. Denn die hochqualitative ressourcenschonende wiss. Arbeit kann nur lokal an den Universitäten evaluiert und geprüft werden, da werden ja auch die Wissenschaftler unbefristet und treiben dann ihr Unheil weiter. Die Universitäten sind ja heute schon bei EU oder BMBF-Projekten oft das verantwortliche Organ und nicht der Antragsschreiber/Professor. Sie fungieren als Bank beim Verbrauch der Fördermittel bis zum Ende des Projekts.

    Stellt sich 5-10 Jahre später heraus, dass Ergebnisse die in einem Projekt publiziert wurden, nicht reproduzierbar sind durch andere nationale Gruppen (und Konkurrenz gibt es da denke ich genügend in den Lebenswissenschaften oder Festkörperphysik), dann muss die Uni aus eigenem Budget Teile der Fördermittel zurückzahlen.

    Die Frage ist eher warum das nicht gemacht wird. Jan Hendrik Schön wurde irgendwann rausgeschmissen aus der Community, als seine Ergebnisse nicht reproduziert werden konnten. Marc Hauser in Harvard auch. Das sind allerdings nicht mehr als Feigenblätter gewesen. Haften die Universitäten nicht dafür, dass Sie solche Leute einstellen und ermuntern mit global praktizierrten publish or perish, ändert sich nix.

    Das könnte aber die Abwägung sein, solche Fälle werden einfach in Kauf genommen genauso wie die Ressourcenverschwendung, weil summa summarum die Wahrscheinlichkeit größer für wiss. Durchbrüche ist, allerdings auch das Risiko Gelder zu verbrennen, wenn man mit der Gieskanne fördert und nicht all zu stark regelementiert.

    Eine Analogie ist die US-Startup Szene, man weiss dass ein Großteil der geförderten Startup Bankrott gehen, ich meine mich an Zahlen von 90% zu erinnern. Jetzt ist Wissenschaft oder eine AG nicht das selbe wie ein Startup, aber näher daran als an einer Detektei z.B. die nur an der Wahrheit interessiert ist. Die AG will sich auch verkaufen, damit sie Gelder bekommt.

    Ich finden den Punkt mit den Core-Facilities auch entscheidend, ich habe den Eindruck viele FH sind zentraler von Infrastruktur und Kosten effizienter gemanagt als die meisten Unis. Jede Gruppe mit eigenen Elektronenmikroskop oder AFM. So was findet man nur in Deutschland oder eben 3 Autos vor dem Eigenheim. Sowas shceint mir typisch urdeutsch, auch der Hang zum Dr., vor allem dem Dr. med ist ein Grund für Reproduktionskrise, wenn für letzten oft nur Daten anderer ausgewertet werden und man in 6-12 Monaten einen Schmalspur Dr. bekommt. Vroniplag ist voll von med. Dissertationen.

    Es gibt viele Ansatzpunkte, aber der obige der Fördermittelrückzahlung ist der einzig viable. Mit Corona gibts ne Chance, dass vielleicht mal ein paar der Etnscheider in den Verwaltung und Controlling bei den Unis und Fördermittelgebern darüber nachdenken (müssen)

    • #8 Christian Meesters
      3. Januar 2021

      Da ist viel dran, allerdings ruft

      Ein einfacher Ausweg aus der Reproduktionskrise wäre bei geförderten Projekten Gelder zurückzufordern, wenn sich Ergebnisse später nicht reproduzieren lassen.

      nach etwas Differenzierung: Unser Rechtssystem kennt international weitgehend Unterschiede zwischen Absicht, (grober) Fahrlässigkeit und Pech als Verursacher. Damit will ich keineswegs kleinreden: Da wo unser aller Gesundheit und Sicherheit oder auch “nur” menschl. Erkenntnis auf dem Spiel stehen und öffentliche Gelder eingesetzt werden, darf erhöhte Sorgfalt erwartet werden. Doch die Ursachen der Krise sind vielfältig, sehr vielfältig und nicht alle PIs, die lässliche Fehler übersehen sind zu verdammen. Doch ja, zu oft wird billigend Schrott in Kauf genommen und die Paper zeigen p-Hacking oder augenfällige Formulierungen, dass trotz p-Hacking man nicht unter den ersehnten doch sinnfreien Threshold kam (z. B. “not absolutely significant but very probably so” für einen p>0.05). Da sind wir schon bei einer anderen Seite der Medaille: Wenn eine Hypothese verworfen werden muss bzw. die statistische NULL-Hypothese nicht verworfen werden kann, wäre es dann nicht besser zu publizieren, weil das einen echten Erkenntnisgewinn liefert? Reprodzierbar ist so eine Studie wohl wahrscheinlich nicht, aber sie böte einen echten Erkenntnisgewinn.

  5. #9 Michael Kuhn
    3. Januar 2021

    @ #8

    Die Ausreden für Sorgfaltseinbußen kann ich nicht nachvollziehen. Ich erwarte von jedem Doktoranden, dass er sein Ergebnis zumindest einmal intern reproduziert hat, wenn die Forschungsmethodik und interne Revision des Professors darauf nicht ausgelegt ist, ist die Forschung sowieso für die Tonne. (ja, ich weiss, dass selbst dieses unverhandelbare Minimum kein Standard ist, nicht mal in harten Laborwissenschaften wie der Physik oder der Prof. zu lax dies prüft und manchmal erst die Ergebnisse in einem Paperentwurf zum ersten Mal sieht, genau hier fußt aber die Reproduktionkrise). Ein Universität haftet letztendlich für einzelne Betrüger die weder Sie oder der Prof. nicht verhindern kann, tut VW ja auch für die paar Ingenieure im Übrigen, nur weil man Wissenschaftler ist soll man sakrosankt sein? Verstehe ich nicht und ist nicht mein Berufsverständnis.

    Der zweite Punkt den sie bringen ist doch gerade der interessante und wie der sich ändern würde mit Rückzahlungsnotwendigkeit von Forschungsgeldern. Es gibt keine renommierten Journale in denen Fails oder Falsifizierungen publiziert werden können, obwohl Falsifikation das wissenschaftstheoretische Prinzip der Forschung ist, in Praxis ist unsere Forschung zu 99% positivistisch, obwohl dies keiner systematischen Dissertation entspricht. Der Doktorand forscht, macht Fehler, probiert Ideen die nicht funktionieren, aber kann am Ende nur veröffentlichen was Erfolg hatte und den Erkenntnis-Horizont der Community durchstösst. Ohne seine Fehler oder das was nicht funktioniert hat wäre er oder sein Team aber niemals zum Erfolg gekommen.

    Müssten Fördermittel zurückerstattet werden, könnte eine Kultur der Publikation von Fehlhypothesen entstehen evtl. Und wie oft ist Forschung/Hypothesen erfolgreich? In 1-10% der Fälle schätze ich, ähnliche Größenordnung wie bei Startups. Mit dem gewichtigen Unterschied, dass die Forschung öffentlich finanziert wurde und es eine enorme Ressourcenverschwendung wäre, wenn die unveröffentlichten Fehler jemand anders wiederholen muss (womöglich mit neuen Fördergeldern) Kein Investor ist so dumm 2x die gleiche Startup-Idee zu unterstützen. Man könnte das System zuerst mal pilotmässig so starten, dass nur DFG oder BMBF-Projekte die Gelder zurückzahlen müssen. Natürlich muss man sich Details überlegen wie Schiedsgerichte oder wann etwas als nicht reproduzierbar gilt.

    Die Frage für mich ist aber eher, wieso werden solche Konzepte nicht einmal diskutiert bei Reproduktionsquoten von unter 30% in der Biomedizin? Viel schlechter kann es nicht mehr werden. Beim einzelnen Wissenschaftler und dessen Fach/Verhaltne anzusetzen ist sinnlos, nur die Rahmenbedingungen eines komplexen Systems können etwas im System ändern. Selbst der Peer Review ist keine solche Rahmenbedingung noch ein Institution, da lediglich ein stark variabler Prozessschritt im System je nach Journal, dessen Verbesserung (mehr/bessere Reviewer) sich nicht fundamental und zeitlos auf das System und den einzelnen Doktoranden auswirken kann (da die Publikationen oft man Ende der Dissertation entstehen, wenn es zu spät ist)

    Wenn man ein System verändern will von dieser Komplexität, ist die Frage wie man das einleitet und überführt fast noch wichtiger als das Ziel.

    • #10 Christian Meesters
      4. Januar 2021

      Ich erwarte von jedem Doktoranden, dass er sein Ergebnis zumindest einmal intern reproduziert hat, wenn die Forschungsmethodik und interne Revision des Professors darauf nicht ausgelegt ist, ist die Forschung sowieso für die Tonne.

      Wenn es um Experimente mit stochastischem Einfluss geht, die lange dauern, würde die Zeit zur Wiederholung einer Dissertation nicht nur eine weitere Zeit hinzuschlagen, die im Zweifel einer Verdopplung gleichkommt, sondern auch eine zusätzliche(!) Zufallskomponente (und bei kleinem Effekt, laufen die Leute dann Gefahr, dass die Natur sagt: “Schön gearbeitet, aber keinen Doktorgrad!”) . Vielfach aber sind Dissertationsprojekte nicht basierend auf Experimenten. Beispielsweise können Dissertationen oder Teile davon Teil einer Multicenterstudie sein. Die vor ihrer Publikation zu reproduzieren ist ein Ding der Unmöglichkeit. Das Mittel gegen mehr Bullshit und Bias bei Studien sind registrierte Studien (und Ähnliches) und der Zwang zur Veröffentlichung unabhängig vom Resultat – und der Zwang bei der Registrierung bereits die notwendigen statistischen Überlegungen (z. B. Stichprobengröße) einfliessen zu lassen. Den Zwang dazu gibt es bereits teilweise: Ist ja nicht so, dass sich gar nichts zum Besseren bewegt. Und es ist auch nicht so, das es nur das eine Gebiet gibt, mit der einen zu bekämpfenden Ursache. Was ich sagen will nochmal deutlich: Es gibt Fälle in denen man erwarten kann, dass das Experiment wiederholt wird und Fälle in denen es nicht erwartet werden kann oder gar unmöglich ist.

      Insgesamt wird eine (hypothetische) Lösung der Reproduzierbarkeitskrise in der Medzin beispielsweise die Notwendigkeit von Metaanalysen nicht beseitigen. “Reproduzierbarkeit” ist wichtig, sollte man aber semantisch nicht überladen: Es bedeutet nur selten, dass ein Befund 100%ig genau in Stein gemeisselt werden muss, um einen Erkenntnisgewinn zu erlangen. Gerade bei den angeklungenen klinischen Studien ist die Hypothese i.d.R. dass der Effekt klein ist oder in einem Stratum der Stichprobe nicht vorhanden sein wird oder oder oder …

      Bzgl. Betrugsverhalten bin ich durchaus der Meinung, dass es Nachforschungen bedarf. Ja, es gab die krassen eindeutigen Fälle und die wird es immer wieder geben. Da ist es skandalös gewesen, dass die Institutionen i.d.R. zu spät und zu lasch handelten. Das gegenwärtige Ombudssystem ist wahrscheinlich zu träge, um beim Betrugsfall hinreichend zu sein und dennoch gilt es zu differenzieren: Haben Kollegen beispielsweise auf den Betrug hingewiesen? Wie offensichtlich ist der Fall? Wie lange wurde vertuscht? etc. etc. Einem Betrug aufzusitzen ist immer unangenehm. Im Strafrecht gibt es jedoch a) eine Unschuldsvermutung (analog ist nicht jede Institution und nicht jeder ihrer Vertreter gleich mit haftbar, man sollte ihr / ihnen Fehlverhalten im konkreten Fall nachweisen) und b) gibt es unterschiedliche Schwere des Verhaltens seitens der Institution und des eigentlichen Betrügers.

      Es gibt keine renommierten Journale in denen Fails oder Falsifizierungen publiziert werden können

      Das stimmt nicht – und es gäbe noch mehr Beispiele und Beispiele dazu, dass solche Ankündigungen auch umgesetzt werden. Es werden außerdem mehr Journals, die sich mit der Frage auseinandergesetzt haben und sich entschieden, dass es so nicht weiter gehen kann und entsprechende Guidelines implementieren. Eine GWAS kann man quasi ohne Replikat gar nicht unterbringen. Zum Glück ist dieser Blog nicht allein in seinem Kampf, auch wenn die Titelzeile mit Don Quijote-Anspielung aufwartet 😉

      Ja, es muss systemisch angesetzt werden. Ja, es muss auch beim Geld angesetzt werden. Wird es auch manchmal. Sollte häufiger geschehen. Aber bitte: nicht alles über einen Kamm scheren zu wollen ist keine Ausrede für Sorgfaltseinbußen.

  6. #11 echt?
    4. Januar 2021

    Ressourcen schonen?

    Hm, warum bilden wir dann so viele Biologen aus, obwohl die entsprechende Nachfrage nicht vorhanden scheint? Z. B.: https://www.academics.de/ratgeber/biologie-berufsaussichten

    • #12 Christian Meesters
      4. Januar 2021

      Auch ein Thema – aber ein anderes.

  7. #13 echt?
    4. Januar 2021

    Das ist natürlich richtig. Ich würde mich aber freuen, wenn es bei Scienceblogs mal eine Diskussion darüber geben sollte. Im Übrigen sind die angeführten Missstände nicht auf die “Naturwissenschaften” beschränkt. Dies ist besonders kritisch, da z.B. bei den Ingenieuren teilweise Bemessungsnormen auf den veröffentlichten Versuchsergebnissen aufsetzen.

    Solange eine Veröffentlichung keine fehlgeschlagenen Versuche mit dokumentiert, ist mein Glauben ohnehin gering. Jede Laborratte weiß doch, dass, zumindest am Anfang, immer etwas schief geht.

    • #14 Christian Meesters
      4. Januar 2021

      Ich würde mich aber freuen, wenn es bei Scienceblogs mal eine Diskussion darüber geben sollte.

      Da werde ich mich nicht wehren. Ich möchte bloß, das Threaddiskussionen nicht zu meta werden.

      Im Übrigen sind die angeführten Missstände nicht auf die “Naturwissenschaften” beschränkt.

      Völlig korrekt. Ich lese gerade ein Buch in dem Psychologie, Neurologie und andere med. Disziplinen im Fokus stehen (wird sicher mal vorgestellt). Je mehr jedoch der Schwerpunkt von Naturwissenschaften (ich fühle mich kompetent genug dieses Problem bei allen Naturwissenschaften nachzuvollziehen) driftet, desto inkompetenter werde ich. *wink*

      Solange eine Veröffentlichung keine fehlgeschlagenen Versuche mit dokumentiert, ist mein Glauben ohnehin gering. Jede Laborratte weiß doch, dass, zumindest am Anfang, immer etwas schief geht.

      Als Ex-Laborratte sage ich dazu nur: Nee, meine stümperhaften Gehversuche am Anfang muss ich nicht der Allgemeinheit preisgeben. Wenn ein Gel nicht läuft, weil der Puffer murks ist, kann ich den beim nächsten Mal neu mischen und es funzt. Die Reproduzierbarkeitskrise wird nicht dadurch verstärkt, dass nicht in jedem 2. Paper steht: Unser Anfänger konnte hat die ersten sechs Wochen folgende Fehler gemacht 1. 2. 3. … .

      Wichtig ist, wenn ein Labor eine für das Labor neue Methode etabliert zu protokollieren in welchen Punkten man von der Originalpublikation abweicht (und das auch zu publizieren). Bei Methodenveröffentlichungen ist besondere Sorgfalt zu erwarten. Die Forderung sollte nicht sein Trivialitäten zu protokollieren, sondern Abweichung von der Erwartung und methodisch sorgfältig zu protokollieren. Ein Klassiker sind die Anfänge der PCR, wo Mg2++ vergessen wurde. So ETWAS ist wichtig auch allen im Feld mitzuteilen. Und wenn am Anfang Pitfalls bemerkt werden, schaden entsprechende Anmerkungen im Paper nicht. Ist ja klar.

  8. #15 Frank Wappler
    4. Januar 2021

    Christian Meesters schrieb (3. Januar 2021):
    > […] umsonst durchgeführte Experimente:
    > [Zum Beispiel:] Weil […] das Scheitern unabwendbar ist (niemand hat das längst bekannte Negativresultat publiziert);

    Der Wertebereich einer bestimmten, nachvollziehbaren experimentellen Methode (zur Sammlung und Bewertung von Daten) ist von vornherein definiert;
    alle gültigen Ergebnisse, die sich durch Anwendung dieser Methode überhaupt ermitteln ließen, liegen unabwendbar im betreffenden Wertebereich.

    Ob jeder Wert des Wertebereiches einer bestimmten, nachvollziehbaren experimentellen Messmethode ausschließlich als “Negativresultat” zu klassifizieren ist, oder nicht, lässt sich deshalb ggf. von vornherein aus der Definition der Methode folgern; aber nicht aus der Angabe von Resultaten bisheriger Versuche.

    > [Oder zum Beispiel] weil man eine Methode anwendet, die so nicht funktionieren kann (ups, da fehlte wohl ein Detail in der Originalpublikation)

    Die Anwendung einer experimentellen Methode, die nur eine Teilmenge der (Datensammlungs- oder Auswertungs-)Schritte einer anderen (“vollständigen”) umfasst, und die deshalb (z.B.) ausschließlich zu Ergebnissen führt, die hinsichtlich der (mutmaßlichen) “vollständigen Methode” ungültig sind, kann trotzdem an und für sich gültige Ergebnisse haben. Die entsprechend durchgeführten Versuche sind dahingehend doch nicht umsonst.

    Die unvollständige Darstellung experimenteller Methoden widerspräche allerdings dem wissenschaftlichen Grundsatz:

    Wir müssen mitteilen können, was wir fragen und was wir tun wollen — und zwar mit Begriffen, über die alle von vornherein verfügen, die uns (einschl. sich selbst) gewissenhaft fragen könnten, was zu fragen und was zu tun sei — damit anschließend wenigstens vergleichbar ist, was wir getan und was wir gelernt haben.

    • #16 Christian Meesters
      4. Januar 2021

      Die wesentliche Aussage, die ich lese, ist: Es kann nicht sein, was nicht sein darf. Mein Tenor allerdings war/ist: Es sollte nicht sein, was den Gemeinschaftsgrundsätzen widerspricht, weil das hat weitreichende Konsequenzen.

      Die Anwendung einer experimentellen Methode, die nur eine Teilmenge …

      Ja schon, es kommt aber vor, dass eine Methode schlicht nicht anzuwenden ist, weil die Original- oder Referenzpublikation schlicht nicht alle notwendigen Information liefert.

  9. #17 Frank Wappler
    4. Januar 2021

    Christian Meesters schrieb (#16, 4. Januar 2021):
    > Die wesentliche Aussage, die ich [im Kommentar #15] lese, ist: Es kann nicht sein, was nicht sein darf.

    Dieser äußerst knappen Auslegung meines obigen Kommentars möchte ich zumindest noch ein ausdrückliches (und trotzdem knappes) “tl;dr” entgegensetzen:

    Der Wertebereich eines Messoperators erschließt sich nicht aus der Kenntnis lediglich eines Messwertes (z.B. “des Negativresultats”); auch dann nicht, falls dieser eine Wert in bisherigen Versuchen ausschließlich gefunden wurde.

    (Vereinbarkeit dieser Ansicht mit eventuellen “Gemeinschaftsgrundsätzen” ist der betreffenden Gemeinschaft jedenfalls zu wünschen.)

    > […] dass eine Methode schlicht nicht anzuwenden ist, weil die Original- oder Referenzpublikation schlicht nicht alle notwendigen Information liefert.

    Die Anwendung einer konkret beschriebenen Messmethode wird nicht dadurch verhindert, dass durch Hinzunahme mutmaßlicher weiterer Information eine andere Messmethode beschrieben würde. Um mutmaßliche Information, die konkret gar nicht gegeben ist, als “zur Anwendung einer Messmethode notwendig, aber fehlend” einzuschätzen, müsste man sich auf eine Messmethode beziehen, die noch gar nicht konkret beschrieben wurde.

    • #18 Christian Meesters
      5. Januar 2021

      Ich hätte nicht “Methode” schreiben sollen – eher “Rezept”. Offenbar kommen wir aus unterschiedlichen Disziplinen und ich habe Dinge in einen Topf geworfen, die da nicht hinein gehören.

  10. #19 Lercherl
    4. Januar 2021

    @Christian Meesters

    Die Forderung sollte nicht sein Trivialitäten zu protokollieren

    Hier sieht man schön den Unterschied zwischen Forschung und Industrie. In einer stark regulierten Industrie wie der Pharmaindustrie gewöhnt man sich sehr schnell an, auch Trivialitäten zu protokollieren. Mir hat ein Kollege aus einer Pharmafirma erzählt, dass sie sich bei einem Audit ein Finding eingehandelt haben, weil sie es unterlassen haben, in der SOP für irgendeinen Herstellungsprozess zu vermerken, dass der Ausführende bei einem bestimmten Schritt auf eine Leiter steigt.

    • #20 Christian Meesters
      5. Januar 2021

      *BG*
      Vielleicht sollte ich “Trivialität” definiert haben? Na ja, so eine Diskussion im Thread fliegt ja auf einem anderen Niveau als unter Kollegen. Den Leiterschritt hielte ich in dem Sinn für trivial, muss im Zweifel nicht dokumentiert werden. Nur, wo hören die Trivialitäten auf? Ich gebe zu: Da öffnen sich Abgründe.

  11. #21 Frank Wappler
    5. Januar 2021

    Christian Meesters schrieb (5. Januar 2021):
    > Ich hätte nicht “Methode” schreiben sollen – eher “Rezept”.

    Die Befolgung eines konkret gegebenen Rezeptes wird doch nicht dadurch verhindert, dass durch Hinzunahme mutmaßlicher weiterer Zutaten und/oder Zubereitungsschritte ein anderes Rezept gegeben wäre. …

    Aber, zugegeben: das bezieht sich auf nur eine spezielle mögliche Interpretation von “fehlenden Details”. Schließlich sind auch Wortgirlanden denkbar, denen so viele “Details fehlen”, dass sie überhaupt nicht als Rezept bzw. (Mess-)Methode erkennbar und mithin auch nicht befolgbar bzw. anwendbar wären.

    p.s.
    > Offenbar kommen wir aus unterschiedlichen Disziplinen

    Durchaus möglich. Mein Interesse gilt im Wesentlichen den Experimentalwissenschaften und vor allem deren wissenschaftstheoretischer Grundlegung bzw. Disziplinierung.