Der Drang nach Neuem ist wichtig. Trotzdem muss Zeit für die Reproduktion alter Ergebnisse bleiben.

Originelle neue Ideen sind in der Wissenschaft gefragt. Man muss weiter denken als die anderen, ausprobieren, was sonst noch niemand gewagt hat und spektakulär neue Daten erheben, über die alle Kollegen staunen. Diesen Drang zum Neuen schätze ich sehr, er hat uns in der Wissenschaft weit gebracht. Aber haben wir es damit vielleicht übertrieben?

Wenn man immer versucht, etwas Neues auszuprobieren, vergisst man nämlich eine ganz wesentliche Säule der Wissenschaft: Die Reproduzierbarkeit. Ein Ergebnis ist wissenschaftlich nur dann ernst zu nehmen, wenn sich das Experiment unter ähnlichen Bedingungen wiederholen lässt und dabei ähnliche Ergebnisse herauskommen. Wenn sich aber niemand mehr die Mühe macht, alte Ergebnisse zu reproduzieren, weil man unbedingt brandneue Ergebnisse haben will, dann hat man ein Problem.

Beispiel Attosekundenphysik

Gerade boomende Forschungsbereiche, die sich gerade rasant verändern, sind dafür anfällig, aufs Reproduzieren zu vergessen. Ein Beispiel dafür ist die Attosekundenphysik: In diesem faszinierenden Forschungsbereich versucht man mit extrem kurzen Laserpulsen, das Verhalten von Elektronen zu untersuchen. Mit Verfahren, die ständig weiterentwickelt werden, und die teilweise einen atemberaubenden Grad an Komplexität erreicht haben, kann man heute den Ablauf quantenphysikalischer Phänomene auf winzigen Zeitskalen untersuchen – bis zur Größenordnung von Attosekunden (10^-18 Sekunden).

Damit kann man zum Beispiel die Bewegung eines Elektrons im Atom analysieren, man kann einem Elektron dabei zusehen, wie es von einem elektrischen Puls aus dem Atom herausgerissen wird. Man kann das Zerbrechen eines Moleküls ansehen – aber das ist für die Verhältnisse der Attosekundenphysik schon beinahe ein langweilig langsamer Vorgang.

Die Konkurrenz zwischen den Forschungsgruppen, die solche Dinge messen können, ist enorm. Alle wollen in den besten Journalen publizieren, alle wollen bahnbrechend neue Ergebnisse vorzeigen um die Chance zu erhöhen, die nächste hochdotierte Forschungsförderung einzustreifen. Doch wer kontrolliert eigentlich die Ergebnisse, die vor zwei Jahren publiziert wurden? Wer stellt sein teures Laborequipment für eine Messung zur Verfügung, die gar nicht den Anspruch erhebt, neues Wissen zu generieren, sondern bloß alte Ergebnisse zu verifizieren? Das lässt sich in unserem hektischen Wissenschaftsbetrieb kaum machen.

Das mag verständlich sein, aber langfristig ist das gefährlich. Wenn sich in einem Forschungsgebiet wackelige Ergebnisse anreichern, wenn niemand mehr weiß, auf welche Daten man sich verlassen kann und auf welche nicht, dann wird irgendwann auch der Fortschritt stagnieren. Natürlich ist es spannend, im obersten Stockwerk eines Wolkenkratzers noch einen Sendemasten anzubringen und höher zu klettern als alle anderen. Aber wenn man nicht gleichzeitig ständig überprüft, ob das Fundament überhaupt ausreichend belastbar ist, dann stürzt irgendwann mal etwas zusammen.

Jedes Forschungsgebiet hat seine eigenen Traditionen, Sitten und Bräuche. Und auch das Problem der Reproduzierbarkeit ist in unterschiedlichen Forschungs-Communities ganz unterschiedlich ausgeprägt. In der Präzisions-Spektroskopie versuchen Leute, dieselben Atom- oder Molekülspektren immer genauer zu messen. Das ist ein Forschungsziel, in dem die Reproduktion bestehender Daten unvermeidlich ist. In Sozial- und Geisteswissenschaften hat man es mit der Reproduzierbarkeit natürlich schwerer – wie die Diskussion über Reproduzierbarkeit psychologischer Studien zeigt.

Alles bloß nachgemacht, und trotzdem ein Science-Paper

Dass es auch anders geht, zeigt ein Paper, das im Magazin Science erschienen ist. In einem riesengroßen Gemeinschaftsprojekt stellten sich zahlreiche Forschungsgruppen aus der ganzen Welt die Aufgabe, ihre Programmcodes zu vergleichen.

Es ging dabei um Dichtefunktionaltheorie – das ist eine äußerst mächtige Methode, mit der man quantenphysikalische Eigenschaften von Materialien berechnen kann. 1998 wurde der Physiker Walter Kohn für die Entwicklung der Dichtefunktionaltheorie mit dem Chemie-Noblepreis ausgezeichnet. Kohns Gleichungen fanden ihren Weg in Computerprogramme auf der ganzen Welt, überall werden die Formeln ein bisschen anders umgesetzt, manchmal baut man zusätzliche Vereinfachungen und Näherungen ein. Wenn am Ende zwei Programme unterschiedliche Ergebnisse liefern, obwohl sie beide auf der Dichtefunktionaltheorie beruhen, ist es oft gar nicht so einfach zu sagen, woran das liegt.

1 / 2 / Auf einer Seite lesen

Kommentare (2)

  1. #1 user unknown
    https://demystifikation.wordpress.com/2015/08/19/wissenschaft-in-theorie-u-praxis/
    April 20, 2016

    Wenn sich in einem Forschungsgebiet wackelige Ergebnisse anreichern, wenn niemand mehr weiß, auf welche Daten man sich verlassen kann und auf welche nicht, dann wird irgendwann auch der Fortschritt stagnieren.

    Die Forscher werden es vor allem merken und Fälschungen veröffentlichen, wenn man damit durchkommt.

  2. #2 MartinB
    April 21, 2016

    Danke, ich arbeite im Moment viel mit DFT, da ist das schon beruhigend.
    Der Artikelumbruch auf der zweiten Seite ist übrigens ziemlich unglücklich…