Analysiert man empirisch, wie sich neue Theorien durchgesetzt haben, so ist auch da das Poppersche Falsifikations-Kriterium nicht immer erfüllt – neue Theorien stehen oft auch mit einigen Experimenten in Widerspruch, was oft daran liegt, dass in einer ersten Theorie noch nicht alle Effekte enthalten sind. In der Anfangszeit der Quantenmechanik konnte man beispielsweise zwar die Spektrallinien des Wasserstoff-Atoms erklären, nicht aber deren Aufspaltung in der sogenannten Feinstruktur (ich verweise auf die englische Seite, weil die deutlich ausführlicher ist). Erst als man auch relativistische und andere Effekte berücksichtigte, ließen sich die Spektrallinien im Detail verstehen. Streng genommen war damit nach Popper die Quantenmechanik in ihrer Anfangszeit genau so falsifiziert wie das alte Bohrsche Atommodell – es gab Beobachtungen, die der Theorie widersprachen, das sollte es eigentlich gewesen sein.
Ähnlich war es mit der Newtonschen Mechanik – auch die besten Berechnungen des 19. Jahrhunderts konnten die berühmte Periheldrehung des Merkur nicht vollständig erklären. (In vielen populärwissenschaftlichen Büchern steht, dass es nach Newton gar keine Periheldrehung geben dürfte, das ist aber falsch, weil der Einfluss der anderen Planeten eine Rolle spielt. Nur ein Teil der Periheldrehung kommt durch Effekte der Allgemeinen Relativitätstheorie zu Stande.) Natürlich suchte man aktiv nach Erklärungen (beispielsweise dem Planeten Vulkan), aber niemand kam auf die Idee, wegen dieser Unstimmigkeit gleich die ganze Theorie zu entsorgen.
Und das ist auch ganz richtig so. Eine Theorie ist um so besser, je mehr Beobachtungen sie mit möglichst wenig Annahmen erklären kann. Ein simples richtig-falsch ist gerade in der Physik nicht angemessen, und auch heute rechnen wir die meisten Probleme ohne Skrupel mit der falschen Newtonschen Theorie.
Wikipedia schreibt zur Kritik an Popper
In beiden Bereichen [Wissenschaftstheorie und Praxis] bestehen nach wie vor induktivistisch-empirizistische Bestätigungspositionen, heute gemeinhin mit bayesianistischen Wahrscheinlichkeitstheorien der Induktion verbunden, die allerdings häufig in der Terminologie Poppers umformuliert vertreten werden.
In dem Verweis auf Bayes kommt mathematisch das zum Ausdruck, was ich eben schon gesagt habe: Eine Theorie, die durch zahlreiche Beobachtungen gut bestätigt ist, wird durch einzelne unerklärbare Phänomene nicht gleich widerlegt – es ist wahrscheinlicher, dass das unerklärte Phänomen doch noch eine plausible Erklärung findet als dass gleich die ganze Theorie Mist ist. (Trotzdem wird natürlich aktiv nach der Erklärung ungelöster Fragen gesucht, wie beispielsweise bei der berühmten Pioneer-Anomalie, die lange zeit Rätsel aufgab.)
Ihr seht also, dass das strikte Poppersche Kriterium “Eine Beobachtung, die der Theorie widerspricht, macht die Theorie zunichte” nicht unbedingt so einfach umzusetzen ist. Wendet man das Poppersche Kriterium auf sich selbst an (was natürlich problematisch ist, weil die Philosophie selbst keine empirische Wissenschaft ist), dann ist das Kriterium also falsifiziert.
Aber: Wissenschaft besteht ja vor allem in der täglichen Arbeit im Labor oder am Computer. Und da leistet die Idee der Falsifikation manchmal durchaus gute Dienste. Jürgen hat neulich ja auch gezeigt, wie sehr wir dazu neigen, unsere Ideen lieber zu bestätigen als zu widerlegen. Und um sich davor zu schützen, ist es hilfreich, die Idee der Falsifizierbarkeit immer im Hinterkopf zu haben.
Statt also noch weiter theoretisch zu überlegen, was es mit der Falsifizierbarkeit auf sich hat, schauen wir einfach mal ein paar Beispiele aus meiner täglichen Forschungspraxis an und gucken, in wie weit sich das Konzept “Falsifizierbarkeit” hier niederschlägt. (Dabei ist natürlich extreme Vorsicht geboten: Ich analysiere hier meine eigenen Denkprozesse, zum Teil auch solche, die schon länger zurückliegen – es ist also durchaus möglich, dass ich hier einer gewissen Selbsttäuschung unterliege.)
Vor etwas mehr als 10 Jahren habe ich mich ziemlich intensiv mit der Simulation von Spanprozessen beschäftigt, also der Frage, was in einem Werkstoff passiert, wenn man ihn bohrt, fräst oder dreht (nein, nicht einfach rumdrehen, sondern Drehen auf einer Drehbank und dabei mit einem Werkzeug Material abheben). Mich interessierten – ich kann meine Herkunft als Theoretikerin eben nicht leugnen – vor allem grundlegende Fragen: Welche Materialeigenschaften haben welchen Einfluss auf den Prozess. Irgendwann fiel mir auf, dass man in der Literatur nichts zu der Frage findet, wie genau die Wärmeausdehnung eigentlich so einen Prozess beeinflusst – immerhin werden die Materialien ganz schön warm, da schien es mir auf den ersten Blick plausibel, dass eine ungleichmäßige Wärmeausdehnung Spannungen erzeugt, die auch den Prozess beeinflussen. Vor allem war es so, dass in meinen Simulationen die entstehenden Späne deutlich stärker gekrümmt waren als man das im Experiment beobachtet – andere Simulationen in der Literatur zeigten ein ähnliches Phänomen. Konnte das an der Wärmeausdehnung liegen?
Kommentare (25)