Wie die Models auf den Modenschauen so demonstrieren die Modelle in den Wissenschaften, was möglich und was machbar ist – und hier wie da gibt es einen Unterschied zwischen der schönen Welt der Models und der wirklichen Welt des Alltags.

Modelle spielen in den Wissenschaften eine große Rolle und sie werden offenbar für sehr verschiedene Zwecke gebraucht. Blättert man in wissenschaftlichen Journalen, begegnet einem der Begriff „Modell” auf Schritt und Tritt, aber er scheint fast jedes Mal eine andere Bedeutung zu haben. Drei Beispiele aus verschiedenen Disziplinen sollen das zunächst illustrieren:


In der neuesten nature-Ausgabe beschreibt Shinya Yamanaka Modelle für die induzierte Herstellung von pluripotenten Stammzellen (nature 460, 02.07.2009, Seite 49-52). Die Modelle sollen die geringe Effizienz des Verfahrens erklären. Bei einem der drei, dem stochastischen Modell, wird ein Bild verwendet, das auch schon 1957 als Modell für die Ausdifferenzierung der Zellen benutzt wurde: Die Zellen verhalten sich dabei wie „Bälle” in einer „epigenetischen Landschaft” in der sie mehr oder weniger zufällig in die Täler rollen – oder eben, bei der Herstellung der pluripotenten Stammzellen, durch die reprogrammierenden Faktoren wieder die Berge hinaufgetrieben werden (man könnte sich nach diesem Modell das Herstellen der Stammzellen wie das Betätigen eines Flipperautomaten vorstellen, bei dem die Flipperhebel und Plunger den reprogrammierenden Faktoren entsprechen).

In der nature vom 28. Mai untersuchten Feher u.a. die „Lied-Kultur von Zebrafinken” als Kultur-Modell für die Herausbildung lokaler Dialekte und Grammatik-Besonderheiten im menschlichen Sprachen (nature 459, 28.05.2009, Seite 564-567) Die Vögel dienten als Modelle in Experimenten um Prozesse beim Menschen zu verstehen, mit denen man natürlich entsprechende Experimente nicht durchführen kann.

Die Ergebnisse von Klima-Modellen, die Szenarien für die globale Erwärmung und deren Folgen berechnen, spielen in fast jeder zweiten nature-Ausgabe eine Rolle. So untersuchten z.B. Malte Meinhausen u.a. die Wahrscheinlichkeiten, dass bei verschiedenen Raten von CO2 Ausstoß das Ziel einer globalen Erwärmung von 2 °C erreicht wird, mit einem gekoppelten Klima-Kohlenstoff-Modell. Solche Modelle sind Computer-Simulationen, in denen eine große Zahl theoretisch verstandener Zusammenhänge in einem mathematischen Modell zusammengeführt werden, um den gemeinsamen Effekt auf die Veränderung bestimmter Größen zu ermitteln.

Die drei Beispiele zeigen: Modelle können in der Wissenschaft sehr verschieden aussehen.

Drei Modellarten

Es kann sich um reine Gedanken-Modelle handeln, die vielleicht durch Skizzen auf Papier, mathematische Formeln oder bildliche Vergleiche visualisiert und kommuniziert werden. Sie dienen dann dazu, eine Hypothese zu formulieren, einen theoretischen Gedanken in Worte zu fassen. Für den Moment möchte ich diese Modelle theoretische Modelle nennen. Theoretische Modelle sind sozusagen die Entwurfsmuster des Wissenschaftlers, der eine Theorie entwickelt, um hier einmal einen Begriff aus der Software-Industrie auszuleihen.
Die Singvögel, an denen man Sprachausbildung studiert, sind ein Beispiel für ein experimentelles Modell. Die Forscher experimentieren mit realen Objekten, deren Eigenschaften überschaubar und kontrollierbar sind. Vögel kann man, während sie singen lernen, mit bestimmten anderen Vögeln zusammensperren – das geht aus ethischen Gründen mit Menschen nicht. Vor allem: Sie lernen das Singen viel schneller, als die Menschen das Sprechen, Beobachtungen über mehrere Generationen sind auf diese Weise möglich. Experimentelle Modelle sollen also immer bewusst auch Eigenschaften haben, die der wirklich interessierende teil der Welt (hier die Menschen, die sprechen lernen) nicht hat. Sie sollen sich z.B. schneller entwickeln, die Sprache soll einfacher strukturiert sein als die menschliche Sprache. Natürlich weiß man nie so genau, ob diese Unterschiede, die man bewusst in Kauf nimmt oder sogar braucht, nicht wesentlich sind für das beobachtete Phänomen, ob der Unterschied nicht genau der entscheidende ist und somit das ganze Modell nichts über das aussagt, wofür es „Modell steht”.

Das Computer-Modell nimmt in gewisser Weise eine Zwitter-Stellung zwischen dem theoretischen Modell und dem experimentellen Modell ein: Es ist eine (fast) getreue Umsetzung des theoretischen Gedankens, die den Vorteil hat, dass man wirklich mit ihr experimentieren kann. Nach dem stochastischen Modell für pluripotente Stammzellen kann man eine Computersimulation programmieren, die genauso funktioniert, wie das Modell vorgibt (man könnte statt dessen auch einen Flipper-Automaten umbauen, aber da kriegt man die Modell-Bedingungen nicht so gut abgebildet wie im Computer).

Auch beim Computer-Modell hat man das Problem, dass man nicht so genau weiß, welche Bestandteile der Theorie man wirklich braucht, bzw. welche Erkenntnisse unterschiedlicher Theorien zusammengeführt werden müssen. Durch Veränderung der Modell-Konfiguration kann man erkennen, welche Rückkopplungen, Nebenwirkungen oder Störungen für Abschwächungen oder Verstärkungen von Trends verantwortlich sein können.

Ein schönes Beispiel ist die Untersuchung der Kollisions-Trajektorien der Planeten von
Laskar und Gastineau
über die Florian Freistetter schon berichtet hat. Die Autoren berechneten die Entwicklung der Planetenbahnen zuvor ohne nun aber mit Berücksichtigung der Allgemeinen Relativitätstheorie und des Erdmondes und zeigten, dass sich für die Frage, mit welcher Wahrscheinlichkeit Planeten in den nächsten paar Milliarden Jahren miteinander kollidieren, gravierende Unterschiede ergeben.

Verstehen und erklären oder Vorhersagen

Es gibt also drei verschiedene Arten von Modellen in der Wissenschaft – theoretische und experimentelle Modelle – und als Zwitterstellung dazwischen die Computersimulationen. Es gibt aber noch eine zweite Dimension, nach der man wissenschaftliche Modelle beurteilen kann. Ihr Ziel kann es einerseits sein, einen Zusammenhang zu erklären oder andererseits eine Entwicklung zu prognostizieren, zwei Ziele, die sich im gewissen Maße gegenseitig ausschließen und deshalb auch ein ganz unterschiedliches Modell-Design verlangen.
Theoretische Modelle dienen meistens dazu, ein bestimmtes Phänomen zu erklären oder zu verstehen. Genau genommen liefern sie einen Erklärungsvorschlag, sie geben dem Wissenschaftler eine Vorstellung davon, wie er die Fakten ordnen kann, um ein Phänomen zu erklären oder wo er nach weiteren Fakten suchen kann, um zu einem Verständnis eines Prozesses zu gelangen. Mit dem Bild vom Gebirge, durch das eine Kugel rollt, im Kopf kann man nach den Kräften suchen, die bei der Stammzellen-Differenzierung der Gravitationskraft oder den Gegenkräften entsprechen, man kann nach den Gegenstücken für natürliche Hindernisse, Gräben und Erhebungen suchen.

Ähnlich ist es mit experimentellen Modellen. Das Zierfinken-Modell der Entwicklung einer Sprache kann helfen, Phänomene zu verstehen, aber wie sich eine bestimmte Sprache in Dialekten weiter ausdifferenzieren wird, lässt sich damit natürlich nicht vorhersagen.

In Computermodellen ist allerdings noch mehr möglich als in den beiden anderen Typen: Da die Wissenschaftler hier im Prinzip alle Wechselwirkungen, die ihnen aus den verschiedenen Theorien bekannt sind, einarbeiten können, ist es möglich, zu wirklichen Vorhersagen zu kommen, entweder, indem sie Szenarien durchrechnen und statistische Aussagen treffen wie es in den oben genannten Beispielen der Planetenbahnen und der Klima-Kohlenstoff-Modelle der Fall ist, oder indem mit den wirklichen Ausgangsbedingungen die weitere Entwicklung eines Systems berechnet wird – das machen jeden Tag die meteorologischen Rechenzentren für die Wetterentwicklung der nächsten Tage.

Solche Modelle sind dann allerdings fast genauso komplex wie die Wirklichkeit selbst, und die Möglichkeit, zu verstehen, warum sich ein Tiefdruckgebiet nun genau so und nicht anders bewegt, ist auf der Basis dieser Modelle kaum noch möglich. Man sieht also: Um einen Zusammenhang verstehen und erklären zu können, muss ein Modell möglichst einfach sein, aber ein Modell, mit dem man Prognosen machen kann, ist so komplex, dass man das, was es berechnet, genauso gut oder schlecht versteht, wie die Wirklichkeit selbst.