Es wäre hier nicht der Platz, um über die Bedeutung der Strömungsmechanik und insbesondere der Navier-Stokes-Gleichung in der nicht-numerischen Mathematik zu schreiben. Eine neue Entwicklung, über die sogar Tageszeitungen wie Der Standard ausführlich berichteten, ist der im März auf dem ArXiv erschienene Preprint „ Hilbert’s sixth problem: derivation of fluid equations via Boltzmann’s kinetic theory“ von Yu Deng, Zaher Hani und Xiao Ma, in dem die kompressible Euler- und inkompressible Navier-Stokes-Gleichung rigoros aus Boltzmanns kinetischer Theorie für elastische Stöße von Systemen harter Kugeln hergeleitet werden.
Supercomputer
Es wäre ein Thema für einen eigenen Artikel, den Einfluss der Klimaforschung auf die angewandte Mathematik und insbesondere die numerische Strömungsmechanik der letzten Jahrzehnte zu erörtern. In Deutschland erhielt beispielsweise 2003 Rupert Klein den Leibniz-Preis für seine Arbeiten zur angewandten und numerischen Mathematik: “ Von seinen gegenwärtigen Arbeitsschwerpunkten in Potsdam ist die Herleitung völlig neuartiger Mehrskalen-Modelle für die tropische Meteorologie hervorzuheben. Diese Modelle beschreiben die Wechselwirkung mesoskaliger Wolkenbildung und Konvektion mit Gravitations- und Schwerewellen. Dies kann für die Wettervorhersage und Klimaforschung wichtig sein. In der Atmosphäre spielen das hydrostatische und geostrophische Gleichgewicht je nach betrachteten Längenskalen eine zentrale Rolle. Für die Wettervorhersage interessieren aber die Abweichungen von diesen Gleichgewichten.“ (aus der Begründung auf der Webseite der DFG)
Laut dem Wikipedia-Artikel “Wettervorhersage” ist heute die Wettervorhersage ohne leistungsfähige Rechner undenkbar, in den 1950er und 1960er Jahren sei die Meteorologie die treibende Kraft hinter dem Bau der ersten Supercomputer gewesen. Von der Computertechnik her interessant sei, dass bei der Wetterprognose die identischen Rechenschritte unzählige Male ausgeführt werden müssen – nämlich für jedes der Kompartimente einmal. Somit eigneten sich Parallelrechner, welche Operationen gleichzeitig (parallel) anstelle nacheinander (seriell) durchführen, besonders für die Wettervorhersage. Da aber die Geschwindigkeit der einzelnen Computer-Prozessoren seit den 2010er Jahren kaum noch erhöht werden könne, verfügten die leistungsfähigsten Computer der Welt ohnehin über Tausende von Prozessoren bzw. Prozessorkerne, die gleichzeitig an denselben Aufgaben rechnen.
Ebenfalls laut dem Wikipedia-Artikel wurde die Bedeutung von Supercomputern und einer ausreichenden Datengrundlage durch den Hurrikan Sandy (2012) unterstrichen: „Während der amerikanische National Weather Service auf einem Rechner verschiedene Prognosemodelle betrieb, besaß das europäische ECMWF ein leistungsfähigeres Rechenzentrum, welches nur mit einem Modell arbeitete. Während das ECMWF bereits sieben Tage vorher – und mit geringer Irrtumswahrscheinlichkeit – prognostizieren konnte, dass der Hurrikan aufs amerikanische Festland stoßen wird, hielt das Modell des NWS dies für unwahrscheinlich. Dank dem besseren ECMWF-Modell konnte die Katastrophenwarnung wesentlich früher herausgegeben werden, allerdings haben spätere Berechnungen gezeigt, dass das ECMWF-Modell ohne die Daten der polaren Wettersatelliten zum selben Ergebnis wie der NWS gekommen wäre.“
Offensichtlich sind die numerischen Berechnungen nicht möglich ohne die Unmengen an Meßdaten, die täglich rund um den Globus erhoben werden. Es ist natürlich immer eine politische Entscheidung, welche Konsequenzen man aus den Messungen und den daraus berechneten Prognosen der Klimaforschung zieht. Man kann sich, wenn eine demokratisch legitimierte Mehrheit das so möchte, natürlich auch dafür entscheiden, Überschwemmungen, Dürren und Hurrikane als Preis für die weitere Verwendung fossiler Brennstoffe einzupreisen und mit diesen Folgen irgendwie fertigzuwerden. Absurd ist aber, wie es aktuell offensichtlich angestrebt wird, die Messung von Wetter- und Klimadaten und damit die auf diesen aufbauenden Prognosen zu unterbinden.
Aktuelles Beispiel (Präsidentendekret vom 23. Juni) ist die Kürzung fast aller Gelder für die US-Atmosphärenbehörde NOAA, womit voraussichtlich die Messstation auf dem Mauna Loa in Hawaii geschlossen werden muss und damit die längste kontinuierliche Zeitreihe an CO2-Messungen (laufend seit 1958) unterbrochen würde.
Viele andere Messungen dürften von den dekretierten Kürzungen betroffen sein. Jochem Marotzke, Direktor des MPI für Meteorologie, nennt im Interview auf https://www.mpg.de/24345005/klimaforschung-usa-trump-regierung das Messprogramm Argo, „das für die Klimaforschung sehr wichtig ist. Es wurde von zwei US-Wissenschaftlern initiiert und zu mehr als 50 Prozent von den USA finanziert – durch NOAA. Es geht um 4200 Bojen, die durch die Ozeane driften und den Wärmeinhalt des Meeres messen. Mit der Temperatur an der Erdoberfläche, den Niederschlagsmengen und dem Meeresspiegel ist das eine der wichtigsten Größen im Klimasystem, weil über 90 Prozent der Energie, die durch den menschengemachten Treibhauseffekt im Erdsystem zurückgehalten wird, in die Ozeane geht. Wenn es NOAA jetzt an den Kragen geht, ist Argo in höchster Gefahr, weil die Bojen alle fünf Jahre ausgetauscht und jedes Jahr etwa 800 neue ausgesetzt werden müssen. Man kann sich aus rein ökonomischen Gründen durchaus fragen, warum die USA über 50 Prozent übernehmen müssen. Aber das ist ein Beispiel dafür, wie entschlossen die USA lange auch in der Klimaforschung die Führungsrolle übernommen haben und wie bewundernswert viel da investiert wurde.“
Kommentare (8)