Letzte Woche wurde ich mal richtig von einem Paper überrascht und ich habe das dumpfe Gefühl, ich hätte nicht überrascht sein dürfen. Aber manchmal muss man sich eben eingestehen, dass einem ein Teil der Literatur und Forschung, selbst auf einem Gebiet, auf dem man eigentlich zu Hause sein sollte, total durch die Lappen gegangen ist.
Eine gerade in Science erschienene Arbeit (Paul Durack et al. Science 2012) dreht sich, kurz gesagt, darum, dass man globale Muster im Frischwasser-Fluss (also die Differenz zwischen dem, was verdampft, und dem, was als Niederschlag wieder zurückkommt) global dadurch bestimmen kann, dass man Salinitätsmessungen an der Meeresoberfläche macht. Das scheint erstmal trivial. Da, wo mehr verdampft als als Regen niederschlägt, wird es salziger, und im umgekehrten Fall wird es eben süsser (i.e. weniger salzig).
Bild 1: Multimodel-Mittel (CMIP3/IPCC) der Änderung bei Niederschlag, Bodenwasser, Oberflächenabfluss und Verdampfung. Es wird das Mittel von 2080-2099 mit 1980-1999 verglichen. Die Resultate sind gepunktet unterlegt, wenn mindestens 80% der Modelle im Vorzeichen der Änderung übereinstimmen.
Aber der Reihe nach. Warum sollte man so “umständlich” überhaupt versuchen, so einfache Gröszen wie Niederschlag und Verdampfung zu bestimmen? Nun, das liegt zuerst mal daran, dass die nötige Qualität und Abdeckung von Messstationen für die beiden Gröszen längst nicht so gut ist, wie man vielleicht denken könnte. Das gilt insbesondere für die Ozeane, auf denen selbst Niederschlagmessungen eine schwierige Sache sind und es viel zu wenige direkte, “gute” Messstationen gibt. Selbst Messungen auf einer Insel umgeben von 100km Wasser sind nicht unverdächtig, denn der lokale Einfluss der Insel selbst auf Konvektion und Strömung könnte das Ergebnis verfälschen (d.h. untypisch für den regionalen Niederschlag und Verdampfung machen). Satelliten sind auch (noch) nicht das Gelbe vom Ei und existieren auch noch nicht lange genug, wenn man sich für Trends des Frischwasserfluss über die letzten Jahrzehnte, die ja durch die globale Erwärmung geprägt sind, interessiert.
Wenn jetzt der Ozean aus festumrandeten, schwimmenden, 100*100 Meter Wassertanks mit einer festen Tiefe von ebenfalls 100 Meter Tiefe bestünde, wenn man ferner annimmt, dass jeder Tank mit einem Quirl immer schön durchgemischt wird und man dann die Salinität jeden Tanks regelmäszig messen würde, dann hätte man offensichtlich eine perfekte Bilanz des Frischwasserflusses. Leider bewegen sich aber die Ozeanströmungen (daher der Name) laufend, verschieben Wassermassen an der Oberfläche und mischen Oberflächenwasser in die Tiefe. Das genau ist der Grund, warum ich eigentlich dachte, dass man mit der Salinität nicht quantitativ auf die Frischwasserflüsse kommen könne. Man führe sich die volle Komplexität des Systems kurz vor Augen. Schliesslich wird das Oberflächenwasser nicht nur stetig durch die Ozeandynamik und vom Wind bewegt. Es kommt noch hinzu, dass ja die sich ändernde Salinität auch wieder rückwirkt auf eben diese Dynamik.
Durack und Co-Autoren (und einige Studien zuvor auch andere Autoren) haben es gewagt. Sie haben dabei diese komplexe Dynamik mit Hilfe von Ozeanmodellen mit einbezogen und kommen auf einige erstaunliche und quantitative Ergebnisse.
Bild 2: Frischwasserfluss Evaporation-Precipitation (kurz E-P) Precipitation-Ecaporation (kurz P-E) einmal berechnet als Multimodel-Mittel der CMIP3 Studie (oben) und einmal abgeleitet aus einfachen thermodynamischen Überlegungen. Für Details siehe Held und Soden, 2006. Regionen mit einer positiven Frischwasserbilanz werden noch feuchter (innere Tropen), Regionen mit einer negativen Bilanz werden noch trockener.
Zuerst einmal: Was würde man den erwarten? Nun, die Klimamodelle sind sich ziemlich einig, dass im Zuge der globalen Erwärmung es zu einer systematischen Änderung der globalen Frischwasserflüsse kommt, die man kurz und prägnant unter dem Slogan: “The rich get richer, the poor get poorer” zusammengefasst hat. Bild 1 zeigt die IPCC Resultate für Niederschlag und Verdampfung, wie sie von den CMIP3 gekoppelten Ozean/Atmosphärenmodelle berechnet wurden. Im Niederschlag erkennt man schon dieses Muster, welches feuchte Regionen feuchter und trockene Regionen trockener werden lässt. Für die eigentlich maszgebliche Frischwasserbilanz muss man aber die Differenz zwischen Verdampfung (E) und Niederschlag (P) berechnen (siehe Bild 2). Auch dort bestätigt sich genau dieses Bild vom “wasserreich wird reicher, Wasserarm wird ärmer”. Dies ist nicht nur, bzw. nichtmals in erster Linie ein Resultat der Klimamodelle, sondern ist zuerst einmal ein Resultat von Erster-Ordnungs-Überlegungen in der Thermodynamik (Clausius Clapeyron) und Energiebilanz-rechnungen. Höhere Temperaturen führen zu stärkerer Verdampfung, höherem Wasserdampfgehalt und dann auch stärkerem Regen in den Zonen, in denen diese Prozesse ohnehin dominant sind, etwa die inneren Tropen. Die an die Tropen abschliessenden Regionen (Sub-tropen), die ja auch heute die groszen Wüstengebiete stellen, werden dann aber noch trockener, als sie es heute schon sind. Die abfallende Luftbewegung von in den Tropen aufsteigender Luft wird in den Suptropen intensiviert. Diese abfallende Luft aber ist extrem trocken. Feucht wird feuchter, trocken wird trockener. Im Bild 2 unten sieht man etwa das Resultat dieser thermodynamischen Rechnung, welche gut mit dem simulierten Ergebnis übereinstimmt (Bild 2 oben). Für eine detaillierte Beschreibung dieses Phänomens siehe etwa hier. Es ist sicher mal wert, das mal näher hier zu diskutieren. Für den Augenblick soll es aber eher darum gehen, ob und wie man dieses Phänomen der reicheren Reichen und ärmeren Armen im globalen Wasserkreislauf beobachten kann.
Bild 3 A zeigt den beobachteten Frischwasserfluss über den Ozeanen. Das Bild stammt aus einem Atlas des Ozeanographie-Zentrums in Southampton. Ich vermute mal, dass das Bild im Wesentlichen auf Daten von Wetterstationen beruht und weniger oder gar nicht auf Satellitendaten, die immer noch ziemliche Schwierigkeiten mit einer quantitativen Erfassung des Niederschlags haben. Zum Vergleich in B die Resultate des kanadischen CGCM3.1 Klimamodells. Offensichtlich beschreibt das Modell die wesentlichen Eigenschaften des Frischwasserfluss mit den feuchten Tropen, den trockenen Subtropen, der charakteristischen Form der Hadley Zelle über dem Pazifik etc.. Die Behauptung ist also, dass das Muster der Änderung des Wasserkreislaufs genau dem klimatologischen Muster selbst ähnelt, es sozusagen verstärkt. Um diese Verstärkung zu beobachten, haben Durack et al. sich einmal die Salinität genauer angeschaut.
Bild 3: Beobachteter (Southampton Ozeanographie-Atlas) und modellierter (CGCM3.1) Frischwasserfluss (E-P). Einheiten gehen von tiefrot (3 Meter/Jahr) bis tiefblau (-3 m/Jahr).
Die Salinitäts-Daten selbst stammen zu einem Teil vom ARGO Bojen Messnetz, vor 1999 aber von Pre-ARGO Messungen. Sie haben ein relative hohe räumliche und zeitliche Dichte. Kann man über die letzten 50 Jahre bereits einen Trend in Richtung auf Bild 2 hin sehen? Werden also die Regionen, die jetzt schon trocken sind noch trockener und somit salziger (und umgekehrt natürlich auch, feucht wird feuchter und das Oberflächenwasser dann eben weniger salzig).
Bild 4 gibt Antwort: Die Graphiken D und E zeigen die klimatologische Salinität, die natürlich ausser durch Strömung ganz maszgeblich durch die Frischwasserflüsse aus Bild 3 bestimmt sind. Trotzdem ist die Kombination der beiden alles andere als trivial. Man vergleiche mal die beiden Muster aus Bild 3 und 4. Die Differenz ist durch Strömung und Mischung entstanden.
Graphik G in Bild 4 zeigt nun gerade, wie sich die Tendenzen der Salinität in den letzten 5 Dekaden entwickelt haben und, tatata, das passt gar nicht so schlecht. Gebiete hoher Salinität werden noch salziger und umgekehrt. Der sich verstärkende Wasserzyklus scheint einen Abdruck im Ozean hinterlassen zu haben. Das ganze kann man sich auch quantitative anschauen und die Klimatologie der Salinität gegen den Trend der Salinität plotten (Graphik J). Der optische Eindruck bestätigt sich. Graphik E und H stellen das Gleiche für ein einzelnes Modell (wieder das kanadische Modell von Bild 3B) dar, welches die Sache offensichtlich ziemlich gut reproduziert. Es sollte aber nicht verheimlich werden, dass diese doch recht subtile Kopplung zwischen Atmosphäre und Ozean längst nicht allen Modellen so gut gelingt.
Bild 4: Beobachtete und modellierte (das kanadische Modell CGCM3.1) klimatologische Salinität (Graphik D und E) und der beobachtete und modellierte 50 jährige Trend der Salinität (G und H). Klimatologie der Salinität gegen den Trend aufgetragen ergibt Graphik J (beobachtet) und K (modelliert). Dabei ergeben die Beobachtungen einen 8%, bzw. 6.6% Anstieg der Geraden (was Durack et al die PA=pattern amplification nennen) über die 50 Jahren. Die Korrelation beträgt beides mal R=0.7 (PC=pattern correlation).
Die Autoren nennen im Verlauf des Papers die Steigung zwischen der Klimatologie und dem Trend die PA=Pattern amplification und die Korrelation der beiden (in Grahik 4J und K beides Male 0.7) die PC=Pattern correlation. Der etwas pompöse Ausdruck für Steigung und Korrelation findet sich jetzt in Bild 5 wieder, welches etwas kompliziert ist und der Erläuterung bedarf.
1) In Bild 5 werden CMIP3 Modellresultate gezeigt. 20C3M sind die Simulationen, die die letzten 100 Jahre nachgerechnet haben. Es sing gekoppelte Ozean-Atmosphaeren Modelle, die nur mit den bekannten Treibhausgas- und Aerosolkonzentrationänderungen des 20ten Jahrhundert angetrieben wurde. SRES bezeichnet die Scenarioläufe des letzten IPCC Reports, die alle so klangvolle Namen haben wie A2, A1B und B1. A2 ist z.B. sehr pessimistisch (sehr starkes globales Bevölkerungswachstum und grosze CO2 Flüsze) und B1 sehr optimistisch. A1B lieg schliesslich irgendwie dazwischen und gilt als das wahrscheinlichste Scenario. Ferner tauchen in Graphik A und C noch die Ozeanbeobachtungen als einzelner Punkt mit entsprechenden Unsicherheiten auf.
2) Fangen wir mit Bild 5B an. Wie sehr entspricht denn nun die Salinität den Frischwasserflüssen in den Modellen? Nun, es gibt sicher viel Streuung in dieser Graphik, aber grob kann man sagen, dass das ursprüngliche Frischwassersignal, das vom Model simuliert dem Ozean aufgesetzt wird, durch die simulierten Strömungen und Mischungen ungefähr verdoppelt wird. Oder mit anderen Worten, eine 8% Änderung der Salinität wird bereits durch eine 4% Verstärkung der Frischwasserflüsse erreicht. Die Dichtegradienten, die durch das E-P Signal dem Ozean aufgewungen wird, und das dazugehörige atmosphärische Windfeld, die den Oberflächenozean antreiben, wirken in ihrer Kombination gerade so, dass das urspüngliche Signal verdoppelt wird (immer gemessen in % des jeweiligen PA).
3) Je stärker die jeweilige simulierte Erwärmung in den verschiedenen Modellen in den verschiedenen Scenarien, umso gröszer die Verstärkung des Wasserkreislaufs (Graphik A und C). Das ist nicht trivial, da zumindest der dynamische Anteil an diesem Verstärkungsmechanismus (die Intensität der Hadleyzirkulation) nicht unbedingt linear von der Temperatur abhängt.
Bild 5: Beobachte und modellierte PAs von Salinität, Frischwasserfluss sowie 50 Jahrestrend im Niederschlag aufgetragen gegen die entsprechende globale Erwärmung. Die Modellläufe umfassen Simulationen des Klimas des 20ten Jahrhunderts und verschiedene IPCC Szenarienläufe. Für Details siehe die Original-caption aus dem Paper oben.
4) Die Modelle unterschätzen in den 20C3M Läufen die Verstärkung des Wasserkreislaufs systematisch. Bei gegebener Temperaturänderung ist die Verstärkung (PA) von Salinität und Frischwasserfluss in den Modellen unter der beobachteten. Allerdings ist die Situation beim Frischwasser etwas besser als in der Salinität, was auf ein Problem in den Ozeanmodellen hindeutet. Der beobachtete Trend liegt bei einer 16% Verstärkung des Salinitätsmusters pro Grad Erwärmung während die Modelle ungefähr die Hälfte simulieren. Die beobachtete Verstärkung des Frischwasserflusses beträgt 8% pro °C Erwärmung, was ganz gut in Übereinstimmung mit den theoretisch von Clausius-Clapeyron abgeleiteten 7% pro °C ist. Das Modell-Ensemble liegt aber auch da unter den Beobachtungen, nämlich bei 4.5 % pro °C.
5) Beim folgenden Punkt bin ich mir nicht ganz sicher. Aber ich lese Bild 5C als Hinweis auf ein relativ kleines Aerosol-Forcing und somit auf eine relative kleine Klimasensitivität (das natürlich im Rahmen der Unsicherheiten, die in der Wissenschaft diskutiert warden, also eine Klimasensitivität eher im Bereich 2-3°C und nicht im Bereich von 3-4°C).
Zur Erläuterung: Modelle mit geringer Klimasensitivität zeichnen sich tendenziell durch geringes Aerosol-forcing aus. Und umgekehrt, Modelle mit einer hohen Sensitivität haben häufig ein sehr grosses Aerosol-Forcing in den 20C3M Läufen. Dieser Umstand wurde verschieden kommentiert (hier und hier ) und wird in Skeptikerkreisen als ein Art von Modellbetrug behandelt (hier sind ein paar Statements von Lindzen in diesem Sinne in einem ansonsten sehr schönen Artikel von Fred Molton) . Die Idee ist, dass praktisch ALLE Modelle einen sehr ordentlichen simulierten Temperaturverlauf für das 20te Jahrhundert hinbekommen. Das wird häufig dargestellt als eine Art unabhängige Evaluierung der Modelle und ist sicher teilweise richtig. Die Modelle werden auf die verfügbaren Klimatologien getunt, d.h. im wesentlichen auf ein klimatologisches Mittel der Zeit zwischen 1970-2000. Ich kenne niemanden, der ein GCM auf den Temperaturverlauf des 20ten Jahrhunderts bewusst tunen würde und wüsste im Moment auch nicht, wie das genau gehen soll. Zu kompliziert, sind die Interaktionen zwischen den Parametern und zu zeitaufwendig auch nur eine Untermenge der Möglichkeiten mit einem vollenOzean-Atmosphärenmodell auf einen Zeitraum von 100 Jahren durchzuspielen. Das heisst nicht, dass das mit Sicherheit nicht gemacht wird/wurde, aber ich habe in jedem Fall noch nicht davon gehört. Andererseits stehen die Wissenschaftler im laufenden Austausch und “Tuningrezepte” mögen, ob nun bewusst oder unbewusst, standing ausgetauscht werden. Vor dem Hintergrund dieses Problems plädierte z.B. Reto Knutti von der ETH Zürich dafür den Klimaverlauf des 20ten Jahrhundert gleich mit zu den Tuningtargets hinzuzunehmen. “Since the mean climatology provides only a weak constraint on the future, why should we not look at trends to improve the models? We are not giving a ”false sense of predictive capability” when showing simulated and observed warming next to each other, but simply stating what has been known before, namely that different sets of parameters in one or several models can reasonably fit the available observations.”
Und ferner “Just because we can build a model that replicates 20th century global temperature (and nothing else) doesn’t imply that the model is correct. The figure shows that the combined natural and anthropogenic radiative forcings are a consistent explanation for the observed changes in these models, whereas natural forcings alone cannot explain the observations. The natural forcings fail to explain the observed spatio-temporal patterns even if their response is inflated.” . Ich bin da ganz seiner Meinung.
Was aber ist die Verbindung zum Artikel hier? Nun, tun wir mal so als seien die Aerosole wirklich die Groesze, die durch ihre Unsicherheiten (d.h. ihre Konzentration und Verteilung in der Vergangenheit, aber auch ihre Physik und Chemie in der Atmosphäre) die Klimasensitivität bestimmen würden. Das stimmt zwar nicht, da ALLE Forcings (nicht nur die Aerosole) Unsicherheiten haben und sich daher sowohl der Absolutwert als auch der Unsicherheitsbereich der entsprechend berechneten Klimasensitivität ändert (siehe hier einen realclimate Artikel), aber wie gesagt, tun wir mal so für einen Augenblick. Dann interpretiere ich Bild 5G jetzt mal so:
Ein “schneller”, “intensiver” Wasserzyklus verkürzt nicht nur die typische Aufenthaltszeit eines Wassermoleküls in der Atmosphäre, sondern auch die Aufenthaltszeit von Aerosolen. Sie werden schnell ausgewaschen und haben also wenig Zeit, einfallende Sonnenstrahlung zu reflektieren. Darauf beruht ja gerade ihr kühlendes, d.h. negatives Forcing (direktes Aerosol Forcing). Ferner beruht der indirekte Aerosol-Effekt gerade darin, dass kleine Tröpfchen in Wolken sehr schnell gebildet werden und dadurch dass Anwachsen der groszen Tröpfchen behindert wird. Der Wasserzyklus würde durch einen starken indirekten Aerosol Effekt gerade verlangsamt.
Schauen wir also nochmal auf Bild 5C. Die hier abgeschätzte grosze Verstärkung des Wasserzyklus über die letzten 50 Jahre (ca. +4%) spricht sowohl gegen einen starken direkten und indirekten Effekt der Aerosole. Der Wasserzyklus läuft genau umgekehrt zunehmend auf Hochtouren und müsste also die Aufenthaltszeit der Aerosole stetig verkürzt haben. Ein schwaches Aerosol Forcing deutet aber bei allen zusätzlichen Faktoren und allen sonstigen Unsicherheiten auf eine relative kleine Klimasensitivität hin.
Das sind jetzt erstmal nur ein paar vorläufige Überlegungen. Ich bin gerade auf dem Weg nach Utrecht. Holland und insbesondere das KNMI und die Universitäten Utrecht und Delft haben den Wasserzyklus als das zentrale Element ihrer Klimaforschung ausgerufen, d.h. dort ist das Geld für Projekte. Ziel ist, in 10 Jahren die Daten zusammen zu haben, die es erlauben werden, die nächste Generation von wolkenauflösenden globalen Klimamodellen zu validieren. Ich werde mal mit den reichlich vorhandenen Experten dort über das Paper reden und insbesondere natürlich über den Punkt 5. Hier auf Primaklima also in Kürze den neuesten Stand der Diskussion.
Kommentare (207)