Jeder, der sich auch nur oberflächlich mit der Klimadiskussion im Internet beschäftigt hat, stolpert über den berühmten Hockeystick, die auf Proxydaten basierende Rekonstruktion der globalen (nord-hemisphärischen) Temperaturentwicklung im letzten Jahrtausend. Diese Arbeit ist jetzt satte 14 Jahre alt und wurde von Michael Mann im Rahmen seiner Doktorarbeit veröffentlicht. Am Hockeystick scheiden sich die Geister. Selbst der von jedem unnötigen Expertenwissen freie Fritz Vahrenholt weiss ganz genau, dass diese Kurve gefälscht ist (da Vahrenholt das mit solcher Verve in seiner Diskussion mit Thomas Stocker ein paarmal wiederhohlt, frage ich mich gerade so, ob das eigentlich eine justiziable Aussage ist?). Und das Motiv des “Fälschers” Mann und aller die meinen, dass es sich dabei um ein wissenschaftliches Ergebnis wie die meisten anderen handelt (also verbesserungswürdig und in den letzten 14 Jahren ja auch schon in mancherlei Hinsicht verbessert und verändert)? Ganz klar: “Mit dieser Graphik soll Panik geschürt werden! Wie das da zum Schluss so doll ansteigt bei der Temperatur, das dient zu nichts anderem, als uns alle in den Klimawahnsinn zu treiben.”
In Diskussionen tauchte ab und an ja schon einmal auf, dass es eigentlich genau umgekehrt sei. Je doller die Klimavariabilität in der Vergangenheit wackelt, um so schlimmer wird sie das auch in der Zukunft tun und also entsprechend “sensibler” getrieben von den anthropogenen Treibhausgasen in die Höhe schiessen. Aus dieser Perspektive wäre also eine Klimarekonstruktion wie die von Anders Moberg Panikmache und die von Michael Mann eine einzige Beschwichtigung. Mobergs Rekonstruktion etwa zeigt recht starke Schwankungen, insbesondere zwischen dem MWP und der kleinen Eiszeit. Das dazugehörige Klima ist also sensibler und wird auch auf die anthropogene Störung der Strahlungsbilanz, also die Treibhausgase, sensibler reagieren. Bei Mann verhält es sich dann genau anders herum. Dem Argument will meist ja niemand so besonders folgen, keine Ahnung warum. Zumindest wüsste ich nicht, dass Mann schon mal als verlorener Sohn von den Klimaskeptikern in den Arm genommen worden wäre. Vielleicht weil dieses Argument nie so ganz quantitativ ausgewertet worden ist?
Ich habe jetzt erst zufällig gemerkt, dass es diese Rechnung tatsächlich schon längst gibt. Der entscheidende Begriff hierbei ist ja die sogenannte Klimasensitivität, also diejenige Erwärmung, die eine bestimmte Änderung des Strahlungsgleichgewichts an der Atmosphärenobergrenze erzeugt. Sie wird entweder, wie es diese Definition ja nahelegt, in K/W/m2 angegeben oder aber auch als Erwärmung (im Gleichgewicht !) bei einer Verdoppelung des preindustriellen atmosphärischen CO2 Niveaus, also 560ppm. Der Moment des Gleichgewichts wird also nicht ca. in den Jahren 2060-2080 liegen, wenn wir die 560ppm dann erreicht haben, sondern theoretisch einige Dekaden später. 2*CO2 entspricht einem Strahlungsforcing von ca. 4 W/m2 und das Mittel der verfügbaren Klimamodelle gibt einen Wert von ca. 3K bei 2*CO2 an, also eine Klimasensitivität von ca. 0.75K/W/m2. So weit, so gut, so auch den meisten hier sicher bekannt.
Will man aus Paleodaten diese Klimasensitivität abschätzen, muss man einerseits die globale Temperatur der Vergangenheit rekonstruieren und andererseits das Paleoforcing kennen. Letzteres ändert sich auf Grund von Vulkaneruptionen, Sonnenvariabilität, Milankovitch Schwankungen (also Änderungen in der Geometrie von Sonne und Erde), Albedoänderungen durch Vegetation, Meereis, Kontinentaleis, Schnee, und so weiter und so kompliziert. Wichtig ist natürlich, dass es sich eben um einen GLEICHGEWICHTSZUSTAND handelt. So kann man die Klimasensibilität an Hand von Daten und dem berechneten Forcing während des letzten glazialen Maximums (LGM) berechnen (siehe hier für einen Alltime-Klassiker und hier für eine aktuelle Arbeit), denn da reden wir von einer Zeitspanne von ca 3000 Jahren und das Klima hatte die Zeit sich darauf einzuschwingen. Hat man das Forcing, nimmt man sich die rekonstruierte globale Temperatur und teilt eins durch das andere. Fertig ist die Klimasensitivität (stimmt wahrscheinlich auch nicht so ganz, aber ungefähr).
Man kann es aber auch mittels der Variabilität der letzten 1000 Jahre versuchen. Da man da offensichtlich nicht von einem Klima-Gleichgewicht sprechen kann (schliesslich ändert sich etwa von Jahr zu Jahr die Menge der durch Vulkaneruptionen in die Stratosphäre ausgestossenen Aerosole) muss man etwas anders vorgehen als beim LGM. Man nimmt ein schnell zu integrierendes Klimamodell und ändert in hunderten von Läufen immer wieder über die gleichen 1000 Jahre die Stärke des Forcings (schliesslich weiss man nicht so genau, wie stark die Vulkaneruptionen und die Variationen der Sonnenaktivität und die Änderungen der anderen Klimaantreiber genau waren), die Ozeandiffusion und andere Modellparameter. In ganz einfachen Modellen kann man sogar die Klimasensitivität selbst verändern. Sie ist in diesen Modellen eine einstellbarer Parameter und keine berechnete Grösze, wie in allen komplexen drei-dimensionalen Klimamodellen. Und dann schaut man nach jedem Lauf nach wie gut den nun Lauf X mit seinem je spezifischen Temperaturverlauf zu der jeweiligen rekonstruierten Temperatur passt. So hat man ein Masz für die Goodness der jeweiligen Simulation und kommt schliesslich zu einer Wahrscheinlichkeitsverteilung. Welche Klimasensitivität ist mit dem gewählten Modell wie wahrscheinlich unter der Annahme, dass die Temperaturrekonstruktion X (es gibt mittlerweile ein gutes Dutzend) korrekt ist? Diese Art von probabilistischer Modell/Data Verwurstung ist momentan sehr beliebt und man kann sicher sein, dass es davon im nächsten IPCC Bericht eine Menge zu lessen gibt. Ein populäres Beispiel dieser Art von Studien war etwa das viel diskutierte Schmittner et al. Paper.
Zurück also zum letzen Millenium und der an sich schon recht alten Studie von Hegerl et al 2006. Dort finden wir in Graphik 3 genau das, was ich oben gesagt habe. Die Wahrscheinlichkeit einer bestimmten Klimasensitivität (hier als Delta-T für 2*CO2). Die Zahlen geben die Referenzen der verschiedenen Klimarekonstruktionen wieder, die als Masz für die Güte der jeweiligen Simulation herhielten.
So, und jetzt ratet mal, was die Referenz Nummer 11 ist, oh irony of ironies.
Kommentare (105)