Die Diskussion um die von Realclimate Autoren lancierte “Klimawette” (hier und hier auf deutsch) und das Skeptikergegacker um das “Ende der Klimaerwärmung” seit wahlweise 1998 oder 2002 lenkt die Aufmerksamkeit auf einen wichtigen Punkt bei der Beurteilung der globalen Erwärmung. Wieviel natürliche Variabilität steckt eigentlich im System? Wieviel dieser Variabilität ist eigentlich von aussen vorgegeben (Vulkane, Sonne etc) und wieviel kann das Klimasystem aus sich heraus erzeugen (ENSO,PDO,AO etc.)? Und vor allem, ist die momentane Stagnation der Temperaturen ein klarer Beweis, dass die Vorhersagen der Klimaforscher falsch liegen?
Tatsächlich behaupten das die Skeptiker und ein Ziel dieses Artikels ist es zu zeigen, wie einfach es ist, solche Aussagen selbst zu überprüfen. Tatsächlich ist es eigentlich das Mindeste, das jemand der behauptet, die Modelle sagten dies und jenes, einfach einmal nachschaut, ob das auch der Fall ist. Dazu muss man auf die CMIP3 Webseite gehen, auf der alle IPCC Läufe der verschiedenen Arbeitsgruppen und Institute gelagert sind, einen Account beantragen und schon gehts los. Zuviel verlangt?
Schaun wir also mal nach. Ich habe aus Nostalgie, die Läufe des gekoppelten Ozean-Atmosphären Modells (AOGCM – Atmosphere Ocean General Circulation Model) des Max-Planck Instituts für Meteorologie angeschaut. Zur Illustration der Frage nach Variabilität und Temperaturtrends ist ein Modell sicher erstmal ausreichend. Für jedes der entsprechenden Scenarien wurde das Modell mehrfach laufen gelassen, wobei bei jedem Lauf das IPCC Emissions-Scenario (d.h. hauptsächlich die entsprechenden Treibhausgaskonzentrationen) gleich gelassen und leicht die Anfangsbedingungen geändert wurden. Dadurch erhält man leichte Variationen im konkreten Temperaturverlauf, die z.B. für ein konkretes Jahr (mit oder ohne El Niño) sehr gross sein können. Diese Variationen geben einen eine Idee der möglichen zufälligen Schwankungen und somit eine bessere Statistik für bestimmte Aussagen.
Hier betrachte ich drei verschiedene Läufe: 1) Das IPCC Scenario B1, sehr “Öko” mit einer Stabilisierung bei 550ppm CO2. 2) Das IPCC Scenario A2, ohne jede beachtenswerte Anstrengung die CO2 Emissionen zu reduzieren, sausen wir in eine Welt mit 12 Miliarden Einwohnern, Youpi 3) Die 20tes Jahrhundert Läufe. Beim Max-Planck Institut hat man für diese Simulationen nur die anthropogenen Randbedingungen (Treibhausgase und Aerosole) berücksichtigt. Kein Vulkan trübt das simulierte Himmelsblau, keine Variationen der Sonnenaktivität und der Sonnenflecken.

i-821e2da57b10eaf8ce78683e83fc4cb1-CRUMPI.jpg

Grafik 1: HADCRU Temperaturen und 20th Century Simulation mit dem MPI AOGCM.

Schaun wir mal zum Aufwärmen auf die beobachtete globale Temperatur und das Resultat eines der “20tes Jhd. Läufe” (Grafik 1). Man sieht deutlich den Temperaturanstieg in der 2ten Hälfte des letzten Jahrhunderts und man kann erahnen, dass das Modell in der richtigen Grössenordnung auf die kühlenden Industrie-Aerosole, insbesondere Sulfat-Aerosole, in den 40er-60er Jahren einerseits und andererseits natürlich auf den Anstieg der verschiedenen Treibhausgase (CO2, Methan, N2O, etc.) reagiert. Man kann aber auch erahnen, dass das Model eine zu grosse und wenn man noch genauer hinschaut zu regelmässige interannuale Variabilität zeigt. Das MPI Modell hat wie viele anderen Modelle Probleme mit der Amplitude und Häufigkeit von ENSO Ereignissen, ohne aber jetzt gleich grob falsch zu liegen. Das “normale” ENSO Ereigniss des Modells sieht ein bisschen aus wie das echte ENSO Ereigniss von 1998, welches eines der grössten des letzten Jahrhunderts war. So weit so gut. Nun wissen wir aber immer noch nicht, ob die Klimamodelle eine Temperaturentwicklung wie die der letzten ca. 10 Jahre im Ensemble ihrer Vorhersagen mit einschliessen oder nicht?

i-a4392cba8db3b5de9ae13367cf100500-CRUGISS.jpg

Grafik 2: Zehnjahrestrends berechnet alle 5 Jahre mit GISS und HADCRU Temperaturen

Was war an den letzten 10 Jahren so ungewöhnlich? In Grafik 2 habe ich mal die beiden bekanntesten globalen Temperaturdatenssätze benutzt, nämlich die der Climate Research Unit und die des GISS. Für beide Datensätze habe ich in 5 Jahresschritten den Zehnjahrestrend ausgerechnet und mit seinem entsprechenden Konfidenzintervall versehen (hier = ±2* Standardabweichung). Gibt es mehr positive als negative Trends, dann hat sich die Erde eben erwärmt, was man in beiden Datensätzen konsitent ab dem Ende der 70er Jahre beobachtet. Ein Punkt in Grafik 2 bedeutet also, dass z.b. im Jahre 1975 beide Datensätze relativ übereinstimmend zu einem Trend von 0.12-0.15°C/Dekade kommen. Man kann auch erkennen, dass in den letzten Jahren die beiden Institute zu unterschiedlichen globalen Trends kommen. Dieser Unterschied ist oft diskutiert worden und liegt hauptsächlich daran, wie GISS und HADCRU in unterschiedlicher Weise die arktichen Polargebiete, wo es naturliche keine Messstationen gibt, behandeln. Das GISS interpoliert die aktuellen Rekordtemperaturen der nördlichsten Messstationen auf den arktischen Ozean und das HADCRU behandelt diesen als Terra Incognita.
Das soll aber hier nicht das Thema sein. Die unterschiedlichen Berechnungsalgorithmen haben auch in vorherigen Jahren schonmal zu unterschiedlichen Ergebnissen geführt (siehe um 1960 herum) und brauchen uns jetzt nicht zu interessieren. Nehmen wir einfach mal an, das HADCRU hätte Recht und wir hätten es in den letzten 10 Jahren mit ca. 0°C Erwärmung zu tun. Ist das dann ein nicht vorgesehene einmalige “Abkühlung” im Treibhaus?
Dazu habe ich mal die gleichen Erwärmungstrends für die “20th century” Läufe des MPI Modells ausgerechnet und zusammen mit den beobachteten HADCRU Trends (in rot in Grafik 3) dargestellt. Die Resultate für die beiden Simulationen gehen bis 2050 und 2100, indem man einfach das Modell unter 2000 Bedingungen weiter hat laufen lassen. Dadurch erhält man dann eine Stabilisation auf dem Niveau der Treibhausgaskonzentrationen vom Jahr 2000. Der “gelbe” Lauf ist der, der bereits oben zusammen mit den HADCRU Daten gezeigt wurde.
Zwei Beobachtungen sind hier wichtig. Erstens, selbst wenn man nur den Teil der Simulationen bis 2000 betrachtet: Offensichtlich gibt es immer wieder auch mitten in der schönsten Treibhauserwärmung kühle Dekade mit 0°C Trend oder sogar leichter Abkühlung. So liegt die “gelbe” Simulation für den Zeitraum 1995-2005, natürlich aus reinem Zufall, bei einem Trend von 0 genau wie die Beobachtungen.Soviel dekadische Klimavariabilität ist eben drin. Zweitens, das Model ist etwas zu variable auf einer Zeitskala von < 10 Jahren, was man an den überschätzten Konfidenzintervallen erkennen kann.

1 / 2 / Auf einer Seite lesen

Kommentare (6)

  1. #1 adenosine
    Juli 13, 2008

    Interessanter Aspekt, diese natürliche Variabilität. Wieso ist die eigentlich so klein? 0,2Grad sind doch weniger als 0,1% der Temperatur. Was begrenzt sie? Kann man denn zweifelsfrei ausschließen, dass auf längeren Zeitskalen die natürliche Variabilität mit allen feedbacks nicht deutlich größer ist (2Grad)? Könnte nicht ein großer Teil der Temperaturschwankungen der Vergangenheit auf die natürliche Variabilität zurückzuführen sein, zumal die Schwankungen der Sonnenintensität auch nur minimal sind?

  2. #2 Georg Hoffmann
    Juli 15, 2008

    @Adenosine
    Ich glaube da in Prozenten zu rechnen (0.2 Grad von 280 Grad) ist nicht besonders physikalisch. Sonne und Treibhausgase legen eine Mitteltemperatur der Oberflaeche und des oberen Ozeans fest. Die Atmosphaere alleine kann ueberhaupt keine dekadische Variabilitaet global erzeugen. Bleiben also nur relativ “winzige” Variationen im Vertikalgradienten der Ozeane. Ein starker Austausch mit tieferen Ozeanschichten kuehlt ab, ein schwaecherer erwaermt. Die direkt beobachtete dekadische Variation ist von der Groessenordnung oben (~±0.2°) und Paleoproxies geben keine wesentlich andere Antwort. .
    Grunssaetzlich richtig aber ist, dass das Klimasystem einem sog. roten Rauschen folgt, dh ja laenger Zeitskalen ich betrachte (jaehrlich, dekadisch, centennial etc)) umso groessere Variationen findet man. ± 2°C allerdings liegen bereits nahe einer Groessenordnung von glazial/inter-glazialen Zyklen (100.000 Jahre) und ist ausserhalb der hier betrachteten Zeitskala.
    Es spricht einiges dafuer, dass zumindest am Maunder Minimum 1650-1700 auch die Sonne beteiligt war und nicht nur natuerliche Klimavariabilitaet. Schon beim Dalton Minimum ist das nicht mehr so klar. Ein/Zwei Vulkane reiche da auch schon mal.
    Betrachtet man die letzten 1000 Jahre ist meine sehr grobe Abschaetzung, dass ±0.3-0.4°C natuerliche Variation sich zu vielleicht ±0.3-0.4°C geforcte Variabilitaet (Sonne + Vulkane) addieren oder subtrahieren koennen. Das sollen nur Groessenordnungen sein.
    Georg

  3. #3 Schweickhardt
    Juli 10, 2009

    Die Sache ist mir schon lange klar, Parameter zur Entlastung des Menschen werden weggelassen,
    die Modelle sind spekulativ und motivgesteuert. Es ist die Sonne und nicht der Mensch. Aber mit Angst und mit “schuldigen” Menschen kann man Geld und Macht anziehen und nur alleine darum gehts. Gibt es Aktionen gegen Klimawahn, wenn ja bin da voll dabei.

  4. #4 Georg Hoffmann
    Juli 10, 2009

    @Schweickhardt
    Nein “Parameter zur Entlastung” gibts in Klimamodellen nicht. Hier kann man lesen wie die Modelle im Groben so funktionieren.
    https://www.realclimate.org/index.php/archives/2008/11/faq-on-climate-models/

  5. #5 Krishna Gans
    Juli 10, 2009

    @GHoffmann

    Es spricht einiges dafuer, dass zumindest am Maunder Minimum 1650-1700 auch die Sonne beteiligt war und nicht nur natuerliche Klimavariabilitaet.

    Da frage ich mich dann allerdings, wie natürliche Klimavariabilität “ohne Beteiligung der Sonne” funktionieren soll…..

  6. #6 Georg Hoffmann
    Juli 10, 2009

    @Gans
    Dunkel deiner Rede Sinn. Jedes Modell hat in vielerlei Hinsicht, die Sonne mit drin. Als Solarkonstante, im kurzwelligen Strahlungstransport, und einige sogar die UV Wechselwirkung mit dem stratosphaerischen Ozon. Keine Ahnung also was du meinst. Als ein Beispiel von vielen:
    https://pubs.giss.nasa.gov/docs/2001/2001_Shindell_etal_1.pdf
    Ich selbst mache gerade auch solch eine Simulation. Spater vielleicht mehr zu den Ergebnissen.