2015 war also, wie erwartet, das wärmste je gemessene Jahr. Es gab entsprechende Pressekonferenzen der führenden Klimainstitute und viele Artikel zum Thema (etwa hier). Ob 2016 bereits die nach einem El-Niño Ereignis irgendwann zu erwartende Abkühlung bringt, bleibt offen. Ein weiteres Rekordjahr nach 2014 und 2015 wäre in der Tat einmalig. Die Nachricht vom “Hottest-Year-Ever 2015” basiert auf allen verfügbaren Datensätzen und gilt in allen Daten mit einem großen Vertrauensintervall. Drei Punkte scheinen mir besonders bemerkenswert.
- Es wurde weder in der Öffentlichkeit, noch in der Wissenschaftkommunikation darauf aufmerksam gemacht, dass dekadische Vorhersagerechnungen bereits 2013 diesen Erwärmungssprung vorausberechnet haben. Wenn auch solche Rechnungen in erster Linie davon abhängen, ob man es schafft die Beobachtungsdaten in optimaler Weise in das Modell zu füttern, so ist diese Langzeitvorhersage doch eine weitere Bestätigung für die Qualität der Modelle. Ganz so schlecht werden sie wohl nicht sein.
- Viele haben schon vor den letzten beiden Rekordjahren 14/15 darauf aufmerksam gemacht, dass es keinerlei statistische Auffälligkeit in den sehr flachen Erwärmungstrends der letzten Jahre gäbe, also irgendetwas was auf einen Halt der globalen Erwärmung hindeuten würde. Tamino auf Open Mind hat diesen Umstand (den Hiatus-Skeptizismus) wie immer am besten aufgearbeitet und dargestellt. Ich bleibe allerdings dabei, dass es möglich/wahrscheinlich ist, dass die Klimamodelle dekadische Variabilität leicht unterschätzen. Die Wahrscheinlichkeit von 10 Jahren ohne Temperaturanstieg ist in den Modellen 10%, von 20 Jahren sogar nur 1% (siehe hier). Wir hatten vor 2014/2015 jetzt etwa 16 Jahre relative Flaute, bevor der aktuelle Temperatursprung der letzten beiden Jahre alles davon spülte. Das wir uns klat verstehen: Nichts deutet unbedingt darauf hin, dass das Klimageschehen der 2000er Jahre nun absolut keine Erklärung in der Modelwelt finden würde. Es gibt aber durchaus mehrere Hinweise, dass die simulierte Variabilität der Modelle etwas zu dürftig ausfällt. Siehe auch IPCC Bericht Kapitel 9.3, wobei ich aber zugeben muss, dass diese Schlussfolgerung – unterschätzte dekadische Variabilität- nicht zwingend ist und dass es auch möglich ist, dass wir das dekadisch-interdekadische Forcing des Klimas (etwa Vulkanausbrüche ) unterschätzen.
- Es wird mit diesem neuen Rekordjahr 2015 auch wird immer klarer, dass eine echte Diskrepanz zwischen den Satellitendaten einerseits und Bodentemperaturen andererseits (siehe hier oder hier) besteht. Je mehr ich über die Satellitendaten lerne, umso schwieriger scheint mir das Unterfangen aus diesen Daten eine globale Kurve mit ähnlich kleinen Unsicherheitmargen zu erstellen, wie sie bei den Erdoberflächendaten existieren. Um eine Idee davon zu bekommen, wie haarig das Ganze ist, hier ein Video von Peter Sinclair:
Ich kenne den “retrieval algorithmus” der MSU Temperatur Daten nicht. In den letzten Jahren habe ich zum ersten Mal direkt mit Satelliten Daten gearbeitet und fand es haarsträubend kompliziert. Ich stelle es mir auf jeden Fall sehr schwierig vor, die ursprünglichen Daten dahingehend zu korrigieren, dass die Satelliten in einem kontinuierlichen Sinkflug Richtung Erde befindlich sind, also sowohl der Beobachtungswinkel als auch der Zeitpunkt im Laufe eines Tages permanent angepasst werden muss. Sollte es sich tatsächlich herausstellen, dass auch dieses Riesenrekordjahr 2015 in den MSU Daten nicht annähernd ein Rekordjahr ist, dann möchte ich mal darauf wetten, dass der gesamte MSU Algorithmus in Kürze eine erneute Korrektur erfahren wird. Es wäre nicht das erste Mal (hier und hier ).
Das obige nur als kleiner Startpunkt für die offene Diskussion im “Dies-und-Das” Thread, nachdem der alte mit ˜1400 Kommentaren mal wieder gut besucht war.
PS. Und hier noch von Michael Mann und Stefan Rahmstorf ein soeben veröffentliches Paper zum Thema. Wie wahrscheinlich ist 2015, wenn es eben kein anthropogen verursachtes global warming gäbe? Antwort: Sehr unwahrscheinlich.
Kommentare (977)