Primaklima will es besser machen als der ganz gewöhnliche Wissenschaftsjournalismus. Soviel Anspruch muss schon sein. Woran nämlich krankt dieser?  Fehlende Konstanz!

Der Economist hatte vor einiger Zeit einen schönen Artikel dazu, wie und wieso Journalisten ein wissenschaftliches Thema aufgreifen und wieso sie dann leider nie dran bleiben. Das Auswählen ist dabei völlig ok, man muss immer auswählen und es liegt auf der Hand mit den sexy Themen anzufangen. Das Nicht-dran-bleiben aber hat Gründe, die mit einer gewissen Inkompatibilität von Medien und Wissenschaft zu tun haben. Denn natürlich wird in der Wissenschaft immer erstmal viel ausprobiert und vorgeschlagen. Erst nach der Veröffentlichung einer Hypothese, und gerade einer interessanten, überraschenden Hypothese, beginnt die eigentliche Arbeit: Kann das Resultat mit anderen Methoden nachvollzogen werden? Ist die Interpretation mit anderen Theorien zu vereinbaren? Wie sensitiv ist das Resultat gegen Änderung einiger nicht so ganz eindeutiger Eingangsparameter? Alles deutlich weniger sexy als die ursprüngliche These, klar. Sollte dann ein einst grosz besprochenes Resultat mal nicht diesen wissenschaftlichen Prozess überleben, erfährt man leider nie etwas davon. Es ist nicht der Konflikt von “Hund beisst Mann” vs. “Mann beisst Hund”; es ist sogar noch schlimmer: Es ist der Konflikt zwischen “Mann beisst Hund” vs. “Mann hat Hund dann doch nicht gebissen”.

So berichtete die FAZ  vor kurzem unter anderem von den Resultaten eines Science Papers von Schmittner et al. , demzufolge die Klimasensitivität sich vielleicht doch eher am unteren Rand der Abschätzungen des IPCC befinden könnte. Die übliche Schnappatmung der Skeptiker angesichts solch eines Artikels braucht natürlich gar nicht erst erwähnt zu werden (hier ). Aber wer blieb am Thema dran? Konnte die Wissenschaftsgemeinde überzeugt werden? Konnten die Resultate anders bestätigt werden?

 

Zonales Temperatur-Mittel der simulierten glazialen Klima und der Paleodaten

Simulierte Temperaturänderungen zwischen dem letzten glazialen Maximum und dem heutigen Klima. Jede Simulation wird bewertet relativ zu einem Paleodatensatz; dabei ist der Datensatz der ursprüngliche Datensatz A der aus dem Schmittner et al. Paper und B ein leicht verkleinerter Datensatz. Diese Verkleinerung versuchte bestimmte Innonsistenzen zu korrigieren. Tatsächlich hat die Änderung einen deutlichen Einfluss auf die Performance der Simulationen. Die Modellversion “Mod” schneidet in Datensatz B deutlich besser ab. Seine Klimasensitivität liegt bei 3.5°C.

 

Kurz zur Idee des Schmittner Papers. Die Physik der Klimamodellen wird von einer ganzen Reihe von Parametern kontrolliert, deren Wert wir nicht genau kennen. Innerhalb der Grenzen unseres Wissen oder Unwissens dieser Parameter produzieren die Modelle recht unterschiedliche zukünftige Klimaverläufe. Die Maszzahl für diese unterschiedlichen Verläufe wird häufig die Klimasensitivität angegeben: ECSX2CO2=Equilibrium climate sensitivity bei 2*CO2. ECSX2CO2 liegt bei den meisten Modellen in ihrer jeweiligen Parameterisierung zwischen 2-4°C. Spielt man aber kräftig mit solchen Parametern wie der Ozeandiffusivität oder einigen Wolkenparametern so kann man leicht zwischen 1-6°C für die ECSX2CO2 landen.

Wie kann man diesen Bereich einschränken? Schmittner et al. benutzen ein sehr schnell zu rechnendes und daher sehr einfaches Klimamodell unter den Randbedingungen des letzten glazialen Maximums. Bei jeder der 47 Modellrechnungen variieren sie einen oder mehrere Parameter, berechnen die jeweilige Klimasensitivität ECSX2CO2 und vergleichen das jeweilige Resultat mit der Güte der Übereinstimmung mit den glazialen Temperaturrekonstruktionen, von denen es mehr und mehr gibt und die mittlerweile schon ein recht dichtes Netz hergeben. Ohne die Details weiter zu erläutern, kann man sich schon vorstellen, dass man prima eine Statistik betreiben kann, die dann die wahrscheinlichste Klimasensitivität und einen dazzu gehörenden Wahrscheinlichkeitsbereich ausrechnet. Der Median Wert der ECSX2CO2 war dabei 2.3°C mit einem 66% Bereich von 1.7-2.6°C. Insbesondere der kleine Unsicherheitsbereich überrascht natürlich. Die Werte an sich, sind nicht unbedint eine Überraschung, wenn auch die 2.3°C am unteren Bereich der IPCC Werte liegen.

Das Paper wurde nun für eine ganze Reihe von Dingen kritisiert, die ich hier nur kurz aufliste: (1) Problem mit der Statistik , (2) fehlende Modellfeedbacks, insbesondere Wolken, (3) gute Übereinstimmung mit den Ozeandaten, aber lausige Übereinstimmung bei den Landdaten . Letzeres finde ich besonders eigenartig, will aber nicht weiter auf die Dinge eingehen. Die Diskussion unter anderem mit den Autoren auf Realclimate war interessant und ziemlich animiert. Wer meint, dass sich Wissenschaftler immer nur lieb auf die Schulter klopfen, mag dort mal reinlesen.

Es gab aber vor kurzem im September noch einen formellen Kommentar von Jeremy Fyke  und Michael Eby. Sie haben genau die gleiche Modell/Daten Konfiguration genommen und sich einige Sachen nochmal genauer angeschaut. So befanden sie, dass einige Daten in der Nähe der Eisschilde nicht genommen berücksichtigt sollten, da im Modell an der jeweiligen Stelle Eis simuliert wurde, während aber die Daten auf Polleninformationen beruhten. Auch an einigen weiteren Daten in der nördlichen Hemisphäre hatten sie etwas auszusetzen und nahmen sie aus dem Daten/Modell-Vergleich heraus. Obwohl es sich um eine relative kleine, geographisch eingegrenzte Untermenge der verfügbaren Paleodaten handelt, ist die Wirkung des Wegstreichens dieser Daten erheblich. Fyke/Eby nahmen noch eine leicht geänderte Version desselben Klimamodells und führten eine ähnliche Rechnung wie Schmittner et al. durch. Jetzt lag diese Modellversion mit ihrer Klimasensitivität von ca. 3.5°C vorne. Das ganze Verfahren erscheint also relativ sensibel und vor allem der sehr enge Unsicherheitsbereich scheint doch sehr zweifelhaft. Fyke/Ebys Modellversion wäre, soweit ich das sehe, ausserhalb des 95% Bereichs des ursprünglichen Papers.

Die Antwort der Autoren des Originalpapers findet sich hier  und fällt gemischt aus. Teils Zustimmung, teils Ablehnung. Es werden mit Sicherheit noch weitere Modelle mit einem ähnlichen Ansatz auf die stetig wachsende Menge an Daten aus dem letzten glazialen Maximum losgelassen werden (hier zb). Primaklima bleibt natürlich bei diesem Thema am Ball.

 

 

 

 

 

Kommentare

  1. #1 K.a.r.S.t.e.N
    November 8, 2012

    Hi Georg,

    Bien hecho! Muchas gracias :-)

    Tamsin Edwards (MetOffice) und Kollegen haben sich ebenfalls an etwas ähnlichem versucht: allmodelsarewrong.com
    Bin allerdings gerade nicht im Bilde, ob da bereits was submittet wurde. Gab länger kein Update im Thread. Die vorläufigen Ergebnisse (in ihrem Blogpost nur mit einem Trick zu finden) lassen ebenfalls auf eine viel höhere Sensitivität schließen.

    Weiters hat thingsbreak sich jüngst mit dem Thema befasst. Dabei auch der Verweis auf das von James Annan und Julia Hargreaves zu CPD submittete Paper welches gleichfalls eine höhere Temperaturvariabilität findet. Allerdings ist deren korrespondierende LGM-Forcingannahme aus einem vorangegangenen eigenen Paper sehr hoch, was die Sensitivität reduziert. Ist jedoch nur eine Randbemerkung und mit entsprechenden “Warnhinweisen” versehen (siehe Diskussion von thingsbreak).

    Grüße KarSteN

  2. #2 axel
    November 8, 2012

    Es lohnt, sich nochmals das Interview des Koautors Nathan Urban bei Planet3 in Erinnerung zu rufen:
    http://rogerpielkejr.blogspot.fr/2012/11/loss-normalization-methodologies.html

    Imponierend, diese Bescheidenheit und Offenheit gegenüber möglichen caveats. Erinnert man sich noch daran, dass bei WUWT die Landverteilung mit höheren Werten der Klimasensitivität einfach mal so aus Schmittners Diagramm entfernt wurde? Das war schon fast komisch.

  3. #3 axel
    November 8, 2012

    @ Georg

    Bin etwas desillusioniert. Ich empfand es an der Methode immer so attraktiv, dass atmosphärische Klimafeedbacks (Wolken etc.) nicht mit GCMs bestimmt werden müssen, sondern in den Temperaturdaten einfach schon als Ganzes enthalten sind.

    Modelle haben hier nur die (untergeordnete) Rolle, die Randwerte (Veränderungen von Eis/Seeeis, Veränderungen der Biosphäre) zu bestimmen.

    Wenn ich jetzt sehe, dass die Ergebnisse immer noch stark vom verwendeten Modell abhängen, dann bin ich etwas ernüchtert.

  4. #4 Georg Hoffmann
    November 8, 2012

    @Axel
    “Bin etwas desillusioniert. ”
    Sei das bitte nicht. Es gibt ja nach wie vor die (fast) reinen Daten Paper, die die Klimasensitivitaet abschaetzen.
    http://www.sciencedirect.com/science/article/pii/S0277379109003291

    Diese Modell/Daten Paper gehen aber noch einige Schritte weiter. Es geht nicht mehr nur um die Klimasenistivitaet (eine Zahl) sondern praktisch die gesamte Parameterisierung der Modelle. Hier wurde zb (Karsten fuer dich) auch etwas zur Wichtigkeit des Staubs wg des LGM gesagt. Der Grund dafuer dass man am Ende vielleicht mehr rausbekommt liegt schlicht daran, dass man ja ein ganzes 2D-Temperaturfeld reinsteckt.

  5. #5 Georg Hoffmann
    November 8, 2012

    @Karsten
    Danke. 1A Links.

  6. #6 axel
    November 8, 2012

    Tja, auch den Karsten werden wir hier nicht los *grins*.

    Da dachte ich immer, prima Methode, Einflüsse anthropogener Aerosole gibt es ja nicht, ein große Unsicherheit fällt weg. Und nun streiten die sich über den Einfluss der Aerosole…
    (Wenigstens geht’s jetzt “nur” um Zehntelgrad in der ECS)

  7. #7 K.a.r.S.t.e.N
    November 9, 2012

    @axel:

    Je kälter, desto mehr Staub, desto höher das Gesamtforcing (Staub wirkt im als pos. Feedback, sprich je kälter, desto größer seine negatives Forcing und umgekehrt), welches aber alle anderen Feedbacks zw. Holocene und LGM, desto geringer die Klimasensitivität. Auf dieser Argumentation basierte IIRC das Chylek und Lohmann 2008 Paper, auf welches Georg sicher anspielt. Das Paper wurde jedoch ziemlich heftig attackiert (u.a. von Annan und Hargreaves), da die Auswahl einzelner Datenpunkte mehr als fragwürdig war. Nimmt man zeitlich gemittelte Werte, landet man plötzlich wieder in der üblichen Spanne. Mit anderen Worten. Es gibt definitiv ein Staubfeedback, aber es ist ziemlich gering. Für das anthropogene Forcing bisher nicht nachweisbar, was sicher auch an der Sahel-Drought der 1970/80er Jahre liegt, welche u.U. ebenfalls ein Aerosol-byproduct ist (anthropogene Sulfate).

    Soweit, so verwirrend ;-)

  8. #8 K.a.r.S.t.e.N
    November 9, 2012

    Ich werde ohne Vorschau einfach nicht glücklich. Die Neigung zum “Überlesen” von unvollständig nachgebesserten Textpassagen ist ziemlich groß. Mithin, der erste Satz ist derart entstellt, dass ich ihn wohl nochmal nachreichen muss. Here we go:

    Je kälter, desto mehr Staub, desto höher das Gesamtforcing zw. Holocene und LGM (…), desto geringer die Klimasensitivität.

    I’m sorry …

  9. #9 K.a.r.S.t.e.N
    November 20, 2012

    Übrigens lobt Andreas Schmittner das von Annan und Hargreaves bei CPD submittete (und oben von mir verlinkte) Paper über den Klee:

    I think that this is the best reconstruction of global LGM temperatures yet, because the authors use a more extensive and newer dataset as well as better models than previous studies. Uncertainties are quantified and sensitivity tests are performed, which indicate the robustness of the result. The paper is well suited for Climate of the Past. I recommend publication with minor revisions and congratulate the authors on a nice piece of work.”

    Solch eine Bauchpinselei hätte wohl jeder gern mal ;-)

  10. #10 K.a.r.S.t.e.N
    November 20, 2012

    Link funzt net … k.a. was da wieder passiert ist. Also nochmal *dull*: Comment Andreas Schmittner