Judith Lean ist eine der führenden Forscher zum Thema Sonne und Klima. Das tut sie, wie ich beim Verfassen dieses Artikels übrigens bemerkte bei der US NAVY (Sie hat eine navy.mil e-mail Adresse), nämlich bei der Space Science Division der Naval Research Laboratory. Man fragt sich, was das Pentagon wohl dazu bewegte in Sun/Earth relations, so Leans Arbeitsbeschreibung, zu investieren. Na, uns soll es recht sein.

Sie hat sich insbesondere damit beschäftigt, wie man aus den direkten Beobachtungen solarer Variabilität (genauer der spektral integrierten solaren Strahlkraft, TSI), die von verschiedenen Satelliten seit dem Ende der 70er gemessen wurde, auf deren Variabilität in der Vergangenheit schliessen könne. Vergangenheit heisst hier insbesondere die ca. letzten tausend Jahre. Diese Rekonstruktion eines Teil des Klimaforcings ist natürlich ein wichtiger Faktor zum Verständnis der millenaren Klimavariabilität.

i-d7198e0dc3243027c1c43b9aa305d103-AtmosphRegrForc.jpg


Bild 1:
Vergleich der linearen Regression von ENSO, solarem, vulkanischen und anthropogenen Forcings auf die Temperaturen in der Atmosphäre. Von links nach rechts steigt man in der Atmosphäre von unten nach oben bis zur Stratosphäre. Von der zweiten bis zur fünften Reihe sieht man den Anteil des jeweilen Forcingfaktors an der multivariaten Regression, die man in der ersten Reihe in gelb sieht.

Hier hatte ich bereits einmal ihre Arbeit zusammen mit David Rind vorgestellt, in dem sie die verschiedenen Forcingfaktoren, also den anthropogenen Anteil, die solare Variabilität (TSI), die von Vulkanen in die Atmosphäre geschleuderten Aerosole und den ENSO (El Niño Southern Oscillation) Index benutzen, um die globalen Temperaturen zu “erklären”. “Erklären” heisst für sie, die obigen vier Parameter linear in einer multivariaten Regressionsanalyse mit den globalen Temperaturen zu verbinden. Das Ergebniss sind dann z.B. so aus:
T_Regr=a*Sonne+b*Vulkane+c*Mensch+d*ENSO. In den folgenden zwei Bildern wird also jeweils das Gesamtresultat T, welches gerade so berechnet wurde, um möglichst nah an die beobachtete T_obs zu kommen und die den verschiedenen Forcingtermen zugewiesenen Anteile gezeigt. Eine kritische Anmerkung vorne weg. Die verschiedenen erklärenden Faktoren (a*Sonne, etc.), auch Predictor genannt, sollten voneinander unabhängig sein. Und das ist sicher für Sonne, Vulkane und Treibhausgase der Fall. Hingegen ist der Einfluss eines jeden dieser drei Faktoren auf ENSO überhaupt nicht klar, oder mehr noch: Es scheint eher unwahrscheinlich, dass ENSO von diesen drei Faktoren ganz unbeeinflusst ist.


Das Neue in ihrem jüngsten Review-Paper besteht nun darin, dass sie diesen einfachen Regressionsansatz auf die Satellitendaten anwendet statt nur auf die meteorologischen Oberflächendaten à la GISS oder HadCRU. Diese Satellitendaten besitzen ja eine vertikale Auflösung und so gibt es also Temperaturdaten für die untere und mittlere Troposphäre, sowie auch für die untere Stratosphäre. Letztere kühlte über den Beobachtungszeitraum deutlich ab, was zumindest zum Teil eine direkte Strahlungswirkung der erhöhten Treibhausgaskonzentrationen ist. Die verwandten Forcingterme (also was ich oben in der Formel Sonne, Vulkane, Mensch und ENSO nannte) sind wohl für die beiden unteren Troposphärenkanäle die gleichen, für die Stratosphäre hat Lean aber zwei Änderungen vorgenommen. ENSO hat in der Stratosphäre praktisch keinen Einfluss und so nimmt Lean den QBO Index (zur QBO siehe hier). Den Verlauf des anthropogenen Forcings ist mir auch nach einigem Buddeln nicht ganz klar geworden. Es handelt sich (Bild 2 rechts unten) um den Einfluss der Treibhausgase + CFCs (?), der wahrscheinlich (?) mit dem Strahlungscode des GISS Modells ausgerechnet wurde. Genauer kann ich es jetzt auch nicht sagen.

Geht man jetzt durch die verschiedenen Atmosphärenschichten, stellt man erstmal fest welch hohen Anteil der Variabilität (über 70%, in der Stratosphäre sogar fast 89%) man mit diesem einfachen Ansatz erklären kann. Der solare Anteil beträgt von 11-Jahrespeak zu 11-Jahrespeak ca. 0.1°C und der Erwärmungstrend der letzten 30 Jahre geht natürlich auf die Treibhausgase. Der solare Anteil ist, wie man es erwarten konnte, ungefähr dreimal wichtiger in der Stratosphäre als in der Troposphäre. Und der Strahlungsantrieb der Vulkanaerosole und der verschiedenen anthropogenen Emissionen wechselt eben das Vorzeichen zwischen unterer Troposphäre und der Stratosphäre.

Soweit so gut.

i-2f4631d6faf2cb48f7cae44d5a4da0cb-LongRegr.jpg

Bild 2: Der gleiche Ansatz wie in Bild 1, diemal mit den Forcingfaktoren über die letzten 130 Jahre. Das natürliche Forcing erklärt max. 0.2°C.

Lean hat dann dieses Regressions-Resultat auf die Oberflächentemperaturen und die entsprechenden Forcings angewandt (Bild 2). Das Forcing (z.B. Sonne und Vulkane) sind jetzt nicht direkt beobachtet, wie es vorher in der Satellitenära der Fall war, sondern basierend auf entsprechenden Rekonstruktionen (Sonnenflecken, Radioisotopen, Aerosolkonzentrationen im Eis etc). Wieder scheint mir das Resultat ziemlich viel der beobachteten Variabilität zu erklären (Bild 2 oben). Die natürlichen Antriebe (Sonne+Vulkane) kommen auf max. 0.2°C Temperatureinfluss, der Rest sind die Treibhausgase. Allerdings ist auch klar, dass dieser Ansatz vor ca. 1950 deutlich schlechter funktioniert als in der Zeit danach. Die Regression (siehe 2 oben) liegt über den Beobachtungen zur Zeit des Endes der kleinen Eiszeit am Ende der kleinen Eiszeit und kann auch nicht die volle Erwärmung bis 1940 beschreiben. Behauptungen wie die von Scafetta/West, dass die Sonne über diesen Zeitraum von 130 Jahren 70% des Temperaturanstiegs erklären soll, scheinen doch ziemlich absurd und benötigt daher auch hoch nicht-lineare und unbeobachtete Einflüsse eines ebenfalls unbeobachten Anteil des Sonnenspektrums auf das Klima.

Kommentare (35)

  1. #1 Andrea Thum
    September 11, 2010

    Sehr interessant! Mich würde jetzt sehr interessieren, wie der anthropogene Einfluß bestimmt wurde, die Übereinstimmung zwischen Regressionsergebnissen und gemessenen Werten sieht ja gut aus.
    Oder kann es sein, dass es andersrum ist, dass sie auf diese Art den menschengemachten Anteil rausgerechnet hat, indem sie aus der beobachteten Temperaturentwicklung abzüglich der Einflüsse durch Sonne etc. alles, was nicht erklärt werden konnte, auf den anthropogenen Einfluß schließt? Die Linie sieht auch auffällig glatt aus?
    Interessant auch die nicht-Übereinstimmung um 1940 rum.

  2. #2 Georg Hoffmann
    September 11, 2010

    @Andrea

    Mich würde jetzt sehr interessieren, wie der anthropogene Einfluß bestimmt wurde

    Mit einem Strahlungsmodell. Man steckt die bekannten Konzentrationen von CO2, N2O, CH4, CFCs etc in ein Strahlungsmodell und dann kann man das Strahlungsforcing ausrechnen (in W/m2). Im uebrigen wird fuer die Vulkan-Aerosole aehnliches gemacht.

    Der anthropogene Anteil ist sicher nicht das Residuum, von dem was sozusagen uebrigbleibt und nicht ansonsten erklaert werden koennte.
    Die Linie sieht glatt aus, weil wir eben sehr langsam aber stetig immer mehr in die Luft blasen. Die Jahr zu Jahr Variationen sind verglichen mit der Sonne oder gar mit Vulkanen sehr sehr klein.

    Interessant auch die nicht-Übereinstimmung um 1940 rum.

    Es gab Ideen, dass das teilweise mit Messproblemen waehrend des Krieges zu tun haben koennte. Ich meine, die Experten haben da schon lange drueber nachgedacht und der Temperaturverlauf ist echt.
    https://www.nature.com/nature/journal/v453/n7195/abs/nature06982.html

  3. #3 Jörg
    September 11, 2010

    Im Artikel sind nur drei Quellen genannt, eben keine für die anthropogene Anomalie. Da
    T_Regr=a*Sonne+b*Vulkane+c*Mensch+d*ENSO

    nur drei freie Parameter hat, hätte ich jetzt auch geschätzt dass der anthropogene Anteil das Residuum ist?

  4. #4 Georg Hoffmann
    September 11, 2010

    @Joerg
    Verstehe ich jetzt nicht. Da sind doch vier Parameter. Was meinst du mit “drei Quellen”?

  5. #5 Jörg
    September 11, 2010

    Na hätte ich zuerst weitersuchen sollen, klar das Forcing ist ja auch unbekannt nicht nur der Regressionsparameter. Im 2008 GRL Paper steht es erklärt (DOI:10.1029/2008GL034864)

    The anthropogenic forcing is the net effect of
    eight different components, including greenhouse gases,
    landuse and snow albedo changes, and (admittedly uncertain)
    tropospheric aerosols [Hansen et al., 2007] (inset,
    Figure 2d).

  6. #6 Andrea Thum
    September 11, 2010

    Aha! Was ist dann das ENSO (ich bin ja ziemlicher Klima-Laie), dieses El-Nino-Dings? irgendwas mit Wassertemperatur? *nachles* äh ja, so ungefähr.
    Ich glaube Jörg meinte, dass in der Regressionsgleichung der Fehler fehlte, sozusagen …+e, oder?

  7. #7 Klimaketzer
    September 11, 2010

    0,8 °C Anthropogenic influence seit 1880 ????

    LOL. Lass das bloß nicht das IPCC wissen. Die gehen von 0,4 – 0,5 °C Erwärmung aufgrund von CO2 aus (langfristig gesehen, also noch nicht heute) bei der bisherigen CO2-Erhöhung von 280 auf 390 ppm. Und wo bleiben die anthropogenic aerosols? Stichwort Stephen Schneider!

  8. #8 Rudi
    September 11, 2010

    Erstmal sollte das El Nino Dings geklärt werden.
    Danach wird das Optimierungskriterium sauber formuliert, so dass jeder weiß wo der Fehler sich verstecken könnte.
    +e = Minimum oder Maximum (Metrik nach….)
    mit den Zwangs- und Nebenbedingungen
    und hundert überflüssigen Sätzen

    Quizfrage: sind es drei oder sind es vier Parameter die Judi sucht?

  9. #9 Rudi
    September 11, 2010

    Ahh Andrea genau, ein Blinder kann erkennen dass der Fehler in den Jahren um 1940 extremwertig wird. Nun gut Hoffmann hat ne Erklärung dafür.

  10. #10 Georg Hoffmann
    September 11, 2010

    @Ketzer
    “Die gehen von 0,4 – 0,5 °C Erwärmung aufgrund von CO2 aus (langfristig gesehen, also noch nicht heute) bei der bisherigen CO2-Erhöhung von 280 auf 390 ppm.”

    Nochmal besser formulieren. Verstehe ich nicht.

    Anthropogenic aerosols wurde oben schon erwaehnt:
    “The anthropogenic forcing is the net effect of
    eight different components, including greenhouse gases,
    landuse and snow albedo changes, and (admittedly uncertain)
    tropospheric aerosols [Hansen et al., 2007] (inset,
    Figure 2d).”

    @Andrea
    ENSO ist wie gesagt die El Niño Southern Oscillation und die bei weitem groesster natuerliche Klimaschwankung. EInfach mal googlen.
    Fehler sind hier nirgendwo diskutiert und bei linearen Regressionen trivial. Ich dachte eigentlich nicht, dass das Joerg meinte. Es wurden vier Forcing Kurven linear correliert auf die beobachtete Temperatur.
    Im Lean 2008 Paper sind die Fehler angegeben und folgendes vermerkt

    “The given uncertainties are the combined statistical uncertainties of the multiple regression and the fitted trend and do not include uncertainties in
    either the temperature observations or the forcings. IPCC [2007] net global temperature trends are included for comparison. Trends are in K per
    decade.”

  11. #11 Jörg
    September 11, 2010

    Es sind vier Parameter. Das mit den dreien war weil ich gerade durch meine eigenen Sachen verwirrt war bei denen ich Gewichte haben – die addieren sich zu 1 auf und dann wäre der vierte bekannt sobald man die ersten drei hat. Das ist hier natürlich nicht der Fall, es ist ja eine Zeitreihenanalyse und man optimiert die vier Parameter um eine bestmögliche Übereinstimmung zu finden zwischen der Summentemperatur und der gemessenen Temperatur. Ein Residuum gibt es nicht, dafür ermittelt man aber die Unsicherheit in den Parametern, siehe Tabelle 1 im erwähnten 2008er Paper (hier als PDF).

  12. #12 Marc B.
    September 12, 2010

    Kurz zur Erklärung warum die Navy daran forscht. Die US Navy, deren Nachrichtendienst und deren Forschungsabteilung sind führend in Systemtheorie, Nachrichtentechnik, Signalanalyse und Signal/Rauschen-Theorien. Das liegt daran, dass die Navy weltweiten Funk- und Satellitenkontakt mit ihren Schiffen, insbesondere getauchten Atom-U-Booten halten muss.

    Daher interessieren sie sich dafür, wie man mit sehr geringer Energiedichte Signale übermitteln kann und wie man Störungen dieser Kommunikation zB durch Sonnenaktivität erkennen und ausgleichen kann.

  13. #13 Klimaketzer
    September 12, 2010

    @Hoffmann

    Bildlich ist das vielleicht einfacher zu verstehen?

    https://www.mathe-fa.de/de.plot.png?uid=FSER4c8cb7d2c52749.18889936

    X-Achse: CO2 (ppm)
    Y-Achse: Temperaturerhöhung (langfristig) (°C)

    Wir kommen angeblich von 280 ppm. Aktuell sind wir bei ca. 390 ppm, dass bedeutet langfristig gesehen + 0,4 – 0,5 °C, durch diesen CO2-Anstieg.

    Eine CO2-Verdopplung (280 – 560 ppm) bedeutet langfristig gesehen ca. +1 °C, durch CO2.

  14. #14 Rudi
    September 12, 2010

    @Klimaketzer
    Hier ein paar Stichworte die sie kennen sollten (googlen)
    Klimasensitivität
    positive Feedbacks

    Die Klimasensitivität KS ist nicht 1 grad /CO2-Verdoppelung, sondern XX wegen der positiven Rückkopplung.
    XX soll nach Ansicht der Klimatologen bei ca. 3 Grad liegen (Hebel 3)

    Aus den dargestellten Grafen (Bild 2) ergibt sich aber für die KS ungefähr 0,8/0,45 ~= 2

  15. #15 Georg Hoffmann
    September 12, 2010

    @Ketzer
    Nein es wird nicht verstaendlicher. “Langfristig” soll ja wohl Gleichgewichtstemperatur bedeuten (also wenn das System nach der Aenderung der THG wieder ins Strahlungsgleichgewicht gekommen ist). Die Figur ist bestenfalls 2*CO2 ohne Feedback. So eine Abschaeutzung gibt es im IPCC nicht.
    Mich interessiert aber wo Sie das her haben:
    “Lass das bloß nicht das IPCC wissen. Die gehen von 0,4 – 0,5 °C Erwärmung aufgrund von CO2 aus (langfristig gesehen, also noch nicht heute) bei der bisherigen CO2-Erhöhung von 280 auf 390 ppm. ”

    Wo steht das im IPCC?

  16. #16 Klimaketzer
    September 12, 2010

    @Rudi, Hoffmann

    Ja genau. Es bedarf der positiven Feedbacks, um eine größere Erwärmung zu erreichen. Diese sind allerdings sehr unsicher, wie wir alle wissen. Wasserdampf, Wolken, …..

    Wo entschlüsselt uns das übrigens Judith Lean (Anthropogenic influence) ?

    @Hoffmann

    Es geht doch. Richtig verstanden. Ja wo steht das denn nur im IPCC-Bericht? Soll ich nachhelfen? Z.B. tauchen die Formeln im TAR auf. Mann muss nur noch die Werte einsetzen. Das habe ich mal gemacht. Und natürlich geben die dort die Formeln ohne weitere Feedbacks an.

  17. #17 Georg Hoffmann
    September 12, 2010

    @Ketzer
    Ziemlich sinnlos ihr ganzer Kommentar. Ich dachte erst, es gaebe tatsaechlich im AR4 eine stelle in der eine Attribution im Sinne ihres Satzes durchgefuehrt worden waere. Gibts nicht und der Rest ist voellig ohne Bezug zu diesem Text hier.
    Na, egal.
    Hier nochmal, warum das nicht geht
    https://www.realclimate.org/index.php/archives/2006/10/attribution-of-20th-century-climate-change-to-cosub2sub/

  18. #18 Rudi
    September 12, 2010

    @Klimaketzer
    Ich denke H.G. Hoffman ist nicht fair zu ihnen. Er nennt sie verkürzt Ketzer (ohne Klima), dahinter steckt doch eine Absicht.?

    Noch ein wichtiges Stichwort
    cherry picking
    Es gibt eine Neigung (auch bei Klimaforschern) nur solche Ergebnisse die ihre eigne Theorie belegen zu veröffentlichen. Das ist nach meinem Empfinden auch bei Judith L. der Fall. Die angepassten Kurven stimmen ab 1960 sehr gut zusammen und bestätigen in etwa die K-wisscnschaftler.
    Vor 1960 passt aber so gut wie nichts. Und ich würde wetten dass ab 2005 in die Zukunft gerechnet auch nichts passen wird wenn die Messdaten vorliegen. (Aber so sind die halt)

  19. #19 Klimaketzer
    September 12, 2010

    @Hoffmann

    Wow, ein Hoffmann gesteht mal ein, dass er die IPCC-Berichte 1-4 nicht alle inhaltlich kennt. Na dann, …… Vielleicht doch noch mal den TAR und die Seite 358 aufschlagen und die Formeln nachschlagen?

    @Rudi

    In der Tat. Judith Lean betreibt cherry picking. Warum nur schwört Hoffmann denn so große Dinge auf sie?

  20. #20 Georg Hoffmann
    September 12, 2010

    @rudi,Ketzer
    Ich weiss wirklich nicht wovon ihr redet, aber wenn ihr noch Fragen habt, sagt bescheid.
    Mir scheinen zwei Punkte entscheiden:

    1) Natuerlich kann so eine lin.Regr. nicht abschliessend eine Attribution vornehmen (wieviel CO2 macht wieviel T aus). Dazu sind die Unsicherheiten insbesondere in den anthr.Aerosolen zu gross). Aber diese Analyse zeigt nochmals, dass mit dem heutigen Wissen absolut keine besonderen Annahmen ueber “cosmogenic-Weissnichtwas” gemacht werden muessen um irgendeine Phase der letzten 120 Jahre zu erklaeren.

    2) Insbesondere die letzten 10 Jahre sind in diesem einfachen Modell genau da wo sie hingehoeren, naemlich relativ stagnierend. Lean geht dann auch fuer die nahe Zukunft von einem sehr starken Erwaermungstrend aus (zusammen mit dem Cycle 24): 0.15°C in den naechsten 5 Jahren. Schaun wer mal.

  21. #21 Rudi
    September 12, 2010

    Tja auf das Foto von Judi L. bin ich nun auch gespannt

  22. #22 Rudi
    September 12, 2010

    5 Jahre ist ein faires Angebot.

  23. #23 Georg Hoffmann
    September 12, 2010

    @Rudi
    Denke ich auch. Sie geht allerdings von einem normalen Cycle 24 aus der 2014 das Maximum erreichen muesste.

  24. #24 Karl Mistelberger
    September 13, 2010

    Es gab Ideen, dass das teilweise mit Messproblemen waehrend des Krieges zu tun haben koennte. Ich meine, die Experten haben da schon lange drueber nachgedacht und der Temperaturverlauf ist echt.

    Wie kommst du darauf, zu meinen der Temperaturverlauf sei echt?

    https://www.skepticalscience.com/images/forcing_v_temp.gif

    Das Forcing zeigt keinen solchen Verlauf, ebenso die Landtemperaturen:

    https://www.skepticalscience.com/A-new-twist-on-mid-century-cooling.html

  25. #25 Georg Hoffmann
    September 13, 2010

    @Karl
    Es kann sein, dass ein neuer HadCRU Release quantitativ etwas ändern wird (und somit Leans Regression in den 40ern besser), so wie John Cook spekuliert. Qualitativ wird aber etwas bleiben. Die warmen Temperaturen der 30er/40er sind nicht nur auf Schiffen gemessen, sondern auch an vielen Arktisstationen. Es hat wol eher etwas mit multidekadischer Var. im Atlantik zu tun (AMOC). Die Landtemperaturen zeigen durchaus etwas.

  26. #26 Andrea Thum
    September 13, 2010

    Ich arbeite ja selber gerade am Thema Regression, da würden mich die Details der hier verwendeten interessieren. Aber ich finde sie nicht im Artikel. Bin ich blind? Oder ist das in manchen Papers unüblich, die hinzuschreiben?

  27. #27 Georg Hoffmann
    September 13, 2010

    @Andrea
    Ich nehme an “mit dem Artikel” meinen Sie den besprochenen Lean Artikel, nicht meinen Blogartikel? Details finden sich wie von Joerg angegeben hier Lean 2008 (habe ich oben erwähnt) https://www.atmosp.physics.utoronto.ca/~jclub/journalclub_files/LeanGRL2008.pdf

    Ansonsten ist das Verfahren trivial. Multivariate Regression. Vier Zeitserien (Prediktoren) und ein Prediktand (die jeweilige Temperaturzeitserie).

    zB hier: https://www.statsoft.com/textbook/multiple-regression/

  28. #28 Andrea Thum
    September 13, 2010

    @Georg: Danke! Und Entschuldigung für die dummen Fragen, mit Zeitreihen und Klima habe ich mich bisher einfach noch gar nicht befasst, finde aber den beschriebenen Artikel sehr interessant.

  29. #29 Rudi
    September 23, 2010

    Passend zum Thema
    https://www.nature.com/nature/journal/v467/n7314/full/nature09394.html

    Na da wünsch ich Judith viel Glück, dass die PDO nicht allzuschnell zuschlägt.

    G.Hoffmann
    Das Ganze muss nochmal gründlich nachgerechnet werden.
    Dann schaun wir mal was aus dem Klimazirkus wird.

  30. #30 Rudi
    September 23, 2010

    Nachtrag
    Nach meiner Einschätzung werden die Kurven von Judith Lean nur im Zeitintervall
    1975 bis 2009 gut aussehen

  31. #31 Georg Hoffmann
    September 23, 2010

    @Rudi
    Schwer zu sagen, was Sie wohl sagen wollen. Das ist aber nicht neu.

    “Nach meiner Einschätzung werden die Kurven von Judith Lean nur im Zeitintervall
    1975 bis 2009 gut aussehen”
    Was heisst “werden”, die Kurven sind oben zu sehen und es ist klar wie Kloszbruehe, dass ihre lineare Regression noch einiges vor 1975 erklaert.
    Offensichtlich gibt es in dem Ansatz von Lean noch ca 20% unerklaerte Variabilitaet. Die duerfen Sie dann nehmen um interne Variabilitaet jenseits von ENSO, denn die ist schon drin, zu beschreiben.

  32. #32 Rudi
    September 23, 2010

    G.Hoffmann
    Ich versuch das etwas genauer zu beschreiben
    Weil der approximierte Temperaturverlauf vor 1970 (ok, oder vor 1960) so gut nicht passt (Bild 2) müsste es eine weitere nicht vernachläsigbare Einflußgröße geben die im Modell eben nicht enthalten ist. Mal angenommen es handelt sich dabei um eine Oszillation, die nur alle 30 bis 35 Jahre die Phase wechselt, dann ist in den Halbzyklen (der Oszi) eine gute Anpassung auch ohne Berücksichtung der Oszillation möglich. Nur wenn das Zeitfenster größerer gewählt wird führt dies zu erkennbaren Abweichungen.
    Nun glaub ich dass es jetzt wieder zu einem Phasenwechsel kommen wird und dann werden die prognostizierten T-Verläufe [Lean und Rind 2009?\8] im Nachhinein betrachtet halt auch nach 2009 nicht passen.

  33. #33 Georg Hoffmann
    September 23, 2010

    @rudi
    Alles sehr seltsam, was Sie da schreiben.
    1) Beim “Modell” (wie Sie das nennen) handelt es sich um ein statistisches Modell. Ich hoffe wir sind uns darueber einig. Es ist KEIN physikalisches/mechanistisches Modell. Das statistische Modell besteht aus genau einer Gleichung

    T=a*ENSO+b¨*Sonne+c*GHG+d*Vulkan

    Die “Vermutung” (wie Sie es nennen), dass es etwas gibt, was nicht von diesem Regressions Modell beschrieben wird ist also ganz einfach zu ueberpruefen, es ist alles ausser ENSO, Sonne, GHG und Vulkane. Fertig.

    2) Das statistische Modell erklaert etwa r2=0.87^2~75% der Variabilitaet. Ohne die Daten zu haben, schaetze ich mal, dass es vor 1960 immer noch ca 65% sind. Das ist, nur um das mal einzuordnen sehr sehr viel.

    3) Misterioese Oszillationen sind ja des Skeptikers Liebling. Bei der PDO ist weder ganz klar, was das genau ist (die Definition des Index allerdings ist sehr praezise), was die moeglichen Mechanismen sind und man hat Probleme bei der Modellierung.
    https://www.scienceblogs.de/primaklima/2008/06/pdo-zum-ersten.php
    https://www.scienceblogs.de/primaklima/2008/06/pdo-zum-zweiten.php
    Dass das jetzt das Klima die naechsten Jahre bestimmen wird ist sicher nicht klar
    https://www.skepticalscience.com/images/pdo_temp.gif,
    dass es in wirklichkeit die PDO ist, die fuer global warming verantwortlich ist, kann man gleich ganz ausschliessen (as insbesondere mit der Definition der PDO zu tun hat).
    https://www.skepticalscience.com/Is-Pacific-Decadal-Oscillation-the-Smoking-Gun.html

    4) “Nun glaub ich dass es jetzt wieder zu einem Phasenwechsel kommen”
    Ich glaub auch so manches.

  34. #34 paul
    Februar 9, 2011

    was genau ist denn diese antropogenic influence (physikalisch)?
    insbesondere wenn er im MINUS liegt,
    vielleicht die äh Kühlschränke?

  35. #35 Ebel
    Februar 9, 2011

    @ Georg Hoffmann· 23.09.10 · 16:08 Uhr
    Erweitert man Deine Gleichung

    T=a*ENSO+b¨*Sonne+c*GHG+d*Vulkan

    oder

    T(i)=a*ENSO(i)+b¨*Sonne(i)+c*GHG(i)+d*Vulkan(i)

    um die Treibhausgaskonzentration des Vorjahres:

    T(i)=a*ENSO(i)+b¨*Sonne(i)+e*GHG(i)+f*GHG(i-1)+d*Vulkan(i)

    so ergibt sich etwa

    e + f ~ c
    e ~ 4 c
    f ~ -3 c

    Ist aber noch nicht statistisch gesichert. Aber es spricht dafür, das der grundsätzliche Treibhauseffekt 4 mal stärker ist und eine erhebliche zeitverzögerte Gegenkopplung existiert.

    MfG