Diese wirklich nettgemachte Animation (siehe unten) erläutert noch einmal, wie sich die beobachteten globalen Temperaturen aus Trend und natürlicher Variabilität zusammensetzen. Die Animation basiert auf einer Reihe von Artikeln (hier und hier und hier), die Tamino auf seinem Blogg OpenMind veröffentlicht hat und die schliesslich in einem peer-reviewten Artikel endeten. Die meiste Kritik an diesem Artikel war völlig verrückt und braucht nicht weiter diskutiert zu werden. Trotzdem ist natürlich klar, dass die benutzte lineare Zerlegung eines Signals in Trend und Rest, nicht 100% perfekt sein wird. So wird etwa das ENSO Signal von der globalen Kurve abgezogen (siehe etwa die Animation unten) und es ist natürlich möglich, daß sich ein kleiner Anteil globaler Erwärmung im ENSO Signal versteckt, der somit bei der Berechnung des Trends der globalen Erwärmung nicht berücksichtigt wäre. Schliesslich könnte es ja sein, dass Amplitude und Frequenz von ENSO sich bereits auf Grund der globalen Erwärmung geändert hätten. Es sieht nicht so aus, aber ….

Video von John Cook und Skeptical Science

Das aber wollte ich gar nicht weiter diskutieren. Bei meinen Ausflügen in die Skeptosphäre habe ich immer das Gefühl, dass viele an diese sich Monat um Monat verlängernde Temperaturkurve völlig überzogene Erwartungen richten. Nach dem Motto: Noch ein Jahr mehr, – nur ein Jahr, Herr – ohne Temperaturanstieg und dann bricht die ganze “verlogene Klimapanik” in sich zusammen. Noch kurioser ist die Idee, dass man am Anstieg dieser Kurve mehr oder minder ablesen könne, wie sehr Mitigationsmassnahmen nun notwendig oder eben nicht so notwendig seien. Das ist sicher absurd, aber man möge sich schon einmal daran gewöhnen, dass solche Argumentationlinien bald auch von dem einen oder anderen Abgeordneten, Firmenchef oder RWE Klimakasperl (ooups, schon passiert) gebracht werden.

Ich hatte hier einmal nachgeschaut, wie ungewöhnlich denn aus rein statistischer Sicht 10 Jahresabschnitte ohne globale Erwärmung in den AR3 (nicht AR4, wie zuerst geschrieben) Simulationen des Max-Planck Instituts (ECHAM4) sind. Antwort: Nicht ungewöhnlich, man findet sogar 15-Jahresabschnitte ohne Erwärmung ohne lange zu suchen. In meinem Artikel schätze ich mal über den Daumen gepeilt ab, dass 20 bis 25 jährige Temperaturstagnationen zumindest für die ECHAM4 AR4 Läufe bedeuten würde, dass die Hypothese, dass das Model die Kombination aus Forcing (ie Trend) und natürlicher Varibilität (geforct – etwa Vulkane – oder intern – etwa ENSO) korrekt beschreibt, zurückgewiesen werden müsste.

Was aber würde denn nun genau sein, wenn weitere 5 oder meinetwegen 10 Jahre ohne deutlichen Anstieg der Temperaturen vergehen? Kann man dann endlich so Sachen sagen wie: Somit ist bewiesen, dass die Modelle die Erwärmung stark überschätzen, die Klimasensitivität eigentlich deutlich kleiner ist und, kurz und gut, global warming ein hoax ist. Ganz ohne Ironie meine ich, dass das LEIDER nicht so ist. Es wäre wirklich toll, wenn man aus 5 oder 10 Jahren mehr an Temperaturdaten solche Schlüsse ziehen könnte. Im Model wie in der Wirklichkeit (siehe die Animation) sind T-Zeitreihen der letzten 50 Jahre eben aus Variation und einem geforcten Trend zusammengesetzt. Wenn die Modelle also definitiv (mit einer bestimmten Sicherheit von xx.xx%) die T-Beobachtungen nicht mehr beschreiben, ja dann bekommen Sie eben entweder den Trend nicht hin oder die natürliche Variabilität oder beides und alle drei Möglichkeiten (Trend,Variabilität, beides) auf Grund eines Bündels von möglichen Problemen (Wolken in den Subtropen, vertikale Ozeandiffusion, kein indirekter Aerosoleffekt, keine Repräsentation von Vulkanausbrüchen, keine oder unzureichende solare Variabilität, etc. etc.), die in den Modellen existieren könnten und ja sogar teils mit Sicherheit existieren. Ich hätte es auch gerne einfacher, aber so ist es halt.

PS. Primaklima versucht ja immer den Leserservice hoch zu halten. Hier also können unsere Klimaskeptiker einfach Sätze herauskopieren oder besser noch, einfach die entsprechenden Nummer posten. Freie Wahl:1) Die Ratten verlassen das sinkende Schiff. 2) Georg versucht seine Haut zu retten. 3) In 4 Jahren ist Schluss mit dem Luxusleben der Herren Forscher. 4) Das heisst man kann niemals sagen, ob die Modelle etwas taugen oder nicht. 5) Wenn die Modelle also in Kürze als falsch festgestellt sind, warum soll ich dann meinen SUV hergeben.

Kommentare

  1. #1 Dr. Webbaer
    Januar 10, 2013

    16 Jahre ohne globale Erwärmung – Echt? Und wenn ja, was dann?

    Wenn es bis 2100 um 2K bis 6K wärmer werden soll, es zwischen 1880 und 2112/12 aber nur ca. 0,8K wärmer geworden ist, gibt es womöglich ein Problem mit dem Sollen bzw. mit der Prädiktion.

    Sollte man annehmen.

    Was aber nicht beweist, ‘dass die Modelle die Erwärmung stark überschätzen, die Klimasensitivität eigentlich deutlich kleiner ist und, kurz und gut, global warming ein hoax ist.’

    4) Das heisst man kann niemals sagen, ob die Modelle etwas taugen oder nicht.

    .. ist somit zwar “nicht ganz” richtig, stellt aber die IT-gestützte, neue & modellbasierte Klimaprognostik auf den Prüfstand. – Die Falisifizierbarkeit scheint zudem wegen der fortlaufenden Weiterentwicklung/Anpassung der Modelle “nicht ganz” gegeben, korrekt!

    MFG
    Dr. W

  2. #2 axel
    Januar 10, 2013

    16 Jahre ohne weitere Erwärmung? Die Lunte am Scheiterhaufen für alle Klimaforscher und AGWler glimmt schon ;-)

  3. #3 axel
    Januar 10, 2013
  4. #4 axel
    Januar 10, 2013

    Zeit für eine Wette:

    Ich wette, dass es in den nächsten beiden Jahren einen neuen Temperaturrekord geben wird. Wer wettet dagegen?

    Erlös wie üblich für einen guten Zweck, sagen wir das Kinderheim in Spanien.

  5. #5 energietechniker
    Januar 10, 2013

    also ich würde mal sagen:

    2: in ein paar jahren dürfte das mit den animierten plots von den einschlägigen alarmistenseiten auch nicht mehr so leicht hinzuschönen sein. die ausgemalten kurfentäler und berge in dem filmchen erinnern mich irgendwie an “die kalte sonne”…

    4: langsam gebe ich den gedanken auf in meiner restlebenszeit von (hoffentlich) einigen jahrzehnten das ende dieser playstation-physik zu erleben. tröstlich ist aber dass die klimapolitik schon heute mausetot ist

    und natürlich

    5: den SUV fährt zwar meine frau (zum bäcker und so). ich hab aber den kleinen luftgekühlten wieder rausgeholt

  6. #6 Karl Mistelberger
    Januar 10, 2013

    Mehr vom RWE Klimakasperl: http://diekaltesonne.de/?p=7934

  7. #7 energietechniker
    Januar 10, 2013

    @axel:

    wenn sie ein bisschen spezifischer wären, wäre ich evtl dabei.

    irgendwo auf diesm planeten an irgendeinem zeitpunkt wirds wohl sicher einen neuen T-rekord geben

  8. #8 axel
    Januar 10, 2013

    @ ET

    Natürlich global. Ich schlage mal GISS als Referenz vor.

  9. #9 energietechniker
    Januar 10, 2013

    @axel

    ich bevorzuge UAH:

    sagen wir €200 dass es bis 12/2014 keine neue rekord-monats-mittel-T im UAH datensatz gibt

  10. #10 Rudi
    Januar 10, 2013

    “Ich wette, dass es in den nächsten beiden Jahren einen neuen Temperaturrekord geben wird.”

    Wenn es den geben sollte, dann kann ich mir gut vorstellen, dass der J. Hansen spätestens in drei Jahren ein Anklage wegen Datenfälschung am Hals hat.

  11. #11 axel
    Januar 10, 2013

    @ Rudi

    Sie können ja wetten und verklagen, das eine muss das andere nicht ausschließen. Sie können natürlich auch einen anderen Datensatz vorschlagen, ein Problem.

    PS:
    Wissen Sie, warum Skeptiker Datensätze immer dann als falsch postulieren, wenn diese einen Rekord anzeigen? Hatten wir dieses Jahr beim Seeeis, jetzt beim Temperaturrekord in den USA und bald beim nächsten globalen Rekord, egal in welchem Datensatz.

    @ Rudi

    Satellitendatensätze (sowohl UAH als auch RSS) sind mir zu heikel für eine Wette auf zwei Jahre, weil sie sehr sensibel auf ENSO reagieren, man schaue sich nur den Einfluss des “Monster El NIno” 1998 in den Satellitendaten an. Da müsste ich schon auf einen deutlichen ElNino-Zustand hoffen, den sehe ich 2013 nicht. Bei den landgestützten Datensätzen könnte schon ein moderater ElNino+Trend ausreichen, daher mein Angebot.

  12. #12 energietechniker
    Januar 10, 2013

    @axel
    ach kommen sie…die erderwärmung beschleunigt sich doch:
    http://www.scilogs.de/wblogs/blog/klimalounge/klimadaten/2008-10-24/erderwaermung-beschleunigt-sich

    wenn rahmi und phili das sagt ,ist das ist doch eine klare sache.
    wieso kriegen sie da kalte füsse?

    die satellitendaten sind wenigstens frei von zweifeln bzgl stationsauswahl, stationskorrektur oder eben stationsausschluss, UHI, und nicht zuletzt von aktivisteneinflüssen

    das kann man von GISS nicht behaupten

    meinetwegen können wir auch um jahresmitelwerte von UAH wetten

  13. #13 Rudi
    Januar 10, 2013

    @axel
    Ich werde niemanden verklagen und wetten werde ich nur wenn die Chancen 10 : 1 für mich stehen.
    Schauen Sie sich doch mal den Multivariaten ENSO Index
    http://www.esrl.noaa.gov/psd/enso/mei/
    im Zeitraum 1950 bis 1970 an. Da gab es keine Super El Nino s. La Nina dominierte und hat durch die (Zeit- und Raum-)Integrale Wirkung die Temperaturen leicht fallen lassen. Jetzt ist wieder die Zeit von La Nina angebrochen (meine Einschätzung) und ihre Chancen beschränken sich auf ein Ausreißerereignis. Doch wetten Sie ruhig es ist ja für einen Guten Zweck..

  14. #14 Rudi
    Januar 10, 2013

    Nachtrag zum allgemein besseren Verständnis der El Nino Diskussion.

    In den vergangen 30 Jahren hat i.d.R.das Auftreten eines El Nino zu einem neuen globalen T-Rekord geführt. Darauf setzt axel, weil gepaart mit dem erwarteten aber nicht sichtbaren CO2-T-Anstieg müsste sich wie bisher nach Lieschen Müllers Rechnung wieder eine neuer Spitzenwert zeigen. axel vergißt aber den Einfluß der negative PDO Phase auf den den T-Trend, der den CO2-Einfluß kompensiert.

  15. #15 axel
    Januar 10, 2013

    @ Rudi

    10:1-Wetten sind langweilig, nicht mein Geschmack. Wetten um die 50:50 sind doch spannend, noch spannender, wenn die Wettpartner ihre Position jeweils mit mehr als 50% bewerten. Und dass ich die negative PDO-Phase vergessen habe, spricht dann ja für ihre Position.

  16. #16 Rudi
    Januar 10, 2013

    @axel
    “50:50 sind doch spannend”
    stimmt
    Doch ich kann nicht glauben dass die Spannung zwei Jahre anhält. (Lotto oder Frauen können auch für kurze Momente Spannung erzeugen)

  17. #17 Klima-Seppl
    Bremen
    Januar 10, 2013

    Und noch mehr vom RWE-Klimakasperl:
    http://www.kaltesonne.de/?p=7639

  18. #18 adenosine
    Januar 11, 2013

    Temperaturrekorde beweisen wenig zu Frage der CO2-Sensitivität. Auch wenn die CO2-Sensitivität nur bei 0.1K pro Dekade liegt, werden in der jeweils letzten Dekade Temperaturrekorde lokal und global zu verzeichnen sein.

  19. #19 Rahmhuber
    Januar 11, 2013

    “Ich wette, dass es in den nächsten beiden Jahren einen neuen Temperaturrekord geben wird.”
    Kalt oder warm?
    In Deutschland rechne ich mit weiteren Kaelterekorden, egal wie es weltweit ausschaut, soviel Suv kann man gar nicht fahren.
    http://wetter.t-online.de/kaelterekord-in-deutschland-schlimmste-kaelte-seit-jahrzehnten/id_53791628/index

  20. #20 ein Name
    Januar 11, 2013

    Dieser ätzende Tonfall mit dem hier das Klima verkündet wird, das hat was besonderes. Kindergartenniwo.

    Was wollt ihr denn überhaupt?? Wenn ihr WENIGSTENS die EIER hättet, für Atomkraft zu plädieren, könnte man euch noch ernst nehmen. Aber anscheinend ist alles (??) was ihr wollt, recht haben. Das ist schon fast tragisch..

  21. #21 Olga Stuss
    Januar 11, 2013

    “Was wollt ihr denn überhaupt?? Wenn ihr WENIGSTENS die EIER hättet, für Atomkraft zu plädieren,”

    Doch, doch ich plädiere für Atom! Wirklich!

  22. #22 Olga Stuss
    Januar 11, 2013

    Schade der Hormonschub ist ausgeblieben :(

  23. #23 Georg Hoffmann
    Januar 11, 2013

    @WB
    “Wenn es bis 2100 um 2K bis 6K wärmer werden soll, es zwischen 1880 und 2112/12 aber nur ca. 0,8K wärmer geworden ist, gibt es womöglich ein Problem mit dem Sollen bzw. mit der Prädiktion.”

    Ein linearer Trend ist seit etwa 1975 festzustellen. Vorher gab es Schwankungen bei denen der anthropogene Anteil nur einer unter mehreren war. Erst seit 1975 dominiert er das geschehen, sodass man von einer A fsplittung von Trend+Noise sprechen kann. Seit dieser Zeit gibt es einen Trend von 0.15-0.2ºC/Dek, was sowohl mit den Modellen als auch mit der von Ihnen genannten Erwaermung bis 2100 in EInklang zu bringen ist.

    “Die Falisifizierbarkeit scheint zudem wegen der fortlaufenden Weiterentwicklung/Anpassung der Modelle “nicht ganz” gegeben, korrekt!”

    Eher nicht korrekt. Natuerlich kann man die Modelle (also etwa die AR4 Laeufe) verifizieren. Wenn es also irgendwznn eine Diskrepanz zwischen T=Entwicklung und Modellvorhersage gibt, dann waere dieser Aspekt eben von den Modellen nicht ausreichend beschrieben. Sie waeren falsifiziert. Nur hilft das leider nicht, um festzustellen, was denn nun in den Modellen falsch laeuft. Es koennte einfach eine Unterschaetzung der dekadischen Ozeanvariabilitaet seien und ein Schluss auf die so wichtige Klimasensitivitaet waere also auch dann nicht moeglich, Drum dieser Artikel.

  24. #24 Georg Hoffmann
    Januar 11, 2013

    @ET
    “die satellitendaten sind wenigstens frei von zweifeln bzgl stationsauswahl, stationskorrektur oder eben stationsausschluss, UHI, und nicht zuletzt von aktivisteneinflüssen”

    Haben Sie eine Vorstellung welche Annahmen und Rechnungen in Satellitendaten eingeht? Dagegen ist das mit der Stationshomogenisierung ein Klacks. Und das fuehrte ja such schon mehrfach zu groeszeren Neubewertungen der Satellitendaten.
    Seit der Berkeley Rekonstruktion dachte ich, dass dass das Verschwoerungsgeraune um die Temperaturen eigentlich ausgestorben sei, aber das ist wohl wie bei der zweiten Heirat: The triumph of hope over experience.

  25. #25 Georg Hoffmann
    Januar 11, 2013

    @Klima-Seppl aus Bremen
    “Und noch mehr vom RWE-Klimakasperl:”
    Der Klima-Seppl kann natuerlich gerne Beitraege vom Klimakasperl verlinken. Ein Zusammenhang zum Artikel hier waere natuerlich toll und liesse sich vielleicht durch ein paar Erlaeuterungen herstellen. Der Artikel ist natuerlich zieder richtig TriTraTRullala, da der Klimakasperl; diesmal aus der IPCC Aussage:”50% der Erwaermung der letzten 50 Jahre sind very likely anthropogen” die Ausage macht: “Die anderen 50% sind solar”, was natuerlich auch der Klimaseppl sofort als gaga erkennt.
    Die anderen 50% sind mit den Methoden und Daten, die wir momentan haben nicht attribuierbar. Sie koennten sehr wohl vollstaendig anthropogen sein. Wir wissen es nicht. Da muss der Seppl nochmal mit dem Kasperl reden, sonst frisst beide noch das RWE Krokodil.

  26. #26 Rahmhuber
    Januar 11, 2013

    “Wenn es bis 2100 um 2K bis 6K wärmer werden soll, ”
    Ja, was dann, Herr Hoffmann – das Ende der Menschheit,oder das Ende von was-genau!? Haben wir was gewonnen oder verloren – den Sinn des Lebens, des Universums oder was!???

  27. #27 Georg Hoffmann
    Januar 11, 2013

    @Rahmhuber
    “Ja, was dann, Herr Hoffmann – das Ende der Menschheit,oder das Ende von was-genau!? ”

    Die Details des “Was dann” koennen andere sicher besser klaeren als ich es kann, 2K sind sehr wahrscheinlich noch irgendwie zu managen, 6K sind eine Katastrophe ganz enormen Ausmaszes.

  28. #28 Rahmhuber
    Januar 11, 2013

    “die satellitendaten sind wenigstens frei von zweifeln bzgl stationsauswahl, stationskorrektur oder eben stationsausschluss, UHI, und nicht zuletzt von aktivisteneinflüssen”

    Ich finds jetzt gerade nicht, aber es gibt eine Arbeit darueber die belegt dass gerade Satelitendaten voellig ungeeignet sind.

  29. #29 Markus Selter
    Januar 11, 2013

    Zitat: “… Klimaskeptiker einfach Sätze herauskopieren …”

    Diesen Leserservice finde ich richtig nett. Und dass von einem Klimahysteriker.

    zu 1) Ratten haben noch niemals etwas anderes getan.
    zu 2) siehe oben
    zu 3) Ihr werdet ein neues Horrorszenario finden.
    zu 4) Modelle? Wo?
    zu 5) Den SUV rücke ich so oder so nicht raus.

    Der kleine Film oben ist seht interessant. In ihm kann man gut nachvollziehen, wie eine “Theorie” “gepimpt” wird. Stimmt die Vorhersage der “Theorie” mit der Wirklichkeit nicht überein, dann müssen halt Einflüsse hinzugenommen werden. Schon stimmt die “Theorie” wieder.

    Das die globalem Temperaturen steigen, das der Meeresspiegel steigt und das der CO2-Anteil in der Atmosphäre zunimmt ist unbestritten und kann leicht überprüft werde. Nur die Horrorszenarien der “Grünen” Klimaindustrie und die darausfolgenden Subventionen aller Art stelle ich in Abrede.

  30. #30 para
    Januar 11, 2013

    Das die globalem Temperaturen steigen, das der Meeresspiegel steigt (…) Nur die Horrorszenarien der “Grünen” Klimaindustrie und die darausfolgenden Subventionen aller Art stelle ich in Abrede.

    Scherz komm raus, aber Temperaturanstieg (verändertes Niederschlagsmuster, reduzierte Niederschlagsmengen) und Meeresspiegelanstieg sind genau die Szenarien, die du dann in Abrede stellst.

  31. #31 Olga Stuss
    Januar 11, 2013

    BREAKING NEWS:

    Berlin Potsdam. Spiztenforschern des renommierten internationalen europäischen Instituts für Klimatolügie und Esoterik (EIKE) ist es erstmals gelungen, die Temperatur eines Jahres zu berechnen. Dies kommt einer physikalischen Sensation gleich.

    “Am Ende des Jahres 2012 hat der Deutsche Wetterdienst die Jahrestemperatur veröffentlicht. Sie betrug diesmal 9,1 C.” schreibt J. Kwatsch, Leitautor der Studie. Aber er gibt gleichermaßen zu bedenken: “Die Realität ist aber eine andere. ” Man sei dennoch optimistisch, auch die Temperatur kleinerer Zeiteiheiten wie Minuten oder gar Sekunden genau ermitteln zu können.

  32. #32 Georg Hoffmann
    Januar 11, 2013

    @Selter
    “Der kleine Film oben ist seht interessant. In ihm kann man gut nachvollziehen, wie eine “Theorie” “gepimpt” wird. Stimmt die Vorhersage der “Theorie” mit der Wirklichkeit nicht überein, dann müssen halt Einflüsse hinzugenommen werden. Schon stimmt die “Theorie” wieder.”

    Aha, es ist Ihnen also neu, dass ENSO und Vulkane einen Einfluss auf die globalen Temperaturen haben. Da wurde also wieder was Neues fuer Sie dazugenommen. Interessant.
    Und mit dieser Expertise und Erfahrung dann froehlich kommentieren. Mutig.

  33. #33 Spoing
    Januar 11, 2013

    “Wenn die Modelle also in Kürze als falsch festgestellt sind, warum soll ich dann meinen SUV hergeben”

    Und ich Idiot lass unseren SUV 24 Stunden am Tag laufen damit Holland endlich geflutet wird. Das Geld fürs Benzin hätte ich dann ja besser in Heizdecken für die Gletscher investieren können.
    Aber wenigstens sagt das Video ja, dass Holland geflutet wird, nur leider war es dann nicht mein Verdienst.

    Auch wenn ich den Backfisch vermissen werde so will ich doch endlich eine eigenen Strand vor der Haustür.

  34. #34 axel
    Januar 11, 2013

    @ Olga

    Das Weglassen eines einzigen Buchstabens beschreibt die Wirklichkeit manchmal besser. Well done *grins*

  35. #35 axel
    Januar 11, 2013

    @ seppl, georg

    Georg schrieb:
    “Der Artikel ist natuerlich zieder richtig TriTraTRullala, da der Klimakasperl; diesmal aus der IPCC Aussage:”50% der Erwaermung der letzten 50 Jahre sind very likely anthropogen” die Ausage macht: “Die anderen 50% sind solar”, was natuerlich auch der Klimaseppl sofort als gaga erkennt.”

    Ich bin mir sicher, der Seppl hat auch etwas anderes bemerkt: Das IPCC schreibt “MINDESTENS die Hälfte ist anthropogen”, das können nun 50,01% oder 80% oder auch 100% sein. Die Leistung des Klimakaspers besteht darin, daraus exakt 50% zu machen und dann noch zu schlussfolgern, dass der Rest andere Ursachen hat.

    Im Draft des AR5 steht so etwas ähnliches wie, dass CO2 wahrscheinlich für mehr als 100% der gegenwärtigen Erwärmung verantwortlich ist (den genauen Wortlaut hatte ich irgendwo im Dies und Das-Thread zitiert). Der Kasper möge beachten, dass auch Aerosole anthropogen sein können.

  36. #36 Dr. Webbaer
    Januar 11, 2013

    @Hoffmann

    Nur hilft das leider nicht, um festzustellen, was denn nun in den Modellen falsch laeuft. Es koennte einfach eine Unterschaetzung der dekadischen Ozeanvariabilitaet seien und ein Schluss auf die so wichtige Klimasensitivitaet waere also auch dann nicht moeglich, Drum dieser Artikel.

    Auf jedern Fall ein Danke! für diesen Artikel. Es ist ein sehr spannendes Thema wie die Klimamodellierei überhaupt an dem, was geschehen wird, in ihrer Güte gemessen werden kann.

    Für den weiteren Temperaturanstieg der terrestrischen Oberflächentemperaturen werden – hier sind Ensembles oder Läufe im Spiel – ja Bereichsangaben berechnet, auch mit Konfidenzen.

    Insofern ist es völlig unklar wie bei einer einzigen Entwicklung (nämlich der der o.g. Temperaturen) die Güte der Modelle festgestellt werden kann. – Anders natürlich dort, wo man beliebig viele Prüfungen vornehmen kann, ein Roulettegerät beispielsweise ließe wesentlich bessere Schlüsse zu die Güte der Prognostik betreffend.

    MFG
    Dr. W

  37. #37 Dr. Webbaer
    Januar 11, 2013

    Nachtrag:

    Wenn es also irgendwznn eine Diskrepanz zwischen T=Entwicklung und Modellvorhersage gibt, dann waere dieser Aspekt eben von den Modellen nicht ausreichend beschrieben. Sie waeren falsifiziert.

    Das eben scheint nicht ganz so zu sein. Auch wenn es einleuchtend klingt.

  38. #38 Rahmhuber
    Januar 11, 2013

    “Das die globalem Temperaturen steigen, das der Meeresspiegel steigt und das der CO2-Anteil in der Atmosphäre zunimmt ist unbestritten und kann leicht überprüft werde.”

    Man mag sich gar nicht vorstellen wie kalt es haette werden koennen, wenn nicht das co2 so gestiegen waere.

  39. #39 Wolfgang Flamme
    Januar 11, 2013

    M.E. wird die Arbeit und das Resultat von F+R völlig überschätzt.

    Sie haben gezeigt, daß es eine optimale Kombination aus Lags und Wichtungen der Korrektursignale gibt, die zu einer optimalen Linearisierung der verbleibenden Komponente beiträgt. Na und?

    Was sie wohl nicht gezeigt haben, was aber dringend geboten gewesen wäre:

    - Dass dieser resultierende Fit signifikant besser ist als der, der sich bei ihrer Methode zB mit synthetischen Zufalls-Korrektursignalen erzielen ließe.

    - Dass sich die Annahme, die zugrundeliegende Erwärmungskomponente habe sich in dem guten letzten Dutzend Jahren abgeflacht, mit ihrer Methode nicht verünftig fitten läßt.

    - Dass ein Fit der Daten bis ca. 2000 und eine Extrapolation auf Basis eines darüber hinaus linear ansteigenden Erwärmungssignals mit der derzeit beobachteten Abflachung in Übereinstimmung steht.

  40. #40 Gunnar Innerhofer
    Januar 11, 2013

    der Artikel ist völliger Schrott,

    klar zeigt Georg wie andere Alamisten gerne die NASA Daten, wo der Chef der Abteilung ein bekennender Alarmist ist, der sich sogar verhaften lässt, nur um auf seinen Wahn aufmerksam zu machen. Die letzten Homogenisierungen der NASA T Reihen sind ein Witz, jedes mal werden vergangene Variation kleiner und alles auf AGW gerimmt. Das erkennen sogar Laien.
    Hier die bessere Klimareihe:
    http://www.cru.uea.ac.uk/cru/data/temperature/nhshgl.gif

    Sieht am sich die GCM`s an, so zeigt sich ganz klar, dass es speziell in den Polregionen massive Probleme gibt. Die arktische Meereisschmelze wird stark unterschätz (wohl ein gröberer natürlicher Einfluss, als die CO2 Brüder den Rechner füttern, um den Südpol zeigen alle Modelle eine Abnahme des Meereises über die letzten Dekaden, es nimmt aber leicht zu, zu allen Jahreszeiten.
    Tatsache ist, außer bein den GISS Daten, dass die globale T seit ca. 15a stagniert, länger als je zuvor über die letzten 40a gesehen.
    AGW Fanaten, deren Einkommen häufig vom poltisch korrektem Klimawahn abhängt, sehen dass freilich nicht so gerne und machen brav weiter mit ihrer Auftragswissenschaft. Ein paar Jahre werden sie damit noch leben können…

  41. #41 axel
    Januar 11, 2013

    @ Wolfgang Flamme

    Sie haben gezeigt, daß es eine optimale Kombination aus Lags und Wichtungen der Korrektursignale gibt, die zu einer optimalen Linearisierung der verbleibenden Komponente beiträgt. Na und?

    Leider gibt es ungeduldige Zeitgenossen, die auch aus kurzen Zeitreihen wie den letzten 10-15 Jahren Aussagen zur Entwicklung des global warmings, sprich dem Trend, ziehen wollen. Leider ist das Signal-Rausch-Verhältnis für kurze Zeiträume so schlecht, dass übliche Trendermittlung keine signifikanten Ergebnisse liefert, man braucht längere Zeiträume.
    Ach, manche Skeptiker sind halt sehr ungeduldig, die können nicht warten. Dann muss man halt das Verhältnis verbessern, indem man versucht, das Rauschen so gut wie möglich herauszufiltern.

    Und schwupp:
    Die Ergebnisse sind plötzlich auch für kürzere Zeiträume signifikant, ohne natürliche Einflussfaktoren schreitet der linerare Trend ungebrochen voran.

    Das ist doch was, oder?

    “- Dass sich die Annahme, die zugrundeliegende Erwärmungskomponente habe sich in dem guten letzten Dutzend Jahren abgeflacht, mit ihrer Methode nicht verünftig fitten läßt.”

    ??? Diese Annahme wurde doch gerade widerlegt.

  42. #42 Leugnerentlarver
    Januar 11, 2013

    @Gunnar Innerhofer, eine gekonnte Analyse. Das kommt der Wahrheit wohl zielmlich nahe, obwohl diese ja niemand wirklich ganz genau kennen kann.

  43. #43 Dr. Webbaer
    Januar 11, 2013

    @Innerhofer
    Das Artikel-Vid ist natürlich Gehirnwäsche, ansonsten scheint eine angemessen brauchbare Reflexion/Komtemplation vorzuliegen.

    Merksatz:
    Wir es nicht wärmer, muss sich der Klimatologe ERST RECHT wärmer anziehen.

    MFG
    Dr. W

  44. #44 Wolfgang Flamme
    Januar 11, 2013

    “??? Diese Annahme wurde doch gerade widerlegt.”

    Ach, iwo.
    “With four parameters I can fit an elephant, and with five I can make him wiggle his trunk” (Neumann)

    Vereinfacht formuliert: Es wäre überhaupt erst mal zu zeigen, daß der verwendete Algorithmus nicht sogar beliebige zufällige Korrektursignale so verwenden und verwursten kann, daß sie wahllos behauptete AGW-Verläufe (bei F+R eben einen angenommenen linearen Trend) durch Fitten ‘bestätigen’. Logisch? Logisch.

  45. #45 Leugnerentlarver
    Januar 11, 2013

    Könnten die Alarmisten vielleicht einmal erklären, warum sie sich ärgern, wenn die Globaltemperatur nicht steigt? Ich dachte, die Alarmisten wollen doch, dass die Temperatur nicht steigt?

  46. #46 Dr. Webbaer
    Januar 11, 2013

    Es wäre überhaupt erst mal zu zeigen, daß der verwendete Algorithmus nicht sogar beliebige zufällige Korrektursignale so verwenden und verwursten kann, daß sie wahllos behauptete AGW-Verläufe (bei F+R eben einen angenommenen linearen Trend) durch Fitten ‘bestätigen’.

    Aus Sicht des Schreibers dieser Zeilen leistet die “Korrekturlogik” genau, dass sie eine stagnierende Entwicklung, die also NICHT beliebiger Art sein kann, dahingehend fittet, dass sie einen Erwärmungstrend zu belegen in der Lage wird.

    Nicht weiteres war angefordert.

    Der “etwas” sauere Gag bei der Sache ist natürlich, dass die tatsächliche Erwärmung (ca. 0,06K&Dekade) nach und nach durch eine theoretisierte Erwärmung (ca. 0,36K/Dekade) ersetzt wird.

    MFG
    Dr. W (der aber auch nicht die Öffentlichkeitsarbeit machen muss)

  47. #47 energietechniker
    Januar 11, 2013

    @hoffmann

    “Haben Sie eine Vorstellung welche Annahmen und Rechnungen in Satellitendaten eingeht? ”

    eigentlich dachte ich man misst sauerstoffbanden und rechnet dann weiter

    dieser satz

    “… Contrary to some reports, the satellite measurements are not calibrated in any way with the global surface-based thermometer records of temperature. They instead use their own on-board precision redundant platinum resistance thermometers calibrated to a laboratory reference standard before launch.”

    von UAH hat mich aber etwas stutzig gemacht.

    vielleicht können sie ja was dazu mal schreiben.

    irgendwie erstaunlich: ein effekt den man kaum vernünftig messen kann, der im natürlichen rauschen untergeht, soll in die katastroooopheeeee führen.
    es sei denn wir schieben dem öko-kriminellen-komplex unsere ganze kohle in den a****.

    wie dem auch sei: axel hat -trotz beschleunigter erwärmung- kalte füsse bekommen.

  48. #48 axel
    Januar 11, 2013

    @ Wolfgang

    Wir hatten das alles schon, jetzt kommen schon wieder dieselben Platitüden. Multiple Regression ist ja nichts, was jetzt von Foster erfunden worden wäre….

    Wenn diese Art der Analyse schlichte Gemüter wie das Bärchen überfordert, dann hätte ich da noch etwas ganz vereinfachtes, nur mit den “tatsächlichen” Temperaturen.
    John Nielsen-Gammon hat die gemessenen Temperaturen mal grob in drei Klassen eingeteilt, in ElNino-, El Nina- und neutrale Zustände. Für jede der drei Klassen berechnet er den Trend. Hier ist das Ergebnis:
    http://blog.chron.com/climateabyss/2012/04/about-the-lack-of-warming/
    Und? Überrascht?

    Obwohl das Verfahren ganz primitiv ist und nur grob auf ENSO-korrigiert, bestätigt es doch die Ergebnisse von Foster und Rahmstorf:
    Der lineare Trend schreitet ungebrochen voran.

  49. #49 axel
    Januar 11, 2013

    @ Energietechniker

    Nö, wir können UAH nehmen, dann aber 4 Jahre Dauer.
    Oder vielleicht doch lieber 10 Jahre, ich habe oben gelernt, 10:1-Wetten zu schätzen. ;-)

  50. #50 axel
    Januar 11, 2013

    @ Bärchen

    Der “etwas” sauere Gag bei der Sache ist natürlich, dass die tatsächliche Erwärmung (ca. 0,06K&Dekade)[...]

    Mal ‘ne Frage: Und wie groß war der tatsächliche Temperaturtrend in diesem Zeitraum?

    Bärchen versteht die Frage nicht?
    Ich habe gerade mit einem stinknormalen Würfel 3x gewürfelt, eine 6, eine 4 und eine 5. Der tatsächliche Durchschnittswert dieser Wurfserie war 5, ist das der tatsächliche Durchschnittswert meines Würfels? Ja, was ist denn nun “tatsächlich”?

    PS:
    Bärchen braucht nicht zu antworten, könnte sich aber anhand seines wie üblich völlig inhalts- und sinnfreien Geschwafels mal überlegen, sich gewisse Grundkenntnisse (hier Statistik) anzueignen.

  51. #51 Dr. Webbaer
    Januar 11, 2013

    @Axel
    Bitte etwas sachlicher, wir wollen – als alte Kommentatorenkräfte – Herrn Hoffmann doch nicht in der Kommentatorik diskreditieren.

    Ansonsten: Ja, Sie haben das gut erkannt. Die Prognosehöhe bei den terrestrischen Oberflächentemperaturen übertrifft die tatsächlich seit 1880 nachgewiesene um den Faktor 6.

    Hier ist man ja dankenswerterweise dabei die Prognostik anzupassen…

    MFG
    Dr. W

  52. #52 Wolfgang Flamme
    Januar 11, 2013

    Guter Axel,

    da haben wir also die Hypothese “Der lineare Trend schreitet ungebrochen voran.”

    Und die wollen wir mit statistischen Mitteln erhärten.

    Und wie erhärtet man da eine Hypothese? Na?

  53. #53 axel
    Januar 11, 2013

    Für die Freunde der Satellitendaten:

    Hier die Auswertung von Nielsen-Gammon auch für UAH und RSS: http://blog.chron.com/climateabyss/2012/09/global-temperature-anomalies-2012-2013-september-forecast/

  54. #54 axel
    Januar 11, 2013

    Lieber Wolfgang,

    mit den Hilfsmitteln der Statistik, z.B. multipler Regression. Wer ein anderes, möglicherweise besseres Verfahren hat, natürliche Variabilität herauszufiltern, möge dieses bitte präsentieren und uns mitteilen, ob seine Ergebnisse von Fosters abweichen.

    Da kam ja bislang gar nichts. Können Skeptiker keine Statistik, haben sie keine Lust selber mal zu rechnen, oder haben sie es getan und dabei blöderweise Foster bestätigt und geschwiegen? Keine Ahnung. Spricht aber für sich.

  55. #55 axel
    Januar 11, 2013

    @ Bärchen

    Wie erwartet kam da jetzt null komma nix von Ihnen zurück. Wie erwartet haben Sie nicht einmal erkannt, um was es mir ging.
    Ach, hätten Sie doch geschwiegen, es wäre besser für Sie gewesen.

  56. #56 Wolfgang Flamme
    Januar 11, 2013

    Axel,
    na los, komm schon! Wie erhärtet man in der Statistik eine aufgestellte Hypothese? Du weißt es doch wohl, also sprich’s auch aus.

  57. #57 axel
    Januar 11, 2013

    Erst du, Wolfgang:

    Was ist mit Nielsen-Gammons Graphiken? Hatte ich weiter oben gefragt. Wenn diese Art der Auswertung deinen Segen findet, dann ist damit klar, dass der lineare Trend ungebrochen ist und wir können uns die Diskussion um Foster sparen (die wir übrigens 1:1 schon damals hatten, wo ist der Sinn der Wiederholung ohne Neues?).

  58. #58 Wolfgang Flamme
    Januar 11, 2013

    Nut Mut, Axel!

    Jedes halbwegs vollständige Statistik-Kompendium hat ein Kapitel ‘Hypothesentest’ mit einer Einführung. Stichworte ‘Nullhypothese’ und ‘Alternativhypothese’. Du schaffst das schon.

  59. #59 Jochen Ebel
    Januar 11, 2013

    Da moderne Paper von Skeptikern immer wieder in Zweifel gezogen werden, sollten diese mal Paper mit ersten Erkenntnissen lesen, damals war das Thema noch nicht politisch belastet.

    Fangen wir mit Angström (1900) an http://www.realclimate.org/images/Angstrom.pdf
    Das Paper ist bis auf eine winzige Kleinigkeit gut, allerdings ist die winzige Kleinigkeit wesentlich. Angström hat die Eigenstrahlung des Gases vergessen. Das ist nur halbverzeilich, da spätestens schon seit Kirchhoff (1860) bekannt war, daß zur Absorption auch die Emission gehört Deswegen kam Anström zu einer Sättigung, was falsch ist, da dort, wo stark absorbiert wird auch stark emittiert wird (siehe http://tinyurl.com/HardeBW S. 34 oben).

    Besonders verblüffend ist, daß etwa zur gleichen Zeit (1906) von Schwarzschild dieser Sachverhalt verwendet wurde http://tinyurl.com/schwara

    Schwarzschild stellt schon die Tropopause fest (Trennung zwischen Troposphäre mit Vertikalströmung und Stratosphäre mit Strahlungsgleichgewicht), wenn auch noch andere Bezeichnungen verwendet werden – geanau wie bei Gold. Unabhängig von Schwarzschild ergab zur gleichen Zeit (1908) die Untersuchung von Ernest Gold http://www.ing-buero-ebel.de/Treib/Gold.pdf die Untersuchung der neuentdeckten Stratopsphäre, daß eine Zunahme der CO2-Konzentration die Höhe der Tropopause steigen läßt.

    Wesentlich für den Treibhauseffekt ist auch die Wechselwirkung Gas/Strahlung, die von Einstein 1916 untersucht wurde: http://tinyurl.com/einstei

    Untersucht man die Höhenveränderung der Tropopause, die heute gemessen wird, dann ist eher die Klimasensitivität geringer als zu hoch.

    Der Partialdruck des CO2 an der Erdtropoapause ist ca. 0,13 mbar und wird bei Verdopplung der CO2-Konzentration auf ca. 0,16 mbar steigen. Zum Vergleich der Druck der Venustropopause beträgt ca. 0,4 mbar.

    MfG

  60. #60 axel
    Januar 11, 2013

    Wolfgang

    Du verweigerst die Antwort. Wie gesagt, zu deiner Frage komme ich danach.

  61. #61 Klimaketzer
    Januar 11, 2013

    Axel, der Lehrer Fuchs, mit angeblichen Diplom in Physik, ist doch ein Loser!

    Herrn Falamme bist DU wenigstens nicht gewaschen!

  62. #62 Wolfgang Flamme
    Januar 11, 2013

    Axel,
    vielen Dank für die Anschuldigungen, die Sie aussprechen, Bedingungen, die Sie erfüllt wissen wollen,Antworten, die Sie erwarten und Versprechen, die Sie abgeben, bevor Sie einfach mal ein Statistik-Kompendium aufschlagen wollen.

  63. #63 Wolfgang Flamme
    Januar 11, 2013

    “Herrn Falamme bist DU wenigstens nicht gewaschen!”

    “Friendly Fire” gilt es auch auszuhalten.

  64. #64 Geoman
    Januar 11, 2013

    Ohne Frage, sind die Orca-Wale selber schuld, wenn sie im Vertrauen auf die Klimaerwärmung all ihren Lebensmut in ein Lieferwagen großes Eisloch setzen.

    Trauer oder Mitgefühl ist hier im Zeitalter des Klimawandels allerdings völlig verfehlt, denn die

    Die Meeresforscherin Lyne Morisette von der Université de Québec in Rimouski stellt aber klar: “So traurig die Situation ist, sie verblasst vor den Herausforderungen, mit denen die Art durch die Erderwärmung zu kämpfen hat.”

    Kurz: Alles aktuelle Leid verblasst vor den zukünftigen Leiden des Klimawandels. Die Wale gelangten übrigens durch eine sich unerwartet auftuende Lücke im Meereis wieder in Freiheit.

    Ich befürchte, die Orca’s werden ihr Verhalten auch zukünftig nicht am Klimawandel orientieren, da sie ohne akademischen Status keine Forschungsgelder erhalten, die ihr Verhalten beeinflussen, sprich dem politisch-wissenschaftlichen Mainstream anpassen.

  65. #65 Rudi
    Januar 11, 2013

    “ein Lieferwagen großes Eisloch ”

    damit lässt sich in etwa der Kenntnisstand der Klimawissenschaft umschreiben

  66. #66 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Glauben Sie wirklich, dass es belastbar ist, letztlich wahlfrei, einem Trendmodell folgend und auf die Daten bezogen ausschnittsweise einen Trend von 0.15-0.2ºC/Dek festzustellen und aus diesem dann eine Prognose abzuleiten?

    MFG
    Dr. W

  67. #67 axel
    Januar 12, 2013

    @ Bärchen

    Wer hat denn “einem Trendmodell folgend” daraus eine “Prognose abgeleitet”.? Sie verwirren mich.

  68. #68 axel
    Januar 12, 2013

    @ Wolfgang

    Nun beruhig dich. Es geht nur darum, eine Reihenfolge einzuhalten, und mein Punkt war eben nun mal vor deinem.

    PS:
    Nein, Hypothesentests sind elementares Grundwissen, da muss man nirgends nachschlagen

  69. #69 Rahmhuber
    Januar 12, 2013

    “Ohne Frage, sind die Orca-Wale selber schuld, wenn sie im Vertrauen auf die Klimaerwärmung all ihren Lebensmut in ein Lieferwagen großes Eisloch setzen. ”

    Die bloeden Wale gehoeren laengst entfernt, diese Dinos der Meere. Waer doch auch gut fuer den Meeresspiegel,oder?

  70. #70 Georg Hoffmann
    Januar 12, 2013

    Lustiger Spiegel Bericht zu einem Expertenbericht fuer den US Praesidenten
    http://ncadac.globalchange.gov/
    http://www.spiegel.de/wissenschaft/natur/klimaprognose-us-studie-erwartet-erderwaermung-um-fuenf-grad-a-877136.html

    mit der Warnung:
    “demzufolge die Temperaturen ohne nennenswerte Gegensteuerung bis zum Ende des Jahrhunderts um 2,7 bis 5,5 Prozent steigen werden.”

    Und was ist 100%?

  71. #71 Rudi
    Januar 12, 2013

    “Ohne Frage, sind die Orca-Wale selber schuld, wenn sie im Vertrauen auf die Klimaerwärmung all ihren Lebensmut in ein Lieferwagen großes Eisloch setzen. ” [Geoman]
    ..
    „Manchmal verschwinden sie für längere Zeit, offenbar auf der Suche nach weiteren Eislöchern, die sie aber nicht finden.“
    “Anwohner wollten am Donnerstag sogar mit Kettensägen und Bohrgeräten eine eigene Rettungsaktion starten”
    Quelle:http://www.bild.de/news/ausland/orca/steckten-in-eis-fest-28046790.bild.html

    Wo waren die Greenpeace-Aktivisten?

  72. #72 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Das Gerede vom ‘tatsächlichen Temperaturtrend’ irritierte, Herr Flamme machte zudem merkwürdige Andeutungen, insofern einfach mal ganz flat gefragt: Worauf wollten Sie hinaus?

  73. #73 Gunnar Innerhofer
    Januar 12, 2013

    Trickserein mit Enso und so weiter, blablabla
    nochmals die realen Fakten:
    http://www.cru.uea.ac.uk/cru/data/temperature/nhshgl.gif

    was ist wirklich interessant dabei?
    Wenn man schon die letzten 15a ignorieren will, so beachte man in der gloablen Reihe, dass die T von 1910 bis 1940 genau so schnell und weit angestiegen ist, wie in den “Treibhausdekaden” 1970 bis 2000. Dabei haben die THG in der ersten Epoche kaum eine Rollen spielen können.
    Auf der SHK nahm die T über die erste Epoche sogar schneller zu als im Vergleichzeitraum.
    Aber mein, wie gewisse hardcore Skeptiker im AGW so was wie ne globale Verschwörung sehen, ist die andere Fundi Seite eben einen Dreck besser. Sie tricksen mit den zu Tode homogenisierten GISS Daten so lange rum, bis ihnen der Trend passt. Überall Ideologen, aus einer ursprünglich seriösen “Schmetterlingswissenschaft” wurde eine poltisch verseuchte Auftragswissenschaft. Hoffmann lebt mit seinem AGW Wahn auch recht gut, zumindest seiht er nicht unterernährt aus…:-)

  74. #74 axel
    Januar 12, 2013

    @ webbaer

    Kann man für ein System, das zufälligen Schwankungen unterworfen ist, den exakten Trend mit kurzen Zeiträumen berechnen?

    Ein Beispiel:
    Jetzt habe ich mit meinem Würfel 3x gewürfelt, zuerst 5, dann 4, dann 3. Die Trendgerade trifft sogar exakt alle drei Messpunkte, der Trend beträgt ganz exakt -1 pro Wurf. Ist das der tatsächliche Trend meines Systems Würfel?

    Ich dachte, wir sind hier nicht in einem Laienskeptikerblog und wären uns deshalb einig, dass jede lineare Regression immer nur eine Schätzung des wahren Trends liefert und dass für die Abschätzung, wo der wahre Trend nun liegt, eine Angabe von Fehlerbereichen unerlässlich ist.

    Sehen Sie mal hier. Hier wurde die lineare Regressionsgerade von über 20 Jahre bis 2000 einfach mal verlängert. Passen die Daten seit 2000 zu diesem Trend? Betrachten Sie den roten Bereich, sieht doch auch ganz gut aus, oder? Was ist denn nun der wahre Trend? Die Stagnation, die rote Kurve? Sie verstehen?

  75. #75 Alexandra
    vergletschertes Berlin
    Januar 12, 2013

    Sagen Sie mal Herr Hoffmann, haben unser Klimkatastrophen-Verkünder schon mal etwas von Standardabweichung und ausssagefähigen Stichproben gehört ?

    Das was hier unter dem Label IPCC an Klimakatastropen verkündet wird, bezeichnet ausnahmlos jeder ernstzunehmende Wissenschaftler als wissenschaftlich nicht tragfähig.

    Es fehlt an einer validen Datengrundlage, die betrachteten Zeitspannen decken nur kurze Zeitspannen innerhalb natürlicher Klimaschwankungen ab, Einzeleffekte wie die IR-Absorbtion einzelner Gase werden physikalisch nicht begründbare Effekte von bis zu 6 ° C Erwärmung innerhalb von 100 Jahren zugesprochen, grundlegende physikalische Gesetzmäßigkeiten, wie sie der boromentrischen Höhenformel zugrunde liegen und mit denen der trockenadiabatische Temperaturgradient berechnet wird, werden einfach ignoriert, wenn es darum geht, eine politisch gewollte “Klimaschutz”-Politik “wissenschaftlich” zu begründen.

    Wer sich für so etwas hergibt, muss sich die Frage stellen, ob er ein so schlechter Wissenschaftler ist, dass er zu seriösen Forschungsgebieten keinen Zugang hat.

  76. #76 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Ein Trend ist eine “Funktion auf Daten” (eine Aggregation?), die dem Betrachtenden beim Verständnis einer Datenmenge oder einer visualisierten Datenmenge helfen soll.

    Sie können wahl- und sinnfrei Trends ermitteln. Für diese Aussage ist Ihr Würfelbeispiel auch als Beleg geeignet.

    Abär: ‘Wahrer” Trend, ‘tatsächlicher’ Trend (siehe weiter oben), wissen Sie wie grausig sich das anhört?

    MFG
    Dr. W (der sich intellektuell somit davon nicht im vielleicht erwarteten Sinne ansprechen lässt)

  77. #77 MJ
    Januar 12, 2013

    Ja, ich muss mich den Skeptikern hier anschliessen.

    Ich glaube das Hauptproblem von Klimafanatikern wie Tamino ist einfach, dass sie von Standardabweichung und Nullhypothese noch nie etwas gehoert haben. Haetten die nur ein bisschen mehr fuers Abi gelernt, wir haetten keinen AGW, oder zumindest waere er kein Problem.

  78. #78 axel
    Januar 12, 2013

    @ Bärchen

    “Abär: ‘Wahrer” Trend, ‘tatsächlicher’ Trend (siehe weiter oben), wissen Sie wie grausig sich das anhört?”

    Ja, es hört sich grausig an. “Tatsächlicher Trend” war der Ausgangspunkt meiner Frage an Sie. Sie haben den Begriff benutzt, weshalb ich nachgefragt habe, was Sie darunter denn verstehen. Schon vergessen?

  79. #79 Dr. Webbaer
    Januar 12, 2013

    @Axel
    ‘Tatsächlicher Trend’ war von Ihnen. Bitte nicht irreführend zitieren oder behaupten.

    Ansonsten sollte unstreitig sein, dass die GISS-Daten eine Erwärmung von ca. 0,8K belegen zwischen 1880/01 und 2012/12 belegen, dass aber von 2013/01 bis 2099/12 je nach Prognose 2K bis 6K erwartet werden.

    Klimatologistischerseits hat man wohl einen seit 1975 feststellbaren Trend als Begründung für die Prognostik genommen.

    Was mächtig schiefgehen kann…

    MFG
    Dr. W

  80. #80 Alexandra
    Januar 12, 2013

    So und dazu

    http://www.cru.uea.ac.uk/cru/data/temperature/nhshgl.gif

    noch was.

    Diese Temperaturerhöhung von 0,7 °C innerhalb von 150 Jahren liegt noch nicht mal nur innerhalb natürlicher Schwankungen sondern sogar innerhalb des Meßfehlers, welcher resultiert aus dem Fehlen standardisierter Temperaturerfassungsnetze.

    Allein durch durch die städtische Umbauung ehemals auf dem Land liegender Stationen hat man einen erheblichen Wärmeinseleffekt.

    Wenn einige Klimahyper nun dreist behaupten, den Wärmeinseleffekt würde man herausrechnen, so sind da doch erhebliche Zweifel geboten. Denn je nachdem aus welcher Richtung der Wind weht hat man an diesen stadtrandnahen Stationen einen unterschiedlichen Wärmeinseleffekt.

    Eine aiussagefähige flächendeckende Temperaturerfassung gibt es übrigens bis heute nicht.

    Kurz und gut – der Klimahype kann nicht auf Daten gestützt werden. Er ist eine politisch motivierte Fiktion. Deshalb klaffen auch die Ankündigungen und Realität weit auseinander.

    Man schaue die Ankündigungen für die heutige Zeit zum Beispiel da:

    http://www.spiegel.de/spiegel/print/d-13519133.html

  81. #81 axel
    Januar 12, 2013

    Bärchen,

    ich kopiere mal, was ich von ihnen hier im Thread unter Januar 11, 2013 gefunden habe:

    “Der “etwas” sauere Gag bei der Sache ist natürlich, dass die tatsächliche Erwärmung (ca. 0,06K&Dekade) nach und nach durch eine theoretisierte Erwärmung (ca. 0,36K/Dekade) ersetzt wird.”

    Sagen Sie mal: Lesen Sie überhaupt ihre eigenen Beiträge? Oder verstehen Sie selbst nicht, was Sie da schreiben?

  82. #82 Alexandra
    vergletschertes Berlin
    Januar 12, 2013

    Ich sehe gerade, der zweite Kommentar von mir wird moderiert.

  83. #83 axel
    Januar 12, 2013

    Bärchen,

    und jetzt, wo ihre Amnesie hoffentlich überwunden ist, nochmals zum Ausgangspunkt unseres Dialogs:

    Wie kommen Sie darauf, dass 0,06 °C/Dek. der tatsächliche Trend sei?

  84. #84 Alexandra
    Januar 12, 2013

    Ach ja – er enthält Links.

    Dann den einzeiler und diesen hier bitte löschen

  85. #85 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Wenn es zwischen 1880 und 2012 ca. 0,8K wärmer geworden ist, beträgt die durchschnittliche Erwärmung ca. 0,06K je Dekade.

    Und diese durchschnittliche Erwärmung darf sicherlich auch Ihres Erachtens mit der von der Klimaprognostik angesagten durchschnittlichen Erwärmung von vielleicht 0,35K je Dekade bis 2100 verglichen werden.

    Meinen Sie nicht?`

    MFG
    Dr. W

  86. #86 Alexandra
    vergletschertes Berlin
    Januar 12, 2013

    Falls der mit Links versehene Kommentar erst am Montag moderiert wird hier noch mal ohne Links:

    Zum zuletzt von Herrn Innerhofer verlinkten Diagramm:

    Diese Temperaturerhöhung von 0,7 °C innerhalb von 150 Jahren liegt noch nicht mal nur innerhalb natürlicher Schwankungen sondern sogar innerhalb des Meßfehlers, welcher resultiert aus dem Fehlen standardisierter Temperaturerfassungsnetze.

    Allein durch durch die städtische Umbauung ehemals auf dem Land liegender Stationen hat man einen erheblichen Wärmeinseleffekt.

    Wenn einige Klimahyper nun dreist behaupten, den Wärmeinseleffekt würde man herausrechnen, so sind da doch erhebliche Zweifel geboten. Denn je nachdem aus welcher Richtung der Wind weht hat man an diesen stadtrandnahen Stationen einen unterschiedlichen Wärmeinseleffekt.

    Eine aiussagefähige flächendeckende Temperaturerfassung gibt es übrigens bis heute nicht.

    Kurz und gut – der Klimahype kann nicht auf Daten gestützt werden. Er ist eine politisch motivierte Fiktion. Deshalb klaffen auch die Ankündigungen und Realität weit auseinander.

    Man schaue die Ankündigungen für die heutige Zeit zum Beispiel da:

    Artikel im Spiegel:
    die Klimakatastrophe / Das Weltklima gerät aus den Fugen

  87. #87 axel
    Januar 12, 2013

    Ach so. Ich dachte, Sie hätten mit 0,06 die letzten 16 Jahre (das Thema hier) gemeint.

    Wenn Sie jetzt noch jemanden von Bedeutung (z.B. das IPCC) finden, der sagt, dass die Erwärmung von 1880 bis 2100 linear verläuft, denn hätten Sie echt einen Punkt gemacht. Wirklich. Bärchenlogik.

  88. #88 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Sie kommen auch deshalb zu dummen Schlüssen, weil Sie andere für dumm halten.

    Von einem linearen Verlauf bei der bisher gemessenen Erwärmung zwischen 1880 und 2012 war nicht die Rede – dann noch die Sache mit den 0,06K/Dekade bezogen auf die letzten 16 Jahre, tss, tss…

    Warten Sie noch ein wenig ab und die Prognosehöhe wird angepasst. Möglicherweise sogar auf 0,06K*83/10 = +0,498K bis 2100.

    MFG
    Dr. W

  89. #89 axel
    Januar 12, 2013

    Ich habe gerade meinen Bärchentransponder verlegt.

    Wenn jemand verständlich darstellen kann, was Bärchen meint mit seinem letzten post, kann man darauf eingehen.

  90. #90 axel
    Januar 12, 2013

    “Von einem linearen Verlauf bei der bisher gemessenen Erwärmung zwischen 1880 und 2012 war nicht die Rede…”

    Vor wenigen Minuten waren die 0,06°C/Dekade bei Ihnen noch der lineare Trend von 1880 bis 2012, Minuten später soll davon nie die Rede gewesen sein?
    Versteht hier jemand das Bärchen bzw. Bärchenlogik??
    Ich steige aus und bereue zutiefst, wider besseren Wissens eingestiegen zu sein. Kommt nicht wieder vor.

    PS:
    Krishna, morgen hast du wieder drei Antworten frei, die Woche ist um.

  91. #91 Dr. Webbaer
    Januar 12, 2013

    Vor wenigen Minuten waren die 0,06°C/Dekade bei Ihnen noch der lineare Trend von 1880 bis 2012, Minuten später soll davon nie die Rede gewesen sein?

    Es wurde die durchschnittliche Erwärmung von 0,06K je Dekade zwischen 1880 und 2012 festgestellt, ein TREND ist NICHT festgestellt worden.

    MFG
    Dr. W (der sich ansonsten schon ein wenig amüsiert, wie i.p. Datenanalyse so allgemein verstanden wird, ein kleiner Lesetipp an dieser Stelle: Tip)

  92. #92 axel
    Januar 12, 2013

    Nachhilfe für Bärchen:

    Sie geben 0,06°C/Dekade an, was die Steigung im Temperatur-Zeit-Diagramm ist. Da Sie für den gesamten Zeitraum 1880-2012 nur einen einzigen Wert angeben, ist die Steigung logischerweise konstant und es handelt sich um eine lineare Funktion. Versiertere nennen so etwas auch linearer Trend.

  93. #93 Dr. Webbaer
    Januar 12, 2013

    @Axel
    Ein Trend hat, wie weiter oben auch schon ansatzweise beschrieben, die Funktion dem Betrachtenden Tendenzen bezogen auf Unterbereiche einer Datenreihe zu erkennen helfen, dabei auch den Betrachtenden anzuleiten prädiktiv tätig zu werden.

    Eine trendbasierte Datenanalyse hat der Schreiber dieser Zeilen aber – auch wegen der kleinen Datenprobe und der unsicheren/unbekannten Standardabweichung – nie vorgehabt.


    Sie nagen immer noch an der eher geringen Erwärmung der Oberflächentemperaturen zwischen 1880 und 2012, gell?. Jomei!, die Datenlage ist halt dünn und dort, wo es um eigenes Geld geht, würde vermutlich niemand zu den mutigen dedizierten Schlüssen kommen wie das IPCC.

    MFG
    Dr. W

  94. #94 axel
    Januar 12, 2013

    Bärchen,

    nächste Woche am Samstag gibt es gnadenhalber 3 weitere Beiträge an Sie. Bis dahin ist Funkstille. Von Kontaktaufnahmen bis dahin bitte ich abzusehen. ;-)

  95. #95 Dr. Webbaer
    Januar 12, 2013

    Es soll hier nicht der Eindruck entstehen, dass die klimatologistischen Bemühungen sinnlos sind; insgesamt scheint man schon bemüht.

    I.p. Prognosehöhe müsste ein wenig abgesteift werden und vielleicht vielleicht denkt auch der eine oder andere Beteiligte – jetzt in den Zeiten der Stagnation – mehr darüber nach, ob es klug ist als Wissenschaftler offen politisch zu werden.

    MFG
    Dr. W

  96. #96 Rudi
    Januar 12, 2013

    Georg Hoffmann schreibt oben:
    „Die Animation basiert auf einer Reihe von Artikeln (hier und hier und hier), die Tamino auf seinem Blogg OpenMind veröffentlicht hat und die schliesslich in einem peer-reviewten Artikel endeten.“
    Ich hab mal einen Blick aus das erste hier geworfen und da ist mir aufgefallen:
    Tamino macht die Regressionsanalyse bis zum Jahr 2010 (da war die Klima-Welt noch so halbwegs in Ordnung) und zeigt wie schön die Daten zu der Trendgeraden passen. Er gibt auch die Trendkoeffizienten an (Tabelle), im Falle RSS liegt der Trend bei 0,0163 °/year (0,163°/dekade).
    http://tamino.wordpress.com/2011/01/20/how-fast-is-earth-warming/

    Nun hab ich mal nachgeschaut wo dieser Trendwert Ende 2012 liegt.
    Quelle: http://www.ssmi.com/msu/msu_data_description.html

    Channel TLT 1979 2012-12 30+ 0.131 K/decade

    Ja hoppla, der liegt jetzt bei 0,131 °/dekade. Eine Abweichung von mehr als 20% (nach unten) in nur zwei Jahren.
    Was lässt sich daraus nun ableiten.
    Für eine Prüfung der Abweichung müsste Tamino den korrekten Trendwert kennen, doch woher soll er den kennen. Er kann in nur aus den Daten schätzen und wir sehen liegt er damit kräftig daneben.
    Fazit. Auch Tamino ist ein Opfer der irrtümlichen Annahmen.

  97. #97 Gunnar Innerhofer
    Januar 13, 2013

    die Klimabewegten haben wieder mal gezeigt, dass es unter Ausnützung einzelner Datensätze und statistischen Methoden möglich ist ein Bild zu erzeugen, welches die realen Verhältnisse so weit verzerren kann, dass man als Laie überzeugt bleibt, die globale Erwärmung hätte sich die letzten 15a gleich entwickelt, als über die letzten 40a betrachtet.
    Was aber diese zum Teil auch Wissenschafter antreibt, kreativen Aufwand zu betreiben anstatt kritisch die gemessenen Daten zu betrachten, bleibt offen bzw. ist schlicht und einfach eine sehr unwissenschaftliche Herangehensweise. Dieser Blog ist so gesehen kaum besser als jener bei EIKE zB., nur eben 180° gedreht.

  98. #98 Dr. Webbaer
    Januar 13, 2013

    Was aber diese zum Teil auch Wissenschafter antreibt, kreativen Aufwand zu betreiben anstatt kritisch die gemessenen Daten zu betrachten, bleibt offen bzw. ist schlicht und einfach eine sehr unwissenschaftliche Herangehensweise.

    Jaja, so schaut’s aus. Aber bevorzugt im d-sprachigen Bereich, woanders wird noch diskutiert, im d-sprachigen Raum ist eine im wissenschaftlichen Sinne kritische Betrachtung von angebotener Datenlage und Theoretisierung für die politische Kraft der politische Tod.

  99. #99 Bleyfuß
    Januar 13, 2013

    Die USA blieben -bisher weitgehend von der Klimaerwärmung verschont, was dort die Skeptickerindustrie ins Kraut schießen ließ. In 2012 war aber Schluss mit cool. Die wirtschaftlichen Einbußen v.a. durch Ernteausfälle gingen in die Milliarden, Sandy ist fairness halber nicht dazu gerechnet. Der SPON hat in gewohnt bescheidener Qualität etwas dazu geschrieben, die letzten Zeilen aber sind -naja.

    http://www.spiegel.de/wissenschaft/natur/klimaprognose-us-studie-erwartet-erderwaermung-um-fuenf-grad-a-877136.html

    Die Skepticker können schon mal Holz sammeln gehen..

  100. #100 techniknörgler
    Januar 13, 2013

    Mhm, macht es nicht einen Unterschied, ob man sagt, ein solcher 10- Jahres-Abschnitt sei nichts ungewöhnliches und kein Beweis – wo ich zustimmen – oder ob es einen solchen 10-Jahres-Abschnitt gar nicht gibt.

    Jemand hat mir gegenüber mal felsenfest behauptet, das auch in den letzten 10 Jahren schon in den Rohdaten eine nenenswerte Erwärmung festzustellen sei (nicht erst nach eine Korrektur, also dem herrausrechnen anderer Faktoren als dem Treibhauseffekt). In wie fern stimmt diese Behauptung?

  101. #101 techniknörgler
    Januar 13, 2013

    Mhm, macht es nicht einen Unterschied, ob man sagt, ein solcher 10- Jahres-Abschnitt sei nichts ungewöhnliches und kein Beweis – wo ich zustimme – oder ob es einen solchen 10-Jahres-Abschnitt gar nicht gibt?

    Jemand hat mir gegenüber mal felsenfest behauptet, dass auch in den letzten 10 Jahren schon in den Rohdaten eine nenenswerte Erwärmung festzustellen sei (nicht erst nach eine Korrektur, also dem herrausrechnen anderer Faktoren als dem Treibhauseffekt). In wie fern stimmt diese Behauptung?

  102. #102 Dr. Webbaer
    Januar 13, 2013

    Jemand hat mir gegenüber mal felsenfest behauptet, dass auch in den letzten 10 Jahren schon in den Rohdaten eine nenenswerte Erwärmung festzustellen sei (nicht erst nach eine Korrektur, also dem herrausrechnen anderer Faktoren als dem Treibhauseffekt). In wie fern stimmt diese Behauptung?

    Sie stimmt “nicht ganz”: http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts+dSST.txt (GISS-Daten, also die von Klimaaktivist Hansen)

    MFG
    Dr. W

  103. #103 techniknörgler
    Januar 13, 2013

    > Was aber würde denn nun genau sein, wenn weitere 5 oder meinetwegen 10 Jahre ohne deutlichen Anstieg der Temperaturen vergehen? Kann man dann endlich so Sachen sagen wie: Somit ist bewiesen, dass die Modelle die Erwärmung stark überschätzen, die Klimasensitivität eigentlich deutlich kleiner ist und, kurz und gut, global warming ein hoax ist. Ganz ohne Ironie meine ich, dass das LEIDER nicht so ist. Es wäre wirklich toll, wenn man aus 5 oder 10 Jahren mehr an Temperaturdaten solche Schlüsse ziehen könnte. Im Model wie in der Wirklichkeit (siehe die Animation) sind T-Zeitreihen der letzten 50 Jahre eben aus Variation und einem geforcten Trend zusammengesetzt. Wenn die Modelle also definitiv (mit einer bestimmten Sicherheit von xx.xx%) die T-Beobachtungen nicht mehr beschreiben, ja dann bekommen Sie eben entweder den Trend nicht hin oder die natürliche Variabilität oder beides und alle drei Möglichkeiten (Trend,Variabilität, beides) auf Grund eines Bündels von möglichen Problemen (Wolken in den Subtropen, vertikale Ozeandiffusion, kein indirekter Aerosoleffekt, keine Repräsentation von Vulkanausbrüchen, keine oder unzureichende solare Variabilität, etc. etc.), die in den Modellen existieren könnten und ja sogar teils mit Sicherheit existieren. Ich hätte es auch gerne einfacher, aber so ist es halt.

    Aber ist diese Berücksichtigung anderer Faktoren nicht genau das, worauf einige, wie Herr Varenholt, hinaus wollen?

    Denn es gibt ja nicht nur Leute, die ACC für einen Hoax halten, der komplett falsch sei, sondern auch genügend, die genau auf die Vernachlässigung anderer Effekte aufmerksam machen wollen – aber mit ersteren in einen Topf gewurfen werden, obwohl ihch jetzt gar keinen Widerspruch zu obigem Zitat erkenne.

    Ich habe manchmal den Eindruck, als ginge es da nur um Nuancen und persönliche Ablehnung…

    In wie fern trifft das zu?

  104. #104 Dr. Webbaer
    Januar 13, 2013

    Was ist ‘ACC’? – Ansonsten betrachten wir hier ein hoch komplexes System und identifizieren die relevanten Faktoren oder Forcings bzw. sind dabei.

    Die Sonnenleistung wird erst seit ca. 3 Jahrzehnten extraterrestrisch bemessen und ist in ihren Schwankungen nicht klar bestimmt.

    Innerhofer hat weiter oben betont, dass eine “Gegentheoretisierung” aus Klimaskeptikerecke zur aktuellen akzeptierten Theoretisierung wenig Sinn macht. Man stochert zurzeit ohnehin herum und gerade die Prognostik, auch wenn sie grundsätzlich plausibel erscheint, ist unsicher und bedarf keiner spekulativ gewählten neuen Faktoren.

    MFG
    Dr. W

  105. #105 Gunnar Innerhofer
    Januar 13, 2013

    Webbaer:

    Jaja, so schaut’s aus. Aber bevorzugt im d-sprachigen
    Bereich, woanders wird noch diskutiert, im d-sprachigen Raum ist eine im wissenschaftlichen Sinne kritische Betrachtung von angebotener Datenlage und Theoretisierung für die politische Kraft der politische Tod.

    Ja, D ist da extrem. Im Ösireich ist es zwar politisch ebenso höchst korrekt, das Klima zu beschwören, nur spielen wir ja als “global player” zurzeit, ähmmm, eine eher vernachlässigbare Rolle.
    Man sehe nur mal nach Helga Kromb Kolb, da wird sogar Rahmstorf zum kritischen Wissenschafter…

  106. #106 Rudi
    Januar 13, 2013

    [techniknörgler]
    ” Was aber würde denn nun genau sein, wenn weitere 5 oder meinetwegen 10 Jahre ohne deutlichen Anstieg der Temperaturen vergehen?”

    Den Klimapropheten würde der A.sch auf Grundeis gehen.

  107. #107 Gustav
    Januar 13, 2013

    @Selter “Der kleine Film oben ist seht interessant. In ihm kann man gut nachvollziehen, wie eine “Theorie” “gepimpt” wird. Stimmt die Vorhersage der “Theorie” mit der Wirklichkeit nicht überein, dann müssen halt Einflüsse hinzugenommen werden. Schon stimmt die “Theorie” wieder.”

    Viele irren sich wie und wann eine Theorie als falsch gewertet wird, deswegen sei ihnen da kein Vorwurf zu machen.

    Eine Sofortfalsifikation einer Theorie, nur weil die Vorhersagen nicht mit den Beobachtungen übereinstimmen ist unsinnig. Und Popper war ein erklärter Gegner dieser Sofortfalsifikation.

    Wichtig ist die Systemfalsifikation: Aus einer Theorie werden anerkannte(*) Basissätze gebildet, diese Basissätze werden mit Beobachtungen verglichen. Stimmen die nicht überein, liegt eine Systemfalsifikation vor. Aber damit muss nicht zwangsläufig die Basissätze falsch sein und schon gar nicht die Theorie. Denn auch Beobachtungen sind immer theorieabhängig – die Theorie sagt uns was wir, wann und wie beobachten können (vergleichbar mit einer Taschenlampe in einem dunklen Raum. Die Theorie sagt und was wir sehen sollten [zB. den Ausgang]. Sehen wir nicht was wir erwarten, ist entweder unsere Theorie falsch oder aber unsere Vorstellung was wir beobachten sollten [denn auch ein Fenster ist ein Ausgang]).

    Wichtig ist dabei nach Popper nicht, dass wir eine Theorie auf den Misthaufen werfen, sondern dass wir den Widerspruch in einem System aus Theorie, Aussagen aus dieser Theorie und Beobachtungen (die auch aus Theorien entstehen) auflösen. Bis eine anerkannte(*) Widerspruchsfreiheit entsteht.

    * Wer bestimmt was “anerkannt” ist? Etwas “anzuerkennen” ist ein gesellschaftlicher Prozess der beteiligten Personen. Hier sind es weit über 95 % der ForscherInnen die der Meinung sind, dass es eine vom Menschen verursachte Klimaerwärmung gibt. Das ist Stand der Forschung. Und nicht was ein paar Youtube-Klimaleugner-Helden oder der RWE-Energiekonzern behauptet. Wissenschaft ist nun mal komplex und nicht so einfach, wie sich das Klimaleugner oder Intelligent Designer vorstellen.

  108. #108 pazifist
    Januar 13, 2013

    Ob die Klimadaten stimmen oder nicht und ob der Klimawandel durch den Menschen verursacht ist oder nicht – den Leugnern geht es letzten Endes nur darum, den Energiekonzernen (in DE den “4 Besatzungsmächten”) die Profite zu sichern.

    Kohle, Öl und Gas sind nun mal endlich. Und neben den Emissionen hinterlässt die Förderung zerstörte Natur. Atomenergie hinterlässt nicht zu bewältigenden Atommüll.

    Solange es keine nennenswerten erneuerbaren Energien gab, musste man das hinnehmen. Aber heute muss umgesteuert werden. Wer das als “Skeptiker” verhindern will, handelt unverantwortlich gegenüber künftigen Generationen.

  109. #109 energietechniker
    Januar 13, 2013

    “Kohle, Öl und Gas sind nun mal endlich. Und neben den Emissionen hinterlässt die Förderung zerstörte Natur. Atomenergie hinterlässt nicht zu bewältigenden Atommüll. ”

    die energiewende mit den tollen EE (in fachkreisen NIE = neue ineffizient energien genannt) läst die emissionen nicht sinken sondern steigen.

    wenn sie sich über zerstörte natur aufregen empfielt sich ein flug über norddeutschland wo sie die naturzerstörenden NIE-monumente bewundern dürfen. das ganze geschiet jetzt auch in süddeutschland in naturschutzwäldern die für den profit des öko-kriminellen komplex gerodet werden.

    und wie kommen sie auf die idee dass atom”müll” nicht zu bewältigen sei.

  110. #110 DH
    Januar 13, 2013

    Wer den Klimawandel leugnet , verdrängt nicht nur alle offensichtlichen Warnzeichen aus den entsprechenden Wissenschaften ( und wird zurecht nicht so recht ernst genommen ) , sondern hat auch keinen Instinkt, die zunehmend abnormen Wetterlagen sind schon jetzt ganz offensichtlich zu spüren.

  111. #111 techniknoergler
    Januar 13, 2013

    > Was ist ‘ACC’? –

    Menschengemachte Klimaerwärmung.

    > Innerhofer hat weiter oben betont, dass eine “Gegentheoretisierung” aus Klimaskeptikerecke zur aktuellen akzeptierten Theoretisierung wenig Sinn macht.

    Klingt einleuchtend.

  112. #112 techniknoergler
    Januar 13, 2013

    > sondern hat auch keinen Instinkt, die zunehmend abnormen Wetterlagen sind schon jetzt ganz offensichtlich zu spüren.

    Vorsicht, jetzt wird es aber in die andere Richtung unseriös. Der subjektive Eindruck kann nun mal, insbesondere durch Herdentrieb und Medien angefacht, täuschen.

    Genauso wenig wie ein extrem kalter Winter ein Beweis gegen den Klimawandel ist, ist ein extrem heißer Sommer ein Beweis dafür.

    Und auch die subjektiv, gesteigerte Wahrnehmung von sogenannten Extremereignissen durch die Medien kann einen Einfluss auf die Wahrnehmung haben.

  113. #113 Dr. Webbaer
    Januar 13, 2013

    @techniknoergler
    Es reicht die Schwächen der AGW (!)-Theoretisierung zu bearbeiten. Man muss eine Theoretisierung nicht durch eine bessere ersetzen, wenn man leisten will.

  114. #114 Dr. Webbaer
    Januar 13, 2013

    Wer den Klimawandel leugnet , verdrängt nicht nur alle offensichtlichen Warnzeichen aus den entsprechenden Wissenschaften ( und wird zurecht nicht so recht ernst genommen ) , sondern hat auch keinen Instinkt, die zunehmend abnormen Wetterlagen sind schon jetzt ganz offensichtlich zu spüren.

    Medial sicherlich, lol, aber sicherlich nicht persönlich. – Sie bestätigen zwar die Wirksamkeit der Öffentlichkeitsarbeit der postreligiös-politischen Klimafroscher, zumindest auf Ihre Person bezogen, aber auch nicht mehr.

  115. #115 Georg Hoffmann
    Januar 13, 2013

    @Wolfgang
    Ich verstehe von den vermeintlich noetigen Hypothesen-Beweisen kein Wort. Lasse es mir aber gerne erklaeren.
    Wir WISSEN dass ENSO und Vulkane einen Einfluss auf die globale Mitteltemperatur haben, physikalisch, statistisch, empirisch. Wer also eine Temperaturserie ohne diese Effekte haben will, soll sie abziehen. Und fertig.

  116. #116 axel
    Januar 13, 2013

    Wolgang glaubt, Foster hätte eine Anfangshypothese gehabt (global warming schreitet ungebremst voran), die er dann mittels multipler Regression “bewiesen” hätte.

    Blödsinn: Um eine Regression durchzuführen, braucht man keine Anfangshypothese.

  117. #117 Georg Hoffmann
    Januar 13, 2013

    @Gunnar
    “Wenn man schon die letzten 15a ignorieren will, so beachte man in der gloablen Reihe, dass die T von 1910 bis 1940 genau so schnell und weit angestiegen ist, wie in den “Treibhausdekaden” 1970 bis 2000. ”

    Falsch, weil unfaehig Daten auch nur selber zu plotten.

    “Tatsache ist, außer bein den GISS Daten, dass die globale T seit ca. 15a stagniert, ”
    Falsch

    “Sieht am sich die GCM`s an, so zeigt sich ganz klar, dass es speziell in den Polregionen massive Probleme gibt. Die arktische Meereisschmelze wird stark unterschätz (wohl ein gröberer natürlicher Einfluss, als die CO2 Brüder den Rechner füttern, ”

    Erstens gucken Sie sich nichts an und zweitens:
    http://scienceblogs.de/primaklima/2008/07/29/die-meereissimulation-2007/

    “. Sie tricksen mit den zu Tode homogenisierten GISS Daten so lange rum, bis ihnen der Trend passt. ”

    Alle Temperaturreihen, alle, zeigen das Gleiche. Falsch.

  118. #118 Leugnerentlarver
    Januar 13, 2013

    @Gustav, leider haben Sie unrecht.

    @Hoffmann, leider liegen Sie überall falsch und Innerhofer richtig. Innerhofer ist ja auch Meteorologe und deshalb Fachmann. Die Temperaturen stagnieren seit 15 Jahren.

  119. #119 Rudi
    Januar 13, 2013

    Der MEI lag die letzten Monate über Null und trotzdem lag die T im Dezember schon deutlich unter der Trendlinie (RSS).

    Damit liegt Hoffman (und axel) noch falscher als bislang gedacht.

  120. #120 Wolfgang Flamme
    Januar 13, 2013

    Also Axel,

    Georg hat hier das Thema gesetzt und das lautet eben, Visualisierung der Resultate von Foster und Rahmstorf sowie Kritik an dieser Arbeit. Unerklärlich, wieso man erstmal zu irgendwelchen Blogeinträgen, die Du eingeworfen hast, Stellung nehmen müßte, bevor man sich mit Georgs Post beschäftigt.

    Meine Kritik an F+R habe ich heute abend mal schnell erhärten können. Foster (Tamino) hat (R-)Sourcecode und Daten ja in seinem Blog veröffentlicht gehabt.

    Das Resultat, daß die unterlagerte anthropogen verursachte Erwärmung in Wirklichkeit ungebrochen voranschreitet, konnte ich erwartungsgemäß reproduzieren.

    Erwartungsgemäß konnte ich dieses Ergebnis aber auch reproduzieren, wenn ich die Korrektursignale MEI, AOD und TSI zwischen 1975 und 2011 in zeitlich genau umgekehrter Reihenfolge in den Algorithmus von F+R einspeiste. Da wird eben jeder Quatsch gnadenlos so verwurstet, daß am Ende immer ein möglichst lineares AGW-Signal herauskommt.

    So habe ich also nicht nur ‘bewiesen’, daß das AGW ungebremst weiter voranschreitet sondern auch, daß die Auswirkungen anderer maßgeblicher Einflußfaktoren rückwärts duch die Zeit reisen. Alles schlüssig belegt dadurch, daß mir der lineare Fit im Rahmen meiner Modellangaben auch gelingt.

    Die vernünftige Schlußfolgerung muß zwangsläufig lauten, daß sich die ‘Wahrheit’ eines Modells nicht durch eine erzielte Übereinstimmung im Rahmen der Modellangaben herausstellen läßt – das ist reines Blendwerk. Eine essentielle Erkenntnis beim Hypothesentest ist deshalb, daß eine direkte Bestätigung der Arbeitshypothese durch Modelle und Daten unmöglich ist.

    Das war dann auch der Hintergrund meiner Fragestunde: Wie kann man eine gefaßte Hypothese mit statistischen Methoden erhärten (da eine direkte Bestätigung nicht möglich ist)?
    Das steht eben gerade in jedem Statistik-Kompendium unter dem Kapitel ‘Hypothesentests’. Man formuliert explizit eine Gegenhypothese zu seiner Vermutung und zeigt, daß diese mit der Datenlage eher nicht vereinbar ist.
    Das heißt natürlich nicht, daß die Vermutung dann richtig ist: Das Modell könnte imer noch falsch sein oder es könnte eine außergewöhnliche Datenlage vorherrschen, die eine falsche gefaßte Modellannahme zu bestätigen scheint. Aber es ist das Beste, was man tatsächlich herausholen kann.

    Diese elementare Grundlage, die man lt. Ihrer Stellungnahme gar nicht erst nachschlagen muß, haben Foster und Rahmstorf aus den Augen verloren. Sie haben in ihrer Arbeit keine explizite Gegenhypothese “AGW schreitet unstetig voran” formuliert und geprüft.

    Was zugegebenermaßen nicht heißt, daß sie diese elementaren Grundlagen nicht kennen sondern nur, daß ihr ‘confirmation bias’ stärker ist als alle elementaren Grundlagen. Und das gilt offenbar auch für Dich.

  121. #121 axel
    Januar 13, 2013

    @ Wolfgang

    Immer noch keine Meinung zu der viel einfacheren Visualisierung von Nielsen-Gammon? Nut Mut, Wolfgang!

    PS:
    Was du so alles in das Paper von Foster hineininterpretierst. Vielleicht erst noch mal lesen? So etwas wie “anthropogenes global warming schreitet stetig voran” steht da gar nicht drin. Aber prügel ruhig weiter auf deinen Strohmann ein.

  122. #122 Dr. Webbaer
    Januar 13, 2013

    Erwartungsgemäß konnte ich dieses Ergebnis aber auch reproduzieren, wenn ich die Korrektursignale MEI, AOD und TSI zwischen 1975 und 2011 in zeitlich genau umgekehrter Reihenfolge in den Algorithmus von F+R einspeiste.

    Nicht unwitzig. Also Pfusch. – Nicht unwitzig auch, dass Sie das bereits erwartet haben und durften.

  123. #123 axel
    Januar 13, 2013

    @ Baerchen

    Wenn 4 + 2 = 6 ist, aber 2 + 4 dasselbe Ergebnis ergibt, dann muss da doch irgendwo Pfusch im Spiel sein?

    Jeder andere hätte das gar nicht ausprobiert, weil das Ergebnis sonnenklar war. Sogar die Lags hat Wolfgang mit umgekehrtem Vorzeichen reproduzieren können, oder etwa nicht, Wolfgang? Und sag bloß, der Trend ist plötzlich negativ? Wow.

  124. #124 Gunnar Innerhofer
    Januar 14, 2013

    Georg,
    du zeigst wieder nur, dass du keine Ahnung hast.

    Ok, ein wenig wohl, immerhin bist du ja akademisch gesehen nicht ganz weit weg vom Fach.
    Als meteorolgischer Laie fällt es dir halt shr schwer, selbst trivialste Sachverhalte dieser Wissenschaft zu begreifen.
    Das ist wohl so Fanatismus, dem man dir nicht mehr austreiebn wird, wie auch deinem “Bruder” Axel, der so gesehen auch ein Laie bleibt. Nur weil man zwei Worte Physik versteht, ihr Penner, ist man noch lange nicht Meteorologe und schon gar nicht Klimatologe, ihr Milchmädl!.

    Aber mei, lassen wir doch die Klimabewegten weiter ihren Dreck posten und lassen wir doch den primitiven Georg weiter sein Geld mit politisch korrektem Dreck verdienen, denn privat kann der Typ nur ein Versager sein, fett, dumm und hörig, wem auch immer, seiner noch fetteren Frau oder dem fetten IPCC. Ein selten blöder AGW Prolo mit einem noch blöderem Blog. Schaltet die Scheisse doch einfach aus!

  125. #125 Alexandra
    vergletschertes Berlin
    Januar 14, 2013

    Herr Georg Hoffmann schreibt.

    “So wird etwa das ENSO Signal von der globalen Kurve abgezogen (siehe etwa die Animation unten) und es ist natürlich möglich, daß sich ein kleiner Anteil globaler Erwärmung im ENSO Signal versteckt, der somit bei der Berechnung des Trends der globalen Erwärmung nicht berücksichtigt wäre. Schliesslich könnte es ja sein, dass Amplitude und Frequenz von ENSO sich bereits auf Grund der globalen Erwärmung geändert hätten.”So wird etwa das ENSO Signal von der globalen Kurve abgezogen (siehe etwa die Animation unten) und es ist natürlich möglich, daß sich ein kleiner Anteil globaler Erwärmung im ENSO Signal versteckt, der somit bei der Berechnung des Trends der globalen Erwärmung nicht berücksichtigt wäre. Schliesslich könnte es ja sein, dass Amplitude und Frequenz von ENSO sich bereits auf Grund der globalen Erwärmung geändert hätten.”

    Sehr schön.

    Wenigstens jemand, der weiß, wie man ein Signal, dass man nicht kennt – “in Frequenz und Amplitude” – aus einem Signal herausrechnet.

    Vermutlich können Sie auch alle Differentialgleichungen direkt lösen.

    Von den Klimaforschern kann man noch was lernen.

  126. #126 Gunnar Innerhofer
    Januar 14, 2013

    alexamdra

    du wirst doch hoffentlich und endllich bemerkt haben, dass das Geschreibe von Hoffmann nichts wieter ist, als politisch getunter Dreck. Er lebt davon und hat meteorologisch keine Ahnung wie auch keine Ausbildung und nur so kann man derart idoelogisch verblendet werden.

  127. #127 AmbiValent
    Januar 14, 2013

    Das Schmelzen von Eis verbraucht ganz schön Energie (bzw wandelt Wärmeenergie in Bewegungsenergie der Moleküle um):

    http://iwantsomeproof.com/extimg/sia_5.png

  128. #128 Wolfgang Flamme
    Januar 14, 2013

    Jeder andere hätte das gar nicht ausprobiert, weil das Ergebnis sonnenklar war. Sogar die Lags hat Wolfgang mit umgekehrtem Vorzeichen reproduzieren können, oder etwa nicht, Wolfgang? Und sag bloß, der Trend ist plötzlich negativ? Wow.

    Axel,
    da sieht man mal, wie gut es ‘jedem anderen’ täte, dem ‘sonnenklar’ kritisch gegenüberzustehen und das auszuprobieren. Oder wenigstens die Arbeit von F+R aufmerksam zu lesen.

    Dann hätte man nämlich gemerkt, daß der Algorithmus von F+R ausschließlich nicht-negative Lags von 0-24 Monaten durchtestet, die von Ihnen vermuteten negativen Lags als Resultat also unmöglich produzieren kann.

    Ebenfalls wäre dann aus dem Verlauf der Korrektursignale und ihrer fehlenden Colinearität (s. F+R) klar geworden, daß eine Linearkombination aus diesen Korrektursignalen ungeeignet ist, den positiven linearen Trend zu übertünchen und ins Gegenteil zu verkehren, ohne daß dabei die verbleibenden Trendabweichungen (Residuen) enorm zunehmen.
    Im Klartext: Der vom F+R-Algorithmus mit umgedrehten Korrektursignalen errechnete Fit hat selbstverständlich einen aufwärts gerichteten Verlauf und zeigt -selbstverständlich- ganz ähnliche Ergebnisse insofern, als das ‘korrigierte’ Signal besonders um große Abweichungen vom linearen Verlauf bereinigt ist. Bsp.
    http://i171.photobucket.com/albums/u304/wflamme/FRreversed-HadCRU_zpsee4acf03.png

    Bleibt also der Schluß, daß Sie die Arbeit von F+R entweder gar nicht gelesen oder aber nicht verstanden, ganz bestimmt aber nicht nachvollzogen und kritisch geprüft haben.

    Nachdem Sie oben sogar behauptet haben …

    Was du so alles in das Paper von Foster hineininterpretierst. Vielleicht erst noch mal lesen? So etwas wie “anthropogenes global warming schreitet stetig voran” steht da gar nicht drin. Aber prügel ruhig weiter auf deinen Strohmann ein.

    … aber F+R unter ‘Conclusions’ explizit schreiben …

    The resultant adjusted data show clearly,
    both visually and when subjected to statistical analysis, that
    the rate of global warming due to other factors (most likely
    these are exclusively anthropogenic) has been remarkably
    steady during the 32 years from 1979 through 2010. There
    is no indication of any slowdown or acceleration of global
    warming, beyond the variability induced by these known
    natural factors.

    … kann man eigentlich nur fassungslos sein über den ganzen Unsinn, den Sie hier vorbringen. Den besten Rat, den ich Ihnen geben kann, lautet: If you’re caught in a hole, stop digging.

  129. #129 axel
    Januar 14, 2013

    @ Wolfgang

    Und dir ist nicht aufgefallen, dass das Wörtchen “anthropogen” in deiner zitierten conclusion fehlt?
    Foster arbeitet nämlich sauber, Statistik kann keine Attribution zeigen. Theoretisch mit viel Vahrenholtscher Phantasie könnte über diesen Zeitraum der lineare Trend sogar natürliche Ursachen haben.
    Aber prügeln Sie ruhig weiter auf ihren Strohmann ein, der lautet, Foster hätte die Hypothese “AGW ginge stetig weiter” bewiesen.

    PS:
    “Der vom F+R-Algorithmus mit umgedrehten Korrektursignalen errechnete Fit hat selbstverständlich einen aufwärts gerichteten Verlauf …”
    Watt denn nu? Gestern klang es noch so, du hättest einfach alles in der Zeit rückwärts laufen lassen. Jetzt nur die Korrektursignale? Alles in der Zeit rückwärts laufen zu lassen ist nämlich so trivial, dass ich lachen musste (das Umschreiben auf negative Lags schafft wohl sogar ein Bärchen).

  130. #130 axel
    Januar 14, 2013

    Wolfgang,

    ein Nachtrag:
    Alles, wirklich alles, kannst du in unseren Beiträgen vor einem Jahr nachlesen, wir hatten das alles schon.

    Ehrlich gesagt, finde ich deine Aufregung sehr übertrieben.
    Wir erwarten von der Zunahme der CO2-Konzentration einen ungefähr linearen Trend über den betrachteten Zeitraum. Foster zeigt nun, dass bei Abzug der natürlichen Variabilität ein linearer Trend übrig bleibt, ebenso zeigt dies Nielsen-Gammons Auswertung, wo die Temperaturen nur in ENSO-Klassen unterteilt werden (deine Meinung dazu? Nut Mut!).

    Prima! Wir finden das, was wir von der Theorie erwarten. Aussagen, dass die Phase der Stagnation “die Theorie widerlegen würden” oder beweisen würde, dass global warming vorüber sei, halte ich daher für mehr als verfrüht und lächerlich. Falls jemand (was ist deine Meinung überhaupt?) diese Hypothese aufstellt, kann er ja gerne auf Hypothesentests zurückgreifen.

    Und noch etwas:
    Niemand behauptet, die errechneten Trends wären dasselbe wie der Trend des CO2. Da wäre ich gaanz vorsichtig, es könnten in der Tat Reste natürlicher Trends enthalten sein, aber gravierender ist, dass in diesem linearen Trend wohl auch die Zunahme anthropogener Signale enthalten ist.

    Es bringt nichts, sich in Details zu verheddern, wenn der Blick auf das Ganze verloren gegangen ist…

  131. #131 pazifist
    Januar 14, 2013

    @energietechniker

    “die energiewende mit den tollen EE (in fachkreisen NIE = neue ineffizient energien genannt) läst die emissionen nicht sinken sondern steigen.”

    Kühne Behauptung, gern von den 4 Besatzungsmächten (EON, RWE, EnBW, Vattenfall) und ihren bezahlten Propagandisten verbreitet, aber weder durchgerechnet noch nachgewiesen. Und die NIE sind offensichtlich so „ineffizient“, dass sie angeblich die Netzkapazitäten sprengen. Jedenfalls kosten sie nur als Investition, nicht im Verbrauch.
    Vor dem Irrweg des Biosprit/Biodiesel mit der Folge der Zerstörung der Landwirtschaft und der Regenwälder haben verantwortungsbewusste Vertreter der EE längst gewarnt.

    “wenn sie sich über zerstörte natur aufregen empfielt sich ein flug über norddeutschland wo sie die naturzerstörenden NIE-monumente bewundern dürfen. das ganze geschiet jetzt auch in süddeutschland in naturschutzwäldern die für den profit des öko-kriminellen komplex gerodet werden.”

    Nicht zu tolerierende Auswüchse gibt und gab es in jedem Wirtschaftsbereich. Das kann aber gesetzlich reguliert werden, wenn der Wille da ist.
    Kohle-, Öl- und Gaskraftwerke kann man zwar nach Laufzeitende einfach verrotten lassen, die Natur überwuchert irgendwann die Strukturen. Die Förderung der Brennstoffe hinterlässt aber in vielen Regionen der Welt verseuchte Gebiete, die sich in Jahrhunderten nicht erholen. Und die Kosten für die Brennstoffe steigen unweigerlich Jahr für Jahr.
    Die Kosten, die z.B. die Renaturierung der Tagebauflächen der Braunkohlenförderung erfordert, zahlen wir zwar nicht mit der Stromrechnung, aber jetzt bereits über Jahrzehnte mit Steuergeldern.

    „und wie kommen sie auf die idee dass atom”müll” nicht zu bewältigen sei.“

    Abgelaufene Atomkraftwerke kann man nicht einfach verrotten lassen. Sie müssen, wie auch der Atommüll, über viele Jahrzehnte mit hohen Kosten “betreut” werden, allerdings auch “nur” mit Steuergeld, damit der Atomstrom schön “billig” bleibt. Der Abriss kostet pro Stück mehr als eine Milliarde und dauert Jahrzehnte (siehe das kleine KKW Rheinsberg). Bezahlt wird mit Steuergeld.
    Gebrauchte Brennstäbe müssen langfristig gekühlt werden. Ein Endlager ist nicht in Sicht. Und von den Risiken der Kernenergie ganz zu schweigen.

  132. #132 Wolfgang Flamme
    Januar 14, 2013

    1)

    Und dir ist nicht aufgefallen, dass das Wörtchen “anthropogen” in deiner zitierten conclusion fehlt?

    “(…) that the rate of global warming due to other factors (most likely these are exclusively anthropogenic) has been remarkably steady (…)”
    (Foster & Rahmstorf 2011)

    2)

    Watt denn nu? Gestern klang es noch so, du hättest einfach alles in der Zeit rückwärts laufen lassen. Jetzt nur die Korrektursignale?

    “(…) wenn ich die Korrektursignale MEI, AOD und TSI zwischen 1975 und 2011 in zeitlich genau umgekehrter Reihenfolge in den Algorithmus von F+R einspeiste.”
    (W. Flamme, 2013)

    So jung und schon blind! Stop digging.

  133. #133 axel
    Januar 14, 2013

    Wolfgang

    ad 1)
    Auch da steht “rate of global warming” ( In der Klammer steht dann noch “most likely” und “anthropogenic” (d.h. CO2 + anthrop. Aerosole), prima! Ganz ähnlich klang es ja in meinen letzten beiden Beiträgen.)

    Hast du an der Interpretation in meinem letztem Beitrag etwas auszusetzen? Wenn nicht, weiß ich nicht, worüber du überhaupt diskutierst. Vielleicht könntest du deine Kritik dann auch mal mit Blick aufs Ganze formulieren.

    ad 2)
    Ok, dann habe ich nicht sauber gelesen. Dann ist das Ergebnis natürlich nicht trivial. Man müsste sich nun mal den Verlauf des ENSO-Indexes anschauen und die Güte des Fits prüfen.

    PS:
    Kann es sein, dass es bei der ganzen Diskussion um die Definition von “global warming” geht? Der Begriff ist nirgendwo sauber definiert und ich habe das Gefühl, dass dieser unterschiedlich verwendet wird.

    Für mich (und offensichtlich auch für Tamino) ist global warming der langfristige Erwärmingsprozess, das hinter dem Rauschen natürlicher Variabilität sich verbergende Signal. Das ist auch die Modellannahme der Auswertung, Tamino versteht unter dem global warming-Signal den Trend.
    Vielleicht gibt es Zeitgenossen, für die “global warming” der Verlauf der absoluten gemessenen Temperaturen ist. Anhänger dieser Interpretation müssten sich etwas schwer tun mit der Aussage, dass global warming fortschreitet. Wenn es daran liegt, könnte ich demütigst Vorschläge unterbreiten, wie man Taminos Ergebnisse auf diese Definition hin umformulieren könnte. Ist das womöglich dein eigentliches Problem?

    PS:
    Ohne Quatsch, ich glaube, dass diese schwammige Definition und der widersprüchliche Gebrauch des Begriffs “global warming” maßgeblich für den Streit und die Verwirrung verantwortlich ist.

  134. #134 Kunibert Hurtig
    Rösrath
    Januar 14, 2013

    Mal hier schauen, was da kommen kann:

    http://arctic-news.blogspot.de/2012/09/high-september-2012-methane-levels.html
    oder hier:
    http://global-warming.gather.com/viewArticle.action?articleId=281474981332273
    hier die Temperaturen am 80. Breitengrad:
    http://www.klimafreak.de/Freitag_B32/OstoVizeGesamt.jpg

    Wie sagt der Kölner:
    et kütt wie et kütt un et is noch emmer god jejange ODER???

  135. #135 Wolfgang Flamme
    Januar 14, 2013

    Foster zeigt nun, dass bei Abzug der natürlichen Variabilität ein linearer Trend übrig bleibt (…)

    Axel, Axel, ….
    Genau das zeigen F+R eben nicht – die ‘Beweisführung’ erfolgt bei F+R ja gerade umgekehrt:

    Sondern sie setzen voraus, daß das eigentliche Trendsignal linear verläuft und schließen daraus, daß die bestehenden Abweichungen durch a) zufällige Witterungsschwankungen (Rauschen) und b) eine geeignet gewählte Linearkombination ggfs. zeitverzögerter natürlicher Korrektursignale zustandekommt.

    Für letzteres suchen Sie dann im Rahmen ihres Verfahrens den optimalen Parametersatz aus Lags und Wichtungen, der nur noch zufällige Witterungsschwankungen übrigläßt.

    Zieht man vom beobachteten Temperaturverlauf dann die so berechneten Einflüsse ab, dann _muß zwangsläufig_ nur noch der von Witterungsschwankungen überlagerte lineare Verlauf übrigbleiben. Denn das war ja die Optimierungsvorgabe.

    Und mein vorsätzlicher Unsinns-Korrekturinput demonstriert einfach, daß dieses Ergebnis eine Zwangsläufigkeit darstellt.

    ###

    Es gibt natürlich noch eine weitere, strunzeinfache Probe – in Anlehnung an einen Punkt aus meinem ersten Kommentar hier:

    “- Dass sich die Annahme, die zugrundeliegende Erwärmungskomponente habe sich in dem guten letzten Dutzend Jahren abgeflacht, mit ihrer Methode nicht verünftig fitten läßt.”

    Nehmen wir als Beispiel-Stichdatum mal die Jahrtausendwende und behaupten ab da frech eine Trendabflachung/Stillstand (oder sogar einen leichten Rückgang). Und dann nehmen wir F+R und gucken, ob sie diese Annahme mit ihrem Verfahren und Originalzeitreihen auch gut fitten können. Falls ja, dann haben wir schlüssig in Übereinstimmung mit den Schlußfolgerungen in F+R ‘bewiesen’, daß sich ‘global warming’ seit 2000 gerade _nicht_ fortsetzt. Und ihre Schlußfolgerung damit widerlegt. Denn wenn dieselbe Methode sowohl den einen als auch den gegenteiligen Schluß zuläßt, ist sie einfach beliebig.

    Nun ist das Fitten auf einen solchen Trendbruch im F+R-Algorithmus ja nicht vorgesehen. Ist aber egal. Wir müssen den Code dafür gar nicht tiefgreifend manipulieren sondern den Temperaturdaten ab 2000 bloß einen zusätzlichen Erwärmungstrend unterschieben. Und wenn der F+R-Algorithmus das wunderbar linear fittet, dann wissen wir, daß der ‘wahre’ gefittete Trend ab 2000 entsprechend kleiner sein muß. Wir können den Daten ab 2000 zB den von F+R errechneten, konstanten Trend zusätzlich unterschieben und ein erfolgreicher linearer Fit ‘beweist’ dann eine Stagnation ab 2000 mit den Methoden von F+R.

    Na, will irgendwer eine Vermutung äußern, was dabei wohl herauskommen wird? :-)

  136. #136 Bleyfuß
    Januar 14, 2013

    @Wb, Innerhofer Rahmhuber usw.

    Wo ist Euer Problem? Das Angebot steht breit im Raum:

    “Ich wette, dass es in den nächsten beiden Jahren einen neuen Temperaturrekord geben wird. Wer wettet dagegen?”

    Wenn die Klimaerwärmung nur so eine Erfindung des Hysterökologisch-fundi Propagandaflügels ist, dann müsstet Ihr doch die Chance ergreifen und die Klimahysterie exemplarisch widerlegen.

    So oft treten Temperaturrekorde doch nicht auf, die Gelegenheit ist günstigst.

    Aber das Interesse hält sich dem Anschein nach in überschaubaren Grenzen. Wie soll man das deuten?

    Inhärente Skepsis vielleicht?
    Oder seit Ihr für Wetten zu seriös?
    Wetten = Hütchenspiel?

    Fragen über Fragen.

  137. #137 Georg Hoffmann
    Januar 14, 2013

    @Gunnar
    “lassen wir doch den primitiven Georg weiter sein Geld mit politisch korrektem Dreck verdienen, denn privat kann der Typ nur ein Versager sein, fett, dumm und hörig, wem auch immer, seiner noch fetteren Frau”

    Vielleicht noch meine Mutter und meine Kinder? Mal abgesehen von der Klimadebatte ist es schon gruselig was das Internet aus einigen macht. Ein anderer hat Aufrufe zum Mobbing an meine Arbeitskollegen geschrieben, der Kai hier war praktisch nur noch fuer Touretteforscher von Interesse etc etc.
    Ich lass den Beitrag von Gunnar Innenhofer hier so noch stehen und nehme mal an, dass niemand was dagegen hat, wenn ich ihn jetzt mal bis auf weiteres rausschmeisse. Inhaltlich kommt eh nichts. Und tschuess.

  138. #138 Georg Hoffmann
    Januar 14, 2013

    @Flamme
    “Zieht man vom beobachteten Temperaturverlauf dann die so berechneten Einflüsse ab, dann _muß zwangsläufig_ nur noch der von Witterungsschwankungen überlagerte lineare Verlauf übrigbleiben. Denn das war ja die Optimierungsvorgabe.”

    Ja, ich denke das ist ungefaehr richtig. Der Witterungsanteil korrelliert gut (was er natuerlich bei umgekehrten Zeitverlauf nicht tut.) bis sehr gut, der angenommene lineare Rest ist sehr effektiv vom Noise getrennt worden (was natuerlich bem ungekehrten Zeitverlauf) nicht so ist.
    Wir wissen dass der Trend ungefaehr linear sein muss, denn 1) ist das CO2 exponentiell und somit das radiative Forcing linear, 2) ist das Forcing ueber 50 Jahre relativ klein, so dass man linearisieren kann und 3) bestaetigen das auch die Klimamodelle unterschiedlicher Komplexitaet. Schliesslich und endlich ist der T-Verlauf der letzten 50 Jahre gut linear und kein anderer Fit (polynomial, sinusoidal) ergibt ein besseres Ergebnis als der lineare Fit (immer die Zahl der neuen Fitparameter in die Ueberlegung mit einbezogen).
    Es ist sogar sehr wahrscheinlich, dass einige Oszillationen und pseudo-Oszillationen des Klimas mit in den ENSO Anteil reingequetscht wurden. Das einfache Verfahren und das ziemlich glatte Ergebnis zeigt aber, dass die Linearisierung weitestgehend ok ist und dass keine starken dekadischen Variationen unberuecksichtigt blieben.
    Da nur 50 Jahre beruecksichtigt wurde, bleiben natuerlich alle moeglichen 60 Jahresoszillationen aussen vor. Wieder zeigt das Resultat, dass der EFfekt nicht alzu schlimm sein sollte (Zu Beginn der Kurve sind zb nicht deutlich mehr Werte unter der Gerade als sie am Ende oberhalb der Geraden sind etc.).

  139. #139 Georg Hoffmann
    Januar 14, 2013

    @Leugnerentlarver
    “leider liegen Sie überall falsch und Innerhofer richtig. ”

    Vielleicht etwas konkreter. Bei der Vielzahl der Fehler von Gunnar Innenhofer weiss ich jetzt gar nicht mehr auf was sich das jetzt bezieht.

    @Rudi
    “Der MEI lag die letzten Monate über Null und trotzdem lag die T im Dezember schon deutlich unter der Trendlinie (RSS).
    Damit liegt Hoffman (und axel) noch falscher als bislang gedacht.”

    Falsch auf einer Reihe von Niveaus. ENSO ist ein Faktor unter mehreren und der Zusammenhang ist nicht perfekt. ENSO erklaert ungefaehr 20-30% des detrendeten Signals.
    (je nach Index und Zeitspanne).

  140. #140 axel
    Januar 14, 2013

    Wolfgang, Wolfgang

    Ich glaube, wir müssen ganz weit vorne in den Grundlagen der Statistik anfangen.

    Man kann z.B.in alle Daten mittels linearer Regression eine Gerade fitten. Erst die Auswertung zeigt, ob diese Modellannahme gerechtfertigt ist oder nicht. Foster hat’s getan, sein Ergebnis ist, dass die Annahme gerechtfertigt ist. Du kannst in seiner Auswertung keinen Fehler nennen, redest nur herum, dass auch andere Einflüsse (z.B. rückwärts gerechnet) ebenfalls einen linearen Trend ergeben, verschweigst aber das wichtigste, nämlich ob in deinem Fall die Modellannahme gerechtfertigt ist bzw. die Güte des Fits. Und mit Verlaub: Da traue ich Foster schon mehr zu als dir.

    “Nehmen wir als Beispiel-Stichdatum mal die Jahrtausendwende und behaupten ab da frech eine Trendabflachung/Stillstand (oder sogar einen leichten Rückgang).”

    Na, dann prüfe das doch einfach mal. Eine Möglichkeit wäre zu schauen, ob die Residuen über die Zeitreihe betrachtet einen negativen Trend aufweisen. Bzw. ob diese ab dem Jahr 2000 zunehmend negativ werden.

    Ach ja, Fosters Zeitreihe geht nur bis 1975 zurück, weil er schreibt, dass davor die Annahme eines linearen Trends zusammenbricht. Du bist doch sooo viel besser. schaffst du dasselbe dann nicht auch für das Jahr 2000?

  141. #141 Wolfgang Flamme
    Januar 14, 2013

    Erst die Auswertung zeigt, ob diese Modellannahme gerechtfertigt ist oder nicht. Foster hat’s getan, sein Ergebnis ist, dass die Annahme gerechtfertigt ist.

    Wenn man glaubt, das Kapitel ‘Hypothesentests’ gar nicht erst aufschlagen zu müssen, dann kommt man halt mitunter zu solchen Fehlschlüssen.

    Eine Möglichkeit wäre zu schauen, ob die Residuen über die Zeitreihe betrachtet einen negativen Trend aufweisen.

    Mein Vertrauen in Sie ist ungebrochen: Wenn es überhaupt einen Menschen gibt, der in den Residuen einer linearen Regression einen Trend ausfindig machen kann, dann sind Sie das.

  142. #142 Georg Hoffmann
    Januar 14, 2013

    @Wolfgang
    “Wenn man glaubt, das Kapitel ‘Hypothesentests’ gar nicht erst aufschlagen zu müssen, dann kommt man halt mitunter zu solchen Fehlschlüssen.”

    Ich habe einen Hypothesentest im Zusammenhang mit einer linearen Korrelation noch nie gesehen. Ueblicherweise macht man einen qq plot um die Verteilung der Residua zu testen. Hast du mal ein Beispiel aus der Literatur, wwas du vermisst?

    “Wenn es überhaupt einen Menschen gibt, der in den Residuen einer linearen Regression einen Trend ausfindig machen kann, dann sind Sie das.”

    Das wird wohl nicht gehen, aber wenn die Residua zb ab einem Punkt (2000?) alle unter der Regression liegen, dann wuesste man eben, dass ab diesem Zeitpunkt die Regression die Daten nicht mehr gut beschreibt. Man sieht aber im F&R Paper, dass das nicht so ist.

  143. #143 axel
    Januar 14, 2013

    Ach Wolfgang,

    es ist irgendwie zwecklos mit dir zu diskutieren, du gehst auf deinen Gesprächspartner überhaupt nicht ein. Kein Wort zu Nielsen-Gammons Auswertungen, kein Wort zu meinen Fragen an deine Auswertung, kein Wort zu meinen Einwürfen der letzten Beiträge.

    Ah doch, auf meinen Fehler bist du eingegangen, den Rest hast du aber leider ignoriert. Ich hatte übrigens ein Bild vor Augen, eine lineare Anpassung durch einen Abschnitt einer quadratische Funktion und meinte die Entwicklung der Residuen, Trend ist natürlich blödsinnig.

    Machst du hier nur den Krishna, oder bist du an Diskussion interessiert? Oder will uns der großartige Statistiker Wolfgang Flamme einfach mal zeigen, was seiner felsenfesten unerschütterlichen Meinung nach der Statistikamateur Foster so alles übersieht? Als Monolog natürlich, ohne Diskussion.

    Oh, jetzt habe ich wohl glatt die Zuordnungen vor den Namen vertauscht, kann passieren ;-)

  144. #144 Rudi
    Januar 14, 2013

    Halten wir einfach mal fest:
    F&R haben die Analyse bis Ende 2010 durchgeführt. Und dann haben Sie die Arbeit veröffentlicht- warum wohl? Ich sage weil die Daten so schön gepasst haben. Wäre das nicht der Fall gewesen, dann hätte Welt von dieser Untersuchung nie etwas erfahren. Und genau darin liegt Krux.
    Werden nur hinreichend viele statistische Untersuchungen vorgenommen dann wird sich rein zufällig eine darunter finden, die das gewünschte Ergebnis belegt. (Dafür gibt es einen Begriff in der Statistik, vielleicht kann axel uns den sagen)

    Die Sache ist aber ganz einfach:
    Die Zeit schreitet stetig voran und jedes Jahr kommt ein weiterer Temperaturwert dazu.
    Nun lässt sich mit den erweiterten Daten prüfen ob das Ergebnis von F&R rein zufällig so gut passte oder ob es durch den Gang der Zeit bestätigt wird.

    Prognose: spätestens 2015 wird die Realität das Paper zerlegen

    PS: Der Große Wolfgang Flamme hat ja bereits die schwache Aussagekraft von Anpassungen aufgezeigt. (sehr schöner knock out)

  145. #145 DH
    Januar 14, 2013

    @ techniknörgler

    “Genauso wenig wie ein extrem kalter Winter ein Beweis gegen den Klimawandel ist, ist ein extrem heißer Sommer ein Beweis dafür.”

    Natürlich stimmt das .
    Ich bin nur einfach vom Gefühl her der Meinung , daß was aus den Fugen gerät.

    Ich denke schon , daß solche Themen nicht nur mit dem Kopf , sondern auch dem Instinkt behandelt werden sollten , als einen Teil der Herangehensweise.
    Auch , weil wir einfach zuwenig wissen und trotzdem nicht einfach zuwarten können.

    @Dr. Webbaer

    “Sie bestätigen zwar die Wirksamkeit der Öffentlichkeitsarbeit der postreligiös-politischen Klimafroscher, zumindest auf Ihre Person bezogen, aber auch nicht mehr.”

    Naja. Man kann natürlich alle einem nicht passenden Meinungen in irgendeine ideologische Ecke abschieben – diese “Das sehen nur Sie so ” – Nummer ist ziemlich billig.

  146. #146 Olga Stuss
    Januar 14, 2013

    Lieber Herr Hoffmann. Es ist sicherlich schwer mit dem Herrn Innerhofer nachsichtig zu sein. Mitunter wird ein Skeptiker halt von der Faktenlage übermannt. Paart sich das dann mit der bitteren Erkenntnis, dass andere fachlich deutlich mehr drauf haben als man selbst, entlädt sich das Ganze in so einem Frustpost. Irgendwie verständlich. Trotzem rechne ich Herrn I hoch an, dass er die Spinner bei EIKE entlavt hat. Er ist also auf gutem Wege zur Selbsterkenntnis.

    Herzlichst
    Dr. Olga Stuss (FDP)

  147. #147 axel
    Januar 14, 2013

    Hallo Olga,

    FDP-Mitglied? Falls ja, was ist da in Sachen Klimawandel in der Partei gerade los? Spinner scheint es da ja auch einige zu geben, lässt man die einfach so gewähren?

  148. #148 Wolfgang Flamme
    Januar 14, 2013

    Georg,

    die Statistik einer linearen Regression ist nichts anderes als der Test der Hypothese, daß sich der Mittelwert einer normalverteilten Zufallsgröße in Abhängigkeit einer unabhängigen Einflußgröße kontinuierlich ändert. Was Lit. betrifft; Sachs/Hedderich berufen sich in Kap. 7 (Hypothesentests) unter 7.7.1 (Prüfung des Vorhandenseins einer Korrelation) auf Fisher, t-Test mit n-2 Freiheitsgraden, dort sind auch die zug. H0 und Ha aufgeführt.

    Und vermissen tu ich bei F+R was ganz grundlegendes. In ihrem Lag-Verfahren testen sie ja 25^3 Lag-Kombinationen für die Korrekturzeitreihen durch, das sind selbst bei autokorrelierten Zeitreihen eine ganze Menge zusätzlicher Freiheitsgerade, die aber in der reinen Regressionsstatistik/-signifikanz gar nicht auftauchen (können), weil die eigentliche Regression von der vorherigen Austesterei ja nichts mitbekommt.
    Das war überhaupt der Grund daß ich mir dachte, bei soviel Freiheitsgraden sollte man das auch mit Nonsens-Korrektursignalen passabel fitten können (was sich dann ja auch exemplarisch auf Anhieb bestätigen ließ).

    Es handelt sich bei dieser Kombination aus Lag-Testerei und Regression also um ein neuartiges Verfahren, für das noch gar keine aussagefähige Teststatistik existiert. Und da wäre es ja wohl das Mindeste, daß man wenigstens exemplarisch mal guckt, ob dieses Verfahren für den beabsichtigten Zweck überhaupt eine Signifikanz aufweist. Oder ob es einfach bloß einen weiten Spielraum von vorgefaßten Annahmen durch guten Fit zu bestätigen scheint – also zB die Annahme ‘die globale Erwärmung schreitet ungebremst weiter fort’ genauso wie die Annahme ‘die globale Erwärmung ist vor einem guten Dutzend Jahren zum Stillstand gekommen’. Dann wäre das Ding nämlich kaum mehr als ein automatischer Abnicker für Arbeitshypothesen.

    Das wäre also echt das mindeste gewesen und problemlos machbar auch (s.h. mein Vorschlag). Stattdessen glaubt man völlig unkritisch, all das, was das Ding ausspuckt sei richtig, signifikant und geeignet, um diese Schlußfolgerungen bzgl. des unterlagerten Trends ziehen zu dürfen.

    Sicher wäre es etwas anderes gewesen, wenn es das erklärte Ziel der Arbeit gewesen wäre, bloß Lags und Wichtungen dieser Einflüsse zu ermitteln – eben unter der Prämisse, daß die unterlagerte Erwärmung kontinuierlich voranschreitet. Dann wären die gewonnenen Parameter aber nur dann richtig, wenn diese Prämisse auch zutreffen würde – man könnte und würde den so gewonnenen Parametersatz also nicht anwenden, um damit wiederum die Prämisse des kontinuierlichen Anstiegs zu erhärten.

    Tatsächlich machen Foster und Rahmstorf aber genau das. Eigentlich kaum vorstellbar, daß diese Arbeit tatsächlich so das PR passieren konnte.

  149. #149 energietechniker
    Januar 14, 2013

    @pazifist:

    Kühne Behauptung, gern von den 4 Besatzungsmächten (EON, RWE, EnBW, Vattenfall) und ihren bezahlten Propagandisten verbreitet, aber weder durchgerechnet noch nachgewiesen.

    schauen sie mal da
    http://www.science-skeptical.de/klimawandel/erneuerbare-energien-fuhren-zu-hoheren-co2-emissionen-einige-fakten/009260/
    sie werden dazu aber nichts zu sagen wissen ausser, das dies eine skeptikerseite ist die von RWE bezahlt ist. fakten werden sie keine liefern können

    Jedenfalls kosten sie nur als Investition, nicht im Verbrauch.

    hmm? ab wann kommt der NIE strom dann gratis bei mir an?

    verantwortungsbewusste Vertreter der EE

    oxymoron

    Und die Kosten für die Brennstoffe steigen unweigerlich Jahr für Jahr.

    ökodünnpfiff. schauen sie mal in die USA. teuer wirds in D

    … allerdings auch “nur” mit Steuergeld, damit der Atomstrom schön “billig” bleibt.

    glatt gelogen, und das wissen sie auch. schämen sie sich

    usw usf

  150. #150 axel
    Januar 14, 2013

    @ Wolfgang

    Wenigstens erfahren wir jetzt endlich mal, um was es überhaupt geht. Du meinst also, die zusätzlichen Freiheitsgrade durch die Lags seien ein Problem.

    Kann ich nicht beurteilen, frag doch mal bei Foster nach, womöglich ist er ja ein netter Mensch.

    Was wir hier aber sofort machen können:
    Setze alle lags auf null und mache die multiple Regression ohne lags. Dann schreibst du hier über dein Ergebnis und dann werden wir sehen, dass das Ergebnis mit dasselbe bleibt. Wetten?

    PS:
    Welche Lags hast du denn bei deinem Test ermittelt? Sind diese physikalisch sinnvoll und von anderer Literatur bestätigt?

  151. #151 Klimarealist
    Januar 14, 2013

    Kann ich nicht beurteilen,

    Hat lange gedauert, bis Sie endlich dahinter gekommen sind, dafür aber den ganzen Tag frech behauptet, was Herr Flamme alles nicht hat und nicht kann.

  152. #152 Rudi
    Januar 14, 2013

    “Welche Lags hast du denn bei deinem Test ermittelt? Sind diese physikalisch sinnvoll und von anderer Literatur bestätigt?”
    Also axel,
    einem Physiker sollte klar sein, dass sich das Klimasystemverhalten allein durch Lags nicht angemessen beschreiben lässt. Dieser Ansatz kann nur als eine grobe Näherung verstanden werden. Unterstellt man, dass die Wärme durch Diffusion, Konvektion und Strahlung in das Gesamtsystem übertragen wird dann sind zusätzliche Terme für die Akkumulation erforderlich. Und wie wird bitteschön soll die Feedback-Wirkung der Eisalbedo mit großen Zeitkonstanten in dieser stark vereinfachten Modellbildung erfasst sein?
    Vielleicht kennt Olga Stuss die Antwort?

  153. #153 Rudi
    Januar 14, 2013

    hmm, dumm gelaufen mit der Satzumstellung
    Korrektur
    Und wie soll bitteschön die Feedback-Wirkung …

  154. #154 axel
    Januar 14, 2013

    @ Krishna

    Zur Erinnerung: Es gibt für dich nur 3 Beiträge und das nur sonntags. Gestern hast du die Chance verpasst. Ich ziehe dir für nächsten Sonntag einen ab, wieder mal einen verschwendet.

    PS:
    Was kann ich dafür, wenn Wolfgang so lange herumdruckst ;-)
    Und: In jedem Lehrbuch finde ich Hypothesentests und lineare Regression in verschiedenen Kapiteln. Lehrbücher, von denen du nicht eines kennst, Krishna *grins*

  155. #155 Alexandra
    vergletschertes Berlin, Hauptstadt der DDR
    Januar 15, 2013

    @ AmbiValent
    Januar 14, 2013

    Das Schmelzen von Eis verbraucht ganz schön Energie (bzw wandelt Wärmeenergie in Bewegungsenergie der Moleküle um):

    http://iwantsomeproof.com/extimg/sia_5.png

    Ja, das ist Wissenschaftlern bekannt.

    Klimatologen ist es allerdings nicht bekannt, denn dann hätten diese den dadurch gebremsten starken Temperaturanstieg berücksichtigt und nicht so einen Unsinn von bis zu 6 °C in 100 Jahren verbreitet.

    Auf dem letzten Extremwetterkongress sprach einer sogar 5 °C in 50 Jahren.

    Dass geht da wirklich zu wie bei einer Auktion: – Wer bietet mehr ?

  156. #156 Klimarealist
    Januar 15, 2013

    @axel
    Nicht Wolfgang druckst rum, eher haben Sie eine überaus lange Leitung. Sah nett aus, Sie so am Nasenring durch die Manege :D

  157. #157 Wolfgang Flamme
    Januar 15, 2013

    Axel,
    zu zwei Ihrer Kommentare:

    1) ich begründe hier nur meine Auffassung, warum diese Arbeit von Foster und Rahmstorf (die keinerlei Referenz auf “Nielsen-Gammons Auswertungen” enthält) so wie sie da eben steht Bockmist ist, der so niemals das Peer Review hätte passieren dürfen. Das habe ich getan, weil Georg eingangs schrieb:
    “Die meiste Kritik an diesem Artikel war völlig verrückt und braucht nicht weiter diskutiert zu werden.” Und weil er im weiteren nur einen einzigen Kritikpunkt behandelte und diesen marginalisierte.

    Was Ihre Fragen betrifft, da sehe ich erstmal nur: Die Güte des Fits sei schließlich entscheidend und GW schreite nunmal stetig voran und das erwarte man ja schließlich auch und Nielsen-Gammons Auswertungen zeigen auch sowas und ich sollte doch besser den Blick aufs Ganze behalten und Foster sei halt viel kompetenter und vertrauenswürdiger und überhaupt die Nielsen-Gammons Grafiken und global warming werde wohl unterschiedlich aufgefaßt und das sei ein Problem, dem wir uns zuwenden sollten und Nielsen-Gammons Auswertungen usw.

    Das ist nahezu alles völlig belanglos, um die Qualität dieser Arbeit von Foster und Rahmstorf zu beurteilen.

    Daß perfekt fittende Modelle trotzdem grauenvoll falsch sein können sollte jeder wissen, der schonmal ein Polynom höherer Ordnung durch ein paar Datenpunkte gelegt und extrapoliert hat. Sonst wären zB alle Polynome der Ordnung ‘größer n-2′ ja automatisch immer perfekte Modelle der Wahl, um n Beobachtungen zu erklären und wir brächten andere Modelle gar nicht erst zu bemühen.

    Weiterhin wird dadurch klar, daß es dann unendlich viele unterschiedliche, aber den Beobachtungen zufolge ‘richtige’ Modelle geben müßte.
    Eine Beobachtung kann man zB durch eine Konstante aber bereits unendlich viele Geraden, Parabeln etc exakt fitten; zwei Beobachtungen durch eine Gerade, aber bereits unendlich viele Parabeln usw. Selbst ein perfekter Fit kann uns deshalb keinen Hinweis darauf geben, welches dieser unendlich vielen perfekt erscheinenden Modelle nun tatsächlich das richtige ist.

    Deshalb ist die anzupeilende Eingrenzung der Möglichkeiten nicht mittels einer möglichst perfekten (aber beliebigen) Bestätigung des gewählten Modells, sondern nur in einem Ausschlußverfahren von Modellalternativen zu suchen, die .wahrscheinlich nicht richtig sind.

    Und die Essenz dieser Überlegungen spiegelt sich in den Grundlagen des Hypothesentests wieder.

    2)

    Wenigstens erfahren wir jetzt endlich mal, um was es überhaupt geht. Du meinst also, die zusätzlichen Freiheitsgrade durch die Lags seien ein Problem.

    Daß ich das für ‘ein Problem’ halte, ist richtig. Daß es das sei, um was es ‘überhaupt gehe’ ist falsch.

    Was wir hier aber sofort machen können:
    Setze alle lags auf null und mache die multiple Regression ohne lags. Dann schreibst du hier über dein Ergebnis und dann werden wir sehen, dass das Ergebnis mit dasselbe bleibt. Wetten?

    Dasselbe wohl nicht, aber ähnlich könnte ich mir schon vorstellen. Und das wäre eher schlecht.

    Denn dann hätten wir einen Algorithmus vorliegen, der es mittels intensiver Probiererei schafft, (Unsinns-)Korrektursignale und jede Rauschkomponente möglichst erklärungswirksam erscheinen zu lassen, während er für wirklich relevante Korrektursignale nur noch geringe Verbesserungen erzielen kann. Dann kann man sich also eher weniger sicher sein, daß die gewählten Korrektursignale wirklich die ausgewiesene Wirkung haben – jedenfalls im Vergleich mit einer robusteren Analyse, die auf das Austesten von Lags verzichtet.

    Ein weiterer Punkt betrifft den von mir vorgeschlagenen Test auf stagnierende Erwärmung. Da der vorgestellte Algorithmus mit seiner Lag-Testerei praktisch ja immer eine Verbesserung des linearen Fits bewirkt (wenn man sich Signale vorstellen kann, die sich auch durch Ausnutzen zufälliger Schwankungen überhaupt nicht für eine Linearisierung ausbeuten lassen, dann werden die eben mit Null gewichtet). In der Praxis wird der Algorithmus also immer eine Linearisierung bewirken.

    Eine Teststatistik für das Gesamtverfahren wurde nicht vorgestellt, vmtl. infolge der komplizierten Auswirkungen der ganzen Lag-Testerei. Daher ist es also noch nicht einmal möglich zu sagen, daß ein Fit auf ‘fortschreitende Erwärmung’ signifikant besser sei als ein Fit auf ‘die globale Erwärmung stagniert seit x Jahren oder ist sogar rückläufig’ (oder umgekehrt).
    Streng genommen kann man sogar behaupten, die unterlagerte Erwärmung sei in Wahrheit nicht etwa linear sondern bretzelförmig :-) Auch wenn der erzielte Fit im zweiten Fall wohl mieser ist … ohne Teststatistik weiß man halt nicht, ob die beiden Alternativen dann eher mit 50,01% zu 49,99% zu bewerten sind oder mit 99,99% zu 0,01%.
    So wie das Verfahren vorgestellt wird, kann man damit also überhaupt keine Hypothese zurückweisen. Und das bedeutet im Sinne des Hypothesentests natürlich auch, daß es gar nicht gelingen kann, durch erfolgreiches Zurückweisen anderslautender Hypothesen indirekt Indizien für die Richtigkeit einer gefaßten Hypothese zu sammeln (zB der eines etwa stetigen Erwärmungssignals).

    PS:
    Welche Lags hast du denn bei deinem Test ermittelt? Sind diese physikalisch sinnvoll und von anderer Literatur bestätigt?

    Axel, ich rede zuerst davon, daß F+R die Schlüsse, die sie aus ihrer Arbeit und ihrem Verfahren gezogen haben, nicht hätten ziehen dürfen. Wenn das akzeptiert oder widerlegt ist, diskutiere ich gerne darüber, ob andere, stichhaltige Gründe trotzdem für solche Schlußfolgerungen sprechen.

  158. #158 Klimarealist
    Januar 15, 2013

    @axel
    btw – ob 3,5 oder auch null Beiträge – es sind so oder so Nullwert-Beiträge, echauffieren Sie sich besser nicht so.

  159. #159 Georg Hoffmann
    Januar 15, 2013

    @Wolfgang
    Ich sehe das natuerlich sehr anders und meine auch, soeweit ich die Einwaende verstehe, ganz gute Argumente zu haben. “Soweit ich die EInwaende verstehe”, denn, Wolfgang, es faellt mir schwer dich richtig zu verstehen. Ich habe jetzt auch schon drei sehr unterschiedliche Punkte von dir gehoert, wobei jeweils wenn ein Punkt soweit etwas klarer dargestellt war das Naechste kam. Aber ich denke schon mit ein wenig Geduld auf beiden Seiten, werden wir das sicher klaeren koennen.
    Erstmal nur ein Punkt.

    “Statistik einer linearen Regression ist nichts anderes als der Test der Hypothese, daß sich der Mittelwert einer normalverteilten Zufallsgröße in Abhängigkeit einer unabhängigen Einflußgröße kontinuierlich ändert. Was Lit. betrifft; Sachs/Hedderich berufen sich in Kap. 7 (Hypothesentests) unter 7.7.1 (Prüfung des Vorhandenseins einer Korrelation) auf Fisher, t-Test mit n-2 Freiheitsgraden, dort sind auch die zug. H0 und Ha aufgeführt.”

    Ich hatte oben zuerst etwas anderes verstanden. Ich dachte, du vermisst einen Test ob nun eine Gerade (und nicht etwa irgendein anderes hoeherparametriges Polynom) die beste Funktion sei, zu der hin die Regression hingelegt wird.
    Dieser F-test bei der linearen Regression hier kannst du etwa in der Mitte des Programms finden als summary(zfit$model). Hier beispielsweise fuer die GISS Daten

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.41546 -0.07730 0.00451 0.08006 0.33027

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -8.350e+01 2.110e+01 -3.957 9.08e-05 ***
    mei 7.910e-02 7.301e-03 10.834 < 2e-16 ***
    volc -2.369e+00 2.384e-01 -9.939 < 2e-16 ***
    solar 6.132e-02 1.545e-02 3.970 8.63e-05 ***
    tau 1.709e-02 7.937e-04 21.534 < 2e-16 ***
    f1.cos 1.836e-02 8.613e-03 2.132 0.03368 *
    f1.sin 3.862e-02 8.683e-03 4.448 1.14e-05 ***
    f2.cos -1.052e-03 8.626e-03 -0.122 0.90302
    f2.sin 2.489e-02 8.607e-03 2.892 0.00405 **

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1193 on 375 degrees of freedom
    Multiple R-squared: 0.6933, Adjusted R-squared: 0.6868
    F-statistic: 106 on 8 and 375 DF, p-value: < 2.2e-16

    Ist natuerlich hochsignifikant (p-value). Die Autocorrelation und ihr Einfluss auf diese Regression wird ja im Paper Annex ausfuehrlich diskutiert. Das entscheidende Paper dafuer ist wohl:
    "Revisiting simple linear regression with autocorrelated errors" Lee&Lund 2004.

    Mich hat deine Aussage "Es handelt sich bei dieser Kombination aus Lag-Testerei und Regression also um ein neuartiges Verfahren, für das noch gar keine aussagefähige Teststatistik existiert." auch sehr ueberrascht. Waere das angesichts des ja an sich einfachen Problems sehr ueberraschend, wenn Oekonomen nicht schon tausendmal mit solchen Problemen konfrontiert worden waeren? Butterpreise haengen vom Wetter im Fruehjahr und den Fleischpreisen im Vormonat ab etc etc.
    Tatsaechlich ergibt eine Google Suche nach "multiple regression lagged variables" eine sehr lange Liste.

    Ich glaube auch, dass Foster, der sich ja nun sehr gut in der Literatur auskennt, jetzt gerade dabei ist ein lehrbuch zu veroeffentlichen, zuerst in einem Statistikjournal ein neues Verfahren veroeffentlicht haette. Aber das Problem ist eben nicht neu und die Loesung ja auch nicht.

    http://www.google.nl/search?q=multiple+regression+phase+lags&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-US:official&client=firefox-a#hl=en&client=firefox-a&hs=TB7&tbo=d&rls=org.mozilla:en-US%3Aofficial&sclient=psy-ab&q=multiple+regression+lagged+variables&oq=multiple+regression++lag&gs_l=serp.3.0.0i30l2j0i8i30.24826.29594.0.30729.4.3.1.0.0.0.98.236.3.3.0.les%3B..0.0…1c.1.l9fChhBzHuU&pbx=1&bav=on.2,or.r_gc.r_pw.r_qf.&bvm=bv.41018144,d.d2k&fp=75539ae42745d917&biw=1280&bih=639

    Heute Abend noch etwas zum vermeintlichen Overfitting im Paper.

  160. #160 axel
    Januar 15, 2013

    @ ‘Wolfgang

    Zwei Behauptungen von dir:
    1.) Das Verfahren (multiple Regression + Lag-Fitting) sei neu.
    2.) Das Paper hätte nie ein Peer Review überstehen können.

    Ehrlich gesagt überrascht mich dein überbordendes Selbstbewusstsein. Was ist mit der naheliegenden Möglichkeit, dass Foster und die Peer Reviewer recht haben und du dich einfach irrst?

    Ich werde Punkt 1 in Bälde prüfen, Rückmeldung kommt in den nächsten Tagen.

    “Daß perfekt fittende Modelle trotzdem grauenvoll falsch sein können sollte jeder wissen, der schonmal ein Polynom höherer Ordnung durch ein paar Datenpunkte gelegt und extrapoliert hat.”

    Außer Krishna und dem Bären weiß das hier sicherlich jeder. Gibt es aber nicht einige Indizien, dass dies hier nicht der Fall ist?
    Nielsen-Gammons Primitivmethode zeigt, dass schon bei Berücksichtigung von ENSO etwas in guter Näherung Lineares herauskommtDie ermittelten Lags stimmen ganz gut mit Literaturwerten überein (deine bei deinem Test sicherlich nicht), wieder einmal verweigerst du eine Aussage.Die Auswertung ergibt eine exzellente Übereinstimmung aller verwendeten T-Datensätze, auch die Satellitendaten fügen sich harmonisch einDie Werte passen doch ganz gut zu dem, was man auch mit Modellen berechnet hat (siehe z.B. Kaufmann et al. (2010 (oder war’s 2011?))

    “Dasselbe wohl nicht, aber ähnlich könnte ich mir schon vorstellen. Und das wäre eher schlecht.

    Dann war da noch mein Vorschlag, einfach auf Lag-Test zu verzichten und eine stinknormale multiple Regression durchzuführen. Nicht, weil ich Fosters Verfahren für zweifelhaft halte, sondern weil ich harmoniebedürftig bin und gerne konsensfähige Aussagen produzieren möchte. Deine ablehnende Reaktion:

    Denn dann hätten wir einen Algorithmus vorliegen, der es mittels intensiver Probiererei schafft, (Unsinns-)Korrektursignale und jede Rauschkomponente möglichst erklärungswirksam erscheinen zu lassen, während er für wirklich relevante Korrektursignale nur noch geringe Verbesserungen erzielen kann.”

    Hä? Stinknormale Regression ist also auch plötzlich nicht mehr genehm? Nielsen-Gammons Primitivmethode darf nicht diskutiert werden mit dir?

    Ja, lieber Wolfgang, wenn du kein konstruktives Interesse hast, gemeinsam konstruktiv der Frage nach den 16 Jahren Stagnation auf den Grund zu gehen, dann kann ich mich nur etwas wundern und frage mich, was du überhaupt in diesem Thread willst.

    Vielleicht wärst du ja so freundlich, deine Meinung zu den Ursachen der Stagnationsphase mal kundzutun. Oder ist auch diese Diskussion des Artikelthemas für dich tabu?

    Meine Güte, komm mal wieder runter.

  161. #161 axel
    Januar 15, 2013

    Hach, ich vermisse die alte Preview-Funktion…

  162. #162 Georg Hoffmann
    Januar 15, 2013

    @axel
    “Ich vermisse die alte Previewfunktion”
    Und uns wurde versprochen, dass mit dem neuen System alles besser wird. Ich finde die Startseite klar schlechter. Nu ja.

  163. #163 Rudi
    Januar 15, 2013

    Ein (konstruktiver) Vorschlag der nicht viel Mühe machen sollte.

    Aus der MEI (Reihe) berechen wir die Summenfunktion SMEI
    Danach führen wir den Fit mit den vier Reihen
    SMEI, MEI, vulc und solar durch und schauen nach ob sich die Erwärmunngsrate ändert und wenn ja , um wie viel?

  164. #164 Wolfgang Flamme
    Januar 15, 2013

    Mich hat deine Aussage “Es handelt sich bei dieser Kombination aus Lag-Testerei und Regression also um ein neuartiges Verfahren, für das noch gar keine aussagefähige Teststatistik existiert.” auch sehr ueberrascht.

    Georg,

    ich sehe folgendes grundsätzliche Problem:

    Es gibt 25^3 mögliche Lag-Kombinationen. Wenn ich die alle an eine Regression weitergebe und die Regressionsqualität anhand der üblichen 5%-Signifikanzschwelle beurteile, dann muß ich mit knapp 800 Lag-Kombinationen rechnen, die fälschlicherweise als signifikant angesehen werden. Diejenige mit dem besten AIC gilt schließlich als ‘richtig’ …. ist sie bloß ein Glückstreffer?

    Natürlich ist es so, daß es aufgrund der Autokorrelation der Korrektursignale keine 800 völlig verschiedene Parameterkombinationen sind – sondern weniger, die einander ähnlich sind. Aber niemand hat bisher eine Teststatistik dafür entwickelt, mit welcher Wahrscheinlichkeit die Lag-Kombination, die zum besten Modell-AIC führt und schließlich ausgewählt wird bloß ein Produkt des Zufalls ist.

    Mißtrauisch macht mich auch, daß meine aufgrund eines spontanen Einfalls gewähltes Quatsch-Korrekturssignale ähnlich hohe Signifikanzen produzierte. Hier das entspr. GISS zum Vergleich, sofort erkennbar daran, daß der Alg die zeitlich gespiegelten MEI und SOLAR da halt negativ wichtete:

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.42727 -0.07849 0.00045 0.08926 0.37808

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) 1.018e+02 2.396e+01 4.248 2.73e-05 ***
    mei -5.179e-02 7.614e-03 -6.802 4.09e-11 ***
    volc -1.492e+00 2.505e-01 -5.957 5.91e-09 ***
    solar -7.430e-02 1.754e-02 -4.236 2.87e-05 ***
    tau 1.981e-02 8.235e-04 24.062 < 2e-16 ***
    f1.cos 2.921e-02 9.497e-03 3.076 0.002255 **
    f1.sin 3.191e-02 9.462e-03 3.372 0.000824 ***
    f2.cos -6.433e-03 9.450e-03 -0.681 0.496471
    f2.sin 2.726e-02 9.452e-03 2.884 0.004159 **

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1309 on 375 degrees of freedom
    Multiple R-squared: 0.6307, Adjusted R-squared: 0.6228
    F-statistic: 80.04 on 8 and 375 DF, p-value: < 2.2e-16

  165. #165 axel
    Januar 15, 2013

    Wolfgang

    Prima, endlich mal Zahlen zu deinem Test.

    Ok, ein Physiker würde anhand des Vorzeichens des MEI-Werts und solar-Werts (Sonne scheint stärker, also wird’s kälter) den Fit sofort als Quatsch identifizieren, ich wäre schon fertig ;-).

    Ich nehme an, dir geht es aber mehr um das mathematische.
    Die t-Werte zeigen, dass mit sehr hoher Wahrscheinlichkeit keiner deiner Einflussfaktoren weggelassen werden kann. Linearer Trend + Quatschsignale können knapp zwei Drittel der Variationen der T-Werte erklären, da hätte ich auf weniger getippt. Könnte es sein, dass da der lineare Trend schon den Löwenanteil ausmacht?

    Die F- und t-Werte sagen aber noch lange nicht aus, wie gut die Regression ist.
    Wenn ich Zeit hätte, würde ich mir einen Scatterplots der Residuen anschauen.
    Dann würde mich interessieren, wie die mit deinen Fitparametern ermittelte Temperaturzeitreihe aussieht.
    Bei Foster wurde die Funktion viel glatter, die Unterschiede zwischen den Datensätzen wurden verringert.

    Schon mal überlegt, dass die Sache mit der Glattheit nicht notwendig aus der Prozedur hervorgeht? Dass z.B. deine gefittete Zeitreihe theoretisch sogar noch etwas “zackiger” sein kann als die ursprüngliche (deine zuvor übermittelten Werte haben damit nichts zu tun).

    Immerhin, jetzt wird’s dann doch noch interessant. Wollte gerade schon aussteigen wegen deiner Diskussionsunwilligkeit.

  166. #166 axel
    Januar 15, 2013

    Langsam werde ich etwas verwirrt.

    Nehmen wir mal an, ich hätte eine beliebige Temperaturzeitreihe. Angenommen, ich würde eine multiple Regression machen mit dem Bruttosozialprodukt Deutschlands, einer Abfolge beliebiger Zahlen aus dem Zufallsgenerator und meinem jährlichen Kontostand als Einflussfaktoren. Und angenommen, ich könnte die Zeitreihe mit diesen Einflussfaktoren ganz passabel fitten. Ja, was dann? Folgt daraus, dass sämtliche Auswertungen mit multipler Regression unbrauchbar sind? Wohl kaum.

    Brauchen wir wirklich eine Teststatistik, die die Frage, ob der Fit sinnvoll ist oder nicht, klären kann? Gibt es die überhaupt?

    Der Physiker in mir appelliert an den gesunden Menschenverstand.
    Man beachte:
    Dass TSI und ENSO einen positiven Einfluss, vulkanische Aerosole einen kühlenden Einfluss haben, ist Fakt und dass dies die bedeutendsten Einflussfaktoren des “Rauschens” sind, das hat sich Foster ja nicht mal eben ausgedacht. Die Größenordnung (und die Vorzeichen) der ermittelten Einflussfaktoren ordnet sich auch ganz gut in bestehende Kenntnisse ein.

    Vielleicht ist es ganz einfach dies, was den Unterschied an Vertrauenwürdigkeit der Ergebnisse ausmacht.

  167. #168 Rudi
    Januar 15, 2013

    Eine sachgerechte Formulierung des Problems (zunächst mal ohne Feedbacks und unter linearisierte Betrachtung) könnte so

    T = Hmei *MEI + Htsi *TSI + Hvolc * VOLC
    aussehen.
    T ist die gemessene Temperatur (global)
    * der Faltungsoperator
    Hxxx die Transferfunktion für die jeweilige Einflussgröße

    Als nächstes müssten nun Feedbacks eingebaut werden.

    Frage an die Runde: Wer will zeigen wie das geht?

  168. #169 Georg Hoffmann
    Januar 16, 2013

    @Wolfgang
    Ich kann nur ungefaehr das Gleiche sagen wie Axel.
    Aendert man die best fit Loesung ein bisschen, wird es nur ganz langsam etwas schlechter. Die kombinierte Loesung ist sehr aehnlich der Einzelloesungen (Also nur ENSO korrigieren vs ENSO + Vulkane korrigieren). Die Loesung ist physikalisch sehr sinnvoll, die Lags stimmen mit unserem Wissen ueberein. Nirgends gibt es irgendwelche groszen Nichtlinearitaeten in dieser Rechnung (sowas wie hier ein Monat mehr und dort ein Monat weniger im Lag und ploetzlich sehen alle Resultate anders aus.
    Was aber stimmt, ist natuerlich, dass das Abziehen von ENSO, Vulkanen etc so nicht perfekt ist, wie es ja ueberhaupt nicht ganz klar ist, was das Klima/T eines Jahres ist, wenn man genau ENSO abzieht.
    Das ist hier beschreibende Statistik, es ist nicht “mathematischer Beweis der Treibhaustheorie”. Alles was man macht ist in nachvollziehbarer Weise die waermenden ENSOs und die kuehlenden Vulkane abzuziehen. Selbst ohne irgendeine Mathematik, nur durch reines Draufschauen, sieht man, dass zu Beginn der letzten 15 Jahre es etwas waermer als normal ist (starke ENSO) und zum Ende etwas kuehler (ein paar Niñas).

    Ich denke auch nicht, dass es irgendeine Extrabesprecheung der Statistik von lagged Variables in multiplen Regressionen bedarf. Es ist alles im Prinzip gleich zu einer Regression mit einer Variablen und einem Lag.

    @Rudi
    “Hxxx die Transferfunktion für die jeweilige Einflussgröße”
    Bei Foster sind die Koeffizienten konstant. Starke Nichtlinearitaeten sind erstmal nicht noetig.

    “Als nächstes müssten nun Feedbacks eingebaut werden.”
    Dann muesste man atuerlich den Wasserdampf, die sich aendernden Ozeanzirkulationen, die Wolne, den Schnee etc irgendwie physikalisch konsistent zusammenbetrachten. Ales moeglichst beruhend auf first principles (Navier Stokes Gleichung etc). Hmm. Dass die Idee noch niemand hatte, Rudi. Das waere ja dann so eine Art numerisches Modell, nichtwahr. Es muesste die Erde auf einem numerischen Gitter repraesentieren und dort diese Gleichungen loesen. Genial. Wie koennte man das nennen? Hmmm, nun Zirkulation ist wichtig und es ist kein Spezialfall der Zirkulation (also etwa den Fall einer geostrophischen Naeherung), sondern der allgemeine Fall der Zirkulation. Man koennte es ein Allgemeines Zirkulationsmodell nennen. Rudi, da hast du mich auf was gebracht. Vielleicht werde ich es auch nach dir benennen.

  169. #170 axel
    Januar 16, 2013

    Wolfgang

    Um die “Glattheit” zu spezifizieren: Natürlich ist die ergebende Temperaturkurve mit deinem Test auch recht glatt, die natürlichen Einflussfaktoren herausgerechnet ist ja dasselbe wie der lineare Term plus die Residuen.

    Ich meinte mit “glatt”, wie gut die natürliche Varibilität herausgerechnet wird, insbesondere das Jahr des Super-El Ninos 1998. Sieht man da nicht bei deinem Test immer noch einen hübschen Peak? Treten womöglich an anderen Stellen Ausreißer auf?

    Nach einer Nacht drüber schlafen meine ich, deine Unbehagen gründet sich darauf, dass du Nonsens eingibst und einen ganz guten Fit erhältst. Physikalisch betrachtet wird aber klar, dass du Quatsch eingibst und Quatsch erhältst.
    Aber egal ob Quatsch herauskommt oder nicht: Ich zweifle stark an, dass das Resultat eine Aussage über das Verfahren erlaubt, wenn wie bei Foster eben kein Quatsch, sondern sinnvolles eingegeben wird.

  170. #171 axel
    Januar 16, 2013

    Fundstück der Woche

    Könnte eine neue Reihe werden. Ich fange mal an und präsentiere etwas aus Fred Singers Kampf gegen FCKW-Regulierung aus dem Jahr 1988.
    http://onlinelibrary.wiley.com/doi/10.1029/88EO01207/pdf

    Besondere Pointe:
    Singer schlägt vor, dass die das Ozonloch durch die globale Erwärmung über die stratosphärische Abkühlung getriggert wurde.
    Der Fingerabdruck der anthropogenen Erwärmung als Grund, auf FCKW-Regulierung verzichten zu können.

  171. #172 axel
    Januar 16, 2013

    Sorry, sollte in den Dies und Das-Thread

  172. #173 Wolfgang Flamme
    Januar 16, 2013

    Axel,

    das ist gut, daß Sie jetzt verwirrt sind, aber interessiert bleiben. Ging mir nämlich ganz genauso.

    Ja, was dann? Folgt daraus, dass sämtliche Auswertungen mit multipler Regression unbrauchbar sind? Wohl kaum.

    Das war ja auch gerade _nicht_ meine Schlußfolgerung, sondern daß die Ursache eher in dem vorgeschalteten, intensiven Lag-datamining zu suchen wäre.

  173. #174 axel
    Januar 16, 2013

    Die Ursache für was?

  174. #175 Wolfgang Flamme
    Januar 16, 2013

    Axel und Georg,

    diese Gegenargumentation halte ich eher für eine Ausflucht in die Richtung, daß ‘right answer, wrong method’ oder ‘right answer, questionable method’ ja irgendwie doch ok sei.

  175. #176 axel
    Januar 16, 2013

    nö, meine Meinung ist “right method, right anwer”.

    Hab mich etwas schlau gemacht, die Methode ist wahrlich alles andere als neu. Warum Foster nun plötzlich diese Methode nicht anwenden dürfen sollte, erschließt sich mir auch nach Lektüre deiner Beiträge nicht, siehe meine letzten Beiträge ungewürdigten Beiträge. Bei näherem Hinschauen hast du nicht ein einziges stichhaltiges Argument, was an der Methode falsch sein soll, es kommt dir letztendlich nur komisch vor, dass man auch mit Nonsenseinflussfaktoren die Zeitreihe fitten kann. Für meinen Geschmack ist das zu dürftig. I’m not convinced.

    Ich finde dich auch wenig konstruktiv, zu konsensfähigen Ergebnissen zu kommen:
    Du könntest ja Vorschläge machen, wie man deiner Meinung nach besser natürliche Variabilität herausfiltern könnte.
    Wir könnten auf die Lags verzichten.
    Wir könnten Nielson-Gammons Auswertung betrachten.
    usw. usf.

    Bei mir kommt der Eindruck auf, du bist nicht sonderlich interessiert zu diskutieren, was es mit der Stagnation auf sich hat. Lassen wir’s also.

  176. #177 axel
    Januar 16, 2013

    Hansens Deutung der letzten Dekade:
    http://www.columbia.edu/~jeh1/mailings/2013/20130115_Temperature2012.pdf

    Hansen nennt noch einen weiteren Faktor, den wir noch nicht hatten: Die Stabilisierung der jährlichen Wachstumsrate des GHG-Forcings.

    Und die große Unbekannte ist wie immer: Aerosole

  177. #178 Wolfgang Flamme
    Januar 16, 2013

    Axel,

    Um die “Glattheit” zu spezifizieren: Natürlich ist die ergebende Temperaturkurve mit deinem Test auch recht glatt, die natürlichen Einflussfaktoren herausgerechnet ist ja dasselbe wie der lineare Term plus die Residuen.

    Jepp (stelle erfreut fest, daß wir hin und wieder doch die gleiche Sprache sprechen).

    Ich meinte mit “glatt”, wie gut die natürliche Varibilität herausgerechnet wird, insbesondere das Jahr des Super-El Ninos 1998. Sieht man da nicht bei deinem Test immer noch einen hübschen Peak? Treten womöglich an anderen Stellen Ausreißer auf?

    Sie meinen vielleicht, Sie würden gerne auf meinen Screen gucken, während ich den Code von F+R mit den zeitlich umgekehrten Korrektursignalen abspule? Ist es das?

  178. #179 Rudi
    Januar 16, 2013

    @Georg
    „Man koennte es ein Allgemeines Zirkulationsmodell nennen. Rudi, da hast du mich auf was gebracht. Vielleicht werde ich es auch nach dir benennen.“

    Hmm, ja, dann werde ich mir schon mal Gedanken über ein neues Pseudonym machen.
    doch
    Ich hatte nicht an eine umfassende parametrische Systemidentifikation (auf Basis numerischer Modelle) gedacht vielmehr will ich nur zeigen, dass der AnpassungsAnsatz (von F&R) die Feedbacks nicht enthält und eben deswegen nicht sachgemäß ist. In Teilen wäre diese Vernachlässigung noch zulässig (für Feedbacks mit geringer zeitlicher Verzögerung) aber eben nicht für die Eisalbedo Rückkopplung, die (dynamisch betrachtet) eine sehr hohe „Trägheit“ und damit ein quasi integrales Verhalten aufweist. (Beispiel: Eine kleine sprungartige T-Änderung wird nur zu einem allmählichen Abschmelzen der Himalaya-Gletscher führen). Baut man nun dieses träge Verhalten in den AnpassungsAnsatz ein dann ergibt sich für die Anpassung zusätzlich ein Integralterm den ich oben (suche SMEI) mit SMEI bezeichnet habe. Ok, für die TSI und den Vulkaneinfluss könnte er auch auftreten. Der nächste Schritt der Untersuchung müsste sich deshalb auf die genannte Ungenauigkeit im Ansatz konzentrieren.

    Für Rückfragen stehe ich gerne zu Verfügung

  179. #180 Wolfgang Flamme
    Januar 16, 2013

    Bei näherem Hinschauen hast du nicht ein einziges stichhaltiges Argument, was an der Methode falsch sein soll, es kommt dir letztendlich nur komisch vor, dass man auch mit Nonsenseinflussfaktoren die Zeitreihe fitten kann. Für meinen Geschmack ist das zu dürftig. I’m not convinced.

    Wir wissen inzwischen schon lange, was Ihnen schmeckt und daß das letztendlich immer den entscheidenden Ausschlag für Ihre Überzeugungen geben wird Gibt’s denn auch was Neues zu berichten?

  180. #181 Wolfgang Flamme
    Januar 16, 2013

    Die Ursache für was?

    Da müssen Sie Sich noch etwas gedulden. Solche Fragen sind nämlich erst ab dem 75. Lebensjahr zulässig.

  181. #182 Georg Hoffmann
    Januar 17, 2013

    @Wolfgang
    Ein Problem bei Diskussionen im Internet ist ja, dass man sich nach langem Hin und Her wieder am Anfang befindet und die gleichen Argumente wiederkommen. Ich moechte eigentlich nur die noch verbleibenden offenen Punkte sauber auflisten. Ich bin nachwievor sehr am Thema interessiert, kann aber wg der Arbeit nicht immer sofort antworten. Sorry.

    Sind wir uns ueber folgende Punkte einig?
    1) Es gibt von dir noch genau eine Kritik am F&R Paper, naemlich, dass durch das Testen der verschiedenen Phaselags implizit eine Unzahl von Parametern in die Regression eingefuehrt worden waeren und damit ein Overfitting durchgefuehrt wurde.

    Wir haben folgende Punkte klaeren koennen:
    2) Multiple Regressionen mit lagged variables ist absolut nicht neues und es gibt insbesondere in der Oekonometrie 100 paper zu dem Thema.

    3) Wenn das Overfitting durch Einfuehrung eines Phase lags ein Problem bei mutipler Regression ist, dann ist es das auch bei einer einfachen Regression.

    4) Das paper spricht nicht weiter von der ueblichen Teststatitik bei Regressionen (F-Test etc), aber die entsprechenden Zeilen finden sich in Fosters Programm.

    Wenn wir uns bei diesen Punkten einig sind, dann braeuchte man an sich nur noch den Punkt zwei bei einfacher Regression klaeren.

  182. #183 axel
    Januar 17, 2013

    @ Wolfgang

    Deine letzten Beiträge demonstrieren nur deine Diskussionsunwilligkeit. Lassen wir’s also.

    “Wir wissen inzwischen schon lange, was Ihnen schmeckt und daß das letztendlich immer den entscheidenden Ausschlag für Ihre Überzeugungen geben wird”
    Bla, bla, bla. Ich lasse mich sehr gerne überzeugen, es müssen halt Argumente kommen. Dein Argument, dass du nicht an die Methode glaubst. ist mir halt einfach zu dünn.

    Stichhaltiger wäre da schon, mit Hilfe der Literatur zu belegen, was Foster an seiner Methode falsch gemacht hat in Widerspruch zu vorhandener Literatur bzw. warum die Methode für dieses Problem unzulässig sein soll. Als einzigen Beleg deine Meinung bzw. dein Bauchgefühl anzugeben, hm, reicht nicht, ich bin halt Skeptiker.

    Du hast nicht, du willst nicht, also lassen wir’s doch besser.

  183. #184 axel
    Januar 17, 2013

    Punkt 5)
    Wolfgang möchte eine Teststatistik sehen, die erkennt, ob mit der Eingabe von Nonsenseinflussgrößen das Ergebnis zu verwerfen ist.

  184. #185 axel
    Januar 17, 2013

    Punkt 5 ist natürlich eine Sonderregel, die nur für Statistik im Zusammenhang mit Klimawandel zu erfüllen ist /sarc

  185. #186 Wolfgang Flamme
    Januar 17, 2013

    Tja, es sieht ganz danach aus, als würde der Algorithmus von Foster und Rahmstorf eher der Hypothese zuneigen, daß es seit 2000 gerade _keine_ weitere Zunahme der unterlagerten Erwärmung gegeben habe.

    Alle Regressionsstatistiken zeigen unter dieser Annahme recht deutliche Verbesserung, die ermittelten optimalen Lags differieren kaum und sind physikalisch sinnvoll.

  186. #187 Dr. Webbaer
    Januar 17, 2013

    Aber mei, lassen wir doch die Klimabewegten weiter ihren Dreck posten und lassen wir doch den primitiven Georg weiter sein Geld mit politisch korrektem Dreck verdienen, denn privat kann der Typ nur ein Versager sein, fett, dumm und hörig, wem auch immer, seiner noch fetteren Frau oder dem fetten IPCC. Ein selten blöder AGW Prolo mit einem noch blöderem Blog. Schaltet die Scheisse doch einfach aus!

    Hohoho. Nett geschrieben, aber Herr Hoffmann beweist schon regelmäßig seine Verständigkeit und seinen Humor.

    MFG
    Dr. W

  187. #188 axel
    Januar 17, 2013

    Wow, der laut Wolfgang völlig falsche Algorithmus ist jetzt plötzlich sogar in der Lage, auf ein Jahr genau eine Trendwende zu identifizieren. Das nenne ich aber eine ganz schöne Kehrtwende.

    PS:
    Schon wieder eine unbelegte, aus der Luft gegriffene Behauptung. Ob diese nun noch untermauert wird oder Wolfgang seine Geheimnisse lieber für sich behält?

    @ Wolfgang

    Vor ca. einem Jahr habe ich dich noch als seriösen, sachlichen Gesprächspartner kennengelernt. Ich schlage vor, zur Sachlichkeit zurückzukehren (Behauptungen sind zu belegen) oder deine Erkenntnisse auf ScSk zu verbreiten.

    Vorteil:
    Dort musst du nichts belegen, Jubelrufe wie “ich hab’s doch auch schon immer gewusst”, “großartig, Wolfgang, du hast es den Schwindlern Rahmstorf und Foster gezeigt” sind dir sicher. Kritische Rückfragen werden nicht erfolgen, da keiner Fosters Paper gelesen hat, musst du auch nichts erklären oder belegen.

  188. #189 Dr. Webbaer
    Januar 17, 2013

    der laut Wolfgang [Flamme] völlig falsche Algorithmus

    Hat man sich denn hier mittlerweile darauf einigen können, dass die Analyse des Herr Flammes stimmt und die Studie dezent formuliert ein Missgriff ist?!

    MFG
    Dr. W

  189. #190 axel
    Januar 17, 2013

    Wolfgang,

    zum Abschluss noch eine Idee, die ich nicht prüfen konnte, weil du ja wenig kooperativ warst und die ermittelten Lags bei deiner Auswertung verschwiegen hast.

    Dass ein Fit auch mit Nonsenseingangssignalen immer halbwegs passabel aussieht, überrascht nicht, da schon der lineare Anteil den Hautteil der Daten erklärt.

    Überraschender wäre da schon, ob Nonsenseingangssignale die Ausschläge der Original-T-Zeitreihen reproduzieren können, da wären z.B. das ElNino-Jahr 1998 oder der Pinatobuausbruch 1992 mit Abkühlung im folgenden Jahr.

    Vielleicht sehen auch diese besonderen Jahre bei dir ganz passabel aus. Schon mal überlegt, dass du dabei dann einfach Glück hattest?

    Vielleicht “erklärt” ja der zeitlich rückwärts laufende MEI-Index mit umgekehrtem Vorzeichen zufällig die Pinatobu-Abkühlung? Anfangsjahr, Endjahr und dein ermittelter Lag könnten das klären, aber du schweigst ja.

    Zufällige Symmetrien bzgl des mittleren Jahres der Zeitreihe (plus/minus der lags) können täuschen.

    Und zur TSI:
    So nonsens ist das invertierte TSI-Signal ja gar nicht. Man spiegle TSI bzgl. der Zeit, invertiere das Vorzeichen und das ganze ähnelt schon dem Original-TSI.

    Wir wär’s mit einem weiteren Test:
    TSI mit einer anderen Periode, z.B. 3/4 der Originalperiode.
    MEI zeitlich verschoben.
    Vulkanausbruch mal am Anfang und/oder Ende der Zeitreihe.

    Ich vermute mal stark, die charakteristischen Zacken der Zeitreihe (1992, 1998) bleiben weiterhin sehr gut erkennbar.

    PS:
    Hast du die Symmetrie des ElNino-Jahres und des Pinatobuausbruchs selbst schon erkannt und mir deshalb deine Lags verschwiegen? Oder bist du dem Zufall auf den Leim gegangen?

  190. #191 Jochen Ebel
    Januar 17, 2013

    Bei den Diskussione spielt die Physik leider kaum eine Rolle.

    Siehe z.B. Jochen Ebel Januar 11, 2013
    [blockquote]Da moderne Paper von Skeptikern immer wieder in Zweifel gezogen werden, sollten diese mal Paper mit ersten Erkenntnissen lesen, damals war das Thema noch nicht politisch belastet.[blockquote]

    Eine Ausnahme kommt mal vor
    Rudi Januar 14, 2013
    “Sind diese physikalisch sinnvoll ”

    Ansonsten beziehen sich praktisch alle auf das Chaos Wetter, das sich dem Trend – beschrieben durch die Physik – überlagert.

    MfG

  191. #192 Wolfgang Flamme
    Januar 17, 2013

    Axel, Georg

    Meine Kritikpunkte findest Du in meinem allerersten Beitrag vom 11.1.2013:

    Wolfgang Flamme
    Januar 11, 2013

    M.E. wird die Arbeit und das Resultat von F+R völlig überschätzt.

    Sie haben gezeigt, daß es eine optimale Kombination aus Lags und Wichtungen der Korrektursignale gibt, die zu einer optimalen Linearisierung der verbleibenden Komponente beiträgt. Na und?

    Was sie wohl nicht gezeigt haben, was aber dringend geboten gewesen wäre:

    - Dass dieser resultierende Fit signifikant besser ist als der, der sich bei ihrer Methode zB mit synthetischen Zufalls-Korrektursignalen erzielen ließe.

    - Dass sich die Annahme, die zugrundeliegende Erwärmungskomponente habe sich in dem guten letzten Dutzend Jahren abgeflacht, mit ihrer Methode nicht verünftig fitten läßt.

    - Dass ein Fit der Daten bis ca. 2000 und eine Extrapolation auf Basis eines darüber hinaus linear ansteigenden Erwärmungssignals mit der derzeit beobachteten Abflachung in Übereinstimmung steht.

    Man beachte die Überschrift, unter der die Punke stehen. Die Punkte arbeite ich eigentlich bloß ab.

    Der erste Punkt war mein Test, wie gut das Verfahren auch Nonsens fittet. Tut es lt. meiner Probe überraschend gut. Die Interpretation des ‘warum’ ist meine Vermutung, die ich hier zur Diskussion stelle. Tatsächlich erwarte ich aber von den Verfechtern dieses Verfahrens, mir zu erklären, wie ich spontan mit Unsinnsinput ein Ergebnis produzieren konnte, das angeblich nur einmal in einer Billarde Versuchen auftreten sollte. Dann mal los, ich warte.

    Der zweite Punkt testet, ob das Verfahren die Hypothese: ‘Die Erwärmung setzt sich ungebrochen weiter fort’ tatsächlich stützt. F+R verweisen auf eine in der Öffentlichkeit und in Teilen der Wissenschaft geführte Debatte über mögliche Änderungen der Erwärmungsrate und zitieren dazu Peterson/Baringer. Dort heißt es:

    The trend in the ENSO-related component for 1999–2008 is +0.08±0.07°C decade–1, fully accounting for the overall observed trend. The trend after removing ENSO (the “ENSO-adjusted” trend) is 0.00°±0.05°C decade–1, implying much greater disagreement with anticipated global temperature rise.

    Es ist deshalb absolut gerechtfertigt eine Alternativhypothese zu formulieren, nach der die Erwärmung etwa um das Jahr 2000 zum Stillstand gekommen ist und auch diese dem Algorithmus von Foster und Rahmstorf anzubieten. Tatsächlich zeigt letztere mindestens ebenso gute, wenn nicht sogar bessere Performance.
    Ob der Unterschied zwischen den Ergebnissen der beiden Hypothesen signifikant ist oder nicht, kann man wegen fehlender Signifikanzstatistik des Gesamtverfahrens nicht beurteilen. Wenn überhaupt spricht mehr für als gegen eine Stagnation. Also sind die Behauptungen von Foster und Rahmstorf über einen ungebrochenen Trend nicht haltbar, widerlegt durch ihr eigenes Verfahren.

  192. #193 axel
    Januar 17, 2013

    Wolfgang

    “Tatsächlich erwarte ich aber von den Verfechtern dieses Verfahrens, mir zu erklären, wie ich spontan mit Unsinnsinput ein Ergebnis produzieren konnte, das angeblich nur einmal in einer Billarde Versuchen auftreten sollte. Dann mal los, ich warte.”

    Schau doch mal 3 Beiträge nach oben. Ich warte auch ;-)

    “Es ist deshalb absolut gerechtfertigt eine Alternativhypothese zu formulieren, nach der die Erwärmung etwa um das Jahr 2000 zum Stillstand gekommen ist und auch diese dem Algorithmus von Foster und Rahmstorf anzubieten. Tatsächlich zeigt letztere mindestens ebenso gute, wenn nicht sogar bessere Performance.”

    Mit welcher Methode hast du das getestet? Bislang steht da nur eine Behauptung von dir im Raum, ich warte schon etwas länger auf mehr.
    Ich hab’s übrigens auch getestet und kann keine Abflachung des Trends feststellen.

    PS:
    “Die Interpretation des ‘warum’ ist meine Vermutung, die ich hier zur Diskussion stelle.”
    Wenn ich etwas zur Diskussion stelle, dann präsentiere ich Vermutungen und bin offen für andere Meinungen. Bei dir hat man das Gefühl, dass “zur Diskussion stellen” bedeutet: Hier sind meine Ergebnisse, die stimmen, alle anderen sind Stümper und Patzer. Eine Frage des Stils.

  193. #194 axel
    Januar 17, 2013

    Hab gerade mal ins Paper geschaut:

    Startjahr 1979, Pinatobu-Ausbruch 1991, 1992 kühles Jahr.
    13 Jahre vorwärts.

    Endjahr 2011, El Nino-Jahr 1998, 13 Jahre rückwärts.

    Passt alles: Bei deinem Rückwärtstest erklärt der MEI-Ausschlag die vulkanische Abkühlung 1992.

    Physiker lieben Symmetrien.

  194. #195 Wolfgang Flamme
    Januar 17, 2013

    PS:
    Hier die Testresultate der Hypothese ‘stall/slight decline since 2000′:

    GISS
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 4 8 1
    > lag.giss = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.44463 -0.09454 0.00411 0.08998 0.36808

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -3.360e+01 2.297e+01 -1.463 0.14435
    mei 7.700e-02 7.838e-03 9.824 < 2e-16 ***
    volc -2.545e+00 2.563e-01 -9.930 < 2e-16 ***
    solar 2.481e-02 1.682e-02 1.475 0.14099
    tau 2.150e-02 8.643e-04 24.875 < 2e-16 ***
    f1.cos 1.839e-02 9.353e-03 1.966 0.05005 .
    f1.sin 3.810e-02 9.423e-03 4.043 6.4e-05 ***
    f2.cos -1.827e-03 9.366e-03 -0.195 0.84546
    f2.sin 2.443e-02 9.347e-03 2.614 0.00931 **

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1295 on 375 degrees of freedom
    Multiple R-squared: 0.7507, Adjusted R-squared: 0.7454
    F-statistic: 141.2 on 8 and 375 DF, p-value: lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 3 8 7
    > lag.ncdc = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.38181 -0.06319 -0.00594 0.06377 0.33558

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -4.921e+01 1.787e+01 -2.753 0.00619 **
    mei 6.659e-02 6.038e-03 11.028 < 2e-16 ***
    volc -1.977e+00 1.968e-01 -10.045 < 2e-16 ***
    solar 3.625e-02 1.308e-02 2.771 0.00587 **
    tau 2.172e-02 6.649e-04 32.668 < 2e-16 ***
    f1.cos 1.105e-02 7.336e-03 1.506 0.13283
    f1.sin 4.167e-02 7.377e-03 5.649 3.2e-08 ***
    f2.cos 6.309e-06 7.330e-03 0.001 0.99931
    f2.sin 4.236e-03 7.333e-03 0.578 0.56380

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1015 on 375 degrees of freedom
    Multiple R-squared: 0.818, Adjusted R-squared: 0.8141
    F-statistic: 210.7 on 8 and 375 DF, p-value: lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 3 6 1
    > lag.cru = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.33410 -0.05402 0.00150 0.05608 0.30094

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -7.137e+01 1.616e+01 -4.417 1.31e-05 ***
    mei 7.597e-02 5.565e-03 13.650 < 2e-16 ***
    volc -2.049e+00 1.824e-01 -11.232 < 2e-16 ***
    solar 5.239e-02 1.183e-02 4.429 1.24e-05 ***
    tau 2.154e-02 6.080e-04 35.422 < 2e-16 ***
    f1.cos 4.153e-04 6.613e-03 0.063 0.949956
    f1.sin 2.410e-02 6.653e-03 3.622 0.000333 ***
    f2.cos 4.370e-03 6.609e-03 0.661 0.508825
    f2.sin 1.557e-02 6.611e-03 2.355 0.019026 *

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.09149 on 375 degrees of freedom
    Multiple R-squared: 0.8418, Adjusted R-squared: 0.8384
    F-statistic: 249.5 on 8 and 375 DF, p-value: lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 6 7 0
    > lag.rss = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.34620 -0.08256 0.00129 0.07854 0.35653

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -7.569e+01 2.189e+01 -3.458 0.000607 ***
    mei 1.363e-01 7.713e-03 17.672 < 2e-16 ***
    volc -3.734e+00 2.507e-01 -14.894 < 2e-16 ***
    solar 5.544e-02 1.602e-02 3.460 0.000602 ***
    tau 1.983e-02 8.241e-04 24.057 < 2e-16 ***
    f1.cos -1.450e-02 8.947e-03 -1.620 0.106039
    f1.sin 1.147e-02 8.904e-03 1.288 0.198513
    f2.cos -1.552e-02 8.882e-03 -1.747 0.081426 .
    f2.sin 1.798e-02 8.886e-03 2.024 0.043687 *

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.123 on 375 degrees of freedom
    Multiple R-squared: 0.7761, Adjusted R-squared: 0.7713
    F-statistic: 162.5 on 8 and 375 DF, p-value: lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 5 6 0
    > lag.uah = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.38278 -0.08758 0.00667 0.09030 0.34517

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -6.148e+01 2.381e+01 -2.582 0.0102 *
    mei 1.412e-01 8.390e-03 16.827 <2e-16 ***
    volc -4.105e+00 2.727e-01 -15.054 <2e-16 ***
    solar 4.498e-02 1.743e-02 2.581 0.0102 *
    tau 1.857e-02 8.967e-04 20.714 <2e-16 ***
    f1.cos -1.443e-02 9.718e-03 -1.485 0.1384
    f1.sin 1.670e-02 9.743e-03 1.714 0.0874 .
    f2.cos 4.918e-03 9.687e-03 0.508 0.6120
    f2.sin 6.450e-03 9.687e-03 0.666 0.5060

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1341 on 375 degrees of freedom
    Multiple R-squared: 0.7402, Adjusted R-squared: 0.7347
    F-statistic: 133.6 on 8 and 375 DF, p-value: < 2.2e-16

  195. #196 Wolfgang Flamme
    Januar 17, 2013

    PPS:
    Mist, ich sehe gerade, die größer/kleiner-Zeichen bringen den Parser durcheinander.

    Georg, hast Du einen Tip für mich, wie man das hier umgeht? Akzeptiert der Parser das übliche und-gt-semikolon, und-lt-semikolon für größer und kleiner?

  196. #197 axel
    Januar 17, 2013

    Für mich als R-Laien wäre es freundlich, das Verfahren in Worten zu beschreiben. Ich kann mich natürlich auch in R einarbeiten, das dauert dann aber. Und wir sind doch an einer Diskussion interessiert, oder?

  197. #198 rolak
    Januar 17, 2013

    moin Wolfgang, ja, ein ‘<’ heißt in der Quelle ‘&lt;’, ein ‘>’ heißt dort ‘&gt;’.

  198. #199 Klimarealist
    Januar 17, 2013
  199. #200 Wolfgang Flamme
    Januar 17, 2013

    Schau doch mal 3 Beiträge nach oben. Ich warte auch

    Axel,

    und was willst Du mir da weiter oben sagen? Etwa, daß der p-Wert eben keineswegs so phantastisch klein ist wie ihn die Statistik ausweist, sondern größer?

    Wie groß ist der denn dann? Das müßten Du oder Georg mir doch sofort sagen können, ist doch angeblich ein bewährtes und ausgetestetes Verfahren?

    Oder vielleicht zuerst mal andersrum gefragt: Wenn der ausgewiesene p-Wert der Teststatistik in diesem Fall nicht die Wahrscheinlichkeit eines Fehlers 1. Art bezeichnet, was bedeutet er dann genau? Und wo weisen F+R darauf hin?

    Und wenn der p-Wert doch richtig ist und doch die Wahrscheinlichkeit eines Fehlers 1. Art bezeichnet, wie lautet dann die Nullhypothese?

    PS:
    Daß die Ergebnisqualität der Methode noch empfindlich von anderen Dingen als der Signal-Colinearität abhängt, davon schreiben F+R allerdings nichts und testen auch nichts weiter.
    Entsprechen sollten Verfechter dieser Arbeit auch davon ausgehen, daß keine sonstigen wesentlichen Einschränkungen übersehen wurden und ungeprüft blieben.

  200. #201 Wolfgang Flamme
    Januar 17, 2013

    Mit welcher Methode hast du das getestet? Bislang steht da nur eine Behauptung von dir im Raum, ich warte schon etwas länger auf mehr.
    Ich hab’s übrigens auch getestet und kann keine Abflachung des Trends feststellen.

    Axel,

    1) Hier zunächst mal das ‘mehr’, damit Sie nicht länger warten müssen. Ich hoffe, das klappt jetzt.

    Hier also die Testergebnisse für die alternative Hypothese: Stagnation oder sogar geringfügige Abkühlung des unterlagerten Erwärmungssignals ab 2000:

    GISS:
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 4 8 1
    > lag.giss = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.44463 -0.09454 0.00411 0.08998 0.36808

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -3.360e+01 2.297e+01 -1.463 0.14435
    mei 7.700e-02 7.838e-03 9.824 < 2e-16 ***
    volc -2.545e+00 2.563e-01 -9.930 < 2e-16 ***
    solar 2.481e-02 1.682e-02 1.475 0.14099
    tau 2.150e-02 8.643e-04 24.875 < 2e-16 ***
    f1.cos 1.839e-02 9.353e-03 1.966 0.05005 .
    f1.sin 3.810e-02 9.423e-03 4.043 6.4e-05 ***
    f2.cos -1.827e-03 9.366e-03 -0.195 0.84546
    f2.sin 2.443e-02 9.347e-03 2.614 0.00931 **

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1295 on 375 degrees of freedom
    Multiple R-squared: 0.7507, Adjusted R-squared: 0.7454
    F-statistic: 141.2 on 8 and 375 DF, p-value: < 2.2e-16

    NCDC:
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 3 8 7
    > lag.ncdc = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.38181 -0.06319 -0.00594 0.06377 0.33558

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -4.921e+01 1.787e+01 -2.753 0.00619 **
    mei 6.659e-02 6.038e-03 11.028 < 2e-16 ***
    volc -1.977e+00 1.968e-01 -10.045 < 2e-16 ***
    solar 3.625e-02 1.308e-02 2.771 0.00587 **
    tau 2.172e-02 6.649e-04 32.668 < 2e-16 ***
    f1.cos 1.105e-02 7.336e-03 1.506 0.13283
    f1.sin 4.167e-02 7.377e-03 5.649 3.2e-08 ***
    f2.cos 6.309e-06 7.330e-03 0.001 0.99931
    f2.sin 4.236e-03 7.333e-03 0.578 0.56380

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1015 on 375 degrees of freedom
    Multiple R-squared: 0.818, Adjusted R-squared: 0.8141
    F-statistic: 210.7 on 8 and 375 DF, p-value: < 2.2e-16

    HadCRU:
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 3 6 1
    > lag.cru = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.33410 -0.05402 0.00150 0.05608 0.30094

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -7.137e+01 1.616e+01 -4.417 1.31e-05 ***
    mei 7.597e-02 5.565e-03 13.650 < 2e-16 ***
    volc -2.049e+00 1.824e-01 -11.232 < 2e-16 ***
    solar 5.239e-02 1.183e-02 4.429 1.24e-05 ***
    tau 2.154e-02 6.080e-04 35.422 < 2e-16 ***
    f1.cos 4.153e-04 6.613e-03 0.063 0.949956
    f1.sin 2.410e-02 6.653e-03 3.622 0.000333 ***
    f2.cos 4.370e-03 6.609e-03 0.661 0.508825
    f2.sin 1.557e-02 6.611e-03 2.355 0.019026 *

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.09149 on 375 degrees of freedom
    Multiple R-squared: 0.8418, Adjusted R-squared: 0.8384
    F-statistic: 249.5 on 8 and 375 DF, p-value: < 2.2e-16

    RSS:
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 6 7 0
    > lag.rss = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.34620 -0.08256 0.00129 0.07854 0.35653

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -7.569e+01 2.189e+01 -3.458 0.000607 ***
    mei 1.363e-01 7.713e-03 17.672 < 2e-16 ***
    volc -3.734e+00 2.507e-01 -14.894 < 2e-16 ***
    solar 5.544e-02 1.602e-02 3.460 0.000602 ***
    tau 1.983e-02 8.241e-04 24.057 < 2e-16 ***
    f1.cos -1.450e-02 8.947e-03 -1.620 0.106039
    f1.sin 1.147e-02 8.904e-03 1.288 0.198513
    f2.cos -1.552e-02 8.882e-03 -1.747 0.081426 .
    f2.sin 1.798e-02 8.886e-03 2.024 0.043687 *

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.123 on 375 degrees of freedom
    Multiple R-squared: 0.7761, Adjusted R-squared: 0.7713
    F-statistic: 162.5 on 8 and 375 DF, p-value: < 2.2e-16

    UAH:
    > lagvec = c(bestlag1,bestlag2,bestlag3); lagvec
    [1] 5 6 0
    > lag.uah = lagvec
    > zfit = lagfit(zfeed,lagvec,ndx.beg)
    > summary(zfit$model)

    Call:
    lm(formula = zz)

    Residuals:
    Min 1Q Median 3Q Max
    -0.38278 -0.08758 0.00667 0.09030 0.34517

    Coefficients:
    Estimate Std. Error t value Pr(>|t|)
    (Intercept) -6.148e+01 2.381e+01 -2.582 0.0102 *
    mei 1.412e-01 8.390e-03 16.827 <2e-16 ***
    volc -4.105e+00 2.727e-01 -15.054 <2e-16 ***
    solar 4.498e-02 1.743e-02 2.581 0.0102 *
    tau 1.857e-02 8.967e-04 20.714 <2e-16 ***
    f1.cos -1.443e-02 9.718e-03 -1.485 0.1384
    f1.sin 1.670e-02 9.743e-03 1.714 0.0874 .
    f2.cos 4.918e-03 9.687e-03 0.508 0.6120
    f2.sin 6.450e-03 9.687e-03 0.666 0.5060

    Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

    Residual standard error: 0.1341 on 375 degrees of freedom
    Multiple R-squared: 0.7402, Adjusted R-squared: 0.7347
    F-statistic: 133.6 on 8 and 375 DF, p-value: < 2.2e-16

    2) Können Sie Ihre Testresultate zum Vergleich bitte auch einstellen? Dann rede ich gerne auch über Testmethoden mit Ihnen.

  201. #202 Wolfgang Flamme
    Januar 18, 2013

    Hab gerade mal ins Paper geschaut:

    Startjahr 1979, Pinatobu-Ausbruch 1991, 1992 kühles Jahr.
    13 Jahre vorwärts.

    Endjahr 2011, El Nino-Jahr 1998, 13 Jahre rückwärts.

    Passt alles: Bei deinem Rückwärtstest erklärt der MEI-Ausschlag die vulkanische Abkühlung 1992.

    Physiker lieben Symmetrien.

    Axel,

    das paßt nicht.

    Ich wollte für die Vertauschung der Einflußfaktoren einen Zeitraum wählen, für den diese halbwegs vollständig waren. Habe aus der Grafik abgeschätzt, daß das (wg. TSI) etw der Zeitraum 1975 bis einschl. 2011 ist und diesen vertauscht, das hier auch gepostet. Aus einer Ursache 2011 wird also eine Ursache in 1975 usw.

    1) Die Ursache ‘SuperElNino’ 1997/98 wandert nach der Umkehrung ins Jahr 1988/89 und kann unter maximaler Ausnutzung des Lags gerade noch bis 1990/91 verschoben werden. Das kühle Jahr 1992 kann mit dem zeitlich gespiegelten SuperElNino also nicht mehr erklärt werden.

    2) Die Ursache ‘PinatuboAOD’ 1991/92 wandert nach der Vertauschung in die Jahre 1994/95 und kann unter maximaler Ausnutzung des Lags gerade noch bis 1996/97 verschoben werden. Das außergewöhnlich warme Jahr 1998 kann mit der zeitlich gespiegelten PinatuboAOD also nicht mehr erklärt werden.

    Abgesehen davon spräche ein zufälliger Fit von nur zwei extremeren Jahren in der Zeitreihe nicht gerade dafür, daß die Resultate des Verfahrens robust und der ausgewiesene p-Wert realistisch ist. Mit der Behauptung, es handele sich um ein erprobtes und bewährtes Verfahren ist das nicht in Übereinstimmung zu bringen.

  202. #203 Georg Hoffmann
    Januar 18, 2013

    @Wolfgang

    Ich bin mit meiner Liste nicht recht weitergekommen. Kannst du nochmal schauen?

    Sind wir uns ueber folgende Punkte einig?
    1) Es gibt von dir noch genau eine Kritik am F&R Paper, naemlich, dass durch das Testen der verschiedenen Phaselags implizit eine Unzahl von Parametern in die Regression eingefuehrt worden waeren und damit ein Overfitting durchgefuehrt wurde.

    Wir haben folgende Punkte klaeren koennen:
    2) Multiple Regressionen mit lagged variables ist absolut nicht neues und es gibt insbesondere in der Oekonometrie 100 paper zu dem Thema.

    3) Wenn das Overfitting durch Einfuehrung eines Phase lags ein Problem bei mutipler Regression ist, dann ist es das auch bei einer einfachen Regression.

    4) Das paper spricht nicht weiter von der ueblichen Teststatitik bei Regressionen (F-Test etc), aber die entsprechenden Zeilen finden sich in Fosters Programm.

    “Mit der Behauptung, es handele sich um ein erprobtes und bewährtes Verfahren ist das nicht in Übereinstimmung zu bringen.”

    Hast du die google Liste oben angeschaut? (ich nicht gruendlich). Es gab unheimlich viele Paper, die mulltiple regression mit lagged Variablen machen. Sollen wir das nochmal checken und ist das von dir ackzeptiert?
    Es kann natuerlich sein, dass die alle falsch sind. Mir geht es nur darum festzuhalten, dass es sich um ein x-mal behandeltes Problem handelt.

    Und noch ein Punkt. Es gibt keinen Grund, dass deine Kritik nur auf diese multiple regression mit lag zutrifft. Wenn sie zutrifft, dann auch bei einer Variablen. Stimmst du da ueberein?

  203. #204 axel
    Januar 18, 2013

    Wolfgang

    Ich wollte für die Vertauschung der Einflußfaktoren einen Zeitraum wählen, für den diese halbwegs vollständig waren. Habe aus der Grafik abgeschätzt, daß das (wg. TSI) etw der Zeitraum 1975 bis einschl. 2011 ist und diesen vertauscht, das hier auch gepostet.

    Mysteriös. Am 14.1. hast du noch diesen Plot verlinkt:
    http://i171.photobucket.com/albums/u304/wflamme/FRreversed-HadCRU_zpsee4acf03.png

    Ich erkenne wie in Fosters Paper 1979 als Start- und 2011 als Endjahr. Soll das jetzt heißen, du hast Fosters Methode auf einen Zeitraum 4 Jahre früher ausgedehnt, mit deinen Eingangssignalen die Auswertung gemacht, dann wieder die ersten 4 Jahre weggeschnitten und diese Graphik dann hier verlinkt?

    Hm, in Sachen Transparenz könntest du dir an Foster mal ein Beispiel nehmen. Bei ihm weiß ich wenigstens, was er getan hat. Mir wird’s echt zu blöd.

  204. #205 axel
    Januar 18, 2013

    Eine Graphik, die übrigens auch eine weitere unbeantwortete Frage von mir klärt: Deine Eingangssignale sind nicht in der Lage, den Verlauf des ElNino-Jahres 1998 zu erklären, die ENSO-Korrektur hat mit deinem Signal offensichtlich nicht richtig funktioniert. Ich vermute mal stark, in den Satellitendaten sieht man dies noch deutlicher (kannst mich gerne mit einem Satellitenplot widerlegen).

    Noch mal zur Erinnerung:
    Das Verfahren hat zum Ziel, natürliche Variabilität aus der T-Reihe zu entfernen. Was folgt daraus, wenn man ein Nosens-ENSO-Signal eingibt und die ENSO-Korrektur nicht richtig gelingt?

    Du versteifst dich darauf, dass der Fit immer noch ganz ordentlich aussieht. Tut er auch, aber das sieht er auch aus, wenn ich ausschließlich eine lineare Regression ohne natürliche Einflussfaktoren durchführe.

    Kurz:
    Die ENSO-Korrektur ist bei dir wie zu erwarten war beschissen. Mich hat lediglich überrascht, dass die Pinatobu-Abkühlung 1992 ganz ordentlich wiedergegeben wird. Kann Zufall sein, ich glaube aber noch mehr an mein einige Beiträge höher angegebenes Erklärungsmuster.

  205. #206 Wolfgang Flamme
    Januar 18, 2013

    Georg, hatte ich doch tw schon beantwortet:

    1) Nein, das war eine Vermutung, um das überraschend signifikante Unsinnstest-Ergebnis zu erklären. Inzwischen habe ich aber keinen Bock mehr drauf die Arbeit zu machen, die eigentlich die Verfechter des Papier machen müßten.

    2) Also such doch eine plausible Erklärung dafür selbst aus den hunderten von papers zusammen.

    3) Eine einfache Regression hat genau eine unabhängige Variable. Mir unklar, wie Du da dasselbe Problem haben solltest wie mit mehreren unabh. Variablen. Ungefähr genauso sinnvoll wie die Behauptung, auch Singles hätten Ehestreit.

    4) Man könnte mit der Teststatistik ja was anfangen, wenn sich nur irgendwer hier mal trauen würde, die Nullhypothese zu formulieren und zu zeigen, daß diese mit den von F+R gezogenen Schlußfolgerungen übereinstimmt.

    5) Ich will nicht mit einer Liste von möglichen Treffern sinnlos beschäftigt werden, ich will gezeigt bekommen, wie die Auswirkung multiplen Testens, die Beurteilung des AIC bei der Abprüfung unverschachtelter Modelle und den Einfluß der Wahl des maximal möglichen Lags bei autokorrelierten Inputzeitreihen auf die Regressionsstatistik sind, um mein Probeergebnis nicht so unwahrscheinlich erscheinen zu lassen.

    ZB erscheint es mir logisch, daß die Statistik deutlich davon abhängen muß, wie beliebig weit ich die Lagverschiebung überhaupt zulasse. Wenn ich den ganzen Signalverlauf beliebig weit nach einem zufällig passenden Abschnitt absuchen darf, dann muß die Signifikanz doch anders aussehen als wenn ich dabei auf einen engen Rahmen beschränkt bin, findest Du nicht?

    Die bei F+R ausgewiesene Regressionsstatistik kriegt aber von solchen Rahmenbedingungen gar nichts mit. Ich will also Literatur vorgelegt bekommen, wo explizit gezeigt wird, daß die Regressionsstatistik so richtig und unabhängig davon ist, wie begrenzt oder unbegrenzt vorher nach möglichst gut passenden Abschnitten gesucht werden darf. Um nur ein Beispiel zu nennen.
    Viel Erfolg bei der Suche.

  206. #207 axel
    Januar 18, 2013

    Oh Mann….

  207. #208 axel
    Januar 18, 2013

    Flamme (14.11.):
    “Es handelt sich bei dieser Kombination aus Lag-Testerei und Regression also um ein neuartiges Verfahren, für das noch gar keine aussagefähige Teststatistik existiert.”

    Georg präsentiert eine lange Liste mit diesem Verfahren und schreibt:
    “2) Multiple Regressionen mit lagged variables ist absolut nicht neues und es gibt insbesondere in der Oekonometrie 100 paper zu dem Thema.”

    Wolfgangs Replik:
    “2) Also such doch eine plausible Erklärung dafür selbst aus den hunderten von papers zusammen.”

    Georg,
    hast du noch weiter Lust oder fühlst du dich nicht auch langsam veralbert?

  208. #209 Wolfgang Flamme
    Januar 18, 2013

    Axel,

    ich hab halt auf Anhieb mit Quatsch-Input ein Ergebnis produziert, das nach Eurer Überzeugung vielleicht einmal in einer Billiarde Quatsch-Versuchen auftreten dürfte.

    Wer ist denn deshalb jetzt in Erklärungsnot?

  209. #210 axel
    Januar 18, 2013

    “das nach Eurer Überzeugung vielleicht einmal in einer Billiarde Quatsch-Versuchen auftreten dürfte.”

    Lügner, du machst dreist deine Hypothese zu unserer. Aber vielleicht hast du meine Beiträge einfach nicht gelesen oder verstanden, dann nehme ich das “Lügner” zurück.

  210. #211 Klimarealist
    Januar 18, 2013

    :D

  211. #212 Wolfgang Flamme
    Januar 18, 2013

    Axel,

    ich teste doch bloß den Algorithmus von Foster und Rahmstorf mit spontanen und zufälligen Blödsinnseinfällen.
    Eben habe ich mir überlegt, ob ich nicht vielleicht doch so ein Lottogewinner sein könnte. Habe die Korrektursignale (nur die) im Zeitraum 1976-2011 zeitlich umgekehrt, weil für diesen Zeitraum halt auch TSI-Daten vorliegen … und diesen Part dann nochmal mittig in zwei Blöcke unterteilt und diese gegeneinander vertauscht.
    Warum mittig geteilt? Weil mir keiner hat sagen wollen, warum und wo ich woanders besser hätte teilen oder sonstwie machen sollten. Ich fand spontan, die Mitte sei eine von perönlichen Anfeindungen verhältnismäßig freie Wahl.

    Resultat ist schlechter …. sprich ‘unglaublich phantastisch’. r2 von 0.6 und F>70 (p < 1:1Billarde). Wieder mal in Folge.

    Du hast ein Problem.

  212. #213 axel
    Januar 18, 2013

    Nee, Wolfgang, ich glaube eher, du hast ein mächtiges Problem, und dein großes Problem ist zu diskutieren, wozu gehören würde, meine Argumente zur Kenntnis zu nehmen.

    Für mich ist alles klar, der Fall ist abgeschlossen.

    Wenn du immer noch so von deinen Ergebnissen überzeugt bist, dann mach doch einfach ein Paper draus. Aber bitte mit peer review, damit ich etwas zu lachen habe.

    Nachtrag:
    Du hattest gefragt, wie ich zum Ergebnis gekommen bin, dass keine Trendabschwächung erkennbar ist. Ich habe einfach das getan, was ich dir irgendwann am Anfang unserer Diskussion als Möglichkeit vorgeschlagen habe, worauf du aber wie üblich nicht eingegangen bist. Hab’s dann halt selbst gemacht.

    Ach, und dann habe ich auch noch getestet, wie viel Prozent der Variabilität der Daten alleine schon durch einen linearen Trend, ganz ohne weitere Einflussfaktoren erklärt werden kann. r^2 war etwas kleiner als deine vorhin angegebenen 0,6, aber nicht viel.

    “Weil mir keiner hat sagen wollen, warum und wo ich woanders besser hätte teilen oder sonstwie machen sollten.”
    Doch, auch dazu hatte ich einen Vorschlag, der deinem autistisch wirkendem Auftreten hier zum Opfer gefallen ist.

    Such dir andere Deppen, die mit dir ihre Zeit vergeuden.

  213. #214 Wolfgang Flamme
    Januar 18, 2013

    Ich habe einfach das getan, was ich dir irgendwann am Anfang unserer Diskussion als Möglichkeit vorgeschlagen habe, worauf du aber wie üblich nicht eingegangen bist. Hab’s dann halt selbst gemacht.

    Axel,
    Sie armer Kerl mußten also zuletzt tatsächlich das selbst machen, was Sie eigentlich von mir erledigt haben wollten?

    Das muß wirklich ein schwerer Schlag für Sie gewesen sein.

  214. #215 axel
    Januar 19, 2013

    Ich wollte überhaupt nichts haben, es war DEINE These des Trendbruchs und ich wollte behilflich sein. Es ist übrigens ein Standardtest, den jeder macht nach der Regression. Entschuldige, wenn ich davon ausging, du hättest das ebenfalls automatisch schon miterledigt gehabt.

    Du trittst hier auf, als könntest du dem Statistiker Foster das Wasser reichen. Und dabei hast du nur SEIN Programm benutzt und SEIN Programm mit anderen Daten durchlaufen lassen. Äußerungen wie z.B., dass Tamino eine Anfangshypothese (linearer Trend) durch sein Verfahren beweisen wollte, zeigen mir aber, dass du gar nicht begreifst, was das Programm macht. Die größten Deppen sind die, die meinen, sie wären Statistiker, weil sie Computer mit Statistiktools bedienen können, meint R. Tol.

  215. #216 Wolfgang Flamme
    Januar 19, 2013

    Ach, und dann habe ich auch noch getestet, wie viel Prozent der Variabilität der Daten alleine schon durch einen linearen Trend, ganz ohne weitere Einflussfaktoren erklärt werden kann. r^2 war etwas kleiner als deine vorhin angegebenen 0,6, aber nicht viel.

    Guter Axel,
    “Prozent der Variabilität der Daten” … könnten Sie das vielleicht noch etwas gezielt unspezifischer formulieren, damit es auch bestimmt zu allem passt, was ich mir jemals darunter vorstellen kann? So könnten wir ja vielleicht doch auf einen gemeinsamen Nenner kommen.

  216. #217 axel
    Januar 19, 2013

    Nö, rechne doch selbst nach. 0,53 hatte ich raus.
    Wolfgang, ich hab keinen Bock mehr auf deine Problemchen. Kapiert? Du hast die ganze Zeit auch ganz gut trotz meiner Störungen monologisieren können, ich störe dich nicht mehr.

  217. #218 Wolfgang Flamme
    Januar 19, 2013

    Ich wollte überhaupt nichts haben, es war DEINE These des Trendbruchs und ich wollte behilflich sein.

    Axel,
    ich weiiß nicht, womit Sie mir helfen wollten. Ich weiß nur, daß ich widerholt und vergeblich versuche, die Zeitreihe der natürlichen Einflußfaktoren so widersinnig umzukehren, aufzuteilen und zu vertauschen, daß der Algorithmus von Foster und Rahmstorf irgendwann kundtut, daß sie als Erklärung nicht wirklich taugen.

    Bisher ist er von diesem Verwirrspiel jedenfalls begeitert und findet aufs neue ungemein signifikante Zusammenhänge. Das meint zumindest die Teststatistik.

    Du trittst hier auf, als könntest du dem Statistiker Foster das Wasser reichen. Und dabei hast du nur SEIN Programm benutzt und SEIN Programm mit anderen Daten durchlaufen lassen.

    Ganz genau. Ich reiche ihm nicht das Wasser, ich reiche ihm nur veränderte Daten.
    Dazu muß man zum Glück gar kein Genie sein oder sich mit R gut auskennen, man kann die Änderungen in der Datentabelle AllFit.csv wohl auch mit Excel oder LibreOffice Calc machen und dann von F+Rs Code auswerten lassen.

    Äußerungen wie z.B., dass Tamino eine Anfangshypothese (linearer Trend) durch sein Verfahren beweisen wollte, zeigen mir aber, dass du gar nicht begreifst, was das Programm macht.

    Gaaanz langsam. Am Anfang der Arbeit weisen F+R auf eine laufende Diskussion über mögliche Änderungen des jüngeren Trendabschnitts hin. Sie verweisen dazu auf eine Arbeit von Peterson und Baringer, in der ein ‘stall’ des ENSO-bereinigten GW-Trends ab etwa 2000 erwähnt wird.

    Dann kommt erstmal sehr viel Arbeit und zu Ende dieser Arbeit kommen F+R zu dem Schluß, der GW-Trend sei ungebrochen.

    Irgendwo dazwischen müssen sie also einen Hypothesentest formuliert und durchgeführt haben, um zu dieser Aussage zu kommen.

    Das ist also ein Ansatzpunkt, den ich verfolge: Das Verfahren von F+R als Hypothesentest einzusetzen, um beide Hypothesen gegeneinander abzuwägen. Die F+R Teststatistik unterstützt die GW-stall-Hypothese gegenüber der GW-unabated-Hypothese, allerdings ist noch unklar, ob diese Präferenz auch signifikant ist.

    Bei F+R sind allerdings keine explizit formulierten Hypothesen zu finden, genau genommen fand ich nur dies:

    “Using multiple regression to estimate the warming rate
    together with the impact of exogenous factors, we are able
    to improve the estimated warming rates, and adjust the
    temperature time series for variability factors. (…).
    When exogenous influences are accounted for, the
    standard errors in the warming rate estimates are greatly
    reduced.”

    Das wiederum weist eher darauf hin, daß F+R versucht haben, das GW-Hintergrundsignal linearer zu gestalten. Und aus der Tatsache, daß sie damit erfolgreich waren, geschlossen haben, daß es auch ‘in Wirklichkeit’ linearer verläuft und daß diese Linearisierung durch die exogenen Einflüsse erklärt werden kann.

    Und das ist der andere Ansatz, den ich verfolge. Nämlich zu gucken, inwieweit diese exogenen Einflüsse tatsächlich zum Linearisierungserfolg beitragen. Derzeit sieht es allerdings so aus, als würden sogar zeitlich umgedrehte und gescrambelte Einflußsignale einen beträchtlichen Linearisierungserfolg bewirken. Daraus kann man gerade nicht schließen, daß in dem Verfahren wirkliche exogene Einflüsse korrekt herausgerechnet wurden.

  218. #219 Rudi
    Januar 19, 2013

    “Das wiederum weist eher darauf hin, daß F+R versucht haben, das GW-Hintergrundsignal linearer zu gestalten. ” [WF Januar 19]

    Zusätzlich (vermute ich) sollte auch die Steigung der linaeren Funktion möglichst groß sein, weil sich daraus die Klimasensitvität (KS) berechnet.

    F+R geben ca. 0,17 °/Dekade für die Steigung an, dieser Wert liegt nur geringfügig unter dem erwarteten Wert von 0,2 (was 3° KS entspricht)

    Ich meine, auch dieses Ergebnis ist wegen der unsachgemäßen Auswahl von Einflußfunktionen (ohne Rückkoppplung) sehr in Frage zu stellen.

  219. #220 Klimarealist
    Januar 19, 2013

    @Wolfgang

    Of the first 60 months of the 120 month (10 year) Climate Bet, Scott Armstrong’s naive model forecast* of no change in global average temperatures has been closer to the actual temperature than Al Gore’s IPCC-orignated 3°C per century warming forecast for 40 months. The updated Climate Bet Graph is to the right

    Armstrongs Paper dazu
    Die Grafik des
    Ergebnis’

  220. #221 Klimarealist
    Januar 19, 2013

    @GH
    Bitte Kommentar mit 2 Links aus dem Spam holen, danke

  221. #222 Dr. Webbaer
    Januar 20, 2013

    Weil dort auf eine Veröffentlichung nur gehofft werden darf, wenn es konveniert, hier thematisch passend ebenfalls die zwei Fragen zur Diskussion gestellt:

    Dass es bis 2006 eine extrem rasche Erwärmung, aber schon seit 1998 praktisch gar keine mehr gab: das erscheint widersprüchlich, es sind aber beides gleichermaßen valide bzw. sinnlose Arten, auf dieselben Daten zu schauen.

    Welches Intervall wäre statt 1992-2006 und statt 1998-2002 sinnhafterweise (vs. ‘sinnlos’) zu betrachten und warum? Was wird davon gehalten das Intervall 1880-2012/12 als Grundlage sinnhafter Datenanalyse zu verwenden?

    Das bezieht sich wohlgemerkt auf jenen Text:
    http://www.scilogs.de/wblogs/blog/klimalounge/klimadaten/2013-01-20/globale-temperatur-2012

    MFG
    Dr. W

  222. #223 axel
    Januar 20, 2013

    Warum?

  223. #224 Leugnerentlarver
    Januar 21, 2013

    Fazit: Wolfgang Flamme hat sehr schön gezeigt, dass die statistische Methodik von Forster und Rahmstorf unausgereift ist und mit sinnlosen Werten zum gleichen Resultat kommt wie Forster und Rahmstorf. Das stellt aber den Wert der Arbeit von Forster und Rahmstorf fundamental in Frage. Ist denn die methodische Schwäche den Reviewern nicht aufgefallen?

  224. #225 Wolfgang Flamme
    Januar 21, 2013

    Nun mal nicht so schnell.

    Da bleibt schließlich noch der letzte Punkt meiner Liste übrig – und das ist ein ganz entscheidender. Denn die Qualität eines Modells zeigt sich letztendlich immer daran, wie gut es Daten, die ihm noch unbekannt sind, vorhersehen kann.

    Nun liegen zukünftige Daten logischerweise noch nicht vor; also behilft man sich konsequenterweise so, daß man das Modell für einen kürzeren Zeitraum kalibriert. So wie ausgeführt (kalibriert 1979-2000, Vorhersage ab 2000) ist das in zweierlei Hinsicht nachteilig für F+R:
    - die Kalibrierungsperiode ist kürzer
    - wir glauben bereits, eine Trendabweichung festgestellt zu haben und können den Zeitpunkt bewußt ‘herausfordernd’ auf 2000+ legen

    Um das auch noch zu testen, muß man allerdings schon tiefer in den Code eingreifen. Und der ist verdammt unübersichtlich. So daß ich mich schließlich dazu entschlossen habe, die Sache mal kompakter zu gestalten und mehr Arbeit auf die inneren R time-series Funktionalitäten zu verlagern. Das erhöht die Übersicht und und es ist viel einfacher, Zwischenergebnisse, Plot-/Auswertemöglichkeiten etc einzubringen. Außerdem macht es die Lagprüferei angenehmerweise deutlich schneller als vorher.

    https://docs.google.com/document/d/1tP_OZvS5l0EWoDOvr2L1dMKxhCpIyKbVch6Ulgznu9c/edit

    (Den Pfad auf die Datendatei ganz oben bitte anpassen, ansonsten sollte die Sache mit copy+paste eigentlich laufen).
    Dort wird im Anschluß an die Funktionsdefinitionen ein Beispiel für die Vorhersagefähigkeiten der Methode von F+R gezeigt …. und da kann man wirklich nicht meckern!
    Die Stagnation ab 2000 können sie, ohne sie in der Kalibrierung zu verwenden, ausgezeichnet mit ihren Einflußvariablen vorhersagen.
    Also egal, welche Bauchschmerzen ich immer noch dabei habe, mit dieser Methode auf explorative Reise zu gehen und damit den Einfluß von zahllosem Pipapo auf die globalen Temperaturen zu ‘beweisen’ … dort, wo dieser Einfluß auch physikalisch deutlich besteht und vielfach bestätigt ist, funktioniert die Methode anscheinend.

    Eine Streubreite der Vorhersage bleibt noch zu testen, weshalb mir die ‘returnbestlags’-Funktion auch eine Liste der Lags zurückgibt, die ‘ununterscheidbar gut’ sind (deltaAIC=2). Da (und an anderen Stellen) darf und soll dann jeder gerne selbst dran schrauben, wie auch an einer Kontrolle und Aufhübschung des Ganzen.

    PS: Ich lege den Startzeitpunkt auf 1950 fest, deshalb ergeben sich in der Teststatistik andere Achsenabschnitte und sin/cos-Einflüsse. An den übrigen, den eigentlichen Linearfaktoren ändert das aber nichts.

  225. #226 Demokrit
    März 9, 2013

    Werter Herr Hoffman,

    warum so viel Polemik in ihren Artikeln? Habe mir die Mühe gemacht einige zu lesen.
    Aber vielen Dank dafür, Wolfgang Flamme zu Wort kommen zu lassen. Dies war recht spannend seiner Argumentationskette zu folgen. So sollte eine Diskussion aussehen in einem wissenschaftlichen Block.

  226. #227 Thomas
    März 10, 2013

    @Demokrit
    Wenn ein Autor eine Meinung zu einem Thema hat, weshalb sollte er sie nicht veröffentlichen? Nicht einmal auf seinem eigenen Blog?
    Wenn dann andere Kommentatoren ihren Senf dazugeben, ist ein Fehler darin sicher nicht dem Betreiber des Blogs anzurechnen

  227. #228 Demokrit
    März 10, 2013

    @Thomas
    “Polemik ist ursprünglich Streitkunst, ein wissenschaftlicher Streit, eine gelehrte Fehde (gr. polemos = Krieg). In der Theologie bedeutet Polemik die Bekämpfung dogmatischer Anschauungen anderer christlicher Konfessionen. Polemisieren heißt: eine Ansicht bekämpfen. Polemik beharrt immer auf Dogmen, Ansichten, Glauben, nicht auf Wissenschaft. Polemik sucht weniger den Konsens sondern will fundamentalistisch niederkämpfen. ”
    Es ging nicht um unterschiedliche Meinungen, sondern um die Art und Weise diese zu vertreten.

  228. #229 Gerhard Stenkamp
    Berlin
    März 25, 2013

    Für mich ist der Trend der Erwärmung völlig klar:

    Siehe auch hier:

    http://www.gerhardstenkamp.blogspot.de/

  229. #230 Freeman Lowell
    März 25, 2013

    @Gerhard

    Heftiges Blog hast du da am Start. Ist dieses Gottesformelding ernstgemeint?

    Der Krebsartikel ist auch schon ziemlich derbe.

  230. #231 shoe lifts for men
    http://www.deelsonheels.com/Shoe_Lifts/cat133748_120743.aspx
    April 1, 2013

    Greetings! I know this can be kinda off topic but I has been wondering should you knew where I could get any captcha plugin regarding my opinion form? I

  231. #232 Johnb643
    eewyewey
    September 16, 2014

    Very informative blog post.Really thank you! Keep writing. deaddeaebbdd