Dauerthema im Internet, Nicht-Thema in der Wissenschaft? Die seit angeblich 1998 ein für alle mal zum Halten gekommene Erwärmung ist in der Tat kaum ein Thema auf internationalen Konferenzen und in wissenschaftlichen Veröffentlichungen. Die ach so häufig zu lesende angebliche Widerlegung (unter anderem hier von einem Klimawissenschaftler (?) der sicher darüber sehr unglücklichen University of Alaska, Fairbanks, oder auch hier vom einstmals blitzgescheiten Richard Lindzen) jeden möglichen Einfluss des Menschen auf das Klima: Seit 1998 (je nach Geschmack darf man da auch leicht andere Jahreszahlen einsetzen) habe die Erwärmung nun aber ein für alle mal ein Ende gefunden.

i-77cf1dd5322273189532f7ece5d48075-03dotearth2.350.jpg

Bild 1: Zeitintervalle mit keiner Erwärmung oder gar leichter Abkühlung sind leicht zu finden im bisherigen Verlauf der Klimaerwärmung (Graphik von dotearth aus E/W GRL 2009).


Die Widerlegung dieses kolossalen Strohmanns (als wenn entweder das IPCC oder die Modelle in irgendeiner Form von einem linearen Anstieg der Temperaturen sprechen würden, die eins zu eins den CO2 Emissionen folgten) findet man an vielen vielen Stellen im Internet, zumindest wenn man diese Erklärungen denn finden will. Nichts neues gibt es zu diesem Thema zu sagen, ausser, dass diese Erklärungen jetzt auch in peer-reviewter Form zu finden sind (ht an ice).
Andrew Revkin von der NYT berichtete bereits: Weder ging die Erwärmung bislang kontinuierlich vonstatten, noch sagen die Modelle, dass sie es in der Zukunft tun werden. Die beiden hier gezeigten Graphiken aus dem jüngst erschienenen Paper von David Easterling und Michael Wehner (E/W im folgenden) zeigen denkbar eindeutig, wie einfach es ist, ein bestimmtes Zeitintervall herauszupicken und daraus irgendein argumentatives Süppchen zu kochen. E/W finden in den Beobachtungen wie auch in den Modellläufen 10-20 Jahresabschnitte mit keinem oder sogar leicht negativen Temperaturverlauf. EIn Resultat, was man hier auch schon vor langer Zeit bei Primaklima finden konnte und wenn mich etwas an dem E/W Paper verwundert hat, dann ist es, dass das für ein Paper reicht (Ärger, Ärger, Grummel, Grummel). Na und natürlich findet man das Thema auch hier bei Realclimate und hier bei Tamino. Die Klimaerwärmung läuft nicht monoton ab und zehn bis zu zwanzig Jahresabschnitte geben nur einen Schnappschuss der ablaufenden Aenderungen. Übrigens folgt daraus, dass das Gleiche auch in die andere Richtung funktioniert. Wer will kann eine Reihe von 10 Jahresabschnitten rauspicken (z.B 88-98), die auf eine katastrophale und vermeintlich am oberen Rand der Modellvorhersagen entlangschlitternde Temperaturentwicklung deuten.

i-bba382597bef149c0b9da153d88826b7-land-and-ocean-temp_480a.jpg

Bild 2: Modellresultat in einem Buiseness as usual Scenario für das 21 Jhd. Und auch in Zukunft werden sich Zeitbschnitte von zehn und mehr Jahren finden lassen, in denen es keine Erwärmung geben wird. (Graphik von dotearth aus E/W GRL 2009).

Wird das irgendjemanden aus der Skeptiker-gemeinde abhalten, diesen Strohmann wieder aufzubauen? I wo. Ich wage sogar mal folgende Langzeitvorhersage. Wenn in 10-20 Jahren die nächste Erwärmungsphase anhalten sollte, so wie sie es aktuell tut, werden auch dann zukünftige Skeptikergenerationen nach ein paar Jahren stagnierender Temperaturen aufs neue behaupten: Das CO2 steigt und die Temperaturen nicht, ergo stimmt das doch alles nicht mit der Klimaerwärmung. Gott schütze unser CO2!

Kommentare (282)

  1. #1 Christian W
    April 24, 2009

    Nanu? Nach knapp 2 Stunden immer noch kein Leugner dagewesen?

    Danke für den schönen Bericht über den status quo. Allerdings missfällt mir die Art und Weise der Präsentation etwas. Sie werten mMn. die lächerliche Leugner-Fraktion zu sehr auf, wenn Sie wie hier sämtliche Fakten nach dem Muster “Seht ihr? Wieder ein Beweis. Und noch einer. Und hier, hier, hier und hier. Ihr habt also doch Unrecht!” präsentieren. Warum das? Natürlich haben die Unrecht, was denn sonst? Wieso sollte man eine Verschwörungstherie-Fangemeinde adeln, indem man sie wie Verfechter einer legitimen Idee behandelt, die zu widerlegen wäre?
    Den Mondlandungsleugnern präsentiert auch niemand Fakten in einem Ton wie “Und wieder ein (neuer) Beweis für die Mondlandung. Hab’ ich’s doch gleich gesagt.”, sondern wenn überhaupt etwa so “Wenn das nie stattgefunden hätte, wie erklärt ihr dann…?” oder “Wenn ihr Recht hättet, dann würde das ein Widerspruch zu … darstellen”. Wie eben jede Verschwörungstheorie überhaupt nur dann ernstgenommen (und zu einer ohne “Verschwörungs-” vorweg) und entsprechend gleichberechtigt behandelt werden könnte, wenn sie Erklärungen für offene Fragen liefern statt einfach nur bestehende, prüf- und reproduzierbare Erklärungen/Ergebnisse um 180° zu drehen.

    Aber das wie gesagt nur zum Ton des Eintrags. Ich freue mich über jeden aufklärenden Text zu dem Thema.

    Grüße
    Christian W

  2. #2 Jörg Friedrich
    April 24, 2009

    Ich frage mich, was dieser Text eigentlich sagen will. Soll das ein Exempel sein, wie wissenschaftliche Diskussionen geführt werden?

    1. Es wird ohne die Spur eines Beleges behauptet, dass eine Universität in Faibanks unglücklich darüber sei, dass jemand Klimaforscher ist.

    2. Es wird von einem Wissenschaftler behauptet, er sei “einstmals blitzgescheit” gewesen (was vermuten lässt, man sei der Ansicht, das sei jetzt nicht mehr der Fall) ohne dass es Hinweise darauf gibt, warum sich die Gescheitheit des Mannes geändert haben sollte.

    3. Sodann wird diesen Personen eine Hypothese in den Mund gelegt (“Die Klimaerwärmung sei ein für allemal zum Stillstand gekommen”) die in den verlinkten Seiten nicht zu finden ist.

    4. Gegen diese Hypothese wird sodann polemisiert indem Argumente genannt werden, die niemand bestritten hat.

    Was bitte soll damit belegt werden?

  3. #3 Jörg Zimmermann
    April 24, 2009

    Weitere Kommentare dazu findet man übrigens auch bei Chris Colose (https://chriscolose.wordpress.com/2009/04/07/decadal-scale-coolings-not-all-that-unusual/) und bei James Hrynyshyn (https://scienceblogs.com/islandofdoubt/2009/04/what_goes_up_must_come_down.php) (und das waren zwei Links, erst mal in die Spam-Warteschleife, seufz…)

    Es ist wirklich ein bißchen traurig, daß eine solche Trivialität publiziert werden kann, und im Grunde sagt es etwas über den Zustand der Diskussion zum Klimawandel aus. Während die Taktik der Leugner anscheinend ist, wirksamer Fachbegutachtung aus dem Weg zu gehen, indem man in Zeitschriften publiziert, die eigentlich in einem anderen Bereich publizieren (G&T bei Int. Journal of Modern Physics B, Essex, Kittrick und Andresen über globale Temperaturen beim J. of Non-equilibrium Thermodynamik), hält man gleichzeitig die Wissenschaft damit beschäftigt, daß sie Trivialitäten feststellen muß: die globale Temperaturänderung erfolgt nicht gleichförmig, unter der Jahrzehntskala braucht man sich hier Änderungen gar nicht anzuschauen und die Klimamodelle machen keine Vorhersagen, sondern Projektionen (dazu sollte man sich diesen Beitrag von Kevin Trenberth anschauen: https://blogs.nature.com/climatefeedback/2007/06/predictions_of_climate.html).
    Easterling und Wehner habe ich im Zusammenhang mit der Frage, wie wahrscheinlich es ist, daß das nächste Jahrzehntmittel unter dem aktuellen liegen wird, mit angesprochen, aber, wie oft bei mir, ohen die schönen Bildchen hier (https://globalklima.blogspot.com/2009/04/wie-wahrscheinlich-ist-es-denn-nun-da.html)

    Es ist anscheinend nötig, solche Punkte immer wieder anzusprechen, das zeigen die Beiträge der Leugner. Daher auch absolute Zustimmung zu Deinem Beitrag und dem pessimistischen Ausblick, Georg.

  4. #4 adenosine
    April 24, 2009

    Ich nehme an, das Hauptargument der CO2-Hypothese ist das fundierte Verständnis der physikalischen Grundlagen der Atmosphärenphysik und des Strahlungstransports sowie das hohe Vertrauen in die Simulationen. Welchen Anteil an der Vertrauenswürdigkeit der CO2-Hypothese hat denn die beobachtete Korrelation zwischen CO2 und Temperatur? Angenommen sie wäre durch Rauschen noch völlig überdeckt, wäre dann das Vertrauen nur über die theoretische Begründung der Quantität allein auch > 90%?

  5. #5 Jörg Zimmermann
    April 24, 2009

    Während mein anderer Beitrag in der Spam-Warteschleife schmort (mußte ein paar Links angeben), noch kurz zu anderen Beiträgen hier.
    Jörg Friedrich: Punkte 1 und 2 ergeben sich eigentlich aus den Links. Ok. Lindzen ist sicher auch jetzt noch “blitzgescheit”, aber man merkt keinen Gebrauch davon in dem WUWT-Beitrag – dass Trends in der globalen Temperatur bei Zeiträumen unter 20 Jahren einfach nicht signifikant sind, kann man bei jedem voraussetzen, der auf dem Gebiet arbeiten will. Punkt 3 finde ich unverständlich. In 2 wird explizit gesagt: kein Trend. Laut Lindzen (andere Beiträge, liefere bei Bedarf auch Links nach) kann die globale Erwärmung nur ein paar Zehntelgrad betragen, genannt hat er mal 0,3 Grad, und die haben wir bereits hinter uns gebracht. Bei Kramm und G&T gilt erst recht, wo kein Treibhauseffekt, da ist auch keine menschengemachte globale Erwärmung, nur natürliche Variabilität. Und da Lindzen auch teilnimmt an dem Gerede, wie man es auf WUWT schön wiederfindet, daß es keine globale Erwärmung gebe seit 1995/1997/1998/2001 bzw. es schon wieder abkühle, finde ich es angemessen, ihn wie auch andere Leugner damit festzunageln.
    Zu 4: die Argumente werden immer wieder bestritten – wieder Verweis auf WUWT als Beispiel – da kommt eigentlich nichts so häufig wie die Argumentation mit Temperaturänderungen aus kurzen Zeitabschnitten dafür, daß es angeblich keine globale Erwärmung (mehr) gebe.
    adenosine: Ich kenne keine Stelle in den IPCC-Berichten, in der mit einer CO2-T-Korrelation argumentiert würde. Bei den ersten Berichten zum Thema (1979 JASON-Report, Charney-Report) war die wohl auch nicht erkennbar. Daher kann man wohl klar sagen, daß man an den IPCC-Aussagen wohl kaum etwas ändern müßte, wenn (sehr hypothetisch) das Rauschen in den Daten diese Korrelation jetzt immer noch überdecken würde.

  6. #6 Jörg Friedrich
    April 24, 2009

    Die Logik, wie sich aus den Links die aufgestellten Behauptungen über das Unglück einer Universität und die gescheitheit eines Forschers ergeben, erschließt sich mir nicht. Überhaupt finde ich, haben solche Behauptungen auch in polemischen Teilen wissenschaftlicher Diskurse nichts zu suchen.

    Auch nach mehrmaligem Lesen finde ich nicht die Stelle in der irgendjemand behauptet, dass “die Klimaerwärmung ein für allemal zum Stillstand gekommen” sei. Gesagt wird, dass sie sich in den letzten 10 Jahren nicht nachweisen lässt.

    Nun finde ich es überraschend, dass so etwas unbedeutend ist. In den zurückliegenden Jahren wurde der Eindurck erweckt, jeder einzelne zu heiße Sommer, jeder milde Winter, jede eisfreie Passage sei eindeutig auf die Klimaerwärmung zurückzuführen. Ich finde, das steht schon im Widerspruch zu dem Befund, dass es in den letzten 10 Jahren gar keine signifikante globale Erwärmung gab.

    Mich würde interessieren:

    1. Wie wahrscheinlich ist es bei der vom IPCC angenommenen durchschnittlichen Steigerungsrate der globalen Mitteltemperatur und der angenommenen bzw bisher gemessenen Variabilität dieser Größe, dass über einen beliebigen 10-Jahres-Zeitraum kein Anstieg gefunden wird?

    2. Wie sicher ist der Befund, dass es über die letzten 10 Jahre tatsächlich keinen Anstieg gab?

  7. #7 Jörg
    April 24, 2009

    Überhaupt finde ich, haben solche Behauptungen auch in polemischen Teilen wissenschaftlicher Diskurse nichts zu suchen.

    Dann ist es ja gut, dass wir uns hier in einem Blog befinden und nicht in einem “wissenschaftlichen Diskurs”, und jeder Blogautor schreiben darf was und wie er will (solange es meist mit wissenschaftlichen Themen zusammenhängt). Die Mühe, die Georg ist hier macht, und der Dank dann von Leute wie dem Kramm dafür so derartig lächerlich angemacht zu werden, steht eh schon in keinem Verhältnis. Da braucht er sicher nicht auch noch jemanden, der ihm sagt was er wie zu formulieren hat.

    In den zurückliegenden Jahren wurde der Eindurck erweckt, jeder einzelne zu heiße Sommer, jeder milde Winter, jede eisfreie Passage sei eindeutig auf die Klimaerwärmung zurückzuführen. Ich finde, das steht schon im Widerspruch zu dem Befund, dass es in den letzten 10 Jahren gar keine signifikante globale Erwärmung gab.

    Bitte was? Da hätte ich aber mal gerne einige gute Belege für diese grobschlächtige Hypothese…

    Mich würde interessieren:

    1. Wie wahrscheinlich ist es bei der vom IPCC angenommenen durchschnittlichen Steigerungsrate der globalen Mitteltemperatur und der angenommenen bzw bisher gemessenen Variabilität dieser Größe, dass über einen beliebigen 10-Jahres-Zeitraum kein Anstieg gefunden wird?

    2. Wie sicher ist der Befund, dass es über die letzten 10 Jahre tatsächlich keinen Anstieg gab?

    Dann würde ich mir den IPCC_bwericht durchlesen oder aber darauf verzichten, erst die leute anzumachen und dann Fragen zu stellen, die man sicherlich nicht mal grad eben beantworten kann. Das steht alles irgendwie in keinem Verhältnis bei Ihnen, sorry.

  8. #8 Jörg Zimmermann
    April 24, 2009

    “In den zurückliegenden Jahren wurde der Eindurck erweckt, jeder einzelne zu heiße Sommer, jeder milde Winter, jede eisfreie Passage sei eindeutig auf die Klimaerwärmung zurückzuführen.” Von wem denn? Da finde ich es schon fundierter, Lindzen zu unterstellen, dass er meint, die globale Erwärmung sei vorüber.
    Zu 1. Die Variabilität der Vergangenheit sinnvoll zu beziffern, ist schwierig, weil da natürlich der globale Erwärmungstrend mit drin steckt. Der einfachste Ansatz wäre, die Jahrzehntmittel in den HadCRUT3-Daten zu nehmen, die lineare Regression zu berechnen (1851 – 2010, 2009 und 2010 wären geraten, macht aber nur einen kleinen Fehler), abzuziehen und vom Residuum die Standardabweichung zu berechnen. Das gibt bei mir 0,127 Grad. Der 95-%-Bereich ist das Doppelte, also 0,254 Grad. Der erwartete Trend ist derzeit ca. 0,15 Grad pro Jahrzehnt (soll im Laufe des Jahrhunderts steigen). Also erst nach zwei Jahrzehnten liege ich deutlich über 2 Standardabweichungen bei der Jahrzehnt-zu-Jahrzehnt-Variabilität der Zeitreihe, nach einem Jahrzehnt kann es also durchaus kälter werden, obwohl ein Erwärmungstrend unterliegt. Ich kann auch abschnittsweise die lineare Regression berechnen und dadurch die Standardabweichung unter 0,09 Grad je Jahrzehnt bringen (da gibt es einiges an Freiheit). Dann ist immer noch das Doppelte der Standardabweichung so groß oder größer als der derzeitige globale Erwärmungstrend laut IPCC.
    Zu 2. Angesichts solcher statistischer Unsicherheit ist es daher wirklich nicht sinnvoll, nach unterdekadischen Trends zu schauen. Ein statistisch signifikante Aussage ist da nicht möglich.

  9. #9 Jörg Friedrich
    April 24, 2009

    Hallo Jörg R,

    ich habe niemandem untersagt, so zu schreiben wie er schreibt, ich habe meine persönliche Meinung geäußert. Dass wir uns bei ScienceBlogs außerhalb des (polemischen Teils des) wissenschaftlichen Diskurses befinden, würde mich wundern.

    Ich habe die Dokumente des IPCC gelesen und ich kann mich nicht entsinnen, dass dort Antworten auf meine Fragen stehen. Ich würde sie dort auch nicht erwarten. Ich habe auch nicht erwartet, dass jemand diese Fragen “mal eben” beantworten könnte. Es sind aber die Fragen, die m.E. als Reaktion auf die zitierten Arbeiten gestellt werden müssten.

  10. #10 Jörg Friedrich
    April 24, 2009

    Zu den gewünschten “guten Belegen” für den Eindruck, dass in den vergangenen Jahren viele Einzelereignisse als sicheres Zeichen für die Klimaerwärmung genannt wurden hier Nummer 1:
    “While the ice is disappearing faster than the computer models indicate, both observations and the models point in the same direction: the Arctic is losing ice at an increasingly rapid pace and the impact of greenhouse gases is growing,” says NCAR scientist Marika Holland, one of the study’s co-authors.” 30.04.2007, https://www.ucar.edu/news/releases/2007/seaice.shtml

    Wenn gewünscht, kann ich weitere Zitate dieser Art bringen. Aber es würde mich überraschen wenn wirklich nur ich in den vergangen Jahren bei lang andauernder Wärme, milden Wintern, abbrechenden Shelf-Eis-Brücken, Hurricans und eisfreien Passagen Wissenschaftler vernommen hätte, die auf den direkten Zusammenhang mit dem Klimawandel hingewiesen hätten.

  11. #11 Jörg Zimmermann
    April 24, 2009

    PS: Easterling und Wehner (s.o.) geben 5% als Wahrscheinlichkeit für einen über ein Jahrzehnt fallenden Temperaturtrend im laufenden Jahrhundert an.

  12. #12 Jörg Zimmermann
    April 24, 2009

    Jörg Friedrich: Zum Beitrag von Frau Holland – das stützt sich auf eine lange Zeitreihe (53 Jahre) und nicht ein einzelnes Jahr.

  13. #13 Jörg
    April 24, 2009

    “While the ice is disappearing faster than the computer models indicate, both observations and the models point in the same direction: the Arctic is losing ice at an increasingly rapid pace and the impact of greenhouse gases is growing,” says NCAR scientist Marika Holland, one of the study’s co-authors.” 30.04.2007, https://www.ucar.edu/news/releases/2007/seaice.shtml

    Das ist ein Hinweis auf eine starke Korrelation. Der sollte wohl erlaubt sein, und auch Hinweise auf den direkten Zusammenhang sind ja wohl erlaubt. Das ist ja aber wohl alles meilenweit entfernt von:

    In den zurückliegenden Jahren wurde der Eindurck erweckt, jeder einzelne zu heiße Sommer, jeder milde Winter, jede eisfreie Passage sei eindeutig auf die Klimaerwärmung zurückzuführen.

    Also, wo ist das Zitat, dass sagt das alle heißen Sommer, milden Winter und jede eisfreie Passage eindeutig auf die Klimaerwärmung zurückzuführen sind?

  14. #14 Georg Hoffmann
    April 24, 2009

    @ChristianW

    Sie werten mMn. die lächerliche Leugner-Fraktion zu sehr auf, wenn Sie wie hier sämtliche Fakten nach dem Muster “Seht ihr? Wieder ein Beweis. Und noch einer. Und hier, hier, hier und hier. Ihr habt also doch Unrecht!” präsentieren. Warum das?

    Na ja, ich versuche halt den sportiven Geist der Debatte ein wenig am Leben zu halten. Aber die Kritik ist wohl wahr und angebracht. Bald kommt mal wieder was aus der Wissenschaft und nicht aus der Anstalt.

  15. #15 Ludmila Carone
    April 24, 2009

    @Jörg Friedrich: Den Unterschied zwischen der Darstellung in den Medien, die oft grob vereinfachend bis falsch ist, und den Unterschied zwischen Fachaufsätzen, der echten Wissensquelle, wo das ganze belegt und diskutiert wird, den kennen Sie schon, oder?

    Hört sich nämlich irgendwie nicht so an. Es ist ein bekanntes Problem, dass Pressemitteilungen manchmal falsch verstanden und teilweise auch missverständlich formuliert werden. Das ist aber in erster Linie ein Problem der Wissenschaftskommunikation und erst in zweiter Linie eines der Wissenschaft.

    Haben Sie eigentlich Daten und physikalische Aussagen für Ihre Kritik? Oder erschöpft sich das Ganze jetzt hier in einer Meta-Analyse, was Sie und andere meinen in irgendwelchen Nachrichten gehört zu haben, was *natürlich* immer adäquat den Stand der Forschung wiedergibt?

    Was Sie hier aufbauen ist also ein kolossaler Strohmann und hat exakt null Bezug zu den sachlichen Argumenten und den Daten, die dem ganzen zugrunde liegen.

    Und gerade Georg bemüht sich darum darzulegen, warum das eben nicht immer ganz so einfach ist. Insofern ist Ihr Vorwurf von vornherein ungerechtfertigt.

  16. #16 Georg Hoffmann
    April 24, 2009

    @Joerg Friedrich

    Es wird ohne die Spur eines Beleges behauptet, dass eine Universität in Faibanks unglücklich darüber sei, dass jemand Klimaforscher ist.

    Mein Link fuehrt zu Herrn Kramm, der an der Uni Fairbanks angestellt ist. Ich gehe stark davon aus, dass die Uni sehr ungluecklich ist, zumindest wenn Herr Kramm sein “coming out” auch in der englischen Sprache hatte. EIn Klimaforscher, der die Existenz des Treibhauseffekts bezweifelt und das in seinen Kursen lehrt, ist ein echtes Problem fuer jede Uni, aehnlich einem Physiker, der die spez. Relativitaet fuer falsch haelt oder einem Biologen, der Lamarckismus an einer Uni lehren moechte.

    Sodann wird diesen Personen eine Hypothese in den Mund gelegt (“Die Klimaerwärmung sei ein für allemal zum Stillstand gekommen”) die in den verlinkten Seiten nicht zu finden ist.

    Kramm sagt, es gibt keinen Treibhauseffekt. Selbstverstaendlich sagt er damit, dass es nicht den geringsten Grund zu einer Erwaermung gibt. Die entsprechenden Zitate koennen Sie sich in den bald 800 Kommentaren hier https://ww
    w.scienceblogs.de/primaklima/2009/03/chronik-eines-angekundigten-skandals-gerlich-und-tscheuschner-wurden-peerreviewt.php selber raussuchen.
    Lindzen haelt den Treibhauseffekt durch negative Feedbacks auf ca 1°C bei 2*CO2 maximal eingeschraenkt.

    Zur Polemik: Ich polemisiere, wie ich mag. Wenn es Ihnen nicht gefaellt, einfach woanders weiterlesen. Meine uebrigens schon oft gemachte Feststellung ist: Die die sich am meisten ueber angeblich unangebrachte Polemik erregen, sind virtuel nicht existent, wenn ich einen nuechternen rein sachbezogenen Artikel schreibe. EIgenartig, Joerg, oder?

  17. #17 Jörg Friedrich
    April 24, 2009

    @Jörg Zimmermann: Danke für die 5%-Angabe, der Link ist nur mit einem User-Account zu öffnen.

    @JörgR: Ich werde keine Zitate bringen für Dinge, die ich nicht behauptet habe. Es ging darum, dass in den letzten Jahren “jede einzelne” Wetter-Anomalie von Klimaforschern als Zeichen für die globale Erwärmung genommen wurde, nicht “alle”.

    Wenn es stimmt, dass es in den letzten 10 Jahren keine Erwärmung gab, dann kann man die Ereignisse der letzten 10 Jahre auch nicht als Zeichen für Auswirkungen der Klima-Erwärmung nehmen, oder?

    Probleme der Wissenschaftskommunikation sind immer Probleme der Wissenschaftler, die kommunizieren. Um Thesen darüber zu belegen, braucht man übrigens keine “physikalischen Aussagen”, weil mein Punkt nichts mit Physik, sondern eben mit Kommunikation zu tun hat.

    Meine Vermutung hinsichtlich der Physik ist, dass die Messgröße “globale Mitteltemperatur” eben nicht die ideale Größe für die Messung des Klimawandels ist. Sie ist überhaupt nur eine Größe, die in der Kommunikation mit der nichtwissenschaftlichen Welt eine Rolle spielt, sie ist keine wissenschaftliche Entität. Sie eignet sich sehr gut, weil die Menschen sich unter “globaler Erwärmung” etwas vorstellen können, man kann einfache Bilder zeichnen. Wer allerdings in seiner Argumentation auf diese Größe setzt, hat ein argumentatives Problem, wenn sich diese Grüße nicht ändert.

    Auch in Jahren, in denen sich die “globale Mitteltemperatur” absenkt, ändert sich das Klima. Auch das kann man Laien verständlich machen – aber nicht, indem man Leute, die auf solche Phänomene hinweisen, als Idioten hinstellt, sondern indem man nach Schwächen in der eigenen Argumentation sucht.

  18. #18 Georg Hoffmann
    April 24, 2009

    @Joerg Zimmermann

    Es ist wirklich ein bißchen traurig, daß eine solche Trivialität publiziert werden kann, und im Grunde sagt es etwas über den Zustand der Diskussion zum Klimawandel aus.

    Wie auch ice hier:https://iceblog.over-blog.com/ feststellte, der Artikel ist vielleicht der erste, in der es von der Blogosphaere in die Wissenschaft geht und nicht, wie sonst, umgekehrt. Der Abstract und die Intro des Artikels lesen sich daher auch recht seltsam. Die Zitate kommen von Blogs und nicht aus Papern.

    Easterling und Wehner habe ich im Zusammenhang mit der Frage, wie wahrscheinlich es ist, daß das nächste Jahrzehntmittel unter dem aktuellen liegen wird, mit angesprochen, aber, wie oft bei mir, ohen die schönen Bildchen hier (https://globalklima.blogspot.com/2009/04/wie-wahrscheinlich-ist-es-denn-nun-da.html)

    Schluchz. Ein einziges Mal moechte ich vor dir was gefunden haben, Joerg. Puhuuuu.
    Gruesze Georg

  19. #19 Jörg Friedrich
    April 24, 2009

    @Georg Hoffmann: Sie haben natürlich recht, ich kommentiere häufiger, wenn ich mit jemandem nicht einer Meinung bin, als wenn ich ihm einfach zustimme. Vielleicht sollte ich versuchen das zu ändern, wobei ich denke, dass Widerspruch für die Entwicklung wichtiger ist als Zustimmung.

  20. #20 Georg Hoffmann
    April 24, 2009

    @Joerg Friedrich

    ch werde keine Zitate bringen für Dinge, die ich nicht behauptet habe. Es ging darum, dass in den letzten Jahren “jede einzelne” Wetter-Anomalie von Klimaforschern als Zeichen für die globale Erwärmung genommen wurde, nicht “alle”.

    Das nennt man glaube ich eine glatte Luege.

    Wer allerdings in seiner Argumentation auf diese Größe setzt, hat ein argumentatives Problem, wenn sich diese Grüße nicht ändert.

    Und das nennt man glaube ich: sagenhaften Schwachsinn. Vielleicht doch einfach den Artikel und besonders die Bildchen anschaun. Und dann denken und dann schreiben.

  21. #21 Jörg Friedrich
    April 24, 2009

    @Jörg Zimmermann: Den 14:12 Kommentar habe ich eben erst gesehen. Danke für die schnelle und plausible Antwort.

    Was den Satz “In den zurückliegenden Jahren wurde der Eindurck erweckt, jeder einzelne zu heiße Sommer, jeder milde Winter, jede eisfreie Passage sei eindeutig auf die Klimaerwärmung zurückzuführen.” so schrieb ich ausdrücklich von einem Eindruck, dieser ergibt sich aus einer vielzahl von Zeitungsberichten und Interviews in denen Wissenschaftler zu Worte kamen. Man suche einmal nach den Stichworten “Katrina” und “Klimawandel” oder “Nordostpassage” und “Klimawandel” u.ä. Natürlich wird dort auch immer im Nebensatz auf Unsicherheiten hingewiesen, aber der Zusammenhang wird meist betont.

  22. #22 Jörg Friedrich
    April 24, 2009

    Herr Hoffmann, um es nochmal deutlich zu sagen: Es gibt keinen Zweifel daran, dass sich die Größe namens “globale Mitteltemperatur” in den letzten Jahrzehnten nach oben entwickelt hat. Gleichzeitig scheint sie sich in den letzten 10 Jahren nicht wesentlich verändert zu haben, gleichzeitig gab es eine Reihe von Wetterereignissen, die mit dem Klimawandel in Verbindung gebracht wurden,in diesen letzten Jahren. Was bitt ist “sagenhafter Schwachsinn” an der Aussage, dass man hier ein argumentatives Problem hat?

  23. #23 for4zim
    April 24, 2009

    Zu Jörg Friedrich 15:46: An der Stelle ist es auch ganz gut, auf eine Trivialität aufmerksam zu machen. Wenn man einmal einen statistisch signifikanten Trend hat, ist jeder Punkt, der nahe oder auf diesem Trend liegt, automatisch eine Bestätigung dieses etablierten Trends (“jedes weitere heiße Jahr…”) Da es eine gewisse Wahrscheinlichkeit dafür gibt, daß einzelne Punkte um einen gewissen Betrag vom Trend abweichen (erlaubte Streuung), sind aber einzelne Punkte, die mal nicht auf dem Trend liegen, für sich allein kein Beleg dafür, daß der Trend gebrochen ist. Dafür sind erst eine ganze Reihe Punkte nötig, bis man von einem signifikanten Trendbruch sprechen kann. Für alle Jahre in diesem Jahrtausend gilt, daß sie bislang statistisch gesehen trendbestätigend wirkten und selbst 2008 lag in der erlaubten Streuung, obwohl diese Jahre isoliert betrachtet keine signifikante Steigung ergeben. Es gibt also eine asymmetrische Situation, daß einzelne Ereignisse Trendbestätiger sind, weil der Trend ja schon etabliert ist, während einzelne Jahre keine Bestätiger eines Trendbruches sein können.

  24. #24 Jörg
    April 24, 2009

    @JörgR: Ich werde keine Zitate bringen für Dinge, die ich nicht behauptet habe. Es ging darum, dass in den letzten Jahren “jede einzelne” Wetter-Anomalie von Klimaforschern als Zeichen für die globale Erwärmung genommen wurde, nicht “alle”.

    Ach nicht alle, nur jede einzelne? Was ist denn eine Anomalie, die zwar eine einzelne ist, aber nicht zu allen gehört? Die leere Menge der Wetter-Anomalien? Langsam wird’s albern, oder?
    Im übrigen erschwert das natürlich Ihre Aufgabe: Um Ihre Behauptung zu belegen, reicht jetzt nicht mehr nur EIN Zitat, das behauptet dass alle Anomalien, nein jetzt müssen Sie dann bitte ALLE Zitate zu Wetter-Anomalien aufführen. Sollte wohl etwas dauern. Sie können natürlich auch endlich die krasse Diskrepanz zwischen Ihren Anforderungen an andere und Ihren eigenen Aussagen zugeben und Ihre eigene Behauptung durch ein Gegenbeispiel widerlegen.

    Gleichzeitig scheint sie sich in den letzten 10 Jahren nicht wesentlich verändert zu haben, gleichzeitig gab es eine Reihe von Wetterereignissen, die mit dem Klimawandel in Verbindung gebracht wurden,in diesen letzten Jahren.

    Och Moment, jetzt nur eine Reihe von? Nicht mehr alle, Entschuldigung, jedes einzelne? Ich denke, da sind aber alle, Entschuldigung, jeder Einzelne hier gespannt, was da in der zwischenzeit passiert ist. Etwa ein Kommunikationsproblem?

  25. #25 Georg Hoffmann
    April 24, 2009

    @Jörg Friedrich
    Schwachsinn ist es zu behaupten, dass irgendwer behauptet haette, die Temperaturen wuerden auf ewig und monoton steigen. Die (Scenario basierte) Prognose sieht eben genau so aus wie BIld 2. Die globale Temperatur ist dabei in der Tat einer (wenn nicht die) der besten Metriken, an der man den Klimawandel ablesen kann. Es gibt eben Dekaden (und mehr) mit T Stagnationen. Diese ganze Diskussion ist von a bis z nichts als cherry picking. Es gibt also kein Kommunikationsproblem (denn die Kurve aus Bild 2 ist nicht nur so aehnlich im IPCC enthalten, sondern in aehnlicher Form sogar in der Summary for Policymaker), es gibt nur das Problem, dass gezielt falsche Behauptungen aufgestellt und eine Strohmann basierte Diskussion herbeigebastelt wird.

  26. #26 lotma
    April 24, 2009

    @ Hoffmann,

    was halten Sie von der recht kritischen Stellungnahme der Polnischen Akademie der
    Wissenschaften zum vom Menschen durch CO2 verursachten Klimawandel ?
    Gerade dieser Tage veröffentlicht ?

    Das ist schon starker Tobak, oder ?

    Na ja, wie ich Sie kenne werden Sie das schon ins “rechte” Klimalicht rücken.
    Alles unseriöse, emeritierte Professoren oder so. Vielleicht sind die ja alle
    bestochen ?

    Es werden mehr und mehr, die der Klimahysterie den Rücken kehren !

  27. #27 Krishna Gans
    April 24, 2009

    @Jörg Friedrich
    Da gibt es ein Problem:
    wer wider dem Stachel löckt, der da heißt AGW, diesen nicht wie vorgekaut akzeptiert macht sich hier zumindest 2 Feinde, deren Rabulistik man am besten ignoriert.
    Man muß ohne Ecken formulieren, damit man keine Angriffsfläche bietet, zu rund darf es auch nicht sein, sonst wirkt man hier schwammig, ohne Aussage, so nach dem Motto, was soll diese Aussage eigentlich.
    Man soll sich grundsätzlich vorher überlegen, was könnte ein böswilliger ( die sind hier ! ) “Diskussions”-“Partner” ( Gegner wäre treffender ) aus meiner Aussage machen, wie könnte er sie verdrehen, welche Teilzitate könnte er gegen mich verwenden.

    Auch Kramm aus Fairbanks ist für die Blogger hier ein Gegner.
    https://www.gi.alaska.edu/~kramm/

    Nichts fürchten die hiesigen “Größen” mehr als Leute mit Sachverstand – dann geht aber hier die Post ab !
    Also, “fasten seat belts” , noch geht es “halbwegs” gesittet zu, daß bleibt nicht so
    ;.)

  28. #28 Krishna Gans
    April 24, 2009

    @lotma
    hast Du da mal einen Link, bitte ?

  29. #29 Georg Hoffmann
    April 24, 2009

    @lotma
    Ich haette natuerlich so gerne ein Meinung zu Aussagen der polnische Akademie der Wissenschaften, aber erstens hat dieser Post ein Thema. Warum es also nicht mal respektieren for a change? Und zweitens, muss ich das kennen?

  30. #30 Krishna Gans
    April 25, 2009

    @lotma
    Sorry, bin selbst fündig gworden :=)

    The PAN Committee of Geological Sciences believes it necessary to start an interdisciplinary research based on comprehensive monitoring and modelling of the impact of other factors – not just the level of CO2 – on the climate. Only this kind of approach will bring us closer to identifying the causes of climate change.

    Das ist ein sehr vernünftiger Ansatz, der im Gegensatz zum “about” des IPCC steht, der nur die wissenschaftliche Literatur des “human impact” auf das Klima sichtet, untersucht und auswertet, natürlich sachlich und vor allen Dingen neutral, die Wertungen “natürlich” und “vor allesn Dingen” stammen selbstverfreilich von mir und nicht von der der IPCC Homepage.
    Diese Forderung kann man eigentlich nur unterstützen, dann käme man vielleicht mal drauf, andere Meinungen zu hinterfragen, statt sie nur als “paßt nicht zum Konsens”, folglich falsch, von Rentnern formuliert, “ach, Du stellt die ganze Wissenschaft in Frage”, Lobbyist oder was den Damen / Herren “Ich bin auch Wissenschaftler, stell Dir vor” sonst noch so alles aus der Giftspritze schießt.
    Aber ich weiß, ich mach mir was vor, denn zumindest hier, mit diesen “Protagonisten” ist das ein Ding der Unmöglichkeit.
    Aber was soll’s, Scienceblogs ist eben mit diesen Leuten verbandelt, sie sollten sich besser Sciencetrolls nennen – zumindest hier bei den “Klimatistikern”.

    Anders ausgedrückt, Fundamentalisten schaden jeder Religion, auch der des “A”GW.
    Gute Nacht für hier und heute.

  31. #31 Krishna Gans
    April 25, 2009

    Ei vorbübsch nochemol, hab ich doch den Link vergessen:
    staff.livjm.ac.uk/spsbpeis/PAS.htm

  32. #32 Georg Hoffmann
    April 25, 2009

    @Gans
    Ich habe nicht den Rest des Texts gelesen (der Link funktioniert nicht), aber wenn das die Quintessenz des Textes der polnischen Akademie der Wissenschaften sein soll, dann dokumentiert das einfach nur, dass sie nicht up-to-date sind.

  33. #33 Krishna Gans
    April 25, 2009

    @Hoffmann
    Wenn der blöde Filter nicht wäre…..
    setze einfach “www” in die Adresszeile des Browsers Deiner Wahl, kopiere die o.g. Adresse rein, “http” sollte automatisch ergänzt werden, und schwupp…..

    Aber wenn der Browser wie Deine Tastatur arbeitet, ich sage nur “sz”
    🙂
    Das lernst Du nie, oder ?

  34. #34 lotma
    April 25, 2009

    hier ein Link für alle :

    https://www.klimanotizen.com

    Warum hat das nichts mit dem Thema zu tun ?

    Die polnischen Wissensschaftler stehen zu einer anderen Haltung, als die :
    “ganz echt jetzt, hält die Erwärmung aber wirklich wirklich an”.

    Wenn damit nicht die antropogene Erwärmung durch CO2 gemeint ist, nehme ich alles zurück !

  35. #35 Ebel
    April 25, 2009

    Das Wetter ist ein Prozess mit vielen Einflüssen und Chaoswirkungen (kleine Ursachen haben große Auswirkungen). Aber oft hat das Chaos einen Fixpunkt, um den sich das Chaos zeigt. Und beim Wetter ist der Fixpunkt das Klima bzw. der Klimatrend.

    Wegen der Absorption und der Eigenstrahlung der Treibhausgase in der Atmosphäre (die sogar Kramm bestätigt https://www.scienceblogs.de/primaklima/2009/03/chronik-eines-angekundigten-skandals-gerlich-und-tscheuschner-wurden-peerreviewt.php#comment31775

    … [Die -JE] Gegenstrahlung der Atmosphaere …, stammt im wesentlichen …

    kann die Entwicklung dieses Fixpunktes mit den Labordaten berechnet werden.

    Und irgendwelche Fehlinterpretationen der Meßwerte usw. können keine Naturgesetze außer Kraft setzen.

    Es bleibt also dabei:
    Der Treibhauseffekt ist real.

    MfG

  36. #36 Georg Hoffmann
    April 25, 2009

    @lotma

    Warum hat das nichts mit dem Thema zu tun ?

    Also fuer mich lautet das Thema hier zB Natuerliche Variabilität vs Forcierter Trend, wie kann man das Signal im Rauschen erkennen? So in etwa. Die Art und Weise wie die polnische Wissenschaft in Zukunft die Geowissenschaften organisieren will, waere mir jetzt nicht direkt in den Sinn gekommen. Aber ich bin hier ja mittlerweile viel gewohnt.

  37. #37 Krishna Gans
    April 25, 2009

    @GHoffann
    Das wäre dann eben die natürliche Variabilität:

    Seit dem 1. März liegen die Lufttemperaturen am absoluten Minimum und sind seitdem nicht oberhalb der minus 50-Grad-Marke (Celsius) gestiegen“, sagte Martjanow. Ihm zufolge werden 68 bis 74 Grad unter Null gemessen.

    Solche Temperaturen im Raum der Polarstation Wostok seien nicht für die jetzige Herbstzeit, sondern eher für den Winter typisch, sagte der Experte.

    „Die in diesem Jahr registrierten Angaben sind ein weiterer Beweis dafür, dass die Temperaturdynamik sich nicht zugunsten einer globalen Klimaerwämung entwickelt, von der zurzeit so viel geredet wird“, so Martjanow.

    de.rian.ru/science/20090423/121275330.html

    Irgendwie haben die im Osten eine etwas andere Sichtweise, auch scheint es, daß sie sich mehr um Meßdaten als um “rauschende” Modelle kümmern.
    Ich weiß, bevor so ein Schlaumeier kommt, die Meßwerte rauschen, die Modelle schnurren nur, so runter.

  38. #38 Krishna Gans
    April 25, 2009

    Das hat leider mit der Formatierung nicht so hingehauen,
    das Zitat endet mit “Martjanow”
    Schön wie er das formuliert :
    …sind ein weiterer Beweis,……
    ;.)
    Ich weiß, liebe Blobetreiber und Co, der ist Rentner und Öl-Lobbyist…etc, na eben blöd, nicht aus dieser Zeit……

  39. #39 Krishna Gans
    April 25, 2009

    @Ebel
    Sind wir hier in einem Kindergarten ?
    Schön, wir wissen jetzt, daß Sie eine Floskeltaste programmieren können, und nu ?

  40. #40 Krishna Gans
    April 25, 2009

    @GHoffmann
    Sind die Herren Rahmstorf und Co nicht gerade in Wien und und zeigen sich als “besorgte “Comunity” überfordert über die teilweise dahinschmelzende Antarktis ?
    Jetzt scheint mir klar zu sein, was sie zu diesem Thema getrieben hat.

  41. #41 Georg Hoffmann
    April 25, 2009

    Gans
    ich werde mir mal die Vostok Daten anschauen. Wie immer bestehen sehr gute Chancen, dass nichtmals das Fakt stimmt (geschweige denn die Interpretation).
    Martjanows Behauptung die Messergebnise in diesem April stuenden in irgendeinem Zusammenhang (bestaetigend oder das Gegenteil) mit der Klimaerwaermung ist voellig Gaga. “Zu Beginn der Woche hat es Rekord Temperaturen im frz Baskenland gegeben. Damit ist die Klimaerwaermung endlich bewiesen”. Man den Eindruck du lernst nichts dazu.

    Der Artikel hier berichtet von Daten (Bild 1) und warum die Modelle aehnliches Verhalten zeigen. “Die im Osten” ticken genauso wie “die im Westen” solange sie Wissenschaft machen. Sie haben allerdings keine Klimamodelle, weil sie weder die Mittel noch die Computer haben. Das wird sich aber in Kuerze aendern.

  42. #42 Krishna Gans
    April 25, 2009

    @GHoffmann

    Sie haben allerdings keine Klimamodelle, weil sie weder die Mittel noch die Computer haben. Das wird sich aber in Kuerze aendern.

    An welche Bedingungen werden denn mögliche Geldgaben / Sachgaben geknüpft ??
    ;.)

  43. #43 Krishna Gans
    April 25, 2009

    @GHoffmann

    Martjanows Behauptung die Messergebnise in diesem April stuenden in irgendeinem Zusammenhang (bestaetigend oder das Gegenteil) mit der Klimaerwaermung ist voellig Gaga

    Stimmt, die allgemeine Verunglimpfung habe ich vergessen…

  44. #44 Georg Hoffmann
    April 25, 2009

    @Gans

    An welche Bedingungen werden denn mögliche Geldgaben / Sachgaben geknüpft ??

    Ob ein Staat sich ein Klimamodell leisten kann, ist eine Frage des allgemeinen Forschungsniveaus, der “Tradition” der Meteorologie in einem Land und eben auch des Geldes. Obendrein wurde den Russen (und wird moeglicherweise) oder den Chinesen keine NEC oder CRAY verkauft.

    Stimmt, die allgemeine Verunglimpfung habe ich vergessen…

    Es wird nicht besser, wenn ich es netter sage. Wenn nun gerade absolute Rekordtemperaturen in Vostok herrschen wuerden und Martjanow sich hinstellte ,dies sei ein Beweis fuer die rapide Klimaerwaermung, dann wuerde er genauso Mist erzaehlen wie er es jetzt mit einem umgekehrten Vorzeichen tut.

  45. #45 Krishna Gans
    April 25, 2009

    @GHoffmann
    Ist schon klar, daß jeder der den geringsten Zweifel an dieser Hypothese äußert nur Mist erzählen kann, daß ist mittlerweile verstanden daran habe ich auch nicht gezweifelt.
    Aber es gibt sie Zweifeler trotzdem, und weniger werden sie auch nicht.
    Sie lassen sich nicht mit einer Ebelschen Floskeltaste das Hirn zukleistern.

  46. #46 Georg Hoffmann
    April 25, 2009

    @Gans

    Aber es gibt sie Zweifeler trotzdem,

    Natuerlich gibt es die, genau wie AIDS aus einem Waffenlabor stammen soll und die Erde 6000 Jahre alt ist. Dass es solche Meinungen gibt, bezweifelt niemand. Was aber sagst du zu der Qualitaet des wissenschaftlichen Arguments, dass jemand einen kalten Maerz in Vostok fuer “ein weiterer Beweis (haelt), dass die Temperaturdynamik sich nicht zugunsten einer globalen Klimaerwämung entwickelt”. Ach ich vergass. Du wuerdest es noch als Triumph des kritischen Denkens halten, wenn Paris Hilton eine Erkaeltung am Strand von Malibu im Tanga den ungewoehnlich kalten kalifornischen Maerz Temperaturen und somit dem ausbleibenden Klimawandel zuschriebe

  47. #47 IqRS
    April 25, 2009

    Krishi, hat dich die Wirtschaftskrise getroffen oder warum hast so viel Zeit um alle Foren vollzuspammen? Wie lange beschäftigst du dich eigentlich schon mit dem Klima? Okay, du bist nicht der schnellste, aber trotzdem solltest du doch langsam in der Lage sein, Pressetexte auch ein wenig selber einschätzen zu können. Wenn du noch nicht so weit bist, ich hab Verständnis dafür.

  48. #48 Georg Hoffmann
    April 25, 2009

    @Gans
    Hier sind schonmal die Maerz Temperaturen aus Vostok:
    https://www.scienceblogs.de/primaklima/Vostok.jpg
    Ein klarerer Beweis fuer die globale Abkuhlung und gegen die Existenz von Treibhausgasen hat es nie gegeben.

    https://www.scienceblogs.de/primaklima/Vostok.jpg

  49. #49 Wolfgang Flamme
    April 25, 2009

    Georg,

    zu Bild 2 und Deinem zugehörigen Kommentar:

    Die Frage beim Trend ist doch nicht, ob es Phasen von Stagnation oder geringfügiger Abkühlung gibt bzw auch künftig geben wird (das überlassen wir doch eher den Regressionsclowns) … sondern ob diese statistisch signifikant, also wahrscheinlich kein Resultat zufälliger Fluktuationen sind.

    Bei Bild 2 habe ich erstmal nicht den Eindruck, daß man im Verlauf Abschnitte finden wird, die einen signifikant negativen Trend aufweisen.

  50. #50 Georg Hoffmann
    April 25, 2009

    @Flamme
    Der Eindruck taeuscht.
    zB hier bei den B1 Laeufen mit dem MPI Modell
    https://www.scienceblogs.de/primaklima/CRUB1MPI5.jpg
    und weitere Abb hier auch fuer das A2 Scenrio
    https://www.scienceblogs.de/primaklima/2008/07/die-mar-von-der-beendeten-erwarmung-und-den-modellen-die-etwas-vorhersagen.php
    Signifikant sind die Trends in der Tat dann, wenn man von einer reinen Gausschen Verteilung (also keinerlei Autoregression) ausgeht, was falsch ist.
    Mir ging es hier ausschliesslich darum festzuhalten, dass man immer negative dekadische ( und sogar laenger als dekadische ) Trends herauspicken kann.

  51. #51 Krishna Gans
    April 25, 2009

    @IqRS
    Was ich wann wie und warum einschätze oder auch nicht, will oder auch nicht, hat für Dich sowas von uninteressant zu sein……….

  52. #52 Krishna Gans
    April 25, 2009

    @GHofmann

    Letzter Stand: 3 hr 28 min 44 sec ago
    This station is not reporting!
    Overcast
    -73 °C
    Bedeckt
    Feuchtigkeit: 29%
    Taupunkt: -76 °C
    Wind: 11 km/h / from the Sued-SuedWest
    Windböen: –
    Druck: hPa (Druck fallend)
    Sicht: 20.0 Kilometer
    UV: 0 out of 16
    Elevation: 3420 m

    wunderground.com/global/stations/89606.html

    Ich weiß, gefälscht, von Rentnern erstelt, blah blah blah

  53. #53 Krishna Gans
    April 25, 2009

    5 Tagevorhersage Customize Your Icons!
    Sonntag Montag Dienstag Mittwoch Donnerstag
    Bedeckt
    -53° C | -72° C

    Teils wolkig
    -50° C | -63° C

    Bedeckt
    -47° C | -63° C

    Heiter
    -49° C | -65° C

    Schnee möglich
    -46° C | -58° C

    Die selbe Quelle

  54. #54 Georg Hoffmann
    April 26, 2009

    @Gans

    Ich weiß, gefälscht, von Rentnern erstelt, blah blah blah

    Eher von nem Rentner in einen Zusammenhang gebracht, der nicht existiert.
    Anscheinend ist es jetzt nicht nur ein Monatsmittel an einem Ort auf der Welt, der “”ein weiterer Beweis (darstellen soll), dass die Temperaturdynamik sich nicht zugunsten einer globalen Klimaerwämung entwickelt”.” sondern die Temperatur an einem Ort jetzt genau in diesem Augenblick. Wie schnelllebig doch alles geworden ist.
    Ferner gibt es an einem Ort wie Vostok keinen Forcast, der das Wort verdient. Aber nehmen wir mal die 5 Tages Vorhersage als echten Wert, so kommt man auf eine Mitteltemperatur von -56.6°C. Das ca 40 jaehrige Langzeitmittel fuer den April in Vostok betraegt -57.8°C. Was folgern wir daraus?
    1) Du bist anscheinend darueber ueberrascht, dass es in der Antarktis sehr kalt ist. Ich darf dir aus der schmerzvollen Erfahrung zweier fast abgefrorener Nasenfluegel sagen: Jo, so ist das.
    2) Offensichtlich liegt das 5 Tages Mittel der naechsten Tage satte 1.2°C ueber dem langzeitlichen Mittel. Ich schliesse daraus, dass die Erwaermung in der Antarktis, ach was global, voellig unterschaetzt wurde und nun anscheinend ausser Kontrolle geraten ist.
    Gans-heitliche Logik

    Ouups, sehe gerade, dass ich das Maerz-Mittel genommen habe (die obigen -57.8°C). April ist natuerlich noch kaelter, naemlich -64.7°C. Das heisst wir erleben mit den Temperaturen, die der Herr Gans oben gepostet hat, eine Hitzewelle in Vostok.

    5 Tagevorhersage Customize Your Icons! Sonntag Montag Dienstag Mittwoch Donnerstag Bedeckt -53° C | -72° C Teils wolkig -50° C | -63° C Bedeckt -47° C | -63° C Heiter -49° C | -65° C Schnee möglich -46° C | -58° C

    Die Temperaturen in Vostok finden sich hier auf der GIST Seite:
    https://data.giss.nasa.gov/work/gistemp/STATIONS//tmp.700896060008.1.1/station.txt

  55. #55 Wolfgang Flamme
    April 26, 2009

    @Georg

    Bevor ich auf die Antwort näher eingehe, eine Frage: Im Beitrag ‘Die Mär von der beendeten Erwärmung..’ stellst Du die Sache recht unkompliziert dar: CMIP3-Account und los geht’s.

    Ich habe trotz längerer Suche dort immer nur Daten im Rasterformat (netCDF gridded) finden können, was die Umrechnungen in globale Zeitreihen ziemlich umständlich und zeitraubend macht. Habe ich dort eine Quelle für räumlich vorverdichtete, globale Daten übersehen, kannst Du mir da weiterhelfen?

  56. #56 Georg Hoffmann
    April 26, 2009

    @Wolfgang
    Ich habe die vollen Felder runtergezogen und die Flaechenmittel selber ausgrechnet (cdo Routinen). Das ist einfach solange man grosse Festplatten hat.
    Hier finden sich bereits gemittelte Serien beim KNMI. Ich habe sie aber selber nicht benutzt und kann nichts weiter dazu sagen.
    https://www.knmi.nl/~oldenbor/

  57. #57 Wolfgang Flamme
    April 26, 2009

    Ich finde auf dieser Unterseite nichts in der Art (mehr). Muß ich mir wohl selbst die Arbeit machen; Danke trotzdem.

  58. #58 Georg Hoffmann
    April 27, 2009

    @Flamme
    Ich weiss ja nicht genau, was du suchst, aber wenn auf dieser Seite zum Login gehst (fuer mich ergab das dann folgenden Link:
    https://climexp.knmi.nl/start.cgi?Georg.Hoffmann@lsce.ipsl.fr
    bekommst du auf dem Menu rechts die verschiedenen Felder der verschiedenen Modelle unter “monthly scenario runs” (auch bereits gemittelte Felder).
    Ob das Resultat dann stimmt, weiss ich nicht, aber erstmal spricht nichts dagegen.

  59. #59 Wolfgang Flamme
    April 27, 2009

    Danke Georg, hab’s mit Deiner Hilfe gefunden. Hat allerdings nichts mit der verlinkten pers. Homepage zu tun sondern ist Bestandteil der Hauptseite.

    Ganz ausgereift scheint mir die Verdichtung allerdings noch nicht zu sein, ob’s trotzdem für meine Zwecke langt muß sich noch zeigen.

  60. #60 Georg Hoffmann
    April 27, 2009

    @Flamme

    Hat allerdings nichts mit der verlinkten pers. Homepage zu tun sondern ist Bestandteil der Hauptseite.

    Nichts, ausser dass dieser freundliche Mensch, Mijnheer Oldenburg, fuer die Datenbank verantwortlich ist und du ihn fragen solltest, wenns wieder nicht klappt. Und vielleicht noch, dass du folgenden Text auf der Webseite dort findest:

    A tool I developed for these projects is the KNMI Climate Explorer, which allows anyone to correlate station data, climate indices, observations, reanalysis fields, past seasonal forecasts and climate change experiments.

    Mit Link natuerlich.
    Sonst hat das aber nichts miteinander zu tun. Sorry.

  61. #61 gert
    April 28, 2009

    Kann mir mal jemand erklären, wie die beiden folgenden Zitate zusammenpassen?

    “Die Klimaerwärmung läuft nicht monoton ab und zehn bis zu zwanzig Jahresabschnitte geben nur einen Schnappschuss der ablaufenden Aenderungen.”

    “Alle IPCC Berichte sprechen von einem aus dem Rauschen der natürlichen Klimaforcings (Sonne, Vulkane, interne Variabilität) herausragenden Signal seit ungefähr den 1970er Jahren. “

  62. #62 Jörg Zimmermann
    April 28, 2009

    @gert:
    Die beiden Zitate ergänzen sich, wobei der erste Satz vielleicht mißverständlich ist. Man kann sich die globale Temperatur als eine Überlagerung verschiedener Funktionen vorstellen. Da sind z.B. verschiedene Schwingungen überlagert, bei denen Wärme zwischen verschiedenen Kompartimenten der Ozeane und der Atmosphäre verteilt wird und Wärme manchmal effektiver und manchmal nicht so effektiv in tiefere Schichten transportiert wird. Das findet auf Zeitskalen von einigen Jahren statt. Ab und zu gibt es einen etwas stärkeren Vulkanausbruch in relevanten Breiten, das kann für 1 bis 2 Jahren eine Abkühlung verursachen. Die Sonnenaktivität schankt über 10 – 12 Jahre hinweg. Die Albedo der Erde wechselt z.B. mit der Schnee- und Eisbedeckung, was unterjährig Variation erzeugen kann. Noch schneller sind Einflüsse, die man als eigentliches globales Wetter ansehen kann: großräumige Häufungen von Frontensystemen oder deren Fehlen, stärkere oder schwächere Monsune usw. Alle diese Variabilität überlagert sich und führt zu einem Auf-und Ab der globalen Temperatur, meist im Bereich einiger 100stel Grad, manchmal bis zu 2 Zehntel Grad (von Jahr zu Jahr) oder einigen Zehntel Grad (Monat zu Monat). Langfristig, wenn man über einen Zeitraum von z.B. 30 Jahren mittelt, kann man diese ganze Variabilität der globalen Temperatur aufgrund solcher natürlichen Einflüsse zu fast Null herausmitteln.
    Daneben kann es längerfristige unterliegende Trends geben, die sich nicht über 30 Jahre herausmitteln lassen. Z.B. wenn es mal eine Häufung von Vulkanausbrüchen (im 19. Jahrhundert), mal ein relatives Fehlen (1. Hälfte 20. Jahrhundert) gibt oder die solare Aktivität über einen größeren Zeitraum eine Drift zeigt (wahrscheinlich über die erste Hälfte des 20. Jahrhunderts). In diesem Fall ist ein von äußerem Antrieb unterlegte Temperaturdrift vorhanden. In diesem Sinne ist auch die anthropogene globale Erwärmung ein langfristiger Trend, dessen ungefähre Größe wir mit Hilfe der Modelle abschätzen können. Derzeit sollte dieser Trend im Bereich von 0,015 Grad pro Jahr liegen (kann auch 0,012 oder 0,018 Grad/Jahr sein, weil man z.B. die Stärke der maskierten Erwärmung aufgrund von Aerosolen nur sehr grob schätzen kann).
    Wenn die natürliche Variabilität von Jahr zu Jahr bis in den Bereich von 0,2 Grad gehen kann, sich aber nach z.B. 30 Jahren zu fast Null wegmitteln läßt, andererseits aber der unterliegende anhaltende Trend der anthropogenen Erwärmung im Bereich von 0,015 Grad/Jahr liegt, kann man leicht erkennen, daß über wenige Jahre hinweg die Variabilität groß gegen diesen Trend ist – der Trend ist verrauscht, verdeckt. Über 30 Jahre hinweg aber wächst das anthropoegene Signal in die Größe von 0,45 Grad und ist nun groß gegen die natürliche Variabilität. Wir können also für den Zeitraum 1970 – 2008 einen klaren Erwärmungstrend erkennen und mit der Zuordnung der verschiedenen möglichen Antriebe (insbesondere Vulkane, Sonne, infrarotaktive Gase, Aerosol) natürliche Ursachen ausschließen und für den beobachteten Trend menschengemachten Ursachen annehmen.
    Wann man genug Jahre zusammen hat, daß der langfristige Trend größer ist als die natürliche Variabilität, kann man mit statistischen Verfahren bestimmen (z.B. Vertrauensbereich der Parameter der linearen Regression bestimmen, F-Test für die berechnete Korrelation usw.). Dabei stellt man fest, daß gegenwärtig Trends erst mit 24 oder mehr Jahren an Daten signifikant werden, vorher ist das Rauschen auf den Temperaturdaten (die natürliche Variabilität, das globale Wetter) zu stark.
    Daher ist es also korrekt, wenn der erste Satz davon redet, daß 10 oder 20 Jahresabschnitte nur Schnappschüsse sind, in denen die unterliegende Erwärmung verdeckt sein kann, der zweite Satz aber erklärt, daß es ein herausragendes Signal anthropogener Erwärmung seit den 1970er Jahren gibt.

  63. #63 Mathias
    April 28, 2009

    Wow, danke für die prompte und detaillierte Antwort.
    Habe einige Fragen dazu:
    Geht man in der Klimaforschung von einer konstanten natürlichen Volatilität aus? Ist das empirisch gestützt?
    Versehe ich es richtig, dass die von dir genannten Verfahren mit der Standardabweichung arbeiten?
    Wenn man zum Beispiel (wie momentan in der Finanztheorie beliebt) genug dicke “Fat Tails” machen würde, würde der Erwärmungstrend verschwinden.
    Versteh mich jetzt bitte nicht falsch: Ich will nicht behaupten, dass die globale Temperaturverteilung “Fat Tails” besitzt. Ich würde nur gerne wissen, aus was für Gründen man die Normalverteilung verwendet.

  64. #64 Wolfgang Flamme
    April 28, 2009

    JZ: “(…) kann man leicht erkennen, daß über wenige Jahre hinweg die Variabilität groß gegen diesen Trend ist – der Trend ist verrauscht, verdeckt.”

    Nun, wenn es also geboten ist, den Zeitraum der Beobachtung möglichst groß zu wählen, um natürliche Fluktuationen weitestgehend auszublenden, dann landen wir aber nur bei einem Trend von knapp +0,006°C/Jahr (GISS, HADCRUT).

    Aus dieser Sicht, die ja eigentlich nochmals deutlich präzisere Aussagen erlauben sollte, ist es völlig ungerechtfertigt, einen Trend von +0,015°C/Jahr zu unterstellen – das ist lediglich das Resultat einer natürlichen Fluktuation.

    Oder hab’ ich jetzt was falsch verstanden?

  65. #65 Georg Hoffmann
    April 28, 2009

    @Flamme

    Oder hab’ ich jetzt was falsch verstanden?

    Ich denke schon. Was will man denn nun zeigen mit so einem Trend? Vergleichst du das beste IPCC Verstaendnis fuer die verschiedenen Forcings, so sind bis in die 50er die verschiedenen Forcings von ungefaehr gleicher Groessenordnung. Ein Trend von 1870-1960 gibt dir also eine Temperaturaenderung als Reaktion auf ein sehr schlecht bekanntes Forcing an. Einige positiv, einige auch negativ, was die Sache zusaetzlich verschlimmert. Ab den 70er kommt das Signal immer mehr aus dem Rauschen heraus und man kann erste Abschaetzungen zu Klimasensitivaet machen. Nichtsdestotrotz bleiben die 40 Jahre global warming noch sehr sehr kurz um etwas ueber die Zukunft zu sagen oder etwa zu entscheiden welche Modelle denn nun die “besten” sind. (“beste” in Anfuehrungszeichen, weil wir mit der Global Temperatur nur eine, wenn auch wichtige Metrik abschauen).

  66. #66 Jörg Zimmermann
    April 28, 2009

    @Mathias:
    Vorweg: ich bin Chemiker (frühere Forschung in Atmosphärischer Chemie) und beschäftigte mich mit dem Klima auch nur auf einem laienhaften Niveau. Wenn ich nur einfache Mittel einsetze (lineare Regression, Pearson-Korrelationskoeffizient und entsprechende Statistiken, die auf der Normalverteilung basieren), dann ist das teilweise deshalb, weil ich mit anderen Instrumenten, die z.B. die Autokorrelation in den Daten berücksichtigen würde, nicht vertraut bin. Ich müßte das alles erst nachschlagen. Dazu kommt, daß es meist den Aufwand nicht lohnt, weil ja die Daten relativ zum Trend über die betrachteten Zeiträume stark verrauscht sind und mir für meine Zwecke grobe Schätzungen für den Trend ausreichen. Für “fat tails” in den Daten sehe ich keinen Grund. Es sind aus Stationsdaten abgeleitete Gebietsmittel, die sollten sich statistisch gutartig verhalten und keine hohe Kurtosis haben. Man sieht es auch nicht in den vorliegenden Zeitreihen.

    @Wolfgang Flamme:
    Ich verweise auf den Begriff der Angemessenheit. Was ist ein angemessener Zeitraum, um einen Trend zu bestimmen? Lang genug, damit der Trend signifikant ist, andererseits aber auch kurz genug, um sich auf den Zeitraum zu konzentrieren, für den man einen bestimmten Effekt bestimmen will. 30 Jahre sind schon ein guter Zeitraum, um zu schauen, wie stark die globale Erwärmung in der jüngeren Vergangenheit war. Kürzer wäre noch besser, aber dazu sind die Daten zu verrauscht. 100 Jahre sind ein weniger sinnvoller Zeitraum, weil sich der Klimaantrieb in diesem Zeitraum recht stark geändert hat und eine Linearisierung nicht mehr sinnvoll ist, und bei der einfachen linearen Regression mache ich ja genau die Annahme, daß mein Trend wesentlich linear ist.

  67. #67 Jörg Zimmermann
    April 28, 2009

    “Man sieht es auch nicht in den vorliegenden Zeitreihen.” Um jedes Mißverständnis auszuschließen – sie ist über fast jeden Zeitraum negativ für die vorliegenden Daten.

  68. #68 Wolfgang Flamme
    April 28, 2009

    JZ: “Was ist ein angemessener Zeitraum, um einen Trend zu bestimmen? Lang genug, damit der Trend signifikant ist, andererseits aber auch kurz genug, um sich auf den Zeitraum zu konzentrieren, für den man einen bestimmten Effekt bestimmen will.”

    Tja, da scheiden sich die Geister schnell. Denn statistisch signifikant abwärts deutet er ja tatsächlich seit einigen Jahren. Dh nach dieser Definition wäre er damit eigentlich ‘lang genug’, genau das wird aber bestritten.

    Letztendlich läuft es darauf hinaus: a) Die Zeit vor 1970 giltet lt. Georg irgendwie nicht wirklich und b) statistische Signifikanz hin oder her, der Zeitraum muß auf jeden Fall deutlich länger gewählt werden als die Zeit, über die man den Abkühlungstrend der letzten Jahre hat beobachten können, so daß in den jüngsten Trend noch ausreichend vorhergehende Erwärmung mit einfließt.

    Nüchtern frage ich mich da, welche jüngste Temperaturentwicklung mit dieser flexiblen Definition denn wirklich unvereinbar wäre; eine Art globales “Day After Tomorrow” vielleicht?

    Verzeihung, so geht’s einfach nicht. Da besteht auf beiden Seiten der Debatte ein starkes Bestreben, die eigenen Überzeugungen mit willkürlichen Dateninterpretationen zu hinterfüttern (‘globale Trendwende’ vs. ‘voll im Trend’). Ich finde beides gleichermaßen irrational; kann man nicht einfach weiter beobachten und dann mit wirklich hoher Sicherheit entscheiden? … und sitze damit natürlich zwischen allen Stühlen.

  69. #69 Jörg Zimmermann
    April 29, 2009

    “Tja, da scheiden sich die Geister schnell. Denn statistisch signifikant abwärts deutet er ja tatsächlich seit einigen Jahren.” Wie bitte? Aber mal bitte ganz schnell nachrechnen! Nach welcher Statistik denn? Welches Signifikanzniveau? Welcher Zeitraum?

  70. #70 Jörg Zimmermann
    April 29, 2009

    “Tja, da scheiden sich die Geister schnell. Denn statistisch signifikant abwärts deutet er ja tatsächlich seit einigen Jahren.” Wie bitte? Aber mal bitte ganz schnell nachrechnen! Nach welcher Statistik denn? Welches Signifikanzniveau? Welcher Zeitraum?

  71. #71 Wolfgang Flamme
    April 29, 2009

    @Jörg Zimmermann

    Also ein gleichberechtigtes und über die gemeinsame Zeitspanne offsetbereinigtes Mittel aus HADCRUT3, GISS, RSS-MSU und UAH-MSU, jeweils Monatsanomalien, ist mW seit etwa Mitte 2001 signifikant, auf 5% Signifikanzniveau oder – mit etwas späterem Startpunkt – besser. Wirklich wichtig ist ja auch nicht, daß der Trend negativ sein muß, es reicht ja, wenn er sich statistisch signifikant von der bisherigen Entwicklung und ihrem Konfidenzintervall unterscheidet, damit man eine (mögliche) Trendwende unterstellen kann. Die Annahme, daß künftig mit ständig steigenden Temperaturen zu rechnen sei, ist auch mit einer reinen Seitwärtsbewegung auf Dauer unvereinbar.

    Der betrachtete Zeitraum ist dabei ja nebensächlich, denn er wird ja anhand der Signifikanzkriterien definiert – JZ: “Was ist ein angemessener Zeitraum, um einen Trend zu bestimmen? Lang genug, damit der Trend signifikant ist (…)”.

    Natürlich stellt sich gerade bei kurzen Zeiträumen die Frage, inwieweit eine Autokorrelation Trendstärke und Signifikanz des trivialen Regressionsansatzes beeinflußt. Da wird’s aber schwierig, denn dazu müßten wir uns zuvor auf ein Modell einigen.

    Deshalb einfach nochmal die Frage, welches Problem es dabei gibt, die weitere Entwicklung für ein paar weitere Jahre abzuwarten, bevor man so vehement Position bezieht? Es steht jedem doch frei, eine Prognose abzugeben und diese Vermutung zu begründen. Aber bis sich schließlich die Wahrheit herauskristallisiert, sollten beide Positionen einander zugutehalten: “The absence of evidence is not the evidence of absence”. So wäre es wissenschaftlich korrekt.

  72. #72 for4zim
    April 29, 2009

    “Also ein gleichberechtigtes und über die gemeinsame Zeitspanne offsetbereinigtes Mittel aus HADCRUT3, GISS, RSS-MSU und UAH-MSU, jeweils Monatsanomalien, ist mW seit etwa Mitte 2001 signifikant, auf 5% Signifikanzniveau oder – mit etwas späterem Startpunkt – besser. ”

    Falsch! Was haben Sie wie berechnet? Eine Mittelwertbildung aus den verschiedenen Zeitreihen bringt wenig, da diese Zeitreihen hochkorreliert sind. Und wenn Sie Monatsmittel statt Jahresmittel nehmen, haben Sie eine deutlich höhere Autokorrelation der Daten, die Sie berücksichtigen müßten. Sie wollen wissen, welches Modell man da verwenden soll? Welches Modell haben Sie denn verwendet? Haben Sie die Signifikanz mit einer F-Statistik bestimmt? Dann geben Sie doch bitte den F-Wert an, den Sie da herausbekommen haben wollen. Oder was haben Sie berechnet?

    Abzuwarten braucht niemand – wir haben genug Daten vorliegen, wir haben eine Theorie und wir haben Modellrechnungen, die die Theorie umsetzen. Auf was wollen Sie da warten? Daß die Realität Ihnen den Gefallen tut, sich dahin zu ändern, wo Sie es gerne hätten? Das wird jetzt aber absurd hier!

  73. #73 Krishna Gans
    April 29, 2009

    We test the scaling performance of seven leading global climate models by using detrended fluctuation analysis. We analyze temperature records of six representative sites around the globe simulated by the models, for two different scenarios: (i) with greenhousegas forcing only and (ii) with greenhousegas plus aerosol forcing. We find that the simulated records for both scenarios fail to reproduce the universal
    scaling behavior of the observed records and display wide performance differences.
    [..]
    The deviations from the scaling behavior are more pronounced in the first scenario, where also the trends are clearly overestimated.
    [..]
    It is possible that the lack of long-term persistence is du to the fact that certain forcings such as volcanic eruptions or solar fluctuations have not been incorporated in the models.
    [..]
    Since the models underestimate
    the long-range persistence of the atmosphere and overesti-
    mate the trends, our analysis suggests that the anticipated
    global warming is also overestimated by the models.

    von der Seite:
    uni-giessen.de/physik/theorie/theorie3/publications/publications2002.html
    uni-giessen.de/physik/theorie/theorie3/publications/PRL-2002-1.pdf
    CO-Autor Schellnhuber, und, wo steht das im IPCC ??
    ;.]
    Überschätztes Global Warming in den Modellen – von Schelli, dem GröKliBer.

  74. #74 Wolfgang Flamme
    April 30, 2009

    @for4zim

    Es ist ja schon einige Zeit her und meine Formulierung war leider auch unrichtig, also:

    – Ich habe zuerst die 4 Zeitreihen (globale Monatsanomalien) eingelesen.
    – Ich habe sie auf den allen Zeitreihen gemeinsamen Zeitraum beschnitten.
    – Ich habe dann von jeder Zeitreihe ihren arithmetischen Mittelwert subtrahiert und sie so von systematischen Offsets (insbesondere abweichenden Kalibrierperioden der jeweiligen Anomalie) befreit
    – Ich habe jeden Monatswert jeder Zeitreihe als unabhängige ‘Meßwertablesung’ (Jahr, Anomalie) gewertet und über alle einzelnen Meßwerte eine lineare Regression ausgeführt.

    Ich sehe jetzt spontan nicht, inwieweit dieses Vorgehen eine besondere Präferenz erkennen ließe. Sicher, die MSU-Zeitreihen basieren auf ein- und derselben MSU-Datenquelle und verwenden lediglich unterschiedliche Methoden zur Bestimmung des Globaldurchschnitts. Andererseits verwenden auch GISS und HADCRUT3 gemeinsame Stationsdaten und wenden darauf unterschiedliche Methoden an.

    Ich habe diesen Ansatz vor allem deshalb gewählt, weil ich zu jedem Monat mehr als bloß einen Temperaturschätzer haben wollte … ich wollte auch ungefähr abschätzen können, wie groß die Unsicherheiten dabei sind. Liegen die Ablesungen eines Monats eng beisammen, so habe ich einen engeren Vertrauensbereich bzgl. des angenommenen Mittelwerts als wenn die Ablesungen eines Monats stark streuen. Und diese Streuung fließt dann natürlich auch in die Signifikanz des Trends ein, den ich berechne.

    Übrigens, viele gepeerte Veröffentlichungen verwenden lediglich eine einzige (willkürlich gewählte) Zeitreihe, als würde es dabei überhaupt keine Unsicherheiten geben – da ist mein Ansatz doch objektiver.

    Wie bereits angedeutet, das ist keine Kritik an Ihrer Entgegnung, denn meine vorherige Erläuterung (Mittelwertbildung) war mißverständlich und hat diese Kritik provoziert. Ich wollte nur nochmal nach besten Wissen und Gewissen erläutern, wie ich – und mit welcher Absicht – da vorgegangen bin.

    Das Weitere allerdings ist mir in diesem Zusammenhang eher unverständlich. Beim isolierten Problemkreis ‘Autokorrelation’ und ‘Modellbildung’ gebe ich Ihnen zunächst mal völlig recht, das ist ja genau das Problem, was ich auch schon angesprochen hatte.

    Dabei ist allerdings folgendes festzustellen:
    Ihre Behauptung, daß Monatswerte stark autokorreliert seien (daß ein Meßwert also stark von verhergehenden Meßwerten beeinflußt wird), daß dies bei den Jahresmittelwerten aber schon deutlich weniger der Fall sei, führt zur Schlußfolgerung, daß das Erinnerungsvermögen des erzeugenden Prozesses innerhalb etwa eines Jahres deutlich abgeklungen sein sollte. Bei einer Betrachtung über immerhin mehrere Jahre (2001 bis heute) können die Meßwerte am Ende der Zeitreihe kaum noch durch die Meßwerte zu Beginn der Zeitreihe maßgeblich beeinflußt werden; hier siegt auf Dauer der Trend über den Effekt, den ein kurzes Erinnerungsvermögen verursachen könnte.

    Trotzdem gilt natürlich die Faustregel, daß der Einfluß der Autokorrelation häufig stark unterschätzt wird.

    Also habe ich hier den Mittelwert der 4 Zeitreihen als besten Temperaturschätzer gebildet und über den jüngsten Zeitraum untersucht. Die acf zeigt ab einem Lag von 4 Monaten keine signifikante Autokorrelation mehr, die pacf legt für diesen Zeitraum ein AR(1)-Autokorrelationsmodell nahe.
    Das ganze habe ich dann mittels gls ausgewertet und bekam zum Ergebnis, daß der Trend unter Berücksichtigung der AR1-Autokorrelation etwa -0,8 +/- 0,8 °C/Jhd (1SD) betrage.

    Dh, Pi mal Daumen, daß über diesen Zeitraum ein wahrer Trend von etwa 1,5…2°C vorgelegen hätte, wäre ein >+2*SD-Ereignis mit einer Eintrittswahrscheinlichkeit von weniger als 5% (um formalen Kriterien zu genügen). Deshalb kann man also durchaus so argumentieren, daß sich der derzeitige Trend signifikant von dem des ausgehenden Jahrhunderts unterscheidet. Das ist mE eine zulässige Interpretation und die Zukunft wird einfach zeigen, ob sich diese Hypohese bewahrheitet oder nicht. Ich glaub’s ja eher nicht, aber wir führen ja keine Glaubensdiskussion.

    Man kann natürlich auch behaupten, daß man keinesfalls aus verschiedenen Temperaturzeitreihen einen besten, gemeinsamen Schätzer ableiten dürfe. Man kann behaupten, daß man für eine ‘richtige’ Zeitreihe unbedingt immer den Mittelwert aus mindestens 12 Einzelwerten bilden müsse (obwohl es sich ja um saisonal bereinigte Anomalien handelt). Damit läßt man schonmal deutlich weniger Meßwerte übrig, mit denen andere vielleicht Unfug anstellen könnten. Von diesen wenigen kann man ihnen dann nochmal zwei weitere klauen, weil mit Steigung und Achsenabschnitt der Regressionsgerade ja schon zwei informative Freiheitsgerade verbraten wurden. Dann kann man nach erfolgreicher Gesundschrumpfung des Datenbestandes auf die daraus resultierende miese F-Statistik pochen. Dann kann man ‘Absence of Evidence’ zur ‘Evidence of Absene’ umdeuten. Schließlich kann man ungeniert auf allen rumtrampeln, die es wagen, irgendwelche Fragen zu stellen, Zweifel zu äußern oder einfach interessiert sind, welche Hypothesen sich bestätigen und welche nicht. So kann man auch vorgehen. Es hat allerdings ein bischen was Triebhaftes.

    JZ: “Auf was wollen Sie da warten? Daß die Realität Ihnen den Gefallen tut, sich dahin zu ändern, wo Sie es gerne hätten? Das wird jetzt aber absurd hier!”

    Wissen Sie, das ist ja das Tolle an der Wissenschaft – sie passiert einfach. Im Laufe der Zeit wird sich ganz von selbst erweisen, welche Annahmen richtig und welche falsch waren. Die Zeit verstreicht ganz unabhängig davon, ob jemand sie abwartet oder derweil verzweifelt am Bettpfosten nagt.

  75. #75 Ebel
    April 30, 2009

    Die MSU-Daten sind zur Wettertemperaturbestimmung gedacht und werden für die Klimarekonstruktion mißbraucht. Warum ist das so wichtig? Bei falscher Auswertung – und die wird meistens gemacht – wird der Treibhauseffekt entfernt. Der Witz ist nämlich, daß die Mikrowellen-Strahlung des Sauerstoff fast unabhängig von der Temperatur ist, die Temperaturinformation steckt mehr in der Absorption. Damit ist keine Gewichtskurve angebbar (wie das oft gemacht wird) und die zunehmende Absorption in der Stratosphäre kompensiert eine etwas zunehmende Strahlung in der Troposphäre.

    Witzig ist aber etwas anderes: die Strahlungstransportgleichung, die beim Treibhauseffekt angezweifelt wird, steht bei der falschen Auswertung der MSU-Messungen plötzlich hoch im Kurs!

    MfG

  76. #76 Wolfgang Flamme
    April 30, 2009

    @Ebel

    Diese Theorie ist mir neu, aber ich gebe freimütig zu, daß ich nicht genug von Strahlungsphysik verstehe, um sie so zu entkräften.

    1) Zuerst möchte ich allerdings darauf hinweisen, daß die Kombination von zwei MSU- und zwei bodengestützten Meßreihen unweigerlich zu großen, systematischen Abweichungen, besonders zu Beginn und Ende der Zeitreihe geführt hätte, wenn den MSU-Reihen ein genereller Erwärmungstrend fehlen würde. Daraus würde – auch im jüngsten betrachteten Zeitraum – eine große Streuung der Meßwerte resultieren. Und diese Streuung würde sich dann bei meinem Verfahren natürlich in einem extrem verbreiterten Konfidenzintervall für den jüngsten beobachteten Trend niederschlagen. Je breiter das Konfidenzintervall des jüngsten Trends, umso weniger läßt sich ausschließen, daß dieser in Wirklichkeit höher ist, zB also den etwa 1,5°C/Jhdt entsprächen, die hier unlängst im Gespräch waren.

    Die Logigkette also in Kurzform: unterschlagener Erwärmungstrend bei den MSU-Zeitreihen -> größere Streuung besonders an den Enden der Zeitreihe -> größere Unsicherheit des jüngsten Trends -> größere Wahrscheinlichkeit, daß der Trend doch höher ist – Arbeitshypothese ‘Trendwende’ wird unwahrscheinlicher.

    2) Alle vier Zeitreihen sind von Trend über die gesamte Zeitreihe konsistent. UAH-MSU liegt erkennbar unterhalb der anderen drei, ist aber vom Trend nicht signifikant verschieden. Wie schon unter (1) dargelegt schadet diese Abweichung der Arbeitshypothese ‘Trendwende’ sogar … sie dennoch einzubeziehen ist deshalb ein konservativer Ansatz, kein Mißbrauch.

    3) AFAIR gilt grob: Die MSU erfassen die polaren Regionen nicht, sie messen nicht bodennah und verwenden unterschiedliche Verfahren zur MSU-Dateninterpretation (Stereoskopie, Wichtung, Stitching). GISS extrapoliert die spärlichen Polardaten und ähnlich spärlich erfaßte Gebiete auf unbekannte Flächen , CRU behandelt Flächen ohne Daten als NAs.
    Die Kovarianzmatrix aller Zeitreihen weist dennoch recht ähnliche Werte auf; im Detail mag es Differenzen geben, über den generellen Verlauf sind sich die Zeitreihen untereinander überraschend einig. Beispielsweise ist die Regression RSS gg CRU qualitativ genauso gut wie die Regression GISS gg CRU. Dh die Schwarzweiß-Sicht, daß auf der einen Seite die guten Bodendaten stehen, die sich untereinander praktisch nicht unterscheiden und auf der schlechten Seite eben die MSU, die diesen widersprechen, ist zu kurz gegriffen.

  77. #77 for4zim
    Mai 1, 2009

    “- Ich habe jeden Monatswert jeder Zeitreihe als unabhängige ‘Meßwertablesung’ (Jahr, Anomalie) gewertet und über alle einzelnen Meßwerte eine lineare Regression ausgeführt.”
    Bevor ich weiterlese: genau das durften Sie nicht tun. Die Werte sind eben nicht unabhängig, sondern in extrem großem Maße abhängig. Stellen Sie sich vor, sie nehmen eine Zeitreihe, dann vervierfachen Sie jeden Wert und schlagen eine kleine Zufallszahl drauf. Ist das dann etwa gleichbedeutend damit, daß sie eine nviermal so großen Datensatz haben? Definitiv nicht. Ich bin völlig fassungslos darüber, daß Ihnen diese Vorgehensweise vernünftig erscheint. Sie ist es nicht, und es macht mich, wie Sie sicher merken, richtig wütend, daß Sie das Vorgehen für sinnvoll halten. Genau so entsteht Pseudowissenschaft.

  78. #78 Krishna Gans
    Mai 1, 2009

    @for4zim

    Genau so entsteht Pseudowissenschaft.

    In der Art, wie ich dort zitiert habe
    scienceblogs.de/primaklima/2009/04/ganz-echt-jetzt-halt-die-erwarmun-aber-wirklich-wirklich-an.php#comment33093

    und die in der Aussage gipfelt

    Since the models underestimate the long-range persistence of the atmosphere and overesti- mate the trends, our analysis suggests that the anticipated global warming is also overestimated by the models.

    Ich bin beruhigt, das an dieser Aussage ein Herr Schellnhuber beteiligt war, der natürlich fern von jedem Verdacht ist, Pseudowissenschaft zu betreiben.

    Ich wünsche allen beteiligten einen schönen, streßfreien und von jeder Wut freien 1.Mai, und sollte jemand an einer Demo oder an einem Aufmarsch beteiligt sein, dann bitte nur an einer gegen rechts.

  79. #79 for4zim
    Mai 1, 2009

    “Übrigens, viele gepeerte Veröffentlichungen verwenden lediglich eine einzige (willkürlich gewählte) Zeitreihe, als würde es dabei überhaupt keine Unsicherheiten geben – da ist mein Ansatz doch objektiver.”
    Es wird üblicherweise nur ein Datensatz verwendet, weil Sie kaum Sicherheit dadurch gewinnen, daß sie die Datensätze kombinieren. Es gibt im Grunde nur drei Datensätze, die hochgradig abhängig voneinander sind. Es gibt zum einen die Werte der Landstationen, die nach drei verschiedenen Verfahren in die Fläche interpoliert wurden. Auch wenn sich durch die gewählte Interpolation Unterschiede ergeben, stehen dahinter doch immer die gleichen Daten. Weiterhin gibt es den Datensatz für die Oberflächentemperaturen der Meere. Auch hier gibt es im einzelnen Unterschiede bei den verwendeten Korrekturen und Interpolationsverfahren, aber es ist im Grunde nur ein Datensatz dahinter. Und schließlich gibt es die passiven Strahlungsmessungen der Satelliten, aus denen eine Temperatur abgeleitet wird, die bestimmte Schichtungen der Troposphäre darstellen. Die daraus abgeleiteten Temperaturzeitreihen beschreiben nicht das gleiche wie die Messungen am Boden und Mittelungen mit den Daten des Stationsnetzes führen keineswegs dazu, daß Unsicherheiten in beiden Datensätzen reduziert werden, sondern sind ein willkürliches Mittel zweier unterschiedlicher Größen, die aber hochgradig korreliert sind. HadCRUT3, GISSTemp und NCDC sind aus den Daten der Landstationen und der Meeresoberflächentemperaturen zusammengezogen. Es ist überhaupt nicht sinnvoll, diese Datensätze und die Satellitendatensätze zu mitteln. Das Mittel ist nicht genauer, sondern einfach ein willkürliches Mittel zweier hochkorrelierter Datensätze, die jeweils etwas anderes beschreiben – einerseits bodennahe Temperaturen, andererseits Temperaturen einer größeren Schicht der unteren Troposphäre (außerdem anderer Schichten) mit Überbetonung niederer Breiten. An Ihrem Ansatz ist nichts objektiver, er ist unsinnig.
    Der wesentliche Grund dafür, eine bestimmte Zeitreihe zu nehmen, ist, daß diese Zeitreihen alle hochkorreliert sind und im Rahmen der Fehlers die gleichen klimatologischen Trends ergeben. Mitteln kann man allenfalls Gleiches, also z.B. die Datensätze für die Oberflächentemperaturen, und was man dabei gewinnt, ist eher unklar.

    Die dominierende Varianz in den Datensätzen gegenüber dem Trend sind nicht die Meß- und Interpolationsfehler, sondern das globale Wetter, genau der Anteil in den Zeitreihen, der in allen gleichartigen Datensätzen gleich ist. Und es ist dieses Wetter, wegen dem sie eine ausreichende Zahl an Werten brauchen, um einen signifikanten Trend zu haben. 4 gleiche Zeitreihen hier so zusammenzulegen, als wären diese Werte unabhängig, erhöht künstlich die Signifikanz des daraus berechneten Trends. Eine solche Rechnung ist mathematisch falsch.

  80. #80 antiangst
    Mai 1, 2009

    Trends über Ereignisse zu bilden, der innere Gesetzmäßigkeit noch unklar ist, kann auch in die Irre führen.

  81. #81 for4zim
    Mai 1, 2009

    “Das ganze habe ich dann mittels gls ausgewertet und bekam zum Ergebnis, daß der Trend unter Berücksichtigung der AR1-Autokorrelation etwa -0,8 +/- 0,8 °C/Jhd (1SD) betrage.”
    Ohne Ihr Verfahren der Berechnung einer Autokorrelation näher zu würdigen (Statistiker können darüber viel debattieren und ich kann als Chemiker das nur zur Kenntnis nehmen), aber angenommen, dieses Ergebnis wäre korrekt, zeigt allein schon die Tatsache, daß dieser Trend nicht größer ist als sein Fehler, daß das Eregbnis nicht signifikant ist. Der kurze Zeitraum von 2001 bis 2008 ist dominiert von globalem Wetter, völlig unbrauchbar für Aussagen dazu, ob sich der globale klimatologische Trend ändert oder nicht. Es kommt aber noch hinzu, daß Sie mit einer falschen Datenvermehrung den Fehler Ihres Trends künstlich gesenkt haben. Dadurch wird Ihre Schlußfolgerung rechnerisch falsch.

    Der einzige, und ich betone, der einzige Grund, einen so kurzen Zeitraum für Aussagen zum langfristigen Trend heranzuziehen, ist es, mit Gewalt eine Aussage zu suchen, die dem eigenen Glauben entspricht. Ein paar Jahre vorher und ein paar Jahre nachher wird der Trend über 8 Jahre völlig anders aussehen, und wir wissen das, weil wir dies für die Vergangenheit nachrechnen können und weil wir genau dieses auch in den Modellergebnissen sehen (schauen Sie auf das Bild oben auf der Seite, wie der Trend über 8 Jahre im zeitlichen Verlauf wild fluktuieren kann).

    Wenn Sie unbedingt aus zu wenigen Daten Aussagen ableiten wollen, dann nutzen Sie ein mathematisch korrektes Verfahren und würdigen Sie den entsprechend großen Fehler, den Sie dann dafür erhalten.

    Ihre Aussage: “Man kann natürlich auch behaupten, daß man keinesfalls aus verschiedenen Temperaturzeitreihen einen besten, gemeinsamen Schätzer ableiten dürfe. Man kann behaupten, daß man für eine ‘richtige’ Zeitreihe unbedingt immer den Mittelwert aus mindestens 12 Einzelwerten bilden müsse (obwohl es sich ja um saisonal bereinigte Anomalien handelt). (…) Dann kann man nach erfolgreicher Gesundschrumpfung des Datenbestandes auf die daraus resultierende miese F-Statistik pochen. Dann kann man ‘Absence of Evidence’ zur ‘Evidence of Absene’ umdeuten. Schließlich kann man ungeniert auf allen rumtrampeln, die es wagen, irgendwelche Fragen zu stellen, Zweifel zu äußern oder einfach interessiert sind, welche Hypothesen sich bestätigen und welche nicht. So kann man auch vorgehen. Es hat allerdings ein bischen was Triebhaftes.” ist entlarvend. Die Statistik korrekt durchzuführen hat für Sie etwas damit zu tun, auf andere herumzutrampeln? Es hat etwas Triebhaftes? Verzeihung, aber offensichtlich haben Sie ein Problem damit, wenn eine objektive Rechnung nicht das Ergebnis hat, das Ihnen paßt. Wenn die F-Statistik “mies” ist, d.h. ergibt, daß Ergebnisse nicht signifikant sind, dann hat das nichts Triebhaftes, sondern ist einfach eine Feststellung, die man zur Kenntnis zu nehmen hat. Es gibt keinen signifikanten Trend und damit auch keine Aussagen, die man zum Trend machen kann. Es ist Ihre freie Entscheidung, ob Sie die Realität akzeptieren. Wenn Sie es nicht tun, brauchen Sie aber auch nicht zu erwarten, daß Sie jemand ernst nimmt. Ob ein Trend signifikant ist oder nicht, ist hingegen keine Frage der freien Entschiedung, sondern mathematisch eindeutig beantwortbar. 2001 bis 2008 liegt kein signifikanter Trend vor, ob Sie es nun wollen oder nicht.

  82. #82 for4zim
    Mai 1, 2009

    Zu Krishna Gans: Sie zitieren eine Arbeit, deren entscheidender Fehler ist, daß eine Statistik auf den Daten von 6 willkürlich herausgegriffenen Landstationen aufgebaut wird, die nicht im geringsten für die Erde repräsentativ sind (etwa die über 2/3 der Erde, die Meer sind). Es gibt publizierte Kommentare zu der Veröffentlichung, die Sie recherchieren sollten, um nähere Angaben zu den Fehlern des Artikels zu erhalten. Es ist daher auch nicht überraschend, daß dieser Artikel in der Fachwelt keinen Effekt hatte. Sie können niemanden damit überzeugen, daß Sie eine fehlerhafte Arbeit selektiv herausgreifen, sie können allenfalls uninformierte Leser verwirren. Vermutlich war das Ihre Absicht. Das ist traurig.

  83. #83 Krishna Gans
    Mai 1, 2009

    @for4zim
    Dumm nur, daß einer der dort schreibenden Wissenschaftler geradezu auf Modellierung schwört und unsere Regierung in Sachen Klima berät. Das ist nicht verwirrend sondern tragisch und läßt in meinen Augen, auch wenn Ihnen daß überhaupt nicht paßt, diese ganzen Zweig unglaubwürdig erscheinen. Ich traue den Aussagen eines Herrn Schellnhuber nicht soweit wie ich ihn “sehe”.

    U.a. seiner Aussage nach sind die Modelle Mist, Ihrer Aussage nach ist u.a. seine Arbeit Mist.
    Was ich auch wähle -> Mist.
    Danke für diese wundervolle Bestätigung
    🙂

  84. #84 for4zim
    Mai 1, 2009

    Krishna Gans, daß jemand EINE fehlerhafte Arbeit als Co-Autor unterschreibt, sagt weder etwas darüber aus, ob seine anderen Arbeiten als Autor oder Co-Autor fehlerhaft sind, noch ob die Arbeiten anderer 100er Personen, die gar nicht an der fehlerhaften Arbeit beteiligt waren, durchweg fehlerhaft sind. Sollte Ihnen mal ein logisch nachvollziehbarer Beitrag gelingen, würde das auch nichts darüber aussagen, ob Ihre anderen Beiträge irgendeinen sinnvollen Inhalt hatten. Man muß jede Arbeit für sich beurteilen.

  85. #85 Krishna Gans
    Mai 1, 2009

    @Wolfgang Flamme

    Zum besseren Verständnis der Arbeit von for4zim hier eine kleine Einführung:

    globalklima.blogspot.com/2009/04/warum-es-egal-ist-ob-es-eine-mittlere.html

  86. #86 Wolfgang Flamme
    Mai 1, 2009

    @for4zim

    Wenn man’s auf den Punkt bringt, dann behaupten Sie also, die vier Meßreihen wären lediglich verrauschte Kopien voneinander und könnten deshalb nicht wirklich dazu beitragen, einen verbesserten Schätzer für den wahren Wert zu bilden.

    Dagegen spricht:

    1) Wir haben zwei Datenquellen, einmal die MSU-Daten und dann die Stationsdaten (Land+See). Wenn beide wirklich unterschiedliche Dinge messen, dann sollten wir qualitativ feststellen können, daß sich RSS und UAH untereinander einig sind, daß sich auch CRU und GISS untereinander einig sind, daß sich aber beide Gruppen untereinander uneinig sind.
    Ich hatte schon ausgeführt, daß die Zeitreihen diese Deutung nicht stützen: RSS ist CRU statistisch genauso nahe wie GISS.

    2) Wenn die Daten nur Kopien voneinander wären (mit kleinen, zufälligen Kopierfehlern), dann sollten alle systematische Fehler auf alle Kopien gleichermaßen durchschlagen; die Differenz sollte ein reines Zufallsergebnis sein.

    Ein Differenzplot zeigt aber, daß die einzelne Zeitreihe nicht zufällig, sondern phasenweise durch den Mehrheitsentscheid überstimmt bzw. bestätigt wird. Ich interpretiere diese Phasen so, daß bestimmte Temperatursituationen von den Verfahren gerade nicht synchron, sondern auf verschiedene Weise – also unabhängig voneinander – interpretiert werden. Unabhängige Bewertungen aber tragen (anders als Kopien) zu besseren Schätzungen bei.

    3) Der r2 zwischen den Zeitreihen schwankt etwa zwischen 0.6 und 0.8. Das zeigt: a) Mit der Festlegung auf nur eine, willkürlich gewählte Zeitreihe sind ganz schöne Fehler drin, b) es besteht durchaus Verbesserungspotential bei der Schätzung und c) bewegt man sich wohl in die richtige Richtung, wenn man auch mal guckt, was die anderen Zeitreihen beizusteuern haben.

    4) Eine Einzelregression über den jüngsten Zeitraum liefert ein Ergebnis, was mit der kombinierten Zeitreihe iw konsistent ist. Es ist halt ein Ausnahmeereignis, daß die Temperatur seit einigen Jahren nicht weiter ansteigt, bei keiner einzigen Zeitreihe.

    Zu Ihrem Vorwurf einer ‘miesen’ F-Statistik:

    Bitte, Sie streichen die prinzipiell zur Auswertung zur Verfügung stehende Datenmenge ohne statistisch nachvollziehbare Erklärung einfach auf 2% zusammen und folgern, daß man aus dem Rest nichts mehr folgern kann. Das ist Ihre Realität.

    In meiner Realität habe ich nach wie vor 100% der Daten vorliegen. Ich möchte sie auch nutzen, um daraus vielleicht neue Erkenntnisse zu gewinnen und sie nicht verwerfen, um mir neue Erkenntnisse zu ersparen. Ihre qualitativen Einwände habe ich untersucht und die Ergebnisse oben dargestellt; es sieht mir nicht so aus, als sei es gerechtfertigt, Informationen in so großem Umfang zu verwerfen.

    Bleibt also meine Zwischenbilanz , daß aus statistischer Sicht in den letzten Jahren eine eher ungewöhnliche Entwicklung stattgefunden hat, deren künftigen Verlauf man im Auge behalten sollte. Und ich finde es auch ok, darauf hinzuweisen und auch etwas gaga, daraus eine Prognose abzuleiten. Das war eigentlich alles.

  87. #87 Ebel
    Mai 2, 2009

    @Wolfgang Flamme· 30.04.09 · 22:58 Uhr

    @Ebel
    Diese Theorie ist mir neu, aber ich gebe freimütig zu, daß ich nicht genug von Strahlungsphysik verstehe, um sie so zu entkräften.

    Zur Fehlinterpretation der MSU-Messung siehe auch https://www.nature.com/nature/journal/v429/n6987/full/nature02524.html

    Das hängt damit zusammen, daß für Besetzungsunterschiede im thermischen Gleichgewicht gilt: B2/B1 = exp(-E21/(kT)). Da E21 (=hv) im Mikrowellenbereich bei Atmosphärentemperaturen klein gegen kT ist, sind die an den Strahlungsprozessesen beteiligten Niveaus nahezu gleich stark besetzt. Absolute Gleichbesetzung hätte weder Ausstrahlung noch Absorption zur Folge. Die kleinen Unterschiede sind also für die Wirkung verantwortlich.

    Im Infrarotbereich ist E21 groß gegen kT. Damit ist die Besetzung des unteren Zustandes fast unabhängig von der Besetzung des oberen Zustandes (= temperaturunabhängige Absorption) und die Besetzung (und damit Emission ) des oberen Zustands ist weitgehend eine e-Funktion der Temperatur.

    MfG

  88. #88 Wolfgang Flamme
    Mai 2, 2009

    @Ebel

    Ok, ich will jetzt nicht behaupten, daß mir die Erklärung sehr weiterhilft, aber sie klingt zumindest beeindruckend sachverständig.

    Ich muß dann also mindestens die MSU-Zeitreihen in ihrer Steigung korrigieren. Wie könnte man da vorgehen?
    Die verlinkte Arbeit läßt mich da leider im Stich, denn dort heißt es

    “See Supplementary Table 2 for these trend values and their error estimates.

    Gibt’s dort aber nicht. Schlecht.

    Weiter heißt es:

    The surface temperature trends for the globe, Northern Hemisphere and Southern Hemisphere are from ref. 5

    Dort ist aber kein Trend für den benannten Zeitraum 79-01 ausgewiesen. Auch kein Hinweis auf irgendwelches SM oder digitale Quellen in der Arbeit.

    Also wie genau sollte ich nun die Sat-Daten auf Basis dieser Arbeit korrigieren?

    Da es einem damit nicht gerade einfach gemacht wird, habe ich mir jetzt mal folgendes überlegt:

    Gehen wir also mal davon aus, daß die Bodenstationen langfristig den richtigen Trend haben und die Sat-Daten langfristig den falschen.
    Um den Bodentrend möglichst genau zu bestimmen habe ich gerade wie zuvor geprüft, daß die Differenz zwischen GISS und CRU nicht rein zufällig ist. Ich interpretiere das so, daß beide Verfahren ausreichend unabhängig voneinander sind, um gemeinsam einen etwas besseren Schätzer zu liefern als eine Zeitreihe alleine. Den resultierenden Trend über den gesamten Zeitraum nehme ich mal als ‘wahr’ an.

    In Bezug auf diesen ‘wahren’ Trend haben nun alle Zeitreihen mehr oder weniger ‘falsche’ Trends.
    Nun subtrahiere ich von jeder Zeitreihe den ihr eigenen Trend (bilde also die Residuen der Zeitreihe) und addiere den ‘wahren’ Trend hinzu. Damit wären dann alle vier Zeitreihen auf einen gemeinsamen ‘wahren’ Trend gebracht, der mit den Bodendaten in Einklang steht. Und dann gucke ich mir nochmal an, was das für die Entwicklung der letzten Jahre bedeutet und was von der Signifikanz dann noch bleibt.

    Oder hat jemand einen besseren Vorschlag, wie man vorgehen könne?

  89. #89 for4zim
    Mai 2, 2009

    “Oder hat jemand einen besseren Vorschlag, wie man vorgehen könne?”
    Ja, um Gottes Willen nichts von dem zu tun, was Sie sich vornehmen.

    In den Zeitreihen sind grob gesehen drei Komponenten. Der langfristige Trend, der hier interessiert, das globale Wetter, welches nicht interessiert, aber in allen Zeitreihen praktisch das gleiche sein sollte und Fehler (Meßfehler, Interpolationsfehler bzw. Abdeckungsfehler). In einer sehr kurzen Zeitreihe kann der Fehler relativ groß sein. Wenn Sie das globale Wetter bestimmen wollten, würde es Ihnen vielleicht helfen, hier verschiedene Zeitreihen zu nutzen. Sie wollen aber das globale Wetter gra nicht genau bestimmen. Sie wollen den Trend bestimmen. Den finden Sie dann, und nur dann, wenn der Trend groß wird gegen den Anteil mit dem globalen Wetter. Das aber ist erst nach einer hinreichenden Zahl von Jahren der Fall, irgendwo zwischen 20 und 30 Jahren. Und genau hier hilft es Ihnen überhaupt nichts, verschiedene Zeitreihen zu kombinieren, denn die beobachten alle das gleiche globale Wetter , daß Sie nicht interessiert. Sie täuschen sich bei der Beobachtung des Trends eine Genauigkeit vor, die es nicht gibt. Und daher ist es auch Unsinn, wenn Sie darüber reden, daß angeblich x Prozent der Daten “weggeworfen” würde. Es wird nichts weggeworfen. Aber Sie können aus den Daten nur holen, was dort signifikant vorhanden ist. 8 Jahre geben Ihnen keinen signifikanten Trend. Sie geben Ihnen auch keine Aussage darüber, daß der Trend signifikant verlassen wurde, es sei denn, drmatische Dinge wären passiert. Wenn das laufende Jahrzehnt um 0,19 Grad wärmer ist als das letzte Jahrzehnt, passieren definitiv keine dramatischen Dinge im Sinne eines nachlassenden Erwärmungstrends, egal wie die warmen Jahre innerhalb dieses 8-Jahreszeitraumes verteilt sind. Wenn ein Ausreißer wie 1998 in der Zeitreihe vorkommen darf, dann darf natürlich genauso ein Ausreißer wie 2008 darin vorkommen.

    Sie haben hier viele bedeutungslose Dinge geschrieben, die mich an Ihnen verzweifeln lassen. Ich kann das alles nur so interpretieren, daß sie die Realität nicht akzeptieren wollen. Instrumente wie den F-Test gibt es nicht, weil sie Blödsinn sind, sondern weil sie nützlich sind. Nutzen Sie es. Und Daten”vermehrung” ist eine ganz heikle Sache. Wenn man es versucht, sollte man ganz genau wissen, was man da tut. Sie machen auf mich nicht den Eindruck, daß Sie hier sinnvoll handeln. Ich will nicht interpretieren, ob Sie es nicht wollen oder nicht können. Ich sage nur, Datenreihen, die die gleichen Beobachtungen enthalten, geben Ihnen keine unabhängige Aussage zum Trend. Auch wenn Sie das globale Wetter genauer kennen, hindert es Sie immer noch, den Trend so lange zu erkennen, bis dessen Varianz die Varianz des globalen Wetters übertrifft.
    “Ich hatte schon ausgeführt, daß die Zeitreihen diese Deutung nicht stützen: RSS ist CRU statistisch genauso nahe wie GISS.” Das wäre im Sinne meiner Aussage – die dominierende Varianz über kurze Zeiträume kommt aus dem globalen Wetter, über lange Zeiträume über klimatische Trends. Abgesehen von verschiedenen Abdeckungsräumen und Interpolationsverfahren, die kleine Fehler machen, beobachten alle Zeitreihen das gleiche – gewisse Anteile des globalen Wetters können in verschiedenen Zeitreihen mal ausgeprägter sein – siehe z.B. ENSO-SIgnal in den Satellitendaten, hier etwas stärker als in den Bodendaten – aber sie finden dieses Signal in allen Zeitreihen und filtern es daher durch Kombination der Zeitreihen nicht heraus. Hochkorrelierte Zeitreihen führen bei Kombination zu keiner wesentlichen Verbesserung einer Trenderkennung.

    “Ein Differenzplot zeigt aber, daß die einzelne Zeitreihe nicht zufällig, sondern phasenweise durch den Mehrheitsentscheid überstimmt bzw. bestätigt wird.”
    Ich kann nicht nachvollziehen, was Sie da getan haben. Aber der Fehler liegt schon im Ansatz: Sie interpretieren anscheinend globales Wetter als klimatischen Trend. Das ist sinnlos.

    “Der r2 zwischen den Zeitreihen schwankt etwa zwischen 0.6 und 0.8. Das zeigt:” daß die untersuchten Zeitreihen arg kurz sind. Man kann auch die Signifikanz und das Vertrauensintervall beim Korrelationskoeffizienten untersuchen. Warum haben Sie das nicht getan?

    “Bleibt also meine Zwischenbilanz , daß aus statistischer Sicht in den letzten Jahren eine eher ungewöhnliche Entwicklung stattgefunden hat” an den letzten Jahren ist statistisch nichts auffällig. Sie liegen alle auf dem Trend im Rahmen der zu erwartenden Varianz. 2008 ist wie gesagt nicht mehr ein Ausreißer als 1998. 2001 bis 2007 waren arg warm. Erst, wenn mehrere Jahre hintereinander so warm wie 2008 oder kühler wären, müßte man annehmen, daß irgendetwas seltsames passiert. Das haben wir noch nicht beobachtet, und ich würde auch keinen Cent darauf wetten, daß wir es beobachten werden. Sie würden auch nicht darauf wetten.

  90. #90 Chlorobium
    Mai 2, 2009

    @WFlamme:

    Gibt’s dort aber nicht. Schlecht.

    Nehmen Sie diesen Link:

    https://www.nature.com/nature/journal/v429/n6987/suppinfo/nature02524.html

  91. #91 Wolfgang Flamme
    Mai 3, 2009

    @for4zim

    Ich möchte gerade noch eines voranschicken: Lucia Liljegren hat Trendermittlungen mit Monats- und Jahresmittelwerten und ihre Wirkung auf Hypothesentests mit synthetischen Daten und MC-Analyse untersucht. Im Kommentarbereich ist noch interessantes über den Einfluß von Autokorrelation zu erfahren.

    Zu Ihren Einwänden, in der Reihenfolge meiner Prioritäten:

    1) Vordringlich ist für mich der Punkt, daß eine meiner Untersuchungen wegen Verständnisschwierigkeiten für Sie nicht nachvollziehbar war:

    Sie behaupteten, das Hinzuziehen weiterer Zeitreihen sei nicht geegnet, den Schätzer für die ‘wahre’ Mitteltemperatur zu verbessern. Ihre Argumentation – so wie ich sie verstanden habe – war, daß die Abweichungen vom wahren Wert durch einen zweistufigen Störprozeß zustandekommen:

    – Der erste Störeinfluß schlüge sich in der Erfassung und Vorverdichtung der Daten nieder. Da sich die Zeitreihen aus ähnlichen Quellen bedienten, unterlägen sie auch demselben Fehler.
    Nicht geklärt haben Sie allerdings, wieso MSU- und Bodendaten, die doch angeblich so grundverschiedene Dinge messen, trotzdem so hochkorreliert sein sollten.

    – Der zweite Störeinfluß läge dann in der Methodenabweichung bei der Auswertung dieser Daten begründet. Die dadurch verursachten Differenzen seien aber zufälliger Natur.

    Eine Kombination der Datensätze könnte daher nur den zweiten Fehler reduzieren, nicht aber den ersten. Durch die Kombination der Zeitreihen hätte ich mich damit dem wahren Wert nicht wirklich genähert.
    Den Trugschluß, den ich dabei Ihrer Meinung nach begangen habe, haben Sie sehr prägnant so zusammengefaßt:

    Stellen Sie sich vor, sie nehmen eine Zeitreihe, dann vervierfachen Sie jeden Wert und schlagen eine kleine Zufallszahl drauf.

    Und diese Behauptung läßt sich glücklicherweise einfach testen und weil ich diesen Einwand ernstgenommen habe, habe ich das auch gleich gemacht. Die angeblich vervierfachte Zeitreihe mit kleiner Zufallszahl habe ich ja bereits vorliegen, das ist der von mir angenommene Mittelwert, den Sie kritisieren. Und wenn ich von dem eine beliebige Zeitreihe abziehe, dann dürfte ja auch nur noch etwas verbleiben, was wie eine kleine Zufallszahl aussieht.

    Die Differenz sieht aber überhaupt nicht wie eine kleine Zufallszahl aus sondern ist weder klein noch zufällig. Wenn Sie Ihre Hypothese tatsächlich geprüft haben, kann Ihnen das kaum entgangen sein. Es handelt sich bei den Zeitreihen nicht bloß um verrauschte Kopien, sondern sie scheinen tatsächlich weitgehend unabhängig voneinander Lagebewertungen abzugeben. Das ist genau das, was man von echten Parallelmessungen erwartet und deshalb scheint es mir legitim, diese unabhängigen Bewertungen zu einem verbesserten Schätzer zu kombinieren.

    2) Was Ihre weiteren Bestrebungen betrifft, die Datenlage auszudünnen, so verweise ich auf die vorangestellten Erkenntnisse von Lucia. Ich gebe gern zu, ich habe die Ergebnisse selbst noch nicht geprüft. Können wir aber mal gemeinsam nachvollziehen, oder?

    3)

    wf:”Oder hat jemand einen besseren Vorschlag, wie man vorgehen könne?”
    for4zim: “Ja, um Gottes Willen nichts von dem zu tun, was Sie sich vornehmen.”

    Sie meinen, mein Seelenheil wäre in Gefahr, wenn ich die Konsequenzen ein paar simpler Annahmen statistisch teste?

    4) Natürlich gucke ich auch auf den F-Test, den wirft mir r-Project ja freundlicherweise bei jeder Regresseion gleich mit aus. Ich wende ihn nur nicht auf eine Datenmenge an, die willkürlich zusammengeschrumpft wurde. Denn Sie haben bisher immer noch nicht nachvollziehbar begründen können, welchen konkreten Vorteil diese Schrumpfung haben soll … außer daß sie natürlich Detailinformationen vernichtet und aussagekräftige statistische Auswertungen verunmöglicht.

    5) Hier stand eben noch einiges, bevor ich korrekturgelesen habe. Ich hab’s gelöscht, denn es läuft letztlich alles auf das Gleiche hinaus: Formulieren Sie Ihre Hypothesen und Einwände doch einfach so, daß man sie auch nachvollziehen und rechnerisch überprüfen kann. Das versuche ich ja auch.
    Und beschreiben Sie mir doch mal endlich ein Verfahren, mit dem Sie einen potentiellen Trendwende-Zeitpunkt auf Signifikanz testen würden.

  92. #92 Wolfgang Flamme
    Mai 3, 2009

    Danke, Chloro. Ich sehe aber, daß die Trends da um Autokorrelation korrigiert wurden. Das macht das Korrekturvorhaben etwas komplizierter.

    Immerhin sehe ich bei ref 5 (Jones/Moberg) für 1977-2001 einen globalen OLS-Trend von 0,165°C/Dekade ausgewiesen. Ich erhalte mit meinem GISS-CRU-Mittelwertverfahren 0,1666 °C/Dekade zwischen 1979 und 2001. Das erscheint mir eigentlich dicht genug dran am ‘wahren’ Wert.

    Dann werde ich das mal so probieren, allen Zeitreihen den ‘wahren’ Trend aufoperieren und gucken, ob mich der strafende Blitz trifft. Gestern hat’s schon gewittert…

  93. #93 for4zim
    Mai 3, 2009

    “Ihre Argumentation – so wie ich sie verstanden habe – war, daß die Abweichungen vom wahren Wert durch einen zweistufigen Störprozeß zustandekommen: ”
    Nein, das wäre ein Mißverständnis. Es gibt zwei Komponenten, mit denen Sie sich herumschlagen müssen. Zum einen haben Sie verschiedene Fehler in den Zeitreihen, zum anderen haben Sie die Komponente des globalen Wetters (kein Fehler, sondern echte Varianz in den Daten, die aber verschieden vom klimatischen Trend ist). Der Trend muß groß sein gegen beide Quellen von Varianz in den Zeitreihen. Sie können mit der Kombination von verschiedenen Zeitreihen allenfalls hoffen, die Fehler zu minimieren. Die sind aber nicht die Hauptquelle für Varianz. Das ist globales Wetter, so lange sie nur wenige Jahre betrachten. Ich weise Sie noch mal als einen extremen Fall auf das Jahr 1998. Das ENSO-Signal dort ist in allen Zeitreihen gut zu sehen. Es ist besser zu sehen in den Satellitenzeiteihen, weil dort die Tropen stärker gewichtet werden (meines Wissens), aber Sie werden das Signal, daß Sie bei der Bestimmung eines klimatischen Trends stört, nicht durch das mitteln aller Zeitreihen extrahieren können.
    Abgesehen davon, daß ich aus Ihren Erläuterungen nicht genau nachvollziehen kann, was Sie genau machen, und auch nicht die Zeit habe, ein aussichtsloses Verfahren nachzuvollziehen, weiß ich, daß man statistische Informationen verfälscht, wenn man eine Zeitreihe vervielfacht, wie Sie es anscheinend machen. Sie können natürlich alle Zeitreihen mitteln, um EINE neue Zeitreihe zu gewinnen. Dann wird aber eine 8-Jahreszeitreihe weiterhin keinen signifikanten Trend liefern.
    Daß alle Zeitreihen jeweils nicht genau das gleiche betrachten, ist dabei nicht so besonders wichtig, auch wenn ich der Vollständigkeit halber darauf hinweise. Das Problem ist, daß die Komponente, die Sie wirklich stört, das globale Wetter ist, und genau diese Komponente ist im Idealfall in allen Zeitreihen gleich, gestört nur eben durch Fehler in den Daten und die Betrachtung anderer Ausschnitte der Troposphäre.
    Ich sehe, daß sich unsere Argumentation beständig im Kreise dreht, weil Sie dem Thema des globalen Wetters permanent ausweichen und so tun, als gingen Sie an einen Datensatz, über dessen Eigenschaften Sie a priori nichts wüßten. Wir wissen aber eben doch mehr. Wir wissen, warum 1991/1992 es kälter wurde, warum 1998 relativ warm war, warum 2008 relativ weniger warm war (aber immer noch warm relativ zu den 90er Jahren und erst recht zu jedem Zeitabschnitt vorher seit Beginn der Wetteraufzeichnungen).
    Es sollte Sie auch besorgt machen, daß Ihre Analyse völlig verschiedene Ergebnisse erbringt, wenn Sie den betrachteten Zeitraum nur um wenige Jahre verändern (verschieben oder verlängern).
    An diesem Punkt würde ich sehr empfehlen, mal einen höflichen Brief an Experten (z.B. das Hadley Centre) zu schreiben, um dort nachzufragen, warum man nicht die Signifikanz der Trendbestimmung verbessert, indem man den Datensatz vervierfacht (oder verfünffacht, wenn man den NCDC-Satz hinzunimmt – man könnte sogar noch weitere globale Datensätze erzeugen, die auch noch hinzuziehen, und, da gibt es keine Grenzen, gleich 100 Zeitreihen zusammennehmen – da müßte man nach ihrer Logik ja schon nach 2 Jahren einen signifikanten globalen Klimatrend bestimmen können – Verzeihung für meinen Sarkasmus). Wundert es Sie nicht, daß an den damit befaßten Stellen, ob nun das Hadley Centre oder NOAA oder NASA oder z.B. der Deutsche Wetterdienst niemand einen Grund dafür sieht, eine Trendwende zu sehen, sondern überall darauf hingewiesen wird, daß nun einmal diese Variabilität in den Daten steckt, die ich mit “globales Wetter” zusammenfasse?

  94. #94 Wolfgang Flamme
    Mai 3, 2009

    @for4zim

    Es ist richtig, daß ich mich durch Verkürzung der Beobachtungsabstände dem zu nähern versuche, was man eine ‘gemittelte, momentane Temperaturanomalie der bodennahen Atmosphäre’ nennen könnte und dabe hilft es in der Tat, verschiedenste Beobachtungen und Verfahren hinzuzuziehen, um diesen Wert möglichst genau schätzen zu können.

    Daß durch die Einbeziehung verschiedenster Beobachtungsdaten und Rekonstruktionen schon innerhalb von zwei Jahren ein signifikanter Trend ausgewiesen werden könnte ist unsinnig. Denn dazu müßten sich ja nun alle diese Beobachtungswerte ganz, ganz eng an diese Regressionsgerade schmiegen.

    Die Einbeziehung mehrerer Beobachtungen bringt den Temperaturschätzer also näher an den wahren Temperaturwert … aber nicht unbedingt näher an den Trend.

  95. #95 Jörg Zimmermann
    Mai 4, 2009

    “Daß durch die Einbeziehung verschiedenster Beobachtungsdaten und Rekonstruktionen schon innerhalb von zwei Jahren ein signifikanter Trend ausgewiesen werden könnte ist unsinnig. ” Genauso sinnig oder unsinnig wie bei 8 Jahren. Es ist alleine eine Frage, wie viele hochkorrelierte Datensätze ich zur Datenvermehrung einbringe.

    “Die Einbeziehung mehrerer Beobachtungen bringt den Temperaturschätzer also näher an den wahren Temperaturwert … aber nicht unbedingt näher an den Trend.” Dem kann ich zustimmen. Genau das Problem haben Sie bei 8 Jahren Daten immer noch, wenn Sie mit Trend einen klimatischen Trend meinen und nicht bloß globales Wetter. Niemand bestreitet, daß es z.B. beim Übergang von El Nino zu La Nina auch global kühler werden kann. Aber das ist dann kein klimatischer Trend.

  96. #96 Wolfgang Flamme
    Mai 4, 2009

    @for4zim

    1) Etwas fällt mir regelmäßig auf: Sie argumentieren, daß Klima und Wetter (oder Globalklima und -wetter) eben zwei unterschiedliche Dinge seien. Häufig schimmert die Vorstellung durch, als gäbe es eben langsame, träge Bewegungen (die bezeichnen Sie als ‘Klima’) und schnellere Bewegungen (die bezeichnen Sie als ‘Witterung/Wetter’). Und das, was wir zu einem Zeitpunkt erleben, sei dann gewissermaßen eine Addition dieser Effekte.

    Da verwechseln Sie anscheinend eine gedankliche Krücke mit der Realität. Diese verschiedenen Komponenten mit ihren unterscheidbaren Zeitskalen existieren in der Realität überhaupt nicht; die Zeitreihen weisen vielmehr ein kontinuierliches Frequenzspektrum auf. Die Zerlegung in langsame und schnelle Prozesse, in Klimasignal und Wetterrauschen entspricht dem beobachteten Prozeß eben gerade nicht sondern ist eine rein willkürliche Festlegung.

    Problematisch ist es, wenn solche willkürlichen Bilanzierungsfestlegungen (wie zB bei der WMO und ihren Klimanormalperioden und ihrer Reportpflicht) implizit in die Modellbildung einfließen, so wie es bei Ihrer Aufteilung in Klimasignal und Wettersignal ständig geschieht.
    Genausogut könnte ich das ganze AGW-Signal als Wetterrauschen definieren und zum Schluß kommen, eine Klimaveränderung gäbe es einfach nicht und nachweisen könnten Sie sie deshalb auch nicht … und schon der Versuch sei zum Scheitern verurteilt, weil Ihre Beobachtungslage dazu viel zu dünn sei und ausschließlich viel zu kurze Rauschprozesse umfasse, die über das eigentliche Klima rein gar nichts aussagen können.

    Also wenn Sie diese völlig willkürliche Argumentation nicht wirklich akzeptieren können (wovon ich ausgehe), dann sollten Sie sich davor hüten, sie selbst zu verwenden.

    2) Man sollte doch eigentlich annehmen, daß mehrere Zeitreihen, die alle den Versuch machen, eine zu beobachtende Größe möglichst genau zu erfassen, gerade deshalb besonders gut korreliert sein sollten, je besser ihnen das auch tatsächlich gelingt. Tatsächlich kommen bei erd- und sat-gestützten Methoden zwei unterschiedliche Verfahren zum Einsatz und bei jeder Methode nochmal etwas unterschiedliche Verfahren … und so sieht das Bild doch meßtechnisch wirklich recht ordentlich aus.

    Nur bei Ihnen hört sich das so an, als stelle eine gute Korrelation verschiedener Ergebnisse eher ein Manko dar. Und daß in einer Vielzahl von Arbeiten unterschiedliche Resultate verglichen, bewertet, gewichtet, kombiniert werden, um bessere Ergebnisse zu erhalten, das sei alles irgendwie grundfalsch.

    Der einzige nachprüfbare Test zu Ihrer Hypothese, die ich zu Ihrer Theorie der verrauschten Vielfachkopien aufstellen konnte, hat sie zudem entkräftet – auch wenn Sie dem ziemlich einfachen Gedankengang nicht folgen können. Sie selbst haben bisher gar nichts vorschlagen können, womit sich Ihre Theorie falsifizieren ließe – wie Sie überhaupt sehr wenig nachprüfbares vorbringen.

  97. #97 Jörg Zimmermann
    Mai 4, 2009

    “Die Zerlegung in langsame und schnelle Prozesse, in Klimasignal und Wetterrauschen entspricht dem beobachteten Prozeß eben gerade nicht sondern ist eine rein willkürliche Festlegung.” Das ist richtig. Aber welche Frage stellen wir? Wir fragen nach dem klimatischen Trend, der vorausgesagt ist und wollen wissen, ob der tatsächlich abläuft oder ob wir unsere Vorstellungen modifizieren wollen. Und genau bezogen auf eine solche Frage machen wir eine willkürliche Einteilung. Bezogen auf diese Frage wird die Subjahrzehntvarianz zum globalen Wetter und suchen wir nach einem Signal für langfristige Änderungen der globalen Temperatur. Wenn das Modell sagt, daß es eine nicht geringe Wahrscheinlichkeit dafür gibt, daß während einer globalen Erwärmung ein herausgegriffenes Jahrzehnt einen Temperaturabfall zeigt, nicht etwa als Meßfehler, sondern als in den Meßreihen signifikantes globales Wetter, dann wissen wir, wonach wir suchen und wonach nicht. Wir suchen eben genau nicht nach einer solchen Subjahrzehntvarianz. Da trifft es sich zudem, wohl nicht zufällig, daß uns auch statistische Parameter wie ein F-Test sagen, daß unter ca. 24 Jahren an Daten signifikante Trends gar nicht zu finden sind. Wir können uns darüber streiten, ob wir die Grenze bei 20, 25 oder 30 Jahren legen dürfen oder irgendwo dazwischen, wir können uns aber nicht darüber streiten, ob wir einen klimatischen Trend bei 8 Jahren sinnvoll suchen können.

    “Nur bei Ihnen hört sich das so an, als stelle eine gute Korrelation verschiedener Ergebnisse eher ein Manko dar.” Nein, das behaupte ich nicht. Ich behaupte nur, daß Sie sich Ihre gewünschte Antwort selbst produzieren. Sie haben nur eine reale globale Temperaturzeitreihe. Sie haben dafür verschiedene Datenreihen als Repräsentanz, die aus verschiedenen Gründen teilweise abweichen. Wenn Sie die Zeitreihen kombinieren, können sie der realen Zeitreihe vielleicht genauer folgen. Die Trennung dessen, was Sie suchen, dem klimatischen Trend und dem Anteil, den Sie separieren wollen, erreichen Sie so aber nicht.
    “Der einzige nachprüfbare Test zu Ihrer Hypothese, die ich zu Ihrer Theorie der verrauschten Vielfachkopien aufstellen konnte, hat sie zudem entkräftet – auch wenn Sie dem ziemlich einfachen Gedankengang nicht folgen können.” Meinen Sie den Differenzplot (1.5.- 21:48 Uhr)? Ich kann es nicht nachvollziehen, weil Ihre Beschreibung nicht darstellt, was Sie eigentlich gemacht haben und was das belegen soll bezogen auf das hier diskutierte Problem: die Erkennung des klimatischen Trends im Gegensatz dazu, daß man das globale Wetter künstlich statistisch signifikanter macht.
    “Sie selbst haben bisher gar nichts vorschlagen können, womit sich Ihre Theorie falsifizieren ließe – wie Sie überhaupt sehr wenig nachprüfbares vorbringen.”
    Ich denke, daß es Ihnen möglich ist und Sie es auch gemacht haben, Zeitreihen einer linearen Regression zu unterziehen, sich Fehler und F-Test herausgeben zu lassen. Mehr mache ich nicht und anderes überlasse ich sinnvollerweise Experten. Wir reden hier über Experimentdesign und -diskussion, denn hier hakt es erst mal. Ich denke, daß es grundsätzlich jedem klar sein soll, daß man, wenn man hochkorrelierte Zeitreihen nimmt, deren Datenquellen weitgehend übereinstimmen, die aber etwas variieren durch gewählte Interpolationsverfahren usw. ein Verwenden dieser Datenreihen als VONEINANDER UNABHÄNGIGE Daten in einer Analyse, keine korrekte Statistik herauskommen kann. Sie behaupten was anderes. Ich kann Sie da nur bitten, jemanden zu fragen, der die entsprechende Ausbildung und Erfahrung in Statistik hat, sich das erläutern zu lassen. Ich weiß, daß das falsch ist, aber ich habe nicht die Expertise, ohne selbst mich tiefer einzuarbeiten, Ihnen technisch korrekte Erläuterungen zu geben, warum das nicht gehen kann und wie man das genau beweisen kann. Ich bin auch nicht in der Lage und bereit, einen falschen Ansatz selbst zu implementieren und durchzurechnen, bis ich ihn ad absurdum geführt habe. Die Zeit will ich mir nicht nehmen. Sie verwenden abhängige Daten in einer Weise, als wären sie unabhängig, und das führt zwangsläufig zu falschen Ergebnissen. Nehmen Sie meinetwegen irgendwelche Mittelwerte der verschiedenen Zeitreihen, wenn Sie sich damit wohler fühlen, aber bleiben Sie bei einem Datenpunkt pro Jahr (oder pro Monat, wenn sie unbedingt das monatliche Gerausche mitnehmen wollen) und dann kommen Sie zwangsläufig wieder dahin, daß 8 Jahre Ihnen keinen signifikanten Trend geben. Mir geht es nur um das und nichts anderes und Sie haben nichts angeboten und werden es auch nicht, das einen 8-Jahrestrend statistisch signifikant macht, es sei denn, sie verwenden abhängige Daten so, als wären Sie unabhängig voneinander.

  98. #98 Krishna Gans
    Mai 4, 2009

    @For4zim
    Sie mögen da ja einen Begriff für sich definiert haben, das “globale Wetter”, was ich von dem halte wird Sie mit Sicherheit wenig bis nicht interessieren, aber davon unabhängig reden Sie ständig von irgend welchen Trends der weiter ansteigenden “Erwärmung”.
    Ich sehe das mal in der Sprache der Wirtschaft und denke Sie meinen negativen Temperaturanstieg, wie er hier eindrucksvoll belegt ist:

    hadobs.metoffice.com/hadcrut3/diagnostics/global/nh+sh/annual_s21.png

  99. #99 for4zim
    Mai 4, 2009

    Sie hätten sich besser diese Seite angeschaut: https://www.metoffice.gov.uk/corporate/pressoffice/2008/pr20080923c.html
    Hier findet man eine Begründung des Hadley Centres selbst, warum die Daten keine verlangsamte Erwärmung oder gar Abkühlung hergeben.

    Ansonsten lohnt auch noch mal der Blick nach oben – worum geht es eigentlich in diesem Blogbeitrag?

  100. #100 Krishna Gans
    Mai 4, 2009

    @for4zim
    Tja, da finde ich erstaunlicher Weise das:

    The blue lines show the varying rate of the trend over 10-year periods

    Wo ich doch folgende Aussage von Ihnen weuter oben gefunden habe:

    dass Trends in der globalen Temperatur bei Zeiträumen unter 20 Jahren einfach nicht signifikant sind, kann man bei jedem voraussetzen, der auf dem Gebiet arbeiten will.

    Na ja, macht ja nichts, Sie werden schon wissen was Sie meinen.

  101. #101 Jörg Zimmermann
    Mai 5, 2009

    @Krishna Gans:
    Ich bedaure, daß Sie Probleme mit dem Leseverständnis haben. Der Beitrag des Hadley Centres demonstriert, WARUM Trends über 10 Jahre NICHT signifikant sind, eben WEIL sie so stark variieren. Das war der eigentliche Punkt des Beitrags. Und genau den haben Sie nicht verstanden? Das erklärt vieles. Wenn Sie ernst genommen werden wollen, versuchen Sie doch einmal, Texte auch zu verstehen, die sie verwenden wollen.

  102. #102 Wolfgang Flamme
    Mai 5, 2009

    JZ: “Aber welche Frage stellen wir? Wir fragen nach dem klimatischen Trend, der vorausgesagt ist(…)”

    Miiiep! Ich unterscheide sehr klar zwischen gemachten Beobachtungen der Vergangenheit und Zukunftsprojektionen und -erwartungen.

    Für mich war die Frage interessant, ob man behaupten könne, daß die Globaltemperatur in den letzten Jahren signifikant gesunken sei – wobei ‘signifikant’ hier nicht mit ‘beträchtlich’ verwechselt werden darf. Ohne Autokorrelationseffekte ist die Antwort ein ‘ja’, mit Autokorrelation ist es, wie Lucia schon andeutete, eine Frage der Hypothesengestaltung. Um den Bias einer Nullhypothese zu überwinden braucht es schon beträchtliche Evidenz und es stellt eben auch keinen fairen Wettbewerb der Hypothesen dar, wenn dabei die Fehler 2. Art zu groß werden.
    Wenn Sie also Klarheit darüber gewinnen wollen, wie stark Ihr Bias ist, dann müssen Sie sich lediglich fragen, ob Sie bereit wären, das Ergebnis eines unverfälschten Tests zu akzeptieren.

    Bei der Frage, ob 1997-2001 ein Trendbruch vorgelegen hat, tendiere ich also zu ‘derzeit unentscheidbar’. Lästigerweise nochmals der Hinweis, der ja leider immer wieder nötig scheint: Dieser ‘Trend’ ist eine reine Beobachtung der Vergangenheit und beinhaltet keinerlei Zukunftsprognose.

    Was die wirklich langfristige Entwicklung betrifft, reichen rein stochastische Zeitreihenmodelle nicht mehr aus. Ob Klimamodelle sich da gut schlagen, muß abgewartet werden, denn das ist letztendlich die einzige Möglichkeit, sie zu falsifizieren. Anders als stochastische Zeitreihenmodelle sind sie kurzfristig eher “wrong”, haben aber langfristig zumindest das Potential, “useful” zu sein.

    Zum Problem der (un-?)abhängigen Meßreihen:
    Wenn hier keine Veränderung und keine Globaltemperatur zur Debatte stünde, dann kämen Sie wahrscheinlich gar nicht auf die Idee, irgendwas an diesem Verfahren in Frage zu stellen. Wenn wir zB einen Metallwürfel durch die verschiedensten Labore dieser Welt durchreichen würden, um mit verschiedenen Methoden seine Masse zu bestimmen, dann würden Sie wohl keinen Moment daran zweifeln, daß sein wahres Gewicht aus dem Ergebnis vieler Messungen besser abgeschätzt werden könnte als durch eine einzige – auch und besonders dann, wenn die Messungen weitgehend übereinstimmend sind und sich nur durch ‘kleine Zufallszahlen’ unterscheiden.

  103. #103 Krishna Gans
    Mai 5, 2009

    @for4zim

    Over the last ten years, global temperatures have warmed more slowly than the long-term trend. But this does not mean that global warming has slowed down or even stopped

    Ich bin natürlich nicht blind, nichts desto trotz ist natürlich keine Garantie gegeben, daß der 33 Jahre Trend sich deratig fortsetzt.
    Das ist letztendlich Glaskugelleserei in einem System von dem man sagt, es wäre nicht-linear und chaotisch. Einflüsse durch die am “Boden” befindliche Sonnenaktivität sind in den Trendrechnungen aus der Vergangenheit selbstverständlich nicht enthalten.
    Es wäre schön für Klimatisten, wenn sich die Welt in simpler Statistik erklären ließe, selbst wenn die Berechnungen kompliziert wirken. Ich höre förmlich das Rasseln der Steinchen in den Kürbissen beim abendlichen Schamanentanz.
    ;.)

  104. #104 Krishna Gans
    Mai 5, 2009

    @for4zim
    Zur Ergänzng, von spaceweather.com

    NEW: Spotless Days
    Current Stretch: 3 days
    2009 total: 105 days (85%)
    Since 2004: 616 days
    Typical Solar Min: 485 days

    Da wird statistische Temperatur-Trendrechnerei zur Makulatur.
    Ist auch bisher sicher in keinem der hochgelobeten Modell enthalten.

  105. #105 Krishna Gans
    Mai 5, 2009

    @for4zim

    But this does not mean that global warming has slowed down or even stopped

    Das muß natürlich immer wiederholt werden, weil sonst eine Veranstaltung wie die, wo die Demokratie offen in Frage gestellt wird, sinnlos wäre:

    14:15 – 18:00 | SESSION IV: HOW CAN DEMOCRACY COPE WITH THIS CLIMATE STRESS?
    Technological innovation and political regulation can only be effective if “the people” participate in their various roles as polluters, producers and consumers of goods, citizens and voters. Democratic regimes are not well prepared for the level of participation that is required: Can free democratic societies cope with the effects of grave changes in the global climate, or might authoritarian regimes possibly be better placed to enforce the necessary measures?

    Allein der Gedanke!

    Dieser Programmpunkt stammt von hier:
    greattransformation.eu/index.php/program

    Die Veranstaltung selbst:

    The great transformation
    The impact of global climate change is not limited to specific areas of our lives. With its social, cultural, economic and psychological implications, climate change represents a shift towards a new era, which concerns all levels of the global community: markets and mindsets, global cooperations and democracy. To embrace this complexity and to discuss the core issues of Climate Change as Cultural Change the

    Institute for Advanced Study in the Humanities in Essen (KWI),
    Stiftung Mercator
    in cooperation with the Potsdam Institute for Climate Impact Research (PIK) and
    Wuppertal Institute for Climate, Environment and Energy

    Mit dabei Töpfer, Schellnhuber……
    kulturwissenschaften.de/home/veranstaltung-193.html

  106. #106 Georg Hoffmann
    Mai 5, 2009

    @Krishnag
    Ich halte es fuer sehr unwahrscheinlich, dass du weisst wovon du redest. Aber ich geb zu, manchmal, bin ich neugierig zu wissen, was du dir so vorstellst, wovon du redest.

    Ist auch bisher sicher in keinem der hochgelobeten Modell enthalten.

    Was soll in den Modellen nicht enthalten sein? Ein physikalisches prognostisches Sonnenmodell?
    Variationen der Solarkonstante ebenso wie der EInfluss auf die UV Strahlung ist allerdings enthalten. Gerade der erste Teil ist natuerlich ein EInzeiler.

  107. #107 Jörg Zimmermann
    Mai 5, 2009

    @Wolfgang Flamme
    “Ich unterscheide sehr klar zwischen gemachten Beobachtungen der Vergangenheit und Zukunftsprojektionen und -erwartungen.” Schön, daß Sie das machen. Zukünftige Messungen haben wir ja nicht. 😉
    “Für mich war die Frage interessant, ob man behaupten könne, daß die Globaltemperatur in den letzten Jahren signifikant gesunken sei ”
    Darum ging es mir auch. Die Antwort ist Nein, es sei denn, man
    a) vergißt die Autokorrelation, speziell bei den monatlichen Daten, bei den jährlichen wäre es nicht so ein großes Problem
    b) betreibt Datenvermehrung – abhängige Daten werden als unabhängige behandelt.
    Zudem habe ich noch nichts dazu gesagt, daß es seltsam ist, daß es immer unbedingt Zeitreihen sein müssen, die 1998 oder 2001 oder 2002 anfangen. An diesen Jahren muß irgend etwas magisch sein…

    Ihr Vergleich zum Schluß paßt überhaupt nicht. Wir reden nicht über eine Messung eines Ereignisses durch verschiedene Stellen, sondern über vier Zeitreihen, die das gleiche beobachten, nämlich den globalen Trend überlagert von globalem Wetter und einem Fehleranteil. Und wir kriegen vielleicht einen Teil des Fehlers heraus, wenn wir die Zeitreihen zusammenlegen, aber der Anteil globales Wetter steckt weiter drin.

  108. #108 Jörg Zimmermann
    Mai 5, 2009

    @Krishna Gans:
    Sie weichen dem Punkt aus, den Sie aufgebracht haben. Sie behaupten, das Hadley Centre würde belegen “Ich sehe das mal in der Sprache der Wirtschaft und denke Sie meinen negativen Temperaturanstieg, wie er hier eindrucksvoll belegt ist:”, und ich habe Sie darauf hingewiesen, daß die Experten am Hadley Centre selbst darauf hinweisen, daß man das ihren Daten keineswegs entnehmen kann. Wollen Sie dazu noch etwas schreiben (z.B. sich korrigieren oder auf ihren Fehler beharren)?

  109. #109 Krishna Gans
    Mai 5, 2009

    @for4zim
    Sie übersehen, daß ich von einer anderen graphi, einem anderen Link ausgegangen bin.
    Oder wollen Sie mir da was vorschreiben ??

  110. #110 Jörg Zimmermann
    Mai 5, 2009

    Nein, das übersehe ich nicht. Ich beziehe mich genau auf ihre verlinkte Graphik auf der Seite des Hadley Centres und verlinke meinerseits auf die Bewertung der Daten eben dieses Hadley Centres. Es gibt keinen signifikanten negativen Trend in den Daten. Ich berechne keinen. Beim Hadley Centre berechnet man keinen. Beim Deutschen Wetterdienst sieht man keinen. Bei GISS sieht man keinen. Sie können auch keinen belegen, allenfalls einen Irrtum vertreten (oder Wunschdenken, wie auch immer). Schauen Sie noch mal nach oben, die Zusammenfassung der Publikation von Easterling und Wehner: 10-Jahresabschnitte mit fallender Temperatur kommen im Rahmen einer globalen Erwärmung vor und sind daher klimatologisch nicht signifikant. Und derzeit haben wir beim 11-, 10-, und 9-Jahrestrend einen Anstieg (natürlich nicht signifikant). Herr Flamme redet, so ein Zufall, gerade von einem 8-Jahrestrend, der zufällig negativ ist (nicht signifikant). Er könnte auch den 7-Jahrestrend nehmen, oder 6-Jahrestrend oder 5-Jahrestrend. Alle negativ. Teilweise sind die Regressionsparameter deutlich größer als ihre statistischen Fehler. Aber die linearen Regressionen sind nicht signifikant. Der Hit ist natürlich der 4-Jahrestrend 2005 – 2008. Negativ. Nach F-Test, falls ich mich nicht verrechnet habe, signifikant – ok, bei nur 4 Werten ;-). Regressionsparameter haben relativ kleine Fehler. Warum haben Sie nicht damit argumentiert? Das würde mich gar nicht mehr verwundern.

  111. #111 Krishna Gans
    Mai 5, 2009

    @for4zim
    Richtig, Trends in dem bereits angesprochenen System sind “nicht signifikant”.

    Ich berechne keinen

    Das hat natürlich Gewicht, insbesondere wenn man die von Ihnen angeführte Reihenfolge sieht !
    Der Esel geht immer voran, oder wie lautet dieser Sinnschpruch aus der Grundschule, oder war es schon im Kindergarten ?

    Ich…
    Hadley Centre…….
    Deutschen Wetterdienst…….
    GISS …….

    Das würde mich gar nicht mehr verwundern.

    Mich wundert bei Ihnen auch nichts mehr, Arroganz ist wohl nicht heilbar ??

  112. #112 Chlorobium
    Mai 5, 2009

    @Krishna

    … Dummheit aber auch nicht.

  113. #113 Krishna Gans
    Mai 5, 2009

    @Chlorobium
    …wie Du auch immer wieder beweisen mußt.

  114. #114 for4zim
    Mai 5, 2009

    “Richtig, Trends in dem bereits angesprochenen System sind “nicht signifikant”.” Schön, daß Sie sich korrigieren.

  115. #115 Krishna Gans
    Mai 5, 2009

    @for4zim
    Sie haben selektiv bis nicht verstanden, ich korrigiere nichts, ich spreche auch von dem 33 jährigen Trend, der auch nicht signifikant ist, interessant zwar, aber mehr nicht. Wenn Ihnen das gefällt, mein Gott, ziehen Sie sich dran hoch.
    Mit “System” meine ich das nicht-lineare, chaotische, wo ich jeden “Trend” für ein Hirngespinst halte, und das es nicht unbedingt wärmer wird, da beißt keine Maus einen Faden von ab und das zeigt auch die von mir verlinkte Graphik . Ich weiß, Sie haben…..
    Schön, und ? Erfreuen Sie sich dran 🙂

  116. #116 Wolfgang Flamme
    Mai 6, 2009

    Schön, daß Sie das machen. Zukünftige Messungen haben wir ja nicht. 😉

    Eben. Nur Sie fragen gleich nach dem vorausgesagten Trend.

    Die Antwort ist Nein, es sei denn, man
    a) vergißt die Autokorrelation, speziell bei den monatlichen Daten, bei den jährlichen wäre es nicht so ein großes Problem
    b) betreibt Datenvermehrung – abhängige Daten werden als unabhängige behandelt.

    zu a)
    Ich bezweifele, daß ein jährliches Binning das Problem der Autokorrelation mindert – oder würde eine häufigere Abtastung es erhöhen?
    Die Idee ist ja im einfachen Fall, daß sich das System eine Störgröße merkt und daß der nächste Zustand des Systems auch von dem Ausmaß der erlebten Störung mitbestimmt wird … nicht vollständig, aber zum Teil. Mit infinitesimal kleinen Zeitschritten klingt ein Störimpuls dann in einer Exponentialfunktion über die Zeit ab. Die Zeitkonstante dieses Ablingens ist aber prozeßbedingt konstant, egal wie oft sie diesen Prozeß dann tatsächlich abtasten.
    Weitere Vermutungen will ich im Detail noch gar nicht äußern, bevor ich mehr Gewißheit habe, aber es sieht mir ganz danach aus, daß Sie durch die Mittelwertbildung eher ein gröberes, fehlerbehafteteres Bild des Prozesses erhalten, aber nicht weniger Autokorrelation.

    Das dürfte aber nicht der eigentliche Punkt sein. Der ist vielmehr, daß Sie in einer notorisch ‘datenknappen’ Umgebung durch die Jahresmittelwertbildung die Zahl der Daten auf 1/12 reduzieren und die Standardabweichung damit ungefähr um das sqrt(12)= 3..4-fache aufweiten. Und damit ist der jüngste Trend mit der damaligen Prognose einer fortlaufenden Erwärmung von 1,5…2 °C deutlich besser vereinbar.

    Was Sie bisher aber noch nicht angesprochen haben: Der Trend wäre dann auch mit der Hypothese einer deutlich stärkeren Abkühlung vereinbar, als sie bisher beobachtet wird…. denn der Vertrauensbereich des Trends erweitert sich ja nicht nur nach oben, sondern auch nach unten.

    Die sachliche Schlußfolgerung ist, daß da eine Pattsituation vorliegt. Keine Seite in der AGW-Diskussion hat derzeit die Möglichkeit, die Nullhypothese schlüssig zu widerlegen, auf die die andere Seite sich im Zweifelsfall gerne zurückziehen möchte. Die Zeit wird es weisen.

    zu b)
    Ich habe immer noch keine Begründung von Ihnen zu diesem Punkt erhalten, der eine quantitative Bewertung gestatten würde. Die Daten sind also abhängig … zum Einem davon, was vermessen werden soll, dem globalen Temperatur-Flächenmittel. Zum anderen sind sie abhängig von was? Und zu welchem Anteil? Da muß aber langsam etwas Butter bei die Fische, sonst muß ich das wohl unter Bielefeld-Verschwörung verbuchen.

    Herr Flamme redet, so ein Zufall, gerade von einem 8-Jahrestrend, der zufällig negativ ist (nicht signifikant). Er könnte auch den 7-Jahrestrend nehmen, oder 6-Jahrestrend oder 5-Jahrestrend. Alle negativ.

    Ach das … das ist bloß data-mining. Sie müssen sich das so vorstellen, als hätten Sie nie auch nur im Entferntesten die Chance gehabt, den April 2009 als den wärmsten April in Deutschland seit Beginn der Aufzeichnungen vorherzusagen … aber da es nunmal passiert ist, verbuchen Sie die Tatsache unter ‘signifikante Anzeichen für fortschreitende globale Erwärmung in völliger Übereinstimmung mit etablierten Modellen’.

  117. #117 Eddy
    Mai 6, 2009

    *Es mag wohl sein, dass der jüngste Temperaturrückgang nur eine natürliche Fluktuation widerspiegelt. Aber dann erhebt sich eine andere Frage: Können sich die Klimaforscher wirklich sicher sein, dass analoge Schwankungen bei der Erwärmung seit Mitte des 20. Jahrhunderts kaum eine Rolle gespielt haben, wie dies im letzten IPCC-Bericht zu lesen war? Wie brauchbar sind Klimaprojektionen eigentlich für mittelfristige Planungen von Regierungen und Wirtschaftsunternehmen? Vielleicht war die meinungsbestimmende Mehrzahl der Klimaforscher bei den bisherigen Antworten doch etwas zu selbstgewiss.*
    Sven Titz, Spektrum der Wissenschaft 2/09 “Kalt erwischt”

  118. #118 Jörg Zimmermann
    Mai 6, 2009

    Herr Flamme, wir kommen im grundsätzlichen nicht weiter. Sie meinen, daß man abhängige Daten als unabhängig betrachten kann, daß man also einfach verschiedene Zeitreihen der globalen Temperatur aus dem gleichen Zeitraum aneinanderlegen kann, als wären es unabhängige Beobachtungen, um damit künstlich die Signifikanz eines Trends zu erhöhen.

    Sie meinen, daß die Autokorrelation monatlicher Daten nicht höher wäre als jährliche Daten.

    Sie meinen, wenn ich ein Mittel von 12 Monatswerten bilde und mir den Trend einer bestimmten Anzahl Jahre anschaue, hätte ich die zugrunde liegenden Daten BEZÜGLICH DES TRENDS auf 1/12 reduziert gegenüber der Betrachtung der monatlichen Daten. Und Sie meinen, daß dabei die größere Autokorrelation der monatlichen Daten auch keine Rolle spielt.

    Sie meinen, daß es keinen Unterschied macht, wenn Sie eine kurze Zeitreihe globaler Temperaturanomalien betrachten, wie da drauf verschiedene Ereignisse globalen Wetters verteilt sind wie ENSO, weil Sie nicht zwischen globalem Wetter und Erwärmungstrend unterscheiden, und deshalb ist für Sie auch schon ein Temperaturrückgang über einige wenige Jahre möglicherweise signifikant für die Frage, ob der globale anthropogene Erwärmungstrend entsprechend den Erwartungen abläuft oder in Frage z ustellen ist.

    Das sind alles Prämissen, die ich nicht teile, und es ist mir die Mühe nicht wert, Sie davon abzubringen. Ich kann Ihnen nur raten, sich doch bitte mal von jemandem beraten zu lassen, der sehr gute statistische Kentnnisse hat. So lange das Ihre Prämissen sind, werden wir hier zu keinen Ergebnissen kommen. Im Laufe der nächsten ca. 5 Jahre, vielleicht auch schon früher, wird Ihnen klar werden, daß Sie unrecht hatten. Sie werden es abwarten, ich weiß es jetzt schon.

  119. #119 Jörg Zimmermann
    Mai 6, 2009

    @ Krishna Gans:
    “Sie haben selektiv bis nicht verstanden, ich korrigiere nichts, ich spreche auch von dem 33 jährigen Trend, der auch nicht signifikant ist” Das behauptet noch nicht mal Herr Flamme. Wissen Sie, wie man eine lineare Regression berechnet und wie man grundsätzlich ihre Signifikanz bestimmt?
    “…und das zeigt auch die von mir verlinkte Graphik…” Nein, das zeigt sie nicht, siehe oben.

  120. #120 Krishna Gans
    Mai 6, 2009

    @for4zim

    ich spreche auch von dem 33 jährigen Trend, der auch nicht signifikant ist” Das behauptet noch nicht mal Herr Flamme

    Warum sollte er auch ?
    Er hat seine, ich habe meine, und “die Welt” hat Ihre, also, was soll’s.
    Was ich von dieser ganzen Trendrechnerei halte, hatt ich Ihnen mitgeteilt, daß ist meine ureigenste persönliche Meinung und Sie sind mit Sicherheit nicht derjenige der mich dazu bringt, meine Meinung zu ändern.
    Die von mir verlinkte Graphik zeit einen Temperaturabfall, was Sie dazu sagen ist mir ehrlich gesagt ziemlich Wurst, mindestens.
    Ob der anhält, ist eine ganz andere Geschichte, das ist keine Frage der Statistik, die Möglichkeiten aufzeigt.

  121. #121 Krishna Gans
    Mai 6, 2009

    @Eddy
    Hey, schön daß Du wieder an Bord bist.
    [ ich weiß, der eine oder andere sieht das diffferenzierter ;.) ]

  122. #122 Wolfgang Flamme
    Mai 6, 2009

    Herr Zimmermann,

    Ihre Zusammenfassung meiner angeblichen Meinung ist nichts weiter als eine tendenziöse Darstellung der Ihren.

    Sie haben trotz mehrfachen Nachfragens noch nicht einmal versucht zu klären, von was – außer der Temperatur – diese Zeitreihen noch abhängig sein sollten und in welchem Umfang. Diese (Nicht-)Vorstellungen reichen noch nichtmal aus, um als ‘abstruse Theorie’ geadelt zu werden, denn jede Theorie – auch eine abstruse – muß zumindest falsifizierbar sein.

    Bzgl. des Binning und der Autokorrelation (AC) stelle ich fest:

    a) Die AC ist eine Eigenschaft der physikalischen Vorgänge, eine Eigenschaft des beobachteten Prozesses. Diese Eigenschaften werden sich nicht verändern, nur weil Sie es für richtiger halten, sie in deutlich größeren, zeitlichen Abständen zu beobachten.
    Die AC wird allein schon deshalb nicht verschwinden können.

    b) Das Binning in Jahresmittelwerte wird u.a. dazu führen, daß Sie die ablingende e-Impulsantwort des Prozesses nur mit größerer Unsicherheit statistisch rekonstruieren können. Dieser Verzicht auf Genauigkeit hat dann natürlich auch zur Folge, daß Sie mehr Daten benötigen, um einen dem red noise unterlagerten Trend als signifikant zu entdecken.

    c) Den stärksten Einfluß dürfte allerdings die drastische Schrumpfung der Datenmenge infolge der Mittelwertbildung haben.

    d) Meine Frage, warum es unbedingt ein jährlicher Mittelwert sein müsse, wo es sich doch um saisonal bereinigte Anomalien handelt, haben Sie auch noch nicht beantwortet. Auch nicht, was diese Mittelwertbildung konkret bringt.

    Ich glaube, ich mach einfach mal das, was ich schon lange hätte tun sollen, statt mich hier zu streiten: Praktische Tests.
    Ich werde eine Vielzahl synthetischer, autokorrelierter Zeitreihen generieren, die Monatsmittel darstellen sollen – die Parameter des Prozesses schätze ich aus trendbefreiten Bodenzeitreihen. Diesen synthetischen Zeitreihen schiebe ich dann einen bekannten Trend unter.
    Und dann werde ich mal schauen, welches Verfahren bessere Ergebnisse bei der Trendschätzung und ggfs. bei der Vorhersage liefert bzw. bei vergleichbarer Aussagekraft die Daten am effektivsten nutzt.

    (…) deshalb ist für Sie auch schon ein Temperaturrückgang über einige wenige Jahre möglicherweise signifikant für die Frage, ob der globale anthropogene Erwärmungstrend entsprechend den Erwartungen abläuft oder in Frage zustellen ist.

    Mit jeder Entgegnung bestätigen Sie erneut, daß Sie nicht zwischen historischen Beobachtungen und Zukunftsprognosen bzw. Erwartungshaltungen unterscheiden können oder wollen. Das sind keine guten Voraussetzungen für wissenschaftliches Arbeiten.

  123. #123 gesys
    Mai 6, 2009

    @Krishna Gans

    was machst du eigentlich beruflich, dass du den ganzen tag zeit hast in irgendwelchen klimaforen zu posten?

    dir muß ja mächtig fad sein

  124. #124 Jörg Zimmermann
    Mai 6, 2009

    “Sie haben trotz mehrfachen Nachfragens noch nicht einmal versucht zu klären, von was – außer der Temperatur – diese Zeitreihen noch abhängig sein sollten und in welchem Umfang.” Es handelt sich um Zeitreihen von Temperaturanomalien. Alle sind von der bodennahen Lufttemperatur und der Oberflächentemperatur der Ozeane. Und zwar alle Zeitreihen von den selben Temperaturen – es gibt ja nur eine Erde.
    Zu a) Die Autokorrelation ist eine Folge der Trägheit des Systems, der Persistenz des Wetters, bzw. der Wärmekapazität der Teile der Erde, die miteinander im Austausch stehen. Die Persistenz ist um so spürbarer, je kürzer der betrachtete Zeitraum ist.
    Zu b) Was für abklingende e-Funktionen? Hier geht es um den Klimawandel.
    Zu c) Das ist Ihre Prämisse.
    Zu d) Sie können auch gerne 10-Monatsmittel oder 2-Jahresmittel nehmen oder 10-Jahresmittel betrachten. Ich habe auch nicht grundsätzlich etwas dagegen, daß sie Monatsmittel betrachten. Es bringt nur für den klimatologischen Trend nichts. Und Sie müssen meiner Meinung nach bei Monatsmitteln noch genauer schauen, was Sie mit den Daten anstellen. Wie gesagt, von mir aus nehmen Sie Monatsmittel.

    “Mit jeder Entgegnung bestätigen Sie erneut, daß Sie nicht zwischen historischen Beobachtungen und Zukunftsprognosen bzw. Erwartungshaltungen unterscheiden können oder wollen.” Ich verstehe Ihr Problem nicht. Ich betrachte die Zeitreihe der Temperaturanomalien. Nicht als Selbstzweck, sondern um zu verstehen, ob eine globale Erwärmung stattfindet und ob sie den Erwartungen entspricht. Die Erwartungen werden durch die Modellergebnisse repräsentiert. Um was geht es Ihnen denn?

  125. #125 Krishna Gans
    Mai 6, 2009

    @gesys
    Ein Fliegendreck ist sowas von einem Riesenhaufen gegen das, was Dich das angeht.

  126. #126 Chlorobium
    Mai 6, 2009

    @Krishna:

    Wenn es hier allen Teilnehmer egal sein kann, was Sie hier den lieben langen Tag posten, warum posten Sie überhaupt? Dann machen Sie doch Ihren eigenen Blog auf, in dem dann keiner etwas zu Ihren Postings schreibt; weil es denen ja sowieso egal sein kann.

    … oder sind Sie einfach nur einsam?

  127. #127 Wolfgang Flamme
    Mai 7, 2009

    @Jörg Zimmermann

    1) Also sind die Zeitreihen deshalb gut korreliert, weil sie alle das messen, was wir messen wollen. Jeweils mit geringfügigen Fehlern. Und aus mehreren solcher Messungen kann man einen besseren Schätzer entwickeln als wenn man sich einfach irgendeinen Wert herauspickt. Das Wissen darum ist doch schon über 200 Jahre alt, was gibt’s da eigentlich noch zu debattieren?

    2) Wenn Sie einen langen Zeitraum berachten und über diesen mitteln, dann können Sie innerhalb dieses Zeitraumes schonmal gar keine Veränderung feststellen – Sie haben dann ja nur einen Wert. Eine Veränderung können Sie dann feststellen, wenn Sie mehrere Zeiträume betrachten. Und das gilt für jede Art der Veränderung. Mit der Häufigkeit der Beobachtung steigt die Möglichkeit, Veränderungen überhaupt bemerken zu können (Abtasttheorem). Wenn Sie also möglichst viel Veränderung nicht bemerken wollen, dann sollten Sie möglichst selten abtasten und dabei über möglichst große Zeiträume Mittelwerte bilden. Also zB Zeiträume mit 25..50 Jahren ergeben übereinstimmend gute, signifikante Trendschätzer von ziemlich genau 0,6°C/Jahrhundert … das ist zwar Ihre bombensichere Methode und erlaubt angeblich auch zuverlässigere Prognosen, paßt Ihnen aber trotzdem nicht.

    3) Was für eine e-Funktion… du lieber Himmel, da argumentieren Sie mit mir über Autokorrelation und kennen noch nicht mal die simpelsten Zeitreihenmodelle?

    Also, die Regression basiert auf der Vorstellung, das ideale System verhielte sich in seiner Antwort proportional zu einer unabhängigen Einflußgröße (hier die Zeit). Abweichungen vom idealen Verlauf seien voneinander unabhängige, zufällig auftretende und normalverteilte Störungen in der Messung oder der Meßgröße.
    Deren Normalverteilung kann man natürlich prüfen, die Unabhängigkeit auch: Dazu führt man eine Regression der Zeitreihe gegen Ihre um einen (oder mehrere) Zeitschritte verschobene Kopie aus. Wenn die Werte von ihrem Vorgänger unabhängig sind, gibt es keinen Zusammenhang zwischen einer solchen Abweichung und ihrem Vorgänger. Andernfalls gruppieren sich bei diesem Modell die Werte signifikant entlang einer Regressionsgeraden, wobei gilt:
    Nachfolgende Abweichung = c * vorhergehende Abweichung + normalverteilte Zufallsgröße mit (c<1)

    Von Zeitschritt zu Zeitschritt 'vererbt' sich also nur ein gewisser Prozentsatz der vorherigen Abweichung weiter; ein einmaliger Störimpuls klingt bei diesem einfachen AR(1)-Modell also entsprechend einer e-Funktion ab.

    Den verbleibenden Fehler e kann man natürlich wiederum auf Normalverteilung und statistische Unabhängigkeit der Abweichungen untersuchen und so zB feststellen, daß Restabweichung statistisch signifikant von der vor-vorherigen Abweichung erklärt werden kann, indem man eine Regression der verbleibenden Fehlergröße auf diesen Wert durchführt, was dann auf ein AR(2)-Modell hinweisen würde. Es gibt auch noch andere klassische Strukturelemente in diesem statistischen Modellbaukasten (AR-I-MA), deren Komponenten und Strukturtiefe sich mit statistischen Methoden schätzen lassen. Und bitte verkneifen Sie sich die Frage, was Atmosphärenphysik und Stochastik gemeinsam haben ...

    wf: c) Den stärksten Einfluß dürfte allerdings die drastische Schrumpfung der Datenmenge infolge der Mittelwertbildung haben.
    jz: Zu c) Das ist Ihre Prämisse.

    Also ‘dürfte’ würde ich eher als Vermutung interpretieren, wenn zB Sie etwas in dieser Art äußern würden.Andererseits gestehe ich zu, daß ich in dieser Situation Informationsknappheit generell im Focus habe. Also: Entscheiden Sie einfach, ob dieser Punkt künftig ein entscheidendes Thema werden soll.

    Ich habe auch nicht grundsätzlich etwas dagegen, daß sie Monatsmittel betrachten. Es bringt nur für den klimatologischen Trend nichts.

    Dazu möchte ich mich äußern, ohne daß mir ständig der Kopf auf die Tastatur knallt – es ist einfach zu spät am Abend/Morgen.

  128. #128 Krishna Gans
    Mai 10, 2009

    May 8, 2009: A new active period of Earth-threatening solar storms will be the weakest since 1928 and its peak is still four years away, after a slow start last December, predicts an international panel of experts led by NOAA’s Space Weather Prediction Center. Even so, Earth could get hit by a devastating solar storm at any time, with potential damages from the most severe level of storm exceeding $1 trillion. NASA funds the prediction panel.

    Spaceweather.com

    Ich unterstelle mal, daß, wenn das tatsächlich so kommt wie es angedeutet wird, dann werden wir evzl. mit einem Nachlauf von 2-4 Monaten einen Temperatursprung verzeichnen können
    Den bekommt man natürlich dank der üblichen Glättung und Filterung IPCC / PIK naher Kreise nicht zu sehen, da es dann ja nicht mit dem CO2 Anstieg korrelieren würde……
    Das klappt dann wohl eher mit einem gleitenden 13 Monatsmittel…
    Und dann kann man im Nachhinein nachprüfen, ob der sich dann kurzfristig einstellende Temperaturanstieg mittels e-Funktion wieder abklingt……

  129. #129 Krishna Gans
    Mai 10, 2009

    Das klappt dann wohl eher mit einem gleitenden 13 Monatsmittel

    Soll heißen gleitendes 12 Monatsmittel / Jahresmittel – sorry

  130. #130 Jörg Zimmermann
    Mai 11, 2009

    @Flamme:

    Die Diskussion leidet daran, dass immer noch nicht klar ist, was hier betrachtet werden soll. Das muss aber VOR einer Analyse stehen. Sie reden über Datenverlust, wenn Sie Jahresmittel nehmen. Aber was soll denn da unterjährig aufgelöst werden? Da kann kein klimatologischer Trend stattfinden. Jahreszeiten interessieren nicht, auch keine globalen. 1997-1999 ist die globale Temperatur um einen Bereich von 1 Grad geschwankt. Das wollen Sie auflösen. Wozu? Für den Trend ist das bedeutungslos. 1991/1992 ging die Temperatur um einige Zehntelgrad zurück, weil der Pinatubo ausgebrochen war. Das wollen Sie auflösen. Wozu? Für den Trend ist das bedeutungslos. 2008 ging die Temperaturanomalie im Jahresmittel auf 0,3 Grad zurück unter dem Einfluß eines La Nina und einer längeren Phase nahe einem La Nina. Das wollen Sie auflösen. Wozu? Für den Trend ist das ohne Bedeutung. ENSO Phasen schwanken auf der Zeitskala von einigen Jahren. Sie müssen über mehrere Phasen mitteln, um diese Schwankung aus ihrem Trend herauszubekommen. Was also wollen Sie da auf der Skala von wenigen Jahren herausfiltern? Sicher nicht den klimatologischen Trend. Der ist da definitiv maskiert. Alles anderes sind dagegen Nebenschauplätze. Sie können meinetwegen Monatswerte bringen. Die lösen auch etwas auf. Sie lösen aber nichts auf, was für diese Frage hier „Was ist der Trend“ von Relevanz wäre. Das ist so, als ginge es darum, die Größenordnung einer Zahl festzustellen und sie überlegten fortwährend, wie man noch mehr Nachkommastellen mitnehmen kann. Der entscheidende Punkt ist, daß Sie verstehen müssen, was Sie da untersuchen, und worauf die Analyse aus ist. Wenn Sie da ankommen, spielt auch keine Rolle mehr, daß Sie unbedingt eine Datenreihe für eine Regression verlängern wollen, indem Sie sie drei weitere Male leicht verrauscht hinzunehmen.

    Ihre Erläuterungen unter 3) beruhen auf einem Missverständnis. Mein vollständiger Einwand war: „Zu b) Was für abklingende e-Funktionen? Hier geht es um den Klimawandel.“ Betonung liegt auf den zweiten Satz. So lange Sie im Bereich Ihrer abklingenden e-Funktionen sind, sind Sie genau in dem Bereich, der hier nicht relevant ist. Also danke für den kleinen Essay zu den Hintergründen von AR(1)- und höheren Prozessen, aber das war hier nicht die Frage. Ihnen ist immer noch nicht klar, daß es hier darum geht, daß wir verschiedene Prämissen haben. Ich halte bereits Ihren Ansatz für falsch. Sie schauen auf die falschen Zeitskalen. Wenn ich mir 30 Jahre vornehme, kann ich das begründen. Aber bei 8 Jahren kann ich auch fragen – warum nicht gleich 5 Jahre oder 3 Jahre? Oder 10 Jahre? Warum sind 1998, 2001 oder 2002 als Anfangsjahre für eine Trendbetrachtung so sexy? 30 Jahre kann ich einfach begründen. Es ist eine klimatologisch sinnvolle Zeitspanne. Trends sind auf der Zeitskala signifikant. Der anthropogene Klimawandel ist seit knapp 4 Dekaden signifikant – vorher war der Klimaantrieb aus den Treibhausgasen in der gleichen ungefähren Größe wie natürliche Antriebe. Es gibt einen schlimmeren Daten“verlust“, als Daten zu mitteln, nämlich sich nicht darum zu kümmern, welche anderen Kenntnisse man über den Betrachtungsgegenstand hat. Wir wissen mehr, als nur die Temperaturanomalien. Wir wissen einiges über das System, aus dem die Zahlen kommen.

  131. #131 Eddy
    Mai 11, 2009

    Jetzt haben wir es schwarz auf weiss: Thema seltsame Umfragen, aber verdammt aufschlussreich:

    https://www.spiegel.de/kultur/gesellschaft/0,1518,622856,00.html

    Hans Mathias Kepplinger:

    “Wir haben Klimaforscher in einer Studie befragt, ob die Medienberichterstattung über den Klimawandel einen Einfluss auf die Zuweisung von Forschungsgeldern hat. Mehr als zwei Drittel bejahen das. Übrigens: In der Regel sind das Überzeugungstäter, Leute mit einer Mission.”

  132. #132 Wolfgang Flamme
    Mai 12, 2009

    Herr Zimmermann,

    Sie unterliegen da einigen Fehleinschätzungen:

    1) Ich bin der Vorstellung grundsätzlich zugetan, daß sich ein langfristiger Trend umso zuverlässiger abschätzen lassen sollte, je länger der betrachtete Zeitraum ist. Die konsequente Anwendung dieser Prämisse auf alle verfügbaren Daten führt mich aber – ich sagte es ja bereits – zu Trends von etwa 0,6°C/Jahrhundert. Somit ließe sich durchaus argumentieren, daß nicht ich es bin, der kurzfristige Fluktuationen als signifikanten Trend überbewertet, sondern Sie.
    Zum Einwand von Georg, das AGW-Signal trete aber erst ab den 70ern aus dem Rauschen deutlich hervor, gilt eigentlich dasselbe: Langfristige Mittelwertbildung sollte trotzdem das höherfrequente Rauschen eliminieren und das Trendsignal übriglassen.

    Rein von der Datenlage her kann ich erstmal keinen Grund erkennen, warum ein 25..40-Jahretrend eine korrektere Repräsentation des unterlagerten Langzeittrends widergeben sollte als ein 100..150 -Jahretrend.

    2) Bei Ihnen ist eine Prämisse fest ‘einbetoniert’: Die neuzeitliche Temperaturentwicklung ließe sich zerlegen in eine annähernd lineare Trendentwicklung und eine überlagerte Komponente, die natürliches Rauschen auf Zeitskalen von wenigen Dekaden und kürzer widerspiegelt.

    Von der Datenlage her ist diese Sichtweise aber überhaupt nicht zwingend – auch hochkorrelierte, zufällige Temperaturzeitreihen liefern regelmäßig ähnlich signifikante Trends. Schon ein einfaches Zeitreihenmodell, daß auf der Kombination von Zufall und Persistenz beruht, liefert in allen wesentlichen Charakteristiken ‘realistisch’ erscheinende Temperaturverläufe.

    Es ist sicher äußerst unbefriedigend, daß es angesichts der beschränkten Datenlage keine klare empirische Evidenz gibt, die eine saubere Trennung zwischen AGW-Trend und Persistenztrend gestattet. Die Aufteilung erfolgt letztlich immer willkürlich durch das zugrunde gelegte Modell und den betrachteten (und betrachtbaren) Zeitraum.

    Paläoklimatologische Rekonstruktionen könnten bei der Zuordnung theoretisch helfen, leider leiden Sie alle mehr oder weniger unter demselben Problem, daß nämlich ein ‘guter’ Proxy sich definitionsgemäß durch eine (mehr oder weniger) gute Korrelation im instrumentell verbürgten Kalibrierintervall auszeichnet und eine Multi-Proxy-Rekonstruktion eben eine Ansammlung solcher Proxies darstellt.
    Diese Sammlung weist, selbst wenn es sich lediglich um rein zufällige Zeitreihen mit Persistenz handelt, natürlich während der Kalibrierperiode gute Übereinstimmung aus, je weiter man sich aber davon in die Vergangenheit (und Zukunft) bewegt, eine zunehmend schlechtere und zufälligere, in der Summe also ‘neutralere’, weil der Persistenzeffekt im Laufe der Zeit abklingt.
    In der Vergangenheit schlägt sich dies als langgestreckter ‘Griff des Hockeysticks’ nieder, in der Zukunft zeigt er sich symmetrisch dazu als zunehmendes ‘Divergenzproblem’ … Proxies, die während der Kalibrierperiode noch als gute Temperaturindikatoren erschienen, lassen in Ihrer künftigen Aussagekraft zunehmend nach bzw. verhalten sich sogar entgegengesetzt zur beobachteten Temperaturentwicklung. Wie auch immer, da viele Proxies offenbar außerstande sind, die Temperaturhöhenflüge der jüngsten Vergangenheit nachzuzeichnen, muß allein schon deshalb vernünftigerweise bezweifelt werden, daß sie früher dazu imstande gewesen seien. Schon aus diesem Grund halte ich es für wenig aussagekräftig, solche vagen Multi-Proxy-Rekonstruktionen mit der jüngeren, instrumentell gut bestätigten Temperaturentwicklung direkt zu vergleichen, oder ein Kalibrierintervall mit einem Rekonstruktionsintervall.

    Auch aus dieser Richtung ist also keine objektive Hilfestellung zu erwarten.

    3) Wenn es schon erheblichen Deutungsspielraum bei der Interpretation des ‘wahren’ Klimatrends gibt, so ist dieser Spielraum nochmals deutlich höher, wenn es um eine (mögliche) Trendwende geht. Folgendes habe ich in den letzten Tagen herausgefunden, was mir bemerkenswert erscheint, ich muß das aber noch mal verifizieren:

    Es scheint, als sei unter Ihrer Prämisse (quasi-linearer Klimatrend + Rauschkomponente) die jüngste Temperaturentwicklung ein seltenes Ereignis – und zwar vor allem deshalb, weil der jüngste Trend signifikant ist. Ich weiß, das bestreiten Sie, aber es geht bei diesen Untersuchungen erstmal nur um eine qualitative Bewertung und die dazugehörige Erklärung.

    Die lautet einfach so: Es besteht grundsätzlich die Möglichkeit, ein Signal, daß sowohl autokorreliert als auch trendbehaftet ist, in beide Komponenten zu zerlegen. Ich hatte schon erwähnt, daß diese Zerlegung i.w. ein Akt der Willkür ist. Dh, es besteht die Möglichkeit, starke Autokorrelation als Trend zu interpretieren oder umgekehrt einen ausgeprägten Trend als Zeichen starker Autokorrelation. Man kann also gewissermaßen zwischen starkem Trend + weniger Persistenz wählen oder zwischen schwächerem Trend + mehr Persistenz.

    Entscheidet man sich für mehr Trend, dann hat das Restsignal weniger Persistenz, weniger Erinnerungsvermögen. Und die Wahrscheinlichkeit, daß es in Zeiträumen von 7, 8 Jahren einen signifikanten Trendverlauf hat, nimmt entsprechend ab.
    Nimmt man die Aufteilung andersherum – also mit schwächerem Trend – vor, dann ist das verbleibende Signal persistenter und die Wahrscheinlichkeit für einen signifikanten Verlauf steigt auch für solche kurzen Zeiträume an.

    Ob sich diese Beobachtung zu einem Testverfahren weiterentwickeln läßt, das Aufschluß über die wahrscheinlich korrekte Aufteilung gibt, erscheint mir immerhin möglich, da wäre dann allerdings noch 99% an Arbeit und Hirnschmalz reinzustecken. Zum jetzigen Zeitpunkt finde ich die Feststellung insofern interessant, als daß die Häufigkeit und Signifikanz von kurzfristigen OLS-Trends offenbar durchaus Rückschlüsse auf das gewählte Modell und damit den ‘Klimatrend’ erlaubt. Die pauschale Aussage, solche Zeiträume seien zu kurz, um überhaupt irgendeine Aussagekraft zu haben, erscheint mir deshalb nicht gerechtfertigt.

  133. #133 Georg Hoffmann
    Mai 12, 2009

    @Flamme

    Zum Einwand von Georg, das AGW-Signal trete aber erst ab den 70ern aus dem Rauschen deutlich hervor, gilt eigentlich dasselbe: Langfristige Mittelwertbildung sollte trotzdem das höherfrequente Rauschen eliminieren und das Trendsignal übriglassen.

    Bloedsinn. Die anderen Forcings (Sonne, Aerosole, ja selbst eine groessere oder kleinere Anzahl von Vulkanausbruechen sind nicht hochfrequente, sondern aehnlich niederfrequente wie der Anstieg der Treibhausgase. Wenn also bis in die 60er alle in der gleichen Grossenordnungen waren, kann man ganz bestimmt mit einer Regression keinen Anteil ablesen oder abtrennen.
    Sie koennen ja von heute auf morgen den Trend berechnen. Vielleicht kuehlts ja ab. Der Rest der Welt wird sich bemuehen die Skala zu nehmen, die kurzzeitige Variationen vermeidet und dem Forcing angemessen ist.

  134. #134 Eddy
    Mai 13, 2009

    @Georg

    Bloedsinn!

    Man vergleiche die Graphik hier:

    https://www.wissenslogs.de/wblogs/blog/klimalounge/klimadaten/2008-10-24/erderwaermung-beschleunigt-sich

    einmal mit der Graphik hier:

    https://www.metoffice.gov.uk/corporate/pressoffice/2008/pr20080923c.html

    In der Szene der Klimagutmenschen hat man immer recht und deshalb zieht man die Trends mit dem Lineal dahin wo man will. Einmal war es eine Abkühlung um Monate später eine Erwärmung darzustellen, wie man es gerade braucht. Man sehe sich einmal beim Metoffice den Trend von 1976 bis 1986 an. Eine Abkühlung? Meine Fresse! Und dann denselben Zeitraum bei Rahmstorf (Jones)…. Wer sich da nicht veräppelt fühlt ist selbst schuld!

    Aber eine Tatsache, nämlich dass die Globaltemperatur ausserhalb der besten IPCC-Szenarien liegt, gilt nicht. Die Tatsache wird zur Lüge deklariert. Sollen wir jetzt vor Bewunderung in die Hände klatschen?

  135. #135 Georg Hoffmann
    Mai 13, 2009

    @Eddy

    Aber eine Tatsache, nämlich dass die Globaltemperatur ausserhalb der besten IPCC-Szenarien liegt, gilt nicht. Die Tatsache wird zur Lüge deklariert. Sollen wir jetzt vor Bewunderung in die Hände klatschen?

    Eher vor Verzweifelung auf die Stirn. Ansonsten: Stimmt, das ist eine Luege.
    https://www.scienceblogs.de/primaklima/2008/07/die-mar-von-der-beendeten-erwarmung-und-den-modellen-die-etwas-vorhersagen.php
    Warum nicht ein einziges Mal was selber machen, Eddy. Einfach sich mal hinsetzten, das Maul halten, die Daten runterziehen und ein bisschen Statistik betreiben. Das wuerde Sie vor den allergroebsten Dummheiten vielleicht bewahren? Man weiss ja nie.

  136. #136 Eddy
    Mai 13, 2009

    @Goerg
    Das ist einfach zu blöd um es zu beantworten.

    Hier sollte man hinschauen:

    https://climatesci.org/wp-content/uploads/dipuccio-2.jpg

    “Though other criteria, such as climate sensitivity (Spencer, Lindzen), can be used to test the AGW hypothesis, ocean heat has one main advantage: Simplicity. While work on climate sensitivity certainly needs to continue, it requires more complex observations and hypotheses making verification more difficult. Ocean heat touches on the very core of the AGW hypothesis: When all is said and done, if the climate system is not accumulating heat, the hypothesis is invalid.

    Writing in 2005, Hansen, Willis, Schmidt et al. suggested that GISS model projections had been verified by a solid decade of increasing ocean heat (1993 to 2003). This was regarded as further confirmation the IPCC’s AGW hypothesis. Their expectation was that the earth’s climate system would continue accumulating heat more or less monotonically. Now that heat accumulation has stopped (and perhaps even reversed), the tables have turned. The same criteria used to support their hypothesis, is now being used to falsify it.

    It is evident that the AGW hypothesis, as it now stands, is either false or fundamentally inadequate. One may argue that projections for global warming are measured in decades rather than months or years, so not enough time has elapsed to falsify this hypothesis. This would be true if it were not for the enormous deficit of heat we have observed. In other words, no matter how much time has elapsed, if a projection misses its target by such a large magnitude (6x to 8x), we can safely assume that it is either false or seriously flawed.” (Pielke Sr)

    Erinnert das Sie nicht an etwas? Man hätte die Klimaverdreher einmal 2005 lesen sollen. Sie nennen so etwas “Blödsinn”, andere (Sie sicherlich inklusive noch 2005) “Wissenschaft”.

  137. #137 Georg Hoffmann
    Mai 13, 2009

    @Eddy
    Ach, doch lieber googlen, Eddy. Schade. Dabei koennten selbst Sie das schaffen, sich einmal die Modellresultate selber anzuschauen. Bestimmt! Selbst Sie.

  138. #138 Eddy
    Mai 13, 2009

    Die Modelle können plötzlich alles, eine Erwärmung wie von 1980 bis 1998 genau vorhersagen, wie auch eine 20jährige Abkühlung. Wie wäre es mit einer 100jährigen Abkühlung? Dann hätte man die Falsifizierbarkeit vollständig hinter sich gelassen.

    Es gibt 2 Möglichkeiten.

    Entweder war die Erwärmung von 1980 bis 1998 eventuell auch natürlichen Ursprungs, oder die Klimamodelle können NICHTS vorhersagen. Immer wenn die Modell falsche Vorhersagen machen, kommen vague Ausflüchte und alles was man vor 2, 5 oder 10 Jahren gesagt hat, bedeutet plötzlich nichts mehr.

    Selbstverständlich ist der Temperaturverlauf ab 1998 kein Beweis gegen die Klimaprognosen. Das habe ICH nie gesagt.

    Wenn Herr Rahmstorf schreibt:

    ***Der wärmste April bislang war 2007 mit einem Mittel von 18,7 ºC gewesen. In den 114 Jahren davor ist nie ein April mit einem Mittel über 18 ºC vorgekommen. Und noch nie hat ein neuer Rekord den vorherigen gleich um mehr als 1 Grad überboten. Und das, obwohl der bisherige Rekordwert gerade mal zwei Jahre alt war.****

    Dann darf man sich nicht über die Meldungen der “Skeptiker” wundern. PUNKT

    Sollten Sie oder jemand anderes etwas in meine Aussagen hineininterpretieren, was nicht drin steckt, ist das ausschliesslich IHR oder dessen Problem. Ich kann IHRE Meinung über MICH eh nicht ändern! Das haben sie bis zum Abwinken immer wieder bestätigt.

    Sie sollten einmal ähnlich strikte Kriterien auf den Blog ihres Kollegen Zimmermann oder ihren eigenen Blog anwenden ….

  139. #139 Georg Hoffmann
    Mai 13, 2009

    Eddy
    Sie haben wie immer Probleme auch nur einen zusammenhaengenden Gedanken zu formulieren.
    Die Modelle sind bislang und im wesentlichen nicht benutzt worden um die naechste Dekade “vorherzusagen”. Die Strichelchen in ihrem Grafen (so sie nicht ohnehin gleich ganz felsch respektive gefaelscht sind: https://www.realclimate.org/index.php/archives/2009/05/moncktons-deliberate-manipulation/ was bei Skeptikern ja gute Praxis ist) sind Ensemble-Mittelwerte. Jede einzelne Simulation hat eine grosse Variabilitaet und ich habe sie eben mal fuer ein konkretes Modell ausgerechnet.
    https://www.scienceblogs.de/primaklima/2008/07/die-mar-von-der-beendeten-erwarmung-und-den-modellen-die-etwas-vorhersagen.php
    Ich kann es auch nicht aendern, aber es gibt eben Läufe, die bis in die 2050 Jahre einen negativen dekadischen Trend (in jedem Scenario) haben und doch bis 2100 ein Erwaermung bis 3°C ausrechnen.Tut mir echt leid, so sind die boesen Modelle nunmal.

  140. #140 Eddy
    Mai 13, 2009

    Dann sehen sie sich doch folgende Graphik an:

    https://www.wissenslogs.de/wblogs/blog/klimalounge/debatte/2009-04-29/wie-viel-co2-ist-zu-viel

    Von 1900 bis 1940 derselbe Trend, wie von 1960 bis heute.

    Von 1940 bis 2009 ein wesentlich geringerer Trend als von 1900 bis 1940. Man bemerke die Prognosen, bzw. Retroprognosen der Modelle. Von 1900 bis 1940 liegt der Beginn in der Relität tiefer als die Modelle, wogegen der Trend bis 2008 durch den höchsten gemessenen Wert gelegt wird, weshalb die Kurve auch nach 2009 etwas abflaut. 1940 umgekehrt!

    Was soll das? Die Temperatur soll immer weiter ansteigen, sich beschleunigen! Rückkoppelungen wo wir hinschauen ….

    Das ist NICHT eingetreten!

    Kann man das nicht einfach zugeben?! In der Schule würde man damit sitzen bleiben!

  141. #141 Georg Hoffmann
    Mai 13, 2009

    @Eddy
    Keine Ahnung wo sie das alles her nehmen. Das sind alles Wahnvorstellungen. Strohmaenner, ganze Felder von Strohmaennern.
    1) Warum soll ein Trend von von 1900 bis 19XX nicht ungefaehr so gross sein wie der von 1960 bis heute? Die Frage ist, ob wir die Ursachen dieser Trends verstehen.
    ANscheinend kann man das:
    https://www.scienceblogs.de/primaklima/Climate_Change_Attribution.png
    2) Feedbacks moegen regional schon kraeftig am Werke sein (siehe Arktis). Die simulierten globalen Temperatur-Steigerungen jedenfalls steigen relativ sanft von momentn 0.2/Dec auf ca das Doppelte zum Ende des 21ten Jahrhunderts (bei business as usual) an.

    Die Temperatur soll immer weiter ansteigen, sich beschleunigen!

    Schauen Sie sich dooch einfach die Modellresultate an, und wenn es bei Ihnen auch dazu nicht reicht, lesen Sie einfach mal meinen Artikel dazu durch.

  142. #142 Eddy
    Mai 13, 2009

    “Schauen Sie sich dooch einfach die Modellresultate an”

    Genau das tue ich ja. Und ich kommentiere sie. Man kann alles behaupten, wenn man im Nachhinein anscheinend immer recht hat. Wenn man weder die Erwärmung noch die Abkühlung vohersagen kann, können beide natürlichen Ursprungs sein und zumindest eine Hypothese ist dann damit widerlegt, nämlich dass die Erwärmung von 1980 bis 1998 den Einfluss des Menschen beweist.

    Das Schreckgespenst des AGW (menschlichen Treibhauseffekts) bleibt doch nur bestehen, wenn die Prognosen des IPCC sich bewahrheiten. Ohne diese Prognosen gibt es keine Klimakatastrophe. Deshalb hat man sich die Modelle ausgesucht, die dem Erwarteten am meisten entsprechen.

    Irgend ein Modell wird auch eine neue Eiszeit vorhersagen. Sich darauf zu berufen ist “gaga”. Ich hatte die Aussage von Herr Latif kritisiert der sagte, dass die Erwärmung 10 Jahre Pause macht, denn damit hat immer irgend wer recht. Bis hin zu ihrer eigenen Aussage “es gibt eben Läufe, die bis in die 2050 Jahre einen negativen dekadischen Trend (in jedem Scenario) haben” …

    Dem ist eigentlich nichts mehr hinzuzufügen. Eigentlich hat der Klimapaniker eh immer recht.

    Wenn die Modelle des IPCC keine Aussagekraft haben, sollte man das den Politikern und Entscheidungsträgern deutlich sagen.

    Sie schreiben:

    “1) Warum soll ein Trend von von 1900 bis 19XX nicht ungefaehr so gross sein wie der von 1960 bis heute? Die Frage ist, ob wir die Ursachen dieser Trends verstehen.
    ANscheinend kann man das:”

    Wieso sollte man die Ursachen verstehen können, wenn man keine Vorhersagen machen kann? Im Nachhinein hatte NOSTRADAMUS immer recht. Ist der IPCC ein moderner Nostradamus?

    Wer sich mit solchen kleinen unlogischen Spielchen abgibt ist schlimmer als jeder Skeptiker. Die Vorgehensweise ist aber auf beiden Seiten immer genau dieselbe. Was nicht passt wird einfach ausgeblendet. Wenn man immer irgend ein Modell findet das rein zufällig den Trend wiedergibt, dann sind die Modelle Mumpitz.

    Entweder man arbeitet wie der IPCC mit echten Voraussagen, wie hier https://www.wissenslogs.de/wblogs/blog/klimalounge/debatte/2009-04-29/wie-viel-co2-ist-zu-viel oder man lässt es ganz sein.

    Wie eine Abkühlung eine positive Rückkoppelung hervorrufen sollte, hat mir bisher noch niemand erklärt.

    Sie arbeiten immer mit denselben Methoden. Zuerst werfen sie mir vor am Thema vorbei zu reden, obschon es genau um das Thema geht: “Ist die Erwärmung momentan gestoppt, oder nicht nicht?”

    Dann weichen sie auf Nebenschauplätze aus. Es geht doch hier um die Szenarien des IPCC?!

  143. #143 Evil Dude
    Mai 13, 2009

    Wenn man weder die Erwärmung noch die Abkühlung vohersagen kann, können beide natürlichen Ursprungs sein

    Was hat die Möglichkeit der Vorhersagbarkeit mit der Ursache eines Phänomens zu tun? Können Sie Ihre Aussage durch irgendwas, was wissenschaftlich haltbar ist, belegen?

    Und wer sind denn diese “Klimapaniker”, von denen Sie fabulieren?

    Wieso sollte man die Ursachen verstehen können, wenn man keine Vorhersagen machen kann?

    Wieso nicht? Sie stellen wieder nur eine Behauptung auf! Weisen Sie doch mal nach, wieso das nicht gehen sollte!

  144. #144 Eddy
    Mai 14, 2009

    @ Evil

    ***Was hat die Möglichkeit der Vorhersagbarkeit mit der Ursache eines Phänomens zu tun? Können Sie Ihre Aussage durch irgendwas, was wissenschaftlich haltbar ist, belegen?***

    Obschon sicherlich 99% der Mitleser verstanden haben, für sie nochmal ganz von vorne:

    Man kann nicht die Erwärmung von 1980 bis 1998 dem Menschen anlasten, wenn sie in den nächsten Jahren wieder verschwindet, obschon der menschliche Einfluss zunimmt. Ausserdem muss eine Erklärung eines Klimageschehens genauso in die Vergangenheit, wie in die Zukunft funktionieren. Tut sie das nicht, dann kann man nicht behaupten die relevanten Mechanismen zu verstehen. “Wieder nur eine Behauptung” kommt übrigens von der “Gegenseite”, die immer alles weiss und immer schon wusste!

    Und da mittlerweile beide Seiten mir gehörig auf den Nerv gehen, verrate ich ihnen gern zusätzlich, dass sie der Krishna der “Klimapaniker” sind. Damit habe ich dann wohl auch ihre zweite Frage beantwortet?!

  145. #145 Jörg Zimmermann
    Mai 14, 2009

    “Man kann nicht die Erwärmung von 1980 bis 1998 dem Menschen anlasten, wenn sie in den nächsten Jahren wieder verschwindet…” Wo verschwindet sie denn? Das laufende Jahrzehnt ist deutlich wärmer als die 90er Jahre. Eine angebliche Abkühlung ist reines Wunschdenken.

    @Flamme:
    Zu 1: “Ich bin der Vorstellung grundsätzlich zugetan, daß sich ein langfristiger Trend umso zuverlässiger abschätzen lassen sollte, je länger der betrachtete Zeitraum ist. ” Sie tun immer noch so, als gäbe es außer der Zeitreihe selbst keinerlei Wissen über das Klima. Das ist keine sachgerechte Haltung. Wir wissen, nach welchem Signal wir schauen müssen, seit wann der Klimaantrieb aus anthropogenen Treibhausgasen dominiert (seit ca. 1970). Über Zeiträume wie einem Jahrhundert ist die Temperaturzeitreihe vom Antrieb durch Treibhausgase ganz sicher linear beeinflußt, sondern wird ein beschleunigten Anstieg zeigen. Genau das sehen wir, wenn wir lineare Regressionen für 120, 100, 70, 50 und 30 Jahre machen – sie werden immer steiler. Selbst über 30 Jahre braucht der Trend nicht linear zu sein. Nur ist dann der Fehler durch globales Wetter so groß, daß es schwierig wird, etwas anderes als einen linearen Trend signifikant zu beobachten. Über weniger als 20 Jahre dominiert globales Wetter, was wir auch bereits unabhängig von der Zeitreihe wissen. Wissenschaft ist, ein konsistentes Bild aufzubauen aus den verschiedenen Informationsquellen, die einem zur Verfügung stehen. Die statistische Analyse der Zeitreihe der Temepraturanomalien ohne die Hilfe des übrigen verfügbaren Wissens über meteorologische und klimatische Abläufe ist unvollständig und kann in die Irre führen.

    Zu 2) Wie gesagt, es ist sinnvoll, die Zeitreihe in dominante Anteile zu zerlegen, weil wir an globalem Wetter nicht inetressiert sind. Daß Ihre Schilderung nicht zutrifft, daß man die aktuelle Zeitreihe einfach durch “Zufall und Persistenz” zusammensetzen könnten, zeigen Zorita, Stocker und Storch (2009) “How unusual is the recent series of warm years” https://w3k.gkss.de/staff/storch/pdf/recordyears.pdf
    Paläoklima ist hier nicht das Thema.

    Zu 3) Eine Trendwende besteht erst, wenn die Temperaturanomalien signifikant vom bisherigen Trend abweichen. Auch eine Fluktuation zu kühleren Werten hin während des Erwärmungstrend widerlegen den nicht. Wenn Sie eine Abkühlung feststellen wollen, dann sollte zumindest das laufende Jahrzehnt nicht mehr wärmer sein als das vergangene Jahrzehnt. Oder es sollte über ca. 30 Jahre eine nur geringe oder keine Erwärmung erfolgen. Oder es sollten sich statistisch signifikant Ausreißer zum Trend anhäufen. Wenn mal einige Jahre in Folge Anomalien unter 0,3 zeigten (nach HadCRUT3), wäre ich auch schon zufrieden. Zur Inspiration sollten Sie noch mal nach oben und in Easterling und Wehner 2009 hineinschauen. Handverlesene 8 Jahre mit negativem Trend sind ohne Bedeutung bezüglich der Frage, ob die globale Erwärmung anhält.

  146. #146 Wolfgang Flamme
    Mai 14, 2009

    Bloedsinn. Die anderen Forcings (Sonne, Aerosole, ja selbst eine groessere oder kleinere Anzahl von Vulkanausbruechen sind nicht hochfrequente, sondern aehnlich niederfrequente wie der Anstieg der Treibhausgase. Wenn also bis in die 60er alle in der gleichen Grossenordnungen waren, kann man ganz bestimmt mit einer Regression keinen Anteil ablesen oder abtrennen.

    Einspruch stattgegeben, nachdem ich u.a. einen tiefen Blick in den IPCC, WG1 Kapitel 2, Abschnitt 2.9.5 (Time Evolution of Radiative Forcing and Surface Forcing) genommen habe. Anscheinend legt erst die Rückschau in die Zeit der Renaissance oder sogar ins Spätmittelalter wieder ein zufälliges und natürliches Klimageschehen nahe, was nicht schon durch liberale Einflüsse systematisch verzerrt ist. Nette Aussichten. 🙁

    Dann giltet’s also erst ab ~1970 wirklich mit der dominant-anthropogenen Erwärmung. So richtig gefällt mir diese dünne Datenlage allerdings nicht – knapp vier Jahrzehnte Temperaturentwicklung sollen also schicksalsbestimmend für die Menschheit werden? Ich glaube, das hätten wir alle gerne empirisch ein bischen solider abgesichert.

    Naja, mal gucken, was ich daraus noch machen kann.

  147. #147 Georg Hoffmann
    Mai 14, 2009

    So richtig gefällt mir diese dünne Datenlage allerdings nicht – knapp vier Jahrzehnte Temperaturentwicklung sollen also schicksalsbestimmend für die Menschheit werden? Ich glaube, das hätten wir alle gerne empirisch ein bischen solider abgesichert.

    Bloedsinn. Es gibt gute Temperatur Daten vorher. Trotzdem ist die EInstellung alles was man ueber das Klima wissen koenne, sei eine Regression, die dann in Ihrer Vorstellung sogar die Zukunft bestimmen soll. So unsiinig, dass ich nichtmals Lust habe anzufangen, das aufzuraeumen. Heute wars hier kaelter als gestern, Herr Flamme. Ich glaube damit sind wir ja Gottseidank durch mit dem Klimawandel. Gut, dass es so kritische Geister wie Sie gibt.

  148. #148 lotma
    Mai 14, 2009

    @ Hoffmann,

    kann nur sagen mir reicht es :

    Blödsinn ! Blödsinn ! Blödsinn ! Ihr Lieblingswort ???

    Wenn Sie`s noch nicht gemerkt haben : Die CO2 gehypte
    Klimafront bröckelt aller Orten.

  149. #149 Eddy
    Mai 14, 2009

    @ Herr Zimmermann

    ***”Man kann nicht die Erwärmung von 1980 bis 1998 dem Menschen anlasten, wenn sie in den nächsten Jahren wieder verschwindet…” Wo verschwindet sie denn? Das laufende Jahrzehnt ist deutlich wärmer als die 90er Jahre.***

    Es ging um Georgs Modell, das : ***es gibt eben Läufe, die bis in die 2050 Jahre einen negativen dekadischen Trend (in jedem Scenario) haben und doch bis 2100 ein Erwaermung bis 3°C ausrechnen.Tut mir echt leid, so sind die boesen Modelle nunmal.***

  150. #150 Jörg Zimmermann
    Mai 14, 2009

    Dummer Tippfehler, ein wichtiges “nicht” vergessen:

    …Über Zeiträume wie einem Jahrhundert ist die Temperaturzeitreihe vom Antrieb durch Treibhausgase ganz sicher NICHT linear beeinflußt, sondern wird ein beschleunigten Anstieg zeigen…

    @Eddy: Sie haben Ihren Punkt nicht belegt, im Gegenteil: wenn Modelle zeigen, daß ein Jahrzehnt mit leicht fallendem Trend Teil eines Erwärmungstrends sein kann und der Blick auf Daten seit 1970 dies zeigt, belegt es genau, daß wir keinerlei Anhaltspunkt dafür haben, daß die globale Erwärmung verschwindet. Umsomehr, als eben das laufende Jahrzehnt deutlich wärmer ist als das letzte. Die Argumentation über eine Abkühlung wird an der Temperaturreihenfolge innerhalb eines Jahrzehnts festgemacht, von der wir aus verschiedenen Quellen wissen, daß sie nicht signifikant ist – Modelluntersuchungen (siehe oben), Analyse der Zeitreihe, Wissen über globales Wetter (siehe mein Link zum Kommentar des Hadley Centres), statistische Signifikanztests.

  151. #151 Evil Dude
    Mai 14, 2009

    Und wieder nur dummes Gewäsch statt einer Antwort!

    Obschon sicherlich 99% der Mitleser verstanden haben,

    Wo ist ihr Beleg für diese Behauptung? Und wie passt Sie zu dem Geheule, dass Sie immer anstimmen, wenn es um den Konsens der Klimaforscher zum Treibhauseffekt geht? Da heulen Sie ständig rum, das sowas nichts bedeuten würde!

    Man kann nicht die Erwärmung von 1980 bis 1998 dem Menschen anlasten, wenn sie in den nächsten Jahren wieder verschwindet, obschon der menschliche Einfluss zunimmt.

    Wo ist denn Ihre Beleg, dass die Erwärmung “in den nächsten Jahren wieder verschwindet”?

    Und da mittlerweile beide Seiten mir gehörig auf den Nerv gehen, verrate ich ihnen gern zusätzlich, dass sie der Krishna der “Klimapaniker” sind.

    ROFL Ich muss zugeben, wenn ich Sie ernstnehmen könnte, hätten Sie es geschafft, mich zu beleidigen! Mich einen “Krishna” zu nennen müßte ich dann notgedrungen als Beleidigung auffassen! 😉

    Damit habe ich dann wohl auch ihre zweite Frage beantwortet?!

    Das ist mal wieder reines Wunschdenken, Sie haben nur den üblichen Blödsinn gelabert!

  152. #152 Evil Dude
    Mai 14, 2009

    Ausserdem muss eine Erklärung eines Klimageschehens genauso in die Vergangenheit, wie in die Zukunft funktionieren. Tut sie das nicht, dann kann man nicht behaupten die relevanten Mechanismen zu verstehen.

    Wenn Sie diese Behauptung ständig wiederholen wird Sie auch nicht wahrer! Wo ist ihr Beleg, dass man, nur weil man keine Vorhersagen machen kann, den relevanten Mechanismus nicht verstanden haben kann? Vielleicht sollten Sie mal zwei Minuten nachdenken und erst dann posten! (Ich setze mal, ohne jeden Beleg, voraus dass auch bei Ihnen nachdenken einen positiven Effekt auf die Qualität des Beitrags haben kann!)

  153. #153 Wolfgang Flamme
    Mai 15, 2009

    Herr Zimmermann,

    zu 1)
    Da krampft es mir doch ein bisserl das Herz zusammen. Wir entwickeln aus unseren Beobachtungen Modelle und Erwartungen und anhand dieser Modelle und Erwartungen entwickeln wir Prüfhypothesen, die wir dann auf die Daten anwenden. Was soll bei dieser Methode der gezielten Vorurteilsoptimierung denn anderes herauskommen als eine Bestätigung?
    Jeder Statistiker wird ihnen sagen, daß die Signifikanz eines statistischen Test für eine Beobachtung eigentlich schon von dem Moment an versaut ist, wo Sie einen Blick auf die Beobachtungsergebnisse geworfen haben und erst dann anfangen, Ihre Hypothesen zu formulieren.

    Nun kann man das ja leider nicht mehr rückgängig machen, die Beobachtungen liegen vor und Erklärungen und Erwartungen haben wir uns auch schon zurechtgelegt. Das einzige, was da noch zu retten ist, ist zu fragen: Was wäre, wenn all das tatsächlich bloß ein Resultat von data mining ist? Wie groß ist überhaupt die Wahrscheinlichkeit, diese (oder extremere) Beobachtungen zu machen, wenn das alles nur ein Werk des Zufalls wäre?
    Damit hätten wir – auch wenn’s ganz sicher nicht das Gelbe vom Ei ist – schonmal eine recht triviale Nullhypothese formuliert. Und wenn diese nicht zurückgewiesen werden kann, dann wäre das zumindest ein Anhaltspunkt dafür, daß wir derzeit möglicherweise die Trivialität des Zufalls überinterpretieren. Das wäre immerhin schonmal was.

    zu 2)
    von Storch und Zorita besitzen also auch ein paranormales Fahrrad und sind Anhänger der Radosophie. Gut zu wissen, aber was ist da genau passiert?

    Nun, den beiden liegt eine längere Meßreihe vor, die bestimmten Zufallsgesetzen genügen könnte … oder auch nicht. Nach eingehender Untersuchung der Reihe stellen die beiden Radosophen fest, daß ausgerechnet die Werte der Meßwerte Nr. 31,41 und 59 oberhalb des 99%-Vertrauensbereichs liegen… aneinandergereiht ergeben diese Meßwertnummern die ersten Dezimalstellen von Pi!

    Und jetzt wollen die beiden natürlich wissen, ob das wirklich Zufall sein kann. Sie wenden also diese Bildungsgesetze an, generieren jede Menge künstlicher Zeitreihen und gucken, wie häufig es vorkommt, daß genau diese drei Messungen so deutlich signifikant größer sind. Aber sie finden nicht eine einzige solche Reihe in ihren Simulationen. Dann lockern sie die radosophischen Signifikanzregeln etwas und prüfen zusätzlich auch noch die Werte Nr. 3, 14, 15 sowie auch noch den 31. und 41. Wert der Reihe. So finden sie dann doch endlich ein paar Reihen die dazu passen … aber nur wenige. Damit ist klar: Die ihnen vorliegende Zeitreihe wurde mit großer Wahrscheinlichkeit nicht durch den untersuchten Zufallsprozeß erzeugt sondern ist mit hoher Wahrscheinlichkeit das Resultat einer nichtzufälligen radosophischen Einwirkung (Alternativhypothese).

    Bei der Beurteilung von p-Werten ist zu unterscheiden, ob die Hypothesen vor der Datengewinnung formuliert wurden oder erst danach; in diesem Fall ist ihre Aussage sehr begrenzt.
    Sachs/Hedderich, Angewandte Statistik, Kap. 7 ‘Hypothesentests’

    Uber dieses triviale Problem hinaus gibt’s zu der Arbeit noch ein paar weitere Anmerkungen:

    a) Daß wir das Klima überhaupt beobachten können ist ein Beleg dafür, daß ein solcher Klima-Zufallsprozeß (wenn es sich denn um einen solchen handeln sollte) stationär sein muß. Ansonsten wäre er über Milliarden Jahre schon längst in Richtung Venustemperatur oder Weltraumkälte abgedriftet. AR-Prozesse sind dann stationär, wenn ihr ‘Merkvermögen’ von einem Zeitschritt zum nächsten kleiner 1 ist … wenn Sie also Störungen mit der Zeit vergessen.
    Dies ist allerdings nur eine Forderung für den langfristigen Mittelwert. Kurzfristig gibt es erstmal keinen Grund, warum dieser Wert nicht um einen Mittelwert, der etwas kleiner als 1 ist, schwanken könnte – es ist ja sogar extrem unwahrscheinlich, daß dieser Wert immer und jederzeit eine exakte, unveränderliche Konstante darstellt. Es wäre also durchaus denkbar, daß er zeitweise auch mal Werte von 1 oder sogar größer annimmt.
    Bei der Analyse würden wir das natürlich nicht merken, weil wir damit ja den langfristigen Wert absichern wollen. Aber was wir dann zu solchen Zeiten bemerken würden, wäre eine vollständige Entdämpfung oder gar Selbstverstärkung von Störungen – kurz: Es hagelt dann Extremwerte.

    b) Daß die Störgrößen normalverteilt sind, ist eine vereinfachende Annahme, die wohl ungefähr richtig ist. Ob sie tatsächlich exakt zutrifft – vor allem was die Extreme betrifft – läßt sich nur durch sehr lange und genaue Beobachtungszeitreihen klären, die aber nicht vorliegen. Ein leichter Hang zu Extremwerten oder eine leichte Schiefe in der Störgrößenverteilung könnten unerwartete Häufungen von Extremen gut erklären, ohne daß der Prozeß deshalb nichtstationär sein müßte.

    c) Es kann ja durchaus ein anthropogener Erwärmungstrend vorliegen, der die Häufung von Extremen gegen Ende der Zeitreihe unterstützt. Die Frage ist allerdings weniger, ob der signifikant von Null verschieden ist, sondern vielmehr, wie ausgeprägt er ist.

    d) Wir dürfen nicht vergessen, daß wir mit dieser AR-Modellierung ein System ‘erschaffen’, was in allen Aspekten eben idealisiert und ‘mittelmäßig’ ist. Es reagiert immer linear, symmetrisch und deterministisch auf Störungen, es ändert seine Parameter nie, es kennt keine Eigenresonanzen, kein Aufschaukeln. Ist das ein realistisches Abbild der Realität, das sich zum Vergleich von Extremwerthäufigkeiten eignet?

    Mehr noch, es stellt eigentlich eine sture Transformationsvorschrift für die eingehende Störungszeitreihe dar; die gleiche Abfolge von Störungen ruft exakt dieselbe Systemantwort hervor. Das System hat eigentlich kein Eigenleben, alles was es kann und tut, jedes Extrem, was es produziert, wird durch die eingehende Störungs-/Zufallsreihe bestimmt. Selbst wenn wir die vorige Frage mit einem enthusiastischen “JA!” beantworten, dann können wir eine Rücktransformation der Temperatur und ihrer Extreme vornehmen und die Störzeitreihe, die das verursacht haben muß, exakt rekonstruieren. Dann können wir sagen: “Seht her, diese (oder eine hinreichend ähnliche) Störungszeitreihe ist für die Häufung von Extremen verantwortlich. Ja, so muß es sein!”

    Ob dann gerade diese Störungsreihe ein vielleicht seltenes, aber dennoch reines Zufallswerk ist oder doch eher eine Zwangsläufigkeit der menschlichen Einmischung, das ist damit noch immer nicht beantwortet.
    Die Wahrscheinlichkeit, daß es Zufallswerk ist, scheint zunächst gering. Doch die Wahrscheinlichkeit dafür, daß die Frage überhaupt erst dann gestellt wird, nachdem das Ereignis bereits aus dem einen oder anderen Grund eingetreten ist, ist dagegen recht hoch. Was können wir daraus nüchtern über die wahrscheinliche Ursache des Ereignisses schließen? Nichts.

  154. #154 Wolfgang Flamme
    Mai 15, 2009

    @Georg

    Bloedsinn. Es gibt gute Temperatur Daten vorher. Trotzdem ist die EInstellung alles was man ueber das Klima wissen koenne, sei eine Regression, die dann in Ihrer Vorstellung sogar die Zukunft bestimmen soll. So unsiinig, dass ich nichtmals Lust habe anzufangen, das aufzuraeumen. Heute wars hier kaelter da längerfristige Daten habe als gestern, Herr Flamme. Ich glaube damit sind wir ja Gottseidank durch mit dem Klimawandel. Gut, dass es so kritische Geister wie Sie gibt.

    Da bellst Du jetzt aber den falschen Baum an. Es war der Herr Zimmermann bzw. for4zim, der der Meinung war, die Temperatur würde sich auch künftig in die Richtung entwickeln, in die der langfristige Trend der Vergangenheit deutet, nicht ich.

    Ich habe daraufhin lediglich angemerkt, daß ich da noch längerfristige Daten habe und das die aber woandershin zeigen, nämlich tiefer.

    Daraufhin hast Du das Wort erhoben:

    Was will man denn nun zeigen mit so einem Trend? Vergleichst du das beste IPCC Verstaendnis fuer die verschiedenen Forcings, so sind bis in die 50er die verschiedenen Forcings von ungefaehr gleicher Groessenordnung. Ein Trend von 1870-1960 gibt dir also eine Temperaturaenderung als Reaktion auf ein sehr schlecht bekanntes Forcing an. Einige positiv, einige auch negativ, was die Sache zusaetzlich verschlimmert. Ab den 70er kommt das Signal immer mehr aus dem Rauschen heraus und man kann erste Abschaetzungen zu Klimasensitivaet machen.

    Dann habe ich noch die blödsinnige Verteidigung aufgebaut, daß sich das anthropogene Signal ja auch in der früheren Periode über das zufällige Rauschen, das sich ausmitteln sollte, erheben müßte. Das Argument hast Du auch zerlegt:

    Bloedsinn. Die anderen Forcings (Sonne, Aerosole, ja selbst eine groessere oder kleinere Anzahl von Vulkanausbruechen sind nicht hochfrequente, sondern aehnlich niederfrequente wie der Anstieg der Treibhausgase. Wenn also bis in die 60er alle in der gleichen Grossenordnungen waren, kann man ganz bestimmt mit einer Regression keinen Anteil ablesen oder abtrennen. (…) Der Rest der Welt wird sich bemuehen die Skala zu nehmen, die kurzzeitige Variationen vermeidet und dem Forcing angemessen ist.

    Also wollte ich kein sturer Blödmann sein, habe die Zeit vor den 70ern aufgegeben und mich entschlossen, erstmal die Skala zu verwenden, die kurzzeitige Variationen vermeidet und dem Forcing angemessen ist … die seit den 70ern. Und ich habe darüber Bedauern geäußert, daß der für eine empirische Bestätigung verbleibende Zeitraum ziemlich kurz ist.
    Dafür kriege ich jetzt von Dir erneut Dresche und Blödsinn-Schreie. Und ich kapiere einfach nicht warum.
    Nicht nur, daß die Idee, Trends aus der Vergangenheit in die Zukunft zu projezieren gar nicht von mir stammt, Du selbst hast Dich wie folgt geäußert:

    Nichtsdestotrotz bleiben die 40 Jahre global warming noch sehr sehr kurz um etwas ueber die Zukunft zu sagen oder etwa zu entscheiden welche Modelle denn nun die “besten” sind. (“beste” in Anfuehrungszeichen, weil wir mit der Global Temperatur nur eine, wenn auch wichtige Metrik abschauen).

    Also wenn Du die 40 Jahre für sehr kurz hältst, ist das ok, wenn ich das mache, ist es Blödsinn. Wenn ich die wichtige Metrik (und nur die) zur Auswertung anziehe, ist das Blödsinn. Wenn ich das Argument akzeptiere und die wichtige Metrik nicht anziehe, ist das auch Blödsinn. Und schließlich ist es noch Blödsinn von mir, wenn ich keine Trends in die Zukunft projeziere, weil es Blödsinn ist, das zu tun.

    Warum sagst Du nicht einfach, daß Dir partout nichts recht ist, was ich hier von mir gebe – noch nichtmal, Dir recht zu geben? Das würde Die Sache doch wirklich vereinfachen – für eine gesunde, persönliche Antipathie bringt wohl jeder Leser spontan Verständnis auf.

  155. #155 Evil Dude
    Mai 15, 2009

    @Flamme:

    Wir entwickeln aus unseren Beobachtungen Modelle und Erwartungen und anhand dieser Modelle und Erwartungen entwickeln wir Prüfhypothesen, die wir dann auf die Daten anwenden. Was soll bei dieser Methode der gezielten Vorurteilsoptimierung denn anderes herauskommen als eine Bestätigung?

    Sie reden von “Wir”. Wer ist denn “Wir”? Herr Zimmermann und sich scheinen Sie ja nicht zu meinen. Sie verstecken es zwar in Ihrem Wortschwall, aber das, was Sie da behaupten ist nichts weiter als der Vorwurf der Manipulation und zwar im großen Stil! Können Sie das belegen?

    Jeder Statistiker wird ihnen sagen, daß die Signifikanz eines statistischen Test für eine Beobachtung eigentlich schon von dem Moment an versaut ist, wo Sie einen Blick auf die Beobachtungsergebnisse geworfen haben und erst dann anfangen, Ihre Hypothesen zu formulieren.

    Ist das so?

  156. #156 Wolfgang Flamme
    Mai 15, 2009

    @Evil Dude

    Sie reden von “Wir”. Wer ist denn “Wir”? Herr Zimmermann und sich scheinen Sie ja nicht zu meinen.(…)

    Mein und Ihr Verständnis von ‘wir’ ist offenbar unterschiedlich.
    Ich denke, wir betreiben offen oder versteckt, bewußt oder unbewußt solches data mining/snooping und schon deshalb rechne ich damit, daß es künftig einige Überraschungen hinsichtlich angeblich felsenfest empirisch abgesicherter Erkenntnisse geben wird.

    Ist das so?

    Der Sachs ist ja nun keine Spezialliteratur; ein Statistiker, der diesen Namen verdient, sollte wohl mindestens das Grundlagenwissen über Bias-Risiken haben, was ich als Nicht-Statistiker habe.
    Kurz: Ja, ich denke, das wird Ihnen jeder Statistiker bestätigen, daß es ein erhebliches Problem darstellt, Hypothesen aus vorliegenden Daten zu erschnüffeln und sie dann an genau diesen Daten zu testen. Ob das jeder Statistiker dann auch in seiner praktischen Arbeit berücksichtigt, ist allerdings eine andere Frage.

    Hier nochmal ein paar interessante Funde zur Problematik:

    White, ‘A Reality Check For Data Snooping’
    Data snooping occurs when a given set of data is used more than once for purposes of inference or model selection, When such data reuse occurs, there is always the possibility that any satisfactory results obtained may simply he due to chance rather than to any merit inherent in the method yielding the results. This problem is practically unavoidable in the analysis of time-series data, as typically only a single history measuring a given phenomenon of interest is available for analysis. It is widely acknowledged by empirical researchers that data snooping is a dangerous practice to be avoided, but in fact it is endemic.

    Data Snooping, Dredging and Fishing: The Dark Side of Data Mining – A SIGKDD99 Panel Report
    Failure to adequately adjust for the statistical effects of search in large model spaces can cause a variety of problems, including excessive structure in induced models, suboptimal model construction, and vast overestimates of models’ accuracy.

    Data Mining for Climate Change and Impacts
    Data mining and knowledge discovery is becoming more and more important for climate change and impacts. The massive volumes of relatively recent climate-related observations from remote and in-situ sensors, proxy observations from the past, as well as simulations from global or regional climate models, need to be mined for predictive insights on climate extremes and to generate projections with uncertainty. (…) Computational data sciences can extract novel insights about climate extremes and regional change (…)

  157. #157 Wolfgang Flamme
    Mai 15, 2009

    (nochmal ohne Links, wg Spamfilter)

    @Evil Dude

    Sie reden von “Wir”. Wer ist denn “Wir”? Herr Zimmermann und sich scheinen Sie ja nicht zu meinen.(…)

    Mein und Ihr Verständnis von ‘wir’ ist offenbar unterschiedlich.
    Ich denke, wir betreiben offen oder versteckt, bewußt oder unbewußt solches data mining/snooping und schon deshalb rechne ich damit, daß es künftig einige Überraschungen hinsichtlich angeblich felsenfest empirisch abgesicherter Erkenntnisse geben wird.

    Ist das so?

    Der Sachs ist ja nun keine Spezialliteratur; ein Statistiker, der diesen Namen verdient, sollte wohl mindestens das Grundlagenwissen über Bias-Risiken haben, was ich als Nicht-Statistiker habe.
    Kurz: Ja, ich denke, das wird Ihnen jeder Statistiker bestätigen, daß es ein erhebliches Problem darstellt, Hypothesen aus vorliegenden Daten zu erschnüffeln und sie dann an genau diesen Daten zu testen. Ob das jeder Statistiker dann auch in seiner praktischen Arbeit berücksichtigt, ist allerdings eine andere Frage.

    Hier nochmal ein paar interessante Funde zur Problematik:

    http://www.ssc.wisc.edu/~bhansen/718/White2000.pdf

    White, ‘A Reality Check For Data Snooping’
    Data snooping occurs when a given set of data is used more than once for purposes of inference or model selection, When such data reuse occurs, there is always the possibility that any satisfactory results obtained may simply he due to chance rather than to any merit inherent in the method yielding the results. This problem is practically unavoidable in the analysis of time-series data, as typically only a single history measuring a given phenomenon of interest is available for analysis. It is widely acknowledged by empirical researchers that data snooping is a dangerous practice to be avoided, but in fact it is endemic.

    http://www.sigkdd.org/explorations/issues/1-2-2000-01/jensen.pdf

    Data Snooping, Dredging and Fishing: The Dark Side of Data Mining – A SIGKDD99 Panel Report
    Failure to adequately adjust for the statistical effects of search in large model spaces can cause a variety of problems, including excessive structure in induced models, suboptimal model construction, and vast overestimates of models’ accuracy.

    dashlink.arc.nasa.gov/topic/data-mining-for-climate-change-and-impacts/

    Data Mining for Climate Change and Impacts
    Data mining and knowledge discovery is becoming more and more important for climate change and impacts. The massive volumes of relatively recent climate-related observations from remote and in-situ sensors, proxy observations from the past, as well as simulations from global or regional climate models, need to be mined for predictive insights on climate extremes and to generate projections with uncertainty. (…) Computational data sciences can extract novel insights about climate extremes and regional change (…)

  158. #158 Jörg Zimmermann
    Mai 15, 2009

    “Wir entwickeln aus unseren Beobachtungen Modelle und Erwartungen und anhand dieser Modelle und Erwartungen entwickeln wir Prüfhypothesen, die wir dann auf die Daten anwenden. Was soll bei dieser Methode der gezielten Vorurteilsoptimierung denn anderes herauskommen als eine Bestätigung?
    Jeder Statistiker wird ihnen sagen, daß die Signifikanz eines statistischen Test für eine Beobachtung eigentlich schon von dem Moment an versaut ist, wo Sie einen Blick auf die Beobachtungsergebnisse geworfen haben und erst dann anfangen, Ihre Hypothesen zu formulieren.”
    Das sind absurde Behauptungen. Sie unterstellen, statistische Tests hätten nur dann einen vollen Wert, wenn wir über die untersuchten Daten nichts wissen? So einen Unfug habe ich noch nie gehört.

    “Was wäre, wenn all das tatsächlich bloß ein Resultat von data mining ist? ”
    Mit Verlaub, data mining betreiben die, die auf Basis von einer unzureichenden Zahl von Jahren, gegen alle Evidenz, und selektiert mit den Startjahren 1998 oder 2001, das Ende des Erwärmungstrends ausrufen wollen.

    Ich kann im übrigen nicht erkennen, daß Ihre Äußerungen Bezug zu meinem Text hätten. Da steht, daß es außer der Zeitreihe selbst weiteres Wissen über das Klima gibt. Wir wissen, nach welchem Signal wir schauen müssen, seit wann der Klimaantrieb aus anthropogenen Treibhausgasen dominiert. Wir wissen, daß wir über einem Jahrhundert sicher keine lineare Entwicklung der Temperaturzeitreihe erwarten können, sondern der wachsende Antrieb durch Treibhausgase einen beschleunigten Anstieg zeigen wird, den wir in den Daten dann auch wiederfinden. Über ein Jahrhundert ist also die lineare Regression nicht sinnvoll. Über weniger als 20 Jahre dominiert globales Wetter, was wir auch bereits unabhängig von der Zeitreihe wissen. Wissenschaft ist, ein konsistentes Bild aufzubauen aus den verschiedenen Informationsquellen, die einem zur Verfügung stehen. Die statistische Analyse der Zeitreihe der Temepraturanomalien ohne die Hilfe des übrigen verfügbaren Wissens über meteorologische und klimatische Abläufe ist unvollständig und kann in die Irre führen.

    “von Storch und Zorita besitzen also auch ein paranormales Fahrrad und sind Anhänger der Radosophie. (…)” Ich habe nicht den Eindruck, daß Sie hier ernsthaft diskutieren. Ihre Beschreibung der Arbeit ist falsch und Sie stützen damit auch nicht Ihre Behauptung, die beobachtete globale Temperaturzeitreihe ließe sich durch “Persistenz und Zufall” erklären.

    “a) Daß wir das Klima überhaupt beobachten können ist ein Beleg dafür, daß ein solcher Klima-Zufallsprozeß (wenn es sich denn um einen solchen handeln sollte) stationär sein muß.” Das ist keineswegs ein Beleg dafür. Das Klima stellt sich auf Randbedingungen ein. Wenn diese ein Ereignisfeld vorgeben, gibt es a priori keinen Grund anzunehmen, daß sich das Klima aus dem herausbewegen sollte. Innerhalb des erlaubten Bereichs kann das Klima natürlich fluktuieren. Wenn sich aber Randbedingungen ändern, wird das Klima nicht mehr stationär sein, bis eine Einstellung auf neue Randbedingungen erfolgte. Genau das beobachten wir mit der globalen Erwärmung durch verstärkten Treibhauseffekt. In der Vergangenheit hat das Klima über Jahrmillionen bemerkenswerte Veränderungen durchgemacht. Unter anderem vermutet man, daß die Erde mehrfach weitgehend vereist war, aufgrund einer aus dem Ruder gelaufenen Albedo-Rückkopplung. Man kann keine Gesetzmäßigkeit dafür ableiten, daß das Klima der Erde stationär sein müsse, nur weil wir keine Verhältnisse wie auf der Venus oder dem Mars hier bisher gesehen haben.

    “c) Es kann ja durchaus ein anthropogener Erwärmungstrend vorliegen, der die Häufung von Extremen gegen Ende der Zeitreihe unterstützt. Die Frage ist allerdings weniger, ob der signifikant von Null verschieden ist, sondern vielmehr, wie ausgeprägt er ist.” Und? Die Modellaussage ist, daß wir den aktuellen Trend recht gut verstehen. Daher sehe ich auch in Ihren weiteren Ausführungen kein relevantes Argument.

  159. #159 Jörg Zimmermann
    Mai 15, 2009

    “Es war der Herr Zimmermann bzw. for4zim, der der Meinung war, die Temperatur würde sich auch künftig in die Richtung entwickeln, in die der langfristige Trend der Vergangenheit deutet, nicht ich.” Das habe ich keineswegs geschrieben. Ich schreibe nur, daß es keine Anzeichen dafür gibt, daß sich die globale Erwärmung vermindert hätte. Die Erwartung darüber, wie sich die globale Temperatur in der Zukunft entwickeln wird, stützt sich auf das Wissen über das Verhalten des Klimas bei Änderung der Randbedingungen durch erhöhte Treibhausgaskonzentrationen. Quanitifiziert wird das durch die Modellergebnisse. Die Erwartungen für eine globale Erwärmung fußen gerade nicht auf der Extrapolation der Daten.

  160. #160 Krishna Gans
    Mai 15, 2009

    @Jörg Zimmermann

    Wir wissen, nach welchem Signal wir schauen müssen, seit wann der Klimaantrieb aus anthropogenen Treibhausgasen dominiert. Wir wissen, daß wir über einem Jahrhundert sicher keine lineare Entwicklung der Temperaturzeitreihe erwarten können, sondern der wachsende Antrieb durch Treibhausgase einen beschleunigten Anstieg zeigen wird, den wir in den Daten dann auch wiederfinden

    Wenn ich Wolfgan richtig verstanden habe, ist genau das der Knackpunkt, Sie meinen zu wissen wonach Sie suchen, schließen eine oder mehrer evtl. andere Mölgichkeit total und wissentlich aus.

    Sie suchen Bestätigungen, Sie untersuchen nicht, etwas was Sie zu 200 % von der IPCC Denke übernommen haben.

  161. #161 Evil Dude
    Mai 15, 2009

    @Flamme
    Ich habe in diesem Zusammenhang kein “Verständnis” von “Wir”. Und ich erstelle auch keine “Hypothesen” zu “angeblich felsenfest empirisch abgesicherter Erkenntnissen” aufgrund von “data mining/snooping”. Sie sind der, der das behauptet! Ich bezweifle mal, das Sie da über jemand anders, als sich sprechen können, zumindest nicht, bis Sie einen belastbaren Beleg dafür bringen, dass das passiert und wo und durch wen!

    Auch in Ihren Links ist nichts, was den Zusammenhang zwischen den Artikeln und Klimastatistik herstellt, zu finden, so what? Im Moment sieht es für mich so aus, als ob Sie eine Sammlung denkbarer Vorwürfe (wogegen auch immer) posten und unterstellen, dass schon irgendwas zutreffen wird, falls nicht, legen Sie einfach mal ein bischen nach! 😉

    Wieso werden Sie nicht mal konkret, statt diese Alibidiskussion zu führen?
    Beantworten Sie doch einfach folgende Frage:

    Welche grundlegenden Erkenntnisse zum Klimawandel, die in den von Ihnen offensichtlich für kritikwürdig gehaltenen Modellen steckt, wurde, so wie Sie es anscheinend unterstellen wollen, durch “data mining” entwickelt und welche Belege haben Sie dafür?

  162. #162 Evil Dude
    Mai 15, 2009

    @Krishna:

    Unterstellen wir doch mal, der Rest, den Sie geschrieben haben, würde zutreffen.

    schließen eine oder mehrer evtl. andere Mölgichkeit total und wissentlich aus.

    Welche anderen “Möglichkeiten” sollen das denn sein?

    Sie suchen Bestätigungen, Sie untersuchen nicht, etwas was Sie zu 200 % von der IPCC Denke übernommen haben.

    Was genau soll das denn heißen? Welche “Bestätigungen” werden Ihrer Meinung nach gesucht? Und “Bestätigungen” wofür? Was ist denn eine “IPCC Denke” Ihrer Meinung nach? Können Sie Ihre diesbezüglichen Behauptungen dazu auch belegen?

  163. #163 Wolfgang Flamme
    Mai 17, 2009

    Herr Zimmermann,

    Das sind absurde Behauptungen. Sie unterstellen, statistische Tests hätten nur dann einen vollen Wert, wenn wir über die untersuchten Daten nichts wissen? So einen Unfug habe ich noch nie gehört.

    Ihre Fehlinterpretation bestätigt genau die Darstellungen, die sich in den statistischen Vademeca finden:
    Um überhaupt sinnvolle Hypothesen aufstellen zu können, muß man bereits über Verdachtsmomente verfügen, die man sich experimentell bestätigen (oder widerlegen) lassen will. Dann guckt man sich das Ergebnis des Experiments an und erhält daraus dann Hinweise auf Bestätigung oder Ablehnung der Vermutung.

    Wenn man allerdings so nichtswissend ist, daß man gar keine Vermutung äußern kann, ohne sich zuvor das Ergebnis eines Experiments anzusehen, dann hat dieses Experiment natürlich keine Freiheitsgerade mehr, um die aus der Stichprobe gewonnene Vermutung zu bestätigen oder abzulehnen, da es darüber keine neue, unabhängige Information mehr liefern kann. Diese kann ihnen nur ein neues Experiment, eine neue Beobachtung liefern.

    Offensichtlich sind weder Sie noch Evil Dude imstande, selbst einfachste Fälle von statistischem confirmation bias zu erkennen (oder sie logisch nachzuvollziehen); der Dude wittert hinter korrekter statistischer Methodik sogar Verschwörungstheorien. Nun, es hätte ja für Sie beide die Möglichkeit bestanden, sich zwischenzeitlich darüber zu informieren, warum Sachs/Hedderich und unzählige andere Statistiker sich so äußern. Ist offenbar nicht erfolgt; über Ihren eigenen Bias in dieser Sache wollen Sie also auch nichts erfahren. Ist auch sicherlich besser so, denn damit erübrigt sich die weitere Diskussion für mich.

  164. #164 Jörg Zimmermann
    Mai 17, 2009

    @Flamme, ja, damit haben Sie sich ziemlich wasserdicht bestätigt, daß Einwände gegen Ihre Überlegungen nur dadurch erfolgen können, weil Ihre Opponenten ahnungslos sind. Ist doch sehr bequem für Sie.

    Das ändert aber nichts daran, daß das statistische Bearbeiten einer Zeitreihe ziemlich sinnlos ist, wenn Sie gar nicht wissen, auf welcher Zeitachse überhaupt das Signal liegt, nach dem Sie suchen. Es hilft Ihnen nämlich gar nichts, wenn Sie globales Wetter statistisch signifikant gegen den Meß- und Interpolationsfehler abgrenzen können (falls Sie das können…), wenn das gar nicht das Signal ist, das Sie suchen.

    Erinnern Sie sich noch, worum es hier eigentlich geht? Um den Artikel, den Herr Hoffmann in diesem Blogbeitrag diskutiert, und der besagt, daß es im Rahmen einer globalen Erwärmung eine nennenswerte Wahrscheinlichkeit dafür gibt, auch über 10 Jahre hinweg eine Temperaturabnahme zu beobachten, ohne daß es dem Erwärmungstrend widerspricht. Und das beobachten wir auch in den Messungen. Und was war da nun der confirmation bias? Daß man ein gutes Verständnis davon hat, was man in einer klimatologischen Temperaturzeitreihe an Phänomenen beobachten kann? Daß man zeigen kann, daß im allgemeinen globale Temperaturzeitreihen sich über deutlich mehr als 20 Jahre erstrecken müssen, bevor man statistisch signifikante klimatologische Trends erkennen kann? Das waren übrigens rhetorische Fragen.

  165. #165 Evil Dude
    Mai 18, 2009

    @Flamme

    Anstatt sich in wirre Unterstellungen zu flüchten sollten Sie einfach die Frage beantworten:

    Welche grundlegenden Erkenntnisse zum Klimawandel, die in den von Ihnen offensichtlich für kritikwürdig gehaltenen Modellen steckt, wurde, so wie Sie es anscheinend unterstellen wollen, durch “data mining” entwickelt und welche Belege haben Sie dafür?

  166. #166 Wolfgang Flamme
    Mai 18, 2009

    @Flamme, ja, damit haben Sie sich ziemlich wasserdicht bestätigt, daß Einwände gegen Ihre Überlegungen nur dadurch erfolgen können, weil Ihre Opponenten ahnungslos sind. Ist doch sehr bequem für Sie.

    Ist ja allerliebst, Herr Zimmermann … fehlerhafte statistische Methodik steht also unter Welpenschutz und ist deshalb letztendlich doch richtiger. Unter was verbucht man so eine Entgegnung korrekterweise? Kuriosa? Letztes Aufbäumen?

    Und Ihnen, Dude, hat der Herr Zimmermann inzwischen anscheinend einiges voraus. Ihm ist wohl inzwischen ein kleines Licht aufgegangen, daß so ein ‘data reuse’ tatsächlich problematisch ist, was die Stichhaltigkeit der gewonnenen Erkenntnisse betrifft.

    Sie dagegen wollen mich unbedingt in eine langwierige Diskussion über konkrete Veröffentlichungen verwickeln … und würden zuletzt diese grundlegende Tatsache doch immer noch bestreiten. Für solche Verschleißtaktiken von statistischen Totalverweigerern ist mir meine Zeit zu schade. Erst wenn Sie eingesehen haben, daß es da ein grundsätzliches Problem gibt macht es Sinn, Ihnen konkrete Beispiele aufzuzeigen.

  167. #167 Evil Dude
    Mai 18, 2009

    @Flamme:

    ROFL!

    Warum habe ich nur geahnt, dass Sie Sich vor der Frage drücken?

  168. #168 Wolfgang Flamme
    Mai 18, 2009

    Dude,
    und warum weiß ich, daß es keinen Sinn macht, konkrete Beispiele mit Ihnen zu erörtern? Weil Sie schon lange ein Beispiel vorliegen haben, ohne auch nur im mindesten sachlich darauf eingegangen zu sein. Sie haben auch ein entsprechendes Zitat aus einem bekannten statistischen Standardwerk vorliegen. Sie haben weiterhin Zitate und Verweise von mir auf spezifischere Veröffentlichungen zum Thema vorliegen. Alle bestätigen übereinstimmend, daß es da ein erhebliches und häufig unterschätztes Problem gibt. Aber was juckt das einen Troll?

  169. #169 Evil Dude
    Mai 18, 2009

    @Flamme:

    Und weiter versuchen Sie mit viel Bla-Bla davon abzulenken, dass Sie für Ihre Unterstellungen, dass die den Modellen zugrundeliegenden Erkenntnisse durch Manipulationen gewonnen wurden, nicht den geringsten Beleg haben:

    Nochmal die Frage:

    Welche grundlegenden Erkenntnisse zum Klimawandel, die in den von Ihnen offensichtlich für kritikwürdig gehaltenen Modellen steckt, wurde, so wie Sie es anscheinend unterstellen wollen, durch “data mining” entwickelt und welche Belege haben Sie dafür?

  170. #170 Krishna Gans
    Mai 18, 2009

    @Duvil
    plonk
    Don’t feed the troll

  171. #171 Wolfgang Flamme
    Mai 18, 2009

    Ich hätte Manipulation unterstellt? Vorsicht, wenn Sie sich noch mehr aus den Fingern saugen, verbluten Sie noch.

  172. #172 Evil Dude
    Mai 18, 2009

    @Flamme:
    Wir entwickeln aus unseren Beobachtungen Modelle und Erwartungen und anhand dieser Modelle und Erwartungen entwickeln wir Prüfhypothesen, die wir dann auf die Daten anwenden. Was soll bei dieser Methode der gezielten Vorurteilsoptimierung denn anderes herauskommen als eine Bestätigung?

    Schon vergessen?

    Nochmal die Frage:
    Welche grundlegenden Erkenntnisse zum Klimawandel, die in den von Ihnen offensichtlich für kritikwürdig gehaltenen Modellen stecken, wurde, so wie Sie es anscheinend unterstellen wollen, durch “data mining” entwickelt und welche Belege haben Sie dafür?

    Ich halte dann vorerst mal fest, dass Sie keine Belege haben und inzwischen sogar versuchen, Ihre eigenen Behauptungen wegzudiskutieren!

  173. #173 Evil Dude
    Mai 18, 2009

    Armes Krishilein,
    Ihre Platte hat einen Sprung. Ich habe den Eindruck, das passiert immer dann, wenn Sie nicht genügend Aufmerksamkeit bekommen. Ich verspreche, wenn Sie mir sagen, in welcher Gegend Sie wohnen, suche ich Ihnen die Nummer der Telefonseelsorge raus, da hört Ihnen auch beim größten Schwachsinn einer zu! 😉

  174. #174 Krishna Gans
    Mai 18, 2009

    @Dudelchen
    Wer dumme trollige Fragen stellt, bekommt entweder keine oder die entsprechend passenden Fragen.
    Da Du prinzipiell nur solche Fragen stellst bekommst Du prinzipiell eben die passenden Antworten oder Kommentare.
    Was das Aufmerksamkeitsdefizit anbelangt hatte ich Dir ja schon geschrieben, wo Dein eigentliches Problem liegt, ich habe da keins.

  175. #175 Krishna Gans
    Mai 18, 2009

    @Dudelchen
    Natürlich bekommt er die passenden oder keine Antworten…….

  176. #176 Evil Dude
    Mai 18, 2009

    ROFL

    Armes Krishilein!

    Diese schrecklichen “dummen” Fragen, nicht wahr! Bei denen Sie und Ihre Klima-Troll-Freunde zu dumm für eine Antwort sind! 😉

  177. #177 Wolfgang Flamme
    Mai 18, 2009

    Dude,

    starker Bias ist nunmal die Konsequenz, wenn man so vorgeht. Die von mir aufgeführten Zitate bestätigen das doch auch voll und ganz – muß ich sie wirklich nochmal hier herunterkopieren … oder würde es Sie am Ende besänftigen, wenn ich Ihnen noch ein paar neue heraussuche?

    Ich habe mich aber sorgsam gehütet – und werde mich weiterhin sorgsam hüten – zu behaupten, solche methodischen Fehler würden regelmäßig mit dem Vorsatz, wider besseren Wissens ein bestimmtes Ergebnis zu erhalten/befördern begangen.

    Ich denke, die Ursache ist vielmehr, daß die notorisch dünne und vage Datenlage einfach dazu verleitet, aus dem Vorhandenen möglichst viel Gewißheit (durchaus im Sinne der eigenen Überzeugung) herauszupressen … und am Schluß scheint dabei mitunter erheblich mehr Gewißheit übrigzubleiben, als sich durch eine korrekte statistische Methodik wirklich absichern ließe. Diese Einschätzung findet sich auch in den Zitaten wieder.

    Es ist ja auch beileibe nicht so, daß solche Klöpse ausschließlich AGW-Anhängern unterliefen oder den Klimawissenschaften überhaupt vorbehalten seien.

    Daß es nur menschlich ist, Bestätigungen für die eigenen Überzeugungen zu suchen – und sie deshalb auch überraschend häufig zu finden – ist ja nun wirklich keine revolutionäre Erkenntnis. Auch Wissenschaftler oder Wissenschaftsinteressierte weisen keine natürliche Immunität gegen Menschlichkeit auf. Kurzum, Bias existiert und nur ein Narr würde annehmen, die Wissenschaft oder er selbst sei völlig frei davon. Also ziehen Sie mal ihr Klima-Rumpelstilzchen-Kostüm aus und beruhigen Sie sich.

  178. #178 Evil Dude
    Mai 18, 2009

    @Flamme:

    Und wieder nur Rumgeeiere! Sie nehmen Ihre Behauptung zurück und doch wieder nicht! Was denn nun?

    Wir entwickeln aus unseren Beobachtungen Modelle und Erwartungen und anhand dieser Modelle und Erwartungen entwickeln wir Prüfhypothesen, die wir dann auf die Daten anwenden. Was soll bei dieser Methode der gezielten Vorurteilsoptimierung denn anderes herauskommen als eine Bestätigung?

    Stehen Sie denn nun dazu, oder nicht?

  179. #179 Krishna Gans
    Mai 18, 2009

    @Duvelchen

    Diese schrecklichen “dummen” Fragen, nicht wahr! Bei denen Sie und Ihre Klima-Troll-Freunde zu dumm für eine Antwort sind! 😉

    Trolle soll man nun mal nicht füttern, ich habe nicht die Absicht es zu tun – weiß ich doch, daß hinter den Fragen alles steht, nur kein Interesse an der Sache, sondern pure Provokation. Also laß doch einfach Dein dummes Geschwafel und lies die Krumen die Du verdienst und bekommst. Wenn Du die nicht verstehst……

  180. #180 Evil Dude
    Mai 18, 2009

    Armes Krishilein!

    Aber Ich bin bestechlich! Wenn die Summe stimmt, dann werde ich Ihr dummes Geschwafel, mit dem Sie versuchen, die Realität zu leugnen, nicht mehr kommentieren. Machen Sie doch mal ein Angebot! 😉

  181. #181 Wolfgang Flamme
    Mai 18, 2009

    Na selbstverständlich stehe ich dazu. Hypothesen anhand derselben Daten aufzustellen, an denen man sie anschließend mißt, ist definitiv eine Methode der gezielten Vorurteilsoptimierung. Nur zielt sie nicht unbedingt in Richtung AGW, sondern einfach in Richtung des Bias, den man vorher halt hatte.

    Dieser Thread ist ein weiteres Beispiel dafür, wie sich jemand krampfhaft – doch ohne Vorsatz – in seine eigenen Vorurteile verbeißen kann und sie dabei ständig bestätigt findet, meinen Sie nicht?

  182. #182 Wolfgang Flamme
    Mai 18, 2009

    PS: Nein, sagen Sie jetzt nicht “Meinen Sie sich?” oder sowas langweiliges … überraschen Sie mich mal. Positiv.

  183. #183 Gert
    Mai 18, 2009

    @Zimmermann: “Daß Ihre Schilderung nicht zutrifft, daß man die aktuelle Zeitreihe einfach durch “Zufall und Persistenz” zusammensetzen könnten, zeigen Zorita, Stocker und Storch (2009) “How unusual is the recent series of warm years”

    Hm, nein, da haben sie, so scheint es mir, das Paper nicht ganz genau gelesen. Zorita&co berechnen die Wahrscheinlichkeit der “recent series of warm years” unter Annahme, dass die Klimaerwärmung menschgemacht ist (“The parameters of the autoregressive models were estimated from the observed records in the period up to 1960 to limit the influence of the anthropogenic forcing.”).
    Sie müssten eine Berechnung liefern, in der der ganze Sample berücksichtigt wird, wenn sie jemandem die Unwahrscheinlichkeit aufzeigen wollen, der die Theorie der menschgemachten Erwärmung ablehnt.

  184. #184 Evil Dude
    Mai 18, 2009

    @Flamme:

    Na dann haben wir das doch geklärt und Sie können endlich zur Sache kommen:

    Welche “grundlegenden Hypothesen” sind das denn nun, die gemäß Ihrer Behauptung so zustande gekommen sind? Belege nicht vergessen!

  185. #185 Wolfgang Flamme
    Mai 19, 2009

    Na dann haben wir das doch geklärt und Sie können endlich zur Sache kommen

    Haben ‘wir’ wohl kaum, wo Sie doch im Anschluß immer noch von ‘meiner Behauptung’ sprechen, als hätte ich sie nicht schon lange qualifiziert belegt.

    Haben Sie eigentlich inzwischen fachliche Belege oder glaubhafte Unterstützung für Ihre Meinung auftreiben können, snooping/mining/reuse von Zeitreihen sei prinzipiell unproblematisch und bzgl. der Resultate unbiased?

    Wie dem auch sei, Sie haben ja bereits lange zwei konkrete Beispiele vorliegen, zu denen ich mich hier schon ausführlich geäußert habe. Nichts hindert Sie, an diesen Beispielen musterhaft Ihre große, vereinheitlichte Unbedenklichkeitstheorie zu elaborieren.

  186. #186 Wolfgang Flamme
    Mai 19, 2009

    Hups, da ist mir das Tagging durcheinandergeraten, Dudes Zitat umfaßt lediglich die erste Zeile.

  187. #187 Evil Dude
    Mai 19, 2009

    @Flamme:

    Sie haben offensichtlich eine ziemlich blühende Phantasie! Nur weil Sie von einer theoretischen Möglichkeit fabulieren können heißt das doch nicht, dass der Vorwurf zutrifft. Davon mal abgesehen, dass Sie behaupten, dass “grundlegende Hypothesen” zum Klimawandel auf selektiver Auswahl der Daten beruhen würden.
    Dafür haben Sie immer noch keinen Beleg gebracht. Sie können ja nicht einmal darlegen, welche “grundlegenden Hypothesen” Ihrer Meinung nach so zustandegekommen sein sollen.
    Warum drücken Sie sich denn nur so davor, zu benennen, welche “grundlegenden Hypothesen” das denn Ihrer Meinung nach sein sollen?
    Oder ist Ihr Thema, welche Fehler bei der Interpretation von Daten theoretisch denkbar sind? Dann würde ich sagen, sind Sie hier im falschen Blog. Hier geht es um Klimawandel und nicht um statistische Griffelspitzerei.
    Was Sie bisher gebracht haben, das kann man ja nicht mal mit “heiße Luft” beschreiben, das ist bestenfalls ein lauwarmes Lüftchen!

  188. #188 Jörg Zimmermann
    Mai 19, 2009

    “Hypothesen anhand derselben Daten aufzustellen, an denen man sie anschließend mißt, ist definitiv eine Methode der gezielten Vorurteilsoptimierung.” Das ist der abstrakte Vorwurf. Ich vermisse aber den konkreten Vorwurf. Die Annahme über eine laufende globale Erwärmung durch menschlichen Einfluß basiert auf unserem Wissen über das Wirken von IR-aktiven Gasen auf den Strahlungshaushalt der Erde. Die Quantifizierung der Erwärmung erfordert zusätzlich Wissen über Rückkopplungen, über Zeitkonstanten des Systems (wie viel Wärme geht z.B. wie schnell in die Ozeane) und andere Einflüsse (Aerosole z.B.). Diese komplexen Informationen setzen wir mit der Hilfe von Modellen um. Deren Trends wollen wir nun in den gemessenen Daten wiederfinden. Dazu gehört der klimatische Trend in den globalen Temperaturdaten. Die Aussagen zur globalen Erwärmung sind hingegen NICHT das Ergebnis, daß einmal ein Erwärmungstrend in den Messungen gefunden wurde und nun dieser in die Zukunft fortgeschrieben würde. Dies haben Sie, Herr Flamme, aber nun wiederholt implizit unterstellt. Und genau das wäre, wenn es stimmte, dann auch eine Quelle für einen Bestätigungsfehler, einen “confirmation bias”.

    Sie machen hier einen Vorwurf, den Sie nicht belegt haben, tun aber so, als hätten Sie es getan. Das finde ich nicht ok. Dann schreiben Sie “Ist ja allerliebst, Herr Zimmermann … fehlerhafte statistische Methodik steht also unter Welpenschutz und ist deshalb letztendlich doch richtiger” Das findet sich nicht in meinem Text, und ich finde das nicht akzeptabel, daß Sie mit meinem Beitrag so umgehen. Der confirmation bias ist bei Ihnen: Sie wollen unbedingt “herausfinden”, daß es eine Änderung im Klimatrend gibt. Dazu gehen sie dann auf niederfrequente globale Klimavarianz, obwohl wir wissen, daß es die gibt und daß man an ihr keinen anhaltenden Klimatrend ablesen kann. Noch schlimmer: Ihnen liegt hier von Modellseite der Beleg vor, wie sich niederfrequente Klimavarianz (bzw. globales Wetter) auswirken können und auf welche Zeitskala zu schauen daher sinnlos ist und Sie ignorieren es einfach und schauen trotzdem auf diese Zeitskala. Aus 8 Jahren wollen Sie eine Änderung des Klimatrends ableiten. Lassen Sie es mich mal ganz offen sagen, weil mir nach diesem langen Hin und Her wirklich die Geduld ausgeht: das ist gewollte Ignoranz.

    Melden Sie sich wieder, wenn Sie globales Wetter separieren können und im unterliegenden Trend eine statistisch signifikante Änderung hin zu einer geringeren Erwärmung oder gar Abkühlung ableiten können. Ich habe aber leider keine Hoffnung, daß das passieren wird, obwohl es mich sehr freuen würde.

  189. #189 Jörg Zimmermann
    Mai 19, 2009

    @Gert
    “Hm, nein, da haben sie, so scheint es mir, das Paper nicht ganz genau gelesen. Zorita&co berechnen die Wahrscheinlichkeit der “recent series of warm years” unter Annahme, dass die Klimaerwärmung menschgemacht ist (“The parameters of the autoregressive models were estimated from the observed records in the period up to 1960 to limit the influence of the anthropogenic forcing.”).
    Sie müssten eine Berechnung liefern, in der der ganze Sample berücksichtigt wird, wenn sie jemandem die Unwahrscheinlichkeit aufzeigen wollen, der die Theorie der menschgemachten Erwärmung ablehnt.”

    Ich habe das gelesen. Aber was Sie daraus interpretieren, empfinde ich als eigenwillig. Zorita et al. bestimmen Autoregressionsparameter. Sie nehmen dazu den Teil der Zeitreihe, der sicher nicht von der menschengemachten Erwärmung betroffen sein kann, weil diese selbst auch Autokorrelation erzeugen würde. Nun gibt es zwei Möglichkeiten:
    1. Die Daten seit 1960 sind von menschengemachter Erwärmung beeinflußt. Dann muß man sowieso genau das machen, was Zorita et al gemacht haben.
    2. Die Daten seit 1960 sind nicht von menschengemachter Erwärmung beeinflußt. Dann bestimmt man die Autoregressionsparameter mit einem Teil der dafür zur Verfügung stehen Daten. Das vergrößert zwar den Fehler der Parameter, aber nur dann wesentlich, wenn man einen nicht repräsentativen Teil der Zeitreihe genommen hätte. Sind die Temperaturdaten bis 1960 nicht repräsentativ, die Daten seit 1960 hingegen repräsentativ? Ich sehe keine Plausibilität in dieser Annahme.

    In der Analyse von Zorita et al. steckt a priori keine Annahme drin, daß es eine menschengemachte Erwärmung gibt, man hat nur vorsorglich Daten aus der Analyse ausgeschlossen, die unter dem Verdacht stehen, für die längere Zeitreihe nicht repräsentativ zu sein. Die Daten nach 1960 für die Parameterberechnung zu verwenden würde hingegen bedeuten, daß man a priori annimmt, daß die Daten nach 1960 auch repräsentativ für die natürliche Variabilität des Klimas sind. Das wäre viel problematischer, denn man will ja mit der Analyse genau das erst beweisen.

  190. #190 Wolfgang Flamme
    Mai 19, 2009

    Sehr hübsch – fast klassisch – auch folgendes Beispiel zur generellen Problematik:
    https://www-cse.ucsd.edu/users/elkan/kddcoil.pdf

    Es geht um die Beobachtungen anläßlich eines Data Mining Contest, der zwar nichts mit dem Erdklima zu tun hat, aber umso mehr mit typischen Fallstricken der Modellierung.

    Den Contest-Teilnehmern wurde eine umfangreiche Sammlung von Versicherungsdaten ausgehändigt, nahezu 100 potentielle Prädiktoren pro VN. Aufgabe war es, anhand dieser Prädiktoren ein ‘gutes’ Modell für die Zielvariable “Dieser VN hat eine Caravan-Versicherungspolice” für den gesamten Datenbestand zu entwickeln – diese Zielvariable war für eine repräsentative Teilmenge der Daten (Trainingsdatensatz) natürlich bekannt.

    Resultat: Unübersehbare Tendenz zu overfitting/over-confidence. Die Mehrheit der Teilnehmer neigte dazu, die Komplexität ihrer Modelle systematisch so aufzublasen, daß diese der Datenlage besonders gut gerecht wurden. Mehr noch, Teilnehmer beseitigten auch gezielt ‘Ausreißer’ aus dem Trainingsset oder manipulierten sie, damit ihr überlegenes Wahrheitsmodell nicht durch ‘falsche’ Daten gestört werde.

    Angewendet auf die Datenstamm zeigten diese Modelle dann aber deutliche underperformance gegenüber trivialen, robusteren Ansätzen. Die Reaktionen der Modellierer auf das Ergebnis sind sehr erhellend, u.a. im Abschnitt über ‘Magical Thinking’ kommentiert: “The practitioner of magic does not unlearn his magical view of events when the magic does not work.”

    For example, one author wrote “But after the announcement of the true policy owners it has become clear that the application of neural networks isn’t necessary, [my] scoring system itself could be used instead and, even more, would have performed better.” Later he wrote “Unfortunately I have discovered this fact after the announcement of the true policy owners.”

  191. #191 Gert
    Mai 19, 2009

    “steckt a priori keine Annahme drin, daß es eine menschengemachte Erwärmung gibt” -> “to limit the influence of the anthropogenic forcing.”
    Im Übrigen habe ich ja nicht das Paper kritisiert, das ist, sofern ich es beurteilen kann völlig in Ordnung. Ich habe die Verwendung dieser Studie kritisiert.
    “Das wäre viel problematischer”-> Das kommt drauf an, was man berechnen will. Wenn man jemanden überzeugen will, dass die Erderwärmung menschgemacht ist, muss man sie drin lassen. Wenn es darum geht, herauszufinden, wie wahrscheinlich eine solche Erwärmung

  192. #192 Gert
    Mai 19, 2009

    zufällig zu Stande kommt, wenn die Theorie der menschgemachten Erderwärmung stimmt.

  193. #193 Gert
    Mai 19, 2009

    PS: Wissen sie, wie weit der Sample zurückreicht? Mir wurde das im Paper nicht klar.

  194. #194 Evil Dude
    Mai 19, 2009

    @Flamme:

    Und wieder die pauschale Vorverurteilung ohne Beleg. Sie geben sogar explizit an, dass Ihr Beispiel nichts mit Klimamodellierung zu tun hat! Welche “grundlegende Hypothese” auf die von Ihnen beschriebene Weise entwickelt wurde, dazu ist Ihnen auch noch immer nichts eingefallen. Wenn man Ihrer “Logik” folgt, dann müßte man jeden lebenslänglich einsperren, denn dass Menschen dazu in der Lage sind, einen Mord zu begehen “beweist” nach Ihrer “Logik” ja, dass jeder ein Mörder ist!

    Es bleibt wie gehabt: Flamme kann bestenfalls ein “laues Lüftchen” gegen den Klimawandel vorbringen!

  195. #195 Wolfgang Flamme
    Mai 19, 2009

    Herr Zimmermann,

    das ist doch völlig fruchtlos. Egal wie stark die Evidenz, wie groß die Zahl qualifizierter Zitate und Beispiele, die ich anfüge … ich werde weder von Ihnen noch von Dude jemals das Eingeständnis erhalten, daß hier ein grundsätzliches Problem bei der Modellbildung zu Zeitreihen vorliegt. Genau gesagt rechne ich umso weniger damit, je mehr ich das belege.

    Warum?

    Weil das Eingeständnis, hier liege ein grundsätzliches Problem vor, selbstverständlich die Erwartungshaltung rechtfertigt, diese Problematik würde in Arbeiten zum Thema dann auch regelmäßig und umfassend addressiert – ganz besonders wenn es sich um reviewte und/oder einflußreiche Veröffentlichungen handelt. Wir beide wissen, daß das kaum jemals der Fall ist. Also können Sie mir in dieser Sache niemals recht geben, weil Sie den Skeptiker in sich und anderen keinesfalls nähren werden.

    Sie haben ganz genau null Evidenz auf Ihrer Seite, daß die Anwendung von data mining/snooping/reuse grundsätzlich unproblematisch sei und die Resultate unbiased. Rein gar nichts spricht für diese Sicht und alles dagegen. Da müssen Sie die Augen ganz fest zukneifen und tausendmal wiederholen, das sei lediglich meine Sicht der Dinge, egal wieviele Fachleute sie teilen, egal, was in statistischen Grundlagenwerken steht, egal, was auch immer.

    Wissen Sie, gegen Ihre Voreingenommenheit kann ich selbstverständlich nicht anstinken und auch Ihr Dauersperrfeuer von Nebelkerzen und Blendgranaten kann ich nicht verhindern. Ich kann aber eines demonstrieren: Wie Sie angesichts dieser grundlegenden Problematik beim Versuch, in dieser Sache weiter Glaubwürdigkeit zu bewahren, ständig mehr Glaubwürdigkeit über Bord werfen müssen. Ein nettes Paradoxon, was mich schmunzeln läßt.

  196. #196 Evil Dude
    Mai 19, 2009

    @Flamme:

    Und wieder nur viel Bla-Bla und weitere unbelegte Unterstellungen! Nur, welche “grundlegenden Hypothesen”, so wie Sie es unterstellen, auf die von Ihnen behauptete Weise zustandegekommen sind können Sie immer noch nicht sagen!

    Aber in einem haben Sie natürlich recht, Sie müssen keine Glaubwürdigkeit über Bord werfen denn dazu hätten Sie welche besitzen müssen!

    Aber damit wir nicht vom Thema abkommen:

    Nochmal die Frage:
    Welche grundlegenden Erkenntnisse zum Klimawandel, die in den von Ihnen offensichtlich für kritikwürdig gehaltenen Modellen stecken, wurde, so wie Sie es anscheinend unterstellen wollen, durch “data mining” entwickelt und welche Belege haben Sie dafür?

    Ich fasse nochmal kurz zusammen, dass Sie immer noch keine Belege haben und daher weiter versuchen müssen, Ihre eigenen Behauptungen wegzudiskutieren!

  197. #197 Gert
    Mai 19, 2009

    @Flamme: “Die Mehrheit der Teilnehmer neigte dazu, die Komplexität ihrer Modelle systematisch so aufzublasen, daß diese der Datenlage besonders gut gerecht wurden.”
    Hm, nein, die aufgeblasenen Modelle haben ja offensichtlich schlechter abgeschnitten als die einfacheren, wie können sie da sagen, diese seien der Datenlage besonders gerecht worden?

  198. #198 gert
    Mai 19, 2009

    evil dude: Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht. Das ist doch bereits “data mining”? Oder was vestehen sie unter “data mining”?

  199. #199 Evil Dude
    Mai 19, 2009

    @gert:

    Haben Sie auch einen seriösen Beleg zu dieser Behauptung?

  200. #200 Georg Hoffmann
    Mai 19, 2009

    @Gert

    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht. Das ist doch bereits “data mining”? Oder was vestehen sie unter “data mining”?

    Als data mining bezeichnet man ein Vorgehen, bei dem alle Beobachtungsdaten, die nicht mit einer vorgefassten Meinung uebereinstimmen, vernachlaessigt werden. Man nimmt also nur die “guten Daten”.
    Jedes Modell von einiger Komplexitaet beeinhaltet Parameter, die innerhalb eines bestimmten Intervalls schlecht oder nicht bekannt sind. Diese Paraleter werden bei Klimamodellen optimiert (das Modell ist immer dasselbe, will heissen, die geloesten Gleichungen sind immer dieselben) und in Sensitivitaetsstudien versucht man herauszubekommen, wie wichtig die Wahl eines bestimmten Parametersatzes den nun wahr, entweder durch zufaellige Anederungen oder durch mathematisch systematische Analysen. Ich kann keine Aehnmichleit zum Data Mining sehen, insbesondere da letzteres immer ein Mittel der Manipulation und Verdrehung ist.

    Wissen sie, wie weit der Sample zurückreicht? Mir wurde das im Paper nicht klar.

    Die letzten 120 (GISST) respektive 150 Jahre (HADCRU).

  201. #201 Jörg Zimmermann
    Mai 19, 2009

    @Gert
    “Im Übrigen habe ich ja nicht das Paper kritisiert, das ist, sofern ich es beurteilen kann völlig in Ordnung. Ich habe die Verwendung dieser Studie kritisiert.”
    Das konnte ich nicht nachvollziehen. Die Studie sagt, daß man den Temperaturverlauf nicht als rein zufällig aufgrund natürlicher Variablität erklären kann, da dies extrem unwahrscheinlich wäre. So habe ich die Studie benutzt.
    Sie schreiben weiter: “Wenn man jemanden überzeugen will, dass die Erderwärmung menschgemacht ist, muss man sie [die Daten nach 1960 für die Berechnung der Autoregressionsparameter] drin lassen. ” Eben nicht. Es geht ja gerade darum, die Hypothese zu untersuchen, daß die Variabilität nur aus Persistenz und Zufall besteht. Die verwendeten Parameter kommen aus einem Subdatensatz, der aber repräsentativ ist. Die Untersuchung erfolgt am gesamten Datensatz. Ich sehe keine Einwände dagegen. Ich bin dafür auch nicht übermäßig kompetent. Aber mich würde eigentlich nur eine Rechnung überzeugen, bei der das Herausnehmen von 45 Jahren an Daten an irgendeiner Stelle im Datensatz die Werte der Autoregressionsparameter erheblich schwanken ließe und dadurch das Ergebnis der Analyse sich um eine Größenordnung oder gar mehr ändern würde.
    Zu Ihrer Frage: Zorita et al geben unter “2. Data and methods” zu Beginn an, daß sie Daten für 1880-2006 verwendet haben (zeitliche Begrenzung der GISS und NCDC Datensätze).

  202. #202 Jörg Zimmermann
    Mai 19, 2009

    @ Flamme
    “Wissen Sie, gegen Ihre Voreingenommenheit kann ich selbstverständlich nicht anstinken und auch Ihr Dauersperrfeuer von Nebelkerzen und Blendgranaten kann ich nicht verhindern.”

    Ich könnte das eigentlich schreiben. Wie ich schon schrieb, meine Geduld ist arg strapaziert und ich habe nicht den Eindruck, daß Sie auf meine Beiträge wirklich eingehen. Ich will Sie auch nicht zwingen. Es ist aber offensichtlich, daß Sie außerhalb von Leugnerkreisen kaum jemanden finden werden, der Ihre Behauptung unterstützen würde, daß man mit Ihrer Methodik eine Änderung bei der anthropogenen globalen Erwärmung erkennen könnte bzw. daß man aus den letzten 8 oder 11 Jahren einen Trendwechsel ableiten könnte.

  203. #203 Gert
    Mai 19, 2009

    @Hoffmann: Der deutsche Wikipedia-Eintrag zu Data Mining definiert den Begriff anders als Sie. Oder hab ich ihn nicht verstanden? Bzw dass Data Mining ausschliesslich Manipulation und Verdrehung ist, erschliesst sich mir aus dem Artikel nicht.

    @all: Kennt jemand eine Berechnung der Wahrscheinlichkeit des Auftretens von Event E (im Paper), das zur Bestimmung der Parameter der Autoregressivität auch die letzten 40 Jahre verwendet? Oder eine Schätzung wie stark das ins Gewicht fallen würde, dh das Ergebnis verändern würde? Denn erst das wäre ein empirisches Argument für die Existenz der menschgemachten Erwärmung. Oder anders gesagt, wenn man beweisen will, dass die letzten 40 Jahre der Erwärmung menschgemacht sind, bzw. die Wahrscheinlichkeit einer zufälligen Erwärmung minim ist, dann ist es unredlich, dies bei der Berechnung bereits vorauszusetzen. Damit will ich überhaupt nicht sagen, das es nicht gute Gründe gibt, von einer menschgemachten Erwärmung auszugehen, sondern nur, das eine Berechnung, die diese bereits voraussetzt, dann sicher nicht herangezogen werden kann, um diese zu belegen. Das wäre dann genau das was Hoffmann als Data Mining bezeichnet: “ein Vorgehen, bei dem alle Beobachtungsdaten, die nicht mit einer vorgefassten Meinung uebereinstimmen, vernachlaessigt werden. ”

    @evildude: Sehe ich es richtig, dass sie sich auf den ersten Satz meines Postings beziehen? Falls ja: Nein, aber bis jetzt auch keinen gesucht. Das ist eher mein Eindruck. Aber ich schaue mal, ob ich was finden kann.

  204. #204 Evil Dude
    Mai 19, 2009

    Es bezieht sich (selbstverständlich) hierauf:

    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht.

  205. #205 Gert
    Mai 19, 2009

    @Zimmermann: “Aber mich würde eigentlich nur eine Rechnung überzeugen, bei der das Herausnehmen von 45 Jahren an Daten an irgendeiner Stelle im Datensatz die Werte der Autoregressionsparameter erheblich schwanken ließe und dadurch das Ergebnis der Analyse sich um eine Größenordnung oder gar mehr ändern würde.”
    Ja, genau diese Frage habe ich in meinem letzten Posting gestellt. Ich möchte wissen, wieviel das den Autoregressionsparameter schwanken liesse.
    bzgl. Repräsentativität: Ob die Spanne der rund 70 Jahre repräsentativ ist, ist doch von der Stärke und Anzahl der Autoregressionsparameter abhängig. Wenn ein System längere Phasen mit wenig und viel Varianz hätte, dann ist unter Umständen die Spanne nicht repräsentativ. Bzw, ob der Datensatz repräsentativ ist, hängt davon ob, was man für ein Modell zu Grunde legt, wie die Temperaturen sich verändern.

  206. #206 Georg Hoffmann
    Mai 19, 2009

    Na dann habe ich den Begriff data mining auch nicht verstandne. Mit Modellen und deren Parametrisierung hat es jedenfalls nichtszu tun.
    Zu Zorita et al.,

    Oder anders gesagt, wenn man beweisen will, dass die letzten 40 Jahre der Erwärmung menschgemacht sind, bzw. die Wahrscheinlichkeit einer zufälligen Erwärmung minim ist, dann ist es unredlich, dies bei der Berechnung bereits vorauszusetzen.

    Ja, genau wie beim Flamme, man darf nichtmals sich fragen, ob die letzten Jahre vielleicht nicht ganz zufaellig so warm sind, weil schon die Frage ein Vorurteil darstellt. Nu ja.
    Der Rest der Welt argumentiert etwa so: Seit 40 Jahren ist ein statistisch signifikanter Trend beobachtbar und wir haben eine Theorie warum das wohl so ist. Die 80 oder 100 Jahre davor gehen mal auf mal ab und die Kombination der verschiedenen Forcings hat zu keinem klaren Muster gefuehrt. Nehmen wir doch mal an, dass dieses Auf und Ab das Resultat von Klima ud im wesentlichen natuerlichen Forcing ist und uns dieser ungestoerte Zustand eine Abschaetzung fuer die Traegheit und die Variabilitaet des Systems auf relevanten Zeitkalen (interannual bis dekadisch) liefert, wie wahrscheinlich ist es dann, dass die letzten Jahre rein zufaellig so sind, wie sie sind. Antwort: Sehr unwahrscheinlich. Schlussfolgerung; Die Praemissen sind falsch, das Forcing ist nicht mehr natuerlich im Sinne dessen was zwischen 1880 und 1970 oder so passierte.
    So koennte man (keiner wird das fuer sinnvoll halten) jede andere Zeitspanne auch untersuchen (und die letzten Jahre zum Abschaetzen der Autoregression mithinzunehmen) und kaeme natuerlich zu dem Schluss, dass nur die letzten Dekaden aus dem natuerlichen Meandern des Klimas herausfallen.
    Na und fuer Sie und wer sonst noch Lust hat, ist es eben unredlich.

  207. #207 Gert
    Mai 19, 2009

    @evildude:
    Reichen zwei Belege?

    Arktische Wettermessungen sollen langfristige Klimamodelle verbessern
    Hans-Friedrich Christiansen, Pressestelle
    GKSS-Forschungszentrum Geesthacht GmbH
    https://idw-online.de/pages/de/news148

    Parameterisierung der Vegetation in Klimamodellen
    https://www.wsl.ch/forschung/forschungsprojekte/vegetation_klimamodelle/index_DE/index_DE

  208. #208 Georg Hoffmann
    Mai 19, 2009

    @Gert
    Ich weiss jetzt gar nicht, wie man diese rhetorische Figur nennt. Etwas behaupten und als Beleg Texte nennen, die davon gar nicht sprechen. Keine Ahnung.
    In jedem Fall ist das

    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht.

    nicht gleich dem

    Im Projekt werden die Methoden der Simulation und der Modellierung angewendet. Das am Max Planck Institut in Hamburg entwickelte generellen Zirkulationsmodell (ECHAM4) wird angewandt, um verschiedene Parameterisierungs-Schemen zu vergleichen und Sensitivitätsstudien durchzuführen. Zur Parameterisierung der Vegetation bzw. des Waldes und zur Definition der ‘boundary (surface)’ Bedingungen des Models werden Daten des Projektes LWF verwendet.

    Dass Daten immer die Modelle motivieren und die Parametrisierung leiten ist ja wohl klar (und wie sollte es auch anders sein), dass aber ein Modell beliebig verbogen wuerde (ja das auch nur moeglich sei) um eine Uebereinstimmung zu erzwingen, kann man wohl auf den Elephantenfriedhof der Skeptikermythen ablegen.

  209. #209 Evil Dude
    Mai 19, 2009

    @Gert:

    Ich will mal darüber hinwegsehen, dass Sie zwei Links mit Meldungen aus dem Jahr 1998 anführen. Wo steht da was, dass Modelldaten mit den Meßdaten in Übereinstimmung gebracht werden bzw. werden sollen? Noch dazu nur solche, die “ins Konzept passen”, so wie Sie es “vermuten” oder unterstellen wollen?

    Korrigieren Sie mich, aber ich sehe da nur, dass Grundlagenforschung betrieben wurde, um die Modelle zu verbessern. Dass dies selektiv und mit der Absicht, einzig eine Erwärmung zu belegen, gemacht wurde/werden sollte, davon sehe ich da nichts!

  210. #210 Gert
    Mai 19, 2009

    Hoffmann: Da haben sie mich jetzt aber ordentlich missverstanden. Dabei hielt ich meine Ausführungen eigentlich für ziemlich klar. Sicher darf man sich fragen, ob die letzten 40 Jahren keine Zufall waren. Aber man kann es doch nicht beweisen, in dem man voraussetzt, das es kein Zufall war.
    “Seit 40 Jahren ist ein statistisch signifikanter Trend beobachtbar und wir haben eine Theorie warum das wohl so ist.” Ich habe das nicht bestritten. Ich erkläre es nochmals: Zimmermann hat das Paper herangezogen, um Flamme zu zeigen, dass die Erderwärmung exisitiert, weil die Wahrscheinlichkeit einer Zufälligkeit verschwindend gering ist. Das Paper setzt aber bereits voraus, dass sie existiert. Ergo ist es unsinnig, Flamme damit überzeugen zu wollen. Sinnvoll wäre eine Berechnung, die die letzten 40 Jahre berücksichtigt.
    “Die Praemissen sind falsch”. Ihre Prämisse ist doch “..und uns dieser ungestoerte Zustand eine Abschaetzung fuer die Traegheit und die Variabilitaet des Systems auf relevanten Zeitkalen (interannual bis dekadisch) liefert”? D.h. sie sagen, im Gegensatz zu Zimmermann, die verwendeten Daten seien nicht repräsentativ?

  211. #211 Gert
    Mai 19, 2009

    @Evildude: Was spielt es für eine Rolle, aus welchem Jahr die Meldungen sind?

    “Noch dazu nur solche, die “ins Konzept passen”, so wie Sie es “vermuten” oder unterstellen wollen?” “Dass dies selektiv und mit der Absicht, einzig eine Erwärmung zu belegen, gemacht wurde/werden sollte, davon sehe ich da nichts!” -> Das sind meiner Meinung nach Unterstellungen. Wo habe ich sowas behauptet?

    @Hoffmann: “Basierend auf diesen umfangreichen Datensätzen und detaillierten Simulationsrechnungen werden anschließend neue Parameteransätze für die Wirkung von Wolken entwickelt” sagt ja ziemlich klar, was ich geschrieben habe. ” dass aber ein Modell beliebig verbogen wuerde (ja das auch nur moeglich sei) um eine Uebereinstimmung zu erzwingen” Leider machen sie den gleichen Fehler wie Evildude, sie suggerieren, ich hätte behauptet, dass die Modelle beliebig verbogen würden. Das habe ich nicht gemacht. Ich bin nicht Flamme. Ich habe nicht mal behauptet, dass ich es als kritikwürdig empfinde, dass Modelle der Realität angepasst werden. Das scheint mir durchaus sinnvoll. Ich habe an Stelle von Flamme auf eine Frage von Evildude geantwortet, und zwar völlig korrekt.

  212. #212 Evil Dude
    Mai 19, 2009

    @Gert
    Wenn Sie aktuelle Ergebnisse kritisieren wollen, dann sollten Sie das nicht mit 10 Jahre alten Hinweisen auf die Verbesserung der Grundlagenforschung machen, es sei denn, Sie können belegen, dass seither nichts relevantes mehr passiert ist.

    Und dass “Ihrer Meinung nach” die Klimamodelle in eine bestimmte Richtung angepasst werden sollen, das behaupten Sie hier:
    https://www.scienceblogs.de/primaklima/2009/04/ganz-echt-jetzt-halt-die-erwarmun-aber-wirklich-wirklich-an.php#comment36719
    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht.

    Die Links zu den beiden Forschungsprojekten haben Sie sogar explizit auf meine Frage dazu gepostet! Dafür, dass Sie so alte Ankündigungen als Beleg bringen wollen haben Sie ein erstaunlich kurzes Gedächtnis!

  213. #213 Gert
    Mai 19, 2009

    @Evildude: Wurden die Ergebnisse etwa wieder aus den Klimamodellen herausgenommen? Wenn nicht, was spielt es für eine Rolle, ob sie gestern oder vor hundert Jahren reingenommen wurden?
    “Und dass “Ihrer Meinung nach” die Klimamodelle in eine bestimmte Richtung angepasst werden sollen, das behaupten Sie hier:”-> Wo steht da etwas von einer bestimmten Richtung?

  214. #214 Evil Dude
    Mai 19, 2009

    @Gert
    Wurden die Ergebnisse etwa wieder aus den Klimamodellen herausgenommen?
    Von welchen Ergebnissen reden Sie da?
    Der Punkt ist, dass Sie aktuelle Ergebnisse “in Frage stellen” wollen. Das geht nur, wenn Sie über aktuelle Ergebnisse reden und nicht darüber, ob und welche Grundlagenforschung zur Verbesserung der Modelle vor 10 Jahren betrieben wurde.

    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht.

    Was gibt es denn daran zu interpretieren? Sie unterstellen eindeutig, dass die Modelle “in die richtige Richtung”, also dass Sie zu den Messdaten passen, “modifiziert” werden. Sie beharren sogar vehement darauf, gestehen aber zu, dass sie keinen Beleg dafür haben. Gibt es da einen speziellen Grund?

  215. #215 Gert
    Mai 19, 2009

    ” also dass Sie zu den Messdaten passen, “modifiziert” werden.” .> ja, klar. das habe ich ja bereits gezeigt.
    “Von welchen Ergebnissen reden Sie da?” -> die aus den “10 Jahre alten Hinweisen auf die Verbesserung der Grundlagenforschung” resultieren.

  216. #216 Evil Dude
    Mai 19, 2009

    Sie haben es behauptet, ohne Belege dafür zu liefern und nicht “gezeigt”! Aber komischerweise unterstellen Sie nun doch wieder, dass die Berechnungen manipuliert werden um Sie den Messdaten anzupassen? Können Sie sich irgendwann auch entscheiden?

    Welche Ergebnisse wären das denn, die aus den 10 Jahre alten “Hinweisen” resultieren?

  217. #217 Jörg Zimmermann
    Mai 19, 2009

    @Gert
    Sie schreiben: “Zimmermann hat das Paper herangezogen, um Flamme zu zeigen, dass die Erderwärmung exisitiert, weil die Wahrscheinlichkeit einer Zufälligkeit verschwindend gering ist.” Nein. Vielmehr hatte Herr Flamme behauptet, man könne die Temperaturzeitreihe auch mit Zufall und Persistenz beschreiben. Daraufhin bezog ich mich auf Zorita et al um zu zeigen, daß genau das statistisch nicht gerechtfertigt werden kann. Und um es nochmal zu sagen: Zorita et al. setzen eben nicht voraus, daß es eine anthropogene globale Erwärmung gibt. Das ist noch nicht mal Resultat ihrer Arbeit, sondern ausschließlich, daß es extrem unwahrscheinlich ist, die aktuelle Zeitreihe durch Persistenz und Zufall zu erklären. Die Abschätzung des Autoregressionsparameters ist im übrigen sehr konservativ, und absichtlich größer gewählt, als es allein durch die Daten vor 1960 erklärbar wäre. Außerdem verwenden die Autoren noch ein zweites Verfahren (siehe Paper), das weitaus weniger von den gewählten Parametern abhängt, und zum gleichen Ergebnis kommt. Das Verfahren zeigt seh eindeutig, daß die letzten Jahre ungewöhnlich waren und es daher in jedem Fall nicht zu rechtfertigen wäre, sie zu verwenden, um globale statistische Parameter abzuschötzen.

  218. #218 Gert
    Mai 19, 2009

    @Evil: Kaufen sich sich doch bitte ein Fremdwörterbuch und erarbeiten sich die semantische Differenz von Manipulation und Modifkation. So lange sie einfache Begriffe nicht verstehen, wird das auf andere wirken, als legten sie deren Aussagen vorsätzlich falsch aus.
    “Welche Ergebnisse wären das denn, die aus den 10 Jahre alten “Hinweisen” resultieren?” -> Keine Ahnung. Wieso verwenden sie den Konjunktiv? Glauben sie etwa, diese Datenerhebung (wieso sie von Grundlagenforschung sprechen ist mir schleierhaft) hätte nichts gebracht?

  219. #219 Gert
    Mai 19, 2009

    @Zimmermann: “Und um es nochmal zu sagen: Zorita et al. setzen eben nicht voraus, daß es eine anthropogene globale Erwärmung gibt. ” Sie können es so viel mal wiederholen wie sie wollen, im Paper steht ausdrücklich: “to limit the influence of the anthropogenic forcing.”
    “Die Abschätzung des Autoregressionsparameters ist im übrigen sehr konservativ” Ist mir bewusst.
    “und absichtlich größer gewählt,” Worin besteht die Absicht?
    “als es allein durch die Daten vor 1960 erklärbar wäre.” Wieso beschränkt man sich dann auf diese Daten, wenn sich die Wahl der Parametergrösse dann gar nicht auf diese Zurückschliessen lässt?

  220. #220 Georg Hoffmann
    Mai 19, 2009

    @Gert
    Ich sagte, glaube ich, schon, dass so wie Zorita die zu testende Hypothese konstruiert hat, es korrekt gemacht wurde. Aber ich nehme an, Sie sind nicht Willens oder in der Lage, das Ganze mal so wie Sie meinen es sei richtig durchzurechnen, undzwar mit den letzten x Jahren inklusive zur Berechnung der Autokorrelation. Moechten Sie, das ich das mal fuer Sie machen?

  221. #221 Gert
    Mai 19, 2009

    @Georg: “Ich sagte, glaube ich, schon, dass so wie Zorita die zu testende Hypothese konstruiert hat, es korrekt gemacht wurde.” Ich hoffe, dass es klar ist, dass ich da gleicher Meinung bin.”
    “Aber ich nehme an, Sie sind nicht Willens oder in der Lage,” Willens schon. Aber nicht in der Lage.
    “Moechten Sie, das ich das mal fuer Sie machen?” Das würde mich sehr freuen!

  222. #222 Wolfgang Flamme
    Mai 19, 2009

    Gert,

    zweierlei…

    Zuerst zum Contest: Die Teilnehmer bekamen eine repräsentative Stichprobe der Stammdaten geliefert, einschließlich der Zielvariable ‘hat Caravan-Police’.
    Darüber hinaus bekamen sie die übrigen VN-Stammdaten bereitgestellt, allerdings ohne diese Zielvariable.
    Die Aufgabe bestand darin, anhand der qualifizierten Stichprobe ein Modell zu entwickeln, mit dem sich die Caravan-Policen-Besitzer in den restlichen Stammdaten möglichst treffend vorhersagen lassen.

    Und das typische Modellproblem war eben, daß man damit in der Stichprobe, im Trainingsdatensatz, die Caravan-Policenbesitzer sehr gut vorhersagen konnte … nur in den restlichen Stammdaten eben nicht. Die Modelle erkannten in der Stichprobe also Muster, Abhängigkeiten und Erklärungen, die in Wirklichkeit gar nicht existierten, sondern eben auf die bereits bekannten Beobachtungen maßgeschneidert waren.

    Dann noch zu Zorita/von Storch:
    Der fundamentale Lapsus in dieser Arbeit ist einfach, daß die Hypothese nach einer bereits getätigten Beobachtung an der Zeitreihe entwickelt wird. Hier scheint niemand zu begreifen, was das statistisch bedeutet, auch wenn es klipp und klar in Grundlagenwerken gesagt wird.
    Ein einfaches Beispiel: Wir werfen zehnmal einen Würfel und erhalten die Abfolge 6-6-6-6-6-6-6-6-6-6. Unser Interesse ist geweckt, wir wollen wissen, wie wahrscheinlich das ist und erhalten eine verschwindend geringe Wahrscheinlichkeit. Unsere Schlußfolgerung: Mit einem fairen Würfel ist dieses Ergebnis nicht zu erwarten.

    Tatsächlich ist diese Abfolge aber nicht unwahrscheinlicher als zB 3-3-2-3-2-2-6-3-4-4 oder 4-5-5-5-4-1-5-6-3-4. Jede Zahlenfolge beim Würfelwurf ist gleichermaßen unwahrscheinlich. Wenn wir also erst im Anschluß einer Wurfreihe danach fragen, wie wahrscheinlich es war, gerade diese Folge zu würfeln, kommen wir immer zum Ergebnis, der Würfel sei nicht fair.

    Um zu testen, ob der Würfel fair ist, muß man die Fairness-Hypothesen also unbedingt vor der Beobachtung einer konkreten Abfolge festlegen, sonst kommt man zwangsläufig zu dem Schluß, diese besondere Beobachtung (egal, worin ihre Besonderheit nun genau liegen möge) sei durch Zufall kaum zu erklären. Das ist doch sowas von sonnenklar und trotzdem scheint es hier keiner zu begreifen…

  223. #223 Gert
    Mai 19, 2009

    @Flamme:
    “Dann noch zu Zorita/von Storch:” “daß die Hypothese” -> welche Hypothese meinst du jetzt? Im Paper selbst wird ja keine Hypothese entwickelt. Es wird die Wahrscheinlichkeit eines Events berechnet. Dass jeder Microstate gleich wahrscheinlich ist, ist mir klar. Bzgl Fairness kann ich dir nicht ganz zustimmen. Du hast natürlich recht, wenn du sagst, die Berechnung wurde erst im Nachhinein angestellt. Andererseits ist die Hypothese der menschgemachten Erwärmung schon einige Jahrzehnte alt. Insofern ist die Hypothese doch vor der Beobachtung der konkreten Abfolge erfolgt, oder was würdest du dagegen Einwenden?
    Du könntest natürlich einwenden, dass Anfangs der 70er die Hypothese der Erdabkühlung unter Klimatologen verbreiteter war als die der Erwärmung.

  224. #224 Georg Hoffmann
    Mai 19, 2009

    @Gert
    Das ist Statistik-Talk. Eine statistische Hypothese wird darauf getestet wie wahrscheinlich es ist, dass sie falsch ist. Ja so sind sie die Statistiker. Bei Storch/Zorita ist also die Hypothese, dass die Anhaeufung warmer Jahre ein Produkt einer natuerlichen Klimadrift ist. Die (Null)Hypothese wird dann falsifiziert mit einer Wahrscheinlichkeit, die im Paper aj angegeben ist. Mit Hypothesen im normalen Sinne hat das also nicht viel zu tun.
    https://de.wikipedia.org/wiki/Hypothese_(Statistik)

  225. #225 Evil Dude
    Mai 19, 2009

    @Gert
    Sie versuchen anscheinend, sich auf “hohem Niveau” lächerlich zu machen. Aber vielleicht haben Sie ja ein Wörterbuch, in dem eine “Modifikation” die nur mit einer bestimmten Absicht gemacht wird, keine Manipulation ist. Welches “Fremdwörterbuch” wäre das denn, in dem sowas drinsteht.
    Interessanterweise versuchen Sie auch, das Thema mit jedem Post zu wechseln. Warum nur?
    Auch bei Ihnen ist die Frage doch einfach, vor der Sie sich seit Stunden drücken!

    Sie behaupten:

    Die Klimamodelle werden doch, so weit ich das verfolgt habe, wenn sie nicht mit den Messdaten übereinstimmen, modifiziert, also in Übereinstimmung gebracht.

    Darauf beharren Sie schon seit geraumer Zeitund drücken Sich schon genauso lange davor, ein Beispiel zu nennen, woran Sie diese Behauptung festmachen.

    Weiter fragen Sie (ich zitiere wörtlich)
    Wurden die Ergebnisse etwa wieder aus den Klimamodellen herausgenommen?,
    können aber nicht sagen, welche “Ergebnisse” Sie da meinen und wollen dann mir unterstellen, ich hätte dieses Thema aufgebracht.

    Ihr “Antwort” (ebenfalls wörtlich):

    Keine Ahnung. Wieso verwenden sie den Konjunktiv? Glauben sie etwa, diese Datenerhebung (wieso sie von Grundlagenforschung sprechen ist mir schleierhaft) hätte nichts gebracht?

    Da halte ich dann mal fest, dass Sie nach Ihren eigenen Worten “Keine Ahnung” haben. Das ist ja weiter kein Problem, es ist mir nur ein Rätsel, weshalb Sie dann auf Ihrem Standpunkt unbedingt beharren wollen? Ebenso ist mir ein Rätsel, was Sie an dem Begriff Grundlagenforschung stört. In dem von Ihnen geposteten Link lese ich z. B. folgendes:

    Die gegenwärtigen Klimamodelle sagen im globalen Mittel eine Erwärmung der unteren Atmosphäre vorher, die durch anthropogene Aktivitäten, insbesondere die Anreicherung von Treibhausgasen in der Atmosphäre, verursacht sein soll. Die Wolken können diesem Trend entgegenwirken und sind daher von entscheidender Bedeutung für das Verständnis der Simulation zukünftiger Klimaszenarien. Für die Region der Arktis sind diese aber in den Klimamodellen noch nicht genau dargestellt. Die Arktis ist ein wichtiger Baustein im Klimageschehen, weil dort ein immenser Energieaustausch zwischen Atmosphäre und Ozean stattfindet. So ist die Eisrandzone von großer Bedeutung, da dort die Wassermassen des Golfstroms, der bekanntlich für die relativ hohen Temperaturen in Europa sorgt, absinken. Kommt es zu Veränderungen dieser ozeanischen Zirkulation, können Änderungen des regionalen Klimas die Folge sein.
    Das Projekt ARTIST will nun zunächst durch eine großangelegte Feldkampagne mit zwei mit speziellen Forschungsgeräten ausgerüsteten Flugzeugen diesmal im arktischen Winter einen umfassenden Datensatz erheben, in der Daten über den Zustand der Atmosphäre, über die Bewölkung, die Aerosolbelastung sowie die Eisbedeckung gesammelt werden. In den vergangenen Jahren wurden bereits Erhebungen im Sommer durchgeführt. Basierend auf diesen umfangreichen Datensätzen und detaillierten Simulationsrechnungen werden anschließend neue Parameteransätze für die Wirkung von Wolken entwickelt, wozu man sich der Hilfe verbesserter zwei- und dreidimensionaler Regionalmodelle der Atmosphäre bedient. Diese Parametrisierungen werden dann auch zur Entwicklung der nächsten Generation von Wetter- und Klimamodellen beitragen.

    oder

    Eine grosse Einschränkung bei der Anwendung genereller Zirkulationsmodelle (GCM) ist die rudimentäre Verknüpfung von atmosphärischen Prozessen mit den Eigenschaften der Bodenoberfläche. Insbesondere die Verknüpfung der Biosphäre (Wälder) mit der Atmosphäre. Es ist bekannt, dass die Kupplung dieser Prozesse von grosser Bedeutung ist (z.B. Albedo). Entsprechend gross ist daher das Interesse die Qualität der Biosphäreninformation für GCM’s zu verbessern. Wichtige Daten werden auf den LWF-Flächen erhoben und sollen in die Klimamodelle einbezogen werden.
    Ziel des Projektes ist eine bessere Abbildung der Vegetation in Klimamodellen um zukünftige Trends der Niederschlags – und Klimaentwicklung besser simulieren zu können. Jahreszeitliche Niederschlagstrends hängen stark von der Vegetation ab. Mit der vorgeschlagenen Verbesserung der Modelle können diese Aspekte in die Klimamodellierung miteinbezogen werden. Ein wichtiges Ziel beim Projekt ist die Parameterisierung der Albedo vegetations (schnee-) bedeckter Oberflächen. Eine Datenquelle für Vegeationsdaten sind die LWF-Flächen. Ein weiteres Ziel ist die richtige Auswahl bedeutender Variablen.

    Wofür halten Sie das denn, wenn nicht für Grundlagenforschung?

  226. #226 Wolfgang Flamme
    Mai 20, 2009

    Gert,

    Im Paper selbst wird ja keine Hypothese entwickelt. Es wird die Wahrscheinlichkeit eines Events berechnet.

    Nun, genau das macht man beim Hypothesentest ja. Der p-Wert bezeichnet die Wahrscheinlichkeit, die beobachtete oder eine extremere Abweichung allein aufgrund des Zufalls zu erhalten, wenn die Nullhypothese wahr wäre. Ist der p-Wert kleiner als das gewählte Signifikanzniveau, dann verwirft man die Nullhypothese zugunsten der Alternativhypothese.

    Die Arbeit beschreibt im wichtigen Teil also umgangssprachlich folgende Hypothesen:
    H0: Die beobachtete Häufung von Extremwerten gegen Ende der Zeitreihe läßt sich allein durch das gewählte AR1-Autokorrelationsmodell hinreichend erklären.
    Ha: nicht-H0

    Ach ja, damit man darüber nicht streiten muß, habe ich jetzt nochmal in der Arbeit nachgesehen: “Under two statistical null-hypotheses, autoregressive and long-memory, (…)” Meine Auslegung stimmt also.

    Andererseits ist die Hypothese der menschgemachten Erwärmung schon einige Jahrzehnte alt. Insofern ist die Hypothese doch vor der Beobachtung der konkreten Abfolge erfolgt, oder was würdest du dagegen Einwenden?
    Du könntest natürlich einwenden, dass Anfangs der 70er die Hypothese der Erdabkühlung unter Klimatologen verbreiteter war als die der Erwärmung.

    Das Letzte zuerst: Ja, ich erinnere mich (neben ziemlich frostigen Wintern) an einen ziemlichen Medienhype Ende der 70er, Warnung vor Mißernten, Energiekrise etcpp in diversen Zeitungsartikeln. Aber mal ehrlich, hatten breite Teile der Bevölkerung in Vor-Internet-Zeiten Zugriff auf entsprechende Fachliteratur und Magazine? Bei meinem Vater, der naturwissenschaftlich sehr interessiert war, stand Imbrie/Palmer im Bücherregal, das war zu den damaligen Zeiten aktuell und ‘in’, ist aber populärwissenschaftlich. Und heute, was ist von dem Kram der 70er digitalisiert, indiziert und dem breiten Publikum zugänglich? Ich glaube nicht, daß man sich ohne weiteres heute ein Bild davon machen kann, welche Einstellung Fachleute damals teilen, wenn es überhaupt was konsens-ähnliches gab. Kolportiert wurde damals jedenfalls die Gefahr weitere Abkühlung, drohender Eiszeit usw, woran ich mich noch persönlich erinnern kann. Wenn es da irgendwas von drohender Erwärmung gab, dann ist das dabei wohl vollständig überdeckt worden.
    Also ich maße mir da kein Urteil an, weil ich wohl Monate in irgendwelchen Archiven Papier wälzen müßte, um mir eine fundierte Meinung zu bilden.

    Nein, ich entgegne da was anderes:

    Eleven of the last twelve years (1995–2006) rank among
    the 12 warmest years in the instrumental record of
    global surface temperature (since 1850).

    IPCC AR4-WG1, SPM

    Ich glaube das mal ungeprüft und stelle fest, daß derselbe Test, hätte man ihn so 1995 oder wenig später durchgeführt, wohl das gegenteilige Ergebnis erbracht hätte – weil diese Rekordmarken eben (noch) nicht gerissen wurden. Man müßte also zu dem Schluß kommen, daß bis etwa 1995 der Verlauf noch ‘natürlich’ (im Rahmen des verwendeten Modells, selbstverständlich) erklärbar war. Woraus man wederum schließen muß, daß das Modell eigentlich keinen passablen AGW-Indikator darstellt, wenn es da immer noch nicht anspringt und behauptet, es ginge noch alles mit natürlichen Dingen zu.

    Und nur einige wenige Jahre später haben wir nach derselben Methode dann plötzlich AGW wie die Hölle nachgewiesen, obwohl sich die Forcings in den wenigen Jahren unmöglich so stark haben verschieben können. Auch hier muß man spontan vermuten, daß die Methode eigentlich nicht wirklich AGW-empfindlich, sondern einfach nur extremwertempfindlich ist. Klar, das eine impliziert das andere, aber den feinen Unterschied, was davon noch natürlich erklärbar ist, bestimmt alleine das Modell. Ist es wirklich realitätsnah?

    Neben der grundsätzlichen Problematik der nachfolgenden Deutung, die in jedem Fall in der Arbeit hätte angesprochen werden müssen, fehlt eben die Diskussion darüber, ob die Kombination aus Modell und Extremwertauswertung tatsächlich robust ist. Bei einem Indikatorsystem, das erstmal satte 25 Jahre AGW-Signal glatt verpennt um dann schlagartig hysterisch zu werden muß man doch stark bezweifeln, daß der eigentlich fließende Übergang zwischen natürlichem und zusätzlichem anthropogenen Einfluß korrekt als Indikator abgebildet wird, oder?

    In dieselbe Richtung gehen auch noch die Einwände, die ich früher schonmal geäußert hatte; zB ENSO (+PDO) existieren nunmal in der Realität, aber ein AR1-Prozeß kann sowas nicht abbilden – das Modell ist da also schonmal zu gutmütig.

    Ach ja, noch ein neues Problem: Wir beobachten gerade, wie bei einem positiven Verlauf positive Temperaturrekorde gerissen werden. Wenn wir wissen wollen, wie häufig ein solcher Fall bei unserem Modell auftritt, sollten wir dann nicht auch nur solche Modelläufe auswerten, die gegen Ende ebenfalls einen solchen positiven Verlauf nehmen? Bin mir da nicht ganz sicher, aber völlig verdammen läßt sich diese Sicht auf die Dinge auch nicht.

  227. #227 Jörg Zimmermann
    Mai 20, 2009

    1995 wären die 12 wärmsten Jahre seit 1850 gewesen (HadCRUT3, beginnend mit dem wärmsten Jahr, absteigend):

    1995, 1990, 1991, 1983, 1987, 1994, 1988, 1981, 1993, 1980, 1989, 1941
    (8 der letzten 12 Jahre zählen zu den 12 wärmsten Jahren seit Beginn der Aufzeichnungen)

    Ich denke, auch 1995 hätte man das schon auffällig gefunden, aber natürlich noch nicht auf dem heutigen Signifikanzniveau.

    Und richtig: 1985 waren wir schon mitten in der anthropogenen globalen Erwärmung, aber es war statistisch noch nicht signifikant. Man wußte schon, was zu erwarten war, aber hatte statistisch noch nicht die Möglichkeit, es in den Temperaturdaten zu sehen.

    1985 sah die obige Reihe so aus:
    1983, 1981, 1980, 1941, 1973, 1977, 1979, 1878, 1877, 1940, 1982, 1939
    (6 der letzten 12 Jahre zählen zu den 12 wärmsten Jahren seit Beginn der Aufzeichnungen)

    Trotzdem wurde schon 1979 in zwei Berichten in den USA vor der anthropogenen globalen Erwärmung gewarnt mit ziemlich realistischen Werten für Temperaturanstieg und Treibhausgaskonzentrationen bis ca. 2050 und mit einer Klimasensitivität ziemlich mittig in dem Bereich, der heute für wahrscheinlich gehalten wird (siehe JASON-Report und Charney-Report). Die Physik war auch da schon klar, nur die Rückkopplungen waren noch nur grob bekannt. Man hatte die globale Erwärmung vorhergesagt, als noch keine Temperaturdaten es bestätigten. 1988 war es noch eine umstrittene Hypothese, daß man die anthropogene Signatur in den Temperaturdaten gefunden habe. Mitte der 90er war es weitgehend anerkannt. Und an den obigen Reihen erkennt man wohl gut, warum.

  228. #228 Eddy
    Mai 20, 2009

    @Wolfgang Flamme

    Was will man denn mit der Häufung von warmen Jahren beweisen? Dass es wärmer wird? Wie ich schon schrieb, könnte es durchaus die nächsten 100 Jahre ungefähr so warm sein wie 2001 und damit wäre die Co2-Korrelation komplett gebrochen.

    Oder gibt es ein Problem damit, dass alle Jahre ähnlich warm sind? Dass gleich warme Jahre gehäuft auftreten?

    Ich kann nicht einmal verstehen, was man damit überhaupt beweisen will. In einer Warmzeit ist es warm und die warmen Jahre treten gehäuft auf. Über die Ursache dieser Erwärmung ist damit nichts gesagt worden.

    Ich sehe es ja auch als wahrscheinlich an dass das Co2 damit zu tun hat. Dass es deswegen aber mit 99% Wahrscheinlichkeit im Jahr 2100 3 Grad wärmer ist als 1990 halte ich für einen Fehlschluss.

    Allein dass einige Modelle eine 50-jährige Abkühlung berechnen um am Ende dann trotzdem diesen Anstieg von 3° zu erreichen, widerlegt jegliche Sicherheit zu der Signifikanz der Häufung der wärmsten Jahre.

    Oder anders herum gefragt. Wie sähe eine natürliche Warmperiode aus?

    Die andere Frage die sich stellt ist die, wie die mittelalterliche, bzw. die römische Warmperiode aussahen, und vor allem weshalb.

    Tjah und last but not least, die Frage die auch Sven Titz im Spektrum stellt: ***Es mag wohl sein, dass der jüngste Temperaturrückgang nur eine natürliche Fluktuation widerspiegelt. Aber dann erhebt sich eine andere Frage: Können sich die Klimaforscher wirklich sicher sein, dass analoge Schwankungen bei der Erwärmung seit Mitte des 20. Jahrhunderts kaum eine Rolle gespielt haben, wie dies im letzten IPCC-Bericht zu lesen war?***

    Was mich bei dieser Diskussion ein “wenig” ärgert, ist die Art wie man versucht dem Laien etwas zu verkaufen. Zuerst dieser Signifikanztrick, an den sicher viele Klimatologen noch selbst glaub(t)en. Aber jetzt das Abwiegeln anhand von Klimamodellen, die eine 50jährige Abkühlung zeigen und der Redefinition von 10Jahrestrends zu globalem Wetter. Das ist haarscharf am Rand des Hokuspokus und der Homöopathie.

  229. #229 Wolfgang Flamme
    Mai 20, 2009

    @Eddy,
    die grundlegende Idee der Arbeit ist einleuchtend: Man erstellt ein Modell mit ‘natürlichem Zufallsklima’ und guckt, ob in Zeitreihen vergleichbarer Länge ähnliche Rekordserien gegen Ende der Zeitreihe auftreten.

    @Jörg Zimmermann,
    mit Ihrer Argumentation gibt’s nur ein Problem, wie ein Schnelltest nahelegt: Um 1940 herum hätte das Verfahren nämlich ebenfalls AGW-Alarm ausgelöst, denn aus Sicht dieser gemachten Beobachtung von 1945 wären die letzten 9 wärmsten Jahre auf die letzten 9 Jahre gefallen! Wolf! Wolf! Unübersehbar starkes AGW-Signal in den 40ern entdeckt, zu einem Zeitpunkt, als das AGW-Signal sich doch noch gar nicht übers Rauschen erhoben hat.

    Damit wird genau das unterstrichen, was ich bereits gesagt habe: Das Verfahren ist extremwertempfindlich, aber nicht AGW-empfindlich. Oder vereinfacht gesagt, es ist Müll. Und das hätte man sehr wohl herausfinden müssen, wenn man beherzigt hätte, was Grundlagenwerke zur Hypothesenbildung nach erfolgter Beobachtung sagen:

    Bei der Beurteilung von p-Werten ist zu unterscheiden, ob die Hypothesen vor der Datengewinnung formuliert wurden oder erst danach; in diesem Fall ist ihre Aussage sehr begrenzt. Sachs/Hedderich, Angewandte Statistik, Kap. 7 ‘Hypothesentests’

    Wann, wann wird denn endlich von Euch akzeptiert, daß die umgekehrte Reihenfolge ein schwerer methodischer Fehler ist, der die Aussagekraft jeder Statistik versaut? Wann?

  230. #230 Wolfgang Flamme
    Mai 20, 2009

    PS: Und jetzt kann ich doch wirklich von Glück sagen, daß es da in den 40ern diese zufällige Fluktuation gab, anhand der ich nachweisen kann, daß die Methode keinen Schuß Pulver wert ist. Ihr hätten doch sonst bis ans Lebensende geglaubt und verteidigt, daß das eine waaaahnsinnig robuste Methode ist, zweifelsfrei einen modernen AGW-Fingerabdruck nachzuweisen – und jeden, der anderer Meinung wäre, einen sturen Narren und Leugner geschimpft, richtig?

  231. #231 Eddy
    Mai 20, 2009

    @Wolfgang Flamme

    Ja, die grundlegende Idee ist einfach zu verstehen. Sie erklären aber im nächsten Abschnitt, wieso diese Idee “abwegig” ist. Das muss doch eigentlich jedem einleuchten?!

    Genauso unverständlich war diese Idee mit dem Hitzeinhalt der Meere. Herr Rahmstorf sagt heute selbst dass er abnehmen kann trotz globaler Erwärmung. Vor wenigen Jahren war der Anstieg dieses Hitzeinhalts noch der ultimative Beweis für den Einfluss des Menschen.

    Ist es wirklich so schwer einen Fehler zuzugeben?

  232. #232 JörgR
    Mai 20, 2009

    Äh, Eddy?? Der Mann sagt heute etwas anderes als vor Jahren, also hat er einen Fehler eingesehen (abgesehen vom Inhalt, der interessiert mich nicht). Was soll ermachen, auf dem Bauch nach Luxemburg gekrochen kommen?
    Welches bessere Beispiel kann man finden, als Wissenschaftler, die ihre Meinung ändern. Aber das ist für Eddy zu komplex zu kapieren, er lebt lieber in seinem Eddyversum, wo man seine Meinung nicht ändern muss weil man eh recht hat, und alles andere sind Nazis, Stalinisten und A……….er, und alles was sie sagen und tun beweist das genaue Gegenteil.

  233. #233 Georg Hoffmann
    Mai 20, 2009

    @Flamme

    Wann, wann wird denn endlich von Euch akzeptiert, daß die umgekehrte Reihenfolge ein schwerer methodischer Fehler ist, der die Aussagekraft jeder Statistik versaut? Wann?

    Das ist sowas wie ein flamme(hoehoe) Aufruf ueberhaupt keine Statistik in der Physik oder in der Klimaforschung ueberhaupt zu benutzen. Mit HvS ist einer der Co-Autoren nicht nur ausgebildeter Statistiker mit einer langen List von Veroeffentlichungen zu Themen der angewandten Statistik sondern auch der Autor DES Klima-Statistik Buchs der 90er:
    (Hier eine Kritik von Manfred Mudelsee:https://coast.gkss.de/staff/storch/books/sz.mudelsee.pdf)
    Er wird sicher nur auf diese alles vom Tisch wischenden Eroeffnungen gewartet haben.
    1) Sie haben gar nichts gezeigt, keine Rechnung nichts. Wahrscheinlich verwechseln Sie seitenweises Labern mit Rechnen. Sorry.
    2) Die Frage des Zorita/Storch Papers ist ausschliesslich, ob die letzten Jahre ein Resultat des natuerlichen weitgehend ungeforcten statistischen Verhaltens, so wie es abgeleitet werden kann von der Gesamtheit der verfuegbaren Temperaturen, sein kann. Es macht keine Aussagen ueber laengere Zeitskalen oder ueber die Details des anthropogenen Forcings (Aerosoles vs GHG Gase).
    Das einzige was sie sagen, ist das die Anhaeufung warmer Jahre nicht zufaellig (unter Beruecksichtung der Autokorrelation etc ) sein kann.

  234. #234 Jörg Zimmermann
    Mai 20, 2009

    @Flamme
    Sie unterliegen einem Denkfehler: die Statistik der Temperaturzeitreihen zeigt uns nur, ob ein signifikanter Trend vorliegt oder nicht. Sie zeigt uns isoliert betrachtet noch nicht, was die Ursachen sind. Da kommen dann andere Dinge zum Tragen. Gibt es eine Theorie? Was stützt diese Theorie? 1941 gab es keinen besonderen Grund dafür anzunehmen, daß die globale Erwärmung bis dahin von Treibhausgasen dominiert wurde – das zeigen Abschätzungen der verschiedenen Klimaantriebsgrößen für diese Zeit. Heute ist das ganz anders. Es ist nicht die Tatsache, daß es eine globale Erwärmung gibt, oder ihre Größe, die uns dazu zwingt, von einer anthropogenen globalen Erwärmung auszugehen. Sondern weil wir wissen, daß wir einen Klimaantrieb für eine Erwärmung verursachen, haben wir eine Theorie, um die beobachtete Temperaturzeitreihe zu erklären. Weil Sie es nicht schaffen, hier die richtige Reihenfolge einzuhalten, kommen Sie permanent zu Fehlinterpretationen, nicht nru der Daten, sondern auch, was hier von verschiedener Seite versucht wird, Ihnen zu erklären. Im übrigen bedeutet eine Reihung besonders warmer Jahre bis 1941 noch nicht, daß die damalige Temperaturzeitreihe statistisch mit einem Modell von Persistenz und Zufall nicht zu erklären war. Diese Rechnung müßte man erst mal für diese Daten durchführen. Insofern haben Sie eine uninformierte Behauptung aufgestellt. Selbst wenn man feststellen sollte, daß die damalige Zeitreihe nicht durch natürliche Varianz erklärt werden kann, ist damit noch nichts darüber gesagt, daß eine Theorie gebildet werden kann, daß der Temperaturanstieg bis 1941 durchaus Teil eines Trendes war, der halt nur nicht vom Menschen ausgelöst wurde, sondern vielleicht Folge einer relativen Ruhe tropischer Vulkane und möglicherweise eines leichten Anstiegs der Sonnenaktivität war. Anhaltspunkte dafür finden Sie im IPCC-Bericht, aber da ich mich damit nicht näher befaßt habe, möchte ich dazu auch nicht mehr schreiben. Beide Ursachen wurden für die aktuelle Erwärmung tendenziell ausgeschlossen, während der Anstieg der Treibhausgaskonzentrationen die laufende globale Erwärmung gut erklärt.

    Zusammenfassung: wir haben eine Theorie und im Laufe der Zeit haben wir Beobachtungen erhalten, die der Theorie nicht widersprechen. Wir haben hingegen nie auf Grundlage der beobachteten Temperaturzeitreihe die Theorie über eine anthropogene globale Erwärmung aufgrund von Treibhausgasen formuliert.

  235. #235 Eddy
    Mai 20, 2009

    @JörgR

    Nein, ganz im Gegenteil. Würde derjenige sagen “Wir haben uns geirrt” und nicht einfach jetzt die alten “Tatsachen” durch neue ersetzen, um damit wieder dieselben Leute auf dieselbe Art und Weise zu “widerlegen”, würde ich diese Tat sehr hoch einschätzen.

    Das Problem ist, dass sich in der Klimawissenschaft, oder besser gesagt in IPCC-Realclimate-kreisen sich nie irgendjemand irgendwann einmal geirrt hat.

    Allein ihre Ausdrucks und Schreibweise ist mal wieder ein typisches Beispiel für genau dieselbe Vorgehensweise.

    Aber wehe als ich vor 4 Jahren die Hitzeinhaltstheorie der Meere oder noch dieses Jahr die Signifikanztheorie der wärmsten Jahre kritisierte. Damals regnete es nur so Beleidigungen etc… unter anderem auch von ihnen persönlich.

    Das ist das einzige Problem für mich. Jeder irrt und jeder macht Fehler und jede neue Theorie muss sich erst beweisen. Damit hatte ich noch nie ein Problem!

  236. #236 Eddy
    Mai 20, 2009

    @Jörg Zimmermann

    So wie Sie das schreiben klingt das ja sehr versöhnlich. Da wäre ich ja fast zu 100% mit ihnen einverstanden.

    Schönen Feiertag und bis denne

    LG

    Eddy

  237. #237 Wolfgang Flamme
    Mai 20, 2009

    Georg,

    wenn Dir das Strammstehen und -sehen so im Blut liegt, warum hörst Du dann nicht auf Den Sachs? Dessen Veröffentlichungsgeschichte reicht immerhin bis 1968 zurück, ein ganzes Jahrzehnt länger als die von Storchs.

    Und was soll ich noch groß rechnen? In der Arbeit wird behauptet, man habe eine robuste Methode entwickelt, um die Wahrscheinlichkeit, daß eine gerade beobachtete Rekordserie rein natürlichen (Modell-)Ursprungs sei, zu bestimmen. Wenn diese Wahrscheinlichkeit klein sei, dann seien für die Rekordserie sehr wahrscheinlich nicht-natürliche Einflüsse mitverantwortlich:

    The increasing anthropogenic greenhouse forcing would, according to simple physical reasoning (Arrhenius,1895), cause a clustering of record warm years at the end of the observed record, and in fact, the 13 warmest years in 1880-2006 have all occurred in or after 1990. (…) The probability of this clustering occurring by chance at the end of the record can be estimated under different null hypotheses of the statistical characteristics of natural variability.

    Nachdem Du mir ja bereits bestätigt hast, man habe auch vor 1970 gute Temperaturdaten gehabt, habe ich auf die Schnelle folgendes Ranking aus GISS/CRU bis einschließlich 1945 ermittelt:

    Jahr Rang
    1937 6
    1938 4
    1939 9
    1940 3
    1941 2
    1942 5
    1943 7
    1944 1
    1945 8

    Also 9 Rekordjahre innerhalb von 9 Jahren, wenn man die Betrachtung 1945/46 durchgeführt hätte.

    In der Arbeit heißt es zwar:

    Temperature records in the decade 1940-1950 have been found to be distorted by changing in the measuring devices of sea-surface temperatures [Thompson et al., 2008]

    … dort lesen wir aber:

    We argue that the abrupt temperature drop of 0.3 C in 1945 is the apparent result of uncorrected instrumental biases in the sea surface temperature record.
    https://www.atmos.colostate.edu/ao/ThompsonPapers/Thompson_etal_Nature2008.pdf

    … also war das Jahr 1945 (und spätere?) womöglich noch ein bischen wärmer. Soll mir auch recht sein, das verlängert die Rekordserie höchstens noch.

    Also Georg, wie wahrscheinlich und ‘natürlich’ (im Modellsinn) schätzt Du denn eine solche nahezu perfekte Rekordserie ein?
    Also nicht 13 Rekorde in den letzten 17 Jahren bei Zeitreihen von 127 Jahren Dauer (1880-2007) sondern 8…9 Rekorde in den letzten 9 Jahren bei Zeitreihen von 65 Jahren Dauer (1880-1945/46)?

  238. #238 Wolfgang Flamme
    Mai 20, 2009

    Herr Zimmermann,

    Sie unterliegen einem Denkfehler: die Statistik der Temperaturzeitreihen zeigt uns nur, ob ein signifikanter Trend vorliegt oder nicht. Sie zeigt uns isoliert betrachtet noch nicht, was die Ursachen sind. Da kommen dann andere Dinge zum Tragen. Gibt es eine Theorie? Was stützt diese Theorie? (…)

    Aaaah, ich glaube, ich habe verstanden. Wenn wir Beobachtungen machen, dann müssen wir die Ursachen immer so verorten, daß sie die bestehenden Theorien möglichst wenig beschädigen. So brauchen wir weder die Beobachtungen noch die Theorien zu revidieren, sondern nur die Erklärungen. Na, wenn das keine kreative Lösung ist!

    Also dann schlage ich vor, die Rekordabfolge in den 40ern muß natürlich gewesen sein, weil wir dafür keine Erklärung haben. Und die in den 90ern war anthropogen verursacht, weil wir das so erwarten. Und Zorita/von Storch erschien diese Prämisse viel zu selbstverständlich, um sie zu erwähnen. Jetzt bin ich endlich voll auf Ihrer Linie, glaube ich.

  239. #239 Ebel
    Mai 21, 2009

    @Wolfgang Flamme· 20.05.09 · 23:13 Uhr

    Wenn wir Beobachtungen machen, dann müssen wir die Ursachen immer so verorten, daß sie die bestehenden Theorien möglichst wenig beschädigen. So brauchen wir weder die Beobachtungen noch die Theorien zu revidieren, sondern nur die Erklärungen.

    Es ist schon etwas anders. Die Populationsdichte der Störche korreliert positiv mit der Zahl der Babys. Schließen Sie daraus, daß die Störche die Babys bringen? Sicher nicht. Und trotzdem hat diese Korrelation eine Ursache: In Gegenden, wo sich die Störche wohl fühlen, ist meistens die Umgebung intakt und dort fühlen sich auch die Menschen wohl.

    Andere Korrelationen: Arbeitszeit und Arbeitslosenquote. Kurzfristig sind Arbeitszeit und Arbeitslosenquote negativ korreliert, langfristig positiv. Was ist der Grund? Kurzfristig folgen beide der Konjunktur – in Boomzeiten steigen Arbeitszeit und sinkt die Arbeitslosenquote, in der Flaute ist es umgekehrt. Langfristig wirkt sich die Steigerung der Produktivität aus – um die verkaufbare Menge zu produzieren, wird immer weniger Arbeitszeit gebraucht. Die Politik reagiert darauf falsch: Es werden keine Maßnahmen getroffen, um die Arbeitszeit der Beschäftigten zu reduzieren. Die Folge: die gebrauchte Arbeitszeit verteilt sich auf immer weniger Beschäftigte, was sich noch dadurch verschärft wird, daß Arbeitslose und Rentner immer weniger kaufen können.

    Also: Eine Statistik ohne zu Grunde liegende Theorie nützt nichts (z.B. “Okunsches Gesetz”) und eine Statistik mit richtig zu Grunde liegender Theorie nützt ebenfalls nichts, wenn nicht daraus die richtigen Schlußfolgerungen gezogen werden.

    MfG

  240. #240 Jörg Zimmermann
    Mai 21, 2009

    “Aaaah, ich glaube, ich habe verstanden. Wenn wir Beobachtungen machen, dann müssen wir die Ursachen immer so verorten, daß sie die bestehenden Theorien möglichst wenig beschädigen. So brauchen wir weder die Beobachtungen noch die Theorien zu revidieren, sondern nur die Erklärungen.”
    Ich habe nichts davon geschrieben. Könnten Sie es bitte unterlassen, unverschämt zu werden? Wenn Sie andere Ansichten nicht interessieren, dann schreiben Sie es doch bitte offen, dann spare ich mir die Mühe noch irgend etwas zu Ihren Beiträgen zu schreiben! Aber unterlassen Sie es, mir noch einmal etwas unterzuschieben, was ich keineswegs geschrieben hatte!

  241. #241 Krishna Gans
    Mai 21, 2009

    @Wolfgang Flamme
    Ein Beispiel für Datenselektion:
    Fonselius, 1956 wo schön gezeigt wird, wie Callendar einen angepaßten Durchschnitt produziert.

  242. #242 Krishna Gans
    Mai 21, 2009

    @Wolfgang Flamme
    Ein Beispiel für Datenselektion:
    Fonselius, 1956 wo schön gezeigt wird, wie Callendar einen angepaßten Durchschnitt produziert.

    Callendar (1938) revived the hypothesis of “Greenhouse Warming” due to Man’s activity, proposed by Arrhenius (1896). Callendar may truly be regarded as the father of the current dogma on man-induced global warming (Jaworowski et al., 1992 b). In order to support his hypothesis, Callendar (1940, 1958) selected atmospheric CO2 data from the 19th and 20th centuries. Fonselius et al. (1956) showed that the raw data ranged randomly between about 250 and 550 ppmv (parts per million by volume) during this time period, but by selecting the data carefully Callendar was able to present a steadily rising trend from about 290 ppmv for the period 1866 – 1900, to 325 ppmv in 1956.

    Callendar was strongly criticized by Slocum (1955), who pointed out a strong bias in Callendar’s data selection method. Slocum pointed out that it was statistically impossible to find a trend in the raw data set, and that the total data set showed a constant average of about 335 ppmv over this period from the 19th to the 20th century. Bray (1959) also criticized the selection method of Callendar, who rejected values 10% or more different from the “general average”, and even more so when Callendar’s “general average” was neither defined nor given.

    Note that Callendar (1940) wrote: “There is, of course, no danger that the amount of CO2 in the air will become uncomfortably large because as soon as the excess pressure in the air becomes appreciable, say about 0.0003 atmos., the sea will be able to absorb this gas as fast as it is likely to be produced.”

    Tom V. Segalstad, Oslo, July 1997

  243. #243 Wolfgang Flamme
    Mai 21, 2009

    @Ebel

    Zeigt doch wieder mal nur, was alles plötzlich wie ein Nagel aussieht, wenn man einen Hammer in der Hand hält.

    Der Schwerpunkt der deutschen Weißstörchpopulation liegt in Brandenburg, das unter der Abwanderung junger Menschen und Familien leidet, insbesondere der Abwanderung aus ländlichen, dünnbesiedelten Regionen. Die Fertilitätsraten Brandenburgs sind allenfalls durchschnittlich.

    Litauen weist weltweit die höchste Populationsdichte von Weißstörchen auf – hat eine der geringsten Bevölkerungsdichten der EU, leidet immer noch unter Bevölkerungsabwanderung und erholt sich demografisch erst langsam von dem enormen Fertilitätseinbruch nach dem Zerfall der SU.
    Über 3/4 der Störche nisten dort auf Freileitungsmasten, keine ausgeprägt naturnahe Wohlfühlumgebung und zudem problematisch für Mensch und Tier. Alternative Nisthilfen werden allerdings nicht angenommen; Naturschützer kommen deshalb zu dem Schluß, daß die Tiere einfach auf die eingebaute Stromheizung stehen. Falls also überhaupt etwas besonders stark zum Vögeln animiert, dann ist es wahrscheinlich ein warmes Bett.

  244. #244 Ebel
    Mai 21, 2009

    @Wolfgang Flamme· 21.05.09 · 15:13 Uhr

    Die Fertilitätsraten Brandenburgs sind allenfalls durchschnittlich.

    Es gibt eben noch mehr Einflüsse auf die Fertilität als die Umgebung. Genau wie beim Klima. Weder nur die Sonne, noch nur die Treibhausgase bestimmen das Klima.

    MfG

  245. #245 Wolfgang Flamme
    Mai 21, 2009

    Herr Zimmermann,

    ich verstehe, warum Sie sich empören müssen.

    Aber es ist nunmal so, daß in der Arbeit ein theoretisches Framework erarbeitet worden ist, um die Signifikanz menschlichen Einflusses auf das Klima anhand der Häufung von Temperaturrekorden abzuschätzen. Dieses Framework ist zu den Rekordbeobachtungen seit den 90ern entwickelt worden und liefert dafür Ergebnisse, die mit anderen Modellvorstellungen im Einklang stehen.

    Leider hat man wohl vergessen, das Framework zu verifizieren, indem man es konsequent auf alle verfügbaren Rekordbeobachtungen anwendet. Daß es dabei den etablierten Erkenntnissen auch radikal widerspricht, wurde einfach übersehen.

    Warum machen Sie mit dieser offenbar fehlerhaften Theorie nicht einfach das, was Sie auch ansonsten mit allen fehlerhaften Theorien machen, die den etablierten AGW-Modellvorstellungen widersprechen … Sie nämlich auf den Müll zu werfen?

  246. #246 Krishna Gans
    Mai 21, 2009

    @GHoffmann
    Bitte mal im Ordner für Postings mit mehreren Links schauen, danke

  247. #247 Jörg Zimmermann
    Mai 21, 2009

    “Leider hat man wohl vergessen, das Framework zu verifizieren, indem man es konsequent auf alle verfügbaren Rekordbeobachtungen anwendet.” Sie stützen sich hier auf nichts als den Glauben, daß man für die Zeitreihe bis 1945 mit vergleichbarer Signifikanz die Hypothese abweisen könnte, daß diese Zeitreihe zufällig entstanden ist. Ich halte das für unglaubwürdig und ich denke, wenn Sie wirklich diesen methodischen Einwand machen möchten, müßten Sie zunächst mal dieses nachrechnen. Davon aber abgesehen würde es, selbst wenn man mit hoher Signifikanz feststellen könnte, daß die Zeitreihe bis 1945 nicht als Ergebnis von Zufall und Autokorrelation festzustellen war, Ihnen nicht weiterhelfen, weil es ja um eben nur genau diese Aussage geht: ist die Zeitreihe signifikant durch einen externen Antrieb begründet oder nicht. Es ist offensichtlich, daß man durch die Statistik allein nicht festlegen kann, WELCHER externe Antrieb wirkte. Es gibt überhaupt keinen Anlaß dafür, zu glauben, daß es immer der gleiche externe Antrieb ist. In so einem Fall kommt selbstverständlich zum Tragen, daß man aus anderen Quellen bestimmt, welcher externe Faktor wirkt. Die Arbeit von Zorita et al 2009 ist KEIN Beweis für eine anthropogene globale Erwärmung – Sie tun immer so, als wäre das niemandem klar – sondern NUR ein Beleg dafür, daß die globale Erwärmung derzeit einen externen Antrieb hat. Daß dies die Treibhausgase sind, wissen wir bereits (Sie wissen es vielleicht nicht, daher die Empfehlung, sich über die IPCC-Berichte und speziell im Bericht der WG 1 im zweiten Kapitel einen Überblick zu verschaffen). Und da wir wissen, daß die Zeitreihe nicht bloß interne >Variabilität wiedergibt, wissen wir auch, daß wir bei einem Trendwechsel auf eine Zeitskala schauen müßten, die deutlich größer ist als eine Dekade. Und da wissen wir, ab wann ein Trendwechsel statistisch signifikant festgestellt werden kann. Unabhängig davon zeigt uns das auch die Auswertung der Modellergebnisse (siehe oben). Ihre ganzen Aussagen zu einem Bestätigungsfehler passen überhaupt nicht darauf. Sie würden passen, wenn es zum Beispiel darum geht, willkürlich kurze Zeitreihen oder einzelne Startjahre auszuwählen, um einen “gewünschten” Abkühlungstrend zu finden. Aber irgendwie haben Sie Schwierigkeiten, Ihre Erkenntnisse dann anzuwenden, wenn Sie passen würden, nämlich auf das, was Sie hier in der Diskussion präsentiert haben, klimatische 8-Jahresabkühlungstrends, vervierfachte Zeitreihen und genaues Verfolgen von globalem Wetter.

  248. #248 Wolfgang Flamme
    Mai 21, 2009

    Herr Zimmermann,

    wenn Sie wirklich diesen methodischen Einwand machen möchten, müßten Sie zunächst mal dieses nachrechnen

    Ich bin gerade dabei, die Arbeit zu verifizieren und dann auf die Situation in den 40ern zu übertragen. Es dauert eben seine Zeit, ich muß ja auch noch von was leben.

    Selbst wenn Sie mit Ihren Zweifeln recht behalten, so bleibt der grundsätzliche Einwand bestehen, da die Beobachtung eben vor der Aufstellung der Hypothese erfolgte. Wenn Sie Autoritätsargumenten Gewicht einräumen: Der Klimawissenschaftler Gerd Bürger hat sich zu dieser Arbeit ganz ähnlich kritisch geäußert.

    Es ist offensichtlich, daß man durch die Statistik allein nicht festlegen kann, WELCHER externe Antrieb wirkte. Es gibt überhaupt keinen Anlaß dafür, zu glauben, daß es immer der gleiche externe Antrieb ist. In so einem Fall kommt selbstverständlich zum Tragen, daß man aus anderen Quellen bestimmt, welcher externe Faktor wirkt.

    Die Arbeit erhob nun aber den Anspruch, gerade ohne solche Zusatzannahmen/-deutungen auskommen zu können. Wenn das nicht der Fall ist, dann hat sie ihren Anspruch verwirkt.

    Die Arbeit von Zorita et al 2009 ist KEIN Beweis für eine anthropogene globale Erwärmung (…) sondern NUR ein Beleg dafür, daß die globale Erwärmung derzeit einen externen Antrieb hat.

    Dann würde sie auch belegen, daß das Klima zu anderen Zeiten ebenfalls externe Antriebe hatte oder hätte haben können. Allerdings basiert die Arbeit auf der Voraussetzung, die Auswirkung aller natürlichen Antriebe ließe sich auf einfache statistische Weise modellieren. Wenn das nicht der Fall ist, dann fußt die Arbeit halt auf unzutreffenden Modellvoraussetzungen.

  249. #249 Wolfgang Flamme
    Mai 22, 2009

    Wer mal richtig herzhaft lachen will:

    https://w3k.gkss.de/staff/storch/pdf/misuses.pdf

    Hier beschreibt Hans von Storch ausführlich den methodischen Fehler, den er selber später begehen wird:

    The fundamental error is that the null hypothesis is not independent of the data which are used to conduct the test. (…) The same trick can of course be used to “prove” that any rare event is “non-natural”, be it a heat wave or a particularly violent storm – the probability of observing a rare event is small.
    One might argue that no serious scientist would fall into this trap. However,they do.

    Wir erinnern uns auch an den streitlustigen Klimawissenschaftler Georg Hoffmann mit seinem großartigen Zitat:

    Das ist sowas wie ein flamme(hoehoe) Aufruf ueberhaupt keine Statistik in der Physik oder in der Klimaforschung ueberhaupt zu benutzen. Mit HvS ist einer der Co-Autoren nicht nur ausgebildeter Statistiker mit einer langen List von Veroeffentlichungen zu Themen der angewandten Statistik sondern auch der Autor DES Klima-Statistik Buchs der 90er (…)
    Er wird sicher nur auf diese alles vom Tisch wischenden Eroeffnungen gewartet haben.

    Zu schade, daß Georg Hoffmann DAS Klima-Statistik-Buch der 90er anscheinend nicht gelesen hat, das hätte ihm zumindest diese Blamage erspart.

    Und auch Sie, Herr Zimmermann, haben sich mit der zwanghaften Verteidigung dieser fehlerhaften Arbeit großartig lächerlich gemacht und Ihren Bias in seiner ganzen Pracht offenbart.

  250. #250 Eddy
    Mai 22, 2009

    @Wolfgang Flamme

    Die berühmte Autokorrelation. Wie wichtig ist sie in diesem Fall?

    Schauen wir uns doch einmal die Globaltemperatur von 1998 bis 2008 an. Ausser 1998 und 2008 gab es weder Ausreisser nach oben, noch nach unten. Vor allem aber ist die Temperatur immer zu “normal” zurückgekehrt.

    1998 hat also entweder die Globaltemperatur auf das aktuelle Niveau gehoben, oder die ganze Reihe ist komplett autokorreliert. Es ist sogar sehr unwahrscheinlich, dass 2008 einen signifikanten Trend nach unten ausgelöst hat, angesichts der Trägheit der Meere, Co2 hin oder her.

    Man muss dazu noch anmerken, dass (den Modellen zufolge?) die Erwärmung durch Co2 anscheinend Jahrhunderte braucht um sich voll auszuwirken, wobei der Grossteil der Erwärmung erst mit Verzögerung eintritt. Mehr als die Hälfte (bis zu 3/4 und mehr) dieser Erwärmung soll durch Rückkoppelungen entstehen.

    Die natürliche Erwärmung von 1880 bis 1945 soll aber selbstverständlich nach 1960, trotz sehr hoher Sonnenaktivität keinerlei Rückkoppelungen auslösen?!

    Nun stellt man sich als Laie natürlich die Frage, wo die postulierte natürliche Variabilität des Klimas ab 1998 geblieben ist. Oder gibt es doch eine höhere natürliche Autokorrelation?

    Ausserdem stellt man sich die Frage wann und warum eine kleine Eiszeit in eine moderne Warmzeit über geht und wann dieser natürliche Prozess abgeschlossen ist.

    MfG
    Eddy

  251. #251 Jörg Zimmermann
    Mai 22, 2009

    “Selbst wenn Sie mit Ihren Zweifeln recht behalten, so bleibt der grundsätzliche Einwand bestehen, da die Beobachtung eben vor der Aufstellung der Hypothese erfolgte.”
    Die Hypothese ist, daß die Zeitreihe zufällig ist. Es ist völlig egal, ob diese Hypothese vorher oder nachher aufgestellt ist, das Ergebnis ist immer dasselbe. Die Hypothese wird widerlegt. Versuchen Sie mal zu erklären, wie sich das Ergebnis dieses statistischen Tests dadurch ändern soll, ob man vorher den Datensatz vorliegen hat, bevor man den Test entwirft oder erst danach. Versuchen Sie zu erklären, wie man diesen Test durchführen soll, ohne daß der Datensatz zur Verüfgung steht. Mir fallen eigentlich nur noch sehr sarkastische Kommentare zu dem ein, was Sie hier erzählen.

    “Dann würde sie auch belegen, daß das Klima zu anderen Zeiten ebenfalls externe Antriebe hatte oder hätte haben können.”
    Das habe ich doch gesagt.

    “Allerdings basiert die Arbeit auf der Voraussetzung, die Auswirkung aller natürlichen Antriebe ließe sich auf einfache statistische Weise modellieren.”
    Nein. Das gilt nur dann, wenn es keine klimatischen Antriebe gibt, sondern nur interne Variabilität, aufgrund derer sich die Zeitreihe zufällig und autokorreliert entwickelt. Das ist die Null-Hypothese, die hier widerlegt wird.

    Die Arbeit macht keine Aussage zu der Art externer Antriebe, sondern untersucht nur die Hypothese, daß die Zeitreihe nur aus zufällig schwankenden, autokorrelierten Daten besteht.

  252. #252 Eddy
    Mai 22, 2009

    @Jörg Zimmermann

    Sie schreiben:

    “Die Hypothese ist, daß die Zeitreihe zufällig ist.”

    Wenn Sie die Jahre um 1945 anschauen können sie sagen a) solche Häufungen von gleich warmen Jahren sind sind normal und b) es ist wärmer geworden. Ich kann mir beim besten Willen nicht vorstellen was man daraus anderes schlussfolgern könnte, weil man 1) nicht weiss wie eine natürliche (zufällige?) Erwärmung aussehen würde, 2) keine Ahnung hat warum eine solche Erwärmung entsteht und 3) nicht weiss ob das Klima nach der kleinen Eiszeit wirklich zur Normalität zurückgefunden hat.

    Fast alle Klimaereignisse der Vergangenheit, die wir genau beschreiben können, sind verzögert aufgetreten, manchmal sogar ganz ausgeblieben. Bisher hat man nicht die geringste Ahnung warum eine Warmzeit genau dann anfängt und genau dann aufhört.

    Bei der modernen Warmzeit reden wir über einen Zeitraum von 20 Jahren, den sie selbst doch eventuell als globales Wetter definieren würden.

    Es ist ja nicht so, dass die aktuelle Erwärmung den Co2-Modellen widerspricht. Es ist aber auch nicht so, dass die Statistik der wärmsten Jahre die Co2-Hypothese beweist.

    Mehr habe ich aber auch nicht zu kritisieren.

    LG
    Eddy

  253. #253 Jörg Zimmermann
    Mai 22, 2009

    @Eddy
    Ich weiß nicht, was Sie meinen. Es wird aber auch nicht so wichtig sein.

  254. #254 Wolfgang Flamme
    Mai 23, 2009

    Herr Zimmermann,

    Versuchen Sie mal zu erklären, wie sich das Ergebnis dieses statistischen Tests dadurch ändern soll, ob man vorher den Datensatz vorliegen hat, bevor man den Test entwirft oder erst danach.

    Es ist nicht meine Pflicht, Ihnen den grundlegenden Unterschied zwischen Vorhersagbarkeit und Nachhersagbarkeit vermitteln zu müssen. Kümmern Sie sich selbst darum.

    Die Arbeit macht keine Aussage zu der Art externer Antriebe, sondern untersucht nur die Hypothese, daß die Zeitreihe nur aus zufällig schwankenden, autokorrelierten Daten besteht.

    Wirklich bedauerlich, daß die Arbeit überhaupt keine Aussage zu der Art externer Antriebe macht. Nicht der kleinste Hinweis zu möglichen Ursachen findet sich da … jammerschade, aber nicht zu ändern. Dann legt sie also lediglich nahe, daß der globale Temperaturverlauf sehr wahrscheinlich nicht als idealer AR1-Autokorrelationsprozeß simuliert werden kann. Diese Vermutung hatte ich ja ebenfalls geäußert; schön, daß Sie mir da nach langer Diskussion endlich zustimmen.

  255. #255 Eddy
    Mai 23, 2009

    @Jörg Z.
    Sie schreiben:

    “Ich weiß nicht, was Sie meinen. Es wird aber auch nicht so wichtig sein.”

    Machen sie doch bitte Scherze mit ihren eigenen Füssen! Sie sind noch zu dumm die elementarsten Kritiken zu verstehen, werden aber gleich bächtig möse wenn jemand ihnen das vorwirft.

    Sie geben zu von der Materie nichts zu verstehen, haben aber einen eigenen Blog zum Thema auf dem sie andere Leute beleidigen.

    Sie liegen genau so falsch wie Georg sind aber noch eine Spur anmassender und arroganter, aber flagrant weniger intelligent.

    Trotzdem versuche ich auch gern einem Menschen ewas zu erklären, der etwas langsamer im Denken ist:

    Allein dass die letzten 10 Jahre absolut autokorreliert sind beweist doch, dass Autokorrelation die Regel und nicht die Ausnahme ist. Genauso war es um 1945 rum.

    Es scheint so zu sein, dass das Klima nicht von Jahr zu Jahr wild hin und her fluktuiert, sondern dass es warme und kalte Phasen gibt, wobei während warmen Phasen warme Jahre gehäuft auftreten und … usw …

    Dann bleibt bloss noch zu klären warum es 1900 kalt war, 1945 warm, 1960 wieder kälter und 1998 wieder warm. Solange wir die natürlichen Klimamechanismen nicht genau kennen, ist die eine wie die andere Hypothese gültig.

    Nicht ich und nicht Herr Flamme behaupten genau zu wissen warum es 1998 so warm war und wieso wir die wärmste Periode der letzten 500 Jahre erleben.

    Es freut mich, dass sie das genau wissen und neben dem IPCC und Realclimate über allen Menschen dieser Erde stehen. Das heisst, es freut mich für SIE. Das soll aber heilbar sein.

  256. #256 Eddy
    Mai 23, 2009

    @Jörg Zimmermann
    Sie schrieben ausserdem:

    “Und da wir wissen, daß die Zeitreihe nicht bloß interne >Variabilität wiedergibt, wissen wir auch, daß wir bei einem Trendwechsel auf eine Zeitskala schauen müßten, die deutlich größer ist als eine Dekade. Und da wissen wir, ab wann ein Trendwechsel statistisch signifikant festgestellt werden kann.”

    Wir reden hier von einem Trend der knapp 18 Jahre anhielt, der aber irgend etwas beweisen soll, von dem sie nicht wissen was es ist, ausser, dass der Mensch daran schuld ist, was SIE wissen, aber alle anderen wissen, dass wir es alle nicht wissen KÖNNEN.

    Mann mann mann mann, nun kommen sie doch mal aus ihrem Tollhaus hervor und treten sie ins Licht. WAS wollen SIE sagen. Zumindest DAS müssten sie doch noch hinkrigen?

    Und was soll dieser Unsinn von deutlichem Trend um dann diesen Trend selbst als “globales Wetter” wieder zunichte zu machen, und von Georgs Argument, dass es Modelle gibt die eine 50jährige Abkühlung zeigen, komplett torpediert wird.

    Leute, nun seid doch ein einziges Mal in eurem Leben einmal für 5 Minuten offen und ehrlich und gebt zu, dass das alles kompletter Unsinn ist.

    Entweder ist es ein deutlicher Trend und die 20 Jahre sind kein globales Wetter und dieser Trend beweist etwas, oder es ist ein Sturm im Wasserglas, bzw. Esoterik!

    In einem Buch, das ich gerade lese (Folter im 21. Jahrhundert: Auf dem Weg in ein neues Mittelalter?) wird eine Methode beschrieben: “Das Motto immer nur das zuzugeben, was man nicht mehr verheimlichen kann”.

    Das erlebe ich seit Jahrzehnten in der Klimaforschung. Sobald man einen neuen Trend messen kann, und er die Theorie theoretisch beweisen könnte, wird dazu ein Paper geschrieben. 2 Jahre später zeigt der Trend nach unten und es wird geschwurbelt und es werden Nebelkerzen gezündet, bis man es nicht mehr leugnen kann und dann wird die nächste Stufe der Nebelrakete gezündet … Plötzlich gibt es globales Wetter …. eine “neue” Erfindung aus dem Hause Zimmermann und Söhne … ;-))) Plötzlich ist es egal ob die Antarktis sich erwärmt oder nicht um sich dann Monate später doch zu erwärmen anhand von absolut undurchsichtigen statistischen Methoden. Genauso mit der mittelalterlichen Warmperiode, gibts nicht, gibts doch, ist aber sch…egal, gibts doch nicht, gibts nur lokal und schwuppdiwupp wird ein Paper dazu hervorgezaubert wieso sich Europa immer wieder lokal während langen Perioden erwärmt hat, obschon es heute nicht lokal passiert.

    Aber wehe jemand hat zu diesem Schwachsinn eine deutliche Meinung. Schon geht die Beleidigungs und Diffamierungsparade los. Trolls, Leugner, Idioten mit Verschwörungstheorien, die alle Wissenschaftler dieser Welt für Idioten halten, und dann noch diese weltweite Epidemie von dummen alten Männern ……

    Aber ihr merkt es selbst nicht? Merkt nicht wie total abgefahren eure Argumente sind?

  257. #257 Jörg Zimmermann
    Mai 23, 2009

    “Es ist nicht meine Pflicht, Ihnen den grundlegenden Unterschied zwischen Vorhersagbarkeit und Nachhersagbarkeit vermitteln zu müssen.”
    Bei der hier diskutierten statistischen Analyse geht es nicht um eine Vorhersage. Wie kommen Sie nur darauf?
    “Wirklich bedauerlich, daß die Arbeit überhaupt keine Aussage zu der Art externer Antriebe macht.”
    Nein, es ist nicht bedauerlich. Die Arbeit hat ein klares Thema und hat das behandelt. Und das beinhaltet keine Aussage zur Art externer Antriebe. Welche es gibt und wie stark diese sind, wird in einer sehr großen Zahl anderer Arbeiten behandelt.
    “Dann legt sie also lediglich nahe, daß der globale Temperaturverlauf sehr wahrscheinlich nicht als idealer AR1-Autokorrelationsprozeß simuliert werden kann. Diese Vermutung hatte ich ja ebenfalls geäußert; schön, daß Sie mir da nach langer Diskussion endlich zustimmen.”
    Diese Art der “Diskussion” mit rhetorischen Tricks billige ich nicht. Wir haben keineswegs darüber eine Kontroverse gehabt. Ich stimme Ihnen keineswegs “nach langer Diskussion endlich zu.” Die Diskussion geht um das oben zitierte Paper, um diesen Blogbeitrag und darum, daß 8 Jahre nicht ausreichen, um festzustellen, ob ein bestehender klimatischer Trend, der über mehrere Dekaden etabliert wurde, und nach allem, was wir wissen, sich im Laufe des Jahrhunderts weiter verstärken wird, nun doch beendet ist. Um eine solche Trendänderung zu belegen, braucht man einen statistisch signifikanten Nachweis. Dabei muß man alles Wissen berücksichtigen, das man über das betrachtete System hat. Dazu gehört, daß man weiß, daß der klimatische Trend eine Größenordnung hat, die ihn erst nach mindestens 20 Jahren vergleichbar groß werden läßt gegenüber interner Variabilität durch globales Wetter.

  258. #258 Jörg Zimmermann
    Mai 23, 2009

    @Eddy
    Sie sprechen mich zwar an, aber ich sehe einfach keinen Sinn darin, mit Ihnen in eine Diskussion einzutreten. Sie schreiben wirr, so daß ich meistens nicht feststellen kann, worum es Ihnen eigentlich geht und was ich bei Ihnen voraussetzen kann oder welche Prämissen gelten. Ihre Aussagen sind zu einem großen Teil sehr grundlegend fehlerhaft, ich sehe bei Ihnen aber auch keine Bereitschaft, sich korrigieren zu lassen. Meine Lebenszeit ist einfach zu begrenzt, mich darauf einzulassen. Ich bedaure bereits, auch nur auf Herrn Flamme eingegangen zu sein, und der macht zumindest in der Regel nachvollziehbare Aussagen.

  259. #259 Eddy
    Mai 23, 2009

    @Jörg Zimmermann

    Sie sprechen mich zwar an, aber ich sehe einfach keinen Sinn darin, mit Ihnen in eine Diskussion einzutreten. Sie schreiben wirr, so daß ich meistens nicht feststellen kann, worum es Ihnen eigentlich geht und was ich bei Ihnen voraussetzen kann oder welche Prämissen gelten. Ihre Aussagen sind zu einem großen Teil sehr grundlegend fehlerhaft, ich sehe bei Ihnen aber auch keine Bereitschaft, sich korrigieren zu lassen. Meine Lebenszeit ist einfach zu begrenzt, mich darauf einzulassen.

    Trotzdem muss ich mir ihre dummarroganten Ergüsse hier “anhören”!

  260. #260 Eddy
    Mai 23, 2009

    Für die die sich trotzdem fürs Thema interessieren:

    Es gibt 2 Merkmale dieser These:

    1) Clusterung von ähnlich warmen/kalten Jahren
    2) Erwärmung

    Beide Merkmale werden als sehr unwahrscheinlich deklariert.

    Es gibt mehrere Ideen die diese Theorie ad absurdum führen:

    a) Wenn es in den nächsten Jahrzehnten nicht wärmer wird, ist die ganze Theorie für den Mülleimer

    b) Wenn es die nächsten Jahre etwas kälter wird dann wieder etwas wärmer, haben wir bald 20 ähnlich warme Jahre und die Unwahrscheinlichkeit einer solchen Clusterung wächst ins unermessliche

    c) Auch in Zeiten von globaler Erwärmung durch Co2 sollte die Temperatur sich rein zufällig verändern. Wenn das heute nicht geschieht, wieso soll es dann in der Vergangenheit geschehen sein?

    d) Nach der kleinen Eiszeit wurde es ohne äusseren Einflüsse deutlich wärmer. Hätte man die Logik von Zorito und Storch damals angewandt hätte es kaum wärmer werden können.

    e) Der “deutliche” Erwärmungstrend herrschte von 1975 bis 1998 ungefähr und stagniert seither. Von 1900 bis 1945 gab es einen ähnlichen Erwärmungstrend, der auch einige Jahre später für lange Zeit stagnierte.

    f) Sollte die Globaltemperatur noch einige Jahrzehnte stagnieren, gäbe es nicht den geringsten Grund dem Erwärmungs von 0,2° pro Jahrzehnt Glauben zu schenken.

    All diese Ideen gehen nicht davon aus, dass der Erwärmungstrend von 1975 bis 1998 rein zufällig vonstatten ging. Für den Fall, dass die heutige Erwärmung natürlichen Ursprungs wäre und nicht dem Co2 anzulasten wäre, gibt es folgende Theorie, die eigentlich sehr gut beschreibt, was ich selbst als nicht unwahrscheinlich ansehe:
    https://people.iarc.uaf.edu/~sakasofu/pdf/two_natural_components_recent_climate_change.pdf

    Der ganze Hokuspokus um die wärmsten Jahre am Ende von irgendeiner Zeitreihe (Zoriat et al) wird hier widerlegt:

    https://motls.blogspot.com/2009/01/record-breaking-years-in-autocorrelated.html

    Dieser Mann erklärt auch ziemlich genau das, was ich denke und unabhängig (aber laienhaft) schon viel früher ähnlich formuliert habe.

    Die Frage bei dieser ganzen Auseinandersetzung ist doch die, ob man nicht einfach versucht den Laien mit pseudowissenschaftlichen Überlegungen in die Irre zu führen, bzw. ob der Klimatologe überhaupt selbst merkt, dass er einem Märchen aufgesessen ist.

    Man hatte uns damals doch auch statistisch bewiesen, dass wir mit hunderttausenden BSE-Fällen beim Menschen zu rechnen hätten. Die Statistik von damals taugt nicht mehr als die hier vorgebrachte (Zorita et al).

    Ausserdem fragt man sich, ob es euch Leuten nicht peinlich ist, dass ein so abgrundtief dummer Mensch wie es euch zufolge bin, diesen ganzen Unsinn ohne Probleme durchschauen kann?

  261. #261 Wolfgang Flamme
    Mai 23, 2009

    So, ich habe die wesentlichen AR1-Simulationsergebnisse der Arbeit inzwischen bestätigen können; für eine 127 Jahre dauernde AR1(0.85)-Reihe ergibt sich eine Wahrscheinlichkeit von etwa 7e-4, daß 13 Rekorde innerhalb der letzten 17 Jahre zu verzeichnen sind.
    Für eine 65 Jahre dauernde AR1(0.85)-Reihe ergibt sich eine Wahrscheinlichkeit von etwa 1.2e-3, daß 9 Rekorde innerhalb der letzten 9 Jahre zu verzeichnen sind.

    Die Rekordserie in den 40ern war also (im Modellsinn) ähnlich ‘unwahrscheinlich’ wie die der 90er.

  262. #262 Wolfgang Flamme
    Mai 23, 2009

    Hier das R-Script:

    # Initialisierung
    my.ar1=0.85 # Zorita-AC
    my.sd=.15 # Stabw der Normalverteilung – eigentlich überflüssig, Störungen sind proportional
    my.totallength=200 # Länge der ‘eingeschwungenen’ Zeitreihe … sicherheitshalber
    my.years=127 # 127 Werte 1880-2007
    my.latestyears=17 # 17 letzte Jahre
    my.recordyears=13 # 13 Rekorde
    my.success=0 # Trefferzähler
    my.tries=0 # Versuchszähler
    my.desires=100 # Zahl der gewünschten Treffer bis Abbruch

    while (my.success<my.desires) {
    # Durchlaufen, bis die gewünschte Trefferzahl erreicht ist
    # Versuchszähler erhöhen
    my.tries=my.tries+1

    # Erzeuge ‘eingeschwungene’ AR1 Zeitreihe 200a
    y=arima.sim(n=my.totallength, model=list(ar=my.ar1), sd=my.sd)

    # Greife letzte my.years Jahre aus der ZR
    y=y[(my.totallength-my.years+1):my.totallength]

    # Split der Reihe
    y1=y[1:(my.years-my.latestyears)] # Zeitreihe vor den letzten latestyears Jahren
    y2=y[(my.years-my.latestyears+1):my.years] # Zeitreihe der letzten latestyears Jahre

    # Bestimme Rekord der vorherJahre
    my.max=max(y1)

    # Bestimme Anzahl der Jahre in letzteJahre, die größer sind als dieses Maximum
    if(sum(y2>my.max)>=my.recordyears){
    # Trefferzähler erhöhen
    my.success=my.success+1}

    }
    # Ausgabe der Treffer pro Versuch
    my.success/my.tries

  263. #263 Georg Hoffmann
    Mai 25, 2009

    So, wieder zurueck von ein paar schoenen Tagen in der Bretagne, zurueck in die Bergwerke:

    @Flamme

    Dann noch zu Zorita/von Storch:
    Der fundamentale Lapsus in dieser Arbeit ist einfach, daß die Hypothese nach einer bereits getätigten Beobachtung an der Zeitreihe entwickelt wird. Hier scheint niemand zu begreifen, was das statistisch bedeutet, auch wenn es klipp und klar in Grundlagenwerken gesagt wird.
    Ein einfaches Beispiel: Wir werfen zehnmal einen Würfel und erhalten die Abfolge 6-6-6-6-6-6-6-6-6-6. Unser Interesse ist geweckt, wir wollen wissen, wie wahrscheinlich das ist und erhalten eine verschwindend geringe Wahrscheinlichkeit. Unsere Schlußfolgerung: Mit einem fairen Würfel ist dieses Ergebnis nicht zu erwarten.

    Tatsächlich ist diese Abfolge aber nicht unwahrscheinlicher als zB 3-3-2-3-2-2-6-3-4-4 oder 4-5-5-5-4-1-5-6-3-4. Jede Zahlenfolge beim Würfelwurf ist gleichermaßen unwahrscheinlich. Wenn wir also erst im Anschluß einer Wurfreihe danach fragen, wie wahrscheinlich es war, gerade diese Folge zu würfeln, kommen wir immer zum Ergebnis, der Würfel sei nicht fair.

    Ich komme noch zu den anderen Fehlern, hier ist aber schon ein fundamentaler. Die Wahrscheinlichkeit einer Zahl beim Wuerfelwurf ist 1/6. Die Probability Density Function ist konstant, jedes Event ist gleich wahrscheinlich. Es gibt somit auch keine Extreme und keine Extremwertstatistik und auch keine Anhaeufung extremer Ereignisse. Der Vergleich ist voellig unsinnig. Nur bei einer PDF (wie der Gausschen) gibt es das alles erst. Und natuerlich (das ist immer und bei absolut jeder statistischen Schaetzung so) muss man hoffen, dass die Daten (also hier die Temperaturen bis 1850-2008) eine solche Schaetzung der PDF (Gauss oder andere) erlauben.
    Ist aber eine PDF etabliert (mit meinethalben Unsicherheiten etc) dann IST ein besonders warmes (kaltes) Jahr eben selten und eine Anhaeufung warmer/kalter Jahre deutet darauf hin, dass sich die PDF (und somit die Statistik der Verteilung) aendert.
    Das ist schonmal der erste Unsinn ihrerseits , Flamme. Doch der zweite folgt sehr bald.

  264. #264 Wolfgang Flamme
    Mai 25, 2009

    Lesen Sie nochmal die ‘misuses’ von von Storch. Der Einwand gilt prinzipiell, auch wenn es sich zeigen sollte, daß beim ‘mexican hat’ gewisse Sandstein-Formparameter bimodal verteilt sind oder sonstwie kuriose Verläufe annehmen.

    Ich habe das Würfelbeispiel gewählt, gerade weil sofort einzusehen ist, daß es sich im Grunde um Ereignisse gleicher Wahrscheinlichkeit handelt, wovon aber regelmäßig nur eines unser Mustersehen und unsere Neugier auf den Plan ruft. So erhalten wir die Bestätigung eines ‘unwahrscheinlichen Ereignisses’ auch dann, wenn dieses Ereignis genau dieselbe Wahrscheinlichkeit hat wie alle anderen Kombinationen.

    Die AR1-Funktion im Script habe ich natürlich mit normalverteilten Fehlergrößen angetrieben.

  265. #265 Wolfgang Flamme
    Mai 25, 2009

    PS: Im übrigen dürfte es eigentlich keinen wesentlichen Unterschied für die AR1-Reihe machen, wenn man das Ganze mit +/- Würfelwürfen, mit +/- 1 oder so antreibt. Der Zufallsgenerator, der die Reihe treibt, hat ja selber kein Gedächtnis, der durchschnittliche Antrieb beim Würfel ist dann eben +/- (1+6)/2. Ein normalverteilter Antrieb beträgt im Mittel +/- 1*SD. Die Wahrscheinlichkeit, daß die ersten 110 Jahre einen Rekord setzen, der in den restlichen 17 Jahren nicht mindestens 13-mal vom gleichen Verfahren geknackt werden kann, sollte sich von Verteilung zu Verteilung nicht grundlegend unterscheiden, sofern die Mittelwerte auf beiden Seiten (plus und minus) gleich groß sind … zumindest leuchtet mir da erstmal kein Grund ein. Aber ich probier’s mal aus.

  266. #266 Wolfgang Flamme
    Mai 25, 2009

    Also, zwei Tests gemacht. Antrieb der Reihe mit Würfelergebnis (1:6)-3.5 (wg. Symmetrie) liefert eine Überschreitungswahrscheinlichkeit von etwas über 6e-4 (nv-verteilt: 7e-4).

    Zweiter Test: positive Seite nv-verteilt mit sd=1, negative Seite=-1 (const.) gleichverteilt. Gleiches Ergebnis.

    Also keine deutliche Änderung der Überschreitungswahrscheinlichkeit in beiden Fällen. Denken lohnt sich eben.

  267. #267 Georg Hoffmann
    Mai 25, 2009

    @Flamme
    Das Beispiel mit dem Wuerfel ist ganz wunderbar, denn es zeigt dass Sie nichtmals begreifen, warum es den Begriff Extremereignisse ueberhaupt gibt. Sie sind Erstremereignisse weil sie rar sind, und eine Anhaeufung rarer Ereignisse ist sogar noch rarer.
    Das belegt aber nur, dass Sie nichtmals wissen worum es ueberhaupt geht. Der Rest ist aber auch amusant.

  268. #268 Gert
    Mai 25, 2009

    @hoffmann:
    “Ist aber eine PDF etabliert (mit meinethalben Unsicherheiten etc) dann IST ein besonders warmes (kaltes) Jahr eben selten”
    Das kommt doch darauf an, wie die PDF aussieht.
    “und eine Anhaeufung rarer Ereignisse ist sogar noch rarer. ”
    Wenn man die PDF auf die absolute Jahresdurchschnittstemperatur anwendet, dann stimmt das. Aber wieso sollte man das tun? Wir wissen ja, dass die Temperatur t-1 die Temperatur t beeinflusst. Je nach dem wie gross dieser Einfluss ist, wäre ein einzelner Extremwert unwahrscheinlicher als die eine Häufung. Die PDF sollte man doch viel eher auf die Temperaturdifferenz von t und t-1 anwenden.

  269. #269 Wolfgang Flamme
    Mai 25, 2009

    Quatsch. Bei autokorrelierten Zeitreihen kann man denselben Extremwert sowohl durch eine Abfolge eher unauffälliger, aber gerichteter Werte erhalten als auch durch eine vereinzelte, extreme Störung. Es ist oberflächlicher Blödsinn zu glauben, das Erreichen eines Extremwertes erfordere unbedingt Störungen extremen Ausmaßes.

  270. #270 Wolfgang Flamme
    Mai 25, 2009

    PS: “Quatsch” bezog sich auf Georgs Kommentar. Daß hier tatsächlich noch jemand mitliest, ehrt sie, Gert.

  271. #271 Krishna Gans
    Mai 25, 2009

    @Wolfgang Flamme
    Ich lese hier auch noch mit, und wenn ich Hoffmanns Kommentare so lese fällt mir immer Hans Rosenthal von ganz früher ein, noch “nur Radio Zeiten” wo er, wenn es um unklare Wissensfragen ging “Zwerg Allwissend” in der ihm eigenen Art zu Rate zog.

    Des weiteren fällt mir bei Hoffmann auf, daß er meinen Beitrag zur Datenselektion je nach Bedarf und Fragestellung vom 21.5.09 mit 2 oder 3 Links noch immer nicht freigeschaltet hat.

  272. #272 Georg Hoffmann
    Mai 25, 2009

    @Gert

    “Ist aber eine PDF etabliert (mit meinethalben Unsicherheiten etc) dann IST ein besonders warmes (kaltes) Jahr eben selten” Das kommt doch darauf an, wie die PDF aussieht.

    Das ist nur noch tautologisches Gequirrle. “Besonders warm” bedeutet in einer wie auch immer aussehenden PDF “ein besonders selten und warmes Ereignis”. Genau das definiert die PDF.

    Wenn man die PDF auf die absolute Jahresdurchschnittstemperatur anwendet, dann stimmt das. Aber wieso sollte man das tun? Wir wissen ja, dass die Temperatur t-1 die Temperatur t beeinflusst. Je nach dem wie gross dieser Einfluss ist, wäre ein einzelner Extremwert unwahrscheinlicher als die eine Häufung. Die PDF sollte man doch viel eher auf die Temperaturdifferenz von t und t-1 anwenden.

    un darum ja gerade das Paper von Zorita/Storch. Es erlaub die Autokorrelation in die Rechnung miteinzubeziehen. Jeder Einfluss des Zeitschritt t-1 auf t kann nicht beliebiges Wegdriften erzeugen. Die Statistik (ie die Beobachtungen und die mit Ihnen abgeschaetzte Autokorrelationsfunktion) geben eben genau die statistische Beschreibung des Vorgangs. Ansonsten hoffe ich mal, dass Sie jetzt nicht in voellig sinnlose Wortklauberei abdriften. Eine Serie seltener Ereignisse ist immer seltener als ein einzelnes Ereigniss, es sei denn Sie gestalten das einzelne seltene Ereigniss eben noch seltener als die anderen.

    @Flamme

    Es ist oberflächlicher Blödsinn zu glauben, das Erreichen eines Extremwertes erfordere unbedingt Störungen extremen Ausmaßes.

    Wauh. Sie wissen ja wirklich ueberhaupt nicht worum es geht. Drollig. Ein klassischer Strohmann: “Stoerungen extremen Ausmasses”. Ich denk das mit den Strohmaennern ist den Klimaspinnern in die DNA geritzt.
    Nu ja. Ein Eiereignis oder Abfolge kann extrem selten sein (und man kann das mit einer entsprechende Statistik zeigen und berechnen) aber das sagt absolut nicht ueber die “Stoerungen” und deren Groessenordnung aus. Na das muessen wir wohl nochmal nachschlagen.

    .

  273. #273 Wolfgang Flamme
    Mai 25, 2009

    @Krishna

    Auch Dir erstmal Dank für’s mitlesen. Bis zu H.R. reicht mein Hang zu Albernheiten allerdings nicht zurück 🙂

    Was die Freischaltung betrifft, so mußt Du schon zart sein. Ich kann’s niemandem verübeln, wenn er seine Spam-Ordner ungelesen löscht, so unzählig sind die Bots, die versuchen, da ihren Müll abzuladen. Deshalb einfach das ‘http(s)://’ aus den Links entfernen und direkt posten.

  274. #274 Wolfgang Flamme
    Mai 25, 2009

    @Georg

    Aha, verstehe. Ich habe schnell geprüft, daß die Wahrscheinlichkeitsfunktion des Antriebs für das Ergebnis von Zorita tatsächlich ziemlich unerheblich ist und an der Größenordnung der Extremhäufung kaum was ändert und das nehmen Sie mir übel. Würde ich auch machen, wenn mich jemand bei meinem Argeitgeber so vorführt, auch wenn ich selbst dran schuld wäre. Wollen Sie das entsprechende R-Script nochmal sehen?

  275. #275 Georg Hoffmann
    Mai 25, 2009

    @Flamme

    Würde ich auch machen, wenn mich jemand bei meinem Argeitgeber so vorführt, auch wenn ich selbst dran schuld wäre.

    Bei welchem Arbeitgeber? Sie reden mal wieder Unsinn. Mein Arbeitgeber ist die CEA, mein Chef heisst Raubert Vautard. Aber ich nehme an, so ist das halt, wenn man erstmal so ein richtiger Schwaetzer geworden ist.

    Wollen Sie das entsprechende R-Script nochmal sehen?

    Immer nur zu.
    Das erste Problem, was Sie leider auch mit einem R Script jetzt nicht loesen werden: Sie vergleichen die jaehrlichen globalen Temperaturen mit voellig gleichvwahrscheinlichen Wurfelwuerfen. Nachher sind Sie dann ueberrascht, dass es keine “seltenen” Ereignisse gibt. Nicht schlecht.

  276. #276 Wolfgang Flamme
    Mai 26, 2009

    @Georg

    “Wenn gar nichts mehr hilft, probier’s mal mit dem Ratschlag des Chefs.”

    Nochmal, es macht keinen großen Unterschied für die Extremwertstatistik ’13 aus den letzten 17 von insgesamt 127′, ob nun normalverteilte Werte oder eher schiefe Verteilungen angesetzt werden. Ich hab’s eben nochmal mit zufälligen Sequenzen der Liste c(0,0,0,0,5, -1,-1,-1,-1,-1) für die Antriebe durchprobiert – eine ziemlich unnormale Verteilung – und erhielt Wahrscheinlichkeiten von 3e-4…4e-4.Das ist immer noch nicht so grauenvoll verschieden von 7e-4, obwohl die Verteilung extrem und einseitig von einer Normalverteilung verschieden ist.

    Ich schlage mal vor, Du demonstrierst uns mal, daß man mit gleichverteilten Würfelwürfen bei AR1-Reihen eine bedeutend andere Zorita-Extremwertstatistik erhält als mit normalverteilten Störungen. R-Scripten kannst Du ja und dieser angeblich unheimlich bedeutende Unterschied in der Statistik, das war ja Dein großartiges, bedeutendes Claim und mein furchtbar gewaltiger Fehler No 1. Nicht daß ich ihn in meiner Statistik jemals wirklich begangen hätte, denn in meiner Analyse habe ich ja normalverteilte Werte angezogen. Aber wie heißt es so schön: “Man soll der Opposition immer einen Knochen zum Nagen übriglassen.” Dann mal frisch drauflos genagt, Georg. Meine Lösung poste ich morgen abend. Ob von Dir bis dahin schon was brauchbares kommt? LOL.

  277. #277 Gert
    Mai 26, 2009

    @Hoffmann:
    “Eine Serie seltener Ereignisse ist immer seltener als ein einzelnes Ereigniss”
    Zweifellos. Es geht mir aber darum, was das Ereignis ist. Sie schreiben von heissen, kalten Jahren als den Ereignissen. Ich aber schreibe von grossen Temperaturdifferenzen als Ereignissen, da, wie sie ja selber schreiben eine Autokorrelation besteht. Wenn man die Temperaturdaten anschaut, dann sieht man doch, dass wenn t-1 extrem kalt (heiss) war, die Wahrscheinlichkeit dass t heiss (kalt) ist, kleiner ist, als wenn sie kalt (heiss) bleibt. Die mittlere Abweichung der Temperaturdifferenz war (sofern ich richtig gerechnet habe), 0.09. Der Mittelwert der Temperatoranomalien (oder wie das heisst), war -0.17 (der Median -0.23). Nehmen wir das Jahr 2007 mit dem Durschschnitt von 0.22. Davon ausgehend wäre es doch viel unwahrscheinlicher, im Jahre 2008 etwas im Durchschnittswert von -0.17 zu erwarten. Das wäre eine Differenz zu 2007 von 0.39, also 0.30 höher als die mittlere Abweichung der Differenz. 2008 hatte einen Durchschnitt von 0.30, also eine Differenz von 0.08 zu 2007, also 0.01 weniger als die mittlere Abweichung. Dieses Ereignis von zwei aufeinanderfolgenden Extremwerten absoluter Temperaturen (die hohen Temperaturdaten von 2007 und 2008) sind demnach doch wahrscheinlicher, als wenn 2007 alleine ein Extremwert gewesen wäre. Oder mach hier irgendwo einen Denkfehler?

  278. #278 Georg Hoffmann
    Mai 26, 2009

    @Flamme
    Ich werd bei Gelegenheit einen ganzen Artikel ueber Zorita/Storch schreiben, das Interesse scheint ja gross zu sein.

    @Gert
    Sie sagen ja selbst, dass wir anscheinend von etwas anderem sprechen. Ein Ereigniss ist fuer mich ein extrem heisses (kaltes) Jahr (und ich habe auch noch ehrlichgesagt noch nicht gehoert, dass man diesen Ausdruck auf Differenzen anwendet, aber warum nicht). Auch bei hoch auto-korrelierten Zeitserien ist bei Beruecksichtigung diser Autokorrelation eine Vielzahl von Extremen-Ereignissen rarer als ein einzelnes Extremereignis. (immer unter der Vorraussetzung, dass man bei beiden “Extrem” die gleiche mathematische Vorstellung von “extrem” hat.

  279. #279 Wolfgang Flamme
    Mai 26, 2009

    @Georg

    Hier das R-Script mit mittelwertbereinigtem Würfelwurf-Antrieb:

    # R-SCRIPT START

    my.ar1=0.85 # Zorita-AC
    my.totallength=200 # Länge der ‘eingeschwungenen’ Zeitreihe … sicherheitshalber
    my.years=127 # 127 Werte 1880-2007
    my.latestyears=17 # 17 letzte Jahre
    my.recordyears=13 # 13 Rekorde
    my.success=0 # Trefferzähler
    my.tries=0 # Versuchszähler
    my.desires=100 # Zahl der gewünschten Treffer bis Abbruch

    while (my.success<my.desires) {
    # Durchlaufen, bis die gewünschte Trefferzahl erreicht ist
    # Versuchszähler erhöhen
    my.tries=my.tries+1

    # Erzeuge ‘eingeschwungene’ AR1 Zeitreihe 200a
    #Antrieb normalverteilt mit sd=Stabw
    #y=arima.sim(n=my.totallength, model=list(ar=my.ar1), sd=my.sd)

    # Erzeuge individuelle Störfolge my.drivers
    # Dieses Beispiel simuliert Würfelwürfe gleicher Häufigkeit
    my.drivers=sample(1:6, my.totallength, replace=T) – mean(1:6)

    # Erzeuge ‘eingeschwungene’ AR1 Zeitreihe 200a mit vorangegangenen Würfelergebnissen
    y=arima.sim(n=my.totallength, model=list(ar=my.ar1), innov=my.drivers)

    # Greife letzte my.years Jahre aus der ZR
    y=y[(my.totallength-my.years+1):my.totallength]

    # Split der Reihe
    y1=y[1:(my.years-my.latestyears)] # Zeitreihe vor den letzten latestyears Jahren
    y2=y[(my.years-my.latestyears+1):my.years] # Zeitreihe der letzten latestyears Jahre

    # Bestimme Rekord der vorherJahre
    my.max=max(y1)

    # Bestimme Anzahl der Jahre in letzteJahre, die größer sind als dieses Maximum
    if(sum(y2>my.max)>=my.recordyears){
    # Trefferzähler erhöhen
    my.success=my.success+1}

    }
    # Ausgabe der Treffer pro Versuch
    my.success/my.tries

    par(mfrow=c(4,1))
    # Wir gucken uns eine Muster-pdf des Antriebs der letzten my.years an
    hist(my.drivers[(my.totallength-my.years+1):my.totallength], main=”Histogramm Würfelantrieb”)

    # Wir gucken uns den Verlauf des Muster-Antriebs an
    plot(my.drivers[(my.totallength-my.years+1):my.totallength], type=”l”, main=”Verlauf Würfelantrieb”)

    # Wir gucken uns die Zeitreihe an
    plot(y, type=”l”, main=”Verlauf AR1-Zeitreihe”)

    # wir gucken uns das Histogramm an, wie sich der Antrieb effektiv auf die Zu-/Abhnahme ausgewirkt hat
    hist(diff(y), main=”Auswirkung des Würfelantriebs auf die Veränderungen in der AR1-Zeitreihe”)

    # R-SCRIPT END

    Ich empfehle Dir einen besonders wachen Blick auf die erste und letzte Grafik. Da siehst Du nämlich, was die AR1(0.85)-Transformationsvorschrift aus der Würfelwurf-Verteilung macht. Spätestens da muß es sogar Dir dämmern, warum die Resultate der Teststatistik ziemlich robust gegen die verwendete pdf des Antriebs sind.

  280. #280 Wolfgang Flamme
    Mai 26, 2009

    Georg, btw.,

    der Gert ist intuitiv schlauer als Du. Er scheint zu spüren, daß wir es bei hoher Autokorrelation näherungsweise mit einem Integrationsverhalten (Speicherverhalten) für die anstehenden Störungen zu tun haben. Und da werden extreme Endzustände des Speichers nicht von den extrem seltenen, größeren Einzelstörungen verursacht, sondern von zufälligen, systematischen Gewinnen/Verlusten in der eher unauffälligen Gesamtbilanz … die, wenn sie einmal zufällig aufgetreten sind, statistisch eben nicht wieder aufgeholt werden, weil die Störungen selbst eben kein Erinnerungsvermögen haben (das hat nur die Integration). MaW, das System verhält sich wie ein Tiefpaß und ist deshalb in seiner Bilanz deshalb für niederfrequente, systematische Fluktuationen empfänglicher als für hochfrequente Einzelimpulse.

    Ich kann Dir zur Erleuchtung eigentlich nur mit einen Uralt-Post ‘Gambling Runs’ von Steve McIntyre aufhelfen, der durch ein paar WP-Updates inzwischen etwas mit Sonderzeichen verstümmelt ist, falls das vorige nicht bei der Erleuchtung geholfen haben sollte:
    https://www.climateaudit.org/?p=310

    Bin sehr gespannt, ob und was von diesem Erkenntnispotential in dein künftiges Posting einfließen wird…

  281. #281 Eddy
    Mai 30, 2009

    @Bürger Et al

    die Mexican hat fallacy bestätigt die Unwahscheinlichkeit der Eeignisse, deklariert sie aber als plausibel über einen entsprechend langen Zeitraum wie beim Thema “Kann der Ursprung des Lebens natürkich sein?” Das ist hieraber gröstenteils irrelevant.

    Bürger 2:

    Es geht immer noch um die Unwahrscheinlichkeit des Ereignisses, die scheinbar widerlegt wird

    Am Ende bleibt aber eine grosse Unwarscheinlichkeit für eine natürliche globale Erwärmung übrig was Zorita eignetlich bestätigen sollte). Dass die Entstehung des Lebens durch natürliche Prozesse sehr sehr unwahrscheinlich ist, widerspricht Zorita nicht wirklich.

    Auch die zweite Fallacy geht davon aus, dass ein Ereignis sehr unwahscheinlich ist, man daurch allein aber nicht auf seine Ursache schliessen kann.

    Beide Argumente bestätigen Zorita und Storch, weil sie die Theorie, dass die Ereignisse sehr sehr unwahrsheinlich sind, sogar bestätigen. Nur der äussere Auslöder der Ereignisse (Co2) wir in Frage gestelt

    Zorita “beweist, dass ein sehr unwahrscheinliches Ereignis rein zufälligt auftauchen kann. Trotzdem ist und bleibt das Ereignis damit immer noch sehr unwahrscheinlich; Vorausgesetzt dass das Ereignis ncht zwingend irgnedwann einmel eintreten sollte, wie beim anthropischen Prinzip.

    Ein rein zufällig auftretender Kimatippingpoint oder eine sehr unwahrheinliche Aneinenderreihung zufälliger Ereignisse (warmer Jahre), ist und bleibt immer noch sehr unwahrscheinlich, auch wenn sie nach MIllionen Jahren irgendwann einmal entreten MUSS. Wie bim Roulette sollte man aber nicht heute damit rechnen, dass man gerade an dem Tag die richtige Zahl trifft eintrifft.

    Di echte Kritik an Zorita ist die, dass das Ereignis gar nicht soo unwahrscheinlich ist, unter natürlichen Bedingungen und ohne äussere Einflüsse:

    https://noconsensus.wordpress.com/2009/05/19/limitations-on-anthropogenic-global-warming/

    “”The temperature trend has peaked about 2002 and then rolls over and starts trending downward rather than continuing to rise as predicted. This apparent reversal contradicts the predicted trends in the IPCC models. While the downward trend has occurred only a over a few years, the entire period used to justify the “Anthropogenic Global Warming issue” is not much longer (1970-2000), and the 1970 level is significantly below the 1941 level!””

    “Question 2 can be restated as: how much of the temperature increase in the last 150 years is due to the CO2 (and methane) increase, and how much due to a general recovery from the Little Ice Age. I don’t think we can accurately answer that, but it appears almost certain that human activity did not cause much more than about 0.3OC of the increase, based on the net rise from the local peak from about 1940 to the latest trend at the end of 2008. This maximum plausible contribution is much less than the expected increase blamed on human activity for this time period.”

    Dr Leonrad Weinstein (NASA)

  282. #282 Eddy
    Mai 30, 2009

    @Gorg§

    Sie schreiben:

    “Auch bei hoch auto-korrelierten Zeitserien ist bei Beruecksichtigung diser Autokorrelation eine Vielzahl von Extremen-Ereignissen rarer als ein einzelnes Extremereignis. (immer unter der Vorraussetzung, dass man bei beiden “Extrem” die gleiche mathematische Vorstellung von “extrem” hat.”

    Das ist doch hier völlig irrelevant.Wie leben in eine Warmzeit, wo extreme (d.h: wärmste Jahre per Definition häufuger auftreten. Ihre Suppe wird doch auch nicht während und nach dem Kochen zufällig am kältesten sein.

    Wenn die Suppe wieder abkühlt haben sie zu Anfang immer noch die heissesten Ereignisse, was sie jedesmla beim Verbrenen ihrer Zunge leidvoll erfahen müssen.

    Die Wahrscheinlichkeit, dass sich ihre Suppe, wenn sie sich schon auf ihrem Teller befindet immer noch heisser wird, ist sehr sehr unwahrscheinlich.

    In unserem Fallt ist die einzig relevante Frage, warum die Suppe (auf dem Herd eventuell) Rekordwerte erreicht hat? (Dasselbe gilt für das Klima) War es der Tauchsieder, die Herdplatte, oder die Sonne, die durchs Fenster scheint?

    Oder haben sie die Suppe gerade aus dem Kühlschrank geholt (kleine Eiszeit) und warten nun, bis die Suppe Zimertemperatur erreicht hat?

    Die Frage ist doch hier: Was wollen Zorita et al überhaupt “beweisen?. Dass ein “äuserer Antrieb am Werk war?

    Was ist ein äusserer Antrieb? Die Rückkehr von der kleinen Eizeit? Die hohe Sonnenaktivität seit 1940? Die Urwaldrodung? Die Luftverschmutzung? Etwa sogar Co2 un Methan?

    Ich weiss es nicht und Sie auch nicht!!!!!