Soziale Ungerechtigkeit meint konkret die ungerechte oder sehr, sehr ungleichmäßige Verteilung des gesellschaftlichen Reichtums. Die in der Presse auftauchenden Zahlen sind meist soetwas wie: Das reichste 1% der Bevölkerung besitzt so viel wie alle anderen zusammen oder, vielleicht noch besser, 8 Männer besitzen so viel wie die ärmsten 3,5 Milliarden Menschen des Planeten. Es gibt übrigens auch eine klimarelevante Version dieser “x soviel wie y” Vergleiche. 10% der reichsten Menschen des Planeten emittieren 50% des CO2 des Planeten. Nun ja.
Das ökonomische Ungleichgewicht wird zumindest von Soziologen und Historikern meist mit dem sogenannten GINI Index gemessen, wobei ein Index von 0 bedeutet, daß aller Reichtum (oder alle Armut) gleich verteilt ist und ein Wert von approximativ 1, daß aller Reichtum bei praktisch einer Person konzentriert ist und der Rest einer Gruppe oder Gesellschaft genaus das lebensnotwendige Minimum besitzt. Einer breiteren Öffentlichkeit wurde das Konzept des GINI index und auch das einer daduch nachweisbaren wachsenden Ungleichheit durch das Buch “Das Kapital im 21ten Jahrhundert” des französischen Ökonomen Thomas Piketty bekannt, der sich mit besagter Ungleichheit seit dem 18ten Jahhundert in Europa und den USA beschäftigte. Ich habe jetzt mehrere Anläufe unternommen, durch Pikettys Buch zu kommen und stecke immer noch irgendwo zwischen Seite 200 und 300. Ökonomensprech ist nicht der zugänglichste, sagen wir es mal so.
Jüngst ist eine Art Fortsetzung erschienen, die mir klar lesbarer erscheint. Walter Scheidel ist eher Historiker und Soziologe und veröffentlichte in diesem Jahr “The Great Leveller”. Ein deutlich zugänglicheres, wenn auch mit reichlich, typisch amerikanischen Längen und Wiederholungen versehenes Buch. Es untersucht nicht nur die Geschichte der ökonomischen Ungleichheit über einen weit längeren Zeitraum als Piketty (nämlich seit der Vorgeschichte menschlicher Gesellschaften) sondern er stellt auch die folgende und höchst desillusionierende These auf: In der Geschichte der Menschheit hat es genau vier Mechanismen gegeben, die Ungleichheit wirklich und effektiv beseitigt haben: Krieg, Revolution, Seuchen und der Zusammenbruch des Staates (“The four horsemen”). Zeiten hingegen des Friedens, der staatlichen Kontrolle und Stabilität waren immer auch Zeiten, in denen die soziale Ungleichheit wächst, respektive die Reichen immer reicher und die Armen immer ärmer werden. Eine wahrhaft deprimierende historische Analyse, die allen Versuchen, diesem Prozess durch ein bisschen mehr Steuern hier und dort Einhalt zu bieten, keine wirklich guten Erfolgsaussichten verspricht.
Scheidel betont, dass er in seiner Arbeit ausschliesslich untersucht, inwieweit in der Geschichte der Menschheit Ungleichheit variierte und welches die Ursachen dieser Variationen waren. Es gehört sicher zum linken Glaubenskanon, dass eben diese Ungleichheit die entscheidende Ursache für die nivellierenden Katastrophen wie Krieg, Staatszusammenbruch oder Revolution waren. Scheidel betont, daß dies nicht sein Forschungsziel war und daß solche empirischen Studien seines Wissens auch nicht existieren. Überraschend, wenn man bedenkt, wie wichtig dieses Thema ist. Wer sich also für diesen Teil der Gleichung interessiert (i.e. Was sorgte dafür, daß in der Vergangenheit soziale Ungleichheit wirklich abgebaut wurde?), dem sei Walter Scheidels Buch “The Great Leveller” empfohlen.
]]>
Erstens, die enorme Arbeit, die solch eine Artikelserie erfordert. In keinem der Themen bin ich Experte und müsste natürlich enorm in die Literatur einsteigen, um den Lesern etwas mehr als eine dahingerotzte Meinung zu servieren (das gibts ja nun wahrlich genug im Internet). Zweitens, wurden und werden nunmal Distopien gerne von in die Jahren gekommenen Männern wie mir verfasst und man sollte sich schon sehr kritisch fragen, ob diese Extrapolationen noch wissenschaftlich basierte Ahnungen sind oder eher dem eigenen Verfall geschuldete Psychosen. Aber wie heißt es so schön: Nur weil ich Paranoiker bin, heißt das ja noch nicht, daß sie nicht hinter mir her sind.
Phubbing at its best. Nicht alles gezeigte ist bereits Norm, aber absolut Alles hat man schonmal gesehen. Etwa hier.
Keine Ahnung, ob dieser Einstieg dazu dienen kann, die Dies-und-Das Diskussion in Schwung zu bringen. Der letzte Thread liegt bereits bei 1500 Beiträgen und so mußte auf jeden Fall ein neuer her. Viel Spaß!
]]>Bild 1: CO2 Emissionen der letzten 60 Jahre und das, was in der Atmosphäre davon übrig bleibt: die airborne fraction.
In Bild 1 sieht man also den Anstieg der CO2 Emissionen in den letzten 40 Jahren und welcher Anteil dieser Emissionen in der Atmosphäre geblieben ist. Wir liegen momentan bei Emissionen von ca. 10 Gigatonnen C pro Jahre. Ungefähr die Hälfte (5 GTC die arborne fraction) bleibt davon in der Atmosphäre. Eine kleine Rechnung dazu: 5GTC entsprechen 5*(12+32)/12 GTCO2, i.e 18.3 GTCO2. Der globale Bodendruck beträgt ungefähr 1bar=1000 HPa auf einer Fläche der Erde von ca. 5*10^8 km2 bei einer Erdbeschleinigung vom 10m/s2. Somit kommen wir auf ein Gesamtgewicht der Atmosphäre von 5*10^18 k und schließlich auf einen Gewichtsanteil der 18.3 GTCO2 von 18.3/5*10^-6=3.66*10-6. Wir wollen aber Volumenanteile und nicht Gewichtsanteile, das heißt die 3.66 müssen noch mit dem Gewichtsverhältnis von Luft zu CO2 multipliziert werden, also 3.66*28,8/44*10-6=2,4 ppm; ; das ist ziemlich genau die Erhöhung, die wir momentan beobachten. Stimmt also alles. Eine exponentielle Beschleunigung in den atmosphärischen CO2 Konzentrationen ist offensichtlich zu sehen, wenn man Eiskern und Firndaten über die letzten 200 Jahre dazunimmt. Aber selbst über die letzten 50 Jahre betrachtet muss man von einer Beschleunigung der globalen CO2 Konzentrationen sprechen, wenn es auch deutliche Schwankungen gibt und die unterliegenden Prozesse kompliziert sind (siehe etwa hier bei Tamino auf openmind). Unabhängig von dieser empirischen Beschreibung des atmosphärischen CO2 bleibt es ein kleines Misterium, warum denn nun die airborne fraction schon seit mehr als einem Jahrhundert bei ca 0.6-0.5 stagniert. Allgemein geht man davon aus, daß die verschiedenen Kohlenstoffreservoire irgendwann sich der Sättigung der Sättigung nähern, allen voran die Ozeane (als ein Beispiel unter vielen siehe etwa hier). Trotzdem: bislang ist die airborne fraction weit entfernt von einem signifikanten Anstieg und man kann nicht von einer beginnenden Sättigung der Biosphäre/des Ozeans sprechen.
Bild 2: Atmosphärischer Methanverlauf der letzten 30 Jahre.
Umstritten sind auch die Gründe des exakten Verlaufs des zweitwichtigsten Treibhausgses, des Methans. Nach einem starkem Anstieg in den 90ern, einem Hiatus (endlich mal ein richtiger Hiatus!) von fast einer Dekade, sind wir jetzt mit 10ppb Anstieg per annum in den Jahren 2014/2015 wieder auf dem Niveau des Anfangs der Messungen. Da wir über Messungen von chemischen Folgeprodukten der Ozon getriebenen Zersetzung von Methan verfügen, kann man wohl ziemlich sicher sein, daß der entscheidende Faktor bei den in Bild 2 dargestellten Variationen die globalen Methan-Quellen und eben nicht die Senken sind. Wie hier auf Primaklima bereits einmal diskutiert, sehen einige Wissenschaftler insbesondere Methanquellen im Zusammenhang mit den enomen US-amerikanischen Frackingaktivitäten verantwortlich . Andere (mein Favorit) vermuten eher die Emissionen tropischer Feuchtgebiete als Ursache der Schwankungen. Zusammengefasst: es gibt in den empirischen Daten zu den aktuellen Treibhausgas-Konzentrationen keinen Anlass zu glauben, daß eine irgendwie unterirdische und quasi unsichtbare technische Revolution bereits vor sich gehen und das Problem der Treibhausgasemissionen lösen würde.
Bild 3: Einfache Hansensche Emissionsszenarien im Vergleich zu den offiziellen RCP Szenarien des IPCC.
Hansen macht nun etwas, was ich für Klimadiskussionen nun wirklich sehr hilfreich finde. Er reduziert die Komplexität der IPCC Annahmen und Modelle enorm, sodaß sie sich auf zwei/drei anschauliche Zahlen herunterkochen lassen. Zuerst einmal haben hier sicher die meisten schon gehört, daß der IPCC nicht mehr mit den uralten makroökonomischen Szenarien der 90er rechnet. Sie hatten so Namen wie A1B oder B2 beschrieben unterschiedliche Grade globaler Integration (da hat noch keiner beim IPCC an den Donald gedacht) und unterschiedlicher technologischer Entwicklungen (11.000 Kernkraftwerke bis 2100 in A1T). Mittlerweile gibt es die neuen RCP (Representative Concentration Pathway, siehe etwa hier) Szenarien, die natürlich ebenfalls gewisse makroökonomischen Annahmen machen müssen. Diese werden dann für das Ende des Szenariozeitraums anschaulich auf eine Zahl kondensiert, dem Treibhausgas-Strahlungsforcing im Jahre 2100: RCP8.5 entspricht also einem Emissionsverlauf, an dessem Ende satte 8.5 W/m2 extra den Planeten wärmen. Übrigens sind diese 8.5W/m2 natürlich nicht das energetische Ungleichgewicht, das Sateliten messen würden. Das beträgt lediglich etwas in der Größenordnung 0.6-1W/m2, da die sich erwärmende Erde natürlich auch stetig mehr abstrahlt. Was aber bedeutet so ein RCP8.5 anschaulich und wieviel würden sich denn die Emissionen in den verschiedenen Szenarios ändern?
Hansen macht nun etwas sehr Einfaches. Er findet Äquivalente für die ja immer noch komplizierten und unanschaulichen Szenarien (siehe Bild 3): +2% Treibhausgasemissionen jedes Jahr entspricht dem RCP8.5 und somit (wir erinnern uns) einem business as usual (BAU) Szenario; BAU eben weil der exponentielle Anstieg der Vergangenheit in der Zukunft weiter fortgesetzt wird. Entsprechendes gilt für Hansens spontanes Emissionseinfrieren (also alles bleibt von heute auf morgen auf dem Niveau von 2015), welches irgendwo zwischen RCP6 und RCP4.5 liegt, und den beiden Szenarios, bei denen die Emissionen mehr oder minder drastisch eingeschränkt werden (-3% und -6% Emissionen pro Jahr), die beiden nahe dem RCP2.6 Szenario landen (siehe Bild 3).
Bei welchen atmosphärischen CO2 Werten landet man dann also im Jahre 2100? Hansen nimmt das einfache und gut getestete Berner Kohlenstoffmodell. Sein +2% per annum Emissions-Szenario endet z.B. bei katastrophalen 864 ppm im Jahr 2100, so keine Extraktionsmechanismen in Anschlag gebracht werden (dazu zum Schluss mehr). Nicht daß ich diese Möglichkeit von CO2 Werten über 800ppm im Jahre 2100 für sonderlich wahrscheinlich gehalten hätte oder nachwievor halte, aber das ist mittlerweile eine Ewigkeit her. Jetzt leben wir in der vierten Woche post Trump und man muss sagen: Alles ist möglich. Aber selbst ein -6% per Annum Szenario bewegt sich noch das gesamte 21te Jahrhundert um 400 ppm herum (und somit annähernd auf Eem Kurs).
Bild 4: Temperaturverlauf bis 2100 berechnet mit den verschiedenen Emissionszenarien und einfachen Impulse-Response Funktionen.
Wie kann man jetzt diese einfachen Szenarien auf plausible Temperaturverläufe projizieren, ohne das volle Arsenal der IPCC Klimamodellle in Anschlag zu bringen? Eine sehr beliebte Antwort auf solche Fragen sind sogenannte Greens- oder Impulse-Response Funktionen. Dazu führt man eine Faltung (im Wesentlichen: erst Multiplizieren, dann Integrieren) der Klimasensitivität, einer prozentualen Klimagleichgewichtsfunktion, die man etwa von GCMs genommen oder sich sonstwie überlegt hat, und den jeweiligen Forcing-Szenarien, wie sie in Bild 3 zu sehen sind, durch. Die Klimagleichgewichtsfunktionen geben für die unterschiedlichen Zeitskalen (von 1 bis 100 Jahre) an, wie sehr das Klima bereits ins Gleichgewicht mit einer Strahlungsstörung gekommen ist. Beispielsweise ist also das Klima nach 100 Jahren zu etwa 75% mit einer Störung wie dem jetzigen Anstieg der Treibhaugase im Gleichgewicht. 25% wäre auch nach 100 Jahren noch “in der pipeline”, also im Ozean gespeichert und daher sozusagen “noch nicht spürbar”. Wieder ist das Interessante an dieser Beschreibung des Klimas und seiner Reaktion auf unterschiedliche Strahlungsforcings, wie unglaublich einfach diese Beschreibung ist und wie schnell sie auf jedem PC durchintegriert werden können.
Hansen berechnet seine vier Scenarien (+2%, konstant, -3%, -6% Emissionen) und kombiniert sie obendrein mit der Möglichkeit, relevante Mengen CO2 wieder aus der Atmosphäre zu extrahieren. Bild 4 zeigt, (1) daß ohne solche Extraktionsstrategien der globale Temperaturverlauf das gesamte 21te Jahrhundert oberhalb des Holozänen Optimums bleiben wird, (2) daß ein BAU Szenario (also +2% Emissionen jährlich) uns jenseits der Spezie Homo bekannten Temperaturbereiche führen sollte, (3) daß aber selbst ein instantanes Einfrieren der Emissionen auf dem aktuellen Stand uns noch über das Eem hinausführen wird.
Aus dieser Paläo-Perspektive brauchen wir also darüber hinaus Techniken, das bereits emittierte CO2 wieder aus der Atmosphäre zu bekommen. Um etwa im Jahr 2100 im Temperaturbereich des Holozänsv erbleiben zu können, müsste beim -6% Szenario immerhin noch 72ppm, beim BAU Szenario (+2%) gar gewaltige und utopische 768ppm extrahiert werden.
Hansen zitiert dann noch die letzten Abschätzungen, wieviel man denn realistischer Weise mit den verschiedenen Extraktionsethoden so herausholen könnte. Insbesondere Wiederaufforstungsmaßnahmen und ackerbauliche Techniken, die gleichzeitig die Böden verbessern UND ihren Kohlenstoffgehalt dabei erhöhen, sollen zusammen und global angewandt auf immerhin 100 GTC bis 2100 kommen. Allerdings ist eine Krux mit all diesen agrotechnischen Maßnahmen, daß sie meist zu Beginn gut funktionieren, man aber bald in eine Sättigung läuft, in der weit weniger Kohlenstoff extrahiert werden kann: Alte Bäume binden, selbst wenn sie weiter wachsen, immer weniger Kohlenstoff. Um dann trotzdem noch irgendwie Kohlenstoff in die Biosphäre zu pumpen, wurden daher schon solch großtechnischen Maßnahmen vorgeschlagen, die einmal rangewachsenen Wälder wieder in Holzkohle zu verwandeln, welche dann irgendwie verklappt und von der Atmosphäre ferngehalten wird. So würde man permanent anpflanzen, nachwachsen lassen, in Holzkohle verwandeln und diese dann aus dem System rausnehmen. Und das alles auf globaler Skala. An dieser Stelle überschreitet man dann die Schwelle zu den echten Geoengineering-Maßnahmen (also nicht nur ein bisschen Nachforsten und so). Eine etwa schlägt den globalen Austrag (also praktisch auf die gesamte globale Ackerbaufläche) von zermahlenem Silikat vor, um so die Verwitterung von Böden zu stimulieren und pro Jahr beachtliche 2-5GTC aus der Atmosphäre in den Ozean zu pumpen. So unsicher wie die möglichen Sekundärfolgen solcher Maßnahmen sind die veranschlagten Kosten: Irgendwo zwischen 200$ pro Tonne C und 3700$/tC schwanken die Kosten. Ich verliere mich an dieser Stelle ein wenig in den Zahlen: Wir sprechen also von einer Gesamtsumme von vielen Trillionen Dollar. Mich hat bei all dem überrascht, wie wenig aktuelle Machbarkeitsstudien es zu diesem Thema zu geben scheint. Hansen zitiert insbesondere aus einem Standardpaper von 2006.
Ich fasse mal meine Erkenntnisse so für mich zusammen: 1) Wenn man die Temperatur des Planeten wirklich in einem Holozän-ähnlichen Bereich (+1.5C) hätte halten wollen, ist es mittlerweile wahrscheinlich zu spät dafür. Selbst bei einer drastischen Reduktion der Emissionen müssten obendrein teilweise SciFi-ähnliche Geoengineering-Maßnahmen dazugepackt werden. Vielleicht fehlt einem alten Mann einfach nur die Phantasie, aber ich kann mir momentan weder das Eine noch das Andere so recht vorstellen. 2) Das eigentlich Nette an Hansens Paper ist seine stringente Einfachheit. Alle Annahmen werden auf einfache Zahlen heruntergekocht (Klimasensitivität, Emissionsszenarien) und dann in sehr plausiblen, nicht-linearen Modellen benutzt, die trotz ihrer Einfachheit den Stand des IPCC 2017 widerspiegeln. Ich hatte spontan die Idee eine App zu entwickeln, die jedem und jeder erlauben würde, mögliche Emissionsreduktionen seines Landes/seiner Region auf das globale Kohlenstoffniveau und den entsprechenden Temperaturverlauf bis 2100 (mit den entsprechenden Unsicherheiten natürlich) zu projizieren. Als Klimawissenschaftler geht es mir ja bekanntlich nur ums Geld, und ich träumte bereits meine App, gekauft von allen Schulen und Klimaunterhändlern der Welt, auf einer Höhe mit Facebook, Tinder und Whatsapp. Aber wie immer wenn ich mal eine gute Idee habe, hatte sie leider schon jemand anderes vorher. Hier kann man etwas ähnliches von Fortunat Joos (Universität Bern) finden, runterladen und bei sich in der Küche dann die Zukunft des Planeten berechnen. Viel Spass dabei!
]]>
Einige Hansen Artikel mischen sprachlich immer Werturteile und Politik in den eigentlichen wissenschaftlichen Kern, was mich selbst meist etwas nervte. Einige seiner Arbeiten haben aber andererseits den Vorteil, eine deutlich klarere und direktere Zusammenfassung des Wissenstands beim Klima zu liefern, als es das der IPCC in seiner tausendmal abgewogenen Sprache je könnte. Können wir das eigentlich noch mit den CO2 Emissionen schaffen, so dass wir unterhalb des 2C Ziels bleiben? Da muss man die 1500 Seiten des IPCC schon sehr aufmerksam lesen, um auf solche und ähnliche einfache Fragen zum Klimawandel eine Antwort zu finden.
In seinem letzten Paper “Young people’s Burden: Requirement of Negative CO2 Emissions” fasst er nochmal alles zusammen, was wir zum Thema Emissionen und globaler Temperaturentwicklung momentan wissen. Das Paper ist momentan in Review in Earth-System Dynamics. Der etwas eigenartige Titel rührt daher, dass es momentan eine Sammelklage von einer Gruppe von Kindern bzw. Jugendlichen im Alter von 8 bis 19 Jahren gegen die US Regierung gibt, an der sich eben auch James Hansens Enkeltochter, Sophie Kivlehan, beteiligt. Wer wie ich schon lange im Geschäft ist, kennt Sophie von diversen Vorträgen von James Hansen. Sie tauchte meist als Diaporama entweder in Windeln oder beim Spielen im Garten vor und diente dazu Hansens Motivation zu unterstreichen: “Ich kämpfe hier für zukünftige Generationen!”. Mittlerweile ist Sophie aus den Windeln raus und verklagt die US Regierung, weil sie nichts gegen den Klimawandel unternimmt und somit ihrer Generation Zukunft gefährde. Anscheinend haben sich an die Klage auch gleich ein paar Ölkonzerne, natürlich auf der anderen Seite, herangehangen. Wer versteht schon amerikanisches Recht! Opa James Hansen hat dann flugs ein auf die Anklageschrift zugeschnittenes Gutachten-Paper verfasst. Aus diesem Paper stelle ich hier ein paar Ergebnisse vor.
Seit den frühen 70er Jahren beträgt die Erwärmungsrate der Erde etwa 0.2C pro Dekade. Emissionen steigen seit dieser Zeit beschleunigt um etwa 2.5% pro Jahr an. Wohlgemerkt ist das die Beschleunigung (da ja angegeben in % des Vorjahreswerts) und nicht etwa ein stetiger Anstieg. Allerdings gab es in den letzten Jahren Meldungen, dass es eine zunehmende Entkopplung von Emissionen und Wirtschaftswachstum gäbe. Seit fast drei Jahren stagnieren wir trotz an sich ganz ordentlichen globalen Wirtschaftswachstums bei ca. 35 GTCO2 (oder 9.7 GTC), was natürlich zu Hoffnungen Anlass gibt. Hoffnung hin, Panik her: Nehmen wir also mal an, der Anstieg des CO2s war bislang exponentiell und würde es auch noch länger bleiben, dann würde man also ungefähr einen linearen Temperaturanstieg erwarten; durch die zunehmende Sättigung des Strahlungseffekts des CO2s vermindert sich eben dieser Effekt und folgt einem logarithmischen Anstieg. Na und exponentiell kombiniert mit logarithmisch ergibt eben linear.
In der Realität ist es natürlich weit komplizierter. Es gibt unzahlige Nicht-Linearitäten im Klimasystem und es gibt sicher auch Hoffnung, daß der CO2 Anstieg nicht einfach genau so weitergehen wird. Trotzdem – am Ende des Tages stiegen die globalen Temperaturen seit den 70ern des letzten Jhd. ziemlich linear und stetig mit ca. 0.18C pro Dekade an. Somit liegen wir momentan bei einer globalen Erwärmung von +1.1C relativ zu 1880-1920 und werden, geht denn alles so weiter, im Jahre 2040 die +1.5C und im Jahre 2060 die +2C Marke überschreiten. Letztere (also +2C Erwärmung) war verschiedentlich als diejenige Erwärmung bezeichnet worden, die man noch so eben als verwaltbar durch den Menschen bezeichnen könnte. In verschiedenen internationalen Verhandlungsrunden wurde daher sie auch als Basis zur Berechnung der noch erlaubten globalen CO2 Menge benutzt, die dann auf dem Verhandlungsweg an die verschiedenen Länder verteilt werden sollte.
Bild 1: Vergleich der Temperaturen der letzten Dekaden mit dem Temperaturverlauf im Holozän einerseits und der vorletzten Warmzeit, dem Eem, andererseits.
Hansen hat daran große Zweifel. Er vergleicht in Bild 1 das Temperaturniveau der letzten Jahre mit dem des holozänen Optimums (HO, irgendwann zwischen 9ka und 6ka vor heute) und den Temperaturabschätzungen für die vorletzte Warmzeit, dem sogenannten Eem (115ka vor heute). Zum Vergleich mit dem HO ist zu sagen, daß im Bild zwei verschiedenen Zeitskalen vermischt werden. Die Holozänkurve ist über 100 Jahresabschnitte gemittelt, die aktuellen Temperaturen aber nur über eine Dekade. Da ist also statistisch viel Raum, daß nicht nur einzelne Jahre, sondern mehrere Dekaden im HO noch wärmer waren als die letzten Jahre des 21 Jhd. Trotzdem kann man sagen, daß wir das Temperaturniveau des Holozäns soeben überschritten haben. Wie weit sind wir noch vom Eem entfernt? Die drei Datensätze kommen zu unterschiedlichen Ergebnissen. Während die kühlere Variante auf SST (sea surface temperatures) Paläodaten beruht, die das Eem etwa bei +1C relativ zum Holozän sehen, liegen die beiden wärmeren Studien bei +1.5-2C. Zur Erläuterungvon Bild 1: Die SST Daten müssen auf den Globus hochgerechnet werden, wobei man mit einem globalen Faktor den Unterschied de Temperaturen auf Land und im Ozean berücksichtigt. So kommt Hansen mit dem Punkt “Mc” bei 0.7C in Bild 1 auf einen Wert von mehr als 1C global. Die beiden anderen Studien (“CH” und “TJ”) synchronisierten ihre Temperaturreihen dadurch, daß sie den jeweil wärmsten Punkt der jeweiligen Temperaturreihen eben als Eem bezeichneten. Von unserem von den Einstrahlungsbedingungen vergleichbaren Holozänen Optimum wissen wir aber, daß diese Annahme nicht korrekt ist. Die wärmsten Epochen in verschiedenen Regionen während der vergangenen Warmphasen liegen wahrscheinlich über mehrere 100 Jahren verteilt (so spricht man vom Holozänen Optimum von 9ka-6ka). Dieser Synchromisationsbiaskönnte sich über den Planeten zu mehreren 0.1C aufaddieren und so vermutet Hansen das Eem dann auch irgendwo zwischen +1.C und +1.5C. Das aber würde bedeuten, daß wir genau jetzt in Eem Bedingungen eintreten würden. So wäre es also allerallerhöchste Zeit die Treibhausgasemissionen runterzufahren und womöglich zu kompensieren (negative Emissionen), wenn man verhindern will, dass neben den Temperaturen des Eem nun auch alle Klimasubkomponenten sich auf diese Temperaturen einstellen, in aller erster Linie der Meeresspiegel, der, wie erwähnt im Eem immerin 6-7 Meter höher lag. Welche Emissionsreduktionen oder gar negative Emissionen Hansen nun vorschlägt, werde ich im zweiten Teil beschreiben.
PS Ich habe leider eine traurige Geschichte von “zweiten Teilen” meiner Postings hier im Blog aufzuweisen (heißt, sie sind dann nie erschienen). Diesmal habe ich also lieber gleich den zweiten Teil mitverfasst, und es kann nichts passieren!
]]>
Die Editoren des neuen Journals können hier kontaktiert werden.
Ansonsten wünsche ich allen eine möglichst anregende, weitere Diskussion in diesem offenen Thread. Lets make the climate great again.
]]>Wir sind in erschreckender Weise nicht auf das 21te Jahrhundert vorbereitet: intellektuell, politisch, emotional, institutionell. Trump ist sicher ein Protofaschist, wie es nach dem zweiten Weltkrieg noch keiner in einer westlichen Demokratie an die Macht geschafft hat und bei dem einzig sein maßloser und grotesker Narzissmus Hoffnung gibt, dass er eben nicht tun wird, was er angekündigt hat. Aber das hat man von Hitler schliesslich auch mal gesagt. Dass Fakten Trump nicht aufhalten werden, steht jetzt schon fest: Der Klimawandel, um mal beim Thema dieses Blogs zu bleiben, sei eine Erfindung der Chinesen, um den Amerikaner die Jobs zu stehlen, so sagte er. Was soll man da noch Strahlungstransportgleichungen lösen?
Als größere und fundamentale Krise der Demokratie verstanden, zeigen sich im Aufstieg von Trump und Seinesgleichen Tendenzen und Probleme, wie sie für mich besonders anschaulich in David van Reybroucks “Gegen Wahlen” beschrieben sind. Das Buch möchte ich an dieser Stelle als kleines Antidot gegen eventuelle Wahlnachtsschmerzen ausdrücklich empfehlen. Es beschreibt nicht nur, welche Prozesse die Demokratie systematisch annagen, sondern macht auch interessante Vorschläge, wie man eventuell die jetzigen Erosionsprozessen aufhalten kann. Zur Herstellung von Legitimität der politischen Macht und zur Erreichung von Effektivität der politischen Akteure, beide notwendig um die Demokratie am Leben zu erhalten, schlägt van Reybrouck eine Weiterentwicklung der repräsentativen Demokratie vor. Statt also langer Trauerarbeit wegen der gestrigen Trumpwahl schlage ich die Lektüre von “Gegen Wahlen” vor und natürlich das eifrige Diskutieren hier im neuen “Dies und Das”.
]]>
Hier ist übrigens der gesamte de Waals Vortrag.
]]>The World’s Deadliest AnimalWhat’s the deadliest animal in the world? The answer may just surprise you.
Posted by GOOD on Monday, March 21, 2016
Hinzu kommt die große menschliche Gabe des Vergessens. Wer erinnert sich eigentlich noch an den RAF, IRA oder ETA Terror der 70/80er Jahre? Ich selbst habe durchaus das Gefühl, Europa wird gerade von einer nie dagewesenen Terrorwelle überschwemmt. Doch weit gefehlt. Selten war es hinsichtlich der Terrorgefahr so ruhig, wie in der letzten Dekade. Über Facebook wurde mir gerade die hier eingestellte Statistik der Huffington Post zugespült (siehe auch hier ). Gerade die Opferzahlen vor 40 Jahren in England und Spanien scheinen einem fast unglaublich, vergleicht man sie mit seiner inneren Reaktion auf die Ereignisse der letzten Jahre.
Ich habe keine Ahnung, ob wir unbedingt in einer besseren Welt leben würden, wenn wir jedes der Risiken, die uns umgeben, in exakt den Relationen wahrnehmen würden, die uns die Statistiken und die Wissenschaft vorgibt. Aber ich habe doch das Gefühl, dass es momentan so verdreht ist, dass das Risikogefühl, i.e. die an sich doch nützliche Angst, einem eher im Weg steht, halbwegs richtige Entscheidungen zu treffen.
]]>Ich bin also gewiss kein glühender Anhänger der Kernkraft, bedaure aber, dass meines Erachtens ohne Not Europa sich einer möglichen Technik entledigt hat, die doch genauso noch Entwicklungsmöglichkeiten hinsichtich Effizienz und Sicherheit hat wie etwa die bislang noch so teure Photovoltaik. Jede Technik hat ihre Risiken und die Kernkraft schliesst bei einem Vergleich nachwievor, also trotz Tschernobyl und Fukushima, ziemlich gut ab (siehe etwa hier Seite 35 Der Report ist allerdings vor Fukushima erstellt). Das ist es aber auch schon. Eine Option weniger, Schwamm drüber.
Hier geht es mir eigentlich nur zum wiederholten Male (siehe meine Beiträge von damals 2011 hier) darum, auf die völlig meschugge Berichterstattung zum Tohuko Beben und nachfolgendem Tsunami in Deutschland hinzuweisen, zu einer Berichterstattung, die wohl selbst nicht mehr weiss, was der Unterschied zwischen einem Reaktorunfall und einem Seebeben ist und wie die beiden kausal zusammenhängen. Ungefähr 19000 Menschen kamen bei den vom Tsunami verursachten Überschwemmungen ums Leben und ganze Landstriche wurden verwüstet. Nach allen nur erdenkbaren Kriterien handelte es sich um eine der größten Naturkatastrophen im noch jungen Millenium. Hier ist aber was ich über Google zum traurigen Jubiläum (11.3) von Tohuko bei Spiegel.online und sueddeutsche an Artikeln in der letzten Woche gefunden habe, und zwar mit den Suchwörtern “Tsunami Japan”. Die Antwort ist: es handelte sich in Wirklichkeit um eine Nuklearkatastrophe. Oder noch klarer: Tsunami+Japan=Fukushima^3
Wie informierte Leser sicher wissen, ist in Fukushima ein Arbeiter in direkter Folge des Tsunamis ertrunken. Mehrere Arbeiter wurden während der Aufräum- und Sicherungsarbeiten sehr hohen Dosen (mehrere 100 mSv) ausgesetzt. Von diesen ist bislang, soweit ich das ergoogeln konnte, einer an Leukämie erkrankt, drei weitere an nicht näher genannten Krankheiten, die mit der radioaktiven Strahlung, der sie ausgesetzt waren, im Zusammenhang stehen könnten. Wiki meldet bei der Gesamtzahl der Opfer von Fukushima ca. 600 Fälle, die mit der Evakuierung der Zone um den Reaktor zu tun haben. Insbesondere sind unter den über 100.000 Evakuierten erhöhte Selbstmordraten zu verzeichnen, wobei ich nicht weiss, wie es denn den Personen ergangen ist, die in den übrigen zerstörten Gebieten ebenfalls ihr Haus und Heimat verloren haben.
Allerdings ging vor einiger Zeit die Information um, die Schilddrüsenkrebsraten seien in der letzten Zeit rund um Fukushima stark angestiegen (600 Fälle in einer Millionen statt der normalen 2-3). Gibt es also doch schon erste Zeichen massiver gesundheitlicher Schäden? Wie hier in Science oder auch hier Sarah Fellon zeigen, sind die erhöhten Raten zu allererst Mal die Folge des enormen prophyaktischen Aufwands, den die japanische Regierung in der Gegend um Fukushima betreibt. Die neuesten, fancy Ultraschallmessungen wurden vorgefahren und in ungewöhnlich häufigen Prophylaxemessungen genutzt. Es stellte sich heraus, daß, nutzt man diese Apparate in gleicher Häufigkeit im restlichen, “nicht-kontaminierten” Japan, man irgendwo zwischen 300 bis 1300 pro Millionen verdächtiger Fälle landet, mal ein bisschen weniger, mal sogar mehr als in Fukushima. Je mehr man also detailliert und mit bester Technik nachschaut, umso mehr Tumore aller Art findet man. Ein grundsätzliches Dilemma der Vorsorgemedizin. Angesichts all dessen ist es natürlich schwer, Schlussfolgerungen für die Region um Fukushima zu ziehen.
Für die wirklich langfristigen Konsequenzen (Krebsbildung in zwischen 5 und 20 Jahren auf globaler Skala) benutzen die Nuklearmediziner das sogenannte LNT Modell, was im wesentlichen von den Fällen intensiver und gut bekannter Strahlungsbelastung und deren Folgen auf die Fälle sehr niedriger Dosen extrapoliert. Sie kommen damit in den Dekaden nach Fukushima auf eine Zahl von zusätlichen 15-1100 tödlichen Krebserkrankungen (also nicht 1500, sondern tatsächlich fünfzehn). Offensichtlich eine Zahl, die mit großen Unsicherheiten behaftet ist und weder für den Minimal- noch für den Maximalfall irgendwie im Rauschen von Millionen Krebserkrankungen jährlich direkt nachzuweisen ist.
Die führende, britische Strahlenmedizinerin Geraldine Thomas setzt sich daher mittlerweile vehement für eine Rückkehr der meisten Menschen in ihre Häuser ein. Sie schätzt die Folgen der erhöhten Strahlung in fast unmittelbarer Nähe des Unfallorts geringer ein als die psychologischen Folgen der Zwangsumsiedlung insbesondere der älteren Einwohner der geräumten Zone.
“The radiation has not been the disaster. It’s our response to the radiation, our fear that we’ve projected on to others, to say this is really dangerous. It isn’t really dangerous and there are plenty of places in the world where you would live with background radiation of at least this level.”
Vor dem ehemaligen Haus einer der Betroffenen kommt sie auf eine jährliche Belastung von 13 millisieverts. Pro Jahr! Zum Vergleich, die Jahreshöchstdosis eines Kernkraftwerksangestellten ca. 20 mSv, einige Stellen in Cornwall kommen auf 8 mSv und (das darf ja nie fehlen) die Belastung im Weltrekordhalter Ramsar (Iran) beträgt 250 mSv.
Es sollte aber eigentlich um die deutsche Gedenktagberichterstattung gehen, ein Trauerspiel an Betroffenheitslyrik, die sich insbesondere dadurch auszeichnet, dass absolut jeder zum Thema etwas sagen darf, nur um Gottes Willen kein Wissenschaftler.
Violetta Simon (deutsche und italienische Literaturwissenschaften + Werbepsychologie) vergleicht in Bildern das Vor- und Nachher um Fukushima herum. “Heute, fünf Jahre nach der Nuklearkatastrophe, fällt die Bilanz ernüchternd aus, der Wiederaufbau in der Region kommt nur langsam voran. Was sich inzwischen verändert hat – und wie weit die Menschen von einem normalen Leben entfernt sind, zeigen diese Aufnahmen.” Das stimmt schon, mit dem Reaktorunfall haben die Bilder aber rein gar nichts zu tun (nur ein einziger Ort liegt überhaupt am Rande der Sperrzone). Sie zeigen ausnahmslos das Vor- und Nachher eines zerstörerischen Tsunamis. Ach egal, nuklear, irgendwie.
Wieland Wagner (Geschichte, Germanistik und irgendwas mit Asien) berichtet etwa in Spiegel Online , wie es Nakaoke aus Tokyo ergangen ist. Sie ist aus Tokyo, rund 400 km südlich von Fukushima, nach Kyoto geflohen. Seit der Kraftwerkskatastrophe seien ja auch in Tokyo die Strahlungswerte gestiegen und seit dieser Zeit leide Sie und ihre Familie an Schwindel, Kopfschmerzen, Erbrechen. Dies sind erstaunlicherweise alles Symptome der akuten Strahlenkrankheit, wie sie etwa bei einer Bestrahlung ab 1 Sv auftreten. Kam es zu solchen Werten in Tokyo? Ich zeigte etwa hier Werte von einer Station nahe Tokyo (Riken Institute), die damals in den Tagen des Reaktorunfalls auf Spitzenwerte von 0.1 muSv/h kam. Bliebe es also das ganze Jahr bei diesem damaligen Spitzenwert käme man auf 0.7 mSv/yr in Tokyo, was allerdings deutlich unter der natürlichen, typisch kontinentalen Hintergrundstrahlung von 2-3mSv/yr liegt. Kein Wunder, denn Tokyo liegt am Meer. Ich will mich nicht im Mindesten über Nakaoke lustig machen und habe keinerlei Grund an ihren Angaben zu zweifeln. Daß die Krankheitssymptome der jungen Frau, die jetzt in einer Ausbildung zur Mangazeichnerin (?) steht, irgendetwas mit erhöhter Strahlung in Tokyo zu tun haben, das allerdings halte ich für sehr unwahrscheinlich. Eher möglich ist es wohl, daß die Berichterstattung über Fukushima ein weiteres Opfer gefunden hat.
Wie gesagt, es gibt gute Gründe gegen Kernenergie zu sein. Ich bin angesichts der erheblichen Risiken anderer Formen der Energiegewinnung, insbesondere CO2 Emissionen durch jede Form fossiler Verbrennung, eben dafür, sie nicht aufzugeben. Alles ganz normal in einer demokratischen Gesellschaft, mit deren Entscheidung gegen jede weitere Nutzung von Kernkraft ich gut leben kann. Die eigenartige Qualität der Berichterstattung zum Thema in den führenden deutschen Medien ist allerdings besorgniserregend. Es ist wohl kein Zufall, daß die Artikel, die ich gefunden habe und die auch mal Wissenschaftler zu Wort kommen lassen oder gar wissenschaftliche Artikel zitieren, durch die Bank aus dem Ausland stammen.
]]>
Aber das heisst ja nun bei Gott nicht, dass man es nicht wirklich und wahrhaftig mal versuchen sollte. Irgendwann bringt ja Sisyphus vielleicht doch den Stein bis nach oben. Das folgende Video ist also aus offensichtlichen Gründen dem Leo gewidmet, der gestern Nacht dann auch noch den Klimawandel zur Oscar-Verleihung brachte.
With a little help from my friends!
]]>
Bild 1: Dumme “Würmer” meandern ziellos umher und grasen einfach nur auf der mikrobiotschen Suppe des Ediacaran (aus Carbone and Narbonne et al.2014).
In Nature dieser Woche erschien ein sehr lesenswerter Artikel von Douglas Fox zur sogenannten Cambrian Explosion. Was ist das? Das Proterozoicum umfasst die Zeit von etwa einer Milliarde Jahren bis ca. 550 Millionen Jahren vor heute. Es war, so glauben die meisten Geologen heute, charakterisiert durch eine Abfolge von praktisch vollständigen Vereisungen und nachfolgenden abrupten Enteisungen der Erde (“snowball earth”). Das Leben bestand aus einer Art Riesenpetrischale am Boden der Ozeane, deren Substrat aus Microorganismen von einer riesigen Zahl von Kleinstlebewesen im Schneckentempo gemütlich abgeerntet wurde. Alles sehr friedlich und ohne viel Stress. Doch in wenigen Millionen Jahren tauchten plötzlich Beine, Proto-Augen und Körperschalen auf, alles Dinge, die man braucht, wenn man andere fressen will, und die zu Fressenden dann meinen, weglaufen und sich schützen zu müssen. Die Kambrische Explosion beschreibt also den wahrscheinlich größten Sprung, den die Evolution auf unserem Planeten je gemacht hat. Der Beginn eines evolutiven Wettrüstens, in dem das Bessere stets der Feind des Guten ist. Was ist also da genau geschehen vor 550 Millionen Jahren?
Bild 2: Kaum im Kambrium angekommen, schlägt das Gewürm auf einmal Haken, geht sich aus dem Weg oder jagt gar hintereinander her (aus Carbone and Narbonne et al.2014).
Einer der Hauptverdächtigen ist Sauerstoff. Erst durch Sauerstoff wird das Zersetzen organischer Materie (i.e. Fressen) ein echter energetischer Gewinn. Alle anaeroben Formen der Zersetzung, etwa durch Schwefel- oder Eisenverbindungen kommen nicht im Mindesten an die des Sauerstoffs heran. Jäger zu werden wird erst durch Sauerstoff eine profitable Option. Die Sauerstoffhypothese besagt nun gerade, dass zur Zeit des Eintritts ins Kambrium der Sauerstoffgehalt der Atmosphäre und dann auch des Ozeans von weniger as 0.5% auf deutlich über 3% Anstieg. Plötzlich wurde es sehr interessant sich andere einzuverleiben und natürlich, sich darum zu bemühen, genau das zu verhindern. Lebewesen fingen unter beachtlichen evolutiven Kosten an, Schalen zu bauen und in die richtige Richtung (i.e. weg vom Räuber) wegzulaufen. Woher soll man aber wissen, wohin ein “Wurm” (das ist hier kein biologischer Ausdruck, sondern nur ein optischer Eindruck) vor 550 Millionen Jahren hingelaufen ist? Nun, dafür hat man Menschen wie Guy Narbonne und Cala Carbone, die sich fossilierte Spuren von diesem Gewürm angeschaut haben. Sie kamen zu dem Schluss, daß in prekambrischen Schichten, das Leben durch beliebiges Herumeiern und Grasen der mikrobiotischen Schicht bestimmt war, während kaum im Kambrium angekommen die Spuren deutlich komplexer und dreidimensionaler werden. Das Gekreuch geht sich aus dem Weg, schlägt Haken, wechselt zu einer anderen Ebene und scheint also auch das nötige Sensorium zu haben, um so etwas zu tun (also aus dem Weg gehen oder eben bessere Nahrung suchen). So eine Analyse ist ja an sich schon faszinierend, aber ich fasse nochmal zusammen, um das ganze Bild vor Augen zu haben: Spuren in 550 Millionen Jahren alten ehemaligen Seesedimenten, die für mich nur wie zufälliges Gekrumsel aussehen, belegen, daß das Leben zu diesem Zeitpunkt deutlich komplexer geworden ist, daß ein ausgeprägteres Jäger/Beute Verhalten auftaucht und daß dies möglicherweise mit einem gleichzeitigen Anstieg der extrem “verdauungsfördernden” Sauerstoffkonzentrationen im Zusammenhang stehen. Wenn das nicht geile Wissenschaft ist, was ist es dann?
PS Ich will bei dieser Gelegenheit auch auf ein phantastisches Buch aufmerksam machen: Nick Lanes “Oxygen, the molecule that made the world”. Ein Parforceritt durch Geologie, Biologie und Medizin, der auf die Schlüsselrolle dieses Moleküls für das Leben auf unserem Planeten hinweist. Es beginnt im Archaikum und endet bei der Rolle von Diabetes für unsere Gesundheit. Für mich ist das Buch gerade deshalb so stark, weil viele Ideen noch nicht ganz belegt, vielleicht sogar falsch sind. Da versucht ein Wissenschaftsjournalist auf ganz hohem Niveau und richtig spannend Hypothesen rund um den Sauerstoff nachzugehen und nicht einfach nur gestandenes Wissen “verständlich” aufzubereiten. Nichts gegen das “verständliche Aufbereiten”, aber Lanes “Oxygen” geht deutlich einen Schritt weiter. Lesebefehl!
]]>Mich hat das aber auch noch an eine Stelle in Roger Penrose “The emperors new mind” erinnert, in dem er die berühmte Szene beschreibt, in der Henri Poincare beim Besteigen eines Busses eine Idee hatte.
At the moment when I put my foot on the step the idea came to me, without anything in my former thoughts seeming to have paved the way for it, that the transformation that I had used to define the Fuchsian functions were identical with those of non-euclidean geometry.
Nun, wer jetzt nicht an nicht-euklidischer Geometrie bastelt, aber trotzdem so einen hoch nicht-linearen Sprung in seinem Gehirn spüren möchte, der kann sich ja so ein Rad besorgen.
]]>Abbildung 1: Atmosphärische Methankonzentration auf Mauna Loa, welche in etwa den Nordhemisphärischen Werten entsprechen dürften.
Am Ende des Tages pumpt man immerhin eine Mischung von Chemikalien und heißem Wasser ins Erdreich, um das Gas irgendwie aus dem Boden zu lösen. So ganz gesund hört sich das auch nicht an. Gas aber wird an sich gerade in der anvisierten Energiewende benötigt. Es soll den Übergang von einer reinen atomar-fossilen Energieversorgung in die regenerative Zukunft ebnen. Gerade wenn von gestern auf jetzt die Windräder stillstehen, sollen die schnell anspringenden, kleinen Gaskraftwerke Energielücken schliessen. Also besser in den sauren Frackingapfel beißen. Das bisschen Beben…
Eine neue Studie zu den Methanemissionen der Vereinigten Staaten fügt der Liste der Vor- und Nachteile des Fracking eventuell noch einen weiteren Punkt hinzu. Methan ist ein klimaaktives Gas, dessen Wichtigkeit in IPCC Berichten meist mit einem Faktor von ca.20 gegenüber dem CO2 angegeben wird. Dieses viel grössere sogenannte “global warming potential” (GWP) liegt in erster Linie daran, daß Methan in weit geringeren Absolutkonzentrationen (~2000ppb statt der 400 ppm des CO2) in der Atmosphäre vorliegt und somit seine absorbierenden Infrarot-Banden, die ja entscheidend für den Treibhauseffekt eines Gases sind, weitestgehend ungesättigt sind. Betrachtet man statt der atmosphärischen Konzentrationen die Quellen und Senken eines Treibhausgases kommen einige sogar auf ein GWP des Methans von 30-40! In jedem Fall trägt das Methan momentan mit ca 1W/m2 radiativem Forcing zu ungefähr einem Drittel zum erhöhten Treibhausgaseffekt und somit zur aktuellen Erwärmung bei. Umso beunruhigender ist es, dass die komplizierte OH-Chemie des Methans (seine natürliche Senke) und seine vielen natürlichen und anthropogenen Quellen nicht völlig verstanden sind. Entgegen Annahmen, die auch in die älteren IPCC Berichte eingingen, stoppte das Methan seinen atmosphärischen Anstieg in den 90ern und startete erst in der Mitte der 2000er wieder durch. Ursache für diese Schwankungen ist vermutlich eine Reduktion und dann erneuter Anstieg anthropogener Quellen (siehe hier). Aber welche genau?
Abbildung 2: GOSAT Methantrends (über die gesamte atmosphärische Säule) in % Anstieg pro Jahr. GOSAT misst seit 2010. Der Anstieg ist relativ zum Nordpazifischen “Background”. Die Punkte markieren statistisch signifikante Trends.
Mittlerweile gibt es mehrere satellitengestützte Beobachtungssysteme, die zwar nicht die Präzision wie laborgestütze, in-situ Messungen von Methankonzentrationen haben, aber durch ihre hohe zeitliche Auflösung und gute räumliche Abdeckung doch ideal sind, um auf der Ebene von zumindest Kontinenten Methanemissions-Trends aufzuspüren. A.J.Turner und Kollegen (insbesondere von der Harvard Chemiegruppe von Daniel Jacob) verglichen nun GOSAT und Bodenmessungen in und rund um die Vereinigten Staaten und fanden ein konsistentes Bild. Ab ca. 2003 kann man einen klar ansteigenden Trend in den Methanemissionen in den USA feststellen. Ab 2010 erlauben GOSAT Messungen etwa Trends auf der Basis eines 4*4 Grad Gitters zu erstellen (Abbildung 2), welches zeigt, daß der Anstieg in der Mitte, respective der südlichen Mitte der USA besonders stark ausfällt.
Nimmt man noch die Bodenmessungen dazu kommt man schliesslich auf einen Anstieg von ca. 2.2TG Methan pro Jahr. Diese Zahl würde sich mit allen Unsicherheiten zu einem beachtlichen 30%-60% Beitrag zum erneuten globalen Anstieg der Methankonzentrationen addieren. Zeitlich und teilweise räumlich (Kansas, Oklahoma, etc.) passt das sicher alles gut zum Anstieg der Öl- und Gasproduktion in den USA. Einige Gebiete aber, die besonders mit dem Frackingboom der letzten Jahre verbunden sind, wie etwa North Dakota (“Gasland”) tauchen in der Karte nicht als Gebiete auf mit starken Anstieg der Methanemissionen. Es bleibt also vorerst eine Vermutung, daß der Rückgang von Pipeline-gasverlusten in den letzten Dekaden womöglich vom Fracking und der Schiefergasgewinnung wieder völlig konterkariert und aufgehoben würde.
]]>
Ich kenne den “retrieval algorithmus” der MSU Temperatur Daten nicht. In den letzten Jahren habe ich zum ersten Mal direkt mit Satelliten Daten gearbeitet und fand es haarsträubend kompliziert. Ich stelle es mir auf jeden Fall sehr schwierig vor, die ursprünglichen Daten dahingehend zu korrigieren, dass die Satelliten in einem kontinuierlichen Sinkflug Richtung Erde befindlich sind, also sowohl der Beobachtungswinkel als auch der Zeitpunkt im Laufe eines Tages permanent angepasst werden muss. Sollte es sich tatsächlich herausstellen, dass auch dieses Riesenrekordjahr 2015 in den MSU Daten nicht annähernd ein Rekordjahr ist, dann möchte ich mal darauf wetten, dass der gesamte MSU Algorithmus in Kürze eine erneute Korrektur erfahren wird. Es wäre nicht das erste Mal (hier und hier ).
Das obige nur als kleiner Startpunkt für die offene Diskussion im “Dies-und-Das” Thread, nachdem der alte mit ˜1400 Kommentaren mal wieder gut besucht war.
PS. Und hier noch von Michael Mann und Stefan Rahmstorf ein soeben veröffentliches Paper zum Thema. Wie wahrscheinlich ist 2015, wenn es eben kein anthropogen verursachtes global warming gäbe? Antwort: Sehr unwahrscheinlich.
]]>Ach, noch etwas. Ich hänge meist den Amazone Link mit dabei, da für den einen oder anderen, respektive die eine oder andere, es die einzige Art ist, schnell englischsprachige Bücher zu bestellen. Allerdings empfehle ich aus den offensichtlichen Gründen, es immer zuerst beim Buchhändler eurer Wahl zu versuchen. Die können fast alles Aktuelle bestellen, haben höchstwahrscheinlich deutlich bessere Arbeitsbedingungen für ihre Angestellten und machen keine kartellrechtlich fragwürdige Deals mit den großen Verlagen. Jetzt aber:
Es ist zu dem Buch alles gesagt. Es gewann den Royal Society Winton Prize for Science Books und ist bereits unzählige Male besprochen worden, besonders enthusiastisch etwa hier im Guardian. Unser Florian Freistetter auf astrodictum simplex hat gar eine 11 Kapitel-umfassende Kritik und Nacherzählung geschrieben, und das bei einem im Taschenbuchformat lediglich 250 Seiten umfassenden Buch. Die Idee Miodowniks, Materialforscher am University College London, ein Foto von sich auf dem Dach seines Hauses als Ausgangspunkt zu nehmen, all die Materialien, die man dort sieht, vom Beton, auf dem sein Stuhl steht, zur Tasse, aus der er seinen Tee trinkt, im Detail zu erklären und ihre Geschichte zu erzählen, ist einfach genial.
Bild 1: Mark Miodownik auf dem Dach umgeben von vielen Wundern unserer technischen Welt, die es alle zu erklären gilt.
Ein kleiner Pfeil auf ein unscheinbares Objekt auf diesem Foto leitet das jeweilige Kapitel ein und schon geht es darum, wie unglaublich schwierig es ist, Schokolade hinzubekommen oder eine einfach Porzellantasse. Mein Lieblingskapitel ist eindeutig das zum Beton. Inwieweit war der römische Zement verschieden von unseren und wie funktioniert das eigentlich mit dem Betonaushärten? Wo kommt all das CO2 bei der Zementherstellung her und gibt es eigentlich etwas Neues auf dem Markt der Zemente? Die Antwort auf die letzte Frage ist übrigens: Ja! Zement kann mit Titandioxid versetzt werden, welches mit den typischen organischen Rückständen, die mit der Zeit auf Betonbauwerken entstehen, reagiert und entfernt und so für ein stets frisches Aussehen der doch sonst so trist alternden Betonbauwerke sorgt. Arthur C. Clarkes “Gesetz”, demzufolge jede hinreichend fortschrittliche Technik von Magie nicht zu unterscheiden ist, ist zwar nachwievor wahr, aber mit Miodowniks “Stuff matters” im Gepäck rückt die Grenze, wann für uns die Magie anfängt weit hinaus. Ein tolles Buch.
Daniel Lieberman ” The Story of the human body”
Wenn der geschätzte Primaklima-Leser nur ein einziges Buch zu verschenken hat, dann sollte es wahrscheinlich dieses sein. Lieberman ist Professor für die Evolution des Menschen in Harvard und hat in diesem Buch seine Standardvorlesungen für Laien zusammengefasst. 60 Seiten Fußnoten machen klar, hier wird aus dem Vollem geschöpft. Lieberman ist ein wandelndes Wissenslexikon zur Anthropologie, zur Geschichte und zur Physiologie des Menschen. Ausgangspunkt seiner Reise durch die Evolutionsgeschichte der Hominini durch die letzten 6 Millionen Jahre ist eine ganz einfache Frage: Wie kommt es, dass der Mensch heutzutage dermaßen von Krankheiten heimgesucht wird, die es essentiell und, soweit man das überhaupt sagen kann, “früher” überhaupt nicht gegeben hat: Type 2 Diabetes, schwere Herz-Kreislauferkrankungen, Darmkrebs, viele Allergietypen, Autismus, Plattfüsse, Kurzsichtigkeit und so weiter und so fort. Wer das wirklich verstehen will, der muss eben durch die letzten 6 Millionen Jahre Menschheitsgeschichte durch: Was passiert eigentlich mit einem Affen, der aufrecht stehen will? Wie ist genau die Energiebilanz eines in der Savanne herumstreifenden Sammler und Jäger? Wieweit geht er, wieviel läuft er oder sie und wieviele Kalorien braucht das Gehirn eines Australopitecus und wie konnte er sich das leisten in einer immer karger werdenden Umwelt? Die Antworten sind teilweise wirklich verblüffend. Mir war zumindest nicht klar, wie sehr unser Körper für Ausdauersport gemacht ist. Diese unsere unglaubliche Ausdauer mag für die meiste Zeit unser Existenz ein weit bemerkenswerteres Merkmal unserer Vorfahren gewesen sein als unser langsam wachsendes Gehirn.
Ich habe mal ein beeindruckendes Video angehangen, wie solch ein Ausdauersportler eine riesige Antilope, gegen die er im Sprint nicht die geringste Chance hat, zur Strecke bringt, angehangen. Es kam, wie es kommen musste, setzt man diesen bemerkenswerten Ausdauersportler Homo, desses Physiologie obendrein daraufgetrimmt ist, jede überschüssige Energie sofort in Fett umzusetzen, einmal hinter einen Schreibtisch und gibt ihm das Doppelte seiner “normalen” 1500-2000 Kalorien zu futtern, dann häufen sich die Probleme. Es ist sicher nicht ohne Ironie, dass im gleichen Moment, in dem wir fast allen relevanten Ansteckungskrankheiten den Garaus gemacht haben, wir vor einer Explosion von nicht ansteckenden “Zivilisationskrankheiten” (Lieberman nennt sie mismatch diseases) stehen, die doch teils wie eine Epidemie voranschreiten. Viele arabische Länder, Polynesien oder die indische Mittelschicht gehen auf stramme 20-30% von Diabetesfällen unter der erwachsenen Bevölkerung zu. Wer also wissen will, was ein Evolutionsmediziner vorschlagen würde, um an all diesen “mismatch diseases” etwas zu ändern und warum es trotzdem nicht einfach sein wird, der muss sich den Lieberman holen. Mein Weihnachtsbuchtipp No 1.
Ronald D. Gerste “Wie das Wetter Geschichte macht”
Ich kaufe ja Bücher – so das natürliche falsche Vorurteil – wie Frauen Kleider kaufen. Es gibt also Frustbücher oder “schönes-Wetter-Bücher” und “Da-war-so-ein-riesen-geiler-Stapel” Bücher. Mit den Jahren kommen da doch einige ungelesene Bücher zusammen, bei denen ich nicht mehr so recht weiss, warum ich die wohl gekauft habe: das Equivalent zu einem Schrank voller ungetragener Kleider. Ronald D. Gerste Wetter Buch fiel unter die “Stapel-Motiv” Kategorie und ich weiss nicht, was meinen Buchhändler oder Klett-Cotta wohl dazu angetrieben haben mag, nun gerade dieses Buch stapelweise in den Weihnachtsbetrieb zu schmeissen.
Es geht also um den Einfluss des Wetters auf das Weltgeschehen. Das ist ja an sich ein interessantes Thema. Erst jüngst wurde vorgeschlagen, dass die Syrischen Flüchtlinge, die momentan in Deutschland ankommen, eben die ersten Klimaflüchtlinge seien und dass also der dortige Bürgerkrieg AUCH dadurch angestossen wurde, dass Syrien nach mehreren Jahren Trockenheit vor ernsten Nahrungsmittelproblemen, die ja immer auch eine Umverteilung von Macht und Einfluss in einer Region bedeuten, stand. Mit so einem Thema wäre also einiges anzufangen. Gerstes Buch ist das allerdings ganz klar nicht gelungen. Es ist im Wesentlichen eine Sammlung von “Irgendetwas geschah in der Vergangenheit” und das Wetter, ohne Anspruch auf eine Synthese oder sonstweitig störende Analyse. Hinzu kommt noch, dass Gerste es sich nicht hat nehmen lassen, einige der dümmsten Stereotype in der Klimadebatte überhaupt zu wiederholen. “Aber eine Schlagzeilen heischende Weltuntergangsstimmung zu verbreiten, erscheint manchen Klimaforschern als der sicherste Weg, Forschungsmittel zu akquirieren.” So etwas und anderen völlig unbelegten Unsinn findet man an einigen Stellen, wenn auch nicht zu vielen.
Bild 2: Karl X von Schweden überquerte mit 8000 Mann und zugehörigen Pferden den zugefrorenen kleinen Belt und jagte so den Dänen einen ganz schönen Schrecken ein. Dieses Beispiel für die ungewöhnlich kalten Winter während der kleinen Eiszeit ist sicher deutlich besser als die ewigen “Jäger im Schnee” von Pieter Bruegel. Siehe auch den Kunst und Klima Post auf Realclimate.
Außerdem erzählt er zum x-ten Mal die Geschichte vom englischen Weinbau als Beleg für die mittelalterliche oder römische Warmzeit. Ein Punkt der schon mehrfach, so von Gavin Schmidt hier, korrigiert wurde. Darüber hinaus lesen sich ganze Kapitel wie Kurzzusammenfassungen einer einzigen Quelle. Wer Wolfgang Behringers “Kulturgeschichte des Klimas” gelesen hat, kann sich wahrlich Gerstes Kapitel zur kleinen Eiszeit sparen. Die Vorgänge rund um den teilweisen Untergang der von Philipp II gen England geschickten spanischen Armada sind eine Zusammenfassung von Robert Hutchinsons 2013 erschienenem Buch “The Spanish Armada”. Einige Kapitel verlassen gar gänzlich das vermeintliche Thema, also der Einfluss des Wetters auf die Geschichte. Dann erzählt der Autor nur noch einige historische Schnurren und fügt den Wetterbericht als eine Art Entschuldigung an. Washington überquerte den Delaware und es war verdammt kalt, was ja zu Weihnachten in New Jersey schon mal vorkommen soll. In dem Stil geht es also durch die Weltgeschichte: Die französische Revolution, Napoleons Russlandfeldzug, Der D Day, Nochmal Russlandfeldzug, diesmal vom Führer.
Warum erwähne ich das Buch also überhaupt? Nun, zum einen ist meine Kritik natürlich ein bisschen ungerecht. Dass ich gerne ein interessanteres Buch mit einem anderen Thema gelesen hätte, ist ja nicht Gerstes Schuld. Ausserdem bleiben da doch eine ganze Reihe Anekdoten der Weltgeschichte, die ich zumindest noch nicht kannte. Und man soll ja dankbar sein. Vor allem aber erfuhr ich von Gerste, dass die LP, zu der ich einst meine Unschuld verlor, Al Stewarts “Year of the Cat”, als zweiten Song mit “Lord Grenville” den englischen Kommandanten würdigte, der sich 1591 allein mit seinem Schiff auf die halbe spanische Armada gestürzt hatte. Wer hätte das gedacht? Jene Nacht erscheint mir nun in einem ganz anderen Licht.
Elizabeth Kolbert “The sixth extinction”
Leben wir mitten im größten Artensterben seit es diesen Planeten gibt? Und wenn das tatsächlich stimmt und wenn, was tatsächlich ausser Frage steht, der Mensch dieses Artensterben verursacht, was kann man noch tun, um diesen rasant ablaufenden Prozess zu stoppen, an dessen Ende in den Ozeanen nur noch Mollusken leben und auf den Kontinenten Ratten und Tauben die Artenvielfalt repräsentieren. Die freie Journalistin Elizabeth Kolbert arbeitete häufig für die NYT und den NewYorker. Ihre Artikelserie zum Klimawandel kam 2006 unter dem Titel “Fieldnotes from a catastrophe: Nature, Man and climate change” heraus und war, soweit ich mich erinnere das erste Wissenbuch zum Klimawandel, welches ich gelesen habe. Kolbert hat das Geld, das Sie mit diesem Erfolgsbuch gemacht hat, dazu genutzt, sich auf eine ähnliche Reise zu wie einst Douglas Adams in seinem Klassiker: “Last chance to see”. Sie reiste zu Orten, an denen heute zur schwindenden Artenvielfalt geforscht wird: Mal ganz prosaisch zur Yale Universität, um sich über das grosze Artensterben am Ende des Perm vor 252 Mill.Jahren zu informieren (möglicherweise das Artensterben von den Big Five, dessen Ursachen wir am wenigsten verstehen), mal in den Amazonasdschungel in der Nähe von Manaus um das BDFFP (Biological Dynamics of Forest Fragments Projekt) zu besuchen. So ergeben die einzelnen Kapitel eine Art Reise von der Historie der Palynologie zu den aktuellen Forschungen zum Thema Artenvielfalt hin zu den leider sehr düsteren Prognosen.
Darwins Hauptwerk hiess ja nun einmal “On the origin of species” und nicht “On their extinction”, aber er fragte sich trotzdem, ob die Prozesse, die zum Verschwinden einer Art führen, zeitlich und räumlich ähnlich wirkten wie die, die neue Arten hervorbrachten. Darwin stellte sich dabei auf die Seite der Uniformisten wie William Lyell, die alle geologischen oder palynologischen Änderungen als Resultat langsamer Trends ansehen. Das Aussterben ist also bei den Uniformisten eher so etwas wie ein langsames Ertrinken. Die Gegenseite in der Nachfolge Georges Cuviers (“Catastrophists”) sah eher in riesigen und schnellen geologischen Umwälzungen (etwa die biblische Sintflut) den Grund für das Verschwinden von Arten aus den geologischen Archiven. Kolbert geht soweit, dass sie den Haupterkenntnisgewinn Darwins auf seiner Reise mit der Beagle nicht so sehr in der kontemplativen Beschau der nach ihm benannten Finken auf den Galapagosinseln sieht, sondern darin, dass er sich endlich die Zeit nehmen konnte William Lyells Werke zu studieren.
Heute wissen wir, dass beide Seiten recht hatten: Wenn auch viele geologischen Prozesse – und so auch das Verschwinden einer Art – unter natürlichen Bedingungen langsam und graduell stattfindet, so ist die Erdgeschichte doch durchlöchert mit Massensterben von Arten. Unter diesen Massensterben sind eben die big five, grosse Übergänge im geologischen Rekord an denen tausende von Arten und ganze Familien abrupt verschwunden sind. Die Palynologen definieren ein Massensterben als das Verschwinden von 75% aller Arten in 1 Millionen Jahren. Das hört sich dramatisch an, man muss aber dabei wissen, dass eine Aussterberate etwa für Vögel oder Säuger von 25% normal ist. Die Normalität ist also nur um einen Faktor 3 von einem epochemachenden Zusammenbruch der Artenvielfalt verschieden. Nähme man nur dieses Kriterium zum Massstab, dann ergibt sich aus einfacher Extrapolation die Größenordnung der jetzigen Vorgänge. In den letzten ca. 100 Jahren sind von 5488 bekannten Säugerarten (9990 Vogelarten) 1.38 % (respektive 76 Säugerarten; bei den Vögeln handelt es sich um sehr ähnliche 1.34% oder 134 Arten) ausgestorben. Gemessen an diesen auf geologischen Skalen riesigen Zahlen kommt man natürlich schnell auf die in der Presse häufig genannten “Aussterberaten”, die 100-1000fach über den natürlichen liegen. Kolbert erklärt sehr gut die mit dieser Analyse verbundenen Unsicherheiten. Insbesondere ist natürlich das Kriterium des “Austerbens” selbst ein grosses Problem, um den Zustand der Artenvielfalt jetzt und in naher Zukunft einzuschätzen. Wie lange wurde eine Vogelart nicht mehr gesehen und gilt dann irgendwann als offiziell ausgestorben? Wieviele Arten lassen sich noch heute in durchaus größerer Individuenzahl finden, sind aber letztlich zum Austerben verurteilt, weil ihr Lebensraum de facto nicht mehr existiert? Diese Verzögerung in der offizielen Feststellung des Aussterbens und dem unvermeidlichen Hinsichen der letzten Exemplare einer Spezies nenn man auch die extinction debt. Selbst bei Vögeln und Säugetieren ist es schwer diese “debt” genau anzugeben, was eben die riesigen Spannbreiten (100-1000fach über normal) bei den Aussterberaten erklärt.
Bild 3: Das BDFFP (Biological Dynamics of Forest Fragments Project) wurde von Thomas Lovejoy ins Leben gerufen. Es ist das wichtigste wissenschaftliche Projekt, um den Zusammenhang zwischen Habitatfragmentierung und Artenvielfalt zu erforschen und Basis von E.O.Wilsons berühmter area/species Gleichung, die riesige Einbrüche in der Artenvielfalt allein durch vom Menschen unternommene Unterteilung der Natur (Strassenbau, partielle Holzung etc.) vorhersagt.
Nun ist das Thema offensichtlich nicht gerade das Fröhlichste, aber Kolbert schafft es mit trockenem New Yorker Humor, die ganze Geschichte nicht zu einem einzigen Trauerspiel werden zu lassen, zumindest nicht auf der literarischen Ebene. Wenn fünf Veterinäre und Tierpfleger versuchen , einem der letzten sumatrischen Rhinos mit Namen Suci im Zoo von Cincinnati durch Intravaginalmassage zum Eisprung zu verhelfen, dann ist das sicher traurig und doch nicht ohne Komik. Kolberts “Sixth Extinction” ist rechtzeitig zu Weihnachten auch auf Deutsch herausgekommen. Eine gute Geschenkwahl!
Neil MacGregor’s “Eine Geschichte der Welt in 100 Objekten”
Noch ein Buch, das bereits auf allen Kanälen gelobt und gepriesen wurde. MacGregor, der in drei Tagen ehemalige Direktor des britischen Museums und baldige Gründungsintendant des Humboldtforums in Berlin (i.e. das zu errichtende Museum im Hohenzollern Stadtschloss Berlins), hat ein bisschen den Museumskatalog neu erfunden. Statt langweiligen Abarbeitens der Ausstellungsstücke Etage um Etage versenkt sich MacGregor in seine 100 Objekte gewissermaszen und setzt sie in ihren historischen Zusammenhang, und zwar nicht nur der Zeit, wann das jeweilige Objekt geschaffen und genutzt wurde, sondern auch den Zeiten seiner späteren Wiederentdeckung als museales Auststellungsstück. Jeder Text zu jedem Objekt ist ein kleines Essay, das er mit Hilfe vieler Kollegen, Archäologen, Philosophen, Historikern, zusammengestellt hat. Endresultat: Wir fahren im Januar nach London, nur um 24 Stunden im british museum herumzulaufen. Mehr kann ein “Museumskatalog” wohl nicht leisten. Die vielen Bilder und die fast zwei Kilo Buch machen es zu einem idealen Weihnachtsgeschenk. PS: Das britische Museum hat auch eine phantastische Webseite zum Buch aufgesetzt und die BBC hat eine tolle Radiosendungsreihe herausgebracht.
Ich bin 2014 ja auch noch in den Strudel der auf den deutschen Büchermarkt erschienen “100 Jahre erster Weltkrieg” Editionen geraten und habe, wie so viele mit Christopher Clarks “Die Schlafwandler” begonnen. Ich hatte das Buch schon einmal hier auf Primaklima erwähnt. Mehr und mehr kann man zu der Überzeugung kommen, dass wir auf eine geopolitische, multipolare Lage hinsteuern, die der Welt vor dem ersten Weltkrieg ähnelte. Neben all diesen schon oft erwähnten Vergleichen (das neue China ist das alte Deutschland, USA das alte England, etc.) kann man zum Beispiel die jetzige Syrienkrise betrachten. Wer hätte so etwas vor 10 Jahren für möglich gehalten. So ziemlich alle Super- und Mittelmächte ballern aus allen Rohren in wild wechselnden Allianzen auf das gleiche kleine Land, ohne rechtes Ziel und Verstand. Selbst so etwas wie das Aufeinandertreffen der Hohen Pforte und des Zaristischen Russlands gibt es mittlerweile wieder in Neuauflage. Ich will daher noch drei andere Bücher zum Thema “erster Weltkrieg” zumindest kurz erwähnen.
Wichtiger Teilnehmer an der Clark Diskussion war der mittlerweile emiritierte Historiker Gerd Krumeich. Er brachte anlässlich dieser Diskussion zur deutschen Hauptverantwortung am Ausbruch von WWI dieses Buch heraus, welches fast im Stundenprotokoll die politischen Überlegungen und Entscheidungen der Haupakteure im letzten Monat vor Beginn des Krieges darstellt. Am Ende des Buches finden sich 50 Schlüsseldokumente aus dem besagten schicksalshaften Juli 14. Bedrückend, denn dort findet man reichlich Parallelen im Ton zu heute und zu Putin, Erdogan, aber auch immer wieder zu westlichen Politikern. Es ist alles nicht so lange her.
Hier im übrigen eine Diskussion beim 2014 Historikertag in Göttingen zwischen Clark und Krumeich.
Eher im Nachhinein, als der eigentliche Plan nicht gelingen wollte, hat der Oberbefehlshaber der deutschen Armee, Falkenhayn, die Schlacht bei Verdun mit dem vermeintlichen Ziel des Weissblutens der Franzosen versehen. An einer einzigen und in Deutschland und Frankreich natürlich emblematischen Schlacht des ersten Weltkriegs, der Schlacht um Verdun, zeigt der Historiker Olaf Jessen, wie vermeintlich essentielle Ziele im Krieg zerbröseln und schliesslich sinnlos werden. Ein lang bedachtes, strategisches Ziel, ein Durchbruch (der Fetisch des ersten Weltkrieges schlechthin, alle träumten stets vom Durchbruch) oder zumindest eine Verlagerung der allierten Kräfte, die einen Durchbruch an anderer Stelle möglich machen würde, gelingt nicht. Statt einzuhalten und zumindest in Verdun das sinnlose Blutvergiessen zu stoppen, werden – wie man es ähnlich in der Ökonomie sagt – den verlorenen Truppen noch weitere Truppen hinterhergeschmissen. Dieses Buch beschreibt am Beispiel Verduns detailliert wie der Krieg seine eigene Dynamik entwickelt und nicht mehr zu bremsen ist, weil administrative Apparate dahinter verzweifelt Rechtfertigung zu produzieren suchen. Müsste man eine einzige typische Geschichte des ersten Weltkrieges erzählen, dann ist es sicher die der Erstürmung des Fort Douaumont. Quasi von den Franzosen “vergessen” und nur noch mit knapp 60 Mann bestückt wurde es von den Deutschen am dritten Tag der Verdun-Offensive quasi en passant erobert ( dazugehörige Fotodokumente wurden erst kürzlich entdeckt und sind bei Jessen veröffentlicht), um danach als Hauptgefechtsziel der französischen Gegenoffensive ein wohl beispielloses Bombardement zu erhalten. 9 Monate und 100.000 Tote später war alles wieder wie zuvor und das einst “vergessene” und vermeintlich nicht so wichtige Douaumont wieder in französischer Hand. Wer Jessens Buch gelesen hat, wird gegenüber all den “chirurgischen Eingriffen” unserer Tage sehr skeptisch, denn Pläne, so Clausewitz, kennt der Krieg nur bis zur ersten Schlacht.
Bild 4: Fort Douaumont vor und nach den 8 Monaten der Schlacht um Verdun. 100.000 Menschen starben allein an diesem Abschnitt der Front, der zu Beginn der Schlacht von französischer Seite nichtmals so besonders wichtig angesehen wurde.
3) Herfried Münckler “Der große Krieg”
Münckler wird ja als konservativer Historiker an der Humboldt Uni heftig gedisst (siehe die eigenartige Story hier), was das Interesse an seinem Buch sicher steigern mag. Ist es wohl wirklich so schlimm? Ich fand sein detailliertes Panorama “Der große Krieg” der vier Jahre von 1914 bis 1918 jedenfalls sehr interessant und keineswegs apologetisch. Was haben eigentlich damals die Intellektuellen zum Krieg und seinem immer schlimmer werdenden Wahnsinn gesagt? Gab es eigentlich relevante Stimmen in Deutschland und anderswo, um in Waffenstillstandsverhandlungen einzutreten? Münckler zeigt sehr schön die verschiedenen psychologischen, aber auch ganz konkreten, finanziellen Motive, die irgendwann den Abbruch des Krieg unmöglich machten. So waren alle Beteiligten einfach zu sehr verschuldet, um mit einem Kompromiss oder irgendetwas anderem als der totalen Kapitulation der Gegenseite noch hätten leben können. Neben den militärisch-politischen Abläufen der Zeit liefert Münckler auch ein ideengeschichtliches Buch zum Wandel der Welt vor und nach dem Kriege. Ich kann es jedenfalls nur empfehlen. Und wenn es einem nicht gefällt, kann man es ja immer noch Münckler Watch mitteilen.
PS: Wer sonst noch Bücher empfehlen möchte, soll das gerne hier tun. Einfach ein paar Worte, warum ihr das jeweilige Buch gut fandet und in die Kommentare posten.
]]>
“Der Mensch stammt vom Affen ab” ist ein häufiggebrauchter Satz, um die Konsequenzen der Darwinschen Evolutionslehre für den Menschen klar zu machen. Andererseits impliziert dieser Satz ja, dass der Mensch jetzt Mensch ist und eben nicht mehr Affe. Das sei wissenschaftlich falsch, sagt Frank Patalong von Spiegel Online und beschwert sich ob dieser laschen Sprachweise. Er vermutet gar gravierende soziale und politische Konsequenzen des obigen Abstammungssatzes: “Der Mensch IST ein Affe”, so sei es richtig.
Bild 1: Sexy Lucy! Der vor 41 Jahren von Donald Johanson entdeckte und getaufte australopithecus afarensis soll, so meint Frank Patalong, nicht mehr Vorfahre des Menschen genannt werden. Warum eigentlich? Ein Blick auf einen mehr oder minder aktuellen Abstammungsbaum des homo sapiens sagt etwas anderes (siehe unten). Ausserdem haben ich und Lucy ungefähr die gleichen Brüste.
Diese Diskussion ist in der Tat schon etwas älter und im englischen Sprachraum stimme ich insbesondere diesem Beitrag von John Hawks zu, von dem ich auch den Titel gestohlen habe. Kurz zusammengefasst:
Bild 2: Der Paranthropus ist kein Vorfahr des Menschen, Lucy (australopithecus afarensis) hingegen schon. Wer das so sieht, der hat die Evolutionslehre nicht richtig verstanden, meint Frank Patalong.
Ich bin offensichtlich kein Taxonom. Ich finde diese Einteilungen interessant und sehr wichtig, insbesondere die Konsequenzen dieser Einteilungen für eine Rekonstruktion der Entstehungsgeschichte der einzelnen Arten. Ist es aber wichtig, um zu verstehen, was jemand meint, wenn er sagt: “Schau mal, ein Affe!”?
2) Im Gegensatz zur Wissenschaft hat eine Sprache eine ganze Reihe mehr und andere Funktionen als äusserste Präzision bei der Beschreibung eines Abstammungsbaums. Zu allererst muss sie funktionieren. Die bezeichnete Sache muss damit hinreichend bezeichnet sein und zwischen den Kommunizierenden muss eine ausreichende Übereinkunft darüber bestehen, was denn nun gemeint ist. Auf unser Problem hier angewandt heisst das, dass es im Alltag einer Sprache erstmal ok ist, wenn mit Affe ein behaartes Tier, das gerne Früchte isst, meist auf Bäumen sitzt und Huhu macht, gemeint ist. Es ist klar, dass es mit zunehmender Komplexität einer Kommunikationes durchaus hilfreich sein kann, präziser zu werden. Das Deutsche kennt Affe und Halbaffe (aber obacht, letzteres gibt’s an sich gar nicht mehr!), das Englische ape und monkey. Will jemand gar die Abstammungslehre erklären und sagt etwa: “Der Mensch stammt vom Affen ab” ist das natürlich teils wahr, teils missverständlich. Richtig ist, dass der letzte gemeinsame Vorfahr mit den anderen Hominidae eben auch ein Affe (im Sinne von Anthropoidea) war, er ist aber missverständlich, weil er impliziert, dass als Resultat dieser Abstammung eben jetzt ein Nichtmehraffe entstanden sei.
Warum soll man also nach Patalong so nicht mehr reden? Nun, weil er in dieser “der Mensch stammt ab”-Sprechweise tieferverwurzelte moralisch-ethische Probleme vermutet und die sollen durch eine andere Sprechweise beseitigt werden:
“Die archaische, religiöse Trennung von Mensch und Natur war die ideologische Rechtfertigung für jeden Raubbau daran: “Macht euch die Erde untertan…” Das Menschsein als “Ort” in der Natur zu begreifen, öffnet hingegen Horizonte und macht uns klar, dass Raubbau Selbstgefährdung bedeutet. Ich persönlich habe keinerlei Problem damit, Primat zu sein. Es macht uns zu besseren Menschen.”
Ich habe auch kein Problem damit, ein Trockennasenprimat zu sein. Ich bin es sogar ausgesprochen gerne. Ich bleibe aber skeptisch, durch Anderssprech die Welt zuerst anders wahrzunehmen und dann verbessern zu können. Erstens kenne ich immer noch keine empirische Studie, die zeigen würde, dass durch eine andere Sprechweise, die realen Umstände geändert wurden. Umgekehrt, also veränderte Umstände benötigen eine andere Sprache, scheint es mir weitaus plausibler. Es bleibt für mich daher fraglich, ob durch die Bannung von “Der Mensch stammt vom Affen ab” viel gewonnen ist, solange man in der Sache gleicher Meinung ist (also meinethalben sich auf den Abstammungsbaum des Menschen einigen kann). Zweitens ist der Mensch schon Natur (da hat Patalong natürlich recht) und sein Ort ist ebenda mittendrin, aber andererseits ist er es auch nicht mehr. Es könnten schon mehr als “archaisch, religiöse” Vorstellungen sein, die den Menschen dazu veranlasst haben, so strikt zwischen sich und allen anderen Tieren zu unterscheiden: Mittlerweile sprechen wir vom Anthropozän, davon dass der Mensch die chemische Zusammensetzung der Atmosphäre, die Temperatur derselben und bald 70% der Erdoberfläche geändert und ummodelliert hat. Für ihn ist mittlerweile die kulturelle Evolution weitaus wichtiger als die natürliche seines Körpers. Man denke nur an all die Menschen, die durch mehr oder minder fortschrittliche Medizin (bei der Heilung oder Verwaltung von schwerer Blinddarmentzündung bis zu Diabetes) Gott sei Dank am Leben gehalten werden können und deren Krankheit selbst auf die Zahl ihrer Nachkommen keinen merklichen Einfluss hat. Kurz, die taxonomisch falsche Dichotomie der Alltagssprache zwischen Mensch und Tier (oder meinethalben Affe) ist durchaus augenfällig und beschreibt die Umstände einfach besser. Wer, wie Patalong oder auch ich möchte, dass sich der Mensch mehr als Teil dieser Natur sieht und für sie Verantwortung durch z.B. Artenschutz übernimmt, kann und soll das tun. Aber er sollte nicht die Taxonomie zur Ummodellierung der Umgangssprache benutzen, damit dieses Ziel gewissermaßen unbemerkt durch die Hintertür erreicht wird.
]]>Die jeden Monat veröffentlichten Bilder des GISS mit der aktuellen Temperaturentwicklung mussten denn auch die Farbskala ändern: Das Anthropozän ist ins Violet eingetreten.
Bild 1: Die Temperaturanonalie des Monats Oktober 2015 beträgt +1.04C nach GISTEMP Klimatologie.
]]>Bild 1: Die Jahresabschnitte (Jan-Sep) im Verlauf der letzten 135 Jahre nach dem GISS Temperaturdatensatz
Daher hier in diesem Nachtrag ein kurzer Vergleich mit zwei weiteren unabhängigen Datensätzen, nämlich denen des Hadley Centers/University of East Anglia (HADCRU4) und der Berkeley Earth Gruppe. Letztere wurde ja von dem Physiker Richard Muller ins Leben gerufen, um eine unabhängige Prüfung dieser vermeintlichen Erwärmung, von der immer alle reden, zu erlauben. So ist also auch das Konsortium der Berkeley Earth Gruppe gespickt mit Vertretern der Erdölindustrie, denn merke: Der Klimawandel ist erst wahr, wenn Shell es sagt.
Bild 2: Die Jahresabschnitte (Jan-Sep) im Verlauf der letzten 185 Jahre nach dem Berkeley Datensatz.
An dem gemessen ist der Klimawandel also jetzt bittere Realität, denn diese Gruppe erhielt so ziemlich genau das Gleiche wie alle anderen, die sich mit den globalen Temperaturen beschäftigen. Aber ich greife vor.
Bild 3: Die Jahresabschnitte (Jan-Sep) im Verlauf der letzten 185 Jahre nach dem HadCRU4 Datensatz.
Zuerst zeige ich einmal die drei monatlichen Datensätze jeweils als Zeitserie und gemittelt über den Zeitraum Januar bis September (Bild 1-3). Man sieht also bei allen, dass der Temperatursprung 2014/15 zu den größten in der ganzen Zeitserie gehören könnte, wenn der noch laufende El Niño nicht sehr und abrupt an Fahrt verliert. Auch kann man so rein gar nicht besonderes am GISS Datensatz erkennen. Der größte Sprung in der Zeitserie macht die HadCRU4 Reihe, was nicht weiter erstaunlich ist, da die etwas größere Sensitivität des HadCRU auf ENSO Variationen bekannt ist.
Bild 4: Die Jahresabschnitte (Jan-Sep)aller drei verwendeten Datensätze (GISS/Berkeley/HadCRU4) im Vergleich. Der GISS Datensatz wurde um -0.1C wegen der leicht anderen Referenz-Klimatologie (1950-1980) korrigiert.
Plottet man alle drei Jan-Sep Abschnitte (Bild 4) und korrigiert natürlich für die etwas andere Referenzklimatologie des GISS (-0.1C), so erkennt man fast keine wirklich ins Auge fallenden Unterschiede zwischen den Datensätzen. Am ehesten erscheint mir noch interessant, dass die Erwärmung in den 1930er Jahren und die nachfolgende Abkühlung in den 1940ern im GISS Datensatz etwas gedämpfter ausfällt. Dass einer der drei Datensätze ein essentiell anderes Bild der globalen Erwärmung zeichnen würde, kann man nun wirklich nicht behaupten.
Bild 4: Vergleich der Jahresverläufe der vier wärmsten Jahre (2014,2010,2007, 1998) mit dem Jahr 2015 nach dem GISS Datensatz. Damit 2015 noch seinen Spitzenrang verliert, müssten die verbleibenden drei Monate unter die violette Linie fallen.
Vergleicht man in den drei Datensätzen die fünf jeweils wärmsten Jahre, sieht man dann aber doch einige Unterschiede. So sind nicht immer die gleichen fünf am Start: Mal ist 1998 noch drittwärmstes Jahr (HadCRU4), mal ist es gar nicht mehr in den ersten fünf (Berkeley). Dies sind aber normale Konsequenzen der leicht unterschiedlichen Sensisitivitäten. GISS reagiert eher auf warme Jahre in der Arktis/Antarktis und HadCRU4 eher auf die Tropen. Etwas überraschender finde ich da schon, dass die Sommermonate einmal eher die geringsten Anomalien zeigen (Berkeley) und einmal umgekehrt eher die größten (HadCRU4). Das mag nur ein visueller Eindruck sein und einer echten Untersuchung nicht standhalten. Grundsätzlich würde man, glaube ich, erwarten, dass die Sommermonate eine geringere Variabilität haben (also enger beieinanderliegen) als die nordhemissphärischen Wintermonate. Aber auch das scheint nicht wirklich für alle Datensätze zu stimmen (siehe GISS).
Bild 5: Vergleich der Jahresverläufe der vier wärmsten Jahre (2010,2014,2007, 2005) mit dem Jahr 2015 nach dem Berkeley Datensatz. Damit 2015 noch seinen Spitzenrang verliert, müssten die verbleibenden drei Monate unter die violette Linie fallen.
Um die Wahscheinlichkeit abzuschätzen, dass das Jahr 2015 der neue Rekordhalter werden wird, habe ich bei allen drei Datensätzen berechnet, wo die restlichen drei Monate landen müssten, um den Rekord dieses Jahr noch zu verhindern (siehe pinke, horizontale Linie). Das GISS müsste einen Sprung von -0.2C machen, beim Berkeley Datensatz müssten es -0.3C sein und beim HadCRU4 müssten es sage und schreibe -0.6C sein (Strich passt nicht in Graphik).
Bild 6: Vergleich der Jahresverläufe der vier wärmsten Jahre (2010,1998,2014, 2005) mit dem Jahr 2015 nach dem Berkeley Datensatz. Damit 2015 noch seinen Spitzenrang verliert, müssten die verbleibenden drei Monate unter die violette Linie fallen.
In dem Sinne ist der GISS Datensatz also derjenige, der am ehesten noch am Wärmerekord 2015 zweifeln lassen könnte…aber eigentlich auch nicht. Und so ist ja auch die letzte Meldung , die zu diesem Thema durch die Presse ging auch genau die, dass in diesem Jahr mal wieder ein neuer Schwellenwert gerissen wurde, nämlich der der +1C Erwärmung relative zum präindustriellen Niveau zum Beginn der Zeitserien. Die Schwelle für nächstes Jahr steht übrigens auch schon fest: 400 ppm CO2 global.
]]>Die Temperaturen aller Jan-Sep Abschnitte im Vergleich zeigt den deutlichen Vorsprung des Jahres 2015 vor dem zweitplazierten 2014 (siehe Bild 1). Der seit über 12 Monaten bereits recht warme östliche Pazifik ist seit drei Monaten nun klar im El Niño Modus (Niño 3.4 Temperaturen über 1 Grad Anomalie) und scheint erst jetzt als Mega El Niño so richtig an Fahrt aufzunehmen.
Bild 1: Die Jahresabschnitte (Jan-Sep) im Verlauf der letzten 135 Jahre nach dem GISS Temperaturdatensatz.
Vergleicht man die fünf heissesten Jahre (Bild 2) fällt auf, wie wenig Variabilität 2015 im Vergleich zu den anderen Rekorjahren zeigt. 2015 hatte den heissesten je gemessenen Juni und Juli und den zweitwärmsten Januar, Februar, März, Mai, August, September. Praktisch kein Monat fällt so richtig aus der Spitzengruppe ab.
Das spiegelt sich dann natürlich auch in der Prognose wieder. Damit 2015 nicht das wärmste je gemessene Jahr werden sollte, müsste es im Mittel der verbleibenden 3 Monate (Oktober-Dezember) unter die violette, horizontale Linie fallen, also unter eine Anomalie von +0.57C. Ich glaube, dass kann man so gut wie ausschliessen, da bräuchte es schon einen gewaltigen Vulkanausbruch und selbst der käme mit seiner typischen Zeitverzögerung von ca. 2 Monaten wahscheinlich zu spät für das Jahr 2015. Kurz: Das Ding ist durch.
Bild 2: Vergleich der Jahresverläufe der vier wärmsten Jahre (2014,2010,2007, 1998) mit dem Jahr 2015 nach dem GISS Datensatz. Damit 2015 noch seinen Spitzenrang verliert, muessten die verbleibenden drei Monate unter die violette Linie fallen.
]]>Ich war immer schon der Meinung, dass man den Öko-Religionsvorwurf eher freudig annehmen sollte. Vor ca. 50.000 Jahren ist im Gehirn des Homo Sapiens etwas passiert, dass ihn nicht nur zur erfolgreichsten Säugetierspezies aller Zeiten, sondern auch grundsätzlich zu einer anderen Art von Tier machte: sicher Natur und doch über sie erhoben. Gleichzeitig mit der Sprache und einem Sprung in den Waffen- und Jagdtechniken entdeckte der Steinzeitmensch Kunst und Religion (oder meinethalben Spiritualität). Es ist schon erstaunlich, dass es gerade im Paradeorgan des Homo SAPIENS, dem Neocortex, eine Zone gibt (Schläfenlappen), deren Anregung bei Notfalloperationen zu religiös-spirituellen Erfahrungen selbst bei solchen Menschen führt, die nichts mit irgendeiner Spiritualität am Hut haben*. Es scheint dieser seltsamen Affenart namens Homo tatsächlich evolutiv ins Gehirn gebrannt worden zu sein, die Lücke zwischen Natursein und “es doch nicht mehr sein” mit einer Mischung aus Kunst und Religion schliessen zu wollen.
Bild: Die schwimmenden Rentiere aus Montastruc, Objekt Nummer 4 in McGregors Geschichte der Welt in 100 Objekten.
Eines der ältesten Austellungsstücke im British Museum, welches auch in Neil McGregors famosen “The History of the world in 100 objects” besprochen wird, sind die “schwimmenden Rentiere” , einer wirklich fantastischen Schnitzerei, die einer unser Vorfahren in einer Höhle im französischen Montastruc vor 13000 Jahren gefertigt hat. Die Detailtreue ist schlicht unglaublich. Selbst die Jahreszeit, in der diese Rentiere mutmaßlich den eiszeitlichen Aveyron durchschwammen, kann man erkennen. Warum das alles für ein Objekt ohne jeden praktischen Nutzen? McGregor fragte dazu Dr. Rowan Williams, den Erzbischof von Canterbury:
“What I think you see in the art of this period is human beings trying to enter fully into the flow of life around them, so that they become part of the whole process of animal life that’s going on around them, in a way which I think isn’t just about managing the animal world, or guaranteeing them success in hunting or whatever. I think it’s more than that. It’s really a desire to get inside and almost to be at home in the world at a deeper level, and I think that that’s actually a very deeply religious impulse, to be at home in the world. We tend to identify religion with not being at home in the world sometimes, as if the real stuff were elsewhere in heaven; and yet actually if you look at religious origins, if you look at a lot of the mainstream themes in the great world religions, it’s the other way round – it’s how to live here and now and how to be part of that flow of life.”
Der neue Dies-und-Das Thread ist mit diesem “ökoreligiösen Gebet” eröffnet und lädt wie immer ein zu freier Diskussion. Der alte Thread mit über 2100 Beiträgen ist ab sofort geschlossen.
*“The Neuropsychiatry of paranormal experiences” by M.A. Persinger (2001) in Journal of Neuropsychiatry and Clinical Neurosciences
]]>Und auf dieser Radtour habe ich vor allem David Foster Wallace gelesen und so sei dieser “Dies und Das” auch mit einem seiner phantastischen Bandwurmsätze eingeleitet. Es geht um das Anbeten und seiner Unvermeidlichkeit:
David Foster Wallace:
“Because here’s something else that’s weird but true: in the day-to day trenches of adult life, there is actually no such thing as atheism. There is no such thing as not worshipping. Everybody worships. The only choice we get is what to worship. And the compelling reason for maybe choosing some sort of god or spiritual-type thing to worship—be it JC or Allah, be it YHWH or the Wiccan Mother Goddess, or the Four Noble Truths, or some inviolable set of ethical principles—is that pretty much anything else you worship will eat you alive. If you worship money and things, if they are where you tap real meaning in life, then you will never have enough, never feel you have enough. It’s the truth. Worship your body and beauty and sexual allure and you will always feel ugly. And when time and age start showing, you will die a million deaths before they finally grieve you.”
]]>Ein Teil der Kraft, die stets das Böse will und stets das Gute schafft. Umgekehrt geht es aber auch. Man will das eine, kleinere oder größere Problem beheben und, wie so oft, sind die Konsequenzen in komplexen, nicht-linearen Systemen mindestens unübersichtlich, wenn nicht gar derart, dass das behobene Problem manchmal wie das kleinere Übel erscheint.
Nehmen wir den Fussball. In den 70ern und 80ern nahm das Getrete ein solches Ausmaß an (vielleicht als Paradebeispiele mögen die bei der WM 82/86 niedergetretenen Spieler Sokrates, Zico und Maradona gelten), daß die FIFA meinte eingreifen zu müssen. Jedes Foul von den Dauertretern Goikoetxea [ der Schlächter von Bilbao] und Claudio Gentile wäre heutzutage eine rote Karte. Ganz zu schweigen von Schumachers berühmten Foul an Battiston, welches eher zivilrechtliche Konsequenzen verdient hätte. Also begann man die Stürmer und “Kreativen” zu schützen. Gut so. Doch plötzlich war es nicht nur etwas besser einen genialen Dribbler im Team zu haben, es war viel besser. Ein Messi oder ein Ronaldo hätten in den 80ern sehr schnell “einen auf die Socken bekommen” und ihre Anwesenheit hätte damals sicher den Sieg ihrer Mannschaft wahrscheinlicher gemacht. Sicher jedoch war er nicht. Heute aber ist ein Sieg Paderborns gegen den FC Bayern ungefähr ebenso wahrscheinlich wie ein Erdbeben der Stärke 9 in Ostwestfalen. So haben letztlich die Regeln, die in den 90ern die “Künstler” im Fussball schützen sollten, dazu geführt, dass die kommerzielle Macht der groszen Teams mittlerweile ein Titelgarant ohne Wenn und Aber ist. Überspitzt formuliert hat erst dieser erhöhte Schutz für die Messis, Ronaldos und Reus dieser Welt dafür gesorgt, dass der Mammon den Fussball so absolut regiert, wie er es jetzt tut.
Bild: “Tertiary Enrolment” bezeichnet den Anteil der Jugendlichen, die so etwas wie high school oder Gymnasium erfolgreich abgeschlossen haben und ein Universitätsstudium beginnen. Dabei bezieht sich der Anteil auf alle Jugendlichen, die ungefähr in demselben Alter sind. Bis auf Südost-Asien und das sub-saharische Afrika sind Studenten an Universitäten mehrheitlich weiblich. Bildnachweis: Economist – 7 März 2015
Oder nehmen wir ein anderes Beispiel. In einem jüngst erschienenen Paper zeigen Jeremy Greenwood und Kollegen, dass einer der wichtigsten Mechanismen, die in den Gesellschaften des 20ten Jahrhunderts für soziale Durchmischung gesorgt haben, das damalige Heiratsverhalten war. Vereinfacht gesagt, war es einst absolut kein Problem, dass der Chefarzt die Krankenschwester heiratete, während das heute sozial schon fast randwertig und nur noch in ZDF Vorabendserien für die ältere Generation zu beobachten ist. Was macht solches Verhalten heutzutage so seltsam: Nun, warum heiratet er nicht gleich die Oberärztin? Die ist genauso jung, genauso attraktiv und bringt obendrein 7000 netto monatlich in die Familienkasse. Tatsächlich meinen die Autoren belegen zu können, dass, hätten wir immer noch das Paarungsverhalten der 50/60er Jahre, die vielbeklagte soziale Schere zwischen Arm und Reich sich längst nicht so weit aufgetan hätte, wie sie es in den letzten Jahren getan hat. Was also ist passiert? Nun, Frauen schliessen mittlerweile, mehr noch als die Männer, hochwertige Ausbildungen ab und sie tun dies sogar mit größerem Erfolg als diese. Ein “Abwärtsheiraten” der Männer ist einfach keine demographische oder soziale Notwendigkeit mehr. Es wird auf akademischer und finanzieller Augenhöhe geheiratet, was natürlich zur sozialen Stratifizierung und, in gewissem Sinne, zur Versteinerung der Gesellschaft beiträgt. Wer aber derart beim Heiraten unter sich bleibt, der ist aber womöglich in jeder Hinsicht nicht mehr an den anderen sozialen Schichten der Gesellschaft interessiert. Maßlos überspitzt könnte man sagen, dass das Auf- und Überholen der Frauen, die die Männer immer deutlicher bei der Ausbildung hinter sich lassen, bei der Entstehung einer zunehmend desolidarisierten und hierarchischen Gesellschaft einen gewichtigen Anteil hat. Teil jener Kraft, die stets das Gute will und doch das Böse schafft?
PS: Wer sich für das Heiraten als ökonomisches Tauschgeschäft interessiert, dem sei auch dieses Buch empfohlen:
June Carbone und Naomi Cahn: Marriage Markets – How Inequality is remaking the american family.
]]>
Vielleicht ein kleiner Appetitanreger zur Diskussion hier? Ich wollte immer mal einen richtigen Artikel über Naturwissenschaftler in der Politik schreiben. Schneiden sie eigentlich besser, schlechter oder gleich schlecht ab als die notorischen Juristen und Ökonomen. Thilo hatte mal eine schöne Statistik gefunden, die die Politikerzusammensetzung in verschiedenen Teilen der Erde auflistet. Die Chinesen trauen Ingenieuren und die Amerikaner liebhassen Rechtsanwälte und geben ihnen Ihre Stimmen (respektive mauscheln sich, wie in China, die Posten zu).
Erst jüngst erinnerte ich mich erneut an dieses Thema, als ich mich etwas näher mit der gerade in Spanien auftauchenden Anti-System-Partei “Podemos” (Wir können) beschäftigte. Sie ist erst ein Jahr alt, liegt in Umfragen mitlerweile bei über 25%, trägt nirgendwo in Spanien politische Verantwortung und hat aus dem Stand 8% bei den letzten Europawahlen geholt. Das allein macht Podemos als Protestpartei aber noch nicht interessant. Sie ist in ihrer Führungsspitze zu fast 100% universitär. Zwar gibt es bei Podemos auch reichlich Naturwissenschaftler, das eigentliche Zentralkomittee (ok, der war billig) besteht auf fünf akkreditierten Professoren der politischen Wissenschaften einer einzigen Universität (Universidad Complutense Madrid). Kann das gut gehen? Wahlen sind hier in ca. 8 Monaten.
Bild 1: Pierre-Simon Laplace (1749-1827), begnadeter Geometer und lausiger Politiker. Der den Esprit des infiniment petits in die Politik brachte. Das kann natürlich nicht gut gehen.
Napoleon beorderte, befeuert vom Geist der Aufklärung, Pierre-Simon Laplace auf den Job des Innenministers. Nach nur sechs Wochen ging ihn der berühmte Mathematiker schon dermaszen auf den Geist, dass er ihn durch seinen Bruder ersetzen liess. Begründung:”Géomètre de premier rang, Laplace ne tarda pas à se montrer administrateur plus que médiocre; dès son premier travail nous reconnûmes que nous nous étions trompé. Laplace ne saisissait aucune question sous son véritable point de vue: il cherchait des subtilités partout, n’avait que des idées problématiques, et portait enfin l’esprit des ‘infiniment petits’ jusque dans l’administration.” (Laplace, ein Geometer von hervorragendem Ruf, zögerte nicht, sich als mehr als mittelmäßiger Verwalter zu zeigen. Schon von seiner ersten Entscheidung an erkannten wir, dass wir uns wohl in ihm getäuscht haben. Laplace ging nicht ein einzige Frage von seiner wahren Problematik aus an: Er suchte überall Kleinigkeiten, hatte nur höchst umstrittene Idee, und brachte schliesslich den Geist des unendlich Kleinen [ Anspielung auf die Infinitesimalrechnung GH] in die Verwaltung.)
]]>Wenn der letzte Monat dieses Jahres vergangen sein wird und die letzte Temperaturmessung von der Antarktischen Halbinsel im Komputer des GISS Instituts verarbeitet sein wird, dann wird dieses Jahr das wärmste aller Zeiten sein.
Animation 1: Mittel der globalen GISS Temperaturen über die Monate Jan-Apr, Jan-Mai, etc. bis schliesslich Jan-Dez. Das Jahr 2014 wurde im letzten Moment, also im Monat Dezember, der neue Rekordhalter und somit wärmstes Jahr seit Beginn der Temperaturaufzeichnungen.
Und so kam es auch. Hier sind erste Reaktionen aus Berlin zu den Monaten Mai, Juni, August, September, Oktober, November, Dezember, die alle entweder wärmster, zweit- oder drittwärmster je gemessener Monat waren.
Video: Das Berliner Publikum feuert die Wärmerekorde des Jahres 2014 an.
Und so blieb leider das Wunder aus, die Erwärmung geht weiter und wird es auch in Zukunft tun, trotzdem EIKE und ähnliche Top-notch climate scientists schon so oft das Gegenteil glaubten nachgewiesen zu haben. Bleibt nur noch zu klären, was das für die Erde und die menschlichen Gesellschaften genau bedeuten wird. Aber dazu ein anderes Mal.
Animation 2: Jahresverlauf der 5 wärmsten Jahre. Der nochmalig wehr warme Dezember des Jahres 2014 hat den Ausschlag gegeben und 2014 somit zum neuen Rekordhalter gemacht.
Jetzt gilt es erstmal zu feiern, bzw die Knete für den guten Zweck einzusammeln. 100 Euro kommen von mir und der Rest kommt von den folgenden Primaklima-Lesern (soweit ich damals im April die Liste der Mitwetter erstellen konnte. Der Mitkommentierer “Flotter Otto” wollte unbedingt später auch noch bei der Wette dabei sein und ist natürlich auch willkommen, seine 10 Euro dazu zu tun):
Bleyfuss – 20 Euro
Shader – 10 Euro (als Almosenwette fuer den Flotten Otto).
Axel – Wettet 50 Euro auf einen neuen Rekord und zahlt 100, falls nicht. Und wenn er gewinnt?
Webbaer – 10 Euro
Guenther Venneke – genau wie Axel. 50 Euro auf Rekord, sonst 100 Euro.
Phil – 10 Euro auf Rekord, 20 Euro ansonsten.
E-O – Ist dabei…Ich schaetze mit 10 Euro bei meiner Wette?
Thomas – Ist dabei. Seine Wettbedingungen habe ich aber nicht verstanden.
Einige auf der Liste sind hier nicht mehr so aktiv (wo ist eigentlich der Günther Venneke?), aber wer die Wette mitgemacht hat, der soll mir bitte eine Mail schicken und ich antworten mit einer IBAN Nummer oder einem Paypal Konto, je nach Wunsch. Wer gerne mehr einzahlen will, soll das ruhig machen. Der Erlös geht an das Centro de Estimulacion precoz der Hermandad de Buen Fin in Sevilla, einem von vielen freiwilligen Ärzten und anderen Helfern/innen betriebenen Zentrum zur Hilfe und Unterstützung von behinderten Kindern und deren Eltern. Die Scheckübergabe und eine Kopie des Schecks wird natürlich auf Primaklima veröffentlicht, damit auch alles seine Ordnung hat. Ich danke schon mal im vorraus allen die mitgemacht haben. Die Klimawette 2015 ist schon in Vorbereitung.
]]>Bild: Allgemeiner Jubel bei der Bekanntgabe des “Wissenschaftsblog des Jahres 2014” (und 2015,2016,2017,2018 etc.). Das IPCC Zentralkommitee gratuliert dem Geldgeber von Primaklima, Kim, ebenso wie dem groszen Klimavorsitzenden Hoffmann. “Da sei ja mal wieder alles nach Plan verlaufen” war die einhellige Meinung.
Ich habe heute eine ehrlichgesagt überraschende Nachricht bekommen, derzufolge Primaklima zum Wissenschaftsblog des Jahres 2014 gewählt worden sei. Ich bin ja tief in meinem Herzen Marxist, und der hat ja bekanntlich gesagt: “Ich würde keinem Club angehören wollen, der mich als Mitglied aufnimmt.” Daher meine Fassungslosigkeit. Zweiter ist der Blog der Helmholtz Gemeinschaft geworden und dritter der Blog von Stefan Rahmstorf, Klimalounge.
Wie konnte das also passieren? Ich habe mal ein paar Glückwunschtelegramme gesammelt und möchte sie hier im Einverständnis mit den Gratulanten veröffentlichen. Vielleicht kann man ja so die ungewöhnliche Wahl verstehen:
1) EIKE Vorsitzender Prof.Prof.Dr.Dr.hon.causa Lüdecke:
“Ich habe ja bereits 2013 ein Paper im renomierten Wissenschaftsjournal “Die Bäckerblume”veröffentlicht, welches eindeutig belegt, wie unsinnig und einseitig die auf Primaklima geäusserten Ansichten sind. Solch eine Entscheidung wie die zum Wissenschaftsblog 2015 sind ausschliesslich zu verstehen, wenn man sich die von der Staatspresse in Sachen Klimawandel verordnete Einheitsmeinung mal genauer ansieht. Wir leben in einer Zeit, in der die wissenschaftliche Körnerarbeit eines reputierten Instituts wie EIKE auf die gleiche Ebene gestellt wird wie das Gestümpe eines Max-Planck-Instituts. Ich bin ja mit Max Planck zur Schule gegangen und er hätte sich sicher für diese heutige Wissenschaftsethik geschämt. Das natürliche Resultat dieser “ethic” sind dann eben Gestalten wie der Herr Hoffmann. Pfui.”
2) Peter Heller, Science Skeptikal
Science Skeptikal hat sich ja ebenfalls zur Wahl gestellt und wurde mal wieder mit den üblichen Tricks kleingehalten. Stimmen für uns wurden durch drei dividiert und dann für ungültig erklärt. Einem freiheitlichen Diskurs ist die Wahl von so einem “Blog” wie Primaklima natürlich nur hinderlich. Das letzte Mal, als ich mich bei einer exzellenten Flasche Wein (Chateau Haut Brion 2009) und ein paar handgerollten und in Eichenfässern gelagerten kubanischen Zigarren mit führenden Vertretern der deutschen Wirtschaft zusammengesetzt habe, habe ich ebenfalls auf das Problem Primaklima aufmerksam gemacht. Ich denke, da wird in den nächsten Wochen etwas passieren.
3) Hans von Storch, Klimazwiebel
Wissenschaft sollte nachhaltig organisiert sein. Primaklima ist sicher ein Beispiel, wie das nicht erreicht wird und wie man nicht miteinander umgehen sollte. Ich werde eine eigene Umfrage unter 100.000 Klimaforschern durchführen, um herauszufinden, ob diese Wahl wirklich repräsentativ ist. Angeblich sollen ja 103% der abgegebenen Stimmen auf Primaklima gefallen sein. Ich will jetzt nicht meine wissenschaftliche Autorität als Totschlagsargument in die offene Diskussion einbringen, aber etwas sagt mir, dass das so nicht stimmen kann.
4) Axel Bojanowski, Spiegel
Aus gut unterrichteten Kreisen wird berichtet, dass diese Wahl zum “Wissenschaftsblog des Jahres” hinter verschlossenen Türen in Genf beim IPCC “vorverhandelt” wurde. Viele Paper, die in den letzten Monaten veröffentlicht wurden, laufen der in Primaklima eifrig als “wissenschaftliche Tatsachen” präsentierten Meinung diametral entgegen. Der Verdacht liegt nahe, dass es auf Primaklima eher darum geht, die Welt zu retten, als fachlich korrekt zu informieren. Ich habe bei praktisch allen führenden Klimaforschern nachgefragt, weder John Christy, noch Roy Spencer, noch selbst Richard Lindzen haben je von Herrn Hoffmann und seinem Primaklima-Blog gehört. “Eine ordnungsgemäße und transparente Wahl sieht jedenfalls anders aus” versicherte Hans von Storch auf Spiegelnachfrage. Viele offene Fragen bleiben da noch von den Organisatoren zu beantworten.
Ich gehe also vorerst mal davon aus, dass die Wahl manipuliert wurde und freue mich darüber noch mehr, als wäre Primaklima korrekt in einer fairen Wahl gewählt worden. Eine Meinung, die ich mit meinem alten Spezi Kim Jon Un übrigens teile.
PS. Ich hatte ja über die Feiertage nichts geblogt und nutze die Gelegenheit zu den obligatorischen “Season’s Greetings”. Im nächsten Jahr wird alles besser, bessere Artikel, mehr Wissenschaft, ätzendere Ironie und schlimmerer Sarkasmus!
Versprochen.
Latours neuestes, gerade auf Deutsch erschienenes Werk heisst “Existenzweisen – Eine Anthropologie der Modernen” (hier ein Zeit-Interview mit Ihm zu den “Existenzweisen”) und benutzt als Aufmacher und Sinnbild die Klimatologie und den Klimawandel. An keinem anderen Gegenstand wie dem der sich überhitzenden Erde und der bekanntlich auch esoterisch besetzten “Gaia” liesse sich so schön zeigen, wie die Dinge, die wir “da draussen” untersuchen und “verobjektivieren”, auf uns zurückwirken und uns als untersuchendes “Subjekt” mitbestimmen. Denn gerade diese Trennung in Objekt-Subjekt, in eine sachlich durch Fakten beschriebene Welt und einem erkennenden Subjekt, das seinen Ideen und moralischen Vorstellungen ganz unabhängig von der Welt der Dinge folgt, das ist genau für ihn die Bewegung der “Moderne”. Sein bislang grösster Veröffentlichungserfolg, “Wir sind nie modern gewesen” beschreibt dieses im 17ten Jahrhundert beginnende Auseinanderbrechen in die dingliche Welt und die Welt der Werte und der Gesellschaft als DIE charakteristische Bewegung der Moderne.
Latour beginnt also die “Existenzweisen” mit einer Anekdote, die er wohl aus einem hochrangigen Treffen zum Thema Klimawandel und nötige Massnahmen zwischen französischen Industrievertretern und einem Klimaforscher des College de France mitgenommen hat. An dieser Hohestätte französischer Aufklärung gibt es aber zur Zeit nur einen Klimaforscher und ich verrate sicher nicht zuviel, wenn ich also mal vermute, dass es sich um Eduard Bard gehandelt haben muss. Und so kommt es dann zu der schockierenden (Latour) Frage eines Industriellen an Eduard:
“Aber warum soll man Ihnen glauben, Ihnen mehr als den anderen?” Ich wundere mich. Warum stellt er mit seiner Frage, als handelte es sich um einen blossen Meinungsstreit, die Spezialisten für das Klima auf dieselbe Stufe mit den sogenannten Klimaskeptikern – wobei man die schöne Vokabel “skeptisch” ein wenig in Misskredit bringt?…Ist die Debatte dermaßen ausgeartet, daß man vom Schicksal des Planeten sprechen kann, als befände man sich auf der Talkshow im Fernsehen, wo der Anschein erweckt wird, die verschiedenen Positionen gleich zu behandeln?”
Wie wird Bard antworten? Latour erwartet eine Liste von Belegen und Fakten als Antwort, doch es kommt dann eben die für ihn überraschende, geseufzte Antwort:
“Wenn man kein Vertrauen in die wissenschaftlichen Institutionen hat, dann ist das sehr schwerwiegend.” Statt Fakten, Zusammenhängen und Ableitungen also: Vertrauen und das auch noch in die Institutionen!
Warum also hat er sich nicht einfach auf die absolute Wahrheit, das Rationale, die Gewissheit berufen und stattdessen Vertrauen in die wissenschaftlichen Institutionen angerufen?
“Wenn man sich auf sie (i.e. DIE Wissenschaft mit großem Artikel) beruft, gibt es nichts zu debattieren, weil man sich immer schon auf der Schulbank befindet, wo man lernen muß – oder schlechte Zensuren erhält. Muß man sich jedoch auf das Vertrauen berufen, so ist die Gesprächssituation eine völlig andere: Man muß die Sorge um eine fragile und delikate Institution teilen, die voller entsetzlich materieller und weltlicher Elemente steckt – die Öllobies, die Peer-Beurteilung, die Zwänge der Modelbildung, die Satzfehler in den tausendseitigen Berichten, die Forschungsverträge, die Computer-Bugs usw. … Wie kann dieser Forscher vom College de France den Komfort aufgeben, den ihm die Berufung auf die unbestreitbare Gewissheit verleiht, und sich statt dessen auf das Vertrauen in die wissenschaftliche Institutionen stützen?… Das ist ein wenig so, als wenn ein Priester einem Katechumenen, der an der Existenz Gottes zweifelte, antwortete, indem er das Organigramm des Vatikans aufzeichnete, die bürokratische Geschichte der Konzilien und die zahlreichen Glossen der Abhandlungen des kanonischen Rechts darlegte.”
War dieser radikale Wechsel der Argumentation geschickt, angemessen oder gar nötig? Was hat sich geändert, dass der Klimatologe sosehr die Stellung gewechselt hat?
Latour meint dazu folgendes:
“Wenn ihm schien, daß ich ihn mit einem leicht ironischen Gesichtsausdruck betrachtete, als er um eine Antwort rang, möge er mir verzeihen, denn ich gehöre zu einem Forschungbereich, den Forschungen über die Wissenschaft (die science studies), die sich gerade bemühen, den Begriff der wissenschaftlichen Institution eine positive Bedeutung zu verleihen. Nun wurde aber dieser Forschungsbereich in seinen Anfängen in den 1980er Jahren von vielen Wissenschaftlern (hier bezieht er sich auf die sogenannten science wars in den 80er/90er Jahren, Anmerkung GH) nicht nur für eine Kritik an der wissenschaftlichen Gewissheit gehalten – was er tatsächlich war -, sondern auch an gesicherten Erkenntnissen – was er keineswegs war. Wir wollten verstehen, durch welche Instrumente, welche Maschinerie, welche materiellen, historischen, anthropologischen Bedingungen es möglich ist, Objektivität hervorzubringen… In unseren Augen hatte die wissenschaftliche Objektivität einen zu wichtigen Wert, um ihr als einzige Verteidigung das zu lassen, was man mit einem Allzweckwort den “Rationalismus” nennt und dessen Wert allzuoft darin besteht, jede Diskussion abzubrechen, indem allzu hartnäckige Gegner der Irrationalität bezichtigt werden.”
Ich fand diese Anekdote Latours mit seiner Beschwörung (?) konservativ klingender Begriffe wie Vertrauen, Werte und Institutionen interessant und verstörend zugleich. Müssen wir, um die Objektivität zu schützen, tatsächlich Tatsachen und Werte aufs Neue vermischen? Die “Existenzweisen” gehen mit ihren 650 Seiten natürlich viel weiter als diese Einstiegsanekdote. Auf der Webseite modesofexistence gibt es eine Vielzahl von Diskussionen (englisch- und französischsprachig) und Beiträgen rund um das Buch. Und hier geht es zum deutschsprachigen Blog des Oberseminars abgehalten von Prof. Jan Keupp, von dem ich im übrigen auch das Bild der Eule oben gestohlen habe. Dort geht es ebenfalls um Latours “Existenzweisen”.
]]>
Animation 1: Fortschreitende Jahresabschnitte (Jan-Apr, Jan-Mai, etc.) im Vergleich. Man kann schön erkennen, wie 2014 das Feld langsam von hinten aufgerollt hat.
Ganz scheint mir der Pudding noch nicht gegessen. Betrachtet man Animation 2 unten, sieht man, worauf sich der Optimismus der Primaklima-Aficionados stützt. Einerseits, hat der letzte Monat November “nur” eine positive Anomalie von +0.65K nach den GISS Temperaturen zustande bekommen. Das bringt den letzten Monat gerade mal so in die Liste der Top Ten November (Platz 9, um genau zu sein) hinein. Andererseits ABER bleibt das bisherige Jahr 2014 auf Platz zwei hinter 2010 mit einer Anomalie von +0.67K und somit lediglich +0.01K zurück. Die vollständige Bestenliste lautet also:
2010 2014 2005 2007 2002
+0.68K 0.67K +0.65K +0.63K +0.62K
Der Monat Dezember wird es also entscheiden und da hat 2010 nunmal einen drastischen Temperaturabsturz erlitten (siehe Anomalie 2 mit einer Abkühlung auf +0.44K im Dezember 2010). Das Jahresmittel 2010 betrug im GISS Datensatz +0.66K. Zum Sieg würde mir also im Dezember eine Anomalie von +0.61K reichen.
Eventuell muss die Rechnung auf die 1/100stel Stelle ausgedehnt werden um den Sieger zu bestimmen; ein ganzes Stückchen jenseits der Genauigkeit der ganzen Rechnung. Aber egal, es geht schliesslich um eine Wette.
Vorhersage für die nächsten Tage im Ruhrgebiet +15C ! Aber was passiert in Ulan Bator?
Animation 2: Jahresverlauf der Top 5 wärmsten Jahre. Man beachte den Temperaturabfall im Dezember 2010. Aber wird das für 2014 reichen?
]]>Ich bin ja immer skeptisch und mag bald gar nicht mehr die Nachrichten schauen. Jetzt schneit es auch noch in Peking. Ist das nun früh oder spät im Jahr?
Abbildung 1: Wärmemenge des oberen (0-700M) Ozeans. 2014 wird als nicht El-Niño Jahr eingestuft. Die Anomalie relativ zu den Jahren 1961-1990 ist angegeben in 10^22 Joule.
Es könnte aber sein, dass die WMO das gar nicht für meine Klimawette veröffentlicht hat, sonder eher für die gerade stattfindende Klimakonferenz in Lima. Ouups, steht sogar im Header des oben verlinkten Artikels der WMO. Er ist in Lima verfasst worden.
Ich finde diese Veröffentlichung von solchen Artikeln ja immer etwas eigenartig, gerade wenn sie es bei so einer Klimakonferenz herausgeben. Nicht, dass ich nicht glaube, dass die Chancen nicht schlecht für meine Wette stehen. Ich denke schon, dass die WMO Analyse sehr sinnvoll klingt. Aber allein schon die Idee, dass bei so einer Klimakonferenz Personen sein könnten, die sich darüber überrascht oder beeindruckt zeigen könnten, dass nun mal wieder ein sehr warmes Jahr ansteht, finde ich irgendwie komisch:” Oh, shit. 2014 wird das wärmste Jahr seit Friedrich dem Grossen. Jetzt ist es wohl doch irgendwie ernst mit dieser Klimadingens. Lass uns jetzt mal richtig verhandeln und nicht nur so rumpalavern.” Irgendwer bei der WMO meint wahrscheinlich, dass so eine Mitteilung ein gutes Timing bedeutet. Ich bin mir da nicht so sicher.
PS In einer ursprünglichen Version gab es noch ein andere Abbildung. Ich habe das von der WMO berechnete Mittel über drei Oberflächen-Temperaturdatensätze mit den Ozeanwärmemengedaten verwechselt. Sorry>
]]>Das ist aus zwei Gründen eine sportliche Behauptung: 1) Wenn die fälschenden Wissenschaftler denn nun mal wieder die Öffentlichkeit täuschen und betrügen wollen, warum haben sie es dann nur in der Zusammenfassung getan und nicht gleich auch im Bericht selbst? Es sind doch die gleichen Personen, die dann einmal ehrlich und brav sind, alles dokumentieren und wiedergeben und danach betrügen. Sind das denn alles so schlechte Betrüger und Hinter-das-Licht-Führer? Aber nu gut, man steckt nicht drin. 2) Die Bojanowskische Analyse bezieht sich auf die gesamte Zusammenfassung und den gesamten Bericht (er hat, soweit ich das sehe und verstehe, seinen Artikel am 2.11 um 12:34 ins Netz gestellt, also 1 Stunde und 34 Minuten nach der Veröffentlichung des Syntheseberichts. Chapeau!). Es kommen aber ausschliesslich Beispiele, die diese systematische Verfälschung im Zusammenhang mit dem prognostizierten Artensterben belegen sollen. Das ist insofern erstaunlich, da es sich ja nunmal um einen Bericht zum Klimawandel handelt und das Artensterben eher am Rande des Berichts mitschwimmt. Anscheinend haben sich die Wissenschaftler auf das Fälschen von Nebenaspekten spezialisiert. Warum machen die das? Können die nicht überall und systematisch fälschen? Nu ja, man steckt nicht drin.
Ich will im Folgenden nur nachschauen, ob sich die betreffenden Aussagen der Zusammenfassung im vollständigen IPCC Bericht oder in den Zusammenfassungen der Arbeitsgruppen finden lassen. Ob man diese oder jene Aussage nun gerade in die Zusammenfassung hat nehmen müssen (und nicht andere), steht nochmal auf einem anderen Blatt. Es geht also nur um die Richtung: A (im Synthesebericht) steht irgendwo in B (Gesamtbericht oder Zusammenfassung der Einzelberichte). Ich gehe im Folgenden nur auf die englischen Originalaussagen ein.
Es gibt drei Versionen des Synthesebericht: Die Headline Version (2 Seiten), die Kurzversion (41 Seiten) und die vollständige Version (117 Seiten). In der Headline Version gibt es gar nichts zum Artensterben. In der Kurzversion stehen insgesamt 15469 Wörter (ich habe alles aus dem PDF kopiert und dann gezählt. Mag sein, dass da ein bisschen Abfall bei ist) , davon befassen sich 221 (also ein Abschnitt und ein versprengter Satz) mit dem Artensterben. Das bedeutet einen Anteil von 1.4%. Nur mit diesem 1.4% Thema beschäftigt sich Axel Bojanowski also und schliesst doch für den gesamten Bericht: “Doch während die vorigen Klimaberichte über weite Strecken streng den Sachstand mit all seinen Widersprüchen darstellen, unterschlägt der neue Synthesereport wesentliche wissenschaftliche Erkenntnisse.” Ok, lesen wir mal nach, was da unterschlagen wurde. Hier diskutieren wir Satz für Satz, was in dem Abschnitt zum Artensterben aus dem Synthesereport (short version) so steht. Ich kontrastiere immer den Satz aus dem von Bojanowski der Unterschlagung bezichtigten Synthesereport (short version) mit der Synthese der WGII (in rot “Impacts, Adaptation and Vulnerability” ) und mit Aussagen aus dem Vollreport der WGII (in grün).
Synthesereport:
A large fraction of species face increased extinction risk due to climate change during and beyond the 21st century, especially as climate change interacts with other stressors (high confidence).
Synthese des Einzelberichts
A large fraction of both terrestrial and freshwater species faces increased extinction risk under projected climate change during and beyond the 21st century, especially as climate change interacts with other stressors, such as habitat modification, over-exploitation, pollution, and invasive species (high confidence)
Vollbericht: All model-based analyses since AR4 broadly confirm this concern, leading to high confidence that climate change will contribute to increased extinction risk for terrestrial and freshwater species over the coming century (Pereira et al., 2010; Sinervo et al., 2010; Pearson, 2011; Warren et al., 2011, 2012; Bellard et al., 2012; Hannah, 2012; Ihlow et al., 2012; Sekercioglu et al., 2012; Wearn et al., 2012; Foden et al., 2013). Most studies indicate that extinction risk rises rapidly with increasing levels of climate change, but some do not (Pereira et al., 2010). The limited number of studies that have directly compared land use and climate change drivers have concluded that projected land use change will continue to be a more important driver of extinction risk throughout the 21st century (Pereira et al., 2010). There is, however, broad agreement that land use, and habitat fragmentation in particular, will pose serious impediments to species adaptation to climate change as it is projected to reduce the capacity of many species to track climate (see Section 4.3.2.5.3). These considerations lead to the assessment that future species extinctions are a high risk because the consequences of climate change are potentially severe, widespread, and irreversible, as extinctions constitute the permanent loss of unique life forms.
Synthesereport:
Most plant species cannot naturally shift their geographical ranges sufficiently fast to keep up with current and high projected rates of climate change in most landscapes; most small mammals and freshwater molluscs will not be able to keep up at the rates projected under RCP4.5 and above in flat landscapes in this century (high confidence).
Synthese des Einzelberichts
1) Plants
Within this century, magnitudes and rates of climate change associated with medium- to high-emission scenarios (RCP4.5, 6.0,and 8.5) pose high risk of abrupt and irreversible regional-scale change in the composition, structure, and function of terrestrial and freshwater ecosystems, including wetlands (medium confidence). Examples that could lead to substantial impact on climate are the boreal-tundra Arctic system (medium confidence) and the Amazon forest (low confidence).
2) small mammals and freshwater mollusks
“Species shifts”, also die Geschwindigkeit mit der Arten ihren Standort aendern können sind insbesondere in Abbildung SPM5 zu finden. Sowohl freshwater mollusks als auch small mammals (rodents) sind dort aufgeführt. Beide sind (Median Wert) in ihrer “Habitatgeschwindigleit” unter den RCP6 und RCP8.5 für flat areas. Siehe Abbildung 1.
Abbildung 1: Vergleich von Migrationsgeschwindigkeiten verschiedener Fauna und Flora Species mit den prognostizierten Geschzindigkeiten, mit denen der Klimawandel in verschiedenen Terrains und unter unterschiedlichen Klimawandelscenarios voranschreitet.
Synthesereport
Future risk is indicated to be high by the observation that natural global climate change at rates lower than current anthropogenic climate change caused significant ecosystem shifts and species extinctions during the past millions of years. Marine organisms will face progressively lower oxygen levels and high rates and magnitudes of ocean acidification (high confidence),
Synthese des Einzelberichts
See Figure SPM.2B. While only a few recent species extinctions have been attributed as yet to climate change (high confidence), natural global climate change at rates slower than current anthropogenic climate change caused significant ecosystem shifts and species extinctions during the past millions of years (high confidence).
Ferner findet sich dort Abbildung SPM6.b mit der Beschreibung
Abbildung 2 (original caption aus dem SPM WGII): (B) Marine mollusk and crustacean fisheries (present-day estimated annual catch rates ≥0.005 tonnes km-2) and known locations of cold- and warm-water corals, depicted on a global map showing the projected distribution of ocean acidification under RCP8.5 (pH change from 1986-2005 to 2081–2100). [WGI AR5 Figure SPM.8].The bottom panel compares sensitivity to ocean acidification across mollusks, crustaceans, and corals, vulnerable animal phyla with socioeconomic relevance (e.g., for coastal protection and fisheries). The number of
species analyzed across studies is given for each category of elevated CO2.
Das Bild zeigt den prognostizierten (praktisch immer mehrheitlich negativen) Effekt auf diese Populationen (Krustazeen, Mollusken etc.) bei verschiedenen möglichen CO2 Gehältern.
Vollbericht:
gibt Beispiel für Massenaussterben während der letzten Millionen Jahre (PETM, 55 Mill.BP) mit gleichzeitiger starker Erwärmung und starkem CO2 Anstieg und ca. 50% Aussterben der benthischen Foraminiferen Arten (Seite 422). Von mir sei angemerkt, dass das Aussterben der großen Säuger während des Quartärs (30000-10000 yr BP) in der wissenschaftlichen Diskussion nachwievor mit schnellen Klimaschwankungen am Ende der letzten Eiszeit in Verbindung gebracht wird (entweder als alleiniger Faktor oder zusammen mit dem anderen Hauptstress für diese Arten, nämlich die Bejagung durch steinzeitliche Jäger). Das gilt ähnlich auch für eine uns sehr nahestehende Art grosser Säuger: den Neanderthalern.
Zitat (S.280)
Excellent examples of past large climate change events that drove large ecological change, as well as recovery periods in excess of a million years, include the events that led to the Earth’s five mass extinctions in the distant past (i.e., during the Ordovician, about 443 Ma, the Devonian, about 359 Ma, the Permian, about 251 Ma, the Triassic, about 200 Ma, and the Cretaceous, about 65 Ma; Barnosky et al., 2011). Major ecological change was also driven by climate change during the Paleocene-Eocene Thermal Maximum (PETM, 56 Ma; Wing et al., 2005; Jaramillo et al., 2010; Wing and Currano, 2013), the early Eocene Climatic Optimum (EECO, 53 to 50 Ma; Woodburne et al., 2009), the Pliocene (5.3 to 2.6 Ma; Haywood and Valdes, 2006; Haywood et al., 2011), and the Last Glacial Maximum (LGM) to Holocene transition between 21 and 6 ka (MacDonald et al., 2008; Clark et al., 2009; Gill et al., 2009; Williams, J.W. et al., 2010; Prentice et al., 2011; Daniau et al., 2012). The paleoecological record thus provides high confidence that large global climate change, comparable in magnitude to that projected for the 21st century, can result in large ecological changes, including large-scale biome shifts, reshuffling of communities, and species extinctions.
Synthesereport
with associated risks exacerbated by rising ocean temperature extremes (medium confidence).
Synthese des Einzelberichts
In Tabelle SPM.A1 sind für verschiedene Spezies und Regionen einzeln diskutiert, ob sie erhöhtem Stress und eventuell dem Aussterben bedroht sind. Ich fand folgende Bemerkungen:
Australasia: Ability of corals to adapt naturally appears limited and insufficient to offset the detrimental effects of rising temperatures and acidification.
Ocean: Evolutionary adaptation potential of fish and invertebrate species to warming is limited as indicated by their changes in distribution to maintain temperatures.
Synthesereport
Coral reefs and polar ecosystems are highly vulnerable. Coastal systems and low-lying areas are at risk from sea –level rise, which will continue for centuries even if the global mean temperature is stabilised (high confidence). {2.3, 2.4, Figure 2.5}
Synthese des Einzelberichts
1) Corals: Evidence of rapid evolution by corals is very limited. Some corals may migrate to higher latitudes, but entire reef systems are not expected to be able to track the high rates of temperature shifts.
2) Polar ecosystems:
a) Increased shrub cover in tundra in North America and Eurasia ( high confidence, major contribution from climate change)
b) Advance of Arctic tree-line in latitude and altitude ( medium confidence, major contribution from climate change)
c) Changed breeding area and population size of subarctic birds, due to snowbed reduction and/or tundra shrub encroachment ( medium confi dence, major contribution from climate change)
d) Loss of snow-bed ecosystems and tussock tundra ( high confidence, major contribution from climate change).
e) Impacts on tundra animals from increased ice layers in snow pack, following rain-on-snow events ( medium confi dence, major contribution from climate change)
f) Increased plant species ranges in the West Antarctic Peninsula and nearby islands over the past 50 years ( high confi dence, major contribution from climate change)
g) Increased phytoplankton productivity in Signy Island lake waters ( high confidence, major contribution from climate change) [28.2, Table 18-7]
Vollbericht:
Corals: Regional extinction of species that are sensitive to climate change will lead to a decrease in species richness. In particular, the impacts of climate change on vulnerable organisms such as warmwater corals are expected to affect associated ecosystems, such as coral reef communities.
Polar: In polar areas, populations of species of invertebrates and fish adapted to colder waters may decline as they have no place to go. Some of those species may face local extinction. Some species in semi-enclosed seas such as the Wadden Sea and the Mediterranean Sea also face higher risk of local extinction because land boundaries around those bodies of water will make it difficult for those species to move laterally to escape waters that may be too warm. (S.451)
Fazit: Die Aussagen, die ich in der short version des synthesis report des Gesamtberichts der WGII zum Thema Artensterben gefunden habe (also die von Bojanowski als manipuliert beurteilte Version), finden sich zum Teil wörtlich im synthesis report der Arbeitsgruppe II, der im März dieses Jahres erschienen ist. Ich habe im Gesamtbericht der Arbeitsgruppe II ausschliesslich Aussagen gefunden, die mit den Zusammenfassungen übereinstimmen. Man müsste das jetzt noch weiter führen, um abschliessend zu beurteilen, ob Axel Bojanowski tatsächlich dermaßen daneben gelegen hat, wie es jetzt zumindest mal aussieht. So meint er, dass man Unsicherheiten mehr betonen müsste. Es ist nicht wirklich überraschend, dass der Vollbericht mehr über Unsicherheiten spricht als eine Zusammenfassung. Auch müsste man natürlich auch noch beurteilen, ob es im Gesamtbericht Aussagen gibt, die wichtiger sind als die, die in die Zusammenfassung gekommen sind. Alles in allem kommt aber der Eindruck auf, dass Axel Bojanowski genau wie so viele Skeptiker, erst dann mit einer Zusammenfassung von was auch immer zufrieden seien würden, wenn sie sie selbst schreiben dürften. Bojanowski startet als Zola und es endet doch eher mit Zolala. Denn bis jetzt schreiben ja leider immer noch die Wissenschaftler den IPCC Bericht und seine Zusammenfassungen, die dann natürlich immer auch subjektiv die wichtigsten Ergebnisse herausstreichen.
Bojanowski selbst hat sich bislang einer Diskussion leider verschlossen, keine weiteren Antworten mehr im Internet gegeben und schon mal prophylaktisch mit dem Anwalt gedroht, für den Fall, dass man weiter schreiben würde, dass er da Unsinn schreibt.
Ich will die Gelegenheit aber nicht verstreichen lassen: Dieser Satz findet sich in seinem Artikel: “Klimamodelle können diverse Schlüsselprozesse hinsichtlich der Artenentwicklung nicht darstellen, die Anfälligkeiten von Arten gegenüber dem Klimawandel wesentlich beeinflussen – beispielsweise: Die Fähigkeit der Anpassung von Erbgut und äußeren Merkmalen an neue Umweltbedingungen, die Fähigkeit zur Ausbreitung, die Dynamik von Populationen, die Effekte der Fragmentierung von Lebensräumen, die Wechselwirkung von Lebensgemeinschaften, Mikro-Rückzugsgebiete, den Effekt steigender CO2-Konzentrationen auf Vegetation (Seite 299/300).”
Mal abgesehen davon, dass wir hier nicht von Klimamodellen reden, steht dieser Satz so ähnlich auf Seite 299 des Vollreports. Allerdings steht dort:
Models frequently do not account for … So wird aus einem “häufig” auftretenden Mangel von Modellen, ein stets und immer auftretender Mangel. Denn man findet zahlreiche Modelle, die zB so etwas können:
Features include feedback through canopy conductance between photosynthesis and transpiration and interactive coupling between these ‘fast’ processes and other ecosystem processes including resource competition, tissue turnover, population dynamics, soil organic matter and litter dynamics and fire disturbance. Ten plants functional types (PFTs) are differentiated by physiological, morphological, phenological, bioclimatic and fire-response attributes. Resource competition and differential responses to fire between PFTs influence their relative fractional cover from year to year.
Es gibt mittlerweile eine Reihe Biosphären-Modelle, die die Dynamik und Migration von Pflanzengemeinschaften unter sich ändernden Klimabedingungen beschreiben. Ausserdem gibt es ein ganzes Kapitel im vorletzten (!), vierten IPCC Bericht, der sich mit Modellen beschäftigt, die den Einfluss steigender CO2 Konzentrationen auf die Vegetation beschreiben. Ich glaube, Anwalt hin, Anwalt her, die oben fett unterlegten Behauptungen Bojanowskis unterschlagen wichtige wissenschaftliche Erkenntnisse und verfälschen durch Weglassen eines Wortes die eigentliche Aussage des IPCC Berichts.
PS Hier eine weitere Besprechung von Bojanowskis Artikel.
PPS: Kleiner Nachtrag. Bojanowski hat den ursprünglichen Text um einiges geändert, wobei er permanent Kritik aufnimmt, die sich so im Internet findet. Das ist gut. Noch besser wäre, wenn er das auch markieren und kurz begründen würde, insbesondere in einem Artikel der sich sehr kritisch (Unterlassung und Manipulation) mit der Textverarbeitung von anderen auseinandersetzt.
Hier findet sich die ursprüngliche Version und hier die jetzige. Der oben auch erwähnte Kritikpunkt, dass der Vergleich globaler Temperaturen mit den Temperaturschwankungen in Grönland keinen Sinn machen, hat eine erste Bearbeitung im Wandel von Version 1 und Version 2 erfahren:
Version 1
Paläontologische Daten der vergangenen Jahrhunderttausende zeigen sehr geringe Aussterberaten während größerer Klimaschwankungen. Diese Belege könnten darauf hindeuten, dass die Vorhersagen sehr hoher Aussterberaten übertrieben sein könnten. Am Ende der Eiszeit gab es in größeren Teilen der Welt Klimaschwankungen von zehn Grad in 50 Jahren, also 20-mal schneller als im 20. Jahrhundert – größere klimabedingte Artensterben sind nicht dokumentiert.
Version 2
Paläontologische Daten der vergangenen Jahrhunderttausende zeigen sehr geringe Aussterberaten während größerer Klimaschwankungen. Diese Belege könnten darauf hindeuten, dass die Vorhersagen sehr hoher Aussterberaten übertrieben sein könnten (Seite 301). Während der Eiszeit gab es, wie auch der erste Teil des Uno-Klimareports darlegt, in größeren Teilen der Welt Klimaschwankungen von zehn Grad in 50 Jahren, also 20-mal schneller als im 20. Jahrhundert – größere klimabedingte Artensterben sind nicht dokumentiert. Womöglich weil die Klimaschwankungen vor allem höhere Breiten betrafen (Seite 432ff im 1. Teil und S.280).
Jetzt vielleicht noch den ganzen Vergleich rausnehmen, Herr Bojanowski? Go for Version 3!
]]>
Seit langem wissen wir, welches Subsystem des Klimas für den Groszteil der Unsicherheiten verantwortlich ist. Die Wolken sind so etwas wie die Archillesferse der Klimamodellierung. Ein klassiche Illustration dieser Unsicherheit, die durch die Beschreibung der Wolken in die Klimamodellierung hereingebracht wird, ist sicher Abbildung 1 aus einem Paper von Brian Soden und Isaac Held aus dem Jahr 2006. Es zeigt die Reaktion (den Feedback) verschiedener Klima-Subsysteme, so wie sie die damaligen Modelle berechneten und wie sie sicher so ähnlich noch heute aussieht. Der Wasserdampffeedback ist der wichtigste Feedback: Höhere Temperaturen führen dazu, dass die Atmosphäre mehr Wasserdampf halten kann, Wasserdampf ist ein Treibhausgas, also wird noch mehr Infrarot-Strahlung zurückgehalten und es wird noch wärmer. Zudem ist dieser Effekt nicht ganz gleichmäßig über die ganze atmosphärische Säule verteilt. Alle Modelle sehen eine stärkere Erwärmung in der hohen Troposphäre voraus. Diese überprotional erwärmten Schichten in der Höhe strahlen recht effektiv aus (ist ja nichts mehr drüber) und verringern dadurch wiederum den ursprünglichen Erwärmungseffekt. Kombiniert man aber die beiden Feedbacks, Wasserdampf und Lapse rate feedback, so findet (in Abb.1 die Punkte markiert mit WV+LR) man eine relativ geringe Streuung zwischen den Modellen. Diese Kombination ist nur logisch, denn diejenigen Modelle, die relative viel Wasserdampf in hohe Schichten bringen, erzeugen dort einen starken Treibhauseffekt einerseits und strahlen andererseits in dieser Höhe verstärkt aus. WV + LR hängen also eng miteinander zusammen und zusammengerechnet ergibt sich eben eine relative geringe Streuung zwischen den Modellen. Gleiches gilt auch für den Eis-Albedo Feedback (A in Abbildung 1, weniger Eis und Schnee, mehr dunkle Flächen, erhöhte Absorption kurzwelliger Strahlung), der zwischen den Modellen auch nur gering streut. Der Hauptverursacher der Gesamtstreuung (All in Abb.1) ist in der Tat der Wolkenfeedback (C). Aber wie kommt das eigentlich?
Abbildung 1: Die verschiedenen Feedbacks wie sie von den Modellen des vierten IPCC Reports dargestellt wurden. Die größten Unsicherheiten beschert der Wolkenfeedback, der in den Modellen von eicht negativ (kühlend) zu stark erwärmend reicht.
Die Unsicherheiten in der Wolkenmodellierung und dann auch die Streuung zwischen den Modellen in Bild 1 kommt ursächlich nicht von “exotischen” Effekten, etwa weil das eine Modell kosmische Strahlung versuchte zu berücksichtigen und das andere eine fundamental andere Beschreibung der Aerosol-Wolkenbildungschemie beinhaltete (hier auf Primaklima hatte damals Karsten Haustein einen Überblick über verschiedene Aerosoleffekte gegeben und schön gezeigt wie diese auch mit den Wolken zusammenhängen. )
Abbildung 2: Reaktion von 4 verschiedenen Klimamodellen auf eine uniforme 4 Grad Erwärmung auf einem fiktiven Wasserplaneten.
All das ist in den Modellen nichtmals nötig, um große Variationen zwischen ihnen herzustellen. Die nichtlineare Dynamik zwischen konvektiver Wolkenbildung, veränderter Ein- und Abstrahlung durch veränderte Wolkenbedeckung und dann veränderten Temperaturgradienten (horizontal, vertikal) schaukeln sich leicht so auf, dass signifikant andere Reaktionen auf eine gleiche Erhöhung etwa des CO2 Gehalts simuliert werden. Es geht um die Wolken in den Tropen/Subtropen, wieviel kurzwellige Strahlung sie durchlassen und wieviel Strahlung sie als langwelliger Abstrahler in welcher Höhe wieder abstrahlen. Die Wolken verwalten global gemittelt, je nach Berechnung, zwischen 20-30W/m2. Dieser sogenannte cloud radiative effect (CRE) ist aber regional höchst variable und hängt ganz vom Wolkentypus, Wolkenhöhe, Eisanteil, ja selbst von den Temperaturen der unter den Wolken befindlichen Oberfläche zusammen. Bjoern Stevens und Sandrine Bony machten vor kurzem auf diese fundamentale Unsicherheit in einem Science-Paper aufmerksam. “Back to Basics” forderten sie angesicht von Resultaten wie in Abbildung 2 gezeigt. Auf einem fiktiven Wasserplaneten mit einer uniformen 4 Grad Erwärmung reagierten 4 Standard-Klimamodelle des CMIP5 Projekts sehr unterschiedlich, und zwar gerade dort, wo in den Tropen Konvektion, Wolkenbildung und grossräumige Zirkulation aufeinandertreffen (siehe Abb. 2). Allein die Kombination dieser drei Mechanismen sind schon in der Lage einen beträchtlichen Anteil der Unsicherheiten der Wolkenfeedbacks, von leicht abkühlend bis kräftig erwärmend, zu erzeugen.
Gibt es denn keine Abkürzung, um zwischen Modellen zwischen “guter” und eher “nicht so guter” Repräsentation der wichtigsten Wolkenprozesse zu unterscheiden? Gibt es so etwas wie erste Ordnungsprozesse, die im globalen Mittel bei aller regionaler Variabilität eben dominieren müssen?
Tatsächlich gibt es dazu einige Ansätze.
1) Die Sättigung eines Luftpakets hängt von der Temperatur ab (Clausius-Clapeyron Gleichung). 1K Erwärmung, so sagt die CC Gleichung, führt zu einem Anstieg der Feuchte von ~7% . Dieser Feuchteanstieg entspricht ungefähr der in praktisch allen Modellen berechneten Konstanz der globalen relative Feuchte. Satellitenbeobachtungen bestätigen ebenfalls ein solches Sättigungsverhalten. Interannual Ozeantemperatur-Schwankungen führen genau zu Feuchteschwankungen in der Grössenordnung von 7%/K. Diese Faustregel hilft einem übrigens nicht weiter um den Wasserdampffeedback abzuschätzen, denn wir sprechen hier hauptsächlich von der unteren Troposphäre. Der zusätzliche Treibhauseffekt des Wassserdampfs aber spielt sich überwiegend in der oberen Troposphäre. Das nur nebenbei.
2) Dieser Anstieg der hauptsächlich bodennahen Feuchte hat nun aber nichts mit der Intensität des hydrologischen Zyklus, also dem globalen Niederschlag (P) oder Verdampfung (E). Man kann nun in einer an sich sehr einfachen Rechnung zeigen, dass jeder zusätzliche Energieeintrag in die freie Troposphäre durch zusätzliche Kondensation und dann Niederschlagsbildung kompensiert werden muss. Diese Kompensation erfolgt durch eine erhöhte Abstrahlung, die wiederum nur durch den zusätzlichen Wasserdampf erfolgen kann. Diese maximal mögliche Strahlungskühlung begrenzt den Anstieg des Niederschlags bei ca. 2%/K. Das kleiner werdende Verhältniss zwischen P (dem Rückfluss der Feuchte) und M (der sich nach CC akumulierenden Feuchte) wird also durch Strahlungskühlung kontrolliert und führt somit zu einer Verlangsamung des globalen Wasserzyklus und also einer längeren Aufenthaltszeit des Wasserdampfs in der Atmosphäre.
PS. Es sei erwähnt, dass diese Verlangsamung des Wasserzyklus und moderate Anstieg des Niederschlags nicht unbedingt das ist, was man bisher im sich erwärmenden 20ten Jahrhundert als Änderung des globalen P beobachtet hat. Die meisten Experten vermuten, dass dies wohl mit dem Effekt der Aerosole auf Wolkenbildung und Niederschlag zu tun haben könnte.
Was folgt daraus für Wolkenbildung und insbesondere der tropisch/subtropischen Zirkulation? Und kann man aus diesen Überlegungen vielleicht doch noch etwas über die Klimasensitivität lernen? Was machen die Modelle? Wird so eine theoretisch vermutete Dämpfung des tropischen Wasserzyklus simuliert? Dazu mehr im zweiten Teil dieses Wolkenfeedback-Beitrag.
Literatur:
1) Stephens and Ellis: Controls of Global Mean precipitation Increases … Journal of Climate 2006
3) Stephens and Bony: What are Climate models missing?
]]>
2014 weist im GISS Datensatz den wärmsten je gemessenen Mai, August und September auf. Und auch im Oktober hat es geklingelt. Gleichauf mit dem Jahr 2005 war dies auch der wärmste Oktober seit es Thermometer gibt.
Animation 1: Zeitverlauf des bis zum jeweiligen Monat gemessenen globalen Temperaturmittels. Also Mittel von Jan-Apr, Jan-Mai, Jan-Mai etc. Man sieht gut wie 2014 immer weiter aufholt und jetzt auf Platz zwei hinter dem Jan-Okt 2010 liegt.
Das Ranking hat sich auch deutlich geändert. 2014 liegt jetzt auf Platz zwei und unter den ersten fünf Jahren hat das Jahr 2005 nun das Jahr 2002 herausgekegelt (siehe die neue Farbe blau in Animation 2). 2005 ist jetzt dritter. Hier nochmal die Reihenfolge mit dem jeweiligen Temperaturmittel (Anomalie in K).
2010: 0.672
2014: 0.662
2005: 0.647
2007: 0.644
1998: 0.632
Animation 2: Jahresverlauf der fünf wärmsten Jahreabschnitte. Im Jan-Okt Bild ist das Jahr 2005 (blaue linie im letzten Bild der Animation) hinzugekommen und hat das Jahr 2002 verdrängt.
Bleibt die Frage: Wie stehen die Chancen, dass ich meine Wette gewinne? Rein rechnerisch ist das leicht zu beantworten. Das bislang wärmste Jahr 2010 endete mit einem Mittel von 0.66. Es war insbesondere geprägt von einem relativ kühlen Dezember (siehe Animation 2). Das jetzige 2014 liegt im Mittel bis Oktober bei 0.662, mit anderen Worten zwei Monate mit mindestens 0.66K Anomalie und die Wette ist gewonnen.
Wie sehen die aktuellen Temperaturen aus? Aus den Nachrichten wissen vielleicht die meisten, dass es einen kräftigen Wintereinbruch in den USA und in Sibirien gegeben hat, und dass es in Europa relativ mild geblieben ist. Eine solche Verteilung von warm/kalt Anomalien entspricht natürlich bekannten planetary wave patterns. Nichts Besonderes an sich; hat aber zusammen mit den dazugehörenden Schneefällen den Effekt, die Nordhemisphäre doch recht stark abzukühlen. Wichtiger sind vielleicht noch die globalen SST (sea surface temperatures) Trends: Der zentrale Pazifik hat sich im letzten Monat zwar etwas erwärmt (siehe Bild 1), aber insbesondere der Nordpazifik und überhaupt die mittleren und hohem Breietn beider Hemisphären haben sich im letzten Monat doch eher abgekühlt. Es bleibt spannend.
Bild 1: Temperaturtrends im Laufe des lettzten Monats (Nov-Okt, 2015). Während der tropische Pazifik sich weiter aufwärmte, kühten die mittleren und hohen Breiten beider Hemisphären ab.
]]>Sind Klimawissenschaftler häufiger religiös als andere Wissenschaftler? Sind religiöse Menschen eher oder weniger überzeugt davon, dass es einen Klimawandel gibt? Sind religiöse Menschen eher bereit, ein anderes, klimaschonendes Verhalten anzulegen, also etwa zu Fuss zur Kirche zu gehen etc.? Oder ist vielleicht sogar das ganze Projekt einer CO2 armen Welt ein typisch christlich-religiöses Projekt ähnlich vielleicht zum Bau der Kathedralen im Mittelalter?
Hier also Williams Zusammenfassung.
Nur so viel von mir: An sich bin ich ziemlich sicher, dass es völlig irrelevant ist, welche metaphysischen Überzeugungen ein Wissenschaftler hat. Er kann so oder so ein erfolgreicher, “guter” Wissenschaftler sein. Gerade hier auf den Scienceblogs, so recht weiss ich nicht warum, geht ein bisschen der Glaube um, nur Atheisten könnten letztlich wahre Wissenschaftler (“true scotsmen“) sein. Mal abgesehen von den vielen, vielen Gegenbeispielen ist Wissenschaft eine soziale Praxis, die sich aus Handlungen von und zusammen mit anderen Wissenschaftlern ergibt. An dieser Praxis kann man teilnehmen, selbst wenn man meint, dass ein Spaghettimonster über das Schicksal des nächsten Proposals entscheidet. Von daher wäre ich doch sehr überrascht, wenn es in den Klimawissenschaften mehr oder weniger religiöse Menschen gibt, trotz David Hulme selbst oder auch trotz James Hansen.
Bild: Die Sagrada Familia in Barcelona, eine Metapher auf das Projekt des Umbaus zur CO2 freien Gesellschaft? 1883 von Antonio Gaudi begonnen, hat ihre Erbauung Unsummen verschlungen, die nachwievor per Eintrittsgelder, also per Crowdfunding, eingetrieben werden. Niemand aus der Generation derjenigen, die mit der Erbauung angefangen haben, hat einen relevanten Teil der Fertigstellung erlebt (ca 15% war zum Zeitpunkt von Gaudis Tod fertiggestellt). Gaudi selbst meinte: My client is not in a hurry.
Etwas interessanter ist vielleicht die Frage, ob so ein Megaprojekt wie der “Umbau zur CO2 freien Gesellschaft” religiöse Aspekte hat. Wie ja allgemein bekannt ist, ist dieses Projekt schon extrem aufwendig und kostspielig, es hat, soweit man das sagen kann, für diejenigen, die diese Anstrengungen unternehmen würden (also “unsere Generation”), eine CO2 freie Gesellschaft zu bauen, praktisch keine diesseitigen Konsequenzen und somit höchstens eine moralische, wenn man so will, jenseitige Kompensation. Man beachte etwa die globalen Temperaturverläufe der Klimamodelle in den verschiedenen Scenarios. Ein radikaler Umbau der Energieproduktion oder eine völlige Missachtung des Klimaproblems hat in meiner Lebenszeit zumindest keine Konsequenzen mehr. Dies mag der Grund sein, warum das Ganze Klimaproblem nicht nur als politisches Problem präsentiert wird, sondern häufig auch als “das moralische Problem” schlechthin.
PS Ja. Alle Klimaskeptiker dürfen jetzt einmal “Klimareligion” sagen.
PPS. Die anderen Beiträge in der Wesley Methodist Church Vortragsreihe “Science meet Faith” klingen auch sehr interessant. Ich versuche mal an irgendwelches Material zu kommen.
]]>Folgendes lese ich bei Jared Diamond, der ja hier auch schon häufig erwähnt wurde:
“Psychologists base most of their generalizations about human nature on studies of our own narrow and atypical slice of human diversity. Among the human subjects studied in a sample of papers from the top psychology journals surveyed in the year 2008, 96% were from Westernized industrial countries, 68% were from the US in particular, and up to 80% were college undergraduates enrolled in psychology courses, i.e. not even typical of their own national society….most of our understanding of human psychology is based on subjects who may be described by the acronym WEIRD: from Western, educated, industrialized, rich, and democratic societies”
In Diamonds Buch gibt es dazu keine Literaturangabe, aber es gibt natürlich auch keinen Grund ihm nicht zu vertrauen. Es überrascht halt doch sehr. Wäre die Klimatologie wie die Psychologie aufgebaut, dann würden all unsere Daten zur gobalen Erwärmung aus einer einzigen, stark urbanen Region in den Vereinigten Staaten stammen.
]]>Statistiken dieser Informationen wären dann natürlich hilfreich bei der Planung von Infrastrukturmassnahmen oder bei der Katastrophenplanung, und zwar gerade in Gegenden und Ländern, wo man ähnliche Informationen nicht auch von anderen Quellen, etwa nationale Zensus (aber siehe etwa hier) oder Autobahnkameras, her beziehen kann. Gerade in Entwicklungsländern sind z.B. Informationen der Art, wo sich bei einem Vulkanausbruch oder einem Tsunami gerade wieviele Menschen an welcher Stelle befinden, extrem hilfreich.
Pierre Deville von der Universite catholique de Louvain und Kollegen haben daher Algorithmen entwickelt, die sich an die ja fein verteilten Sendetürme anhängen und so jeden gesendeten Text und jedes Gespräch relativ genau lokalisieren können ohne irgendwelche Datenschutzprobleme zu berühren (PNAS paper siehe hier ). Sie haben über 1 Milliarde Gespräche von 2 Millionen Portugiesen (20% der Bevölkerung) und 17 Millionen Franzosen (30% der Bevölkerung) analysiert und verarbeitet. Das folgende Video gibt einen faszinierenden Eindruck wie etwa in Frankreich auf täglicher Basis und auch über das Jahr hin die Menschenmassen hin und her, mal zum Strand, mal zur Arbeit schwappen. Die Ergebnisse wurden kalibriert indem sie auf klassische Zensusdaten zurückgriffen.
Als nächstes beabsichtigen die Autoren, ihre Methode auf andere Länder und Regionen zu erweitern. Kenia und Camerun sind geplant. Wie heisst es doch im Song von Police: Every breath you take. Every move you make. Every bond you break. Every step you take. I’ll be watching you.
Bild: Logo des IRD Projekts “Rain Cell Africa” bei dem ein Warnsystem für Starkniederschläge aufgebaut werden soll. Die Informations stammt von der Störung von Signalen zwischen Handymasten, die mittlerweile schon einen großen Teil des bewohnten Landes abdecken.
Doch das ist noch nicht alles. Die Stärke der Handy-Sendesignale wird stark durch Regen verändert, hauptsächlich durch die Absorption und Diffusion durch Regentropfen. Was für die Netzbetreiber ein Problem ist, stellt für die Wissenschaftler natürlich eine interessante Informationsquelle dar. Man muss lediglich die Veränderung des Sendesignals gegen die Niederschlagsmenge kalibrieren und erhält ein annähernd globales (20% der kontinentalen Erdoberfläche ist schon mit Sendetürmen abgedeckt. Auf diesen 20% Prozent leben in etwa 90% der Weltbevölkerung) Niederschlagsmessnetz. Mitarbeiter des französischen IRD (Institut de recherche pour le développement. Siehe hier , hier und hier ) haben das einmal für Burkina Faso durchgeführt. Sie hoffen insbesondere bei schlecht vorhersagbaren Starkniederschlägen ein sehr lokales und schnelles Warnnetz aufbauen zu können. Das setzt wohl voraus, dass wir alle auch dann kräftig telephonieren und simsen, wenn gerade der Himmel herunterfällt. Aber das sollte eigentlich kein Problem sein. Der Weltuntergang wird sicher noch mit einem Emotikon verkündet.
h/t Sylvestre Huet von der Liberation.
* Ich bin ja Vater zweier teen/twen Töchter und weiss wovon ich rede. Ich kann mich beim besten Willen nicht mehr an ein Gespräch erinnern, das nicht dringend von einem Getippe auf der Tastatur unterbrochen werden musste. Wahrscheinlich werde ich dereinst auf dem Sterbebett liegen, die Famille um mich geschart, und, während ich meine letzten Wort für die Nachwelt abgeben will, wird gesimst und werden Selfies verschickt, was das Zeug hält.
]]>
Trotzdem knackt das Jahr auch im Monat September wieder die Rekordmarke. Der September 2014 ist also der wärmste gemessene September im GISS Temperaturdatensatz, genauso wie es der Mai und August 2014 es bereits waren. Immerhin ist das schon dritte Rekordmonate in einem Jahr. Chapeau!
Animation 1: Der Verlauf der Jahresabschnitte im Vergleich. Die Temperaturen des GISS Datensatz wurden gemittelt von Januar bis April, Mai, Juni, etc. Man erkennt gut, wie 2014 langsam im Ranking nach oben klettert.
Wenn es aber nicht oder kaum der tropische Pazifik mit einem nur sehr schwachen ENSO Ereignis ist, was trägt dann zu den warmen Temperaturen bei? Besonders wichtig sind natürlich immer die Ozeane. Neben einem lauwarmen Indischen Ozean und, wie gesagt, tropischen Pazifik trägt insbesondere der brühwarme Nordpazifik mit bis zu drei Grad (!) über dem klimatologischen Mittel liegenden Temperaturen zu den hohen Temperaturen bei.
Animation 2: Die fünf wärmsten Jahre im Vergleich. 2002, 2007, 1998, 2010 und das laufende Jahr 2014.
Zum Schluss noch das aktuelle Ranking des Jahresabschnitts Jan-Sep:
5) 2002: Jan-Sep Anomalie +0.641
4) 2014: Jan-Sep Anomalie +0.651
3) 2007: Jan-Sep Anomalie +0.653
2) 1998: Jan-Sep Anomalie +0.657
1) 2010: Jan-Sep Anomalie +0.674
Es bleibt spannend, aber ein guter zweiter Platz scheint mir doch der wahrscheinlichste Ausgang für das Jahr 2014. Würde man allerdings einmal annehmen, dass die letzten drei Monate des Jahres auf dem Niveau des Monats September blieben (also eine Anomalie von +0.77Grad), dann käme das Gesamtjahr 2014 auf +0.69Grad und somit auf den ersten Platz der wärmsten Jahre. Ich hoffe alle Wettpartner sind noch dabei und folgen dem Wettverlauf aufmerksam, denn es könnte schon recht knapp werden.
]]>
Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.
Oder mit anderen Worten: Die Basics der Klimawissenschaften sind bekannt und ackzeptiert. Der ganze aufklärerische und nervende Duktus dieser Klimawissenschaftler ist völlig für die Katz. Dave Jon Stewart hat in der DailyShow aber doch noch, nach jahrelanger Suche, drei Kandidaten gefunden, bei denen das Eine oder Andere wissensmäßig nachgebessert werden könnte. Drei republikanische Abgeordnete von Kalifornien (Rohrabacher), Texas (Stockman) und Indiana (Bucshon) denken 1) die CO2 Emissionsdebatte dreht sich um direkte Gesundheitsfragen für den Menschen, 2) halten Meeresspiegeländerungen für mathematisch unmöglich, da Eis auf dem Wasser schwimmt (oder so ähnlich), 3) halten wissenschaftliche Literatur für verfälschend, weil sie von Leuten erstellt wird, die das beruflich treiben (i.e. Science). Wer Schadenfreude und Häme für keine zuzulassenden Regungen hält, der klicke nicht auf das untere Bild.
Video: Die schönsten Momente der Befragung von John Holdren im US House of Representatives Committee of Science, Space and Technology.
All diese Abgeordneten haben Leute, die ihnen zuarbeiten, und sie sind freien Willens in dieses Komitee gewählt worden. Gibt es nun einen information gap oder nicht? Entscheidet selbst.
]]>h/t to Gabi Hegerl
]]>
Ich habe mich mal entschlossen, hier zum Thema der katalanischen Unabhängigkeitsbewegung und ihrer Forderung nach einer Abstimmung am 9. November zu schreiben. Zum einen bin ich relativ nah dran (also ein Pseudoexperte), und zum anderen zeigt die öffentliche Diskussion in Katalonien mittlerweile alle Anzeichen eines durchdrehenden Nationalismus, von dem wir ja in letzter Zeit ein ziemlich dolles Revival erleben dürfen. Ausgerechnet zum 100ersten Jubiläumsjahr des ersten Weltkriegs feiert die Nation (im Gegensatz zur verfassungsorientierten Staatsidee) eine fröhliche und eigentlich unerwartete Wiederkehr. So gibt es starke nationale Bewegungen in Schottland, dem spanischen Baskenland, Katalonien, Südtirol und dem flämischen Teil Belgiens. Auf dem Balkan hat natürlich traditionell jedes Dorf mit mehr als zwei Einwohnern eine eigene Sprache, Kultur und Geschichte, die völlig inkommensurabel mit jedwedem überregionalem Staat ist (siehe Ostukraine und Krim). Ich jedenfalls lese in deutschen Blättern immer eine große Sympathie heraus, wenn da mal wieder einer oder eine sagt, “er/sie sei Schotte, Baske, Katalane oder Russe. Wie könne man da nur erwarten, dass man mit den Anderen in einem Staate zusammenleben könnte.” Was also geht gerade in Katalonien vor?
In dem innerspanischen Konflikt zwischen Katalanen und der Zentralregierung findet man altbekannte Argumentationsstränge und Bilder von Nation und Kulturgemeinschaft, die man schon für längst erledigt gehalten hatte. Es fehlt noch wenig, sich auch noch auf die “Rasse” zu berufen, um sein Streben nach einem unabhängigen Staate zu begründen (bei den ebenfalls im “Unabhängigkeitskampf” stehenden Basken kommt allerdings auch das vor). Sonst ist aber schon wieder alles da, wovon man sich vor langem meinte verabschiedet zu haben.
Ein wenig Geschichte und Hintergrund zu Katalonien: Im heutigen Sinne “unabhängig” war Katalonien nie. Seit der Heirat (1469) der “reyes catholicos”, Ferdinand II (der König von Aragonien war, also eines deutlich grösseren Gebiets als das heutige Katalonien), und Isabella, Königin von Castilla-Leon, gehörte die Region Katalonien zur spanischen Krone. Natürlich macht die Anwendung des heutigen Nationenbegriff auf diese Zeit ohnehin wenig Sinn, aber immerhin hatte die Handelsregion Katalonien und vor allem das ökonomisch starke Barcelona zwischen dem Ende des Mittelalters und dem Barock eine relative Verwaltungsunabhängigkeit in vielen Fragen. Das sollte sich aber 1714 ändern.
Dank heftig betriebenem Inzests über mehrere Generationen, bei dem am laufenden Band 12-jährige Nichten ersten Grades geheiratet wurden, brachten es die Habsburger des spanischen Königshauses schliesslich zur Selbstauslöschung (inbreeding factor 0.254. Die Bilder des Sevillaners Velazquez und von Juan de Miranda vom spanischen Königshof kann man fast als eine Studie zum Thema ansehen.) und erlaubten so den Weg frei zu machen für den 13-jährigen spanischen Erbfolgekrieg. Nach dem Tod des kinderlos gebliebenen Karls II kam es europaweit zu langjährigen Auseinandersetzungen zwischen Anhängern der Habsburger und der Bourbonen, die schlimmsten übrigens in Bayern und den Niederlanden, nicht in Spanien. Katalonien setzte mehrheitlich aufs falsche Pferd, eben auf die österreichischen Habsburger.
Nach der Machtübernahme des Bourbonen Philipps V gab es die zu dieser Zeit üblichen Strafmassnahmen. Wir befinden uns im Jahre 1713 noch in der Nähe des dreissigjährigen Krieges und gemessen daran lief diese “Bestrafung” Kataloniens mit dem Verlust einiger Handels- und Verwaltungsrechte und der Abschaffung der Cortes sehr, sehr gemässigt ab. Ein Teil Kataloniens, nämlich die Region um Perpignan ging an Frankreich. Das zum Ende der Nachfolgekriege (1713-1714) existierende Fürstentum Katalonien hatte sowenig wie alle anderen mehr oder minder unabhängigen Fürstentümer und Königreiche dieser Zeit etwas mit der aus dem 19ten Jhd. stammenden Idee einer Nation zu tun. Tatsächlich spiegelte der Krieg Philips V gegen Katalonien zum Teil einen Konflikt innerhalb des katalonischen Adels und Bürgertums wieder und mit Sicherheit eben nicht einen Konflikt zwischen Spanien und einer Unabhängigkeit ersehnenden Nation Katalonien wieder (hier Resultate einer ausführlichen Konferenz zum Thema). Seit dieser Zeit also ist Katalonien eine der “regiones autonomas” Spaniens (heute gibt es 17 davon und sie sind in etwa vergleichbar mit den deutschen Ländern), wobei Katalonien zusammen mit Galizien und dem Baskenland in der spanischen Konstitution noch einen Extrastatus als eine “autonomia historica” eingeräumt wird.
Jetzt wird man sich fragen, warum erzählt der Georg das alles? Das schert doch heute sicher keinen mehr, ob im 17ten/18ten Jhd. Teile des katalonischen Adels eher den Habsburgern oder den Bourbonen zuneigten. Und doch, genau so will es der nationale Wahn. Es gehört nämlich geradezu zum konstituierenden Element des durchdrehenden Nationalismus, sich irgendwelche historischen Ereignisse herzuhohlen und sie im gewünschten Sinne zu interpretieren: mit Opfern, einer unterdrückten Nation, dem vergossenen Blut, der immer schon kulturellen Andersartigkeit und was da sonst noch alles im Setzbaukasten des Nationalisten stecken mag. Man erinnere sich an das Geschlachte auf dem Balkan in den 1990er Jahren, was doch unter anderem allen Ernstes mit der Schlacht auf dem Amselfeld, 1448, begründet wurde . Die Schotten haben bekanntlich William Wallace und die Russen wissen ja selbstverständlich, dass Katherina die Grosse (i.e. Sophia von Anhalt-Zerbst ) die Krim für Russland erobert habe. Na, und die Katalanen haben halt 1714.
Der katalanische Feiertag ist die Diada und wird jedes Jahr am 11.9. begangen. Jede Region in Spanien hat das Recht einen Feiertag herauszupicken. Irgendwas nettes aus der Vergangenheit. Gerne auch der Geburts- oder Sterbetag eines regionalen Heiligen. Man bleibt dann länger im Bett liegen und trinkt zum Mittagessen ein Bier zuviel. Nicht so in Catalunya. In den letzten Jahren wird am Tag der Diada so ziemlich alles mobilisiert, was nationales Pathos so hervorbringen kann: Kranzniederlegung für die Opfer der Belagerung Barcelonas 1714, Menschenketten, Massenaufmärsche. Kranzniederlegungen für die Belagerung von 1714: Das muss man sich mal vorstellen! Schon der erste Weltkrieg ist heute soweit historisiert, dass kaum noch jemand sich zu irgendeiner Gedächtnisveranstaltung hinschleppen mag, selbst Politiker nicht. Aber Katalonien gedenkt allen Ernstes der gefallenen Söhne und Töchter einer eher zweitrangigen Schlacht im Rahmen eines Ringens zwischen Habsburgern und Bourbonen und um 17:14 Uhr stehen dann tatsächlich alle Maschinen still und es wird eine regionalweite Schweigeminute eingelenkt.
Nach Auskunft der Veranstalter bildeten 1.8 Millionen Menschen ein riesiges V in den Strassen Barcelonas, Symbol der Forderung endlich über ihre Freiheit abstimmen zu können. Sie haben sich also alle entweder ein rotes oder gelbes T-Shirt angezogen und sich dann stundenlang in die Mittelmeersonne gestellt, damit ein Hubschrauber diese Fotos (siehe Bild 1) machen kann. In der Großregion Barcelona leben insgesamt 3.6 Millionen Einwohner, was bedeutet, wenn denn die Zahlen ungefähr stimmen, dass sich praktisch jeder, der sich überhaupt irgendwie ins Zentrum der Stadt schleppen konnte, das auch tatsächlich getan hat. Gebt uns endlich Freiheit! Und dieser verzweifelte millionenfache Schrei erschallt also nicht etwa in Tibet, in Kurdistan oder meinethalben im Donezk-Becken (alles Beispiele, bei denen die Zentralmacht ganz kräftig ausgeteilt hat, um Unabhängigkeitsbestrebungen zu deckeln), sondern im politisch doch eher gemütlich zwischen Sozialdemokratie und Konservativen hin- und heroszillierendem Spanien. Als müssten sie die tausenden weggesperrten und gefolterten katalanischen Unabhängigkeitskämpfer befreien, die da in spanischen Kerkern vor sich hinrotten. Eine groteskes Missverhältnis zwischen emotionalem Aufruhr und dem eigentlichen Agieren des “spanischen Okupators”.
Doch die Liste der Absurditäten ist noch viel länger. Bei jeder Gelegenheit betont die katalanische Unabhängigkeitsbewegung, dass sie ein freies Katalonien in Europa wollen. Andererseits ist das ökonomische Hauptargument stets: España nos roba! Spanien bestiehlt uns. Will heissen, dass der spanische Länderfinanzausgleich der Region Katalonien stets zu wenig von den katalanischen Steuereinnahmen zurückgebe. Mit anderen Worten, sie beklagen sich, dass Geld aus dem ökonomisch starken Katalonien in ärmere Regionen innerhalb Spaniens fliesse. Mal von der lebhaften Diskussion abgesehen, ob das überhaupt stimmt: Feel the Irony! Das endlich freie Katalonien möchte in die Europäische Gemeinschaft eintreten, damit sie nicht mehr den eigenen Wohlstand mit ökonomischen schwächeren Regionen teilen müssen. Welcome in Europe!
Noch besser: Selbst die katalanische Linke macht bei dieser “Jeder für sich und für uns das Meiste!” Politik mit. Irgendwann soll ja die international Solidarität ein Markenzeichen der Linken gewesen sein. Jetzt aber gibt es eben mal wieder keine Parteien mehr, sondern nur noch Katalanen. Die Unterschiede zwischen den politischen Programmen der konservativ-wirtschaftliberalen CIU in Katalonien und ihrem restspanischen Gegenstück, der PP, sind marginal. Längst hätten sie ineinander übergehen oder doch zumindest permanent koalieren müssen. Der einzige Unterschied ist die Frage der nationalen Unabhängigkeit Kataloniens. Der Wegfall des Politischen ist ein weiteres sicheres Kennzeichen der Auswirkungen des nationalen Wahns.
Ein bisschen Marxismus gefällig? Bestimmt auch das katalanische Sein das katalanische Bewusstsein? Während jahrzehntelang der Unabhängigkeitswunsch der Katalanen eher unterschwellig und wie eine Spielkarte aus dem Ärmel gezogen wurde, um der Regionalregierung bei den Finanzverhandlungen mit den anderen Regionen ein paar Extra-Argumente zu liefern, wurde es ab 2010 so richtig ernst. Alle größeren Regionalparteien Kataloniens schwenkten vollständig auf Unabhängigkeitskurs um. Just zu einem Zeitpunkt, als durch den Zusammenbruch des Bankensektors und des Immobilienmarkts die Schulden der Region Katalonien ins Astronomische schiessen. Tatsächlich ist Katalonien zusammen mit der comunidad Valenciana die meist verschuldete von ganz Spanien. Wie sollte man das den Katalanen erklären? Die Unabhängigkeitsforderung liefert das ideale Deckmäntelchen und eigene Misswirtschaft kann natürlich zuverlässig ausgeschlossen werden.
Natürlich kann eine Abspaltung und Gründung einer neuen Nation nicht nur mit einem schlecht funktionierenden Länderfinanzausgleich begründet werden. Der wichtigste Treibsatz der Nation ist immer Kitsch. Eine völlg andere Mentalität, andere Kultur und am besten gleich andere Rasse macht das Zusammenleben mit den anderen eben unmöglich. Lange Zeit war der Katalane eben arbeitssam, von gesundem Menschenverstand geprägt und vor allem nicht von der spanischen Politkrankheit der Korruption befallen. Lange Zeit. Bis dann jetzt herauskam, dass der langjährige Chef der Regionalregierung (satte 23 Jahre!) und Mentor der Unabhängigkeitsbewegung Jordi Pujol Konten in so ziemlich jedem Steuerparadies der Welt unterhielt. Sein Vermögen wird auf mehr als 100 Millionen Euro geschätzt. Das Geld wurde teils kofferweise von seinen Söhnen nach Andorra und anderswo geschafft. 100 Millionen? Nicht schlecht gespart für das Gehalt eines Ministerpräsidenten einer Region von 8 Millionen Menschen, also ungefähr der Bevölkerung Niedersachsens. Da kann sich der ehemalige Ministerpräsident Niedersachens, Christian Wulff, mit seiner dann doch nicht erfolgten Vorteilsnahme von 750 Euro aber mal ein Beispiel dran nehmen. Soweit also mal zu der Hoffnung, dass man per Nation reale Probleme wie Korruption einfach so lösen kann (hier etwa behauptet der schottische Nationalist, und in Florida (!) wohnhafte Trainspotting Regisseur Irvine Welsh genau den gleichen Käse für Schottland. Sind wir erstmal unter uns gibt es keine Korruption mehr!).
Aber wie sieht es denn mit der kulturellen Autarkie Kataloniens aus? Dürfen Sie denn wenigstens ihre eigene Sprache sprechen oder wird diese etwa durch ein zentralstaatliches Schulsystem unterdrückt und gegängelt? Das Gegenteil ist der Fall. Mittlerweile gibt es schon dutzende Klagen von Eltern, die versuchen ihr verfassungsgemäß garantiertes Recht durchzusetzen, dass wenigstens noch 25% des Unterrichts in Castellano erfolgen sollte. Ansonsten erfolgt der gesamte Schulunterricht in Katalanisch. Wobei man sich eigentlich fragen sollte, warum nicht auch katalanischstämmige Eltern der Meinung sein sollten, dass es für ihre kleinen Racker ganz gut wäre, auch anständig Castellano zu lernen (ca. 350 Millionen native speaker). Aber nein, 100% Katalanisch soll es sein (rund 8 Millionen Muttersprachler) und dafür braucht man halt die Unabhängigkeit.
Die ideologische Basis aller aktuellen Unabhängigkeitsbewegungen ist Kitsch. Ihre Ökonomie ist ein Desaster (siehe etwa hier im Economist die wahrscheinlichen Folgen eines schottischen Ausstritt aus dem UK). Ihr Erfolg ist eine Art “Heim-zu-Uns-Reaktion” auf Globalisierungsängste. Europas Grenzen aber sind gewissermaszen erstarrte Geschichte. Jede einzelne wurden mit Bergen von Leichen zementiert. Wer ohne Not an diesen Grenzen rüttelt, hat nichts aus der Geschichte gelernt.
PS Hier noch eine ZDF Dokumentation zu Pep Guardiola und seinem Unabhängigkeitseifer.
]]>Animation 1: Von jedem Jahr des GISS Datensatzes wurde das Mittel von Januar bis zum Monat April/Mai/Juni/Juli berechnet und dann als Animation übereinandergelegt. So kann man ganz gut erkennen, ob das aktuelle Wettjahr 2014 im Verhältnis zu den Vorjahren aufholt (den roten Balken, also den jeweiligen Wert des Jahres 2014, im Verhältnis zu den anderen Jahren beobachten!).
Nachwievor sehen die meisten Modelle ein moderates ENSO Ereignis im tropischen Pazifik ab Oktober/November voraus (Wahrscheinlichkeit von 60-65%), aber ein “moderater El Niño” wird es wohl auch nicht mehr richten. Es müssten in den verbleibenden 4 Monaten noch ganze 0.05C auf das Jahr 2010 aufgeholt werden. Und das wird schwer.
Animation 2: Der Verlauf des Jahre 2014 (erst bis April, dann bis Mai, Juni etc.) im Vergleich zu den anderen sehr warmen Jahren 2010,2007,2002 und 1998. Sowohl Februar wie auch Juli 2014 sind doch sehr kühl im Vergleich zu den anderen Rekordjahren ausgefallen.
UPDATE: Während ich den Beitrag oben ins Netz stellte, ist der Monat August der GISS Temperaturen dazugekommen. Es ist noch nicht ganz vorbei. Mit +0.7 ist der August sehr warm ausgefallen (ein neuer Rekordhalter, soweit ich das sehe). Damit ist das Jahr 2014 jetzt zum ersten Mal auf Platz 4 vorgerrückt. Hier die mittleren Anomalien von Jan-Aug:
2010 >>> +0.696C
1998 >>> +0.687C
2007 >>>+0.667C
2014 >>>+0.652C
2007 >>>+0.647C
Primaklimaleser Christian meint basierend auf Ozean Temperaturdaten/Phase der AO etc. eine kleine Prognose abgeben zu können und tippt den Rest des Jahres auf 3*+0.7C und erst im Dezember eine Abkühlung auf +0.65C. Damit kämen man für das Jahr 2014 auf eine Jahresanomalie von 0.664C. Zum Vergleich: Das für die Wette zu schlagende Spitzenjahr 2010 kam auf 0.665C. Und das wäre ja nun echt ganz schön knapp und natürlich innerhalb der Messungenauigkeiten.
Animation 3: Das gleiche wie Animation 1, aber mit dem Monat August dabei.
Animation 4: Das gleiche wie Animation 2, aber mit dem Monat August dabei.
]]>
Bild: Angeblich das einzige Bildnis Friedrichs, das ihm selber einigermaszen gefiel. 1781 von Johann Heinrich Christoph Franke
Alle Religionen seindt Gleich und guht, wan nuhr die Leute, so sie profesieren, Ehrlige leute seindt, und wen Türken und Heiden kämen und wollten das Land pöpliren, so wollen wir für sie Mosqueen und Kirchen bauen
Vom Calvinisten Friedrich also Grüße in die Calvinistische Schweiz.
]]>
Bild 1: Animation des Zeitverlaufs aller Mittel von Jan-Apr und von Jan-Mai des GISS Temperatur-Datensatz.
Bild 1 zeigt in der Animation die Zeitentwicklung der Jan-Apr Mittel und die entsprechende der Jan-Mai Mittel. Man erkennt ganz gut den relativen Anstieg von 2014. Aber wird es reichen um den 2010 peak einzuhohlen? Das wird spannend.
Noch interessanter (und ein bisschen überraschend) ist vielleicht die Animation in Bild 2. Es zeigt den Verlauf der monatlichen Anomalien in den betreffenden Jahren. Klar, der Monat Mai ist 2014 dazugekommen und man kann ganz gut abschätzen, wieviel so ein wärmster Mai gegenüber den anderen warmen Jahren “heraushohlt”. Überraschend ist aber vielleicht, dass sich viele Monaten ganz leicht verändert haben, nicht nur der Mai 2014. Viele der Werte wackeln im Bild 2 ein bisschen nach unten oder nach oben. Hat sich etwa in all diesen Monaten die Qualitätskontrolle/Homogenisation so vieler Stationen geändert, dass man das am Ende im globalen Mittel sieht? Sind so viele Stationsdaten noch dazugekommen oder schlechte Daten aussortiert worden?
Bild 2: Vergleich der fünf wärmsten Jahre, einmal der Datensatz bis April und einmal bis Mai 2014.
Tatsächlich sollten noch nicht eingegangene Stationsdaten keine Rolle mehr spielen. Aber der GISS Temperaturen-Datensatz arbeitet mit den Rohdaten und macht die Homogenisation selber, und zwar jeden Monat neu. Insbesondere die Behandlung der data gaps (also fehlende Messungen) und die Korrektur der urban heat islands werden mit dem jeweiligen gesamten Datensatz durchgeführt. Das bedeutet, dass ein neuer Monat eine neue Gesamterechnung bedeutet und so permanent letztlich alle Daten leicht verändert werden. Per Auge liegt der Effekt so bei 0.01-0.02 Grad global für die monatlichen Werte. Hier findet man im Übrigen Resultate einer unabhängigen Verifikation der GISS-Methode.
Aber die Entscheidung fällt nicht im Osten, sondern im Westen. Die Wahrscheinlichkeit und die Stärke des kommenden/vielleicht doch nicht kommenden Niños entscheidet letztlich, wie sehr die Temperaturen dieses Jahres noch steigen. Und da siehst es längst nicht mehr so gut aus wie vor einem Monat. Die meisten Vorhersagen (statistische und dynamische Modelle) haben die Stärke des kommenden Niños zurückgenommen (siehe hier) . Es bleibt also spannend.
PS Hier noch die Liste derjenigen, die bei der Wette mitmachen. Viele mochten meine Wettbedingungen nicht (ja warum denn eigentlich nicht?). Und so ist die Liste durchsetzt mit den jeweiligen, individuellen Wettbedingungen:
Bleyfuss – 20 Euro
Shader – 10 Euro (als Almosenwette fuer den Flotten Otto).
Axel – Wettet 50 Euro auf einen neuen Rekord und zahlt 100, falls nicht. Und wenn er gewinnt?
Webbaer – 10 Euro
Guenther Venneke – genau wie Axel. 50 Euro auf Rekord, sonst 100 Euro.
Phil – 10 Euro auf Rekord, 20 Euro ansonsten.
E-O – Ist dabei…Ich schaetze mit 10 Euro bei meiner Wette?
Thomas – Ist dabei. Habe ich aber nicht verstanden. Bitte melden.
Wer noch einsteigen will.. bitte melden. Es ist für einen guten Zweck (zur Erklärung hier und auch hier)!
]]>
Wissenschaftler, die Politik betreiben wollen, sollen das ruhig tun. Jeder kann und darf. Vielleicht sollten sich aber alle, selbstgerechte Klimazwiebelianer und auch allzu überzeugte PIKardistas, dazu das Folgende einmal näher betrachten.
Aus dem groszen sozialpolitischen Klassiker “Politik als Beruf” von Max Weber : “Auch die alten Christen wussten sehr genau, daß die Welt von Dämonen regiert sei und daß, wer mit den Mitteln der Politik, das heißt: mit Macht und Gewaltsamkeit als Mitteln, sich einlässt, mit diabolischen Mächten einen Pakt schließt, und daß für sein Handeln es nicht wahr ist, daß aus Gutem nur Gutes , aus Bösem nur Böses kommen könne, sondern oft das Gegenteil: Wer das nicht sieht, ist in der Tat politisch ein Kind.”
In diesem Sinne, frohes Diskutieren!
]]>
Trotzdem, gestern wurde all dem die Krone aufgesetzt. Im hospital de los venerables, genauer in der Kapelle dieses ehemaligen Klosters und jetzt eines der wichtigsten Museen Sevillas, fand ein Workshop zu den ökonomischen Konsequenzen des Klimawandels statt. So sprach unter anderem Sir Nicolas Stern zu den Chancen einer neuen CO2 freien Oekonomie. Die Kapelle selbst ist nicht nur eine optische Explosion barocker Fülle aus der Zeit des siglo de oro Sevillas, sie ist auch vollgepflastert mit Bildern (etwa hier eine Madonna Murillos) von Velazquez und Murillo. Das Bild unten gibt euch einen Eindruck. Und da sage noch einer, die Wissenschaft habe nicht die Nachfolge der Religion angetreten.
Bild: Kapelle des Hospital de los venerables. Die Vorträge zur Oekonomie des Klimawandels wurden leider gesprochen und nicht als gregorianischer Gesang vorgetragen.
Also los. Wer kann was besseres bieten? Hier bitte die schönsten und spektakulärsten Seminarorte eures Lebens posten (gerne auch mit Bild). Zum Schluss wird abgestimmt. Wer kann mit dem hospital de los venerables mithalten?
]]>Abbildung 1: Das globale Mittel des Zeitabschnitts Jan-Apr nach dem GISS Temperaturdatensatz.
Zuerst also die Wette. Ich wette, dass dieses Jahr 2014 in mindestens zwei der drei globalen Datensätze GISS, Hadcrut4 und Berkeley Earth das wärmste Jahr der jeweiligen Messreihe wird. Unsicherheitsmargen der Datensätze spielen keine Rolle. Es zählt der einfache Sieg, selbst wenn er statistisch insignifikant ist. Ich setze 100 Euro und jeder, der gegen mich wetten möchte, setzt mindestens 10 Euro, solange bis mindestens 100 Euro zusammenkommen. Gewinne ich, gehen meine 100 Euro + die N-mal 10 (oder mehr) Euro an das Behindertenzentrum. Verliere ich, überweise ich 200 Euro (also meine 100 plus die nächsten 100), wobei es natürlich jedem freigestellt ist, trotzdem etwas dazu zu tun. Soweit alles klar?
Wie stehen die Chancen dieser Wette? Bis jetzt liegen die Daten bis einschliesslich April vor. Wir können also den Jahresabschnitt Januar bis April (globale Jahreanomalien) vergleichen mit den vorhergehenden Jahren, um zu sehen, ob 2014 bislang schon gut am Start ist. Abbildung 1 zeigt, das bislang 2014 auf Platz 5 der wärmsten Jan-Apr Abschnitte liegt. 2010, 2007, 2002 und 1998 liegen alle und in dieser Reihenfolge vor 2014. Die T-Anomalien betragen 0.7625 , 0.7350, 0.7225, 0.6725, 0.6375. 2014 müsste also in den verbleibenden 8 Monaten mehr als 0.1C gutmachen, was ja nicht offensichtlich erscheint.
Abbildung 2: Die fünf wärmsten Jan-Apr Zeitabschnitte gemäß dem GISS Datensatz. 2014 liegt bislang also auf Rang 5.
Abbildung 2 zeigt das Jahr 2014 im Vergleich zu den anderen vier vor ihm liegenden Jahren. Einzig der April 2014 scheint einigermaszen kompetitiv als zweitwärmster April aller Messreihen. Bislang also wirklich nichts bemerkenswertes am Jahr 2014. Mache ich also eine Harakiri-Wette? Nicht nur. Seit letztem Monat stehen fast alle ENSO Vorhersagen (siehe Abbildung 3 aus dem monatlichen NCEP Report) auf positiv, soll heissen, sie sehen gemässigte bis kräftige Niño Bedingungen ab dem Sommer diesen Jahres vorher. El Niño Jahre aber sind global warme Jahre, bei denen die zusätzliche Wärme, die im Zentral- und Ostpazifik an die Oberfläche kommt zu einem globalen Erwärmungseffekt führt.
Abbildung 3: Der NCEP ENSO Forecast https://www.cpc.ncep.noaa.gov/products/analysis_monitoring/enso_advisory/ensodisc.pdf von insgesamt 21 dynamischen und statistischen Modellen. Sie ergeben eine 65% Wahrscheinlichkeit für einen El Niño.
Tatsächlich waren alle vor 2014 liegenden Jahre von solchen ENSO Bedingungen begleitet (siehe hier). Schaut man sich diese Tabelle der ENSO Jahre an, stellt man fest, dass praktisch jedes dieser Jahre zum Ende des Jahres hin schon wieder von konträren Niña Bedingungen gestört wurde. Das gilt, selbst wenn man den Zeitverzug zwischen den Temperaturen im tropischen Pazifik und den globalen Temperaturen berücksichtigt. “Ideal” aus meiner Wettposition wäre es also, wenn der Niño früh im Jahr beginnt und bis zum Ende des Jahres anhält, etwa wie im Jahre 2002. Ob das aber reichen wird (selbst im Falle eines ENSO Ereignisses) wissen wir natürlich nicht. Darum wetten wir ja gerade.
Abbildung 4: In den letzten zwei Monaten ist der Wärmeinhalt des pazifischen subsurface Wassers beachtlich hochgegangen. Ein möglicher Hinweis, dass ein ENSO im Jahr 2014 anrollt.
Auch die im Pazifik knapp unter der Oberfläche gespeicherte Wärme ist Messungen zufolge kräftig angestiegen und deutet daraufhin, das seine recht beachtliche Menge an Wärme darauf wartet, nacho ben an die Oberfläche zu kommen.
PS Noch ein Nachtrag. Ich hatte schon mehrfach auf die Fortschritte in der dekadischen Vorhersage hingewiesen. Insbesonderes dieses Ergebnis einer Multi-Modellstudie berechnete mit den entsprechenden Klimainformationen bis 2012/2013 praktisch ab sofort ENSO Bedingungen und eine damit einhergehende globale Erwärmung voraus.
PPS Wer mitmachen möchte, braucht nur hier ein entsprechenden Posting absetzen. Die Wette wird wahrscheinlich im Laufe des Januar 2015 entschieden. Für den Fall, dass ich gewonnen habe und die Mitwetter Ihren Wettbeitrag zahlen wollen, bitte ich dann mir eine kurze Mail zu schicken, auf die ich dann mit einer Kontonummer oder einem Paypal account, auf die das Geld zu überweisen wäre, antworten werde. Der Check und die feierliche Geldübergabe an die Verantwortlichen des Zentrums werden natürlich hier veröffentlicht.
PPPS Falls ich verliere, ist natuerlich damit endgültig bewiesen, dass global warming ein übler hoax ist. Und vice versa.
]]>Resigning from the GWPF
Dear Professor Henderson,
I have been put under such an enormous group pressure in recent days from all over the world that has become virtually unbearable to me. If this is going to continue I will be unable to conduct my normal work and will even start to worry about my health and safety. I see therefore no other way out therefore than resigning from GWPF. I had not expecting such an enormous world-wide pressure put at me from a community that I have been close to all my active life. Colleagues are withdrawing their support, other colleagues are withdrawing from joint authorship etc.
I see no limit and end to what will happen. It is a situation that reminds me about the time of McCarthy. I would never have expecting anything similar in such an original peaceful community as meteorology. Apparently it has been transformed in recent years.
Under these situation I will be unable to contribute positively to the work of GWPF and consequently therefore I believe it is the best for me to reverse my decision to join its Board at the earliest possible time.
With my best regards
Lennart Bengtsson
]]>
Abbildung 1: Modellsimulation und Beobachtung der NAO. Obwohl die meisten Winter recht ordentlich vom Ensemblemittel beschrieben werden gibt es doch einige totale Abweicher (e.g.2005). Wäre interessant zu wissen, woher die wohl kommen.
Nun, saisonale Vorhersagen in den Extratropen sind ein schwieriges Thema. Während in den Tropen die Aussichten auf modelgenerierte Vorhersagen stets wachsen, bleiben viele Experten in den Extratropen doch skeptisch. Während die Tropen stark vom trägen und daher besser berechenbaren Ozean bestimmt sind, ist es in den Extratropen eher die unruhige Atmosphäre, die Vorhersagen über den Horizont von Wettervorhersagen so sehr erschwert.
Ein Team des Hadley Centers hat einen erneuten Versuch unternommen und die Resultate sehen wirklich sehr vielversprechend aus. Das benutzte Modell ist das Klimamodell des Hadley-Centers in einer für solche Saison-Vorhersagen optimierten und hoch-auflösenden Version (0.8 Longitude, 0.5 Latitude und 85 vertikale Niveaus). Vorhersagbarkeit der nordhemisphärischen Wintervariabilität bedeutet vor allem die Arktische Oszillation (oder in ihrer Nordatlantischen Variante, die NAO) vorherzusagen. Um den 1 November jeden Jahres herum von 1993 bis 2012 werden eine Reihe von fast identischen Simulationen mit den Wetterbedingungen (Atmosphäre und Ozean) des jeweiligen Zeitpunkts gestartet. “Fast identisch” heisst, dass winzige Details der Modellparametrisierung unterschiedlich sind, so dass die Simulationen, wie es bei einem chaotischen System sein muss, langsam auseinander laufen. Der berühmte Schmetterlingsschlag in Kuba.
Abbildung 1 zeigt das Ergebnis dieser Simulationen für die Dez/Jan/Feb NAO (also den Index der die Nordatlantische Oszillation beschreibt). Es zeigt die Streuung der Simulationen, wobei offensichtlich jede Einzelne als Vorhersage unbrauchbar ist und doch das Mittel dieses Ensembles ein durchaus brauchbares Ergebnis ergibt. Die Korrelation zwischen Beobachtung und Ensemblemittel beträgt immerhin 0.62.
Natürlich möchte man gerne von dem Model wissen, welcher Faktor genau mit einigen Wochen Vorlauf denn nun die Winter NAO bestimmt. Dazu müsste man weitere numerische Experimente, die jeden dieser Kandidaten testen würde, was jetzt im Rahmen dieses Papers nicht geschehen ist. Aber man kann natürlich nachschauen, ob man in den Simulationen ähnliche zeitverzögerte Korrelationen zu bestimmten Größen genau so wie in den Beobachtungen findet. Und tatsächlich korrelieren die Simulationen ähnlich zu den tropischen Temperaturen (i.e.ENSO), zur Wärmemenge im subtropischen Nordatlantik, zur Essmenge in der Karasee oder der quasi-biennalen Oszillation (ein stratosphärischen Zirkulationsmuster) wie die Beobachtungen. Ob jetzt einer von diesen Faktoren alle anderen bestimmt, ob nur einer reicht, um die NAO vorherzusagen oder ob alle ein bisschen wichtig sind, dass kann man noch nicht entscheiden. Fest steht nur, dass diese Simulationen einige Vorhersagbarkeit demonstriert haben und dass in der Literatur diskutierte Einflussfaktoren, um die NAO vorrauszuberechnen (ENSO,..) von den Simulationen reproduziert wurden. Kein schlechter Startpunkt um dereinst zu echten Wintervorhersagen zu kommen.
Abbildung 2: Vorhersagbarkeit von Wintertemperaturen und Winterwindgeschwindigkeiten (links) und deren Abhängigkeit von der NAO (rechts).
Gut, die NAO vorherzuberechnen ist das Eine. Aber wie sieht es nun aus mit Putin einerseits, der EU und der Ukraine andererseits ? Kann die ukrainische Führung mit einem mehrmonatigen Vorlauf die Wintertemperaturen kennen und so den Gasverbrauch des Winters abschätzen können? Kann man in der EU wissen, ob man im nächsten Winter viel russisches Gas benötigt oder ob genügend Windenergie verfügbar ist? Abbildung 2 zeigt, dass dort, wo die NAO einen starken Einfluss auf Temperaturen und Winde hat, das Modell auch ganz gut die Bodenwinde und die Temperaturen vorherberechnet. Konkret gibt es zB in der Ukraine kaum signifikante Vorhersagbarkeit der Temperaturen, was an der großen Wintervariabilität im Osten Europas und dem begrenzten EInfluss der NAO dort liegen mag (Panel d). Allerdings könnten die Westeuropäer prima auf die Windbedingungen auf den britischen Inseln und Norddeutschland bauen (alles signifkant gepunktet, da völlig NAO abhängig, s. panel f) und so abschätzen, ob sie denn nun viel oder wenig bei der Gazprom einkaufen müssen. Längs dieser geographischen Einfallsschneise (GB,Holland, Norddeutschland) der Wintertiefdruckgebiete lassen sich ganz gute Vorhersagen machen und dann kann man flugs entscheiden, ob man die Krim aufgibt oder nicht. Die Klimaforschung macht es möglich!
]]>h/t Axel
]]>
Oder mit anderen Worten: Sie haben Bennys Gehalt per Spenden zusammenbekommen. Das hat er auch redlich verdient, denn es war er, der vor langer Zeit mal meinen 1.April Scherz über den unaufhaltsamen Auftieg des Claude Allegre zum französischen Umweltminister in die Welt getragen hatte .
Im advisory board sitzt Lennart Bengtson zusammen etwa mit Vincent Courtillot, einer der chevalier de l’ordre de la terre plate , ein begnadeter Kurvenerfinder ,-normierer und –verbieger (einer der wenigen Fällen, in der das Wort Fälschung und Betrug (i.e. fraude) im Zusammenhang mit veröffentlichten Arbeiten von Mitgliedern der academie des sciences es bis in Tagespresse (Le Monde) geschafft hat, der diese mit grosser Kreativität erdachten Kurven dann aber auch gerne mehrfach veröffentlicht. Ferner etwa der auch allgemein bekannte australische Klimaexperte Prof.Bob Carter, der seinen Ruf auf einen wahrhaft beeindruckenden Sockel von Verdrehungen, Lügen und vollständiger Leugnung wissenschaftlicher Inhalte und Vorgehensweisen errichtet hat (etwa hier und hier ). Schönstes Zitat: “There’s no evidence at all that any of these changes had anything to do with human activity or influence. These are natural climatic changes.”
Kurz, da ist vielleicht noch ein bisschen Raum nach oben und ich hoffe, dass Lennart Bengtsson, den ich noch persönlich aus seiner Zeit beim MPI Hamburg kenne und schätze, diesen Raum zur Verbesserung und Verschönerung des GWPFs nutzen wird. Offensichtlich braucht es so eines 100% politisch getriebenen Think Tanks, um frei über das Klima sprechen zu dürfen, eine Freiheit, die Bengtsson bei der Unterdrückungsmaschine IPCC anscheinend nicht gegeben sieht.
Sei es, wie es sei, Primaklima wünscht Prof. Bengtsson auf jeden Fall viel Glück dabei, zusammen mit Richard Lindzen, Bob Carter und Vincent Courtillot zu einer angemessenen und objektiven Darstellung der Klimaforschung innerhalb des GWPF zu kommen. Euer Primaklima Reporter aber erinnert sich (eines der Vor- respektive Nachteile, wenn man so lange im Geschäft ist) noch an Bengtssons Dankesrede zur Verleihung irgendeiner EGS Medaille Ende der 90er. Es war eine Warn- und Mahnrede der Extraklasse (Mahnen und Warnen vor den katastrophalen Folgen des Klimawandels), während der er unter anderem die Mannsche Hockeyschlägerkurve auflegte und sie zu einer der wichtigsten Wissenschaftkurven des 20ten Jahrhunderts erklärte.
So kann es kommen. Die schärfsten Kritiker der Elche, waren früher selber welche.
]]>
Bild 1: Francisco de Goya 1812 – procesion de flagelantes, damals noch mit den hermandades de sangre. Der Perückenträger ist der capataz des paso und dirigiert die costaleros.”Goyas Blick zeigt uns die Karprozession als einen Karnevl der Gewalt: Entgegen der kirchlich intendierten Bedeutung erscheint die tätige Buße nicht als Station auf dem Weg zur Erlösung, nicht als Bekräftigung eines Opfers in Aussicht auf Erneuerung und Erlösung, sondern als Bebilderung einer ausweglosen conditio humana” Ulrike Sprenger in “Stehen und Gehen”.
Die Pasos bezeichnen sowohl die Karprozessionen im Allgemeinen als auch im eigentlichen Sinne die reichverzierten Bildnisse (ich finde dafür einfach keine gute Übersetzung, pasos eben), die innerhalb der Prozession durch die Stadt getragen werden und die meist Szenen aus der letzten Woche Jesus Christus darstellen: Der Judaskuss, die Anklage vor Pilatus, der Gang mit dem Kreuz, das Herunterhohlen des leblosen Körpers. Die Tradition der Pasos besteht im Wesentlichen seit dem siglo de oro, welches die Blütezeit spanischer Macht und Kultur zwischen dem 15ten bis 17ten Jahrhundert umfasst. Die Tradition der Penitencias und der Pasos wird hier in Sevilla von den hermandades oder auch cofradias (Bruderschaften) getragen, die als religiöse Laienorganisationen über ungefähr 150.000 Mitglieder verfügen, was ja bei einer Gesamtbevölkerung von ca.700.000 Menschen nicht wenig ist. Das Resultat, so wie es sich letzte Woche in den Strassen Sevillas zeigte, ist wahrlich verwirrend in seiner atavistischen Schönheit und seiner quirrligen Morbidität. Im Grund nimmt die gesamte Bevölkerung Sevillas an einem Gesamtkunstwerk bestehend aus barrocker Bilderfülle, Musik, Gerüchen (fast die ganze Stadt riecht nach Weihrauch), ja selbst Geschmacksrichtungen (es gibt eine ganze Reihe Gebäcke, die nur in der Osterwoche hergestellt werden) teil. Jeder heutige Performancekünstler wäre glücklich solche Effekte und Pointen zu setzen, eine solche Emotion des wirklich teilnehmenden Publikums zu erzeugen, wie sie die Pasos bei ihrem Weg durch die Sevillaner Innenstadt hervorrufen.
Bild 2: Nazareno auf dem Weg zu seiner hermandad. Nur dort darf man die Kapuzen (capirote) abnehmen, um das öffentliche Büssen anonym zu belassen. Nach 14 Stunden “Stehen und Gehen” findet sich dann aber doch der/die Eine oder Andere, der in einer Bar die Capirote abnimmt, um einen Kaffee zu trinken.
Die ersten Prozessionen im 15ten und frühen 16ten Jahrhundert wurden als imitatio Christi, also als ein Nachleben des Leiden Christi bei seinem Weg zum Berg Golgatha, längst eines damals quer durch die Stadt angelegten via crucis durchgeführt. Dabei fanden sie keineswegs nur in der Karwoche, sondern praktisch zu jedem Zeitpunkt, insbesondere Anfang November am dia de todos los santos, statt. Erst später konzentrierten sich dann die Prozessionen auf die Karwoche in der stark kodifizierten und geregelten Form, in der diese heute organisiert werden. Das in der Zeit des renascimientos aufkommende, selbstbewusstere Bürgertum forderte von der Kirche einen selbständigeren Anteil am religiösen Kult, was zu steten Spannungen zwischen der offiziellen Kirche und den hermandades führte, die in vieler Hinsicht bis auf den heutigen Tag existieren. Wann etwa die pasos ihre Kirchen verlassen dürfen, wird in einem permanenten und mit unzähligen Gesetzen und Regeln gepflasterten Machtkampf zwischen dem Sevillaner Erzbischof und der junta de cofrades entschieden. Allein dieses Thema füllt jeden Tag einen Teil des hiesigen Lokalblatts, des diario de Sevilla. Wenn also auch aus heutiger Sicht die Prozessionen aussehen, wie eine kirchliche Veranstaltung, waren sie eher im Gegenteil so etwas wie wild organisierte Laienreligion auf der Strasse, auf die die Amtskirche stets ein misstrauisches Auge warf.
Bild 3: “Jeder nur ein Kreuz” ist nicht ganz wahr. Wer das Gefühl hat besonders büßen zu müssen, der darf auch zwei nehmen. Die meisten hermandades haben eine Gruppe (ein tramo) von penitentes, ohne capirote (Kapuze), ohne Kerze, aber mit Kreuz beladen. Einige gehen Barfuss den gesamten Weg, was bei dem Schmutz und den Keimen der Innenstadt Sevillas wahrscheinlich keine gute Idee ist.
An der Semana Santa nehmen 60 hermandades teil, die ihre pasos zusammen mit ein paar 100 Nazarenos und Penitentes (siehe Bilder, die größte, die Macarena, bringt 2500 nazarenos auf die Strasse) von ihrer jeweiligen Kirche zur Kathedrale von Sevilla und wieder zurück begleiten. Das Ganze dauert je nach Lage und Tradition der jeweiligen Bruderschaft mal 4 Stunden, mal über 14 Stunden. Einige hermandades ziehen mit einem Mordsbohay und einer riesigen Marschkapelle durch die Gassen, andere sind hermandades de silencio und erzielen trotzdem einen mächtigen Effekt, wenn bei ihrem Zug durch die in der Nacht nur für sie völlig abgedunkelten Gassen die Menschen verstummen.
Video 1: Rückkehr des Cristo de los Gitanos in die Kirche seiner hermandad unter den Klängen des Marsches “La Saeta” oder auch “Cristo de los Gitanos”.
Am spektakulärsten sind sicher die eigentlichen Pasos. Bei vielen stammen die Bildnisse von Bildhauern aus dem 17/18 Jhd. und selbst davor. Wie riesige Schiffe schaukeln sie durch die sie umrundenden Menschenmassen und folgen dem Rythmus der hinter ihnen hermarschierenden Kapelle: Meist festlich orchestral für die virgenes und klagend, getragen von Blasinstrumenten die cristos. Ich habe mal zwei Beispiele verlinkt mit zwei schönen Stücken. Cristo de los Gitanos nach einem Song von Joan Manuel Serrer und nach einem Gedicht von Antonio Machado (die hermandad heisst “Los gitanos” und viele Mitglieder sind auch gitanos, was man unter anderem am schicken Haarschnitt des capataz, des chefs des pasos, erkennen kann) und Cardidad de Guadalquivir der Baratillera (die hermandad heisst El baratillo, na und da heisst die virgin eben La baratillera).
Video 2: La Baratillera kehrt in der Nacht zu ihrer Kirche zurück. Die Kapelle spielt ihren Marsch, die “caridad de Guadalquivir”.
Die pasos wiegen zwischen 1200 und 2300 kilos, was jedem der 35-45 Trägern (der costaleros) ca. 40kilo auf die Schulter packt. Sie selbst sind völlig von den von den pasos herabhängenden Samt- und Brokatvorhängen verdeckt, die nur ein paar Luftschlitze aufweisen, um ein wenig Luft unter die pasos zu lassen. In der Stille hört man bisweilen nur das synchrone Schlurfen ihrer Espandrillas über dem Asphalt und hört ihr Stöhnen, wenn sie die gewaltigen pasos anheben müssen. “Al cielo” schreit der capataz, der die costaleros durch die Gassen Sevillas dirigiert. Mal mit beruhigender Stimme auf sie einredend, um die 40 Kilo noch ein wenig länger ertragen zu können, mal fluchend und anspornend (unten eine Zusammenstellung der besten Anspornreden). Drei Mal schlägt er mit einem kleinen silbernen oder goldenen Hammer, der fest an die pasos installiert ist, und alle costaleros bereiten sich vor, ein weiterer Schlag, und jeder geht in die Ausgangsposition, beim dritten Schlag und dem Ruf “al cielo” fliegt das ganze dann nach oben, als wäre so ein paso federleicht. Nur das dumpfe Stöhnen unter dem Brokat verrät den Umstehenden, dass es wohl nicht ganz so ist.
Video 3: Die Kommandos und Anspornreden der Capataz der verschiedenen pasos sind berühmt. Meist mit einer Reibeisenstimme versehen treiben sie die costaleros an. Das ist mal Motivationstraining.
Die costaleros sehen so gut wie nicht, wo sie hergehen, und müssen daher allen Lärm um die pasos herum wegfiltern, um nur die Stimme des capataz zu hören. Die Schrittfolgen wechseln, folgen der Musik und bei einigen pasos kann man wirklich von “tanzen” sprechen. Offensichtlich bedarf es da ein bisschen mehr als einer kurzen Erklärung am Palmsonntag, was jetzt zu tun sei. Den ganzen Winter hindurch trifft man daher ensayos in den Strassen Sevillas, die mit Übungsgestellen herumziehen, die entweder mit Sand oder Stahlträgern auf das nötige Gewicht gebracht werden und auf die ein Kofferradio gestellt ist, um die Schrittfolgen mit der Musik zusammenzubringen. Diese ensayos sind meist begleitet von einer Reihe Ersatzcostaleros und natürlich den Freundinnen der Kraftmeier, die als Bewunderungskohorte stets hinterzieht. Ich habe hier mal ein Video verlinkt, das einem eine Idee gibt, was da unter den eigentlichen pasos der semana santa so los ist.
Video 4: Ensayos der costaleros von der hermandad San Benito. Den ganzen Winter hindurch wird trainiert, bis alle costaleros hinten am Nacken einen roten Wulst aufweisen. Dann ist es gut und man kann mit der semana santa beginnen.
Es gibt auch eine intensive Nachbehandlung dessen, was da so in den Strassen bei den Umzügen passiert. Am morgen, nach jedem Tag der Karwoche, trifft man in den Bars auf Männer und Frauen, die die Umzüge im Detail diskutieren. Wo haben sie sie gesehen, zu welcher Zeit, wie war das Licht, welche Musik wurde gespielt, die Blumenwahl für die pasos (die mit Rosen oder Nelken dichtgesteckten Pasos kosten den hermandades allein für den Blumenschmuck zwischen 4000-10.000 Euro), wie hat sich der paso bewegt? Ich kenne keinen Ort, an dem letztlich Kunst und Ästhetik so heftig und im besten demokratischen Sinne mitdiskutiert wird. Der Traum jedes Künstlers! Endlich alle erreichen und von allen tatsächlich mit viel Sachverstand kritisiert werden!
Video 5: Der Señor de la sentencia bei uns vor der Hasutür. Der Gesang vom Balkon des Nebenhauses gesungen nennt sich Saeta: Gänsehaut garantiert. Ein weiteres Video hier.
Na und fast zu allerletzt haben die hermandades und die semana santa natürlich auch noch einige offensichtliche ökonomische und soziale Funktionen. Allein in diesem Jahr sind in Sevilla durch Hotelübernachtungen und zusätzliche Gäste ca. 240 Millionen Euro in die Stadt gespült worden. Auch sind die hermandades immer auch ein Ort, in denen Machtausübung geübt und vorbereitet wird. Die Kämpfe um die verschiedenen Posten in einer hermandad sind nur noch mit denen um die Präsidentschaft bei Real Madrid zu vergleichen. Wer in der feinen Gesellschafts Sevillas etwas gelten will, der ist eben auch etwas in einer der 60 hermandades der Stadt. Während die pasos eine Art kuturelles Netz über die Stadt werfen und definieren, welche Strassen, Gassen, Plätze, Kirchen von einer tieferen, semiotischen Bedeutung sind, so bereiten die hermandades Einfluss, Entscheidungen, letzlich Macht innerhalb eines von Ihnen aufgespannten Netzes innerhalb des sevillanischen Bürgertums vor. Nirgends werden so viele Geschäfte gemacht, so viele Pakte geschlossen wie in den Bars rund um die Plaza San Francisco während der Prozessionen. Schliesslich organisieren die hermandades auch einfach einen Teil des täglichen Lebens, vom Fussballgucken am Mittwoch (die meisten haben einen Grossbildschirm in ihrer casa de hermandad) bis zum Bierchen am Sonntag. Praktisch alle haben ein langjähriges, kontinuierlich gepflegtes, soziales Programm, das mag von der Kleider- und Essensverteilung (machen fast alle) bis zum Unterhalt eines Behindertenheim oder ähnlichem reichen.
Video 6: Die Macarena, die wohl bekannteste der virgenes von Sevilla zieht unter einem Regen aus Rosenblätter (petalos) vorbei. Hier noch ein weiteres Video.
Was noch? Ach ja! An einem dieser Orte, an denen die semana santa diese Stadt geformt hat (das gilt sogar wortwörtlich: die Ecke der Strasse, in die der paso des señor de sentencia in den folgenden Bildern einbiegt ist abgestumpft, da sonst der paso nicht um die Ecke kommen würde) und an denen man unbedingt diese semana santa gesehen haben muss, liegt zufällig unsere Wohnung. Darum noch ein paar Videos, was bei uns am Karfreitag um 11Uhr morgens auf der Strasse los war (siehe oben).
PS
Halt, noch etwas! Das ist hier ja primaklima und man fragt sich, was das Ganze hier zu suchen hat (tatsächlich kann ich schreiben, worüber ich Lust habe, aber egal). Vor einiger Zeit, ebenfalls zur semana santa, besuchte mich hier ein Klimakollege. Viele hermandades konnten nicht ihre penitencia antreten, da es regnete oder drohte zu regnen. Die pasos sind meist mit Goldfarbe lackiert und die sauteuren und alten Brokate der virgenes vertragen auch keinen Regen. Wir haben uns dann gefragt, ob man nicht mit einer Geschichte der verschiedenen hermandades (wann sie sie in der Vergangenheit rausgegangen, und wenn nicht, warum nicht) eine Art Rekonstruktion des Früjahrsniederschlags in Andalusien versuchen könne. Eine Zeit lang versuchte ich es, aber es waren doch deutlich zu viele Schwierigkeiten. Es gibt kein zentrales Register und man muesste umfangreiche Quellenstudien betreiben (Zeitungen aus dem 19Jhd etc.). Ostern springt immer hin und her und man hätte keine wirkliche Referenzperiode. Reiche hermandades gehen manchmal raus, egal ob es regnen könnte oder nicht. Dann wird eben restauriert. Und schliesslich ruft heute die hermandad den meteorologischen Dienst in Madrid an, während früher einfach jemand auf dem Kirchturm Richtung Westen blickte. Kurz, ein moving target mit enormen Arbeitsaufwand. Andere aber haben ähnliches versucht und durchaus Erfolg gehabt, siehe diese Arbeit zum Zusammenhang von bezahlten Bittmessen und Niederschlägen im letzten Jahrtausend.
It’s what we might call the More Information Hypothesis: the belief that many of our most bitter political battles are mere misunderstandings. The cause of these misunderstandings? Too little information — be it about climate change, or taxes, or Iraq, or the budget deficit…. But the More Information Hypothesis isn’t just wrong. It’s backwards. Cutting-edge research shows that the more information partisans get, the deeper their disagreements become.
Der letzte freie Dies-und-Das-Jeder-kann-posten-was-ihm/ihr-beliebt-Thread ist in Rekordzeit wieder bei über 900 Komentaren angekommen. Und einer der Diskutanten machte in einem Kommentar auf einen Artikel von Ezra Klein (ehem.Wahington Post Journalist und jetzt freier Blogger oder etwas ähnliches) zum Thema “How Politics makes us stupid” aufmerksam, in dem es neben dem offensichtlichen Thema (i.e. How politics makes us stupid) auch um die Wirkung von mehr Informationen zu unserem spezifischen Lieblingsthema, nämlich dem Klimawandel, geht.
Being better at math didn’t just fail to help partisans converge on the right answer. It actually drove them further apart. Partisans with weak math skills were 25 percentage points likelier to get the answer right when it fit their ideology. Partisans with strong math skills were 45 percentage points likelier to get the answer right when it fit their ideology. The smarter the person is, the dumber politics can make them.
Um es kurz zu machen: Informationen helfen rein gar nichts um zu einer politschen Lösung zu kommen. Je mehr wir wissen, umso besser sind die argumentativen Waffen um eine ohnehin bestehende Meinung zu verteidigen. Was nicht ins Bild passt, wird rausgeworfen. Ist ein Thema relativ wertneutral und unpolitisch (Gebrauch von Antibiotika bei Infektionen, Der Nutzen von Sport bei Cardiovascular Erkrankungen, Geschwindigeitslimit auf deutschen Autobahnen, oh sorry, vergesst das letzte Beispiel) nehmen alle, die dazu in der Lage sind, Informationen auf und geben meist auch eine realistische Einschätzungen ab. Ist ein Thema aber erst politisiert oder ist es gar voller moralisch/ethischer Konnotationen (Evolution), dann ist es auch schon ruiniert und es gibt kein Entrinnen mehr: alles, alles, alles fällt nur noch auf ein Raster, dass dem eigenen Wert- und Meinungshintergrund entspricht.
Although it is effectively costless for any individual to form a perception of climate-change risk that is wrong but culturally congenial, it is very harmful to collective welfare for individuals in aggregate to form beliefs this way
Kleins Artikel basiert auf einem Interview mit dem Author der Studie, Dan Kahan, geführt hat. Dieser arbeitet an der Yale Law School und betreibt auch eine sehr interessante Webseite, die ich bislang noch nicht kannte. Unbedingt empfehlenswert.
To spend much time with Kahan’s research is to stare into a kind of intellectual abyss. If the work of gathering evidence and reasoning through thorny, polarizing political questions is actually the process by which we trick ourselves into finding the answers we want, then what’s the right way to search for answers?
Ich mache trotzdem weiter mit dem Bloggen. Einerseits ist Klima- oder allgemeiner Erdsystemforschung auch als Forschungsfeld spannend und lohnt einfach unters Volk gebracht zu werden. Da ist alles dabei: Satelliten, Modelle, Geschichtsforschung, Biologie, Geologie, Mathematik und Physik. Keiner kommt zu kurz. Und ausserdem betreibe ich diesen Blog ohnehin nicht, um für welche Klimapolitik auch immer Werbung zu machen. Nicht dass es mich nicht interessiert, aber Klimapolitik bleibt eher peripher. Insofern mache ich mir auch keine Sorgen, dass dann doch durch mehr Informationen, die ich eventuell unters Volk bringe, lediglich politisch ein weiterer Selbstvergewisserungsschub ausgelöst wird.
h/t an Leser MJ
]]>