Von Frank Bosse
Um es kurz zu machen: hier bezweifelt keiner, dass Kohlendioxid erwärmend wirkt. Es wird jedoch bezweifelt, dass diese wärmende Wirkung so stark ist wie uns seit Jahren suggeriert wird. Noch im 4. IPCC-Bericht 2007 lasen wir markige Sprüche: Die globalen Temperaturen sollten im Mittel um 0,2 Grad Celsius pro Dekade ansteigen.
Diese Steigerungsraten sind nicht im Entferntesten eingetreten. Ganz im Gegenteil: In den letzten 15 Jahren gab es keinen signifikanten Anstieg. Das deckt sich nicht mit Modellen, auf deren Grundlage die Prognosen des IPCC weiland erstellt wurden. In einer Untersuchung kommen Hans v. Storch und seine Kollegen zu einem vernichtenden Modellurteil. Die beobachtete Entwicklung der Temperaturen seit 1998 ist nicht konsistent mit den Modellen, nicht einmal mehr auf dem 2%- Konfidenzniveau:
In recent years, the increase in near-surface global annual mean temperatures has emerged as considerably smaller than many had expected. We investigate whether this can be explained by contemporary climate change scenarios. In contrast to earlier analyses for a ten-year period that indicated consistency between models and observations at the 5% confidence level, we find that the continued warming stagnation over fifteen years, from 1998 -2012, is no longer consistent with model projections even at the 2% confidence level. Of the possible causes of theinconsistency, the underestimation of internal natural climate variability on decadal time scales isa plausible candidate, but the influence of unaccounted external forcing factors or anoverestimation of the model sensitivity to elevated greenhouse gas concentrations cannot be ruled out. The first cause would have little impact of the expectations of longer term anthropogenic climate change, but the second and particularly the third would.
Das bedeutet nichts anderes, als dass die Hypothese, die Temperaturen würden sich so entwickeln wie die Modelle vorhersagen, zu 98% zurückgewiesen werden muss. Das ist sehr einfach nachzuvollziehen: Gehen wir davon aus, dass im Jahre 2000 der Startpunkt der Entwicklung sei mit +0,6 Grad. Nach IPCC sollte es dann im Jahre 2030 um 0,6 Grad Celsius wärmer sein als zu Beginn, also 1,2 Grad. Dabei berücksichtigen wir, dass es keinen gleichmäßigen Anstieg geben wird, in einer klimatisch relevanten Periode von 30 Jahren der mittlere Anstieg aber so eintreten sollte. Wie also müssten sich die Temperaturen dann entwickeln bis dahin?
In der Grafik wurden die jährlichen Temperaturdaten (in Grad Celsius) nach GISS aufgetragen wie sie 1983-2012 gemessen wurden und dann der erforderliche Anstieg bis 2030 linear angefügt. Er beträgt 0,35 Grad Celsius/Dekade! So stark müssten die globalen Temperaturen ab sofort ansteigen, um das „IPCC-Ziel“ in 2030 noch zu erreichen. Mit jedem Jahr der Stagnation wird dieser Wert höher, er ist schon heute viel zu hoch, um realistisch zu sein. Die „Zeitbombe“ tickt! Es enthüllt sich auch, wie das IPCC auf die erwartete Steigerung von 0,2 Grad/Dekade kam: der beobachtete Anstieg 1983-2004 war genau so hoch. Eine einfache Extrapolation? Wie war das zu begründen?
Im IPCC- Bericht von 2007 wird den Treibhausgasen „sehr wahrscheinlich der überwiegende Anteil der Erwärmung“ zugeschrieben. Und die Freisetzung dieser „Klimagase“ stieg tatsächlich seit 2000 nahezu linear an (schwarze Punkte) und damit konform zum Szenarium A1B (rot) des IPCC , wie die Abbildung 1 aus der Arbeit von Hans von Storch et al. zeigt:
Damit schien die Kette geschlossen, die das IPCC 2007 zur Prognose verwendete: CO2 ist der Haupttreiber des Klimawandels, das steigt recht linear an und damit auch die Temperaturen der Atmosphäre. Daraus folgte damals: Die Klimasensitivität gegenüber CO2 bis zum Gleichgewicht (man muss die in die Ozeane geleitete Wärme mit betrachten) hat einen besten Schätzwert von ca. 3 Grad Erwärmung pro Verdopplung der Konzentration des CO2 in unserer Luft. Damit wurde, so kann man mit einer einfachen Dreisatzrechnung ermitteln, praktisch alle Erwärmung seit ca. 1975 dem Anstieg des Kohlendioxids zugeschrieben. Man blieb sich treu.
Nur die Prognose aus recht einleuchtenden linearen Beziehungen trat nicht ein. Es kommt halt immer wieder vor, dass die Theorie in ihrer schlichten Schönheit durch die widerspenstige, hässliche Praxis über den Haufen geworfen wird. Statt ausgeprägtem linearen Aufwärtstrends gab es nur Stagnation. Wie kann das sein?
Hier hakt Mojib Lativ ein. In verschiedenen Arbeiten (wir berichteten regelmäßig, z.B. hier) arbeitet er heraus, dass die natürliche Variabilität unseres Klimas höher ist, als beim letzten IPCC- Bericht angenommen. Dabei betrachtete er Meeresströmungen, die über Jahrzehnte schwanken und mal additiv, mal subtraktiv zur Erwärmung beitragen. Zwischen 1975 und 2004 waren die Ozeanzyklen die Erwärmung verstärkend, danach abbremsend bzw. den Anstieg durch Treibhausgase teilweise kompensierend.
Merken Sie was? Wenn man den Anstieg 1975-2004 nicht vollständig dem CO2 zuschreiben kann, dann kann man auch nicht extrapolieren. Die Klimasensivität des CO2 wäre also eigentlich niedriger. Mojib Lativ selbst schreibt in einer Präsentation aus 2012:
„Die letzten Jahrzehnte beinhalten einen starken Anteil der multidekadischen Oszillation sogar auf globalen Skalen und das lässt Fragen zur vom IPCC angenommenen mittleren Klimasensitivität wachsen“
Und Arbeiten zur Bestimmung der Klimasensitivität unter Beachtung der neueren Entwicklungen ließen nicht lange auf sich warten: Masters (2013) und Lewis (2013) seien als „Pioniere“ genannt. Sie kommen zu einem besten Schätzwert für diese Größe von 1,6-1,8 Grad Temperaturanstieg pro Verdopplung CO2.
Soweit die Klimaforschung, die sich mit Unsicherheiten in den bisherigen Betrachtungen herumschlagen muss. Aber was meinen „Klimaverkäufer“? Zunächst einmal „Business as usual“! Solange die gemessenen Daten, so das Argument, nicht die Standardabweichung (Sigma) des 30-jährigen Trends nach unten durchbricht, ist alles in Ordnung. Das bringt aber nicht viel. Wenn sich nichts Gravierendes geändert hat, können wir ja getrost den Trend von 1975-2004 hernehmen und den verlängern. Die aktuellen Daten durchbrechen dann sehr wohl die Sigma- Linie, und zwar bereits seit 2011.
Es bleibt dabei: Die Trends sind nicht in Ordnung, die Stagnation lässt sich auch mit statistischen Taschenspielereien nicht verdecken. Da die Klimaverkäufer nicht an die Sensitivität herangehen können (wie sollten sich denn sonst die Hitzeweissagungen an den Mann bringen lassen?) wird eine neue schöne Theorie geboren: Die Wärme geht vorübergehend in die Tiefsee! Die Kette klingt einleuchtend: An der Obergrenze der Atmosphäre wird ein Ungleichgewicht von ca. 0,6 W/qm gemessen. Es wird weniger Wärme abgestrahlt von unserem Planeten als ihm zugeführt wird. Wenn man das nicht durch Erwärmung der Atmosphäre nachweist (Stagnation!) dann entkommt diese Wärme ins bisher nicht Nachweisbare: die Tiefsee, unterhalb 700m Wassertiefe. Bis 700m gibt es nämlich längere Datenreihen und die zeigen auch dort eher Abflachung als verstärkten Zuwachs in den letzten Jahren.
Auch das hält jedoch einer kritischen Prüfung nicht stand: Die Ungenauigkeiten in den Messungen an der Obergrenze der Atmosphäre und in den Tiefen der Meere lassen einen Nachweis so kleiner Änderungen gar nicht zu. Das sind neue Ergebnisse der Klimaforschung: Stephens et al. 2012 und Troys Scratchpad. Das Dilemma der Klimaverkäufer mit dem Klima ist schon mitleiderregend, oder? Könnte Entlastung kommen durchs Wetter? Hier werden Sie immer wieder die Formulierung “extrem“ lesen und hören müssen. Hitzewellen (auch Kältewellen übrigens, also lang anhaltende Wetterlagen) werden durch stabile Nord-Süd-Strömungen in der Atmosphäre erzeugt, man nennt diese Wettererscheinungen auch Blocking-Wetterlagen. Die schöne Theorie: Der Klimawandel begünstigt so etwas, da sich die Arktis erwärmt, und das „biegt“ planetare Wellen von Ost-West nach Süd-Nord . Man konnte es beim PIK lesen. Eine nähere Untersuchung unlängst widerlegt auch das: „Es gibt dafür keine Bestätigung aus Beobachtungen“. Hässliche Praxis!
Unser Klima bleibt voll von Überraschungen. Das ist kein Wunder, handelt es sich doch um ein hochkomplexes System mit Kopplungen aus der Atmosphäre ins Meer und umgekehrt. Die Wolken tragen dazu bei, dass es nicht einfacher wird. Die Sonne ist ein weiterer Unsicherheitsfaktor. Erklärungen sollen einfach sein, aber nicht zu einfach sagte schon Albert Einstein.
Verkäufer haben meist zu einfache Erklärungen. Schauen Sie aber lieber, was die Forschung macht!