Von Frank Bosse, Fritz Vahrenholt und Sebastian Lüning
Wie werden eigentlich die globale Mitteltemperatur und die Abweichungen vom Mittelwert bestimmt? Es gibt da verschiedene Reihen, die mehr oder weniger unabhängig voneinander ermittelt werden. Zunächst die globalen Bodentemperaturen, sie werden beispielsweise durch die „Climate Research Unit“ (CRU) monatlich festgestellt, die neueste Reihe heißt HadCRUT4. Dann steuert das „Goddard Institute for Space Studies“ (GISS) ihre Daten bei. Beide funktionieren nach einem Modell, in das die Land- und Meeresoberflächentemperaturen einfließen. Daneben haben wir noch satellitengestützte Werte, die jedoch nicht die Bodentemperaturen sondern die Temperatur der Troposphäre in einiger Höhe messen.
Hier wollen wir uns mit den globalen Mitteltemperaturen nach GISS beschäftigen. Besonders wichtig ist es bei deren Trends, dass man einen Zeitraum betrachtet, der zum Begriff „Klima“ passt, 30 Jahre sollten es schon sein. Keinesfalls dürfen es nach Santer et al. (2011) weniger als 17 Jahre sein, sonst können wir womöglich im „Rauschen“ des Wetters nicht das Langzeitsignal des Klimas erkennen. Das Bild, das die Temperaturreihe abgibt, erscheint zunächst eindeutig:
Was wir erkennen, sind die Jahreswerte (blau) bis November 2012 und die Trendlinien des oberen (grün) und des unteren (braun) 95%-Konfidenzintervalls sowie den mittleren Trend (schwarz) mit einer Steigung von 0,16°C pro Dekade. Was wir ebenfalls sehen: seit 1998 ist es nicht mehr signifikant wärmer geworden (blaue Kurve). Nun ist 1998 mit Sicherheit ein Ausreißer durch den starken El Nino in jenem Jahr. Aber: in 2001 testete der Verlauf den oberen Rand des Konfidenzintervalls, am Ende eher dessen unteren. Die Stagnation der globalen Temperaturen hinterlässt eben auch bei einem 30-Jahrestrend inzwischen ihre Spuren.
Wie jedoch wird die mittlere Temperatur des gesamten Globus bestimmt? Das ist nicht so einfach, wie man denkt. In die Betrachtung fließen viele Beobachtungen ein. Zunächst einmal die Werte von meteorologischen Landstationen wie man sich leicht denken kann. Dann die Beobachtungen der Oberflächentemperaturen („Sea Surface Temperatures“, SST) der Meere, alle Angaben müssen gewichtet werden nach dem Anteil der Fläche, den die einzelnen Werte repräsentieren. Dazu gibt es auch Arbeiten, die das Vorgehen erläutern. Zum Beispiel veröffentlichte 2010 der Chef von GISS, James Hansen eine Arbeit dazu.
Dort geht er auch kurz darauf ein, mit welchem räumlichen Abstand die Messwerte erhoben werden. Er verweist hierzu auf eine Arbeit von 1987, in der gezeigt wurde, dass die globalen Temperaturen nicht signifikant empfindlich sind auf den Radius um den erhobenen Wert herum. Man einigte sich schließlich auf einen Radius von 1200 km.
„The global mean temperature anomaly was insensitive to this choice for the range from 250 to 2000 km. The main effect is to make the global temperature anomaly map smoother as the radius of influence increases.” (S. 2. der Arbeit)
Dennoch erscheinen weiterhin auch die Werte mit einem Radius von 250 km. Man kann sich diese Zahlen besorgen und den Unterschied zum in allen weiteren Veröffentlichungen benutzten 1200 km-Radius-Ergebnis berechnen:
Tatsächlich kann man nachvollziehen, dass der Unterschied bis 1987 wohl marginal war, eher bekam man etwas kühlere Temperaturen, benutzte man nicht den 250 km-Smoothingradius sondern den mit 1200 km. Mit etwas gutem Willen kann man sogar bis 1997 davon ausgehen, dass die Differenzen eher zufällig waren. Danach jedoch? Der Trend im Unterschied ist signifikant! Daher ist ein Zufall auszuschließen, wie er auftreten könnte, wenn man die globale Anomaliekarte einfach nur „smoother“ aussehen lassen möchte, wie es Hansen erklärte. In den letzten Jahren ergab sich ein Unterschied von im Mittel 0,07°C. Das klingt nicht viel. Wollen wir das obere Diagramm jedoch nachvollziehen:
In dieser Darstellung wurden die Werte von 2012 nicht berücksichtigt, daher der etwas steilere Trend in den 1200-km-Daten (rot) als oben. Die 250km-Smoothing Werte ergeben nun nicht mehr 0,17°C pro Dekade sondern 0,14°C pro Dekade Steigung in den letzten 30 Jahren, und die Differenz wird ab 2001 sehr deutlich. Auf einmal ist auch 2010 im Datensatz nicht mehr das wärmste Jahr! Die Stagnation ab 1998 wird noch viel deutlicher.
Wo kommen die Unterschiede her? Dazu wurden die zonalen Trends der Differenzen 1975-2011 ausgewertet:
Alle Trends sind signifikant positiv, also nicht etwa zufällig. Besonders tragen die polaren Breiten zum Unterschied bei. Ein Blick auf bestrichenen Flächen bei 250km Radius offenbart das Problem:
Um die Pole herum gähnen große graue Löcher, was bedeutet: eigentlich keine Daten, sie werden von umliegenden Stationen extrapoliert. In der Arktis gibt es in der Tat nur 59 Stationen, die nördlich 63 Grad Nord liegen und die einen lückenlosen Datensatz bis mindestens 2006 aufweisen. In der Antarktis ist die Situation nicht viel besser. In der Arktis haben wir seit 1981 signifikante Erwärmung, in der Antarktis nicht. Eine sich uniform erwärmende Arktis (kann man das so sehen, wie sind die Unterschiede über Eis zu den Messungen über Land?) wird durch die Extrapolation zum Wachstum der globalen Werte nicht ganz zu Unrecht beitragen, da die repräsentierte Fläche wächst, berücksichtigt man sonst „graue Löcher“. Wie aber können die Antarktis und die anderen Breiten zur globalen Trenderhöhung bei Anwendung der 1200km- Glättung im Vergleich zur 250km- Betrachtung einen nicht unerheblichen Beitrag von ca. 50% leisten?
Ziel der Betrachtung war es nicht, die physikalischen globalen Temperaturtrends nach GISS anzuzweifeln. Vielmehr sollte der Leser sensibilisiert werden für die Modellmethoden und die Problematik des Glättens mit 1200 km Radius um eine physische Meßstelle herum. Wollen Sie in Hamburg die Temperatur von Minsk (1150 km entfernt) im Wetterbericht hören? Durch die Beaufschlagung der „grauen Löcher“ mit den Werten weit entfernter Nachbarstationen ist es seit 1998 weltweit nahezu 0,1°C „wärmer“ geworden. Alles echt?