Von Frank Bosse und Fritz Vahrenholt
Die Sonne war im August 2014 zwar weiterhin unternormal aktiv, die Abweichung von einem durchschnittlichen Zyklus (als Mittelwert der bisher beobachteten Zyklen 1-23 berechnet) war mit -17% im aktuellen Monat jedoch nicht so hoch wie in den drei Vormonaten, in denen ca. 25% festgestellt wurden. Die SunSpotNumber (SSN) lag bei 75,2, wobei wiederum die meiste Aktivität auf der Südhalbkugel der Sonne zu verzeichnen war: 62% der Flecken und Fleckengruppen wurden dort beobachtet.
Abb. 1: Der Zyklus ( SC) 24 bis zum aktuellen 69. Monat (rot) im Vergleich zum errechneten durchschnittlichen Zyklus (blau) und dem momentan ähnlichen Zyklus (SC) 1 (schwarz).
Der Vergleich der einzelnen Zyklen untereinander hat sich zum Vormonat kaum verändert:
Abb.2: Der Vergleich der einzelnen Zyklen untereinander als Summe der Abweichungen der einzelnen Monate 1- 69 zum Mittelwert (blau in Abb.1).
Wer unsere kleine Kolumne regelmäßig liest, wird sich vielleicht erinnern, dass wir die Rohdaten der SSN von vorn herein nach einem Vorschlag des Solarforschers Leif Svalgaard „vorbehandelt“ haben: Die Zahlen wurden vor 1945 mit dem Faktor 1,2 multipliziert, die früheren Zyklen also um 20% im Mittel angehoben. Im Juli 2014 erschien dazu eine Arbeit, die dieses Vorgehen prinzipiell bestätigt. Daran beteiligt war eine Arbeitsgruppe namhafter Wissenschaftler, die sich in mehreren Symposien auf die weitestgehende Anpassung von Unstetigkeiten in der Beobachtungsweise einigten. Daraus ergeben sich zwei Konsequenzen: Das Maximum der Aktivität ab 1950 ist im Vergleich zu vorherigen Jahren nicht ganz so hoch und das Nachlassen seit dem SC23 (um 2000) ist noch ausgeprägter im Vergleich zu vor 1945 als es die „Rohdaten“ der SSN ergeben. Die Abbildungen oben berücksichtigen diese Anpassungen bereits. Die Aktivität unseres Zentralgestirns ist ab etwa 2007 so niedrig wie seit 200 Jahren nicht mehr.
Die Anzahl der wissenschaftlichen Arbeiten zur „Pause“ (oder dem Hiatus) wächst inzwischen nahezu täglich. Dabei wird versucht, die Ursachen des Stillstandes der globalen Mitteltemperatur am Boden und in der Troposphäre seit etwa 2000 bzw. noch davor zu ergründen. Die Suche führt dabei oft in den Ostpazifik und den Atlantik. Ein ganz neues Paper erschien im September 2014, verfasst von einer Gruppe um den Klimatologen Gerald Meehl des Atmosphärenforschungszentrums in Boulder (Colorado). Sie versucht, die vorhandenen Klimamodelle anzuwenden und schafft eine hinreichende Widerspiegelung der Beobachtungen nur mit wenigen ausgesuchten Modellläufen, die Mittelwerte der Läufe zeigen jedoch deutlich zu viel Erwärmung, die Modelle in Summe sind seit ca. 15 Jahren zu empfindlich gegenüber dem Antrieb (dem Forcing) durch Treibhausgase. Woran mag das liegen? Einen ersten Ansatz kann man mit wenigen Operationen versuchen zu finden: Man nehme die beobachteten jährlichen globalen Temperaturen nach GISS (Goddard Institute for Space Studies) und teile den Datensatz: Die eine Reihe geht von 1886 bis 1949, die andere von 1950 bis 2013. Nun werden beide Reihen separat vom jeweiligen linearen Trend befreit und dargestellt:
Abb. 3: Die beiden detrendeten Reihen übereinander geplottet und mit einem Tiefpass (Loess) geglättet.
Es fällt auf, dass beide Reihen einen sehr ähnlichen Verlauf haben, hier also auch eine Periodizität im Spiel sein könnte mit einem Versatz von etwa 65 Jahren.Es spricht viel dafür, dass beide Graphen zumindest in Teilen eine interne Variabilität abbilden. Zwischen etwa 1910 und 1940 und dazu passend zwischen 1975 und 2005 ergibt sich einen Anstieg von ca. 0,2 Grad Celsius, der wahrscheinlich nicht durch den Antrieb von Treibhausgasen verursacht wird. Was sagt uns das über die Modellrechnungen? Dazu muss man wissen, dass diese eine sehr komplexe Abbildung möglichst aller bekannten physikalischen Einflüsse sind. Da die Modelle die Wirklichkeit nicht ohne Weiteres korrekt wiedergeben, müssen sie per Hand getunt (angepasst) werden, wie man in einer Arbeit eines Teams um Thomas Mauritsen vom Max-Planck-Institut für Meteorologie aus dem Jahre 2012 nachlesen kann. Dort ist zu lesen, dass Klimamodellierer Modelle tunen hinsichtlich wolkenbezogener Parameter, Ozean Albedo oder dem Aerosoleinfluss.
Die Forscher stellen sich die berechtigte Frage: „In welchem Ausmaß hängen unsere Ergebnisse ab von den Entscheidungen, die wir getroffen haben?“. Weiter heißt es: „Die Wahl („der Parameter“, FV u. FB) , die wir machen, hängen ab von unseren vorgefassten Meinungen (preconceptions), Präferenzen (preferences) und Zielen (objectives)“. Die aktuelle Entwicklung der Klimamodelle hängt nach Aussage der Autoren ab von neuen Datensätzen, Modellparametrisierungen, zusätzlicher Computerleistung und „wie sich unsere Interessen (interests), Auffassungen (perceptions) und Ziele (objectives) entwickeln.“Man muss sehr dankbar sein für diese Offenheit.
Es gibt jedoch einen wichtigen Zwischenschritt bei der Anpassung der Rechenmodelle an die Wirklichkeit. Wie in der zitierten Arbeitaufgezeigt wird, wird folgender Zeitraum für die Temperaturparametrisierung herangezogen: genau die 30 Jahre von 1976 bis 2005 (vgl. Abschnitt 2.1, zweiter Anstrich in der o.g. Arbeit), die in Abb.3 die natürliche Erwärmung von ca. 0,2 Grad Celsius zeigen! Hier liegt vielleicht ein entscheidender Fehler: Setzt man voraus, dass alle Erwärmung in diesem Zeitraum durch den Antrieb von Treibhausgasen erzeugt wurde, werden die so parametrisierten Modelle eine deutlich zu hohe Sensivität gegenüber verantwortlichen Treibhausgasen zeigen. Und genau das ist es, was beobachtet wird: Die Modelle zeigen eine zu starke Erwärmung in den letzten 15 Jahren und naturgemäß auch für die Zeit bis 2100.
In unserer Kolumne des Vormonats gingen wir am Ende auf das Volumen des Meereises in der Arktis ein. Inzwischen ist der Sommer vorbei und die Daten von Mai- August hierzu sind via PIOMAS verfügbar. Berechnet man danach die Verluste an Eisvolumen (die Schmelze) für jedes einzelne Jahr über das Frühjahr und den Sommer (1.5.-31.8.), gibt es eine Überraschung:
Abb. 4: Der jährliche Volumenverlust des arktischen Meereises nach PIOMAS (blau) mit dem Mittelwert 1980-2013 ( schwarz) und der Standardabweichung (grau)
Nach den sehr hohen Schmelzraten 2007- 2012 ging der Verlust in 2013 und vor allem 2014 bis unter den langjährigen Mittelwert zurück. Was könnten die Ursachen dafür sein? Momentan kann man nur mutmaßen, einen Hinweis kann man einer aktuellen Arbeit u.a. aus der Feder von Mojib Latif aus dem Jahre 2013 entnehmen:
„It was suggested that the AMOC might be capable of influencing Arctic sea ice on this time scale through the inflow of Atlantic Water into the Arctic Ocean.”
Über die AMOC (die Atlantic Meridional Overturning Circulation) hatten wir schon mehrfach berichtet, das letzte Mal hier. Sollte die AMOC als Bestandteil der internen Variabilität das Schmelzgeschehen in der Arktis entscheidend mitbestimmen? Machen wir einen kurzen Plausibilitätstest: Die Wirkung der AMOC kann man besonders gut am Verlauf des Wärmeinhaltes der oberen 700m Wasser (des Heat Content) eines Seegebietes im Nordatlantik zwischen 45°N-60°N und 60°W-10°W beschreiben. Und was sehen wir da?
Abb. 5: Der Wärmeinhalt des subpolaren Wirbels bis Juni 2014 ( Diagramm via „Climate Explorer“)
Einen recht dramatischen Absturz in den letzten Monaten. Er wurde übrigens seit Beginn des Jahres erwartet, wie hier berichtet. Diesen Test hat die These von Mojib Latif et. al. also bestanden. Ist das die ganze Erklärung? Wahrscheinlich nicht, in jedem Fall scheint jedoch die interne Variabilität unseres Klimas in vielen Belangen eine größere Rolle zu spielen als Modelle und einige Klimaforscher annehmen. Wenn das so ist, folgt daraus: Die Sensitivität unseres Klimas gegenüber Treibhausgasen ist nicht so hoch wie von einigen (97%??) bisher angenommen. Mit anderen Worten: Die Klimakatastrophe im 21. Jahrhundert findet nicht statt.