Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.). 

In einer anderen Arbeit einer Gruppe um Zhian Sun, die sich derzeit im Journal of Geophysical Research im Druck befindet, werden größere Problem der Klimamodelle hinsichtlich der Sonneneinstrahlung auf der Erdoberfläche thematisiert. Hier wurden offenbar Wolkeneffekte übersehen, was zum Teil mehr als 800 Watt pro Quadratmeter ausmachen kann. Dies ist 216 Mal mehr als die für das Kohlendioxid angenommene Klimawirkung, die vom IPCC mit 3,7 Watt pro Quadratmeter pro CO2-Verdopplung angenommen wird (siehe Beitrag auf The Hockey Schtick).

Ein wichtiges Charakteristikum heutiger Klimamodelle ist, dass sich der arktische Raum langfristig sehr viel schneller erwärmt als der Rest der Erde. Dies setzt einen enormen Wärmezufluss in diese Region voraus. Im Juni 2012 erschien nun in den Geophysical Research Letters eine Studie einer Forschergruppe aus Kiel und Potsdam um Henning Bauch. Die Wissenschaftler hatten die vorangegangene Warmzeit vor 135.000 Jahren untersucht, um sie mit der heutigen Situation zu vergleichen: Zu ihrer Überraschung fanden sie jedoch keinen Hinweis auf eine verstärkte Erwärmung der Arktis zu dieser Zeit. Einen erhöhten Wärmfluss in arktische Regionen scheint es damals überhaupt nicht gegeben zu haben. Die Autoren warnen daher in ihrer Arbeit davor, eine extrem überproportionale Erwärmung der Arktis für das 21. Jahrhundert als selbstverständlich anzunehmen (siehe Beitrag auf The Hockey Schtick).

Im Juni 2012 erschien im Fachmagazin Climate Dynamics eine neue Arbeit von Ross McKitrick von der kanadischen Univerity of Guelph in Zusammenarbeit mit Lise Tole von der schottischen Strathclyde University in Glasgow. Die Forscher untersuchten 22 vom IPCC in seinem letzten Bericht verwendete Klimamodelle daraufhin, inwieweit sie die klimatische Entwicklung in ausgewählten räumlichen Zellen für die Zeit von 1979 bis 2002 zu reproduzieren vermögen. Das Ergebnis war erschreckend: Lediglich 3 der Modelle haben eine Performance, die sie als Vorhersagemodelle mit „Skill“, also einer gewissen Vorhersagekraft ausweist (siehe auch Berichte auf WUWT und EIKE). Nicht gerade ein Qualitätsmerkmal für Modelle, auf denen im Prinzip der Umbau der modernen Industriegesellschaft basiert. Wenn die Vorhersagen für einzelne Modellierungszellen, also einzelne Regionen mit den etablierten Modellen so schlecht funktioniert, sollte man sich zudem ernsthafte Gedanken machen, ob die derzeit laufenden Modellierungsbemühungen regionaler Klimaprojektionen überhaupt sinnvoll sind. Dh7fb schreibt:

Über die Anwendung des einen oder anderen Modells für lokale Klimaprognosen, z.B. [www.pik-potsdam.de] darf demnach kritisch räsoniert werden. In der verlinkten [PIK-] Analyse wurden die Modelle 21…23 des IPCC [www.ipcc.ch] zum downscaling benutzt (Abb. 1.1.1 dort). Diese Modelle wurden in [der neuen Studie von McKitrick und Tole] als ohne prädikativen Skill aussortiert.

Eine Forschergruppe um Aurel Moise vom Bureau of Meteorology in Melbourne untersuchte die Ergebnisse von 19 Klimamodellen für die Entwicklung des tropischen Klimas in Australien im 21. Jahrhundert. Die Wissenschaftler fanden keinen „Modell-Konsens“ und eine sehr große Bandbreite der Klimaprojektionen, die sich in alle möglichen Richtungen entwickelten. Natürliche Variabilität spielte eine größere Rolle. Die Studie erschien im Mai 2012 im Journal of Geophysical Research.

Tim Ball gibt in seinem Blog zu Bedenken, dass derzeit noch viel zu wenige Daten über die Bodenfeuchtigkeit vorliegen, die jedoch einen wichtigen Eingabeparameter für Klimamodellierungen darstellen. Dies schränkt die Qualität der Modellierungsergebnisse signifikant ein.

Richard Lindzen vom Massachusetts Institute of Technology hielt im Juli 2012 an den staatlichen Sandia National Laboratories in Albuquerque einen Vortrag zum Klimawandel, in dem er die aktuellen Klimamodelle des IPCC als zu simplistisch kritisierte. Man habe sich fälschlicherweise auf einen angeblichen Hauptklimafaktor eingeschossen, nämlich das CO2, dessen Klimawirkung jedoch signifikant überschätzt wird. Die Modelle vereinfachen zu sehr. Lindzen sagte:

„Die Modelle haben denselben Wert, wie eine Prüfung, deren Antworten man schon im voraus wusste.“

Die Modellierer benutzen Aerosole (Schwebstoffteilchen) als Joker in ihren Berechnungen, so dass am Ende das gewünschte Ergebnis herauskommt. Lindzen warnte auch davor, sich von der großen Anzahl von Modellen blenden zu lassen, die alle etwas Ähnliches zeigen würden. Man müsse dabei berücksichtigen, dass die Modelle keineswegs unabhängig voneinander entstanden sind. Die Ähnlichkeit der Resultate ist vielmehr durch die enge Zusammenarbeit der verschiedenen Gruppen und ähnliche Ansätze bedingt (siehe auch beitrag auf WUWT).

Über Freeman Dyson haben wir hier bereits im Februar 2012 kurz berichtet (siehe „Freeman Dyson hält die Furcht vor dem Klimawandel für übertrieben“). Dyson sagte vor einigen Jahren über die fragwürdigen Klimamodelle in der New York Times:

„Die Klimamodellierer tendieren stets dazu, die Qualität ihrer Modelle zu überschätzen. The scheinen zu glauben, dass ihre Modelle der Realität entsprechen und vergessen dabei, dass es doch nur Modelle sind. […] Al Gore ist nur ein Opportunist. Der Hauptschuldige an der Überschätzung der Klimaerwärmung ist Jim Hansen. Er übertreibt das Gefahrenpotential systematisch.“

Ungeachtet der mageren Modellierungserfolge hat sich das Britische Met Office nun für schlappe 41 Millionen Pfund einen neuen Supercomputer angeschafft, der für Wetter- und Klimavorhersagen verwendet werden soll. Die britische Tageszeitung Express hinterfragte den teuren Kauf mit der Schlagzeile:

Die 100-Jahres-Vorhersage des Met Office (die sich schon 2 Tage später als falsch entpuppte)

 

Lesen Sie morgen Teil 3 unserer Serie zur Klimamodellierung.
Foto oben rechts: Ot / Lizenz: Licensed under the GFDL by the author