IPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Den wahren Wert einer Vorhersage erkennt man am besten im ehrlichen sportlichen Wettkampf. Man nehme eine Vorhersage, die möglichst zehn, zwanzig oder mehr Jahre alt ist, und vergleiche sie einfach mal mit der in der Natur real registrierten Entwicklung. Wenn alles passt, hat sich das Modell das Vertrauen ehrlich verdient. Falls sich jedoch größere Diskrepanzen ergeben, sollte man sich ernsthaft Gedanken darüber machen, ob das Modell wirklich auf den richtigen Grundlagen basiert. Mit kosmetischen Korrekturen ist es da nicht getan. 

Bereits im Juni 2012 haben wir bei uns im Blog einen Gastbeitrag von Prof. Jan-Erik Solheim gebracht, der genau solch einen Theorie-gegen-Praxis-Vergleich unternommen hat (siehe „Was ist eigentlich aus James Hansens Temperaturvorhersage von 1988 geworden? Zeit für eine Überprüfung“). Das Resultat war ernüchternd: Die von der Hansen-Truppe 1988 modellierte Temperaturvorhersage lag um etwa 150% daneben (Abbildung 1). 

 

Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988)

 

Im April 2012 hatten wir uns zudem eine Temperaturprognose von Hartmut Graßl vorgenommen, die er 1990 aufgestellt hatte (siehe unser Blogartikel „Graßl’s Erwärmungsprognose von 1990 droht dramatisch zu scheitern“). Auch hier sieht es überhaupt nicht gut aus. Das Ergebnis der Analyse: Die Temperatur müsste in den kommenden 8 Jahren um satte 0,75°C ansteigen, damit Graßls Vision noch Wirklichkeit wird. Hier sollte wohl Einigkeit über alle Lager hinweg herrschen: Dies ist schlichtweg unmöglich. Eine schöne Zusammenschau der fehlgeschlagenen IPCC-nahen Prognosen ist übrigens auch auf C3 Headlines erschienen. 

Anstatt sich nun die notwendigen Gedanken über einen Modellierungsneuanfang zu machen (siehe z.B. Anmerkungen von Roger Pielke, Sr.), wursteln die IPCC-Forscher einfach weiter herum so wie bisher. Offensichtlich lassen sie sich auch nicht dadurch beunruhigen, dass die Modelle weder den Temperaturstop der vergangenen 10 Jahre reproduzieren – geschweige denn vorhersagen – konnten, noch die Klimageschichte der letzten Jahrtausende in den Griff bekommen. So werden wir wohl auch im kommenden 5. Klimazustandsbericht keine Verbesserung erwarten können, wie eine Pressemitteilung der französischen Forschungsorganisation CNRS aus dem Februar 2012 erahnen lässt: 

Die französische Wissenschaftsgemeinschaft für Klimafragen hat kürzlich wichtige Simulationen zum vergangenen und künftigen Klima im globalen Maßstab abgeschlossen. Diese aktuellen Daten bestätigen die Ergebnisse des vierten Sachstandsberichts (2007) des Weltklimarats (IPCC) über die kommenden Veränderungen bei der Temperatur und der Niederschlagsmenge. Dabei wurden 2 Extremmodelle berücksichtigt: Ein Temperaturanstieg von 3,5 bis 5°C bis 2100 oder im günstigsten Fall ein Anstieg um 2°C. Von der internationalen Wissenschaftsgemeinschaft zur Verfügung gestellt, werden diese Ergebnisse vom IPCC zur Erarbeitung ihres nächsten für 2013 geplanten Berichts verwendet. […] Es bestätigt sich eine Intensivierung des Wasserkreislaufs und ein schnelles Abschmelzen des arktischen Packeises, das im schlimmsten Fall im Sommer 2040 oder 2060, je nach Modell, verschwunden sein wird. Die Simulationen, die das Klima und den Kohlenstoffkreislauf miteinander in Verbindung setzen, liefern neue Antworten.  

Das Gleiche gilt übrigens wohl auch für die Klimawirkung der Sonne, die im neuen IPCC-Bericht offenbar sogar noch weiter heruntergeschraubt wird (siehe unser Blogartikel „Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !“). Entsprechend wird die Klimawirkung des CO2 jetzt weiter nach oben gesetzt. In einer Klimamodellierungsarbeit einer Gruppe um Gerald Meehl, die im Juni 2012 im Journal of Climate erschien, wird jetzt von einer langfristigen CO2-Klimasensitivität von 3,2°C ausgegangen, was 25% höher ist als im Vorgängermodell (siehe Diskussion auf der NIPCC-Webseite). 

weiter lesenIPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Neue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Ein Hauptproblem der diversen Klimamodelle ist die viel zu gering angenommene Klimawirkung der Sonne. Wie können die Temperaturen in den letzten 10.000 Jahren synchron zur Sonnenaktivität pulsiert haben, wenn doch die Sonne eigentlich kaum eine Rolle gespielt haben sollte? Dabei gibt es mindestens drei Stellschrauben, an denen die Modellierer nachbessern könnten. So werden derzeit keinerlei Solarverstärker berücksichtigt (siehe unser Buch „Die kalte Sonne, Kapitel 6). Weder der UV-Verstärker noch der Svensmark-Verstärker über die kosmische Strahlung und Wolken wurden bislang in Klimamodell-Szenarien umgesetzt.

Bei der dritten Stellschraube handelt es sich um eine Neubewertung der Sonnenaktivitätsschwankungen. Im Februar 2011 hatte ein schweizerisches Wissenschaftlerteam um Alexander Shapiro vom Davoser World Radiation Center im Fachmagazin Astronomy & Astrophysics eine Studie veröffentlicht, in der sie zeigen konnten, dass die Aktivität der Sonne in den letzten 400 Jahren wohl um den Faktor 6 stärker geschwankt hat als zuvor angenommen (siehe S. 65 in „Die kalte Sonne“). Was würde wohl passieren, wenn man die existierenden Klimamodelle mit diesem erhöhten solaren Änderungsbetrag füttert? Könnte die empirisch nachgewiesene signifikante Klimawirkung der Sonne vielleicht besser reproduziert werden als bislang möglich? Diese Frage scheint auch Hans van Hateren von der Universität Groningen umgetrieben zu haben. Er ließ nun eine Klimamodellierung mit der neuen schweizerischen Sonnenkurve durchlaufen, deren Ergebnisse er im Mai 2012 in Climate Dynamics veröffentlichte.

Van Hateren sieht die Klimaerwärmung von 1820 bis 1950 zu etwa 70% durch den Anstieg der Sonnenaktivität verursacht. Das ist interessant. Die nachfolgende Temperaturentwicklung interpretiert er hingegen überwiegend durch Treibhausgase und Aerosole. Hierbei verwendet er bezeichnenderweise den in der Branche beliebten Aerosol-Joker, um die Phase 1940-1977 abzukühlen. Den Effekt von Ozeanzyklen wie etwa der Pazifisch Dekadischen Oszillation sowie Zeitverzögerungen beim Aufbau von thermischen Gleichgewichten im trägen Klimasystem scheint er außer acht zu lassen. Hierdurch wird die Klimawirkung des CO2 an dieser Stelle wohl noch immer überschätzt. 

Trotzdem ist die Arbeit durchaus bemerkenswert. Van Hateren modellierte mit seiner stärkeren Sonnendnamyik nämlich auch die vergangenen 2000 Jahre (Abbildungen 1 und 2). Und oh Wunder, plötzlich kommen aus den Modellierungen Temperaturverläufe heraus, die sich parallel zu den historischen Temperaturrekonstruktionen und der Sonnenaktivität bewegen. Auch die Kleine Eiszeit kann auf diese Weise plötzlich gut mit der Solarflaute erklärt werden. Die von einigen Kollegen vorgeschlagene ominöse Vulkanausbruchsserie wird nun nicht mehr als Hauptauslöser benötigt. Die Mittelalterliche Wärmeperiode um 1000 n. Chr. und die Römische Wärmeperiode um das Jahr Null sind ebenfalls klar erkennbar (Abbildung 2). Der Autor führte auch Modellierungsversuche mit deutlich schwächeren Sonnenaktivitätsschwankungen durch. Diese erzielten jedoch eine viel schlechtere Übereinstimmung gegenüber den aus der Natur ermittelten Werten. 

weiter lesenNeue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.). 

weiter lesenKlimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?