Den wahren Wert einer Vorhersage erkennt man am besten im ehrlichen sportlichen Wettkampf. Man nehme eine Vorhersage, die möglichst zehn, zwanzig oder mehr Jahre alt ist, und vergleiche sie einfach mal mit der in der Natur real registrierten Entwicklung. Wenn alles passt, hat sich das Modell das Vertrauen ehrlich verdient. Falls sich jedoch größere Diskrepanzen ergeben, sollte man sich ernsthaft Gedanken darüber machen, ob das Modell wirklich auf den richtigen Grundlagen basiert. Mit kosmetischen Korrekturen ist es da nicht getan.
Bereits im Juni 2012 haben wir bei uns im Blog einen Gastbeitrag von Prof. Jan-Erik Solheim gebracht, der genau solch einen Theorie-gegen-Praxis-Vergleich unternommen hat (siehe „Was ist eigentlich aus James Hansens Temperaturvorhersage von 1988 geworden? Zeit für eine Überprüfung“). Das Resultat war ernüchternd: Die von der Hansen-Truppe 1988 modellierte Temperaturvorhersage lag um etwa 150% daneben (Abbildung 1).
Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988).
Im April 2012 hatten wir uns zudem eine Temperaturprognose von Hartmut Graßl vorgenommen, die er 1990 aufgestellt hatte (siehe unser Blogartikel „Graßl’s Erwärmungsprognose von 1990 droht dramatisch zu scheitern“). Auch hier sieht es überhaupt nicht gut aus. Das Ergebnis der Analyse: Die Temperatur müsste in den kommenden 8 Jahren um satte 0,75°C ansteigen, damit Graßls Vision noch Wirklichkeit wird. Hier sollte wohl Einigkeit über alle Lager hinweg herrschen: Dies ist schlichtweg unmöglich. Eine schöne Zusammenschau der fehlgeschlagenen IPCC-nahen Prognosen ist übrigens auch auf C3 Headlines erschienen.
Anstatt sich nun die notwendigen Gedanken über einen Modellierungsneuanfang zu machen (siehe z.B. Anmerkungen von Roger Pielke, Sr.), wursteln die IPCC-Forscher einfach weiter herum so wie bisher. Offensichtlich lassen sie sich auch nicht dadurch beunruhigen, dass die Modelle weder den Temperaturstop der vergangenen 10 Jahre reproduzieren – geschweige denn vorhersagen – konnten, noch die Klimageschichte der letzten Jahrtausende in den Griff bekommen. So werden wir wohl auch im kommenden 5. Klimazustandsbericht keine Verbesserung erwarten können, wie eine Pressemitteilung der französischen Forschungsorganisation CNRS aus dem Februar 2012 erahnen lässt:
Die französische Wissenschaftsgemeinschaft für Klimafragen hat kürzlich wichtige Simulationen zum vergangenen und künftigen Klima im globalen Maßstab abgeschlossen. Diese aktuellen Daten bestätigen die Ergebnisse des vierten Sachstandsberichts (2007) des Weltklimarats (IPCC) über die kommenden Veränderungen bei der Temperatur und der Niederschlagsmenge. Dabei wurden 2 Extremmodelle berücksichtigt: Ein Temperaturanstieg von 3,5 bis 5°C bis 2100 oder im günstigsten Fall ein Anstieg um 2°C. Von der internationalen Wissenschaftsgemeinschaft zur Verfügung gestellt, werden diese Ergebnisse vom IPCC zur Erarbeitung ihres nächsten für 2013 geplanten Berichts verwendet. […] Es bestätigt sich eine Intensivierung des Wasserkreislaufs und ein schnelles Abschmelzen des arktischen Packeises, das im schlimmsten Fall im Sommer 2040 oder 2060, je nach Modell, verschwunden sein wird. Die Simulationen, die das Klima und den Kohlenstoffkreislauf miteinander in Verbindung setzen, liefern neue Antworten.
Das Gleiche gilt übrigens wohl auch für die Klimawirkung der Sonne, die im neuen IPCC-Bericht offenbar sogar noch weiter heruntergeschraubt wird (siehe unser Blogartikel „Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !“). Entsprechend wird die Klimawirkung des CO2 jetzt weiter nach oben gesetzt. In einer Klimamodellierungsarbeit einer Gruppe um Gerald Meehl, die im Juni 2012 im Journal of Climate erschien, wird jetzt von einer langfristigen CO2-Klimasensitivität von 3,2°C ausgegangen, was 25% höher ist als im Vorgängermodell (siehe Diskussion auf der NIPCC-Webseite).
Im Laufe der Jahre glaubte sich der Weltklimarat immer sicherer zu werden, dass wohl der Mensch das Hauptproblem des Klimawandels sein muss. Noch im ersten IPCC-Bericht von 1990 hieß es „eine eindeutige Ermittlung des menschlichen Einflusses wird auch in der kommenden Dekade nicht möglich sein.“ Bereits fünf Jahre später hieß es dann im 2. Bericht, dass nach ausgewogener Abwägung aller Argumente bereits ein spürbarer Einfluss des Menschen auf das Klima festzustellen ist.“ Im dritten IPCC-Bericht von 2001 wurde man mutiger und schrieb: „Der größte Teil der Erwärmung der letzten 50 Jahre geht wahrscheinlich auf menschliche Aktivitäten zurück.“ Und im 4. IPCC-Bericht aus dem Jahre 2007 heißt es dann schließlich „Der größte Teil der Erwärmung wurde mit sehr hoher Wahrscheinlichkeit (mit 90-prozentiger Sicherheit) durch Treibhausgase verursacht (siehe IPCC-Präsentation, Folie 7).
Dies Selbstsicherheit wundert doch sehr, wenn man bedenkt, dass die Modellierungsresultate immer ungewisser werden und sich die Bandbreite der errechneten Szenarien immer weiter bis fast zur Beliebigkeit ausdehnt. So kündigte der ehemalige Direktor des Umweltinstituts des Londoner University College, Mark Maslin zusammen mit Patrick Austin in einem Nature-Artikel kürzlich an, dass sich das Möglichkeitsspektrum der verschiedenen Klimaprojektionen im gerade neu entstehenden IPCC-Klimabericht noch weiter auffächern wird. Die Unsicherheit in den Modellen wird also zunehmen. Grund hierfür ist laut Maslin, dass sich die Berechnungen verbessert hätten. Werte die vorher einfach festgelegt wurden, würden nun durch physikalische Formeln beschrieben, welche zusätzliche Unsicherheiten im Endresultat ergeben.
In der Neuen Zürcher Zeitung hat sich Sven Titz in seinem Artikel „Überstrapazierte Wissenschaft“ kritisch mit den großen Unsicherheiten der Klimamodelle auseinandergesetzt:
Forscher sagen immer detaillierter voraus, wie sich das Klima ändern könnte. Das soll regionale Anpassungen ermöglichen. Doch dieser Service kann zum Bumerang werden, wenn Forschung die Ungewissheit nicht verkleinert, sondern vergrössert. […]
Im Laufe des 21. Jahrhunderts wird es in der Schweiz im Sommer immer wärmer und trockener. Bis auf 3500 Meter Höhe liegt in den Alpen vielerorts kein Schnee mehr. Zwar nimmt im Winter der Niederschlag zu, die Mächtigkeit der Schneedecke geht aber um mehr als die Hälfte zurück. Das kann den Wasserabfluss im Sommer deutlich verringern.
Diese Ankündigungen entstammen nicht etwa dem Script einer Fernsehdokumentation, sondern einem Bericht, den das Bundesamt für Umwelt (Bafu) Anfang Juni [2012] herausgegeben hat. In dem Projekt «Klimaänderung und Hydrologie in der Schweiz» hatte das Bundesamt von verschiedenen Instituten untersuchen lassen, wie sich der Wasserhaushalt mit dem Klimawandel verändert. An den Ergebnissen soll sich die Planung von Wasserversorgung und Hochwasserschutz orientieren. Der Bafu-Bericht passt in die Zeit. Immer häufiger wird Klimamodellierung gezielt unternommen, um einen direkten Nutzen daraus zu ziehen. Zunehmend bieten Forscher simulierte Klimadaten als Grundlage für öffentliche Planungen an. Allerdings bleibt in der Darstellung oft das Eingeständnis auf der Strecke, dass es noch etliche Wissenslücken gibt. So auch bei der Präsentation der Bafu-Studie; in der Pressemitteilung war von Ungewissheit nirgends die Rede. Das liest sich im Bericht selbst anders: Die Unsicherheiten in den Emissions- und Klimaszenarien blieben noch gross, heisst es wörtlich; auch lasse sich nicht genau beziffern, wie schnell sich die Schnee- und Eisspeicher ändern würden. Ferner bleibe unsicher, wie stark die jahreszeitliche Umverteilung der Niederschlagsmengen tatsächlich ausfallen werde. Das sind nicht die üblichen vorsichtigen Floskeln von Wissenschaftern, hier zeigt sich echte Ungewissheit.
Die Frage muss erlaubt sein: Wie sinnvoll sind eigentlich Modelle, die alles und nichts für möglich halten und sich in der Vergangenheit bei Überprüfungen als nicht sehr treffsicher erwiesen haben? Es ist zutiefst menschlich, wenn sich die beteiligten Modellierer davor scheuen, ihr bisheriges Tun grundsätzlich in Frage zu stellen. Eine unabhängige Überprüfung der Modellierungsstrategie durch Wissenschaftler von außerhalb der Modellierungszirkel könnte hier helfen, den momentan wenig zielführenden Teufelskreis zu durchbrechen. Eine solche Evaluierungsgruppe könnte z.B. Empfehlungen für einen effektiveren Einsatz der Klimamodellierung geben und auch wichtige Grundlagenarbeiten identifizieren, als Voraussetzung für einen erfolgversprechenderen Modellierungs-Neuanfang.