Ein dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen

Vor einigen Tagen unterbrach das führende klimaskeptische Blog Watts Up With That? (WUWT) seine sonst so emsige Tätigkeit. Wo im Normalbetrieb jeden Tag eine ganze Hand voll neuer Blogartikel erschienen, herrschte plötzlich lähmende Inaktivität. Der Betreiber der Webseite, der Meteorologe Anthony Watts, kündigte eine wichtige Pressemitteilung für den Abend des 29. Juli europäischer Zeit an. Die Gerüchteküche brodelte und die Vermutungen gingen in die verschiedensten Richtungen. Hoffentlich handelte es sich nicht um Anthony’s Gesundheit. Waren es vielleicht juristische Vorgänge im Hintergrund, die WUWT zum Stop zwangen? Nein, keines von beidem, beruhigte Anthony die Blogosphäre vorab. Aber man müsse noch Geduld haben.

Der angekündigte Veröffentlichungszeitpunkt rückte näher und die versprochene Meldung erschien pünktlich. Und Anthony enttäuschte nicht. In der Tat handelte es sich um die Bekanntmachung einer wichtigen neuen Publikation, bei der es um die Bestimmung des Erwärmungstrends der letzten 30 Jahre geht. Das Problem hatten wir bereits vor einigen Tagen hier im Blog vorgestellt (siehe unser Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…“). Es geht um die Frage, inwieweit die offiziellen Daten-„Korrekturen“ eigentlich gerechtfertigt sind. Wir hatten berichtet, dass die Daten-Änderungen seltsamerweise stets zu einer signifikanten Beschleunigung des Erwärmungstrends gegenüber den Rohdaten führte, obwohl Phänomene wie etwa der städtische Wärmeinseleffekt eher gegenteiligen Korrekturbedarf vermuten lassen sollten.

Als Autoren des neuen Papers sind neben Anthony Watts auch Stephen McIntyre und John Christy mit von der Partie. McIntyre ist durch seine beeindruckende Fehleranalyse des berühmt-berüchtigten Hockey Stick Diagramms bekannt. Christy ist angesehener Experte für Satelliten-Temperaturdaten von der University of Alabama in Huntsville. Das Manuskript soll in Kürze bei einem Fachmagazin zur Publikation eingereicht werden. Die Praxis, Manuskripte bereits vor Einreichung öffentlich bekannt zu machen geht auf Richard Muller vom Berkeley Earth Surface Temperature (BEST) Projekt zurück, der im June 2011 in einem Interview mit dem Scientific American gesagt hatte:

„Ich weiß, dass das Paper noch nicht zum Druck akzeptiert wurde. Aber in meinem Umfeld unter dem Nobelpreisträger Luis Alvarez war es gängige Praxis, Manuskripte bereits vor ihrer Publikation und sogar vor ihrer Einreichung möglichst weit zu streuen. Hierdurch erreichten wir eine sehr viel umfangreichere und weiter verteilte fachliche Überprüfung als durch die wenigen Fachgutachter der Fachzeitschrift.“ 

Das Ergebnis der neuen Studie ist erschreckend: Anstatt die durch den städtischen Wärminseleffekt überhöhten Temperaturen herunter zu korrigieren, haben die offiziellen US-Temperaturverwaltungsstellen offenbar die Daten von qualitativ verlässlicheren Stationen nach oben verändert, was kaum gerechtfertigt erscheint. Wenn sich das Ergebnis bestätigen sollte, wäre dies ein dicker Hund. Die Erwärmung der letzten Jahre wäre in den USA dann sehr viel weniger schnell von statten gegangen als immer angenommen. Da ähnliche Fehler auch im globalen Datensatz vermutet werden, könnte die Sache schnell weltweite Relevanz erlangen. 

Hier der Text der Pressemitteilung:

 

US-Erwärmungstrends fälschlicherweise aufgrund von Positionierungsproblemen der NOAA-Wetterstationen und nachträglichen Datenkorrekturen verdoppelt

Chico, Kalifornien, 29. Juli 2012

Im Rahmen einer neuen Auswertung der Temperaturdaten US-amerikanischer Messstationen wurde ein neues Klassifikationssystem zur Stations-Positionierung verwendet, das von Michel Leroy von METEO France entwickelt und kürzlich von der Weltmeteorologie Behörde WMO anerkannt wurde. Das neue Klassifizierungssystem charakterisiert die Qualität der Stations-Standorte genauer als bisherige Schemata, insbesondere wenn es um die Frage geht, wie repräsentativ Langzeitmessreihen der einzelnen Stationen sind.

Die neue Studie ergab, dass die für die Zeit von 1979 bis 2008 ursprünglich berichtete Erwärmung fälschlicherweise doppelt so hoch angesetzt wurde, als es die Daten in Wirklichkeit rechtfertigen. Der allergrößte Anteil, nämlich 92%, der überschätzten Erwärmung wird dabei durch eine fehlerhafte, nachträgliche Erhöhung von Temperatur-Rohdaten gut-positionierter Stationen durch die NOAA verursacht. Dies ist die erste Studie, die das überarbeitete Klassifikationssystem zur Positionierung verwendet. Hierbei wurden Lageprobleme der USHCN-Stationen (United States Historical Climatology Network) und Datenkorrekturfragen berücksichtigt.

Die überarbeitete Analyse hat für die Jahre von 1979 bis 2008 für die qualitativ gut positionierten Stationen einen Erwärmungstrend von +0,155°C pro Jahrzehnt dokumentieren können. Für die schlechter positionierten Stationen konnte hingegen ein Trend von +0,248°C pro Jahrzehnt nachgewiesen werden. Die von der NOAA nachbearbeiteten Daten zeigten sogar einen Trend von +0,309°C pro Jahrzehnt. Es wird erwartet, dass das in der Studie nachgewiesene Qualitäts-Problem bei den US-amerikanischen Temperaturdaten in ähnlicher Weise im gesamten globalen Datensatz des USHCN und BEST (Berkeley Earth Surface Temperature) auftritt. 

                       

Abbildung 1: Vergleich des Erwärmungstrends (1979-2008) für qualitativ gut (blau) und schlecht (gelb) positionierte Wetterstationen sowie den von der NOAA nachbearbeiteten Daten (rot). Die nummerierten Spalten (1-NE, 2-ENC etc.) stellen verschiedene Regionen in den USA dar. Spalte 10 gibt den US-Mittelwert wieder. Quelle: Watts et al. (in Vorbereitung).

 

Siehe auch Berichte auf notrickszone, EIKE und JoNova.