Softwareprogrammierer und Geographiestudent verblüffen die Fachwelt und verdoppeln kurzerhand die Erwärmung der letzten 15 Jahre: Rahmstorf klatscht Beifall und ist entzückt

Von Lubos Motl

Es ist zum Lachen. Jahrelang haben wir von sogenannten „Forschern“ gehört, dass man Klimatologe sein muss (ein String-Theoretiker mit Spitzennoten in allen akademischen naturwissenschaftlichen Fächern war nie gut genug dafür), um vom Klimatologen-Establishment ernst genommen zu werden. Wie dem auch sei, Stefan Rahmstorf hat kürzlich einen Text veröffentlicht mit der Überschrift

Global Warming Since 1997 Underestimated by Half (Globale Erwärmung seit 1997 um die Hälfte unterschätzt)

Und darin lobt er ein neues Papier aus dem Quarterly Journal of the Royal Meteorological Society mit dem Titel

Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends

von Kevin Cowtan, York, und Robert Way, Ottawa. Die Klima-Alarmschläger mögen es gar nicht, dass die Leute immer mehr erfahren über die “in der globalen Erwärmung eingelegte Pause” – das ist ein weiterer der unzähligen Belege, dass sie Pseudo-Wissenschaftler sind. Deshalb musste eine Studie her, die die “Pause” auf jeden Fall erklärt. Man könnte meinen, die Retter seien Klimatologen. Wenn man aber auf die Namen klickt, erfährt man, dass Cowtan Fachmann für das Programmieren von Software zur farblichen Darstellung von Protein-Molekülen ist und der Student der Geographie Robert Way ein Grünschnabel auf dem Gebiet der Wissenschaft von der Cryosphäre, der gerne mit dem Permafrost herumspielt, zugleich Dauer-Assistent und Herold auf allen Veranstaltungen für John Cook auf dem in doppelter Ironie so genannten „Skeptical Science“ Server.

Um es kurz zu machen: die beiden haben beschlossen, dass HadCRUT4 nicht stimmen kann, wenn dort zu wenig Erwärmung seit 1997/98 gezeigt wird. Also muss ein Fehler in HadCRUT4 gefunden werden. Sie beschlossen, dass das Problem in den Lücken der Temperaturaufzeichnungen liegen müsste, und dass man dieses Problem angehen müsste. Und so haben sie es gemacht: Sie dachten sich eine neue Methode aus, um die von einigen Wetterstationen fehlenden oder zeitlich lückenhaften Temperaturen „abzuschätzen“, indem sie Daten von Satelliten heranzogen. Das Ergebnis passte, es schien geeignet, die fehlenden Zahlen zu berechnen – ganz besonders, weil der Erwärmungstrend seit den späten 1990ern um ungefähr 0,5 °C pro Jahrhundert höher wurde. Das bedeutet eine Verdoppelung oder Verdreifachung gegenüber der „statistischen Null“, die von HadCRUT4 kam.

Aus vielerlei Gründen halte ich es für äußerst schwachsinnig, wenn sich ein Alarmist plötzlich auf so etwas beruft. Um Missverständnissen vorzubeugen: Die fehlenden Daten sind ein Problem für die Integrität der auf Wetterstationen beruhenden Daten. Aber damit hat man sich schon auseinandergesetzt. Richard Muller, Leiter der nach seiner Aussage besten und neutralen Forschergruppe names BEST (Berkeley Earth Surface Temperature), hat sich darangemacht, genau dieses Problem des Auffüllens der Lücken im denkbar besten mathematischen Sinne zu lösen. (Ich habe mit den geografischen Lücken auch herumgespielt, z. B. nachdem ich herausfand, dass 30% der Wetterstationen in ihren Aufzeichnungen, die durchschnittlich 80 Jahre überdecken, einen Abkühlungstrend zeigten. Doch ich wollte nicht in Konkurrenz zu Muller et al. treten, weil diese Arbeit wirklich mehrere unabhängige Köpfe, Zeit und Geld braucht, wenn etwas daraus werden soll.) Schließlich meinten Muller et al., dass es Sinn mache, sich die Temperaturen aus der ersten Hälfte des 19. Jh und des 20. Jh. vorzunehmen: Die bestätigten sehr gut alles, was HadCRUT und GISS behaupteten. Jetzt aber erscheinen ein Molekül-Buntfärber aus York, England, und ein kanadischer Kryosphären-Grünschnabel aus Ottawa auf der Bildfläche, und sie „zeigen“, dass alle diese Zahlen falsch gewesen wären.

Wahrscheinlich haben Cowtan und Way keinen „dummen numerischen Fehler“ gemacht, obgleich ich natürlich ihren Code nicht überprüft habe. Sie haben eine auf den ersten Blick richtige Logik angewendet und sie haben ein Ergebnis erzeugt. Das Ergebnis erhöhte die Erwärmung  – durch eine Koinzidenz – und deshalb stiegen ihr Wunsch und ihre Chance für eine Veröffentlichung des Papiers. Da müssen wir uns aber fragen: Gibt es irgendeinen Grund für einen solchen “hybriden” Datensatz, dass dieser uns genauere Informationen über den Trend der globalen Erwärmung liefern sollte, als “nicht-hybride” Datensätze? Ich bin überzeugt, die Antwort ist NEIN. Eine paradoxe Eigenart der Cowtan/Way-Schlussfolgerungen ist, dass sie Satelliten-Daten benutzt haben, um den (kleinen) Erwärmungstrend zu verstärken, wie in HadCRUT gezeigt – und dies, obwohl die Satelliten-Daten seit 1997/98 einen Abkühlungstrend zeigen. Ironie, könnte man sagen. Und warum eigentlich die Satelliten-Daten nicht für die gesamte Erde nehmen?

Mit dem Anstücken von Daten aus unterschiedlichen Datensätzen muss man äußerst vorsichtig sein. Mir scheint, die beiden verfügen über keine Vorstellung über die Fehlerbereiche (besonders über die verschiedenen Arten von systematischen Fehlern), die sie durch ihre Hybridisierungsmethode eingebracht haben. Sie haben ein Computer-Spiel programmiert – eine Software-Simulation – die sah gut für sie aus, aber sie haben keine wirklich wissenschaftliche Beurteilung der Genauigkeit und Zweckmäßigkeit ihrer Methode gemacht. Die Fehlerbereiche können sehr wohl viel größer sein, als wenn sie nur einen Datensatz benutzt hätten.

Und außerdem: Lücken mit Daten aus einer völlig anderen unabhängigen Datenquelle zu füllen, könnte brauchbar sein zur Beschreibung von lokalen und zeitlichen Schwankungen von Temperaturen. Aber es ist das Schlimmste, was man der Auswertung eines übergeordneten, langzeitlichen, globalen Trends antun kann, genau deswegen, weil jedes Anstücken einen neuen Fehler aus der jeweiligen Kalibrierung einbringen kann.

Folgendes Beispiel: die Lücken könnten meist für die Winter in den jüngsten vergangenen Jahren zutreffen, und auf die Sommer in älteren Jahren (zumindest die jeweiligen Proportionen könnten unterschiedlich sein). Wenn man also die Temperaturen aus einem Datensatz mit den Temperaturen aus einem anderen Datensatz mit kleineren Variationen ersetzt (das könnte der Fall bei den Satelliten-Daten sein), dann bedeutet das, dass die jüngeren Daten verstärkt werden und die älteren abgeschwächt. Man würde dabei fälschlicherweise den Erwärmungstrend erhöhen (oder man würde den Abkühlungstrend in einen Erwärmungstrend umkehren).

Wenn man sich vor Augen führt, wie groß die Unterschiede zwischen Winter- und Sommertemperaturen sind, kann man sehen, dass der Effekt auf den errechneten Trend erheblich ist, sogar wenn die lokalen, zeitlichen Temperaturschwankungen recht gut rekonstruiert sein mögen. Ich sehe überhaupt kein Anzeichen, dass die beiden ihre Trendberechnungen gegen dieses augenscheinliche Problem abgesichert haben. Sie scheinen in diesen Fragen völlig naiv zu sein.

Aus vielerlei Gründen, die ich oben skizziert habe, glaube ich nicht, dass die Methodologie der Beiden genauere Schätzungen der globalen Mitteltemperaturen erbrachte als z. B. Muller in BEST. Ich finde nur die abartige gesellschaftliche Dimension solcher “Ergebnisse” bemerkenswert. Nach so vielen Jahren der Behauptung, dass der Erwärmungstrend mit Sicherheit bekannt ist usw., wird er nun ganz einfach um 0,5 °C pro Jahrhundert verändert – sogar für die jüngeren Jahrzehnte, für die wir die am besten überprüfbaren Rohdaten haben. Ein halbes Grad pro Jahrhundert ist fast der gesamte Erwärmungstrend, den wir gewöhnlich dem 20. Jh zuschreiben! Wenn also ein Programmierer für Computergrafik und ein Kryosphären-Grünschnabel diesen Wert um 150% über Nacht verändern dürfen, und Deutschlands wichtigster Alarmist im Lebensalter unter 50 Jahren sofort Beifall klatscht, dann müsste doch auch erlaubt sein, den Trend in die umgekehrte Richtung zu verändern und die Erwärmung für das 20 Jh. wäre weg, nicht wahr?

Die Rolle der Zensur oder einer künstlich erzeugten Zustimmung für Papiere dieser Art käme an erster Stelle, nicht die Wissenschaft – vermutlich von der Politik und vorgegebenen Zielsetzungen beeinflusst. Damit es klar ist, ich glaube nicht, dass es eine hohe Ungewissheit über den Erwärmungstrend im 20. Jh. gibt. Der Erwärmungstrend von 1901 bis 2000, der mit irgendwelchen linearen Regressionen aus irgendwelchen hypothetisch „exakten globalen Temperaturdaten“ errechnet wurde, ist 0,7 ± 0,2 °C, würde ich sagen. Wenn man ihn um 0,5 °C verändert, ist das eine 2,5-Sigma Änderung, ein ziemlich unwahrscheinliches Ereignis. Die Wahrscheinlichkeit, dass die Zahl 0.7 ± 0.2 °C negativ ist, gleicht 3,5-Sigma Standardabweichungen – etwas um 1 in 3.000. Es kann nicht “gänzlich ausgeschlossen werden”, aber es ist sehr unwahrscheinlich, dass der tatsächliche Erwärmungstrend in Wahrheit negativ war.

Die Bereitschaft von Herrn Rahmstorf bereitwillig auf verlorenem Posten zu kämpfen ist grenzenlos. Seine Unterstützung für das Papier ist ein Fall für psychiatrische Hilfe (falls jemand behaupten würde, eine dreimal so hohe Erwärmung lauere, würden Rahmstorf und seine Gesinnungsgenossen nicht eine Sekunde zögern, auch diesen Mist zu verkaufen). Ich kann Ihnen versichern, dass alle diese (theoretisch) radikalen Veränderungen der Klimadaten keine Konsequenzen für das praktische Leben haben.

Eine Veränderung des Trends um 0,5 °C pro Jahrhundert können Sie nicht wahrnehmen – noch nicht einmal, wenn Sie 100 Jahre warten würden und sich genau erinnern könnten, wie Sie sich gefühlt haben, bevor Sie mit dem Abwarten angefangen haben. 😉 Und ich muss nicht eigens erklären, dass solche Temperatur-Veränderungen nicht gefährlich sein können – eine Temperaturveränderung kann nur gefährlich werden, wenn sie mindestens 10 mal größer ist, als wir wahrnehmen können. Da lauert nirgendwo eine Gefahr.

——————-

Der Artikel erschien zuerst am 13. November 2013 in Luboš Motls Blog The Reference Frame. Die deutsche Übersetzung wurde dankenswerterweise von Helmut Jäger für EIKE erstellt.
Teilen: