Die Sonne im Oktober 2016 und die Ozeane im „Klima“-Modell und der Realität

Von Frank Bosse und Fritz Vahrenholt Unsere Sonne war auch im vergangenen Monat sehr deutlich weniger aktiv als im Mittel der vergangenen rund 260 Jahre systematischer Aufzeichnungen. Die festgestellte SSN (SunSpotNumber) von 33,6 wich um 54% vom Mittel des aktuellen Zyklusmonat ( Nr. 95 seit dem Beginn im Dezember 2008) nach unten ab. Auch für den bisherigen gesamten Zyklus gilt: etwa nur halb so viel Aktivität ( genau 56,5%) als im Mittel dessen was bisher beobachtet wurde. Abb.1: Der Verlauf des aktuellen 24. Zyklus (Solar Cycle: SC) seit Beginn des ersten  im Jahre 1755 (rot) im Vergleich zum mittleren Zyklus … weiter lesen

Klimamodelle unter Druck: Klimasimulationen errechnen eine viel zu hohe Abkühlung durch Vulkanausbrüche, die mit der realen Entwicklung kaum in Einklang zu bringen ist

Große Vulkanausbrüche kühlen für ein paar Jahre das Erdklima, soviel ist klar und durch empirische Daten gesichert. Aber wie funktioniert der Kühlmechanismus eigentlich? Die University of Washington berichtete am 9. Dezember 2015 über neue Erkenntnisse zum Ablauf der klimatischen Wirkungsweise von Schwefeldioxid: Iceland volcano’s eruption shows how sulfur particles influence clouds It has long been suspected that sulfur emissions can brighten clouds. Water droplets tend to clump around particles of sulfuric acid, causing smaller droplets that form brighter, more reflective clouds. But while humans have pumped sulfur into Earth’s atmosphere since the Industrial Revolution, it’s been hard to measure how … weiter lesen

CERN-CLOUD-Projekt: Kühleffekt anthropogener Aerosole offenbar geringer als gedacht. Klimaprognosen müssen nach unten korrigiert werden

Einer der Knackpunkte der heutigen Klimamodelle ist der sogenannte Aerosoljoker, den wir bereits in unserem Buch ‚Die kalte Sonne‘ kritisch unter die Lupe nahmen. Das Problem: Die IPCC-Modelle gehen von einer so starken CO2-Erwärmungswirkung aus, dass die Temperaturen heute eigentlich viel höher sein müssten. Der IPCC behalf sich mit einm Trick und kühlte kurzerhand die überschüssige theoretische Wärme wieder mit anthropogenen Aerosolen, vor allem Schwefeldioxid (SO2), herunter. In den Zukunftsprognosen wurde dann das SO2 langsam heruntergefahren, so dass enorme Erwärmungsraten angenommen werden konnten. Bereits vor einem Jahr, im April 2015, warnten Forscher davor, dass man die Kühlwirkung der Aerosole wohl … weiter lesen

Noch mehr Spaß mit Klimamodellen: Es will partout nicht passen

Im März 2013 betitelte Joachim Müller-Jung einen Artikel in der FAZ sehr treffend mit

Wer die Welt simuliert, hat die Wahrheit nicht gepachtet
Wie viel Realität steckt in Klimamodellen? Fakt ist: Die Komplexitäten nehmen zu, die Unsicherheiten aber auch. Wie kann die Forschung da glaubwürdig bleiben?

Weiterlesen auf faz.net.

Wir wollen heute einen weiteren Streifzug durch die Modellierungswelt wagen. Die Branche befindet sich bekanntlich in einer tiefen Sinnkrise. Man hatte eifrig drauflos modelliert aber die zahlreichen Prognosefehlschläge gehen mittlerweile an die Substanz. Eine erste Welle der Selbstkritik geht durch die Fachwelt. Nicht alles ist so rosig wie man es lange nach außen hin und gegenüber den staatlichen Geldgebern dargestellt hatte.

Am 21. Februar 2013 gab die Universität Göteborg eine Pressemitteilung heraus, dessen Titel bereits aufhorchen lässt: „Die Klimamodelle sind nicht gut genug“. Im Rahmen eines Promotionsprojektes wurde herausgefunden, dass Klimamodelle die in den letzten 50 Jahren in China beobachteten Veränderungen der extremen Regenfälle nicht nachvollziehen können:

Climate models are not good enough
Only a few climate models were able to reproduce the observed changes in extreme precipitation in China over the last 50 years. This is the finding of a doctoral thesis from the University of Gothenburg, Sweden. Climate models are the only means to predict future changes in climate and weather. “It is therefore extremely important that we investigate global climate models’ own performances in simulating extremes with respect to observations, in order to improve our opportunities to predict future weather changes,” says Tinghai Ou from the University of Gothenburg’s Department of Earth Sciences. Tinghai has analysed the model simulated extreme precipitation in China over the last 50 years. “The results show that climate models give a poor reflection of the actual changes in extreme precipitation events that took place in China between 1961 and 2000,” he says. “Only half of the 21 analysed climate models analysed were able to reproduce the changes in some regions of China. Few models can well reproduce the nationwide change.”

Probleme mit der Regenmodellierung gibt es aller Orten. Auch in den USA kriegen die Modelle die historische Niederschlagsentwicklung einfach nicht in den Griff, wie Mishra et al. (2012) und Knappenberger und Michaels (2013) zeigen konnten. Ähnliches fanden Stratton & Stirling (2012) und Ramirez-Villegas et al. (2013) auf globaler Ebene. Auszug aus der Kurzfassung des zuletzt genannten Papers:

Climatological means of seasonal mean temperatures depict mean errors between 1 and 18 ° C (2–130% with respect to mean), whereas seasonal precipitation and wet-day frequency depict larger errors, often offsetting observed means and variability beyond 100%. Simulated interannual climate variability in GCMs warrants particular attention, given that no single GCM matches observations in more than 30% of the areas for monthly precipitation and wet-day frequency, 50% for diurnal range and 70% for mean temperatures. We report improvements in mean climate skill of 5–15% for climatological mean temperatures, 3–5% for diurnal range and 1–2% in precipitation. At these improvement rates, we estimate that at least 5–30 years of CMIP work is required to improve regional temperature simulations and at least 30–50 years for precipitation simulations, for these to be directly input into impact models. We conclude with some recommendations for the use of CMIP5 in agricultural impact studies.

Soncini & Bocchiola (2011) hatten sich den Schneefall in den Italienischen Alpen angeschaut. Auch hier wieder das gleiche Bild: Die real gemessene Entwicklung kann von den Modellen nicht reproduziert werden. Schlimmer noch, die Zukunftsprojektionen verschiedener Modelle weichen stark voneinander ab. Hier die Kurzfassung der bemerkenswerten Arbeit:

General Circulation Models GCMs are widely adopted tools to achieve future climate projections. However, one needs to assess their accuracy, which is only possible by comparison of GCMs’ control runs against past observed data. Here, we investigate the accuracy of two GCMs models delivering snowfall that are included within the IPCC panel’s inventory (HadCM3, CCSM3), by comparison against a comprehensive ground data base (ca. 400 daily snow gauging stations) located in the Italian Alps, during 1990–2009. The GCMs simulations are objectively compared to snowfall volume by regionally evaluated statistical indicators. The CCSM3 model provides slightly better results than the HadCM3, possibly in view of its finer computational grid, but yet the performance of both models is rather poor. We evaluate the bias between models and observations, and we use it as a bulk correction for the GCMs‘ snowfall simulations for the purpose of future snowfall projection. We carry out stationarity analysis via linear regression and Mann Kendall tests upon the observed and simulated snowfall volumes for the control run period, providing contrasting results. We then use the bias adjusted GCMs output for future snowfall projections from the IPCC-A2 scenario. The two analyzed models provide contrasting results about projected snowfall during the 21st century (until 2099). Our approach provides a first order assessment of the expected accuracy of GCM models in depicting past and future snowfall upon the (Italian) Alps. Overall, given the poor depiction of snowfall by the GCMs here tested, we suggest that care should be taken when using their outputs for predictive purposes.

 

Bloß aus den Wolken gegriffen?

weiter lesenNoch mehr Spaß mit Klimamodellen: Es will partout nicht passen

Spaß mit Klimamodellen: Pleiten, Pech und Pannen

Das schöne in der Wissenschaft ist, dass man sich ganz phantastische Modelle ausdenken kann und dabei seine Kreativität voll ausleben kann. Und weil es nicht nur einen Wissenschaftler gibt, sondern ganz viele, gibt es auch eine ganze Reihe von Alternativmodellen. Schlimm wird es erst, wenn der Tag der Wahrheit naht. Hefte raus Klassenarbeit. Wenn also die verschiedenen Prognosen mit den real eingetretenen Messwerten verglichen werden. Wer hatte den richtigen Riecher und wer sollte sich schleunigst ein besseres Modell einfallen lassen?

Wenn sich dann herausstellen sollte, dass alle Modelle danebenliegen, sind die Modelle falsifiziert, entpuppen sich also als wertlos. Die Überprüfbarkeit von Modellen ist ein Grundprinzip der Wissenschaft, wie bereits Richard Feynman in einem seiner legendären Vorträge erläuterte:

 

Fehlgeschlagene Hypothesen hat es in der Wissenschaft sehr oft gegeben. Eine schöne Zusammenstellung der größten Wissenschaftsflops gibt es auf WUWT. Leider gehören auch die Klimawissenschaften in diese Kategorie. Roy Spencer hat einmal eine ganze Palette von 73 Klimamodellen mit der realen Temperaturentwicklung vergleichen, und alle schossen weit überhitzt über das Ziel hinaus:

Und gleich noch so ein Fehlschlag: Im August 2009 hatten Judith Lean und David Rind in den Geophysical Research Letters eine mutige Mittelfrist-Klimaprognose gewagt. Sie hatten für den Fünfjahreszeitraum 2009 bis 2014 eine Erwärmung von 0,15°C vorhergesagt. In Wahrheit erwärmte es sich in diesem Zeitraum überhaupt nicht. Eine bittere Pleite.

In den letzten Jahren dämmerte es den Forschern, dass vielleicht doch nicht nur das i-Tüpfelchen in den Modellen fehlte. Zu offensichtlich waren die Fehlprognosen. Kein einziges der vormals hochgelobten Klimamodelle hatte den mittlerweile seit 16 Jahre anhalten Erwärmungsstopp für möglich gehalten. Im September 2011 räumten Crook & Forster in einem Artikel im Journal of Geophysical Research ein, dass die vordergründige Reproduktion der realen Temperaturentwicklung in einem Klimamodell noch lange nicht bedeutet, dass die Mechanismen vollständig verstanden wären. Zu vielfältig sind die frei einstellbaren Parameter, die in der Regel bewusst so gewählt werden, dass eine Übereinstimmung aktiv herbeigeführt wird. Eine Vorhersagekraft kann sich daher hieraus nicht automatisch ableiten. Hier ein Auszug aus der Kurzfassung von Crook & Foster (2011):

In this paper, we breakdown the temperature response of coupled oceanatmosphere climate models into components due to radiative forcing, climate feedback, and heat storage and transport to understand how well climate models reproduce the observed 20th century temperature record. Despite large differences between models feedback strength, they generally reproduce the temperature response well but for different reasons in each model.

In der Mitgliederzeitschrift der American Geophysical Union (AGU), Eos, beschäftigte sich Colin Schultz mit dem Artikel und nahm kein Blatt vor den Mund:

Climate model’s historical accuracy no guarantee of future success
To validate and rank the abilities of complex general circulation models (GCMs), emphasis has been placed on ensuring that they accurately reproduce the global climate of the past century. But because multiple paths can be taken to produce a given result, a model may get the right result but for the wrong reasons.

Die Ernüchterung hat mittlerweile auch auf die IPCC-nahen Blogs übergegriffen. In einem Gastbeitrag auf Real Climate stellten Geert Jan van Oldenborgh, Francisco Doblas-Reyes, Sybren Drijfhout und Ed Hawkins am 15. April 2013 klar, dass die im aktuellen 5. IPCC Klimazustandsbericht verwendeten Modelle für regionale Klimaprognosen gänzlich ungeeignet sind:

weiter lesenSpaß mit Klimamodellen: Pleiten, Pech und Pannen

Nord- und Südhalbkugel unterscheiden sich klimatisch stark: Klimamodelle können es aber nicht abbilden

Am 30. März 2014 gab die Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft (WSL) eine Pressemitteilung zu einer interessanten neuen Studie heraus. Dabei zeigte sich, dass Klimamodelle die klimatisch oft unterschiedliche Entwicklung der nördlichen und südlichen Hemisphären nicht korrekt reproduzieren können. Auch schaffen es die Rechenmodelle nicht, die in der Realität beobachtete starke natürliche Variabilität des Klimas abzubilden. Lesen Sie die Original-Pressemitteilung der WSL hier in voller Länge:

——————————————-

Innerhalb des letzten Jahrtausends gab es bei den Temperaturen auf der Nord- und Südhalbkugel grössere Unterschiede als bisher angenommen. Klimamodelle sind nur beschränkt in der Lage, diese Unterschiede abzubilden. Zu diesem Schluss kommt ein internationales Forscherteam unter der Leitung von Raphael Neukom vom Oeschger-Zentrum der Universität Bern und der Eidgenössischen Forschungsanstalt WSL.

weiter lesenNord- und Südhalbkugel unterscheiden sich klimatisch stark: Klimamodelle können es aber nicht abbilden

Klimamodellierer in Bedrängnis: Studien ergeben, dass neue IPCC-Modelle die Erwärmung überschätzen

Hypothetische Klimamodelle stellen weiterhin das Herzstück der offizielle IPCC-Aktivitäten dar. Der vor kurzem erschienene 5. Klimazustandsbericht des IPCC basiert auf einer neuen Serie von Klimamodellen, die sich „CMIP5“ nennt, was für Coupled Model Intercomparison Project Phase 5 steht. Der Vorlauf für diese Modelle beträgt mehrere Jahre, so dass es strukturell schwer ist, kurzfristig neueste Erkenntnisse in den Modellen zu berücksichtigen. Das IPCC-Modellierungswesen muss man sich wie eine Art Supertanker mit zwei- bis dreijährigem Wendekreis vorstellen. Was 2011 im Rechenansatz falsch eingegeben wurde, muss bis heute beibehalten werden. In der Zwischenzeit ist jedoch ein großer Wissensfortschritt erzielt worden: Die CO2-Klimasensitivität ist in zahlreichen Studien stark abgesenkt und der systematische und signifikante Einfluss von Ozeanzyklen anerkannt worden.

Bereits im Februar 2013 kam eine kritische Betrachtung der CMIP5-Klimamodelle in den Environmental Research Letters heraus. Ein Team um Peter Stott vom britischen Met Office Hadley Centre sah das Unheil kommen und sorgte vor. In einer Studie zur Qualität der CMIP5-Modelle fanden sie, dass diese zu hohe Erwärmungsraten anzeigen. Hier die Kurzfassung der Arbeit (Fettsetzung ergänzt):

Climate models predict a large range of possible future temperatures for a particular scenario of future emissions of greenhouse gases and other anthropogenic forcings of climate. Given that further warming in coming decades could threaten increasing risks of climatic disruption, it is important to determine whether model projections are consistent with temperature changes already observed. This can be achieved by quantifying the extent to which increases in well mixed greenhouse gases and changes in other anthropogenic and natural forcings have already altered temperature patterns around the globe. Here, for the first time, we combine multiple climate models into a single synthesized estimate of future warming rates consistent with past temperature changes. We show that the observed evolution of near-surface temperatures appears to indicate lower ranges (5–95%) for warming (0.35–0.82 K and 0.45–0.93 K by the 2020s (2020–9) relative to 1986–2005 under the RCP4.5 and 8.5 scenarios respectively) than the equivalent ranges projected by the CMIP5 climate models (0.48–1.00 K and 0.51–1.16 K respectively). Our results indicate that for each RCP the upper end of the range of CMIP5 climate model projections is inconsistent with past warming.

Im gleichen Monat kam eine ähnliche Studie im Journal of Geophysical Research heraus.  Ein Team um Piers Forster von der University of Leeds fand, dass die CMIP5-Modelle stark voneinander abweichen. Außerdem hätten die Modelle die Aerosole nicht im Griff und würden daher die Erwärmung überschätzen. Auszug aus der Kurzfassung:

weiter lesenKlimamodellierer in Bedrängnis: Studien ergeben, dass neue IPCC-Modelle die Erwärmung überschätzen

Vorhersage-Flop des UK Met Office 2007: „Bis 2014 wird es um 0,3°C wärmer“

Von Paul Matthews

Im Jahre 2007 hat ein Team von Klimawissenschaftlern vom UK Met Office unter Leitung von Doug Smith eine Studie mit dem Titel „Improved Surface Temperature Prediction for the Coming Decade from a Global Climate Model” verfasst. Sie wurde im Magazin Science veröffentlicht. Obwohl im Jahre 2007 herausgekommen, machte die Studie Vorhersagen für die Dekade von 2004 bis 2014. Vermutlich haben sie 2004 mit der Arbeit angefangen, und bis zur Veröffentlichung dauerte es ein wenig. Die Studie stellte zunächst Behauptungen über die angeblich besondere Güte des Modells auf, zum Beispiel: „Nachdem die Vorhersagekraft von DePreSys bewiesen worden war…“

In der Studie von Smith et al. wurden folgende Vorhersagen aufgestellt:

  • In der Dekade 2004 bis 2014 würde es zu einer Erwärmung um 0,3°C kommen.
  • Mindestens die Hälfte der Jahre nach 2009 würde wärmer ausfallen als das Rekordjahr 1998

 

Man beachte, dass man zu jener Zeit, also 2007, von 1998 als dem wärmsten Jahr ausgegangen war. Nachfolgende Anpassungen der Methodik machten jedoch plötzlich das Jahr 2005 zum wärmsten Jahr. Diese Vorhersagen wurden in den Medien weithin verbreitet. So tauchten sie in einer Presseerklärung des Met. Office auf. Eine Hochglanz-Broschüre zur ,,Information für die Regierungspolitik in der Zukunft” [Original Informing Government policy into the future] zeigte die obligatorischen, Angst erzeugenden Hintergrundbilder mit schwarzen Wolken und Menschen mit Atemmasken. Vicky Pope hat über diese Vorhersagen gesprochen und gesagt: „Das sind sehr sichere Statements über das, was während der nächsten 10 Jahre geschehen wird“. Und natürlich haben alle Medien ergeben darüber berichtet ohne jede Hinterfragung.

Die Vorhersagen haben sich jetzt jedoch als falsch herausgestellt. Wir sind fast schon im Jahr 2014 angekommen, und seit dem Jahr 2004 hat es keinerlei Erwärmung gegeben. Von den Jahren seit 2009 hat kein einziges den Rekord des Jahres 1998 gebrochen, jedenfalls den HadCRUT3-Daten zufolge. Zieht man die HadCRUT4-Daten heran, zeigt sich, dass das Jahr 2010 um bedeutungslose 0,01°C wärmer war (das ist ein Zehntel der Fehlerschätzung). Die Jahre 2011 und 2012 waren kühler ausgefallen, und es ist inzwischen eindeutig, dass auch das Jahr 2013 kühler ausfallen wird.

Vorhergesagt war eine Erwärmung um 0,30 °C ± 0.21°C (Vertrauensbereich 5 bis 95%; Modell CI). Das bedeutet, wenn wir nicht noch eine signifikante Erwärmung während der nächsten paar Monate bekommen, sieht es so aus, als ob die Beobachtungen außerhalb von C1 liegen.

COP19, Warschau 2013: Stillstand war „erwartet worden”

Auf der letzten Klimakonferenz COP19 in Warschau war das Met Office mit einem Stand vertreten. Auf diesem waren zwei interessante Bilder hiervon zu sehen (mit Dank an Leo Hickman):

weiter lesenVorhersage-Flop des UK Met Office 2007: „Bis 2014 wird es um 0,3°C wärmer“

Klimamodell der neuesten Generation versagt bei der Temperaturberechnung Skandinaviens für die letzten 80 Jahre

Gute Nachrichten für die Landwirte Großbritanniens: Durch den Klimawandel wird sich die Wachstumssaison verlängern. Außerdem wird es weniger Frostschäden geben, so dass exotische Früchte wie Pfirsiche und Melonen demnächst immer besser gedeihen werden. Dies erklärte jetzt die britische Umweltsekretärin Caroline Spelman auf der Oxford Farming Conference. Sie riet den Landwirten, diese Chance zu nutzen und sich entsprechend hierfür zu positionieren.

Laut einem neuen Bericht im Rahmen des britischen National Adaptation Programme wurde zudem bekannt, dass auch die Forstwirtschaft und der Tourismus in Großbritannien vom Klimawandel profitieren werden. Der vom britischen Umweltministerium herausgegebene Bericht identifizierte zudem Vorteile für die Schifffahrt, für die sich aufgrund des schrumpfenden arktischen Meereises kürzere, ökonomischere Routen ergeben. Durch die wärmeren Temperaturen wird die Bevölkerung auch mehr Zeit im Freien verbringen, wodurch der sonnenbedingte Vitamin-D Pegel ansteigen wird.

————-

Klimamodelle wurden früher gerne als potente Alleswisser angepriesen. The Science is settled – und das gesamte Wissen ist in den Modellen versammelt. Zu blöd, dass dann keines der Modelle den Erwärmungsstopp der letzten 15 Jahre hatte kommen sehen. Plötzlich standen die klimatischen Muskelprotze auf dem Prüfstand – und eine gesamte Branche, die sich den Formelmonstern voreilig verschrieben hatte, gleich mit. Global klappt es also noch nicht allzu gut bei den Modellen. Auf regionalem Maßstab ist es allerdings noch viel schlimmer. Bob Tisdale hat auf WUWT nun ein Klimamodell der neuesten Generation für Skandinavien auf Herz und Nieren geprüft und mit den realen Temperaturmesswerten der letzten 80 Jahre verglichen. Das Ergebnis ist schockierend: Für die Zeit von 1930-1986 sanken die realen Temperaturen langfristig, während das Modell einen Anstieg errechnete (Abbildung 1).

In den Jahren 1987-1988 schossen die real gemessenen Temperaturen wie eine Rakete nach oben. Von 1989 bis heute bildete sich dann ein Temperaturplateau aus, wobei die Temperaturen stagnierten. Gemäß Klimamodell hätte sich Skandinavien in den letzten 24 Jahren mit mehr als einem halben Grad pro Dekade kräftig erwärmen sollen, was jedoch nicht eingetreten ist (Abbildung 2). Eine herbe Schlappe für die Klimamodellierzunft.

Bliebe zu klären, was eigentlich hinter dem abrupten Anstieg 1987-1988 steckt. Hier bietet sich vor allem der natürliche Ozeanzyklus der Arktischen Oszillation (AO) an, der genau zu dieser Zeit nach oben drückte (Abbildung 3). Auch die Nordatlantische Oszillation könnte hier eine Rolle gespielt haben, wie Marcel Crok herausfand.

Abbildung 1: Temperaturentwicklung Skandinaviens 1930-1986. Reale Messwerte (blau) gegenüber IPCC-Klimamodell (rot). Quelle: WUWT.

weiter lesenKlimamodell der neuesten Generation versagt bei der Temperaturberechnung Skandinaviens für die letzten 80 Jahre

Sonne erwärmt Erde anders als Treibhauseffekt? Klimamodellierer übersehen aktive Sonne der vergangenen 50 Jahre

Der unerwartete Erwärmungsstopp der letzten 15 Jahre wird zunehmend zum Thema in den deutschen Medien und wirft unbequeme Fragen auf. So beschäftigte sich kürzlich auch das bekannte Webportal wetteronline.de mit dem Phänomen und den möglichen Ursachen: Seit 1998 ist die weltweite jährliche Durchschnittstemperatur nicht mehr signifikant angestiegen. Während die globale Temperatur von den siebziger Jahren bis Ende der neunziger Jahre um etwa 0,5 Grad Celsius zugenommen hat, stagnierte der Anstieg in den letzten 15 Jahren, wenn auch auf hohem Niveau. […] Ein Grund für die ins Stocken gekommene globale Erwärmung könnte in der geringen Sonnenaktivität liegen. Seit Jahren nimmt das Magnetfeld … weiter lesen

Klimamodelle kriegen die Ozeanzyklen nicht in den Griff

Klimamodellierer denken gerne in langen Zeiträumen, am besten bis 2100, einige sogar bis 2300. Vielleicht weil diese langen Zeiträume etwas Magisches an sich haben. Ähnlich geht es den Geologen, wenn sie 300 Millionen Jahre zurückdenken. Andererseits gibt das Jahr 2100 auch Sicherheit. Denn keiner der heutigen Experten und Kritiker wird dann noch am Leben sein, so dass keine Gefahr der Nachprüfung besteht. Einfacher ist es, wenn man kürzere Zeiträume betrachtet. Die IPCC-Klimamodelle sagen, dass es pro Jahrzehnt etwa um zwei Zehntel Grad wärmer werden soll. Nun wissen wir aber, dass es seit nunmehr 16 Jahren gar nicht mehr wärmer geworden ist (siehe … weiter lesen

Es war einmal: Direktor der britischen Climate Research Unit (CRU) sagte klimatische Abkühlung voraus

Zum Abschluss unserer kleinen Modellierungsreihe werfen wir heute einen Blick zurück in die Frühphase der Klimawandelprognostik. Wir schreiben das Jahr 1974. Die globale Durchschnittstemperatur war seit einem Wärmemaximum um 1940 leicht abgefallen. Der Sommer in Deutschland fiel buchstäblich ins Wasser. Die mit Gletschern und Packeis bedeckte Fläche auf der nördlichen Halbkugel wuchs stetig an. Der Spiegel berichtete in einem Artikel „Katastrophe auf Raten“ damals (12.8.1974): 

Kommt eine neue Eiszeit? Nicht gleich, aber der verregnete Sommer in Nordeuropa, so befürchten die Klimaforscher, war nur ein Teil eines weltweiten Wetterumschwungs — ein Vorgeschmack auf kühlere und nassere Zeiten.

Deutschlands Urlauber packten die Koffer — und der Himmel öffnete seine Schleusen: Unter Blitz und Donner, Hagelschlag und Wolkenbrüchen setzte sich der große Ferien-Treck in Bewegung. […] Als, wieder eine Woche später, in West-Berlin, Bremen und Niedersachsen der Urlauber-Exodus begann, herrschte zwischen München und Hamburg Herbstkälte. Am 11. Juli schließlich, dem Ferienbeginn in Baden-Württemberg, geriet das Wetter vollends aus den Fugen. Die rasch aufeinanderfolgenden Schauer-Staffeln, Gewitterfronten und Sturmtiefs entglitten kurzfristig sogar der Kontrolle der Meteorologen. „Wir konnten“, so bekannte Dr. Elisabeth Kleissen vom Hamburger Seewetteramt, „nicht einmal für einen Zeitraum von 24 Stunden genaue Prognosen liefern“ — „seit Jahren“, so erläuterte die Expertin, habe es über Deutschland keinen „so unangenehmen, unbeständigen Wettertyp“ gegeben. Kürzer umschrieb, im Namen der Urlauber, die Münchner „Abendzeitung“ die Lage — „Sauwetter, mistig’s“. Und „Bild“ sorgte sich: „Geht etwa der ganze Sommer kaputt?“ Er ist, kein Zweifel, kaum mehr zu retten. In Hamburg etwa gab es auch im Juli nur drei Tage ohne Regen, und nur an einem einzigen Tag stieg die Temperatur auf 25 Grad — „der Sommer“, witzelte die „Welt“, „fand an einem Montag statt“. […]

„Ganz hervorragend“, so Horst Laudien vom Reisebüro „Scharnow““ entwickelte sich unterdessen das Fluggeschäft: „Die Leute haben vom Regen die Nase voll“ — sie flüchten nach Süden. „Die extremen Wettersituationen“, erläuterte „Touropa“ -Sprecher Heinz Göckeritz, hätten in den letzten Jahren zugenommen. Alles in allem sei „halt das Wetter auch nicht mehr das, was es einmal war Eisberge wandern weiter südwärts. 

Zu diesem Allerweltsurteil sind die professionellen Wetterbeobachter schon längst gekommen. Spätestens seit 1960 wächst bei den Meteorologen und Klimaforschern die Überzeugung, daß etwas faul ist im umfassenden System des Weltwetters: Das irdische Klima, glauben sie, sei im Begriff umzuschlagen — Symptome dafür entdeckten die Experten nicht nur in Europa, sondern inzwischen in fast allen Weltregionen. Am Anfang standen Messdaten über eine fortschreitende Abkühlung des Nordatlantiks. Dort sank während der letzten 20 Jahre die Meerestemperatur von zwölf Grad Celsius im Jahresdurchschnitt auf 11,5 Grad. Seither wanderten die Eisberge weiter südwärts und wurden, etwa im Winter 1972/73, schon auf der Höhe von Lissabon gesichtet, mehr als 400 Kilometer weiter südlich als in den Wintern zuvor. 

Was war damals passiert? Der Erwärmungsstop ab 1940 (Abbildung 1) fällt ziemlich genau mit dem Abknicken der Pazifisch Dekadischen Oszillation (PDO), einem wichtigen Ozeanzyklus zusammen (Abbildung 2). Die kühlende Phase dieses Zyklus führte zum Absinken der Temperatur. Erst Ende der 1970er Jahre stieg die Temperatur dann wieder, als auch der PDO-Zyklus wieder kräftig nach oben ging (Abbildung 2). 

weiter lesenEs war einmal: Direktor der britischen Climate Research Unit (CRU) sagte klimatische Abkühlung voraus

IPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Den wahren Wert einer Vorhersage erkennt man am besten im ehrlichen sportlichen Wettkampf. Man nehme eine Vorhersage, die möglichst zehn, zwanzig oder mehr Jahre alt ist, und vergleiche sie einfach mal mit der in der Natur real registrierten Entwicklung. Wenn alles passt, hat sich das Modell das Vertrauen ehrlich verdient. Falls sich jedoch größere Diskrepanzen ergeben, sollte man sich ernsthaft Gedanken darüber machen, ob das Modell wirklich auf den richtigen Grundlagen basiert. Mit kosmetischen Korrekturen ist es da nicht getan. 

Bereits im Juni 2012 haben wir bei uns im Blog einen Gastbeitrag von Prof. Jan-Erik Solheim gebracht, der genau solch einen Theorie-gegen-Praxis-Vergleich unternommen hat (siehe „Was ist eigentlich aus James Hansens Temperaturvorhersage von 1988 geworden? Zeit für eine Überprüfung“). Das Resultat war ernüchternd: Die von der Hansen-Truppe 1988 modellierte Temperaturvorhersage lag um etwa 150% daneben (Abbildung 1). 

 

Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988)

 

Im April 2012 hatten wir uns zudem eine Temperaturprognose von Hartmut Graßl vorgenommen, die er 1990 aufgestellt hatte (siehe unser Blogartikel „Graßl’s Erwärmungsprognose von 1990 droht dramatisch zu scheitern“). Auch hier sieht es überhaupt nicht gut aus. Das Ergebnis der Analyse: Die Temperatur müsste in den kommenden 8 Jahren um satte 0,75°C ansteigen, damit Graßls Vision noch Wirklichkeit wird. Hier sollte wohl Einigkeit über alle Lager hinweg herrschen: Dies ist schlichtweg unmöglich. Eine schöne Zusammenschau der fehlgeschlagenen IPCC-nahen Prognosen ist übrigens auch auf C3 Headlines erschienen. 

Anstatt sich nun die notwendigen Gedanken über einen Modellierungsneuanfang zu machen (siehe z.B. Anmerkungen von Roger Pielke, Sr.), wursteln die IPCC-Forscher einfach weiter herum so wie bisher. Offensichtlich lassen sie sich auch nicht dadurch beunruhigen, dass die Modelle weder den Temperaturstop der vergangenen 10 Jahre reproduzieren – geschweige denn vorhersagen – konnten, noch die Klimageschichte der letzten Jahrtausende in den Griff bekommen. So werden wir wohl auch im kommenden 5. Klimazustandsbericht keine Verbesserung erwarten können, wie eine Pressemitteilung der französischen Forschungsorganisation CNRS aus dem Februar 2012 erahnen lässt: 

Die französische Wissenschaftsgemeinschaft für Klimafragen hat kürzlich wichtige Simulationen zum vergangenen und künftigen Klima im globalen Maßstab abgeschlossen. Diese aktuellen Daten bestätigen die Ergebnisse des vierten Sachstandsberichts (2007) des Weltklimarats (IPCC) über die kommenden Veränderungen bei der Temperatur und der Niederschlagsmenge. Dabei wurden 2 Extremmodelle berücksichtigt: Ein Temperaturanstieg von 3,5 bis 5°C bis 2100 oder im günstigsten Fall ein Anstieg um 2°C. Von der internationalen Wissenschaftsgemeinschaft zur Verfügung gestellt, werden diese Ergebnisse vom IPCC zur Erarbeitung ihres nächsten für 2013 geplanten Berichts verwendet. […] Es bestätigt sich eine Intensivierung des Wasserkreislaufs und ein schnelles Abschmelzen des arktischen Packeises, das im schlimmsten Fall im Sommer 2040 oder 2060, je nach Modell, verschwunden sein wird. Die Simulationen, die das Klima und den Kohlenstoffkreislauf miteinander in Verbindung setzen, liefern neue Antworten.  

Das Gleiche gilt übrigens wohl auch für die Klimawirkung der Sonne, die im neuen IPCC-Bericht offenbar sogar noch weiter heruntergeschraubt wird (siehe unser Blogartikel „Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !“). Entsprechend wird die Klimawirkung des CO2 jetzt weiter nach oben gesetzt. In einer Klimamodellierungsarbeit einer Gruppe um Gerald Meehl, die im Juni 2012 im Journal of Climate erschien, wird jetzt von einer langfristigen CO2-Klimasensitivität von 3,2°C ausgegangen, was 25% höher ist als im Vorgängermodell (siehe Diskussion auf der NIPCC-Webseite). 

weiter lesenIPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Neue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Ein Hauptproblem der diversen Klimamodelle ist die viel zu gering angenommene Klimawirkung der Sonne. Wie können die Temperaturen in den letzten 10.000 Jahren synchron zur Sonnenaktivität pulsiert haben, wenn doch die Sonne eigentlich kaum eine Rolle gespielt haben sollte? Dabei gibt es mindestens drei Stellschrauben, an denen die Modellierer nachbessern könnten. So werden derzeit keinerlei Solarverstärker berücksichtigt (siehe unser Buch „Die kalte Sonne, Kapitel 6). Weder der UV-Verstärker noch der Svensmark-Verstärker über die kosmische Strahlung und Wolken wurden bislang in Klimamodell-Szenarien umgesetzt.

Bei der dritten Stellschraube handelt es sich um eine Neubewertung der Sonnenaktivitätsschwankungen. Im Februar 2011 hatte ein schweizerisches Wissenschaftlerteam um Alexander Shapiro vom Davoser World Radiation Center im Fachmagazin Astronomy & Astrophysics eine Studie veröffentlicht, in der sie zeigen konnten, dass die Aktivität der Sonne in den letzten 400 Jahren wohl um den Faktor 6 stärker geschwankt hat als zuvor angenommen (siehe S. 65 in „Die kalte Sonne“). Was würde wohl passieren, wenn man die existierenden Klimamodelle mit diesem erhöhten solaren Änderungsbetrag füttert? Könnte die empirisch nachgewiesene signifikante Klimawirkung der Sonne vielleicht besser reproduziert werden als bislang möglich? Diese Frage scheint auch Hans van Hateren von der Universität Groningen umgetrieben zu haben. Er ließ nun eine Klimamodellierung mit der neuen schweizerischen Sonnenkurve durchlaufen, deren Ergebnisse er im Mai 2012 in Climate Dynamics veröffentlichte.

Van Hateren sieht die Klimaerwärmung von 1820 bis 1950 zu etwa 70% durch den Anstieg der Sonnenaktivität verursacht. Das ist interessant. Die nachfolgende Temperaturentwicklung interpretiert er hingegen überwiegend durch Treibhausgase und Aerosole. Hierbei verwendet er bezeichnenderweise den in der Branche beliebten Aerosol-Joker, um die Phase 1940-1977 abzukühlen. Den Effekt von Ozeanzyklen wie etwa der Pazifisch Dekadischen Oszillation sowie Zeitverzögerungen beim Aufbau von thermischen Gleichgewichten im trägen Klimasystem scheint er außer acht zu lassen. Hierdurch wird die Klimawirkung des CO2 an dieser Stelle wohl noch immer überschätzt. 

Trotzdem ist die Arbeit durchaus bemerkenswert. Van Hateren modellierte mit seiner stärkeren Sonnendnamyik nämlich auch die vergangenen 2000 Jahre (Abbildungen 1 und 2). Und oh Wunder, plötzlich kommen aus den Modellierungen Temperaturverläufe heraus, die sich parallel zu den historischen Temperaturrekonstruktionen und der Sonnenaktivität bewegen. Auch die Kleine Eiszeit kann auf diese Weise plötzlich gut mit der Solarflaute erklärt werden. Die von einigen Kollegen vorgeschlagene ominöse Vulkanausbruchsserie wird nun nicht mehr als Hauptauslöser benötigt. Die Mittelalterliche Wärmeperiode um 1000 n. Chr. und die Römische Wärmeperiode um das Jahr Null sind ebenfalls klar erkennbar (Abbildung 2). Der Autor führte auch Modellierungsversuche mit deutlich schwächeren Sonnenaktivitätsschwankungen durch. Diese erzielten jedoch eine viel schlechtere Übereinstimmung gegenüber den aus der Natur ermittelten Werten. 

weiter lesenNeue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.). 

weiter lesenKlimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?