Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.). 

weiter lesenKlimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

TV-Tip: Die Sonne – Ein Star im Universum (arte, 11.8.2012)

Am 11.8.2012 zeigt arte um 11:15-12:20 Uhr die Filmdoku „Die Sonne – Ein Star im Universum“. Ankündigung des Senders:   Millionen Mal größer als die Erde bildet die Sonne das imposante Zentrum unseres Universums Doch was wissen wir über sie, ihre Beschaffenheit und ihre Wirkung auf unseren Planeten? Seit Menschengedenken fand jedes Zeitalter eigene Antworten auf diese Fragen.  Die Dokumentation schlägt den Bogen, besucht steinzeitliche Kultstätten und präsentiert neueste wissenschaftliche Erkenntnisse. Dokumentarfilm von John Lynch und Michael Lachmann Großbritannien, 2006, 59mn Produktion: BBC   Der Film ist auch auf Youtube verfügbar (Teil 1 von 5): Teil 2, Teil 3, Teil 4, …

weiter lesenTV-Tip: Die Sonne – Ein Star im Universum (arte, 11.8.2012)

Es ist nicht alles Gold was glänzt: Ein kleiner Streifzug durch die Welt der Klimamodelle

Über die fragwürdigen Qualitäten von Klimamodellen und Temperaturprognosen haben wir hier im Blog bereits mehrfach in Einzelbeiträgen berichtet (Artikelübersicht hier). Wir wollen das Thema nun in einer kleinen Serie vertiefen und hierzu einen kleinen Streifzug durch die aktuelle Literatur unternehmen. Sind die millionenschweren Rechenkästen ihre hohen Investitionskosten wert oder gibt es möglicherweise Gründe, sich zunächst auf die grundlegende Klärung des darin verwendeten Formelwerks zu konzentrieren? Kann man den Ergebnissen der Klimamodellierung uneingeschränkt vertrauen oder ist hierzu religiöse Überzeugung von Nöten?

Der bekannte Mathematiker und Chaosforscher Heinz-Otto Peitgen wurde 2006 in einem Spiegel-Interview gefragt, ob sich denn das Klima überhaupt modellieren ließe. Pleitgen, der mittlerweile Präsident der Bremer Jacobs University ist, antwortete damals:

„Jetzt reden wir von Glaubenssachen. Es gibt Leute, die glauben – und viele von denen sitzen in hoch bezahlten Positionen in sehr bedeutenden Forschungszentren -, dass man das Klima modellieren kann. Ich zähle zu denen, die das nicht glauben. Ich halte es für möglich, dass sich die mittlere Erwärmung der Ozeane in 50 Jahren mit einem bestimmten Fehler vorausberechnen lässt. Aber welche Wirkungen das auf das Klima hat, das ist eine ganz andere Geschichte.“

Mit dieser skeptischen Sichtweise ist Peitgen nicht allein. Im Jahr 2011 erschien im Journal of Forecasting eine Studie, in der die Ergebnisse von Klimamodellen gegen den Verlauf von Zufallsbewegungen („random walk“) verglichen wurden. Das erschreckende Resultat: Die getesteten Klimamodelle schnitten schlechter ab als die Zufallsbewegungen (siehe Ross McKitrick’s Artikel in der Financial Post, bzw. Beiträge auf WUWT und EIKE). Andrew Montford schlug aufgrund der mageren Leistungen der Klimamodelle vor, diese künftig als „Protomodelle“ zu bezeichnen, damit sie von effektiveren, wirklich prädiktiven Modellen unterschieden werden können. Auf diese Weise würden die großen Unsicherheiten der Klimamodelle in der Öffentlichkeit Erinnerung gehalten, was insbesondere für politische Entscheidungsträger wichtig ist.

Bei einem Treffen von Klimawissenschaftlern, das im Oktober 2011 in Boulder, Colorado, stattfand, zeigte sich, dass die Ergebnisse der diversen verwendeten globalen und regionalen Klimamodelle stark streuten. Die Gründe für diese Diskrepanzen wären allerdings noch zu schlecht verstanden und würden in der Diskussion noch zu wenig berücksichtigt geschweige denn kommuniziert. Diese Schlussfolgerung des Workshops wurde in einem Artikel der geophysikalischen Fachzeitung Eos festgehalten (siehe Beitrag von Roger Pielke, Sr.). Roger Pielke, Sr. weist zudem darauf hin, dass Modelle erst dann als glaubwürdig und verlässlich eingestuft werden können, wenn sie die Klimaentwicklung der Vergangenheit reproduzieren könnten. Bislang sind die Modelle jedoch diesen Beweis schuldig geblieben, insbesondere wenn man regionale Entwicklungen im Maßstab von einzelnen Jahren bis zu mehreren Jahrzehnten als Test heranzieht.

Noch immer sind die Vorgänge in der Atmosphäre offensichtlich viel zu komplex, als dass sie von Computern in realistischer Weise modelliert werden könnten. Einen Überblick zu diesem Problem gibt zum Beispiel Tim Ball in seinem Blog.

Natürlich möchte man von all diesen Schwächen der Klimamodelle am liebsten gar nichts hören, wenn man Anhänger der Klimakatastrophe ist. Daher geht die Modelliererzunft in der Öffentlichkeit gerne über diese Schwierigkeiten hinweg. Es sei alles viel zu kompliziert und als Normalmensch könne man das sowieso nicht verstehen. Trust me, I  am a Doctor!

Die Öffentlichkeit ist mittlerweile jedoch hellhörig geworden. In einer kürzlich veröffentlichten Studie wertete Karen Akerlof mit einigen Kollegen die vier wichtigsten nationalen Tageszeitungen der USA für den Zeitraum von 1998 bis 2010 und prüfte die Berichterstattung zum Thema Klimammodelle. Es zeigte sich, dass im Schnitt doppelt so viele negative Kommentare über die Leistungsfähigkeit von Klimamodellen vorkamen wie positive. In Umfragen gaben zudem knapp zwei Drittel der US-Bürger an, dass Klimamodelle entweder zu ungenau sind, um die Zukunft vorherzusagen, oder dass sie nicht wissen, ob man ihnen vertrauen kann.

Und was für Schlüsse zog das Team um Akerlof daraus? Der ORF berichtete die überraschende Sichtweise: 

weiter lesenEs ist nicht alles Gold was glänzt: Ein kleiner Streifzug durch die Welt der Klimamodelle

Emotionen statt Fakten: Harald Lesch’s ZDF-Doku „Tatort Erde – Das Klima im Visier“

Harald Lesch ist gelernter Astrophysiker und obendrauf noch ein äußerst begabter Vortragender, der komplexe Sachverhalte in verständlicher Weise  erklären kann. Wenn Lesch gut in Form ist, macht es richtig Spass, ihm bei seinen Ausführungen zu lauschen. Seine mitreißende Art hat wohl 2008 auch das ZDF bewogen, ihm die Führung des Wissenschaftsmagazins Abenteuer Forschung zu übertragen. Das Nachsehen hatte damals der etwas steifere Joachim Bublath, der diese Sendung viele Jahre moderierte und kurzerhand in Rente geschickt wurde. Bublath hatte 2007 eine bemerkenswerte Sendung zum Klimawandel gemacht, die durchaus kritisch mit den Visionen des IPCC zur Klimakatastrophe umging. Die Sendung wird dem Weltklimarat nicht so recht gefallen haben. Es war sicher nur Zufall, dass Bublath kurz darauf gehen musste.

Mit Nachfolger Lesch müssten die deutschen IPCC-Vertreter nun jedoch sehr zufrieden sein. Der Pfeifenraucher des Jahres 2009 setzt sich vehement für die mediale Verbreitung des Katastrophengedankens ein und lässt keine Gelegenheit aus, die moralische Überlegenheit des Klimaalarmismus herauszustellen. So auch am 22. Mai 2012, als Lesch im Rahmen seiner Forschungs-Reihe die Folge „Tatort Erde: Das Klima im Visier“ kredenzte. Zur Einstimmung in das Thema produzierte der Moderator auch eine 11-minütige Standup-Lecture, die auf der Webseite des Senders abgerufen werden kann. Hier geht Lesch sehr viel deutlicher zu Werke als in der eigentlichen Sendung. Zunächst versucht er das „Klimaskeptiker-Phänomen“ psychologisch zu erklären. Es handele sich um Menschen mit einer irrigen Ansicht, die nur noch Webseiten ähnlich denkender Zeitgenossen lesen und sich da gegenseitig bestätigen. Lesch hat dafür eine schöne Formulierung: „Klimaskepsis die sich im Netz rumtreibt“. Weil alle anderen, mit denen man zu tun hat, das Gleiche denken, glauben die Skeptiker am Ende, dass sie wohl Recht haben müssen. Eine interessante Theorie.

Leider versäumt Lesch zu erwähnen, dass man genau das Gleiche auch über die klimaalarmistische Seite sagen könnte. Auch dort wird überwiegend auf den eigenen Webseiten gesurft und unbequeme Gegenargumente mit wackeligen Hilfsannahmen beiseite gewischt. Und noch schlimmer: Man richtet Konferenzen aus, zu denen Klimaskeptiker als Vortragende keinen Zugang haben. Die Skeptiker hingegen laden die Gegenseite regelmäßig zu ihren Veranstaltungen ein. Leider sagen jedoch die Klimaalarmisten Ihre Teilnahme fast immer ab, so dass offenbar kein Interesse an einem wissenschaftlichen Diskurs seitens der IPCC-Vertreter besteht. Auch diesen Umstand lässt Lesch in seiner Mini-Vorlesung leider aus. Er wirbt zwar für fachliche Diskussionen der beiden Gruppen, da Argumentation das Wesen der Wissenschaft darstellt, macht aber selbst keine Anstalten, eine solche Diskussion in seinen Filmen ernsthaft zuzulassen. Auch im gleich noch zu besprechenden Abenteuer-Forschung-Film werden wichtige Gegenargumente meist einfach ignoriert.

In seinem kleinen Appetitanreger erläutert Lesch dann, dass sich im Grunde alles um „Drends“ handelt. Für Zuschauer außerhalb von Hessen buchstabiert der Moderator das Wort dann nochmal „T, R, E, N, D, S“, womit nun klar sein sollte, dass die Erwärmung der vergangenen 150 Jahre gemeint ist. Richtig, die Erwärmung zweifelt ja auch gar keiner an.

Der zweite Teil des Vortrags wird der Komplexität des Themas jedoch in keiner Weise gerecht und führt die Zuschauer kräftig in die Irre. Lesch versucht den Wasserdampfverstärker zu erklären, ohne den das CO2 nur ein zahnloser Tiger wäre. Vom IPCC favorisierte ominöse Verstärker über Wasserdampf und Wolken sollen die Klimawirkung des angeblich CO2 vervielfachen, wobei die Prozesse selber jedoch noch kaum verstanden sind. Mit diesen eklatanten Verständnislücken der Verstärker will Lesch die Zuschauer aber offenbar nicht behelligen und lässt sie bewusst in dem Glauben, dass hier schon alles bestens wissenschaftlich unter Kontrolle wäre. Ein fragwürdiges Vorgehen. Der Moderator spricht dagegen von einem Teufelskreis von Verstärkungsfaktoren, auf den es in den aktuellen Messdaten jedoch noch keinerlei Hinweis gibt. Warum erwähnt Lesch nicht, dass der Wasserdampfgehalt der Atmosphäre seit nunmehr 14 Jahre gar nicht mehr angestiegen ist (siehe unser Blogartikel „Der ominöse Wasserdampfverstärker für das CO2 spielt weiter Versteck: Wasserdampfkonzentration in der Atmosphäre in den letzten 14 Jahren offenbar nicht angestiegen“)?

Nein, das würde wohl der simplistischen Kernbotschaft der kommenden Klimakatastrophe widersprechen. Also lieber die großen Unsicherheiten weglassen. The Science is settled. Zumindest in der abenteuerlichen Lesch-Forschungswelt. Daher kann er an seiner These munter weiter fabulieren und stellt allerlei langweilige Dinge fest:

weiter lesenEmotionen statt Fakten: Harald Lesch’s ZDF-Doku „Tatort Erde – Das Klima im Visier“

Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute

In der letzten Zeit hatten es die Fans der Klimakatastrophe wirklich nicht leicht. Die Temperaturen weigern sich seit nunmehr 14 Jahren standhaft weiter anzusteigen, der Meeresspiegelanstieg will sich einfach nicht beschleunigen, und ständig werden neue Studien veröffentlicht, die die Klimawirkung der Sonne hervorheben. Da könnte einem als eingefleischtem Klimakatastrophist so richtig schlecht werden. Aber man zeigte sich flexibel und wich zwischenzeitlich kreativ auf das schöne, weite, neue Feld des „Extremwetters“ aus. Alles würde immer extremer, schlimmer, katastrophaler werden, erzählte man allen die es wissen wollten – und leider auch denen, die es nicht wissen wollten. Man malte schaurig-apokalyptische Bilder, welche sich in den Köpfen der verängstigten, unklimatischen Zivilbevölkerung allmählich festsetzen. Nur die wenigsten nahmen sich die Zeit, die ungeheuerlichen Prognosen zu überprüfen. Und diejenigen die es taten, trauten ihren Augen nicht. Die fachliche Grundlage derartiger Szenarien ist überaus dürftig und wichtige Gegenargumente wurden einfach ausgelassen. Überschattet wurde die ganze Szenerie von möglichen Interessenskonflikten der Protagonisten. Wir haben bereits mehrfach über die verschiedenen Gewerke des Extremwetters berichtet (siehe Artikel-Übersicht und unser Blogbeitrag „Die Versicherungswirtschaft und die Klimakatastrophe: Eine unheimliche Liaison“).

Heute wollen wir uns einmal die Idee vornehmen, dass Europas Stürme in den kommenden Jahrzehnten immer häufiger und heftiger werden würden. Begründet wird dies mit der zu erwartenden Klimaerwärmung. Hierzu zunächst eine kleine Rückblende in den März 2012, als in Hamburg der „Extremwetterkongress“ stattfand. Die Südwest Presse schrieb damals:

„Klimaexperten tagen derzeit in Hamburg, um die Entwicklung des Wetters zu diskutieren. Ihre Botschaft ist deutlich: Wetterkatastrophen in Deutschland haben zugenommen – und es wird schlimmer werden. Immer mehr Hagel, Starkregen und Stürme: Analysen des Rückversicherers Munich Re zufolge, die gestern beim „Extremwetterkongress“ in Hamburg vorgestellt wurden, müssen wir uns warm anziehen: „Die Daten zeigen eindeutig: Die Zahl wetterbedingter Naturkatastrophen in Deutschland hat sich seit 1970 mehr als verdreifacht“, sagte Peter Höppe, Chef der Munich Re-Georisikoforschung. „Veränderungen in der Atmosphäre tragen einen Anteil daran, dass hier immer mehr Wetterextreme auftreten.“ Der Trend setze sich fort. „Für die nächsten 30 Jahre rechnen Klimamodelle in Deutschland vor allem mit einer Zunahme der Sturmintensität und mit mehr Starkniederschlägen, die zu Überschwemmungen führen“, erklärte Höppe.“

Und auf Zeit Online war zu lesen:

„Der [Deutsche Wetterdienst] DWD geht davon aus, dass die Zahl heißer Tage, die Starkniederschläge und die Anzahl der Winterstürme um bis zu 50 Prozent zunehmen.“

Auch andere Klimadiskutanten sehen mehr Stürme am Horizont der mittleren Breiten. So veröffentlichte im April 2012 eine britisch-deutsche Forschergruppe um Tim Woolings von der University of Reading in nature geoscience eine neue Studie, in der sie den derzeit schwächelnden Golfstrom als Auslöser von vermehrten Stürmen im östlichen Nordatlantik und in Europa sehen. Durch die Klimaerwärmung würde der Golfstrom allmählich an Kraft verlieren, was dann über Umwege die Sturmtätigkeit befördert, wie Der Standard am 3.4.2012 berichtete (siehe auch Beitrag auf scinexx):

„Je schwächer die thermohaline Zirkulation ist, desto geringer wird die Zufuhr von warmem Oberflächenwasser in den nördlichen Teil des Nordatlantiks. Dadurch nimmt das Nord-Süd-Gefälle in der Wasseroberflächen-Temperatur zu und beeinflusst somit auch das Temperatur-Gefälle in der unteren Atmosphäre. Dieser so genannte Temperaturgradient ist sehr wichtig für die Entstehung von Tiefdruckgebieten. Je höher der Temperaturgradient, desto mehr potentielle Energie steht für die Entwicklung eines Sturms zur Verfügung. Die Stürme können dadurch extremer werden.“

Aber wie kamen die Forscher auf diesen Zusammenhang? Nun, sie verwendeten einen ganzen Strauß der offiziellen IPCC-Klimamodelle. Und eben diese Modelle mussten in der Vergangenheit sehr viel Kritik einstecken (siehe z.B. unser Buch „Die kalte Sonne“). Weder können diese Modelle die Klimageschichte der letzten 10.000 Jahre reproduzieren, noch haben sie den Erwärmungsstop seit 1998/2000 vorhergesagt. Sollten eben diese fehlerhaften Modelle nun wirklich in der Lage sein, die Sturmentwicklung korrekt vorherzusagen? Es dürfen Zweifel angemeldet werden.

Schon gibt es die ersten, die auf den Sturmangst-Zug aufspringen und das ihnen vermeintlich drohende Leid öffentlich beklagen. Hierzu gehört beispielsweise Christoph Rullmann von der Schutzgemeinschaft Deutscher Wald, der jetzt dringend Hilfe für die Buche fordert. Nachdem das Waldsterben der 1980er Jahre durch den Einsatz von Filtern auf den Kraftwerks- und Fabrikschloten in letzter Sekunde noch einmal abgewendet werden konnte, drohe der Buche nun neues Ungemach, sagte Rullmann am 3.2.2012 im Deutschlandradio

weiter lesenEine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute

Buchtipp „Klima und Kulturen: Die Geschichte von Paradies und Sintflut“

Wir gehen selbstverständlich davon aus, dass Sie bereits stolzer Eigentümer unseres Buches „Die kalte Sonne“ sind. Vielleicht haben Sie es auch schon durchgelesen und suchen nun nach neuer Lektüre, wobei wir gerne behilflich sind. Von Interesse könnte zum Beispiel das Buch „Klima und Kulturen: Die Geschichte von Paradies und Sintflut“ sein, das im Oktober 2011 im Greiner Verlag in der zweiten Auflage erschien. Über die erste Auflage hatte die Stuttgarter Zeitung am 3.11.2005 berichtet:

„Liegt das Paradies auf dem Grund des Persischen Golfes? (…) Der Winnender Technikprofessor Norbert Buchner und sein Sohn Elmar, ein Geologe, der Dozent an der Universität Hohenheim ist, haben sich jahrelang mit der Frage nach der Wiege der Menschheit und dem Weg ins Paradies beschäftigt. Der populärwissenschaftliche Lösungsvorschlag des Rätsels liegt seit Neuestem als 262-seitiges Buch vor (..) das sich in recht anschaulicher Weise auf die Suche nach dem nachweislich wahren Kern der Mythen über die Sintflut und das verlorene Paradies macht. (…) Entstanden ist ein Werk, das die Mythen über die Sintflut durchaus nachvollziehbar mit geografischen und klimatologischen Erkenntnissen in Übereinstimmung bringt. Die Sintflut beschreibt demnach die Folgen jener klimatischen Veränderungen, die in der Zeit zwischen 18 000 und 9000 Jahre vor Christi Geburt dafür gesorgt haben, dass die zunächst fruchtbaren Ebenen auf dem Grund des heutigen Persischen Golfes nach und nach überflutet wurden. In jenem Zeitraum ist (…) der Meeresspiegel um 130 Meter angestiegen (…) Ganze Siedlungen im Gebiet der Wiege unserer Kultur, dort, wo die Autoren auch jenes Fleckchen Erde vermuten, das dann als Garten Eden in die Mythen einging, liegen unter Wasser begraben. (…)“

Für das kalte-Sonne-Blog hat Steffen Loos aus Mainz freundlicherweise folgende Rezension der aktuellen Ausgabe des Buches verfasst:

Das Klima hat uns zu dem gemacht was wir sind

Klima und Kulturen ist ein spannendes und umfassendes Werk über die Entwicklung des Menschen vor dem Hintergrund ständiger Klimaschwankungen. Unter Zuhilfenahme neuester wissenschaftlicher Erkenntnisse aus Geologie, Klimaforschung, Archäologie und Humangenetik wird in diesem Buch der Menschliche Werdegang beschrieben, besondere Ereignisse hervorgehoben und wichtige Fragen beantwortet. Warum haben unsere Vorfahren die Bäume verlassen, wann und über welche Routen verließ der der Mensch Afrika und wie entwickelte er sich kulturell?

weiter lesenBuchtipp „Klima und Kulturen: Die Geschichte von Paradies und Sintflut“

Vortrag des TV-Meteorologen Sven Plöger in Dülmen am 24.10.2012

Am 24.10.2012 hält der TV-Meteorologe in Dülmen von 20:00-22:00 einen Vortrag zum Klimawandel. Ort: Schulzentrum, Gymnasium, Aula, An der Kreuzkirche 7, 48249 Dülmen. Kosten: 10 EUR. Ankündigung: Gute Aussichten? Der Klimawandel ist nicht mehr abzuwenden. Statt aber über das Ausmaß zu lamentieren, plädiert Sven Plöger für einen konstruktiven Umgang mit den einsetzenden Veränderungen, die sich auf sämtliche Lebensbereiche wie Wohnen, Verkehr und Landwirtschaft auswirken. Voraussetzung dafür ist, so Plöger, dass wir den Klimawandel verstehen und alle an einem Strang ziehen. Wie unterschiedlich unsere Auffassungen zum Thema Klimawandel auch sein mögen: wir sitzen alle in einem Boot. Und dem geht der …

weiter lesenVortrag des TV-Meteorologen Sven Plöger in Dülmen am 24.10.2012

Vorhersage für die Atlantische Hurrikansaison 2012: Die Hurrikan-Flaute hält wohl weiter an

Die Atlantische Hurrikansaison hat Mitte Mai 2012 begonnen. Aber so richtig viel los war bisher noch nicht. Nur drei magere tropische Wirbelstürme sowie einen Hurrikan der schwachen Kategorie 1 hat es bislang gegeben (Abbildung 1). Chris schwächte sich jedoch schnell wieder ab und löste sich in Wohlgefallen auf, noch bevor er in Neufundland größere Schäden verursachen konnte. Es stellte sich zudem heraus, dass Chris ein ganz seltsamer Bursche ist (nein, nicht der hier). Denn zwischenzeitlich verstärkte sich der Sturm, obwohl er sich über relativ kühlem Wasser von weniger als 22 °C Oberflächentemperatur bewegte. Sehr Mysteriös. Man kann nur hoffen, dass die Hurrikanmodellierer dieses mysteriöse Verhalten mitbekommen und sich die entsprechenden Fragen gestellt haben.

Abbildung 1: Bisheriger Saisonverlauf der Atlantischen Hurrikansaison 2012. Quelle: Wikipedia.

 

Wie wir im gestrigen Blogbeitrag berichteten, sind starke Hurrikane der Kategorien 3-5 in den USA lange überfällig. Kommt 2012 jetzt die Wende? Wird es dort bald richtig knallen? Dazu wollen wir uns hier einmal drei Prognosen für die atlantische Hurrikansaison 2012 anschauen:

Die erste Vorhersage stammt von den Meteorologen Philip Klotzbach und William Gray von der Colorado State University. Die beiden Hurrikanexperten sagten im Juni voraus, dass sich die Saison wohl eher unterdurchschnittlich entwickeln wird. Als Grund hierfür sehen Klotzbach und Gray den sich abzeichnenden El Nino, der die Ozeantemperatur im Pazifik ansteigen und im Atlantik absinken lassen wird. Derartige Bedingungen sind erfahrungsgemäß eher störend für die Entwicklung von Hurrikanen im atlantischen Raum. 

weiter lesenVorhersage für die Atlantische Hurrikansaison 2012: Die Hurrikan-Flaute hält wohl weiter an

Ein unerwarteter Rekord: Noch nie mussten die Vereinigten Staaten während der letzten 100 Jahre so lange auf einen starken Hurrikan warten !

In den USA wird man langsam unruhig. Noch vor wenigen Jahren hatte der IPCC vorhergesagt, dass die Hurrikane durch die Klimaerwärmung immer häufiger und auch stärker werden würden. Aber die Realität hat offenbar andere Pläne: Seit nunmehr fast 2500 Tagen hat das Land jetzt keinen Monster-Hurrikan mehr erlebt. Das ist absoluter Rekord seit Beginn des 20. Jahrhunderts. Noch nie musste man in dieser Zeit länger auf einen starken Hurrikan der Kategorie 3-5 warten (Abbildung 1). Dies berichtete kürzlich Roger Pielke, Jr., Professor für Umweltstudien an der University of Colorado in Boulder. 

Der letzte größere Hurrikan ereignete sich im Oktober 2005 und hörte auf den Namen Wilma. Die schlimme Wilma hatte sich damals Südwest Florida als Opfer ausgesucht. Mit einer maximalen mittleren Windgeschwindigkeit von 295 km/h und Windböen bis 340 km/h wurde Wilma am 19. Oktober 2005 in die höchste Kategorie 5 eingestuft. Man erinnert sich: Nur wenige Monate zuvor, im August desselben Jahres war Hurrikan Katrina in New Orleans eingefallen. 

 

Abbildung 1: Seit 1900 erreichten 78 starke Hurrikane die US-amerikanische Küste (durchnummeriert von 1-78 auf der x-Achse). Aufgetragen ist jeweils die Anzahl der Tage bis zum jeweils folgenden Hurrikan. Quelle: Roger Pielke, Jr. (Stand: 16.5.2012).

 

Der Hurrikanexperte Ryan Maue vom National Research Council im kalifornischen Monterey erläuterte in einem kürzlichen Konferenzbeitrag den Kontext dieser Entwicklung. Laut Maue hat die tropische Wirbelsturmaktivität seit 2007 im weltweiten Durchschnitt dramatisch abgenommen. Dies gilt sowohl für die Häufigkeit des Auftretens als auch für die mit den Hurrikanen verbundenen Energiemengen. Ebenso gibt es keinen erkennbaren Steigerungstrend für die vergangenen Jahrzehnte (siehe auch unser Blogbeitrag „Hurrikanen scheint die Erwärmung egal zu sein: Keine Zunahme der tropischen Wirbelstürme in den letzten Jahrzehnten“). 

Im Jahr 2011 erreichten weltweit nur 10 Wirbelstürme die Küste, was den vorletzten Platz in der Hurrikan-Aktivitätsstatistik der letzten 40 Jahre bedeutet. Maue warnt auch davor, zu kurze Trends für lineare Zukunftsprojektionen zu verwenden. Die Vergangenheit zeigt, dass Hurrikane vielmehr einer natürlichen Variabilität und Ozeanzyklik im Maßstab von bis zu mehreren Jahrzehnten unterliegen. Aufgrund dieses Zusammenhangs und der vermuteten weiteren Entwicklung der beteiligten Ozeanzyklen ist laut Maue auch nicht auszuschließen, dass die Hurrikanflaute entgegen den IPCC-Prognosen auch in den kommenden zehn Jahren anhält. 

weiter lesenEin unerwarteter Rekord: Noch nie mussten die Vereinigten Staaten während der letzten 100 Jahre so lange auf einen starken Hurrikan warten !

Hurrikanen scheint die Erwärmung egal zu sein: Keine Zunahme der tropischen Wirbelstürme in den letzten Jahrzehnten

Mitte Mai 2012 begann die neue Hurrikan-Saison. Im Pazifik wüteten seitdem die Hurrikane Bud, Carlotta, Daniel, Emilia und Fabio, während im Atlantik Hurrikan Chris Mitte Juni sein Unwesen trieb. Auch Taifune hat es bereits gegeben. Tropische Wirbelstürme entstehen in der Regel zwischen Mai und Dezember, die meisten davon zwischen Juli und September. 

Als Hurrikan wird ein tropischer Wirbelsturm bezeichnet, wenn er mindestens Orkanstärke erreicht, also Windstärke 12 auf der Beaufortskala (118 km/h) und sich im Atlantik oder im Nordpazifik östlich der Datumsgrenze entwickelt. Die starken Wirbelstürme westlich der Datumsgrenze werden Taifune genannt. In Indien heißen sie wiederum Zyklone. Ganz schön verwirrend. Im Folgenden bezeichnen wir sie daher hier alle vereinfachend als Hurrikane. 

Die durch Hurrikane verursachten weltweiten Schäden sind in den vergangenen Jahrzehnten dramatisch angestiegen. Etliche wissenschaftliche Untersuchungen haben jedoch festgestellt, dass die Verluste vollständig durch Veränderungen in der Gesellschaft erklärt werden können. Die Zunahme der Gesamtbevölkerung, das Anwachsen von Vermögenswerten sowie die verstärkte Besiedelung der Küstengebiete bietet den anbrausenden Hurrikanen heute nämlich eine deutlich größere und wertvollere Angriffsfläche als früher. 

Früher war vermutet worden, dass die Anzahl oder die Intensität der Hurrikane möglicherweise angestiegen sei und zum Anschwellen der Schadenssummen beitrugen. In einer neuen Arbeit die im Juli 2012 im Journal of Climate erschien, gingen nun Jessica Weinkle, Ryan Maue und Roger Pielke, Jr. von der University of Colorado und dem Naval Research Laboratory im kalifornischen Monterey dieser Frage nach. Im Rahmen ihrer Studie erstellten sie für die vergangenen 40 Jahre eine weltweite Statistik über starke und weniger starke Hurrikane, welche die Küste erreicht haben. Dabei berücksichtigten die Forscher auch die ständige Verbesserung von Beobachtungstechniken. Auf diese Weise entstand ein in sich konsistenter, homogenisierter Datensatz (Abbildung 1). 

Weinkle und ihre Kollegen stellten fest, dass es für die von ihnen untersuchten 40 Jahre weder einen globalen noch regionale Trends in der Häufigkeits- und Intensitätsentwicklung der Hurrikane gibt. Hurrikane weder häufiger, noch intensiver geworden. Der beobachtete Zuwachs der Hurrikanschäden geht daher in der Tat vor allem auf den Anstieg der in den betroffenen Gebieten vorhandenen Besitzwerte zurück (siehe auch Blogbeitrag von Roger Pielke, Jr.). 

 

Abbildung 1: Globale Häufigkeitsentwicklung von starken Hurrikanen (rote Kurve), die die Küste erreichten. Die blaue Kurve gibt die Gesamtzahl von starken und schwachen Hurrikanen an. Abbildungsquelle: Weinkle et al. (2012).

 

Wenn man sich die globale Hurrikanstatistik in Abbildung 1 näher anschaut, fallen folgende Entwicklungen ins Auge: 

weiter lesenHurrikanen scheint die Erwärmung egal zu sein: Keine Zunahme der tropischen Wirbelstürme in den letzten Jahrzehnten

GeoForschungsZentrum Potsdam mit neuer wegweisender Sonderpublikation zur Klimadebatte

Das Deutsche GeoForschungsZentrum (GFZ) ist das nationale Forschungszentrum für Geowissenschaften in Deutschland. Es befindet sich im Wissenschaftspark Albert Einstein auf dem Potsdamer Telegrafenberg. Das GFZ umfasst alle Disziplinen der Geowissenschaften von der Geodäsie bis zum Geoingenieurwesen und betreibt sie in einem engen interdisziplinären Verbund mit den benachbarten Naturwissenschaften Physik, Mathematik und Chemie sowie den ingenieurwissenschaftlichen Disziplinen Felsmechanik, Ingenieurhydrologie und Ingenieurseismologie. Damit ist das Institut bestens aufgestellt, um sich fundiert und ausgewogen an der aktuellen Klimadebatte zu beteiligen.

In den vergangenen Monaten haben wir bereits zwei wichtige Forschungsarbeiten mit GFZ-Beteiligung hier im Blog vorgestellt. So berichteten wir im April 2012 über eine Studie zur Klimageschichte des Aralsees, die ergab, dass sich im Laufe der letzten zwei Jahrtausende trockene, staubige Phasen stets mit feuchteren, weniger staubigen Phasen im Takte der Temperatur- und Sonnenaktivitätsentwicklung abwechselten (siehe unser Blogartikel „Starke Sonne drängt den Staub am Aralsee zurück: Feuchtere Zeiten während Wärmeperioden“). Im Mai 2012 stellten wir dann GFZ-Forschungsergebnisse zu einer Kältephase vor 2800 Jahren vor, die durch geringe Sonnenaktivität ausgelöst wurde (siehe unser Blogartikel „Geoforschungszentrum Potsdam: Solarflaute vor 2800 Jahren löste Kälteperiode in Mitteleuropa aus“).

Im Juli 2012 erschien nun eine bemerkenswerte Sonderpublikation des GFZ in Zusammenarbeit mit Bild der Wissenschaft, die den Titel „Klimawandel: Was wissen wir wirklich?“ trägt. Im Folgenden wollen wir einige ausgewählte Passagen aus dieser Schrift zitieren. Das gesamte Heft kann über den Leserservice von Bild der Wissenschaft (leserservice@wissenschaft.de) bezogen werden.

 

Auszüge aus dem Vorwort von Prof. Reinhard Hüttl, Wissenschaftlicher Vorstand und Vorstandsvorsitzender des Deutschen GeoForschungsZentrums GFZ: 

Wer die Welt in die Kategorien Schwarz und Weiß aufteilt, liegt zwangsläufig falsch. Denn zwischen diesen beiden Extremen gibt es nicht nur einige, sondern beliebig viele Graustufen. Diese uralte Erkenntnis trifft auch auf die Klimaforschung zu. […] Da gibt es auf der einen Seite die sogenannten Klimaskeptiker […]. Das andere Extrem sind diejenigen, die in lebhaften Farben Katastrophen zeichnen […]. Wie so oft liegt die Realität zwischen den Extremen. […] 

Das Klima ist auch eng verknüpft mit den verschiedenen Teilsystemen der Erde, von den Strömungen in den Weltmeeren über die Vegetation an der Erdoberfläche bis hin zu den Vorgängen im Erdinneren. Zudem ist unsere Erde ein Planet und unterliegt wichtigen extraterrestrischen Einflüssen, und dies gilt in besonderem Maße für das Klima. […] 

Das [Klima] ändert sich auch, wenn der Mensch nicht mitwirkt. Klimamodelle können dieses komplizierte System daher nicht beschreiben – an sich benötigen wir modellhafte Abbildungen des gesamten Erdsystems. Aber auch damit ließe sich das Klima nicht planen, sondern allenfalls könnten wir seine Dynamik besser abschätzen. So wissen wir auch nicht exakt, welchen Anteil der Mensch am aktuellen Klimawandel hat und welcher Anteil den natürlichen Klimafaktoren zukommt. 

weiter lesenGeoForschungsZentrum Potsdam mit neuer wegweisender Sonderpublikation zur Klimadebatte

Ein dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen

Vor einigen Tagen unterbrach das führende klimaskeptische Blog Watts Up With That? (WUWT) seine sonst so emsige Tätigkeit. Wo im Normalbetrieb jeden Tag eine ganze Hand voll neuer Blogartikel erschienen, herrschte plötzlich lähmende Inaktivität. Der Betreiber der Webseite, der Meteorologe Anthony Watts, kündigte eine wichtige Pressemitteilung für den Abend des 29. Juli europäischer Zeit an. Die Gerüchteküche brodelte und die Vermutungen gingen in die verschiedensten Richtungen. Hoffentlich handelte es sich nicht um Anthony’s Gesundheit. Waren es vielleicht juristische Vorgänge im Hintergrund, die WUWT zum Stop zwangen? Nein, keines von beidem, beruhigte Anthony die Blogosphäre vorab. Aber man müsse noch Geduld haben.

Der angekündigte Veröffentlichungszeitpunkt rückte näher und die versprochene Meldung erschien pünktlich. Und Anthony enttäuschte nicht. In der Tat handelte es sich um die Bekanntmachung einer wichtigen neuen Publikation, bei der es um die Bestimmung des Erwärmungstrends der letzten 30 Jahre geht. Das Problem hatten wir bereits vor einigen Tagen hier im Blog vorgestellt (siehe unser Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…“). Es geht um die Frage, inwieweit die offiziellen Daten-„Korrekturen“ eigentlich gerechtfertigt sind. Wir hatten berichtet, dass die Daten-Änderungen seltsamerweise stets zu einer signifikanten Beschleunigung des Erwärmungstrends gegenüber den Rohdaten führte, obwohl Phänomene wie etwa der städtische Wärmeinseleffekt eher gegenteiligen Korrekturbedarf vermuten lassen sollten.

Als Autoren des neuen Papers sind neben Anthony Watts auch Stephen McIntyre und John Christy mit von der Partie. McIntyre ist durch seine beeindruckende Fehleranalyse des berühmt-berüchtigten Hockey Stick Diagramms bekannt. Christy ist angesehener Experte für Satelliten-Temperaturdaten von der University of Alabama in Huntsville. Das Manuskript soll in Kürze bei einem Fachmagazin zur Publikation eingereicht werden. Die Praxis, Manuskripte bereits vor Einreichung öffentlich bekannt zu machen geht auf Richard Muller vom Berkeley Earth Surface Temperature (BEST) Projekt zurück, der im June 2011 in einem Interview mit dem Scientific American gesagt hatte:

„Ich weiß, dass das Paper noch nicht zum Druck akzeptiert wurde. Aber in meinem Umfeld unter dem Nobelpreisträger Luis Alvarez war es gängige Praxis, Manuskripte bereits vor ihrer Publikation und sogar vor ihrer Einreichung möglichst weit zu streuen. Hierdurch erreichten wir eine sehr viel umfangreichere und weiter verteilte fachliche Überprüfung als durch die wenigen Fachgutachter der Fachzeitschrift.“ 

Das Ergebnis der neuen Studie ist erschreckend: Anstatt die durch den städtischen Wärminseleffekt überhöhten Temperaturen herunter zu korrigieren, haben die offiziellen US-Temperaturverwaltungsstellen offenbar die Daten von qualitativ verlässlicheren Stationen nach oben verändert, was kaum gerechtfertigt erscheint. Wenn sich das Ergebnis bestätigen sollte, wäre dies ein dicker Hund. Die Erwärmung der letzten Jahre wäre in den USA dann sehr viel weniger schnell von statten gegangen als immer angenommen. Da ähnliche Fehler auch im globalen Datensatz vermutet werden, könnte die Sache schnell weltweite Relevanz erlangen. 

Hier der Text der Pressemitteilung:

weiter lesenEin dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen

Was ist die Ursache der Tornado-Häufung von 2011 in den USA? Menschengemachter Klimawandel oder natürliche Variabilität?

Es muss wohl ein menschliches Grundgesetz sein: Alles wird immer schlimmer! Die Sommer werden immer heißer, die Überschwemmungen immer heftiger, die Hagelkörner waren noch nie so groß und die Kürbisse noch nie so klein. Irgendetwas verleitet uns offenbar, uns selbst in den Mittelpunkt der Geschichte zu rücken, um unsere eigene Wichtigkeit zu unterstreichen. Wie schön wäre es, wenn wir Teil einer ganz außergewöhnlichen, noch nie dagewesenen Entwicklung wären. Wir könnten froh sein, gerade in dieser Welt zu leben und wären unseren Vorfahren dadurch weit überlegen. Wie schlimm wäre es, wenn wir in einer Zeit leben würden, die nur Mittelmaß wäre, wo die Sommer auch nicht viel heißer wären wie zu anderen Zeiten, sich die Überschwemmungen im ganz normalen Rahmen bewegen, die Hagelkörner nur 08/15 wären und auch die Kürbisse halt ganz normale Kürbisse sind.

So oder so ähnlich könnte es auch mit den Stürmen sein. Immer wenn ein Sturm über das Land gefegt ist, melden sich kluge Zeitgenossen, die die Einzigartigkeit gerade dieses Sturmes und überhaupt der aktuellen stürmischen Zeiten hervorhebt. Was für eine schöne Schlagzeile. Die Leute lesen es gerne und der Name des Experten kreist einmal durch das Medien-Universum. Das bringt Bekanntheit, Expertenruhm, Ehrfurcht und auch endlich wieder neue wissenschaftliche Fördermittel.

Wir wollen uns in den kommenden Tagen etwas näher mit den Stürmen dieser Erde beschäftigen. Sind sie häufiger, stärker und gefährlicher geworden, wie man es immer wieder in den Medien hört? Oder erleben wir derzeit eine ganz normale Sturmtätigkeit, die sich von den letzten Jahrzehnten kein bisschen unterscheidet?

Im heutigen Artikel soll es um Tornados gehen. Was ist das eigentlich genau? Wikipedia erklärt es uns (leicht vereinfacht):

„Ein Tornado ist ein kleinräumiger Luftwirbel in der Erdatmosphäre, der eine annähernd senkrechte Drehachse aufweist und im Zusammenhang mit konvektiver Bewölkung steht. Der Wirbel erstreckt sich hierbei durchgehend vom Boden bis zur Wolkenuntergrenze.“ 

Und der Spiegel beschreibt uns wie man sich so einen Tornado vorzustellen hat: 

„Sie werden ehrfürchtig „Finger Gottes“ genannt: Tornados verwüsten in den USA regelmäßig ganze Kleinstädte. Die Luftwirbel kündigen sich bereits von weitem an: Zeugen erzählen von tiefem Brausen wie bei Wasserfällen, das stetig lauter wird und schließlich donnernd faucht. Zahlreiche Tornados ziehen jedes Jahr über Amerika hinweg.“ 

Es gibt sie aber nicht nur in Amerika. Auch in Deutschland treten sie laut dem Deutschen Wetterdienst (DWD) durchaus von Zeit zu Zeit auf, werden hier aber meist Windhosen genannt:

Die Zahl der Tornados in Deutschland habe nach Beobachtungen des DWD nicht zugenommen. 20 bis 60 Tornados werden pro Jahr registriert. „Aber das ist nur die Spitze des Eisbergs“, sagte Friedrich; manche Tornados würden gar nicht erkannt, weil sie über freies Feld zögen und keine Schäden anrichteten.

Auch im benachbarten Polen schlug im Juli 2012 ein Tornado mit voller Wucht zu, wie Die Welt am 16.7.2012 berichtete:

„Eine ungewöhnliche Tornado-Serie hat im Norden und Westen Polens schwere Zerstörungen angerichtet. Nach Angaben der Behörden wurde mindestens ein Mensch getötet. Zehn weitere seien verletzt worden. Besonders betroffen war am Sonntagabend offenbar die Region um den bei Touristen beliebten Nationalpark Bory Tucholskie. Hier wütete ein Wirbelsturm auf einer Breite von 800 bis 1.000 Metern. Die Tornados zerstörten Behördenangaben zufolge mehr als 400 Hektar Waldfläche und mehr als 100 Häuser; Strommasten wurden umgeknickt und Straßen mussten gesperrt werden, weil Bäume auf die Fahrbahn gefallen waren; Einige Züge mussten Umwege fahren, weil auch Gleise von Bäumen sowie anderen durch die Luft gewirbelten Gegenständen blockiert wurden.“

In den USA wüteten Tornados im Jahr 2011 besonders stark und führten zur zweithöchsten Anzahl von Tornado-Todesopfern in den letzten 137 Jahren. Wie immer nach solchen Tornado-Anhäufungen entflammt sogleich eine Diskussion, ob vielleicht der Klimawandel daran Schuld sein könnte. Ähnliche Diskussion über mögliche Hintergründe hat es stets gegeben. Im Jahre 1953 haben drei Tornados in den USA mindestens 90 Menschen das Leben gekostet. Sogleich wurde damals spekuliert, dass vielleicht Atomwaffentests in der Atmosphäre die Stürme ausgelöst haben könnten (siehe Bericht im New Scientist). Seltsamerweise hat es jedoch nie Ursachendiskussion gegeben, wenn die Tornado-Aktivität mal für ein paar Jahre abflaute. Ob vielleicht der Mensch an dem Ausbleiben der Tornados Schuld haben könnte? Diese Frage stellte keiner.

weiter lesenWas ist die Ursache der Tornado-Häufung von 2011 in den USA? Menschengemachter Klimawandel oder natürliche Variabilität?

La Ola im Ozean: Die klimazyklische Stadionwelle

Eines der großen Rätsel in den Klimawissenschaften ist, warum sich der IPCC so strikt weigert, die Ozeanzyklen bei den Temperaturprognosen zu berücksichtigen. Während im Hauptteil des letzten Klimaberichts ausführlich auf Zyklen wie etwa die Pazifisch Dekadische Osziallation (PDO) oder die Atlantische Multidekadenoszillation (AMO) eingegangen wird, sollen sie bei den Temperaturprognosen dann plötzlich keine Rolle mehr spielen. Das wäre doch nur alles ein wildes Rauschen und die Entwicklung der Zyklen weitgehend unvorhersagbar.

Interessanter Einwand. Machen wir doch einmal die Probe aufs Exempel. Vergleicht man die PDO-Kurve mit der globalen Temperaturentwicklung, so fällt eine erstaunliche gemeinsame Zyklik auf, die etwa 60 Jahre für einen Umlauf benötigt (Abbildung 1). Immer wenn die PDO anstieg, gingen auch die Temperaturen rauf. Und wenn die PDO absackte, wurde es auch wieder kühler bzw. stagnierten die Temperaturen. Der 60-Jahreszyklus ist dabei einem langfristig ansteigenden Temperaturtrend überlagert, der sich durch die Zunahme der Sonnenaktivität und möglicherweise dem CO2 erklärt. Offensichtlich vermag es der Ozeanzyklus, die Temperaturen um etwa 0,2°C nach oben oder unten zu verbiegen. Langfristig gleichen sich diese Modifikationen zwar aus, aber es ist überaus wichtig, den Anteil einer solchen Beeinflussung größenmäßig abzuschätzen. So geht wohl ein signifikanter Teil der starken Erwärmungsphase von 1977-2000 auf die ansteigende bzw. hohe PDO zurück. Der CO2-bedingte Anteil an der Erwärmung muss entsprechend geringer gewesen sein.

Abbildung 1: Die Pazifisch Dekadische Oszillation (PDO) besitzt eine Zyklendauer von ca. 60 Jahren und erhöht bzw. erniedrigt die Temperatur um jeweils etwa 0,2°C je nach PDO-Phase. Der Erwärmungsstop im Jahr 2000 fällt mit dem Abstieg der PDO zusammen und stellt eine Wiederholung der Situation aus den 1940er Jahren dar (Abbildung 25 in “Die kalte Sonne”).

Aber es gibt ja nicht nur die PDO, sondern eine ganze Flöte von weiteren klimasysteminternen Zyklen. Nehmen wir zum Beispiel die AMO. Auch sie besitzt einen etwa 60-jährigen Zyklus, der jedoch um 10-20 Jahre zeitverzögert zur PDO abläuft (Abbildung 2). Und auch die Nordatlantische Oszillation (NAO) schwingt in diesem Größenmaßstab. Ist es nicht verwunderlich, dass all diese Zyklen in ähnlichen Zeitmaßstäben schwingen, wenn auch nicht synchron?

Abbildung 2: 60-Jahreszyklik der PDO (oben) und AMO (unten). Quelle: the energycollective

Eine US-amerikanische Forschergruppe um Marcia Wyatt von der University of Colorado hat sich jetzt Gedanken über das Problem gemacht die sie 2012 im Fachjournal Climate Dynamics veröffentlichten. Die Wissenschaftler versuchen in ihrer Arbeit eine neuartige Sichtweise: Man sollte das Klimasystem nicht so sehr als Ansammlung von Klimaklötzchen sehen muss, wie es Klimamodelle tun, sondern vielmehr als ein eng miteinander verwobenes Netzwerk mit nahen aber auch fernen Verknüpfungen. Hierdurch können die Daten schlüssiger interpretiert und Trends besser herausgearbeitet werden. Insbesondere sehen die Forscher Hinweise darauf, dass sich klimasysteminterne Schwingungen wie beispielsweise die AMO im Klimasystem selbständig fortpflanzen und weitere Klimazyklen mit etwas Zeitverzug anstoßen. Die Autoren nennen ihr Modell daher „Die Stationwelle“.

weiter lesenLa Ola im Ozean: Die klimazyklische Stadionwelle

Mysteriöse Entkopplung von der IPCC-Theorie: Heiße Zeiten vor 10 Millionen Jahren, obwohl CO2 im Keller war

In den theoretischen IPCC-Rechenmodellen wird von einer starken Klimawirkung des CO2 ausgegangen. Dies würde sich so aus den Formeln ergeben, heißt es. Kritik ist unerwünscht. Auch der Hinweis, dass CO2 allein nur etwa 1,1°C Erwärmung pro CO2-Verdopplung ausmacht und die vom IPCC präferierten Werte von 2,0-4,5°C auf starken, noch weitgehend unerforschten Verstärkermechanismen beruhen, wird als wenig hilfreich von IPCC-nahen Wissenschaftlern angesehen. Vor kurzem berichteten wir über derartige Probleme mit dem vom IPCC vorgesehenen Wolken- und Wasserdampf-Verstärker.

Wenn die Theorie also noch nicht richtig unter Kontrolle ist und nicht richtig belastbar ist, könnte man ja einfach einmal in die Vergangenheit schauen. Wenn CO2 wirklich ein so potentes Klimagas ist, müsste es in der Vergangenheit die Temperaturen doch maßgeblich mit beeinflusst haben und zumindest über weite Strecken ein Gleichlauf zu erkennen sein. In Abbildung 1 ist die Entwicklung der CO2- und Temperaturentwicklung für die letzten 500 Millionen Jahre dargestellt. Eine Synchronität ist nicht zu erkennen. Im Gegenteil. Der letzte CO2-Höhepunkt vor 160 Millionen Jahren scheint in eine Abkühlung zu fallen. Und auch die ordovizische Eiszeit vor 440 Millionen Jahren ereignete sich bei sehr hohen CO2-Werten von mehreren tausend ppm. Große Enttäuschung: Der Realitäts-Check mit der Vergangenheit schlägt fehl. Die geologische Geschichte deutet an, dass CO2 gar nicht so ein toller Klima-Kraftprotz ist als der es sich aktuell ausgiebt.

 

Abbildung 1: Vergleich von CO2– (orange) und Temperaturentwicklung (violett) während der vergangenen 500 Millionen Jahre. Blau-umrahmte Kästen markieren Eiszeiten. Es ist keine allgemeine Übereinstimmung zwischen CO2 und Temperatur zu erkennen. Quelle: Cez Okno.

 

Im Juni 2012 erschien nun in Nature eine neue Arbeit einer US-amerikanischen Forschergruppe um Jonathan LaRiviere von der University of California in Santa Cruz. Die Wissenschaftler nahmen sich die geologische Phase des späten Miozäns, 12 bis 5 Millionen Jahre vor unserer Zeit. Die Globaltemperatur lag damals deutlich über den heutigen Werten und die Nordhemisphäre war fast eisfrei. Und genau hier lag das Problem: Der CO2-Gehalt der Atmosphäre war zu dieser Zeit vergleichsweise niedrig und lag nur bei 200-350 ppm. Zum Vergleich: Die heutige Kohlendioxid-Konzentration beträgt 390 ppm. Irgendetwas schien hier nicht zu passen. Wer oder was hatte sich erdreistet, die Temperatur so nach oben zu drücken, obwohl der CO2-Wert so im Keller war?

weiter lesenMysteriöse Entkopplung von der IPCC-Theorie: Heiße Zeiten vor 10 Millionen Jahren, obwohl CO2 im Keller war