Energiespeicher als Schlüssel zur effektiven Nutzung erneuerbarer Energien

Eines der großen Probleme der erneuerbaren Energien ist der noch immer fehlende hoch-volumige Energiespeicher. An einem sonnig-windigen Tag könnten Solaranlagen und Windmühlen doch mal so richtig zeigen, was sie eigentlich drauf haben und kräftig Strom auf Vorrat produzieren. Denn eins ist gewiss: Der Wind macht in Deutschland auch mal Pause und die düsteren Herbsttage werden kein Zuckerschlecken für die Solarbauern. Leider ist die Vorratsenergieproduktion durch Wind und Sonne im großen Stil technisch bislang noch nicht möglich.

Die Forschung hierzu läuft hierzu jedoch auf Hochtouren. Ein interessanter Ansatz ist die Erzeugung von Methanol als umweltfreundlicher Treibstoff für Verbrennungsmotoren. Ausgangsstoffe hierfür wären CO2 und Wasserstoff. Das Kohlendioxid ließe sich in Kohlekraftwerken abscheiden und der Wasserstoff könnte zum Beispiel mithilfe von überschüssigem Strom von Wind- oder Solarkraftanlagen erzeugt werden.

Die Süddeutsche Zeitung berichtete hierzu am 30.7.2012:

Methanol könnte einfach in der existierenden Infrastruktur von Tanks und Tankwagen gespeichert werden; die Flüssigkeit ist bereits ein Grundstoff der Chemieindustrie, aus dem zum Beispiel Formaldehyd erzeugt wird. Mit ähnlichen Argumenten treiben seit einigen Jahren Entwickler die Hersteller von „Windgas“ an, bei der aus überschüssigem Strom erst Wasserstoff und dann mit CO2 Methan gemacht wird, das sich wie Erdgas benutzen lässt. Bei beiden Ansätzen geht viel Energie für die Umwandlungen und chemische Prozesse verloren. Sie ergeben daher nur Sinn, wenn die Zutaten quasi kostenlos sind. Das könnte der Fall sein, wenn die Windräder – oder auch Solarmodule – sonst abgeschaltet werden müssten, weil ihr Strom wegen eines Überangebots gerade nicht verbraucht werden kann und sogar die Stabilität des Stromnetzes gefährdet. Und wenn CO2 als Abfallprodukt in der Zementherstellung, im Kohlemeiler oder idealerweise bei der Erzeugung von Biogas abfällt.

CO2 als einer der Ausgangsstoffe für nachhaltige Energieträger: Dies ist sicher vernünftiger als die Versenkung im Untergrund, insbesondere wenn die Klimawirkung des Kohlendioxids deutlich geringer ist als bislang vom IPCC angenommen. Zudem ist die CO2-Versenkung in Deutschland offenbar auch gar nicht durchsetzbar, was jetzt auch Bundesumweltminister Peter Altmaier nochmals bestätigte (SZ vom 25.7.2012):

Für die unterirdische Speicherung von Kohlendioxid sieht es in Deutschland schlechter aus denn je. Am [23.7.2012] hatte Bundesumweltminister Peter Altmaier (CDU) in der Saarbrücker Zeitung klargestellt, dass CO2-Einlagerung im Boden gegen den Willen der Bevölkerung nicht durchzusetzen sei – und momentan ist nicht absehbar, dass die Technologie in der Bevölkerung beliebter wird.  

Neben Methanol/Methan gibt es eine ganze Reihe weiterer potentieller Energiespeicherverfahren, die sich in der Erforschung befinden. Eines davon ist Carbazol, über das nordbayern.de kürzlich berichtete:

weiter lesen

Nationale Akademie der Wissenschaften Leopoldina empfiehlt den Ausbau der Bioenergie zu stoppen

Noch vor einiger Zeit galt Biosprit als wichtige Zukunftssäule einer nachhaltigen Energieversorgung. Auch im Zuge der deutschen Energiewende spielte diese Energiespielart bislang eine wichtige Rolle und wurde kräftig gefördert. Anders als Wind- und Solarstrom, muss man Biosprit nicht sofort verbrauchen, sondern kann den Energieträger bequem zwischenlagern, bis er wirklich benötigt wird. Die Speicherfähigkeit ist in der Tat ein großer Vorteil. Weniger schön hingegen sind etliche andere Aspekte der Bioenergie, die bei der politischen Rahmengesetzgebung und der Einführung offensichtlich leichtfertig übersehen wurden. Wer in dieser energetischen Sturm- und Drangzeit zu sehr auf diese Defizite hinwies, wurde sogleich als Gegner oder Saboteur der Energiewende hingestellt.

In unserem Buch „Die kalte Sonne“ haben wir die Aufbauphase der erneuerbaren Energien analysiert und Missstände aufgezeigt. Neben dem überhasteten Umbau ohne Berücksichtigung der Wirtschaftlichkeit und Wettbewerbsfähigkeit (siehe unser Blogartikel „Nach der Anfangseuphorie kommt jetzt die Ernüchterung: Überhastete Energiewende wird bald unbezahlbar“), hatten wir uns auch mit der Fragwürdigkeit der Bioenergie beschäftigt. In unserer Analyse konnten wir die massive Einführung von Biokraftstoffen als politischen Schnellschuss identifizieren, welcher als direkte Folge der allgemeinen CO2-Hysterie anzusehen ist. Auf Seite 348 schreiben wir hierzu in „Die kalte Sonne“:

Die Europäische Union hat für 2020 das Ziel vorgegeben, 10 Prozent der Kraftstoffe durch Bioethanol auf Weizen-, Roggen- oder Zuckerbasis sowie Rapsöl als Dieselersatz erzeugen zu lassen. Deutschland hat bereits – wie so häufig im Klimaschutz vorauseilend – für 2010 einen Biokraftstoffanteil von 6,25 Prozent und für 2015 8 Prozent gesetzlich festgelegt. Die CO2-Bilanz dieser Maßnahmen ist höchst fragwürdig. Allein durch die Kulisse der IPCC-induzierten Schreckensgemälde ist nachvollziehbar, dass mittlerweile 20 Prozent der deutschen landwirtschaftlichen Fläche mit Energiepflanzen bestückt ist. […]

Bedenkt man, dass allein der Zuwachs des Kraftstoffbedarfs in China in den nächsten 25 Jahren die fünffache Menge des deutschen Kraftstoffverbrauchs ausmacht und die zusätzliche Kraftstoffnachfrage eines halben Jahres in China das Biokraftstoffvolumen in Deutschland mehr als kompensieren würde, kommt man unweigerlich zu dem Ergebnis, dass die mit Hysterie geführte Klimadebatte auf eine rationale Basis zurückgeführt werden muss. Gegen Biosprit oder Biogas aus pflanzlichen Reststoffen ist prinzipiell nichts einzuwenden, doch vor einer Ausweitung der Flächen warnt der Vorsitzende des Bioökonomierats der Bundesregierung, Prof. Reinhard Hüttl mit deutlichen Worten, nämlich dass „die Nutzung der Bodenflächen in Deutschland weitgehend ausgereizt sei. Entsprechende Rückwirkungen auf die Boden- beziehungsweise Pachtpreise seien bereits deutlich spürbar.“ (BioÖkonomieRat 2010). In anderen Teilen der Erde hat der Energiepflanzenanbau bereits zu Rodungen des tropischen Regenwalds und zum Anstieg der Lebensmittelpreise geführt.

Noch im März 2012, als unser Buch erschien, wollten nur Wenige diese Warnungen überhaupt hören. Das schöne Bioenergie-Gedankenschloss wollte man sich wohl nicht zerstören lassen. Zu süß war der Traum, als dass man daraus aufwachen wollte. Stattdessen zogen Wissenschaftler und Politiker durch die Lande und verkündeten, dass sowieso alles falsch sein müsse, was in unserem Buch steht, denn es bildet ja nicht den angeblichen wissenschaftlichen Konsens ab.

So kann man sich irren. Mittlerweile sieht die Situation bekanntlich anders aus. Heute gibt es kaum noch jemanden, der die Sinnhaftigkeit großmaßstäblicher Bioenergie anzweifelt. Immer mehr Stimmen werden laut, dass man sich wohl früher in den Ökobilanzen verrechnet und das Dilemma „Tank oder Teller“ maßlos unterschätzt habe.

Ende Juli 2012 meldete sich nun die Nationale Akademie der Wissenschaften Leopoldina mit einer neuen Studie zur Bioenergie. Das Fazit der Untersuchung fällt eindeutig aus:

In einer Stellungnahme zu den Grenzen und Möglichkeiten der Nutzung von Bioenergie kommt die Nationale Akademie der Wissenschaften Leopoldina zu dem Schluss, dass Bioenergie als nachhaltige Energiequelle für Deutschland heute und in Zukunft keinen quantitativ wichtigen Beitrag zur Energiewende leisten kann. Im Vergleich zu anderen erneuerbaren Energieressourcen wie der Photovoltaik, der Solarthermie und der Windenergie verbrauche Bioenergie mehr Fläche und sei häufig mit höheren Treibhausgasemissionen und Umweltbeeinträchtigungen verbunden. Zudem konkurriere Bioenergie potenziell mit der Herstellung von Nahrungsmitteln. Vorrang solle der Einsparung von Energie sowie der Verbesserung der Energieeffizienz gegeben werden.

Die Süddeutsche Zeitung schrieb hierzu am 27. Juli 2012:

Die simple Logik, dass Pflanzen beim Wachsen auf dem Feld, Wald und Wiese so viel Kohlendioxid aufnehmen, wie sie später beim Verbrennen wieder freisetzen, ist nur ein kleiner Teil der Wahrheit. Daneben passieren lauter unübersichtliche Dinge beim Anbauen, Düngen, Ernten, Transportieren und Verarbeiten des Grünzeugs, die man nicht ignorieren darf. Die dabei verwendeten Maschinen verbrauchen Energie, die vollkommende Verwertung der Pflanzen schadet den Böden, wenn immer weniger Stroh untergepflügt wird, der Stickstoff aus dem Dünger landet als potentes Treibhausgas in der Atmosphäre. Und schließlich könnte eine globalisierte Biomasse-Wirtschaft schnell die Bedürfnisse der Ärmsten nach bezahlbarer Nahrung an den Rand drängen. Immer mehr Wissenschaftler senken darum den Daumen über die Bioenergie. Zuletzt auch die Nationale Akademie der Wissenschaften Leopoldina. Die „Verwendung von Biomasse als Energiequelle in größerem Maßstab [ist] keine wirkliche Option für Länder wie Deutschland“, stellt das Forschergremium in einer [Ende Juli 2012] veröffentlichten Stellungnahme fest. Sie empfiehlt, den geplanten Ausbau der Bioenergie zu stoppen. Das europäische Ziel, 2020 zehn Prozent des Treibstoffs für Autos aus Biomasse zu gewinnen, solle man überdenken. Und die Idee, Deutschland könne im Jahr 2050 fast ein Viertel seines Energiebedarfs aus einheimischen Pflanzen decken, so wie es die Szenarien der Bundesregierung vorsehen, empfinden die Forscher als geradezu irrwitzig.

In einem Vorbericht vom 26. Juli 2012 hatte dieselbe Zeitung bereits einen der Koordinatoren der Leopoldina-Studie zitiert:

weiter lesen

Warum fürchten sich so viele Forscher vor den solarsynchronen Millenniumszyklen?

Von Sebastian Lüning

Im Netz findet derzeit eine neue Episode der Klimadiskussion statt, ausgelöst durch einen kürzlichen Zeit-Online-Artikel von Toralf Staud (siehe unser Blogartikel „Kritik an der kalten Sonne auf Zeit Online: Was ist dran an den Vorwürfen?„). Die Antwort erschien zudem auf EIKE, wo sich im Zuge der Kommentierung auch Toralf Staud zu Wort meldete. Im Folgenden gehe ich abschließend auf einige interessante zusätzliche Punkte der Diskussion ein (der Kommentar ist auch im EIKE-Thread erschienen):

—————————————————

Sehr geehrter Herr Staud,

Ich freue mich wirklich sehr, dass Sie sich so intensiv mit unserer Arbeit beschäftigen. Diskussion ist ein wichtiger Bestandteil der Klimawissenschaften. Leider habe ich den Eindruck, dass Ihr Beitrag, diese Diskussion nicht richtig voranbringt. Anstatt sich mit richtig interessanten Problemen zu beschäftigen, stellen Sie abenteuerliche Verschwörungstheorien auf. Sie müssen davon ausgehen, dass mir die wissenschaftliche Arbeitsweise gut bekannt ist. In den letzten 15 Jahren habe ich mehr als 30 Fachartikel in internationalen geowissenschaftlichen Zeitschriften veröffentlicht und bin noch immer als Reviewer bei etlichen dieser Zeitschriften tätig. Zudem habe ich in den letzten Jahren sehr viel Literatur zum Thema Klimawandel gelesen und ausgewertet, vermutlich mehr als Sie.

Ich denke, Sie verfolgen da eine ganz falsche Spur. Die Frage sollte doch vielmehr lauten: Warum möchten so wenige Wissenschaftler über das Thema solarsynchroner Klimazyklen arbeiten bzw. hiermit in Verbindung gebracht werden?

Wenn eine Arbeitsgruppe die holozäne Klimaentwicklung eines bestimmten Gebietes untersucht und dabei Schwankungen/Fluktuationen/Zyklen entdeckt, bietet es sich einfach an, den Verlauf mit der Entwicklung anderer Gebiete zu vergleichen. Oft wird hierbei auch die Nordatlantik-Studie von Bond et al. (2001) herangezogen. Das besondere an dieser Studie ist, dass die Autoren klar zeigen konnten, dass sich das Klima synchron zur Sonnenaktivität zyklisch änderte. Warum sich Co-Autor Beer daran nicht mehr erinnern kann, bleibt sein persönliches Geheimnis.

Nun hat also die besagte Forschergruppe mit den Sauerland-Höhlentropfsteinen ihr Resultat auch mit Bond et al. verglichen und fand große Ähnlichkeiten. Nun sollten Sie sich als Journalist eine wichtige Frage stellen: Warum erwähnen die Autoren von Fohlmeister et al. denn in ihrem Paper nicht, dass weitgehende Synchronität zu Bond et al. (2001) auch Synchronität zur Sonnenaktivität bedeutet? Woher die Scheu, diesen offensichtlichen Zusammenhang explizit zu nennen? Und in weiterer logischer Fortsetzung: Warum will Manfred Mudelsee weder mit Bond et al. noch mit der Sonnenaktivität etwas zu tun haben? Sie sagen ja selbst, dass Sie die Abbildung 4 in Mudelsee et al. (2012) angeschaut haben. Natürlich sind dort kräftige Schwankungen zu erkennen, die durchaus zyklischen Charakter haben. Vergessen Sie dabei nicht, dass sich hier verschiedene Zyklenlängen überlagern und sich die Zyklenlängen in einem bestimmten Rahmen auch verschieben können. Das Endresultat muss daher keineswegs wie eine monotone Sinuskurve aussehen.

Grundsätzlich halte ich nichts von einer pedantischen Aufsplitterung der Papers. Das Höhlen-Projekt wurde von einer wissenschaftlichen Gruppe gemeinsam durchgeführt und die Ergebnisse dann auf verschiedene Papers aufgeteilt, so wie es heute üblich ist. Dies steigert die Anzahl der Publikationen, kann aber der Übersicht halber auch sinnvoll sein. Früher wären alle Ergebnisse in einer Monographie erschienen und die Zusammenhänge klar benannt worden. Ich halte ebenfalls nichts davon, sich nun auf Splitterergebnisse zu beschränken und so zu tun, als ob es die anderen Papers gar nicht geben würde.

Kommen wir nun aber zum wichtigsten Punkt: Warum ist es heutzutage als Wissenschaftler unklug, im Zusammenhang mit Bond et al. und Sonnenaktivitätszyklen genannt zu werden? Wie ich Ihnen bereits in der Vergangenheit versucht habe zu erklären, steckt hierin vermutlich einer der Schlüssel zur Klimadebatte. Wenn es sonnensynchrone Millenniumszyklen in der Vergangenheit gegeben hat, dann wird es sie auch heute noch geben. Und die Erwärmung der letzten 150 Jahre seit Ende der Kleinen Eiszeit passt genau in dieses Muster. In den letzten 100 Jahren hat sich das Sonnenmagnetfeld mehr als verdoppelt (nun geht es wieder zurück).

Ich hatte zu Bond et al. (2001) im Juli 2010 eine interessante Blog-Diskussion mit Stefan Rahmstorf. Er wollte mir damals weismachen, dass Bond später von seinen Zyklen wieder abgerückt wäre und sich die Zyklen nicht bestätigt hätten. Siehe http://tinyurl.com/cfaxbqv (Kommentar 1.8.2010, 22:44 Uhr).

Beide Behauptungen sind nicht richtig. Wie mir ein ehemaliger Doktorand von Bond mitteilte, verfolgte Bond diese Zyklen bis zu seinem viel zu frühen Tod weiter. Er war sogar als Co-Autor an weiteren Studien beteiligt, die den Zyklus bestätigen konnten. Mittlerweile hat eine Vielzahl von Papers den holozänen Bond et al. Klimazyklus in den verschiedensten Teilen der Erde nachgewiesen. Das neueste Paper sowie eine Karte mit den meisten Papers ist in einem kürzlichen Blogartikel im Kaltesonne-Blog erschienen:

weiter lesen

Nach der Anfangseuphorie kommt jetzt die Ernüchterung: Überhastete Energiewende wird bald unbezahlbar

In unserem Buch „Die kalte Sonne“ plädieren wir dafür, sich die notwendige Zeit dafür zu nehmen, erneuerbare Energieträger zielgerichtet auszubauen und diese Umstellung in ökonomisch vernünftiger Weise und nachhaltig zu gestalten. Ein hastiger Umbau ohne Berücksichtigung der Wirtschaftlichkeit und Wettbewerbsfähigkeit ist wenig zielführend und stellt ein unkalkulierbares Abenteuer für das Land dar.

Nach Beendigung der Anfangseuphorie der Energiewende setzt sich diese Sichtweise offenbar allmählich immer mehr durch. So schrieb Michael Bauchmüller am 10.8.2012 in der Süddeutschen Zeitung:

Im Kampf gegen die vermeintlichen Atom-Parteien CDU und FDP war die Sache für die Grünen einfach: 100 Prozent Erneuerbare forderten sie seinerzeit, und das schon bis 2030. Ob sie das wohl im nächsten Bundestags-Wahlkampf wieder fordern werden? Vielen Grünen schwant mittlerweile, dass sie mit der Forderung von damals in Erklärungsnot kommen werden, und das schon von Mitte Oktober an. Dann nämlich wird klar werden, wie viel der Ökostrom-Ausbau die Deutschen im nächsten Jahr kosten wird. Bisher zahlen die Stromkunden auf jede Kilowattstunde einen Aufschlag von 3,6 Cent dafür. […] Bis Mitte Oktober müssen die Betreiber der großen deutschen Stromnetze darlegen, wie viel die Ökostrom-Umlage in Zukunft kostet. „Da marschieren wir ganz klar in Richtung fünf Cent je Kilowattstunde“, heißt es schon beim ostdeutschen Netzbetreiber 50 Hertz. Mit anderen Worten: Die Umlage würde einen durchschnittlichen Vier-Personen-Haushalt nicht mehr 40 nEuro kosten, wie 2009, auch nicht 126 Euro, wie derzeit – sondern dann etwa 175 Euro im Jahr. […] „Ich gebe zu, dass die Sorgen groß sind“, sagt auch Hans-Josef Fell, der Ökoenergie-Papst seiner Fraktion. „Wenn man die Argumente in zwei Sätze packen muss, ist es nicht leicht durchzudringen.“ Zumal die Kritiker des forschen Ausbaus nur fünf Worte brauchen: So viel Ökostrom ist unbezahlbar.

——————————

Der stellvertretende Vorsitzende der CDU/CSU-BundestagsfraktionBundestagsfraktionsvize Arnold Vaatz rechnete Mitte Juli 2012 im Deutschlandfunk vor, warum die überstürzte Energiewende nicht funktionieren kann. Einige Auszüge aus dem Interview:

Einspeisekosten, Leitungsbaukosten, Verteilungskosten und Speicherkosten der geplanten Energiewende werden sich auf etwa 2,3 Billionen Euro belaufen, sagt Arnold Vaatz (CDU). Das Vorhaben sei ökonomisch „völlig unsinnig“ und vom Gesamtkonzept und Zeitplan her nicht einzuhalten.

weiter lesen

Die kalte Sonne mit Silbermedaille im European Energy Review – Medienecho vom 17.8.2012

Im Mai 2012 brachte European Energy Review ein ausführliches Interview mit Fritz Vahrenholt über unser Buch “Die kalte Sonne” sowie die Energiewende in Deutschland. Hierin schildert Vahrenholt die Beweggründe für das Buch, geht im Gespräch mit Redakteur Marcel Crok auf die Hauptkritikpunkte am Weltklimarat ein und erläutert die Bedeutung der wissenschaftlichen Neubewertung  für den Umbau der Energielandschaft in Deutschland. Das Magazin mit derzeit über 37.000 Abonnenten nähert sich dabei dem wichtigen Thema in vorbildhaft ausgewogener und unaufgeregter Weise.

Kurz vor der Sommerpause zog European Energy Review nun eine Bilanz und veröffentlichte eine Statistik, in der die zehn meistgelesenen Artikel des ersten Halbjahres 2012 genannt werden. Und hier das offizielle Endergebnis: Von den 75 angetretenen Artikeln erreichte der Bericht über Die kalte Sonne den zweiten Platz !  Übersetzt in die Olympia-Zählweise wäre dies die Silbermedaille ! Der Erfolg unterstreicht die Bedeutung des Themas sowie die Notwendigkeit zur kritischen Hinterfragung  der in der Vergangenheit als alternativlos angesehenen klimakatastrophistischen Sichtweisen.

——————————————–

Ulli Kulke beschäftigte sich Anfang August 2012 in seinem Blog Donner + Doria mit der ungewöhnlichen Hurrikan-Flaute im Nordatlantik und zitiert dabei auch unseren kürzlichen Blogartikel „Ein unerwarteter Rekord: Noch nie mussten die Vereinigten Staaten während der letzten 100 Jahre so lange auf einen starken Hurrikan warten !„. Hier ein Auszug:

Tatsache ist jedenfalls, dass kurz nach Katrina, im Oktober, noch einmal ein größerer Hurrikan über Florida herfiel, und seither die Atlantikküsten der USA von weiteren schweren Wirbelstürmen verschont blieben, mitterweile im siebten, gar nicht mal so verflixten Jahr. Die Betreiber des Klimablogs “Kalte Sonne” haben errechnet, dass es sich dabei sogar um einen Rekord handelt: “Noch nie mussten die Vereinigten Staaten während der letzten 100 Jahre so lange auf einen starken Hurrikan warten!” schreiben sie in ironischer Umkehrung der Katastrophen-Prophezeiungen aus der Klimaforschung. Für den Zeitraum seit 1970 ergibt die Statistik der Hurrikane jedenfalls keinen Trend, nicht nach oben und nicht nach unten. Dabei ist die diesjährige – kalendarische – Hurrikan-Saison in vollem Gang, bislang noch ohne nennenswerten Treffer.

Gewiss, die letzten, nahezu hurrikanlosen sieben Jahre sind noch kein langer Zeitraum, aber es überascht schon, wenn aus dem Weltklimarat in eben diesen sieben Jahren ständig die Botschaft kommt, der Anstieg der globalen Temperatur, besonders auch derjenigen in den Ozeanen, aus der ja die Wirbelstürme ihre Kraft ziehen, würde sich nahezu täglich beschleunigen. Wobei  gerade dies ja nicht nur von hartnäckigen Klimaskeptikern bezweifelt wird, sondern insgeheim auch von den Erwärmungspropheten, die sich gegenseitig schon mal mit der Frage: “Wo zum Teufel ist eigentlich die Erwärmung geblieben” ärgern – im internen Email-Verkehr wohlgemerkt, der im Zuge der “Climategate”-Affäre um den Weltklimarat an die Öffentlichgkeit kam.

Von Hurrikanen redet seither niemand mehr, andere Naturkatastrophen sind dafür ins Blickfeld gerückt und dienen nun als Beweis für die kommende Weltkatastrophe. Kann ja sein, dass sie auch irgendwie mit allfälligen veränderten klimatischen Verhältnissen zusammenhängen, aber sind die zwingenden Zusammenhänge, die einst mit den Hurrikanen aufgebaut wurden, einfach austauschbar, wenn die Wirbelstürme mal für einige Zeit ausfallen? Fluten, Dürren, Hitzewellen, alles dient mittlerweile als Beweis dafür, jeweils unter dem Begriff Extremereignisse. Und seit drei Jahren, seit die eisigen Winterperioden nicht mehr wegzudiskutieren waren, ist es so weit: Jetzt dienen auch sie als Beweis dafür, dass sich die Erderwärmung angeblich immer stärker beschleunigt – im Außenverkehr, wie man seit Climategate wohl hinzufügen muss. Da hat man doch den Eindruck, dass zwischen all den Gewittern eine heftige neue Beliebigkeit aufblitzt.

weiter lesen

Gruselige Extremwetter-Talkrunde im Geomar-Schuppen: ZDF pflegt das Klimahorror Genre

Nachdem sich die Temperatur seit 14 Jahren nicht mehr an die IPCC-Vorgaben hält, haben sich die Anhänger der Klimakatastrophe ein neues Betätigungsfeld gesucht, nämlich das Extremwetter. Dieser Bereich hat einige Vorteile. Seit jeher wird die Erde regelmäßig von Gewittern, Überschwemmungen, Dürren und Waldbränden heimgesucht. Jedes Jahr gibt es auf der ganzen Welt zahlreiche dieser Ereignisse, so dass es stets einen guten Aufhänger für das Schüren der Extremwetterangst gibt. Das Thema ist zudem ausreichend gruselig, so dass die Medien gerne darüber berichten. Und wer könnte an diesem Wetterchaos wohl Schuld haben? Natürlich, es muss ja wohl der alles kontrollierende Mensch sein, wer denn sonst. Beim nächsten Gewitter sollten wir uns daher ernsthaft Gedanken darüber machen, wie wir unser Benehmen auf dieser Erde verbessern könnten, damit wir in Zukunft von derlei atmosphärischen Strafen verschont bleiben. So oder so ähnlich wird es uns jedenfalls immer erzählt.

Am 25. Juli 2012 lief auf 3SAT die Wiederholung einer Klimatalkshow der anderen Art aus dem Genre des „Extremwetterhorror“. Der Film „Terra X: Wilder Planet – Mit Feuer und Flut“ stammt ursprünglich aus dem Jahr 2009 und ist in der Online-Mediathek des ZDF aufrufbar. Schon die Ankündigung lässt einen kalten Schauer über den Rücken laufen:

„Das Wetter wird immer extremer – mit Schuld daran ist der Klimawandel. Auch in Europa können sich in Zukunft extreme Unwetterszenarien abspielen: Hagelstürme, Trockenperioden, harte Winter. Naturgewalten sind unberechenbar. Sobald die Naturgewalt Wetter ihre gewohnten Bahnen verlässt, ist sie imstande regelrechte Katastrophen auszulösen – auch Europa blieb von solchen Schicksalsschlägen in der jüngsten Vergangenheit nicht verschont. Orkane, Starkniederschläge, extreme Hitze- und Kälteperioden, all das hat es auch in Europa gegeben. Wissenschaftler mahnen: Unwetter können sich in Zukunft häufen.“ 

Genüsslich werden im Film die Highlights der Extremwetterszene aus dem letzten Jahrzehnt präsentiert:

  • 2002: Jahrhundertflut in Deutschland und Osteuropa
  • 2003: Extremsommer mit Dürre in Südeuropa, starkes Gletscherschmelzen in den Alpen
  • 2005: Extremwinter in Europa, Alpenhochwasser
  • 2006: Sturm Kyrill
  • 2006: Überflutungen nach extremem Schneefall und anschließender Schmelze,
  • 2007: extreme Dürre südlich der Alpen

Zur Umrahmung der Handlung hat das ZDF eine Talk-Runde in einem Schuppen des Kieler Geomar Instituts inszeniert. Mit dabei ist der unvermeidliche Lokalmatador Mojib Latif, der Alpenexperte Albert Sudy von der Österreichischen Zentralanstalt für Meteorologie und Geodynamik sowie der Katastrophenmanager Wolf Dombrowsky. Der ganze Auftritt wirkt jedoch so steif und wenig spontan, dass die scripted reality schnell auffliegt. Etwas unbeholfen geben sich die Forscher gegenseitig Stichworte, was etwas komisch wirkt.

weiter lesen

Extremer Extremwetter-Artikel im Berliner Tagesspiegel: Zeit für einen Faktencheck

Wir haben an dieser Stelle bereits des Öfteren über das Extremwetter berichtet (siehe Artikelübersicht hier). Momentan ist Sommer, zumindest kalendarisch, und viele Protagonisten über die tagein tagaus in den Nachrichten berichtet wird, weilen derzeit im Urlaub. Aber auch in dieser Sauregurkenzeit müssen natürlich die Redaktionen irgendwie ihre Zeitungen vollkriegen. Am besten mit etwas Aufregendem, etwas das alle Leute angeht. Schön wäre auch, wenn es etwas gruselig wäre. Denn sowas wollen die Leute lesen. „Sollten wir vielleicht nicht mal wieder etwas über das Extremwetter machen?“ schlägt der Chefredakteur vor. „Gute Idee, da waren doch gerade ein paar Dürren und Überschwemmungen, da bastel ich schnell mal was Schönes zusammen“ antwortet der Kollege aus der Wissenschaftsabteilung. So oder so ähnlich könnte es in der ein oder anderen Redaktion ablaufen.

Wer am 23. Juli 2012 den Berliner Tagesspiegel aufschlug, wurde durch den Artikel „Dürren, Stürme und Überschwemmungen – Wetterextreme nehmen zu“ überrascht. Wetterextreme nehmen zu? Haben wir da vielleicht eine wichtige neue Publikation versäumt? Selbst der Weltklimarat IPCC gibt doch mittlerweile kleinlaut zu, dass es aufgrund der aktuellen Daten keine Grundlage für solch eine Annahme gibt. Das Extremwettergeschehen bewegt sich bislang noch immer im Bereich der natürlichen, historisch bekannten Schwankungsbreite. Wie kommt die Autorin des Tagesspiegel-Artikels, Dagmar Dehmer, auf die lustige Idee, Wetterextreme hätten bereits zugenommen? Wir begeben uns auf Spurensuche.

Dehmers Masche ist leicht zu durchschauen. Sie listet einfach alle Extremwetterereignisse der letzten anderthalb Jahre auf und hofft damit die Leser zu beeindrucken. Ab und zu streut sie die übliche Einschränkung ein, dass man ein einzelnes Ereignis selbstverständlich nicht eindeutig dem Klimawandel zuschreiben könne. Aber der Tenor ihres Artikels ist klar: Alles wird schlimmer, extremer, gefährlicher und der Mensch hat Schuld. Dabei versäumt es die Autorin, das aktuelle Extremwetter in den historischen Kontext zu stellen. Dazu muss man sich vor Augen halten, dass man im Prinzip über jedes einzelne Jahr des vergangenen Jahrhunderts einen solchen Extremwetter-Horror-Artikel schreiben könnte wenn man wollte (siehe z.B. Chronik extremer Wetterereignisse von 1900-1999 in Kurt Blüchels Buch „Der Klimaschwindel„).

Einen „gefühlten“ Trend einfach so zu behaupten, ohne ihn mit Daten belegen zu können muss man schlichtweg als unredlich bezeichnen. Die fragwürdige Arbeitsweise der Autorin zeichnete sich bereits im Februar 2012 ab, als sie in der Besprechung unseres Buches „Die kalte Sonne“ den seit mehr als einem Jahrzehnt bestehenden Erwärmungsstillstand als angeblich nicht bewiesen und lediglich verirrte These von bösen Klimawandel-Skeptikern einstufte (siehe unser Blogartikel „Erstes Medienecho“, letzter Absatz).

Schauen wir uns einmal im Detail an, was Dagmar Dehmer in ihrem aktuellen Extremwetterartikel so schreibt:

Die ersten sechs Monate [2012] haben [in den USA] alle bisherigen Hitzerekorde gebrochen. Die amerikanische Wetterbehörde NOAA hat gerade ihre Halbjahresbilanz veröffentlicht. Demnach sind alle sechs Monate von Januar bis Juni die wärmsten, die in den USA je aufgezeichnet wurden. In den südlichen Bundesstaaten herrscht die schlimmste Dürre seit Jahrzehnten.

In der Tat wütete in den USA diesen Sommer eine schlimme Hitzewelle, die mit einer ausgeprägten Dürre verbunden war. Allerdings vergisst die Autorin zu erwähnen, dass es ähnliche Hitzewellen und Dürren in den USA bereits in den 1930er Jahren gegeben hat (Abbildung 1). Auch muss man berücksichtigen, dass die angeblichen neuen Temperaturrekorde nur möglich waren, weil zwischenzeitlich die historischen Messwerte aus den 1930er Jahren durch fragwürdige „Datenkorrekturen“ künstlich nach unten gedrückt wurden (siehe unser Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…“). Ansonsten würde wohl 1936 noch immer den Temperaturrekord innehaben (siehe auch Beitrag hierzu von Roy Spencer).

Abbildung 1: US Hitzewellen-Index 1895-2008. In den 1930er Jahren litten die USA unter einer besonders starken Hitzewellenserie. Quelle: United States Environmental Protection Agency nach CCSP.

Dagmar Dehmer schreibt weiter: 

weiter lesen

Millenniumszyklen vor Florida: Neue Arbeit dokumentiert bedeutenden Einfluss der Sonne auf das Klima vor 7000 Jahren

Das Klima der vergangenen 10.000 Jahre war bei weitem nicht so stabil und monoton wie lange von führenden IPCC-Forschern angenommen. In den letzten zehn Jahren sind aus den verschiedensten Teilen der Erde Fallstudien publiziert worden, in denen ein zyklisches Schwanken des Klimas im 1000-Jahres-Maßstab dokumentiert worden ist (Abbildung 1). Die Klimaänderungen verliefen dabei weitgehend synchron zur Entwicklung der Sonnenaktivität, so dass Änderungen der Sonnenaktivität als Hauptklimaantrieb identifiziert werden konnten. Auch die Klimaentwicklung der letzten 1000 Jahre, einschließlich der Erderwärmung des 20. Jahrhunderts passen gut in dieses bekannte Schema.

Die lange unterschätzten natürlichen „Millenniumszyklen“ werden derzeit von einer ganzen Reihe von Forschungsgruppen untersucht. Die neueste Arbeit hierzu erschien im Juli 2012 im Fachmagazin Paleoceanography. Eine Forschergruppe um Matthew Schmidt von der Texas A&M University untersuchte einen Sedimentkern, der in knapp 200 m Wassertiefe aus dem Meeresboden der Floridastraße erbohrt wurde und die Klimageschichte der letzten 10.000 Jahre erschließt (Abbildung 1). Die Floridastraße ist eine 100 bis 200 Kilometer breite Meeresstraße zwischen dem US-Bundesstaat Florida und Kuba. Durch dieses Nadelöhr zwängt sich auch der Golfstrom auf dem Weg nach Norden, so dass das Gebiet ein wichtiges Verbindungsglied zwischen den Tropen und den hohen Breiten im Atlantik darstellt.

Abbildung 1: Literatur-Übersicht der von solarer Aktivität hervorgerufenen weltweiten Millenniums-Zyklen. Schwarzer Punkt markiert die neue Publikation von Matthew Schmidt und Kollegen aus der Floridastraße.

 

Schon länger ist bekannt, dass das Klimageschehen der Floridastraße eng an die Klimaentwicklung der hohen atlantischen Breiten gekoppelt ist. So stürzten während der Kleinen Eiszeit im Nordatlantik die Temperaturen ab, was im Meeresgebiet vor Florida zu trockeneren klimatischen Bedingungen führte. Ursache war eine Verlagerung der atmosphärischen Zirkulationssysteme, wobei sich die Hadley Zelle und die innertropische Konvergenzzone verschoben hatten.

Matthew Schmidt und seine Kollegen konzentrierten sich in ihrer neuen Studie auf die erste Hälfte der Nacheizeit, 9.000 bis 6000 Jahre vor heute. Waren hier möglicherweise ähnliche Klimamuster ausgebildet, also eine klimatische Austrocknung vor Florida während solarer Flauten und kühlen „Kleinen Eiszeiten“ zu verzeichnen? Zur Beantwortung dieser Frage erstellten die Forscher eine detaillierte Klimarekonstruktion für das Untersuchungsgebiet mit einer Auflösung von etwa 25 Jahren pro Datenpunkt. Die Temperaturentwicklung erfassten sie mithilfe des Magnesium-Kalzium-Verhältnisses von Schalen kalkiger Einzeller, den sogenannten Foraminiferen. Den Salzgehalt rekonstruierte das Team auf Basis von Sauerstoffisotopen. Das Alter der Schichten wurde über die Radiokarbonmethode bestimmt.

Das Ergebnis überrascht nicht: Auch in der frühen Nacheiszeit fielen die trockenen Zeiten in Florida mit Sonnenflauten zusammen. Wenn es sich im Nordatlantik und anderen Teilen der Erde abkühlte, blieb in der Floridastraße regelmäßig der Regen aus. Im Pazifik häuften sich gleichzeitig die El Nino-Ereignisse (Abbildung 2). Der solare Taktgeber wirkte sich zudem auch in vielen anderen Gebieten der Erde aus. So wurde in China während dieser sonnenschwachen Zeiten jeweils eine Abschwächung des asiatischen Monsuns registriert.

weiter lesen

Ein Pionier des Klimarealismus: Kenneth Hsü hatte die Wahl und entschied sich richtig

Kenneth Hsü ist ein ganz außergewöhnlicher Geologe. Als die Geowissenschaften das Land verließen und damit begannen, die Geheimnisse der Ozeanböden zu erkunden, war er in führender Funktion mit dabei. Hsü nahm im Laufe seiner Karriere an fünf wissenschaftlichen Ozeanbohrkampagnen teil die ihn in den Südatlantik, das Schwarze Meer und das Mittelmeer führten. Während seiner Laufbahn veröffentlichte Hsü mehr als 400 Arbeiten, darunter auch das bekannte populärwissenschaftliche Werk Das Mittelmeer war eine Wüste, in dem er seine Arbeiten über die Austrocknung des Mittelmeers vor 6 Millionen Jahren einer breiten Öffentlichkeit vorstellte. Hsü wurde 1967 zum Professor für Geologie an die ETH Zürich berufen und baute dort bis zu seiner Emeritierung gleich fünf international anerkannte Labore auf. Eines dieser Labore beschäftigte sich mit der Paläoklimatologie, also der historischen Entwicklung des Klimas. Im Laufe seiner Karriere diente Hsü den Geowissenschaften u.a. als Präsident der Internationalen Sedimentologen-Vereinigung (IAS), leitete mehrere internationale geologische Korrelationsprojekte der UNESCO, fungierte als Vorsitzender der Internationalen Kommission für marine Geologie, saß dem Komitee für Sedimentologie der Internationalen Union für geologische Wissenschaften vor und war Mitglied der schweizerischen Kommission der UNESCO. Für seine wissenschaftlichen Verdienste wurde Hsü mit zahlreichen wissenschaftlichen Preisen ausgezeichnet, darunter die Twenhofel-Medaille, die Wollaston-Medaille und die Penrose-Medaille. 

Über viele Jahrzehnte gehörte Kenneth Hsü zu den führenden Persönlichkeiten seiner Disziplin sowie den Naturwissenschaften. Man schätzte seine Forschung und sein wissenschaftliches Urteil, legte großen Wert auf seine geologischen Einschätzungen. Im Jahre 1994 wurde er an der ETH emeritiert und nahm im Anschluss eine Reihe von Gastprofessuren an verschiedenen Universitäten verstreut über den Globus an. 

Während dieser Zeit, im Jahr 2000, schrieb er ein weiteres wichtiges Buch, in dem er Zivilcourage zeigt und etwas ausspricht, was sich viele andere nicht getraut haben und sich heute noch nicht trauen. Kenneth Hsü hatte damals den Mut über den Klimawandel zu schreiben und die gängige Klimakatastrophentheorie anzuzweifeln. Er war sich darüber bewusst, dass er sich damit Ärger einhandeln würde. Aber er hatte die Fehlentwicklung deutlich erkannt und fühlte sich vor allem seinem Gewissen verpflichtet. Als Paläoklimatologe kannte er die Klimaentwicklung der letzten 10.000 Jahre wie kein anderer. Er wusste von den zyklischen Mustern der Temperaturgeschichte, die sich synchron zur Entwicklung der Sonnenaktivität bewegten. Hsü hatte den geologischen Kontext der vorindustriellen Zeit klar vor Augen und hatte erkannt, dass die Klimaerwärmung des 20. Jahrhunderts nichts weiter war als eine logische Fortsetzung des natürlichen Klimazyklus. Wer sollte es den Leuten erklären, wenn nicht er, der ausgewiesene und anerkannte Experte für das Klima der Vergangenheit? 

Dabei ist Hsü ein sehr höflicher Mensch. Am Ende seines Buches „Klima macht Geschichte – Menschheitsgeschichte als Abbild der Klimaentwicklung“ entschuldigt er sich fast dafür, dass er der gängigen CO2-getriebenen Sichtweise nicht folgen kann (S. 312): 

„In meinem Bemühen, eine falsche Theorie zu widerlegen, habe ich mir sicherlich den Zorn der Anhänger dieser Theorie zugezogen. Ich musste jedoch meine Wahl treffen, und ich habe mich dafür entschieden, nach besten Kräften der Wahrheit zu dienen, selbst wenn meine Schlussfolgerungen bei denjenigen Lesern, die sich mit politischer Korrektheit wohler dabei fühlen, weniger Anklang finden werden.“ 

Eigentlich wollte Hsü gar kein Buch schreiben sagte er. Erst die hartnäckigen Fragen eines Studenten überzeugten ihn, dass er seine wissenschaftlichen Daten und Argumente zu Papier bringen sollte. Der Student hatte Professor Hsü im Jahr 1996 angerufen und wollte von ihm zur Klimakatastrophe beraten werden: 

„Sie müssen uns wissen lassen, ob wir vor der Auslöschung stehen […] Ist die Treibhauskatastrophe nicht ein Ökozid? Ich habe erst letzte Woche einen Vortrag darüber gehört. Das Verbrennen fossiler Brennstoffe, so erklärte der Professor, wird den Planeten unbewohnbar machen. Er war der Ansicht, die Menschheit werde innerhalb der nächsten paar Jahrzehnte ausgelöscht werden, wenn nicht etwas sehr Einschneidendes geschieht. “ 

Hsü beruhigte den jungen Mann damals: 

„Der Mann hat Unsinn geredet. Wir haben gerade eine Kleine Eiszeit hinter uns, und die gegenwärtige Erwärmung ist ein natürlicher Trend. Außerdem ist eine globale Erwärmung in der Vergangenheit positiv für uns gewesen.  

Dies reichte dem wissensdurstigen Studenten offenbar nicht aus. Er hatte daher eine große Bitte an Hsü: 

„Ich fürchte, ich bin stärker verwirrt als je zuvor. Bitte schreiben Sie Ihr Buch.“ 

Und genau dies hat Hsü dann auch getan. Gleich zu Beginn erläuterte der renommierte Geologe jedoch auch, dass er sich vor keinen Karren spannen lässt und vor allem an objektiven Fakten und wissenschaftlich sauberer Logik interessiert ist: 

weiter lesen

Es war einmal: Direktor der britischen Climate Research Unit (CRU) sagte klimatische Abkühlung voraus

Zum Abschluss unserer kleinen Modellierungsreihe werfen wir heute einen Blick zurück in die Frühphase der Klimawandelprognostik. Wir schreiben das Jahr 1974. Die globale Durchschnittstemperatur war seit einem Wärmemaximum um 1940 leicht abgefallen. Der Sommer in Deutschland fiel buchstäblich ins Wasser. Die mit Gletschern und Packeis bedeckte Fläche auf der nördlichen Halbkugel wuchs stetig an. Der Spiegel berichtete in einem Artikel „Katastrophe auf Raten“ damals (12.8.1974): 

Kommt eine neue Eiszeit? Nicht gleich, aber der verregnete Sommer in Nordeuropa, so befürchten die Klimaforscher, war nur ein Teil eines weltweiten Wetterumschwungs — ein Vorgeschmack auf kühlere und nassere Zeiten.

Deutschlands Urlauber packten die Koffer — und der Himmel öffnete seine Schleusen: Unter Blitz und Donner, Hagelschlag und Wolkenbrüchen setzte sich der große Ferien-Treck in Bewegung. […] Als, wieder eine Woche später, in West-Berlin, Bremen und Niedersachsen der Urlauber-Exodus begann, herrschte zwischen München und Hamburg Herbstkälte. Am 11. Juli schließlich, dem Ferienbeginn in Baden-Württemberg, geriet das Wetter vollends aus den Fugen. Die rasch aufeinanderfolgenden Schauer-Staffeln, Gewitterfronten und Sturmtiefs entglitten kurzfristig sogar der Kontrolle der Meteorologen. „Wir konnten“, so bekannte Dr. Elisabeth Kleissen vom Hamburger Seewetteramt, „nicht einmal für einen Zeitraum von 24 Stunden genaue Prognosen liefern“ — „seit Jahren“, so erläuterte die Expertin, habe es über Deutschland keinen „so unangenehmen, unbeständigen Wettertyp“ gegeben. Kürzer umschrieb, im Namen der Urlauber, die Münchner „Abendzeitung“ die Lage — „Sauwetter, mistig’s“. Und „Bild“ sorgte sich: „Geht etwa der ganze Sommer kaputt?“ Er ist, kein Zweifel, kaum mehr zu retten. In Hamburg etwa gab es auch im Juli nur drei Tage ohne Regen, und nur an einem einzigen Tag stieg die Temperatur auf 25 Grad — „der Sommer“, witzelte die „Welt“, „fand an einem Montag statt“. […]

„Ganz hervorragend“, so Horst Laudien vom Reisebüro „Scharnow““ entwickelte sich unterdessen das Fluggeschäft: „Die Leute haben vom Regen die Nase voll“ — sie flüchten nach Süden. „Die extremen Wettersituationen“, erläuterte „Touropa“ -Sprecher Heinz Göckeritz, hätten in den letzten Jahren zugenommen. Alles in allem sei „halt das Wetter auch nicht mehr das, was es einmal war Eisberge wandern weiter südwärts. 

Zu diesem Allerweltsurteil sind die professionellen Wetterbeobachter schon längst gekommen. Spätestens seit 1960 wächst bei den Meteorologen und Klimaforschern die Überzeugung, daß etwas faul ist im umfassenden System des Weltwetters: Das irdische Klima, glauben sie, sei im Begriff umzuschlagen — Symptome dafür entdeckten die Experten nicht nur in Europa, sondern inzwischen in fast allen Weltregionen. Am Anfang standen Messdaten über eine fortschreitende Abkühlung des Nordatlantiks. Dort sank während der letzten 20 Jahre die Meerestemperatur von zwölf Grad Celsius im Jahresdurchschnitt auf 11,5 Grad. Seither wanderten die Eisberge weiter südwärts und wurden, etwa im Winter 1972/73, schon auf der Höhe von Lissabon gesichtet, mehr als 400 Kilometer weiter südlich als in den Wintern zuvor. 

Was war damals passiert? Der Erwärmungsstop ab 1940 (Abbildung 1) fällt ziemlich genau mit dem Abknicken der Pazifisch Dekadischen Oszillation (PDO), einem wichtigen Ozeanzyklus zusammen (Abbildung 2). Die kühlende Phase dieses Zyklus führte zum Absinken der Temperatur. Erst Ende der 1970er Jahre stieg die Temperatur dann wieder, als auch der PDO-Zyklus wieder kräftig nach oben ging (Abbildung 2). 

weiter lesen

Klimaerwärmung auch in der Badewanne

Klingt verrückt, ist aber wahr: Für alle Zweifler am Klimawandel hat die Firma Propaganda jetzt einen Badewannenstöpsel mit Eisbär auf einer einsamen Eisscholle entworfen. Bei Verwendung dieses Stöpsels wird einem der „Ernst der Lage“ endlich klarwerden, verspricht der Produktbeschreibungstext. Hier die Produktbeschreibung aus dem Discovery 24 Shop:   Klimaerwärmung auch in der Badewanne Schmelzende Polkappen, steigende Meeresspiegel, veränderte Niederschlagsmuster und zunehmende Wetterextreme – all das sind Folgen der globalen Erderwärmung. Und weil es immer noch nicht jeder wahrhaben will, hat Chaiyut Plypetch, Designer bei PROPAGANDA, mit dem Eisbären auf der einsamen Scholle ein sehr deutliches Symbol für den Klimawandel gefunden. Der …

weiter lesen

Kritik an der kalten Sonne auf Zeit Online: Was ist dran an den Vorwürfen?

Die Zeit hat sich in der Vergangenheit bereits ausführlich mit unserem Buch „Die kalte Sonne“ auseinandergesetzt. Dabei positionierte sich die Zeitung ganz klar auf der Seite des Weltklimarats und wischte die von vielen Seiten durchaus berechtigte Kritik an dieser UN-Organisation stets eilfertig vom Tisch. Jedes Mal haben wir uns der Diskussion gestellt, die Vorwürfe geprüft und entsprechend entkräftet.

 

Anfang März 2012 erhielten wir dann endlich die Gelegenheit, den Zeitlesern unsere Argumente zu erläutern:

 

Die Reaktion auf den Artikel war erschreckend: Es gab nämlich keine. Offensichtlich waren unsere Argumente schlüssig und man zog es daher vor, sich nicht weiter mit unseren Gegenargumenten zu beschäftigen.

Zu den treibenden Kräften der Zeit-Kampagne gegen unser Buch gehörte damals der freie Journalist Toralf Staud (siehe Foto oben rechts), der interessanterweise regelmäßig für das Greenpeace-Magazin schreibt. Ist mit einem solchen Hintergrund eigentlich eine unvoreingenommene Bewertung der wissenschaftlichen Fakten zu möglich? Hier müssen ernsthafte Zweifel angemeldet werden. Aus seinem Wikipedia-Lebenslauf wird weiterhin klar, dass er offensichtlich keinerlei universitäre naturwissenschaftliche Ausbildung vorzuweisen hat, was jedoch im datenintensiven Klimastreit von großem Nutzen wäre.

Nun ist seit der ersten Diskussionsrunde mit der Zeit ein halbes Jahr vergangen, da meldete sich Staud plötzlich erneut und wollte einen langen Fragenkatalog zu unserem Blog www.kaltesonne.de beantwortet haben. Er plane einen kritischen Beitrag auf Zeit Online und würde uns gerne die Möglichkeit einer Kommentierung von strittigen Punkten geben. Sebastian Lüning beantwortete diese Fragen bereitwillig. Der entsprechende Artikel ist heute (10.8.2012) auf Zeit Online erschienen („Forscher fühlen sich von Klimaskeptiker Vahrenholt instrumentalisiert“), und wir wollen die Vorwürfe von Staud hier diskutieren und prüfen.

 

Manfred Mudelsee und die Tropfsteinhöhlen im Sauerland

Im Juni besprachen wir in unserem Blog eine Arbeit Manfred Mudelsee, bei der es um die Klimageschichte im Sauerland anhand von Tropfsteinuntersuchungen ging (siehe unser Blogartikel „Mittelalterliche Wärmeperiode und Kleine Eiszeit in Höhlentropfsteinen des Sauerlandes“). Wir berichteten damals, dass es in den untersuchten Höhlen Hinweise auf bedeutende klimatische Schwankungen im 1000er-Jahresmaßstab gibt. Hierbei bezogen wir uns auf eine Abbildung in Mudelsee’s Paper (Abbildung 1). Die beschriebenen Schwankungen sind im Rohdatensatz klar erkennbar.

 

Abbildung 1: Sauerstoffisotopen-Daten für drei verschiedene Stalagmiten (rot, grün, blau) für die vergangenen 9000 Jahre. Abbildung aus Mudelsee et al. (2012).

 

Manfred Mudelsee war zudem als Co-Autor an einer anderen Publikation beteiligt (Fohlmeister et al. 2012), in der zum Teil sogar die gleichen Tropfsteine untersucht wurden (siehe unser Blogartikel „Klimatanz in der Bunkerhöhle während der letzten 10.000 Jahre im Takte der Sonne“). In dieser zweiten Studie erklären die Autoren nun kurioserweise genau das, was Mudelsee nun seltsamerweise versucht abzustreiten: Ja, es gibt Klimaschwankungen im Millenniumsmaßstab, genau wie in der Pionierarbeit eines Teams um Gerard Bond aus dem Nordatlantik, wo sie in einem Science-Artikel 2001 explizit beschrieben worden sind und mit solaren Aktivitätsschwankungen in Verbindung gebracht wurden. Zitat aus Fohlmeister et al. (2001, S. 1704):

“Therefore, climatic-related signals from the North Atlantic (e.g. the hematite-stained grains (HSG) record; Bond et al., 2001) and the Bunker Cave delta18O record are expected to show similar variations (Fig. 5). Cold periods as indicated by increased percentages of HSG indeed coincide in most cases with colder phases in Western Germany (high delta18O values in speleothem calcite).

Frage zur Plausibilität: Wie konnte Mudelsee die Millenniumszyklen-Interpretation im Fohlmeister et al.-Paper explizit als Co-Autor offensichtlich mittragen, während er nun anscheinend nichts mehr davon wissen will? Wie passt dies zusammen? Was steckt wirklich hinter dieser Kritik?

Ebenso mysteriös ist die im Zeit Online Artikel berichtete Reaktion von Jürg Beer, seinerzeit Co-Autor der wichtigen Nordatlantik-Studie des Bond-Teams:

Einer seiner damaligen Mitautoren aber, der Schweizer Umweltphysiker Jürg Beer, sagt zu den Schlussfolgerungen, die Vahrenholt und Lüning aus der Studie ziehen: „Das ist unseriös. Das kann man nicht machen.“

Mit solch einer pauschalen Kritik ist beim besten Willen nicht viel anzufangen. Weder nennt Beer einen plausiblen Grund, warum die Schlussfolgerungen „unseriös“ wären, noch scheint sich Beer an den Text seines eigenen Abstracts zu erinnern, in dem sowohl die Klimazyklik im Millenniumsmaßstab, als auch die Steuerung durch Sonnenaktivitätsschwankungen ausdrücklich genannt sind (aus Bond et al. 2001):

weiter lesen

IPCC-Modellierer machen so weiter wie bisher: Virtuelle Klimawirkung des CO2 erhöht sich auf Kosten der Sonne

Den wahren Wert einer Vorhersage erkennt man am besten im ehrlichen sportlichen Wettkampf. Man nehme eine Vorhersage, die möglichst zehn, zwanzig oder mehr Jahre alt ist, und vergleiche sie einfach mal mit der in der Natur real registrierten Entwicklung. Wenn alles passt, hat sich das Modell das Vertrauen ehrlich verdient. Falls sich jedoch größere Diskrepanzen ergeben, sollte man sich ernsthaft Gedanken darüber machen, ob das Modell wirklich auf den richtigen Grundlagen basiert. Mit kosmetischen Korrekturen ist es da nicht getan. 

Bereits im Juni 2012 haben wir bei uns im Blog einen Gastbeitrag von Prof. Jan-Erik Solheim gebracht, der genau solch einen Theorie-gegen-Praxis-Vergleich unternommen hat (siehe „Was ist eigentlich aus James Hansens Temperaturvorhersage von 1988 geworden? Zeit für eine Überprüfung“). Das Resultat war ernüchternd: Die von der Hansen-Truppe 1988 modellierte Temperaturvorhersage lag um etwa 150% daneben (Abbildung 1). 

 

Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988)

 

Im April 2012 hatten wir uns zudem eine Temperaturprognose von Hartmut Graßl vorgenommen, die er 1990 aufgestellt hatte (siehe unser Blogartikel „Graßl’s Erwärmungsprognose von 1990 droht dramatisch zu scheitern“). Auch hier sieht es überhaupt nicht gut aus. Das Ergebnis der Analyse: Die Temperatur müsste in den kommenden 8 Jahren um satte 0,75°C ansteigen, damit Graßls Vision noch Wirklichkeit wird. Hier sollte wohl Einigkeit über alle Lager hinweg herrschen: Dies ist schlichtweg unmöglich. Eine schöne Zusammenschau der fehlgeschlagenen IPCC-nahen Prognosen ist übrigens auch auf C3 Headlines erschienen. 

Anstatt sich nun die notwendigen Gedanken über einen Modellierungsneuanfang zu machen (siehe z.B. Anmerkungen von Roger Pielke, Sr.), wursteln die IPCC-Forscher einfach weiter herum so wie bisher. Offensichtlich lassen sie sich auch nicht dadurch beunruhigen, dass die Modelle weder den Temperaturstop der vergangenen 10 Jahre reproduzieren – geschweige denn vorhersagen – konnten, noch die Klimageschichte der letzten Jahrtausende in den Griff bekommen. So werden wir wohl auch im kommenden 5. Klimazustandsbericht keine Verbesserung erwarten können, wie eine Pressemitteilung der französischen Forschungsorganisation CNRS aus dem Februar 2012 erahnen lässt: 

Die französische Wissenschaftsgemeinschaft für Klimafragen hat kürzlich wichtige Simulationen zum vergangenen und künftigen Klima im globalen Maßstab abgeschlossen. Diese aktuellen Daten bestätigen die Ergebnisse des vierten Sachstandsberichts (2007) des Weltklimarats (IPCC) über die kommenden Veränderungen bei der Temperatur und der Niederschlagsmenge. Dabei wurden 2 Extremmodelle berücksichtigt: Ein Temperaturanstieg von 3,5 bis 5°C bis 2100 oder im günstigsten Fall ein Anstieg um 2°C. Von der internationalen Wissenschaftsgemeinschaft zur Verfügung gestellt, werden diese Ergebnisse vom IPCC zur Erarbeitung ihres nächsten für 2013 geplanten Berichts verwendet. […] Es bestätigt sich eine Intensivierung des Wasserkreislaufs und ein schnelles Abschmelzen des arktischen Packeises, das im schlimmsten Fall im Sommer 2040 oder 2060, je nach Modell, verschwunden sein wird. Die Simulationen, die das Klima und den Kohlenstoffkreislauf miteinander in Verbindung setzen, liefern neue Antworten.  

Das Gleiche gilt übrigens wohl auch für die Klimawirkung der Sonne, die im neuen IPCC-Bericht offenbar sogar noch weiter heruntergeschraubt wird (siehe unser Blogartikel „Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !“). Entsprechend wird die Klimawirkung des CO2 jetzt weiter nach oben gesetzt. In einer Klimamodellierungsarbeit einer Gruppe um Gerald Meehl, die im Juni 2012 im Journal of Climate erschien, wird jetzt von einer langfristigen CO2-Klimasensitivität von 3,2°C ausgegangen, was 25% höher ist als im Vorgängermodell (siehe Diskussion auf der NIPCC-Webseite). 

weiter lesen

Neue Modellierung der Universität Groningen deutet auf eine stärkere Beteiligung der Sonne am Klimageschehen hin

Ein Hauptproblem der diversen Klimamodelle ist die viel zu gering angenommene Klimawirkung der Sonne. Wie können die Temperaturen in den letzten 10.000 Jahren synchron zur Sonnenaktivität pulsiert haben, wenn doch die Sonne eigentlich kaum eine Rolle gespielt haben sollte? Dabei gibt es mindestens drei Stellschrauben, an denen die Modellierer nachbessern könnten. So werden derzeit keinerlei Solarverstärker berücksichtigt (siehe unser Buch „Die kalte Sonne, Kapitel 6). Weder der UV-Verstärker noch der Svensmark-Verstärker über die kosmische Strahlung und Wolken wurden bislang in Klimamodell-Szenarien umgesetzt.

Bei der dritten Stellschraube handelt es sich um eine Neubewertung der Sonnenaktivitätsschwankungen. Im Februar 2011 hatte ein schweizerisches Wissenschaftlerteam um Alexander Shapiro vom Davoser World Radiation Center im Fachmagazin Astronomy & Astrophysics eine Studie veröffentlicht, in der sie zeigen konnten, dass die Aktivität der Sonne in den letzten 400 Jahren wohl um den Faktor 6 stärker geschwankt hat als zuvor angenommen (siehe S. 65 in „Die kalte Sonne“). Was würde wohl passieren, wenn man die existierenden Klimamodelle mit diesem erhöhten solaren Änderungsbetrag füttert? Könnte die empirisch nachgewiesene signifikante Klimawirkung der Sonne vielleicht besser reproduziert werden als bislang möglich? Diese Frage scheint auch Hans van Hateren von der Universität Groningen umgetrieben zu haben. Er ließ nun eine Klimamodellierung mit der neuen schweizerischen Sonnenkurve durchlaufen, deren Ergebnisse er im Mai 2012 in Climate Dynamics veröffentlichte.

Van Hateren sieht die Klimaerwärmung von 1820 bis 1950 zu etwa 70% durch den Anstieg der Sonnenaktivität verursacht. Das ist interessant. Die nachfolgende Temperaturentwicklung interpretiert er hingegen überwiegend durch Treibhausgase und Aerosole. Hierbei verwendet er bezeichnenderweise den in der Branche beliebten Aerosol-Joker, um die Phase 1940-1977 abzukühlen. Den Effekt von Ozeanzyklen wie etwa der Pazifisch Dekadischen Oszillation sowie Zeitverzögerungen beim Aufbau von thermischen Gleichgewichten im trägen Klimasystem scheint er außer acht zu lassen. Hierdurch wird die Klimawirkung des CO2 an dieser Stelle wohl noch immer überschätzt. 

Trotzdem ist die Arbeit durchaus bemerkenswert. Van Hateren modellierte mit seiner stärkeren Sonnendnamyik nämlich auch die vergangenen 2000 Jahre (Abbildungen 1 und 2). Und oh Wunder, plötzlich kommen aus den Modellierungen Temperaturverläufe heraus, die sich parallel zu den historischen Temperaturrekonstruktionen und der Sonnenaktivität bewegen. Auch die Kleine Eiszeit kann auf diese Weise plötzlich gut mit der Solarflaute erklärt werden. Die von einigen Kollegen vorgeschlagene ominöse Vulkanausbruchsserie wird nun nicht mehr als Hauptauslöser benötigt. Die Mittelalterliche Wärmeperiode um 1000 n. Chr. und die Römische Wärmeperiode um das Jahr Null sind ebenfalls klar erkennbar (Abbildung 2). Der Autor führte auch Modellierungsversuche mit deutlich schwächeren Sonnenaktivitätsschwankungen durch. Diese erzielten jedoch eine viel schlechtere Übereinstimmung gegenüber den aus der Natur ermittelten Werten. 

weiter lesen

Klimamodelle scheitern an der Vergangenheit: Können wir ihren Vorhersagen trauen?

Das Klimamodellierungswesen ist ein trockenes Geschäft: Daten, Formeln und Kalkulationen. Das wirkt auf den Normalmenschen einigermaßen abschreckend. Daher wollen wir Teil 2 unserer kleinen Klimamodell-Serie mit etwas norwegischer Lyrik einleiten:

Hvis man ikke kenner fortiden,
forstår man ikke nåtiden,
og er lite egnet til å forme fremtiden. 

Übersetzt ins Deutsch:
Kennt man die Vergangenheit nicht,
versteht man auch nicht die Gegenwart
und ist kaum in der Lage, die Zukunft zu gestalten.

Was will uns der Autor damit sagen? Na klar, Klimamodelle, die nicht die Vergangenheit reproduzieren können, taugen auch für die Vorhersage der Zukunft nichts. Anders ausgedrückt: Wenn der Hindcast nicht funktioniert, dann kann auch der Forecast nicht klappen. Wiederum andere würden dazu sagen, dass wohl der „History Match“ in die Hose gegangen ist, der zwingende Voraussetzung dafür ist, dass ein Modell überhaupt ernstzunehmen ist.

Dabei reichte es bekanntlich nicht aus, nur die Klimaentwicklung der industriellen Phase heranzuziehen. Dort mischen sich anthropogene und natürliche Klimafaktoren viel zu sehr. Logischerweise sollte man die Modelle zunächst in der vorindustriellen Phase zum Laufen bekommen, wobei mehrere Jahrtausende Vergleichszeit Minimum sein sollten. Und gerade da hapert es. Die Modelle kriegen das Klima der letzten 10.000 Jahre einfach nicht in den Griff. Die Klimawirkung der Sonne ist in den Modellen viel zu schwach eingestellt, als dass die sonnenaktivitäts-synchronen Temperaturzyklen reproduziert werden könnten. Siehe z.B. unsere früheren Blogartikel:

 

Die Fehlschläge der Klimamodelle sind schon lange kein Geheimnis mehr. Im April 2012 berichtete der Focus (siehe auch Beitrag hierzu auf notrickszone):

Doch das IPCC, so [der Astrophysiker] Whitehouse weiter, habe überdies eine weitere Temperaturerhöhung von 0,2 Grad pro Dekade durch den anthropogenen Treibhauseffekt prognostiziert. Diese Erwärmung sei aber nicht eingetreten. „Wir stehen an dem Punkt, an dem der Temperaturstillstand die Klimaentwicklung dominiert. Das kann man nicht als unwichtig abtun, selbst wenn man es nicht über 30 Jahre sieht “, meint Whitehouse. „Es wird Zeit, dass das IPCC und die wissenschaftliche Gemeinschaft den Stillstand als Realität anerkennen.“ Für das Verständnis vom Klimawandel und seine künftigen Auswirkungen sei dies eine große Herausforderung. Zugleich werde damit deutlich, dass die wissenschaftliche Debatte über den Treibhauseffekt noch nicht abgeschlossen ist. Whitehouse weist auch darauf hin, dass Klimasimulationen, wie sie unter anderem das Hadley-Klimaforschungszentrum durchführt, zwar Stillstandsperioden hervorbringen, die ungefähr ein Jahrzehnt anhalten. In den Modellen treten sie in Abständen von etwa 80 Jahren auf. Doch keine Simulation habe bislang eine Pause von 15 Jahren erkennen lassen. Auch die Modelle, die auf dem Supercomputern des Hamburger Klimarechenzentrums laufen, zeigen solche Plateauphasen an. „Die physikalischen Ursachen sind noch unklar, und unsere Simulationen zeigen sie zu anderen Zeiten. Mit der gegenwärtig beobachteten Klimaentwicklung sind die Modelle also nicht konsistent “, gesteht Jochen Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie.

Und es gibt weitere Probleme. Ein Forscherteam um Ronald van Haren veröffentlichte im Mai 2012 eine Studie in der Zeitschrift Climate Dynamics, in der sie zeigen konnten, dass gängige Klimamodelle die Niederschlagsentwicklung von Europa im vergangenen Jahrhundert nicht in den Griff bekommen. Die in der Natur beobachteten globalen und regionalen Trends konnten in den Modellen nicht reproduziert werden. Da die Ursachen für die registrierten Niederschlagstrends noch nicht richtig verstanden werden, können auch die Klimamodelle nicht entsprechend nachgebessert werden, schreiben die Autoren in ihrer Studie (siehe auch Kommentierung von Roger Pielke, Sr.). 

weiter lesen