Kachelmann über Dürre-Warnungen der Medien: “Über 90 Prozent aller Geschichten zu Wetter und Klima sind falsch oder erfunden”

Am 26. April 2019 erschien auf Meedia.de ein ausgezeichnetes Interview mit Jörg Kachelmann:

Kachelmann über Dürre-Warnungen der Medien: “Über 90 Prozent aller Geschichten zu Wetter und Klima sind falsch oder erfunden”

MMEDIA: Wenn man Medien wie Bild, FAZ und “Tagesschau” diese Woche verfolgt hat, steht uns ein weiterer Dürre-Sommer wie im vergangenen Jahr bevor … müssen wir jetzt alle Angst haben?

KACHELMANN: Nein, alle diese Meldungen sind frei erfunden.

MMEDIA: Die genannten Medien berufen sich auf den Deutschen Wetterdienst – ist der denn nicht seriös?

KACHELMANN: Das ist eine Lüge. Der Deutsche Wetterdienst hat nie behauptet, dass es einen Dürresommer gäbe. Er schrieb nur, dass es einen geben könnte, wenn es nicht regnet, was nicht weiter überrascht. Daraus hat dpa dann einfach mal zugedichtet, dass der DWD vor einem Dürresommer warne. Das wurde dann kurz darauf korrigiert, aber die unbändige Lust der deutschen Medien an klickbarem Horror lässt sich durch eine solche Korrektur nicht mehr aufhalten.

Weiterlesen auf Meedia.

———————–

Peter Heller am 6. Mai 2019 auf Achgut:

Klimapolitik: Die große Simulation

Der gegenwärtigen Klimaschutzpolitik fehlt jede naturwissenschaftliche Legitimation. Auch die oft als Beleg des Gegenteils herangezogenen Sachstandsberichte des IPCC bieten keine solche. Tauchen in diesen doch Begriffe wie „Klimakatastrophe“ oder „Klimakrise“ nicht auf – und das aus guten Gründen. Zielmarken wie „zwei Grad“ werden zwar behandelt, aber nicht eingefordert. Wer anderes behauptet, betreibt Desinformation. Oder hat die IPCC-Berichte nie selbst gelesen und ist politisch gefärbten Interpretationen Dritter aufgesessen.

Denn die zukünftige Entwicklung komplexer, rückgekoppelter und von zahlreichen inneren und äußeren Faktoren beeinflusster Systeme ist nicht vorhersehbar. Allein schon, weil man niemals die Anfangsbedingungen in ausreichendem Umfang und mit ausreichender Güte kennen kann, um einen Ist-Zustand in einer Genauigkeit zu definieren, die es wenigstens gestattet, bestimmte Tendenzen auszuschließen. Da hilft auch kein noch so mächtiger Computer, dessen diskrete Arbeitsweise zudem immer das Abschätzen von Vorgängen erfordert, die sich auf Skalen unterhalb der rechentechnisch möglichen Auflösung abspielen.

Manche Prozesse, beispielsweise den so wichtigen Vorgang der Wolkenbildung, hat man ohnehin noch nicht gut genug verstanden. Klimamodelle sind geeignete Werkzeuge für Laborexperimente. Sie unterstützen die Entschlüsselung von Zusammenhängen. Sie gestatten, die Reaktion eines virtuell konstruierten Klimasystems auf die Variation von Einflüssen und Mechanismen zu beobachten und diese mit der Realität zu vergleichen, um neue Hypothesen zu formulieren und zu prüfen. Auf diese Weise gelingt es beispielsweise, die anthropogenen Emissionen als wahrscheinliche Ursache des Temperaturanstiegs der letzten Jahrzehnte zu identifizieren. Aber Glaskugeln, die einen Blick in die Zukunft erlauben, sind Klimamodelle genau nicht.

Weiterlesen auf auf Achgut

———————–

Sie kennen den Jetstream? Der verlagert sich im Laufe des Tages in spektakulärer Weise. Auf Metociel.fr finden Sie die aktuelle Position des Jetstreams sowie die Positionen der vergangenen Stunden und Tage. Klicken Sie hier und fahren mit der Maus am linken Rand der Karte auf die vergangenen Stunden, spannend.

———————–

Tagesanzeiger am 2. Mai 2019:

3000 Milliarden für die Energiewende
Klimapolitik: Eine neue Studie aus Deutschland legt dar, warum die Reduktion des Ausstosses von Treibhausgas teurer wird als bisher angenommen. Schweizer Politiker fordern eine ähnliche Untersuchung.

Artikel auf Tagesanzeiger.ch lesen (nur für Abonnenten).

———————–

Es ist in den letzten 100 Jahren wärmer geworden. Alles CO2, sagen die Klimawarner. Aber weshalb hat auch die Sonnenscheindauer zugenommen? Hat das CO2 die Wolken vertrieben? Lesen Sie hierzu in Alfred Brandenbergers Vademecum:

METOZURICH: Klimawandel bringt Sonne an den Tag

Deutschland 2018 mit Sonnenscheinrekord: Hat das CO2 die Wolken vertrieben?

Klimawandel in Österreich: Immer sonnenreicher

Juli 2018 in Deutschland – kein neuer Rekordmonat

 

Golfstrom vom arktischen Schmelzwasser weitgehend unbeeindruckt

Stefan Rahmstorf wird nicht müde zu folgern, dass das Golfstromsystem (AMOC, Atlantic Meridional Overturning Circulation) durch den Süsswassereintrag des schmelzenden Grönlandeises stark geschwächt wird. In seinem Klimalounge-Blog schrieb er Ende Januar 2019:

 ”Die Physik dahinter ist verstanden, wie die globale Erwärmung und Eisschmelze (beide zweifellos vom Menschen verursacht) die AMOC abbremsen…”

Am 26. April 2019 erschien von Dukhovskoy und Kollegen eine neue Arbeit in JGR Oceans, die zu dem Ergebnis kommt, dass das Schmelzwasser Grönlands die AMOC kaum beeinflusst:

Role of Greenland Freshwater Anomaly in the Recent Freshening of the Subpolar North Atlantic
The cumulative Greenland freshwater flux anomaly has exceeded 5000 km3 since the 1990s. The volume of this surplus fresh water is expected to cause substantial freshening in the North Atlantic. Analysis of hydrographic observations in the subpolar seas reveal freshening signals in the 2010s. The sources of this freshening are yet to be determined. In this study, the relationship between the surplus Greenland freshwater flux and this freshening is tested by analyzing the propagation of the Greenland freshwater anomaly and its impact on salinity in the subpolar North Atlantic based on observational data and numerical experiments with and without the Greenland runoff. A passive tracer is continuously released during the simulations at freshwater sources along the coast of Greenland to track the Greenland freshwater anomaly. Tracer budget analysis shows that 44% of the volume of the Greenland freshwater anomaly is retained in the subpolar North Atlantic by the end of the simulation. This volume is sufficient to cause strong freshening in the subpolar seas if it stays in the upper 50–100 m. However, in the model the anomaly is mixed down to several hundred meters of the water column resulting in smaller magnitudes of freshening compared to the observations. Therefore, the simulations suggest that the accelerated Greenland melting would not be sufficient to cause the observed freshening in the subpolar seas and other sources of fresh water have contributed to the freshening. Impacts on salinity in the subpolar seas of the freshwater transport through Fram Strait and precipitation are discussed.

Im Haupttext heißt es unter anderem:

“This result agrees with the previous study of Saenko et al. (2017), who also show that the GFWA of similar magnitude (and even double of this magnitude) has negligibly small impact on the SPNA thermohaline fields, barely impacting AMOC.”

GFWA bedeutet die Schmelzwasseranomalie von Grönland und SPNA subpolarer Nordatlantik. Eine Studie aus 2017 findet Ähnliches, sie wird von Rahmstorf im Januar 2019 selbstverständlich nicht erwähnt. Das Süßwasser aus Grönland wird bis in Tiefen von 1000 m hinab gemischt und damit ist die Menge praktisch bedeutungslos für die AMOC, findet die Arbeit. Was nun?

Seit Jahren hören wir aus bestimmten Kreisen der Klimaforschung, dass wir das Grönlandeis schmelzen und damit ein “Day after tomorrow”-Szenario heraufbeschwören und eine ganz aktuelle Arbeit findet, dass das nicht so ist. Wenn wir darüber berichten: Stellen wir damit die “Glaubwürdigkeit der Klimawissenschaft in Frage”? Oder bilden wir die Fortschritte in der Klimaforschung korrekt ab, denn es gibt ja die zitierte Arbeit? Klimawarner versuchen verzweifelt, das falsche Bild einer monolithischen “Klimawissenschaft” zu vermitteln, die es aber in Wirklichkeit gar nicht gibt.

 

Siehe auch unsere früheren Beiträge zum Golfstrom hier.

Nudging for Future

Von Uli Weber

Politik und Medien belehren uns zwar immer wieder, man könne vom Einzelnen nicht aufs Ganze schließen und Angst sei ein schlechter Ratgeber. Aber beim Klima ist das alles plötzlich ganz anders, da will uns Greta in Panik versetzen und wird dafür freitags von verängstigt schwänzenden Schülern gefeiert  – und alle zusammen werden dafür dann von Politik, Medien und Kirche hofiert. Und ein einzelner besonders heißer und trockener Sommer beweist wiederum letzteren bereits einen „menschengemachten“ Klimawandel und zwingt uns angeblich zu sofortigem Handeln.

Eine Suche nach dem Begriff „Klimaanpassungskonzept“ ergibt ungefähr 16.600 Ergebnisse in 0,26 Sekunden, beispielsweise das Klimaanpassungskonzept der Stadt Kaiserslautern. In der betreffenden Pressemitteilung heißt es, Zitate mit Hervorhebungen:

Die Anpassung an den Klimawandel ist eine gesamtgesellschaftliche Aufgabe und eine der zentralen Zukunftsaufgaben, der wir uns heute bereits stellen müssen“, so Umweltdezernent Peter Kiefer, der die Veranstaltung eröffnete und auch mit einem Schlusswort beendete. Aufhalten lasse sich, so der Beigeordnete, der Klimawandel nicht mehr. „Dazu ist es längst zu spät. Die Jahresmitteltemperaturen steigen an, das Wettergeschehen ändert sich. Hitzetage nehmen zu, Starkregen wird häufiger auftreten. Kostproben von dem, was kommen könnte, durften wir ja in den vergangenen Jahren bereits erleben.“

Kiefer: „Es ist schlimm genug, dass wir unseren Kindern den Planeten in diesem Zustand übergeben werden. Was aber noch viel schlimmer wäre, wäre, wenn wir nicht heute schon etwas dagegen unternehmen würden!“…

Wie Löbig anhand von lokalen Wetterdaten aufzeigte, ist der Klimawandel auch für Kaiserslautern kein abstraktes Zukunftsthema, sondern ein eindeutig fassbarer Prozess, der längst begonnen hat. Benden erläuterte sodann die vier Kernziele („Hitze mindern – Grün schaffen!“; „Schäden bei Starkregen minimieren!“;  „Klimaanpassung organisieren!“; Bürger und Unternehmen aktiv einbinden!“) sowie die damit verbundenen Einzelmaßnahmen.

Ideologien gehen ja üblicherweise ziemlich alternativlos mit den bürgerlichen Rechten um, aber heute gibt es sehr fortschrittliche Instrumente, mit denen man unschöne Bilder vermeiden kann. Man kann nämlich die betroffenen Menschen durch eine zielgerichtete psychomediale Hilfestellung in die erwünschte Denkrichtung „schubsen“.

Es ist Ihnen vielleicht auch schon aufgefallen, dass die täglichen Nachrichten, selbst in den regionalen Programmen, vermehrt über Extremwetterereignisse aus aller Welt berichten? Siehe z.B. NDR-Beitrag zum Zykon “Fani“ in Indien auf NDR Aktuell „=Nachrichten und Informationen aus dem ganzen Norden“ vom 3. Mai 2019 um 21:45 Uhr ab Minute 13:45. Es mag ja durchaus sein, dass Bhubaneshwar infolge der Globalisierung inzwischen dem „ganzen Norden“ zuzurechnen ist, auch wenn bislang offenbar noch nicht ganz klar ist, ob es sich der Freien und Hansestadt Hamburg, Mecklenburg-Vorpommern, Niedersachsen oder Schleswig-Holstein zugehörig fühlt.

Nun ist das Klima aber als der „Durchschnitt von 30 Jahren Wetter“ definiert und zu Beginn dieses Jahrzehntes hatte selbst das IPCC noch keinerlei Häufung solcher Ereignisse feststellen können (Zitate hier), aber plötzlich herrscht jetzt überall medialer Extremwetteralarm. Solche vermehrten Katastrophenmeldungen mögen dem wohlbetreuten Nachrichtenkonsumenten also durchaus eine Häufung von extremen Wetterereignissen nahelegen, wenn es schon keine überprüfbaren Beweise dafür gibt. Diese mediale Häufung lässt sich aber auch ganz einfach dadurch erklären, dass lediglich die politische Priorität für eine Verbreitung solcher Meldungen und deren geographischer Beobachtungsradius angestiegen sein könnten, und solche Meldungen deshalb vermehrt in regionale Nachrichtenformate implementiert werden, obwohl sie dort gar nicht hineingehören.

Und in einem modernen Problemlösungsworkshop könnte man Ihnen dann sogar noch die Fiktion vermitteln, einen beliebigen und vorher bereits festgelegten Entscheidungsprozess selber aktiv mitgestaltet zu haben. Nehmen wir einfach einmal ein ganz unverfängliches Beispiel aus dem kommunalen Klimaschutzprogramm des Umweltbundesamtes:

 

Abbildung: Aus der DOKUMENTATION DES AUFTAKTWORKSHOPS: „LEBENSWERTE STADT IM KLIMAWANDEL“ AM 31. JANUAR 2013 IM WERKHOF HANNOVER NORDSTADT (Seite 8). PROJEKT: KOBE – KOMMUNEN BEFÄHIGEN, DIE HERAUSFORDERUNG DER ANPASSUNG AN DEN KLIMAWANDEL SYSTEMATISCH ZU BETREIBEN (Quelle UBA)

 

Dabei wird üblicherweise zunächst von Fachleuten ein konkretes Handlungskonzept ausgearbeitet. In einer moderierten Veranstaltung wird zuletzt die Zielgruppe zu einem „Brainstorming“ für Lösungsansätze zu diesem Thema aufgefordert, wie die nachfolgende Abbildung ohne jede Unterstellung lediglich beispielhaft zeigen soll:

Abbildung aus einem Vortrag von Hans-Joachim Ritter, Stadtverwaltung Speyer: Integriertes Konzept und innovative Strategie zur Klimaanpassung (Quelle UBA)

 

In einer Kaffeepause könnte ein solches Brainstorming-Ergebnis dann auch systematisch dahingehend geordnet werden, dass sich rein zufällig das vorher ausgearbeitete Handlungsschema abbildet. Danach würde man schließlich die einzelnen Handlungsfelder wiederum nach demselben Schema in Kleingruppen gezielt ausarbeiten und so am Ende das bereits vorher festgelegte Handlungskonzept bestätigen.

Den ersten Vorgang nennt man übrigens „Nudging“, den zweiten könnte man als „zielgeführte Meinungsbildung“ bezeichnen.

Nach dem Ausstieg der USA aus dem Pariser Klimaabkommen sollen sich die Anstrengungen im „Klimaschutz“ jetzt von der (inter-)nationalen Bühne verstärkt auf die regionale und lokale Ebene verlagert haben. Es handelt sich hierbei im Wesentlichen darum, den CO2-Ausstoß zu minimieren oder ganz zu vermeiden. Und wenn wir dann noch ein ganz kleines Stückchen weiter „geschubst“ werden, kommt man ganz von selbst auf die Notwendigkeit einer globalen CO2-Steuer, für die wir hier in Deutschland natürlich wieder einmal die internationale Vorreiterrolle übernehmen müssen, „weil das Klima keine Grenzen kennt“.

Für eine sinnvolle Anpassung an den natürlichen Klimawandel, wie beispielsweise an eine neue „Warmzeit“ oder eine neue „Kleine Eiszeit“, bleibt dann allerdings nicht mehr viel Geld übrig. Und obwohl „das Klima keine Grenzen kennt“, wird sich bei solchen natürlichen Klimaschwankungen in den Tropen und Subtropen relativ wenig tun. Die Klimawissenschaft behauptet beispielsweise immer noch, dass es sich bei der „Mittelalterlichen Warmzeit“ und der „Kleinen Eiszeit“ lediglich um regionale Ereignisse gehandelt haben soll. Allerdings hatten sich diese „regionalen Ereignisse“ demnach ausgerechnet hier bei uns in mittleren geographischen Breiten abgespielt. Das Geld für eine Anpassung an den natürlichen Klimawandel würde also auch ganz regional hier bei uns benötigt werden, und wir sollten es dann als neuerlicher „Vorreiter“ nicht einfach wahllos global zum Fenster hinaus schmeißen…

Schauen Sie einfach einmal im Internet ganz konkret unter „Klimaanpassungskonzept“ für Ihre Stadt/ Ihren Landkreis nach, was Ihnen dort für die örtliche Weltklimarettung so alles angeboten wird. Vielleicht erfahren Sie dann ja auch, dass dort bei Ihnen längst der „Klimanotstand“ ausgerufen worden ist. Man muss sich jetzt allerdings fragen, was die offizielle Ausrufung eines solchen „Klimanotstands“ praktisch-juristisch bedeuten mag, denn der Begriff „Notstand“ weist ja üblicherweise auf katastrophale Verhältnisse hin. Also schauen wir einmal bei Wikipedia nach, Zitat:

Notstand ist der Zustand gegenwärtiger Gefahr für rechtlich geschützte Interessen, dessen Abwendung nur auf Kosten fremder Interessen möglich ist.

Also, einem „Klimanotstand“ ist nur auf Kosten fremder Interessen abzuhelfen. Der Autor wird hier nicht darüber spekulieren, wessen Interessen das sein mögen und auf welche Weise einer solchen Gefahr für das Klima abgeholfen werden soll. Aber klar ist schon einmal, dass hier auf kommunaler Ebene  eine Priorisierung des Klimaschutzes gegenüber anderen schutzwürdigen Interessen erfolgen soll. Auf der Internetpräsens des Deutschen Bundestages findet man dann die nachfolgende Meldung, die ein solches Bild sinngebend abrundet, Zitat:

Um einer „Klimakatastrophe“ entgegenzuwirken, wollen Bündnis 90/Die Grünen den Klimaschutz im Grundgesetz verankern. Über einen entsprechenden Antrag der Fraktion (19/4522) hat der Bundestag am Donnerstag, 27. September 2018, erstmals eine Stunde lang debattiert und ihn dann zur Beratung in den Ausschuss für Inneres und Heimat überwiesen. Unterstützung bekam das Vorhaben nur von der Fraktion Die Linke.“

Und mit einer solchen Verankerung des Klimaschutzes im Grundgesetz würde dann ein „Klimanotstand“ unmittelbar mit den bürgerlichen Rechten und Freiheiten kollidieren.

Der mündige Bürger möge also sehr gut aufpassen, in wieweit er sich für eine „gute Sache“ im Mäntelchen des Klimaschutzes instrumentalisieren lässt. Der politisch gesteuerte Prozess, unsere Industriegesellschaft durch diverse Kehrtwenden (Energie-, Verkehr- und Agrar-) ins ökologische Mittelalter zurück zu transformieren, hat nämlich schon längst begonnen. Und vom Jahre 2020 an belieben die westlichen Industrienationen dann auch noch jährlich 100 Milliarden US-Dollar über einen „Green Climate Fund“ an den Rest der Welt auszuschütten – als Dank für deren Unterschrift unter den Pariser Klimavertrag zur globalen Dekarbonisierung bis zum Jahre 2100. Allein zur Erfüllung unserer pekuniären Klimaverpflichtungen aus diesem „Green Climate Fund“ kommen wir bei sinkenden Steuereinnahmen also um eine CO2-Steuer gar nicht mehr herum. Und der nächste weltumspannende UN-Krake steht bereits in den Startlöchern, um auch noch den letzten Rest unserer wirtschaftlichen Ressourcen zwecks vorgeblicher Rettung der Artenvielfalt über den gesamten Globus zu verteilen.

Zeitnah nach der Europawahl 2019 werden uns die Vasallen der Raute also freudig verkünden müssen, die CO2-Steuer sei nun eben da, aber niemandem werde etwas weggenommen…

 

Jean Jaques Rousseau: “Das Individuum bemerkt nur schwer die Vorteile, die es aus den ständigen Einschränkungen ziehen soll”

Wie hoch ist der CO2-Ausstoß batterieelektrischer Autos? Diese Frage wird derzeit heiß diskutiert. Hier im Blog hatten wir bereits über die Sichtweisen und Argumente des ifo-Instituts sowie von Stephan Witt berichtet (hier und hier). Im Folgenden eine weitere Leserzuschrift zum Thema:

Zu der abgedruckten Kritik “Herr Prof Sinn hat das e- Fahrzeug schlecht geredet”.

1. Es ist völlig egal nach welcher Norm verglichen wird, es muss nur die gleiche sein, um Fahrzeuge untereinander vergleichen zu können. Nefz ist nicht falsch, sie gibt nur weniger real den Praxisbetrieb wieder als wltp. Fazit: Augenwischerei des Kritikübenden.

2. Sehr wohl ist es erheblich, wenn man den Tank eines Diesel Fahrzeugs halbiert. Der Gewichtsunterschied macht sich deutlich messbar im Verbrauch bemerkbar. Gilt bei allen Fahrzeugen. Die Energiedichte von kohlenwasserstoffbasierenden Flüssigkeitstreibstoffen ist 20 mal höher als bei Akkulumatoren. Allein diese physikalische Tatsache macht e- Mobilität faktisch obsolet. Da schliesse ich mich der Aussage von Herrn Lüdecke an. Zudem: man wende den Ultra-leichtbau der bei e-Fahrzeugen notwendig ist, bei einem Dieselfahrzeug an. Dies würde die Verbräuche des Diesels noch weiter reduzieren.

3. Ich denke es läuft auf eine Patt-Situation zwischen Diesel und e- Fahrzeug hinaus, was den CO2 Ausstoß angeht. Wenn man nun jedoch alle anderen erheblichen Nachteile der e-Mobilität betrachtet, wird der Wunsch nach dieser absurd.

4. Die verhaltensabhängige reale Reichweite und Lebensdauer der Akkus ist tatsächlich schwer kalkulierbar. Allerdings will niemand im Winter frieren und sich im Sommer zu Tode schwitzen. Und Akkumanagement…fein…was die Lebensdauer angeht, wird die Praxis zeigen wie es tatsächlich aussieht.

5. Second Life der Akkus in Powerstations zur Stromspeichrung: mal bitte Fachartikel von Brandschutzexperten dazu lesen. Die Brandlast in solchen Stationen, macht erhebliche Sicherheitsmaßnahmen, neue Löschverfahren und viele weitere Massnahmen nötig. Der Aufwand ist gewaltig. Das muss man auch mal rechnen ob 2. Life dann im grossen Stil noch sinnvoll wäre. Vielleicht auch mal was für Herrn Sinn.

Gesamtfazit: Detailkritik ist in Teilen gut und richtig. Herr Sinn ist sehr sorgfältig und wird sicher nachbessern. Dennoch ändert die Kritik kaum etwas an der physikalischen Tatsache, dass e- Mobilität nur in ganz bestimmten engen Grenzen bei Klein- und Kleinstfahrzeugen Vorteile bringt. Die grosse Lösung ist es aber eben bei weitem nicht. Und die Anmerkungen im Zusammenhang mit der Energiewende,  was denn e-Mobilität damit zu tun hätte: beide Narrarive sind unmittelbar miteinander verknüpft und damit ist die Kritik auch diesbezüglich obsolet.

Noch ein Gedanke: der Löwenanteil des Welthandels wird über den Seeweg transportiert. Ein grosser Containerfrachter verbraucht rund 50 Tonnen Schweröl Ifo 380, und noch weiter katalytisch gecrackte Destilate, pro Tag. Wie gedenkt man denn also diese wirklich dicken Bretter zu bohren?!

—————-

Und hier noch eine Leserzuschrift zum Beitrag von Uli Weber “Der Niedergang der seriösen Wissenschaft bedeutet auch das Ende unserer Industriegesellschaft“:

Uli Weber hat da einen sehr interessanten und gut geschriebenen Beitrag heute gebracht. Ich möchte darauf hinweisen, dass das Drehbuch der Großen Transformation der Contrat Social des Jean Jaques Rousseau ist (1762). Das steht ja im WBGU 2011: Wir benötigen eine neuen Contrat Social, um den fossil/nuklearen Metabolismus (Das ist übrigens wörtlich gemeint) zu überwinden. Was hat das mit dem Text von Herrn Weber zu tun?

Dort, im C.S. ist zu lesen: “Um wirklich die Aussage des Gemeinwillens zu bekommen, ist es wichtig, dass es im Staat keine Teilgesellschaft gibt. … Wenn es aber solche gibt, dann ist ihre Zahl zu vervielfachen und ihrer Ungleichheit vorzubeugen.” Das erklärt dieses Copernicus-Phänomen genauso wie die Vielzahl an NGOs. Global Governance zielt auf die Vereinheitlichung der Meinung ab. Wer der Souverän über diese Meinung jedenfalls nicht ist, dürfte klar sein: Sie nicht! Und ich auch nicht. Wer ist es nur?

J.J. Rousseau bleibt da im Unklaren, z.B mit diesem Satz: “Man muss dem Volk die Dinge zeigen wie sie sind, manchmal wie sie ihm erscheinen müssen, ihm den richtigen Weg zeigen, den er sucht, ihn schützen vor der Verführung durch die Sonderwillen der Einzelnen, ….” Und auch sehr schön: “Das Individuum bemerkt nur schwer, die Vorteile, die es aus den ständigen Einschränkungen ziehen soll,….”. Wer diesen ganzen Wahnsinn – ob Klimawandel, Global Compact för Migration oder Pariser Verträge oder Global Governance – verstehen will, der muss sich mit Ökosystemtheorie und mit der Theorie sozialer Systeme beschäftigen. Das fängt spätestens bei J.J. Rousseau an.

—————-

Und schließlich noch ein Beitrag zu “Um Antwort wird gebeten”:

Von: Ulrich Berger
An: Karsten Schwanke

Datum: 2. Mai 2019

Sehr geehrter Herr Schwanke,

heute früh haben Sie im MoMa eine Grafik gezeigt, die Millionen Jahre Klima-Entwicklung zeigte. Dann haben Sie – ohne die parallele CO2-Entwicklung zu zeigen, dargelegt, dass “immer dann”, wenn CO2 hoch war, auch das Klima warm war. Der unbedarfte TV-Zuseher sollte natürlich (und hat er wohl zumeist auch) schließen, dass CO2 die Ursache für Wämeperioden ist. Sie haben also nichts anderes getan, als “uns” das Glaubensbekenntnis der hl. Klimakirche einzuhämmern.

Allerdings zu Unrecht (zumindest mit dem, was Sie an Daten darstellten). Denn: Wie Sie wohl wissen dürften, ist die zeitliche (also auch kausale!) Reihenfolge bzgl. Temperatur und CO2 exakt umgekehrt, als Sie und die ganze übrige Klimakirche uns einreden wollen: Das CO2 stieg in jenen Millionen Jahren immer erst hunderte Jahre NACH dem Beginn natürlicher(!) Erwärmungsphasen an – indem es nämlich aus sich erwärmenden Böden, Ozeanen etc. freigesetzt wurde.

Mit Sicherheit wissen Sie das alles – Fachmann der Sie sind. Umso schlimmer. Pfui! Ich nehme Ihnen (wie dem gesamten öffentlich-”rechtlichen” Rundfunk) diese verlogene volkserzieherische Demagogie persönlich übel! Und ich werde mich in meinem Umfeld entsprechend äußern.

Grimmige Grüße,

Ulrich Berger

 

Diskussion: Wie hoch ist der CO2-Ausstoß batterieelektrischer Autos?

Am 21. April 2019 berichteten wir hier im Blog über eine Studie über die Umweltverträglichkeit von Batterien in E-Autos (“Ifo-Institut München: CO2-Ausstoß batterieelektrischer Autos liegt über dem von Dieselmotoren“). Da uns die offene wissenschaftliche Diskussion wichtig ist, wollen wir im Folgenden Raum für Kritik an der Studie geben, die uns Leser Stephan Witt zukommen ließ:

Sie sind leider auf einen reißerischen Titel hereingefallen. In diesem Fall gibt es zu der zitierten Studie diverse Anmerkungen zu machen:

- Das ganze beginnt ja sehr schön differenziert, aber wenn es dann an die echten Inhalte geht, wird es leider genauso falsch, wie die Behauptung der Klimawandel wäre ausschliesslich vom Menschen verursacht.

- Für Diesel wurde der Best case gerechnet. Die Autoren verwenden den veralteten NEFZ zur Bewertung des Fahrzeugverbrauchs. Der wurde inzwischen abgeschafft, weil er völlig falsche Werte liefert. Reale Werte von ICE’s liegen typischerweise um die 30-40% höher als die Herstellerangaben, die die Autoren verwenden.

- Die Autoren rechnen auf den Verbrauch noch eine Angabe WTT hinzu, die angeblich bei 23% liegt. Dabei beziehen sie sich auf eine EU Studie als Quelle. Ich habe in die Quelle hereingeschaut und sie versucht nachzuvollziehen, da ich selbst Bereich ähnliche Rechnungen in Projekten durchgeführt habe. Wir waren allerdings bei wesentlich höheren Zahlen herausgekommen, die eher im Bereich von 40% lagen. Ursache war die Art des Rohöltransports, ob per Schiff oder per Pipeline und wenn per Pipeline, dann über welche Strecke. Außerdem ignorieren sehr viele WTW oder WTT Studien den Energieaufwand der notwendig ist, um das Öl überhaupt an die Oberfläche zu bekommen. Je nach Ölquelle gibt es dabei massive Unterschiede. Damit ist der Manipulation im Rahmen von Studien Tür und Tor geöffnet, je nach dem welche Annahmen getroffen wurden.

- die Autoren ignorieren beim Elektroauto komplett die Rekuperation. (S.44 “Man könnte noch berücksichtigen, dass einerseits ein Teil der Bremsenergie zurückgewonnen werden kann… Wir gehen darauf nicht ein, weil uns verlässliche Messergebnisse fehlen.”) Das ist doch die gleiche Argumentation, wie die, über die Sie sich bei den Klimawandelpropheten und dem Einfluss der Sonne auf das Klima so aufregen. “Oh sorry, wir können den  Einfluss der Sonne nicht messen, also ignorieren wir ihn mal eben…” Nach meinen eigenen Erfahrungen aus dem Praxisfahrbetrieb mit den Prototypen von Elektrogolf und E-Mini, die ich beide über 6 Monate jeweils gefahren bin, kann ich bestätigen, dass dieser Einfluss bei ca. 25% Reichweite liegt. So einen kleinen Fehler lässt man doch gerne mal weg.

- Die CO2 Menge pro kwh Batteriekapazität: Die Autoren beziehen ihre Angabe auf eine einzige Quelle. Schaut man diese genauer an stellt man fest, dass dort die Spanne der Emissionen kräftig nach oben massiert wurde. Der Best case in der Originalstudie liegt bei 80kg CO2/kWh. Die Autoren dieser Originalstudie geben dann aber eine eigene Spanne an, die wesentlich höher beginnt. Sinn et.al. haben dann diese wesentlich höher Spanne verwendet.

- Lebenserwartung der Batterie bei Sinn et al. wird ohne weitere Begründung auf 10 Jahre zu 15.000 km begrenzt. Bei einer Reichweite von 500km sind das gerade mal 30 Vollzyklen p.a. also 300 Zyklen insgesamt. Die tatsächlich mögliche Vollzyklenzahl einer gut gemanagten Batterie liegt inzwischen deutlich über 2000 Vollzyklen. Und das Batterie Management von Tesla ist sehr aufwändig und sehr gut. Den von Sinn et al verwendeten Wert der CO2 Emission müsste man also durch den Faktor 7 teilen, um eine echte CO2 Kennziffer für den Vergleich mit dem Mercedes Diesel zu erhalten. Dann löst sich aber leider die gesamte Argumentation des Vergleichs in Wohlgefallen auf…

- ein paar weiter Argumente finden sich noch in dem folgenden Artikel der WiWo https://www.wiwo.de/technologie/mobilitaet/ist-das-e-auto-ein-rueckschritt-was-hans-werner-sinn-bei-seiner-elektroauto-studie-uebersehen-hat/24237236.html?fbclid=IwAR0WQrzvDGBxu0LVZpT5Qf9YYcqfyy1Il0As5U3dFAyzcSUpr1LbehHHdbM

- Ansonsten beschäftigt sich der Löwenanteil des Artikels von Sinn et.al. gar nicht mit dem Vergleich zwischen den beiden Fahrzeugen sondern mit dem Sinn und eher Unsinn der deutschen Energiewende.

Kritik an der ifo-Studie äußerte auch Spiegel Online am 23. April 2019:

Ifo-Studie zur Klimabilanz Wie das Elektroauto schlechtgerechnet wird
Laut dem Ifo-Institut hat ein Elektroauto in Deutschland eine miesere CO2-Bilanz als ein Diesel. Doch wer ein paar fragwürdige Annahmen in der Kalkulation ändert, bekommt ein ganz anderes Ergebnis.

Weiterlesen auf Spiegel.de.

Studienmitautoren Hans-Werner Sinn und Christoph Buchal verteidigten die Ergebnisse in einer Stellungnahme in der FAZ am 26. April 2019:

Debatte um Abgasausstöße : Was zeigt die CO2-Bilanz?
Große Aufruhr gab es um die veröffentlichte Studie zum CO2-Ausstoß der Elektroautos. Falsche Annahmen und Rechnungen waren der Vorwurf. Warum Elektroautos nicht absichtlich schlechter dargestellt wurden. Eine kurze Stellungnahme. nsere zusammen mit Hans-Dieter Karl im Ifo-Schnelldienst veröffentlichte Studie zum CO2-Ausstoß der Elektroautos hat viel Wirbel verursacht. Beim Vergleich zweier typischer Autos gleicher Größenklasse (Tesla Model 3 mit 75 kWh Batterie und Mercedes C 220 d) kamen wir zu dem Schluss, dass das E-Auto beim deutschen Strommix einen um 11 bis 28 Prozent größeren CO2-Ausstoß je Kilometer mit sich bringt. Hier reagieren wir in aller Kürze auf die uns entgegengebrachte Kritik, weil sie zum Teil auf einer falschen Wahrnehmung unsere Annahmen und Rechnungen basiert. Man warf uns vor, wir hätten den CO2-Ausstoß des Diesel bewusst untertrieben, indem wir die Autos auf der Basis des Fahrzyklus NEFZ verglichen haben, der der Realität bekanntlich nicht gerecht wird und inzwischen durch den WLTP-Zyklus ersetzt wurde. So ist es aber nicht, denn wir haben auch für den Tesla die offiziellen NEFZ-Daten verwendet. Sie sind gegenüber einer realen Fahrsituation in gleicher Weise verzerrt wie die Diesel-Daten.

Weiterlesen in der FAZ. Auch der Focus berichtete über die Stellungnahme der beiden Autoren.

Wir baten Stephan Witt um eine Einschätzung der Stellungnahme. Hier seine Analyse:

Fangen wir mit dem Ende an: Die Motivation für die Studie war lt. den Autoren kein Auftrag, sondern “die Irritation darüber, dass die EU bei ihrer Flottenregulierung die Elektroautos rechnerisch mit einem Ausstoß von null ansetzt“. Fein, dieser Punkt ist ohne jeden Zweifel richtig, denn er gilt einzig und allein nur für die Emissionen des E-Autos unmittelbar im Fahrbetrieb am Fahrzeug. Nur schade, dass dieser durchaus richtige Punkt so sehr durch die Angreifbarkeit der getroffenen Annahmen in der Studie verwässert wurde.

Also was ist denn jetzt mit den Stellungnahmen zu den Kritikpunkten? 

1. NEFZ Fahrzyklus vs. WLTP Fahrzyklus 

Antwort: Tesla hätte zum Zeitpunkt der Erstellung die Zahlen zum WLTP schlicht noch nicht veröffentlicht. Außerdem würden die höheren Geschwindigkeiten im WLTP ja einen zusätzlichen Nachteil für E-Fahrzeuge darstellen, so dass man bei Verwendung des alten Zyklus dem Tesla sogar noch einen Gefallen getan hat. Das ist kein Gegenargument für den Vorwurf, dass der NEFZ Zyklus bekanntermassen falsch ist und das die Fahrzyklen tendenziell Verbrenner-Fahrzeuge bevorteilen. Fahrzyklenmessungen kennen grundsätzlich keine Rekuperation, sondern messen Strecken zu unterschiedlichen Geschwindigkeiten. https://www.elektronik-zeit.de/allgemein/nefz-nedc-wltp-ece-15-uebersicht-fahrzyklen-vergleich/

Fazit: Auch in der Replik sind die Autoren nicht auf die Kritikpunkte inhaltlich ernsthaft eingegangen. Mein ursprünglicher Punkt zur Rekuperation ist unverändert gültig.

 

2. CO2 Menge je KWh Batteriekapazität 

Antwort: Die Autoren hätten mit 145kg/kWh gerechnet als Best case und nicht mit dem von den Medien aufgegriffenen Wert von 170kg/kWh. Soweit ok. Ferner würden andere Studien (Agora Energiewende) auch auf Werte von 100-200kg/kWh kommen… 

Momentmal! Also ist der Best case nicht 145kg/kWh, sondern 100kg/kWh. Das sind dann ja geschlagene 32% weniger als der von den Autoren gerechnete „Best Case“. Statt 73g CO2/km also nur 50g CO2/km. Der „best Case“ war also gar keiner, sondern ein angenommener “Mittelwert“. Man kann gerne einen Mittelwert ansetzen. Dann sollte man diesen doch aber bitte auch so benennen. (Das ich in der zitierten Quelle sogar einen noch niedrigeren Wert als „Best case” gefunden habe, wie in meiner ersten Antwort geschrieben hatte, lassen wir mal weg)

Fazit: Die Autoren liefern in ihrer Replik selbst den Beweis für die angebrachte Kritik, gehen aber nicht auf die Konsequenzen daraus ein. Bemerkenswert!

 

3. Lebensdauer und Zyklenzahl 

Antwort: Laut einer Studie in „Nature Energy“ aus 2018 hätten die Hersteller inzwischen akzeptiert, das sie die angestrebten 1.300 bis 2.000 Zyklen in der Praxis nicht erreichen würden. VW gebe 200.000km an, andere Hersteller 300.000km. Grund: Insbesondere häufiges Schnellladen würde die Zyklenzahl reduzieren.

Analyse: Die Hersteller Angaben in Kombination mit dem Verweis auf diese Studie sollen wohl suggerieren, das die eigene Rechnung mit 150.000km für den Tesla doch durchaus richtig sei. Diesen Punkt hatte ich selbst in meiner ersten Antwort bereits aufgegriffen und dort bezogen auf 2.000 Vollzyklen die von den Autoren ermittelte CO2-Emission der Batterie durch einen Faktoren 7 teilen müsse. Statt den von Sinn et.al ermittelten 73g CO2/km wären es dann 10g CO2/km Die in der Replik von den Autoren zitierte Kilometerzahl von VW bezieht sich auf eine Batterie, die nur halb so groß ist, wie die des in der Studie betrachteten Tesla. Bei gleicher Zyklenzahl würde die doppelt so große Batterie also auch die doppelte Reichweite von 400.000km statt 150.000 ermöglichen. Außerdem werden die Zyklen von Batterien in Autos immer auf ein Absinken der Batteriekapazität auf 80% berechnet. Danach können die Batterien noch völlig problemlos als stationäre Batterien weiter betrieben werden. Die bei der Produktion erzeugte Menge CO2 müsste also eigentlich auf sogar noch mehr Zyklen verteilt werden.

Fazit: Man kann es drehen und wenden wie man will, die von Sinn et.al. auf den km ermittelte CO2 Emission aus der Produktion der Batterie ist von den Autoren viel zu hoch angesetzt worden. Wo sie recht haben ist lediglich der Punkt, dass diese Zahl nicht „0“ ist.

 

4. Energieeinsatz für Motoren und Getriebeproduktion: Dieser Kritikpunkt sei ungerechtfertigt, das hätte man betrachtet und würde sich gegenseitig aufheben. 

Fazit: Fein, Danke für die Klarstellung.

 

5. CO2 Gehalt im Strommix

Die Autoren erläutern in Ihrer Replik, wie sie auf die höhere Zahl als das Umweltbundesamt bei der CO2 Menge je kWh im deutschen Strommix gekommen sind. Die Klarstellung macht es nachvollziehbar. Mein ursprünglicher Punkt, dass die Angabe für den Diesel eher zu niedrig angesetzt wurde, wurde in anderen Kritiken aber nicht aufgegriffen und daher von den Autoren nicht adressiert. Da bleibe ich bei meinen Einwendungen, dass der Wert für den Diesel eher noch zu niedrig ist.

 

6. Sonstige Effekte

Die Autoren argumentieren, sie hätten die E-Fahrzeuge nicht absichtlich schlecht gerechnet, denn sie hätten weitere Effekte, wie die doppelte Reichweite eines Diesels gegenüber dem Tesla nicht angesetzt, was einen größeren CO2-Effekt als die Verdoppelung der Reichweite (Zyklen) hätte. Außerdem hätte man Ladeverluste beim Schnellladen von Strom von 10% und den Bedarf für die Wärmeerzeugung im Auto nicht berücksichtigt. 

Analyse: Die Argumentation mit den nicht betrachteten zusätzlichen Nachteilen von Elektrofahrzeugen aus Ladeverlusten und dem Energieverbrauch für Nebenaggregate, die in den Fahrzyklen nicht berücksichtigt werden, ist durchaus richtig. Diese Effekte können je nach Verhalten der Nutzer wesentlich sein oder eben auch nicht.  Aber genau darin liegt die Krux.   Diese Effekte sind massiv verhaltensabhängig. Hätte man sie mit hereingenommen, hätte man der Kritik noch viel mehr Angriffsfläche geboten. Sich für das Weglassen auf die Schulter zu klopfen, erscheint mir da wenig angemessen, wenn man sich wissenschaftlich mit der Frage des „echten“ CO2 Footprints beschäftigen möchte. 

Bleibt das Reichweitenargument… Was bitte hat die Reichweite mit dem CO2 Verbrauch zu tun? Wer sagt denn, dass über 1000 km Reichweite notwendig sind? Nach 2h Autobahnfahrt sollte man sowieso eine Pause einlegen (Die meisten tun es allerdings nicht). Soll das heißen die Batterie müsste doppelt so groß sein? Das würde überhaupt nichts am CO2 Verbrauch je km ändern (abgesehen von dem durch die Gegend gefahrenen Gewicht), denn die Gesamtlebenserwartung würde sich von 150.000 km auf 300.000km verdoppeln. Andersherum betrachtet: Wenn ich den Tank im Dieselfahrzeug halbiere ändert das schliesslich auch nichts am Verbrauch des Verbrennungsmotors.

Fazit: Die Zusatzargumente nicht berücksichtigter sonstiger Effekte in der Replik sind z.T. pure Augenwischerei für jemanden, der nicht über die dabei implizit versteckten Annahmen nachdenkt. Die Ladeverluste in Form von Wärme beim Laden der Batterie je nach Ladegeschwindigkeit sind jedoch ein echter und auch nicht unwichtiger Effekt von Elektroautos. Etwas vergleichbares gibt es beim Tanken von Dieselfahrzeugen nicht bis auf den Stromverbrauch für die Pumpen an der Tankstelle und verschüttete Dieselmengen. Wenn man über einen korrekten Vergleich nachdenken will, sollte man diesen Punkt tatsächlich betrachten. Schade, dass die Autoren es nicht getan haben.

 

Zusammenfassung: 

Was ist denn nun das Gesamtergebnis der Aufregung? Es ist im Prinzip genau das Gleiche wie beim Klima, wo die Tatsache einfach ist: Ja, es gibt einen anthropogenen Einfluss, aber die Höhe ist ganz sicher nicht so hoch wie vom IPCC behauptet. 

Analog gilt für den CO2 Footprint von Elektroautos: Ja, die den Elektroautos zurechenbaren CO2 Emissionen sind nicht „0“. Aber alle Argumente von Prof. Sinn und seinen Mitautoren hin und her gewendet, gilt auch hier: Die tatsächlichen CO2 Emissionen sind bei weitem nicht so hoch, wie von den Autoren behauptet.

—–

Wir danken Stephan Witt für die Argumentation. Strittige Themen benötigen Raum zur fachlichen Diskussion, die wir uneingeschränkt unterstützen und fördern.

 

Welchen Einfluss hat die Arktis auf das Wetter in mittleren Breiten?

Anfang Mai 2019 berichtet der Deutschlandfunk über das Erscheinen einer Studie in Nature Communications von 2018. Darin beschreiben Autoren des Potsdam Institutes für Klimafolgenforschung (PIK) (Pressemitteilung hier) und weiterer internationaler Institutionen den möglichen Einfluss der überproportionalen arktischen Erwärmung auf die Sommerzirkulation mittlerer Breiten (D. Coumou et al. 2018). Die Auswirkungen eines schwächelnden troposphärischen Strahlstromes auf das Wetter werden darin im Konjunktiv beschrieben, die arktische Erwärmung völlig selbstverständlich den anthropogenen CO2-Emissionen angelastet.

Die Ergebnisse der Analyse verweisen auf die Möglichkeit, dass sich Hitzewellen und andere sommerliche Wetterextreme, wie sie in den letzten ein bis zwei Jahrzehnten gehäuft auftraten, auf eine Abschwächung des Strahlstromes zurückführen lassen. Letzterer soll wiederum Folge der Erwärmung der Arktis bzw. der Abnahme der Meereisflächen sein. Die vom arktischen Ozean verstärkt aufgenommene Wärme wird im Winter an die untere Troposphäre abgegeben und beeinflusst Zirkulationsmuster weiter südlich in den mittleren Breiten.

Dabei kommt es zu einer Konkurrenzsituation, die in der Fachliteratur als „Tug-of-War“, also als das Tauziehen zwischen Prozessen in der oberen Troposphäre und in der unteren Troposphäre bekannt ist: Durch die globale Erwärmung – sei es durch CO2 bzw. Wasserdampf oder freilich durch den Einfluss solarer Prozesse – nimmt der Temperaturunterschied zwischen Äquator und Pol in der unteren Troposphäre ab. Dadurch kann weniger kinetische Energie generiert werden und so genannte synoptische Störungen, also an Wetterfronten gebundene Zyklone (Stürme) werden vor allem in den Sommermonaten schwächer. In der oberen Troposphäre führt jedoch der Eintrag von mehr latenter Wärme durch ein größeres Verdampfungspotenzial in den Tropen zu einer Zunahme des Temperaturgradienten zwischen Äquator und den mittleren Breiten, welches wiederum die synoptischen Störungen dort verstärkt.

Der „Tug-of-War“ ist bisher mindestens für den Winter unentschieden und für den Sommer zugunsten schwächerer Sturmverläufe. CO2-dominierte Modelle sehen hingegen den Einfluss der Tropenprozesse langfristig zunehmen mit entsprechend zunehmenden Sturmenergien in den mittleren Breiten, allerdings mit großer Unsicherheit. Denn kleinste Modellparameteränderungen bedingen größte Effekte in die eine oder andere Richtung (Zhao et al. 2016, Voosen 2016).

Für die Sommerzirkulation wird davon ausgegangen, dass die Meereisverteilung und die arktischen Temperaturen einen Einfluss auf die Festigkeit und Breitenlage des Strahlstromes haben. Meridionale Auslenkungen des Strahlstromes führen dabei zu einer blockierenden Wetterlage, die zu langanhaltenden Hitzewellen oder aber zu Regenfluten führen können. Resonanzen können die Amplitude dieser Wellen – bestehend aus Trog (polare kalte Luft im Tiefdruckgebiet) und Schwelle (tropische warme Luftmasse im Hochdruckgebiet) – vergrößern und so die stagnierende Wetterlage über weite Bereiche ausdehnen. Solche Verstärkungen der quasi-stationären Wellen werden ebenfalls der arktischen Erwärmung zugerechnet.

Allerdings handelt es sich mehr um Theorien und Modellergebnisse als um tatsächliche Zusammenhänge, was aber bei den Medienberichten über diese doch sehr apokalyptischen Studien nicht durchdringt. Insbesondere der Faktor der natürlichen dekadischen Zyklizität wird zwar in der Studie genannt aber nicht weiter diskutiert, obwohl dieser einen wesentlichen Diskussionspunkt in der entsprechenden Literatur bildet. Weiterhin vertraut die Studie auf Modelle, aus denen entgegen anderer Berichte resultiert, dass der Strahlstrom der Nordhemisphäre im Sommer unter antarktischer Verstärkung in Richtung Nordpol wandert, was die tropische Beeinflussung hervorhebt. Insgesamt stehen alle Ergebnisse unter Vorbehalt, alles wird im Konjunktiv beschrieben. Zum Beispiel auf S. 9 der Studie:

„However, substantial uncertainty remains in how such quasi-stationary waves will change under global warming including the role of arctic amplification therein. … their relative importance compared to other drivers is poorly understood.”

Oder hinsichtlich der Wetterbeeinflussung durch arktische Verstärkung:

“There is still substantial uncertainty in what implications this weakening [of storm tracks] will have for summer weather conditions.” “…processes are largely unquantified.”

Die Studie ist voll davon! Nun ist es keinem Wissenschaftler vorzuwerfen, dass Forschungsergebnisse noch nicht robust genug sind und diese noch weitergeführt werden müssen. Aber bei so viel Unsicherheit gibt es doch wohl kaum einen Grund, einen apokalyptischen Tonfall anzunehmen und Menschen mit solch schwachen Studienergebnissen regelrecht – und hier sind dann die Medien im Visier – zu tyrannisieren. Ich gehe dabei schon lange nicht mehr davon aus, dass es Zufall ist, dass diese Art von Angststudien und/oder deren Berichterstattung immer dann erfolgen, wenn gerade wichtige Wahlen anstehen oder aber irgendwelche alljährlichen Klimagroßevents mit gigantischen CO2-Fußabdrücken. In diesem speziellen Fall ist es halt die Europawahl 2019.

In einer weiteren wissenschaftlichen Studie von 2017, von E. A. Barnes und I. R. Simpson im Journal of Climate ergeben die Modellierungsergebnisse, dass der Strahlstrom der nördlichen Hemisphäre in den meisten Monaten unter Einfluss der arktischen Verstärkung in Richtung auf den Äquator wandert (also genau entgegengesetzt zur Studie von Coumou et al. 2018) und dabei gefestigt wird, anstatt meridional auszulenken. Allerdings trägt die arktische Erwärmung nur zu 3 bis 5 % in den Modellen zur Lageänderung, Geschwindigkeit und zonalen Windstärken bei. Insbesondere die Jahreszeit hat einen Einfluss auf die Sensitivität der Prozesse. Diese geringe Beeinflussung ist nicht abwegig.

Die Ausdehnung des zirkumarktischen Meereises zwischen Winter und Sommer variiert um gut 14 Millionen km2. Die Abnahme des arktischen Meereises in Folge der Erwärmung in den letzten 7 Jahren liegt bei ungefähr 0,5 Millionen km2, also 3 bis 4 % der jährlichen Variation (JAXA 2019). Bereits 2019 sind die Verluste im Winter deutlich zurückgegangen und die maximale Ausdehnung befindet sich schon wieder auf dem Niveau von 2013. Die Meereisausdehnung im Sommer hingegen ist seit den herben Schmelzraten im Jahr 2007 einigermaßen stabil, mit Ausnahme des Jahres 2012. Insgesamt liegt die Variation der minimalen Ausdehnung im Sommer für das 21. Jahrhundert bei 1 bis 2 Millionen km2, also ca. 7 bis 14 % der jährlichen Schwankungen.

Natürlich ist mit Änderungen der atmosphärischen Zirkulation zu rechnen, wenn das arktische Meereis schmilzt. Aber bei diesen Beträgen ist keine apokalyptische Zukunftsaussage notwendig, eher handelt es sich dann um Glaskugelleserei. Ein Blick auf die Schneebedeckung der nördlichen Hemisphäre, die ebenfalls eine bedeutende Rolle in der Änderung der atmosphärischen Zirkulation spielen soll, lässt den Betrachter verstört zurück. Der Trend und die Variationen sind seit 1972 jährlich betrachtet horizontal bzw. gleichbleibend (Rutgers University Global Snow Laboratory 2019). Für die Sommermonate ist wie zu erwarten ein abnehmender Trend zu erkennen und natürlich gibt es unterschiedliche Entwicklungen in unterschiedlichen Regionen (siehe climate4you). Aber über die gesamte Halbkugel bleiben die Schneemengen gleich. Noch spannender sind die Ergebnisse einer Wissenschaftsstudie von T. Woolings et al. (2018), die auf S. 1312 der Studie zu folgender Aussage kommen:

„As discussed in the introduction, there is a rapidly growing body of literature suggesting that recent extreme events have occurred partly because of emerging anthropogenic effects such as amplified Arctic warming. Our results show that the variability of Atlantic Jet position itself varies on decadal timescales. For example, the variability of wintertime jet latitude has increased over the last two decades, as the mean jet speed has weakened. However, this reflects the jet reverting to a normal state after being unusually strong and steady around the 1980s and 1990s. In no season, according to our diagnostics, was the jet more variable in recent decades than in any earlier period. This highlights the importance of a long-time-scale perspective when analyzing recent events.” Und in der Zusammenfassung ist der Satz zu lesen: “These modulations [of the jet] are also related to variations in the basinwide occurrence of high impact blocking events. A picture emerges of complex multidecadal jet variability in which recent decades do not appear unusual.”

Sirpa Häkkinen und Kollegen schreiben 2011, dass Winter mit häufigen Blocking-Situationen zwischen Grönland und den Britischen Inseln über mehrere Dekaden hinweg auftreten können und mit einem warmen Nordatlantik korrelieren, in Phase mit der atlantischen Multidekaden Oszillation. Zwar gelten diese Aussagen nicht für den Sommer und nicht für die in Coumou et al. (2018) betrachteten Regionen, aber offensichtlich spielen zeitliche Zyklen eine wichtige Rolle in den angesprochenen Prozessen. E. A. Barnes & J. A. Screen bezweifeln in einer sehr lesenswerten Stellungnahme in Wire’s Climeate Change 2015 einen wesentlichen Einfluss der arktischen Verstärkung auf das Wetter in mittleren Breiten, auch wenn dies grundsätzlich möglich ist. Begründet wird dies mit einer deutlich stärkeren internen atmosphärischen Variabilität und anderen Faktoren, die den Einfluss abnehmenden Meereises auf die Wettersituationen überlagern.

Es gibt diesen ominösen Klimawandelkonsens, von den die Medien, Politiker und bestimmte Wissenschaftsgruppierungen immer sprechen, einfach nicht! In keinem Fachbereich und bei keiner wissenschaftlichen Fragestellung. Der Konsens ist und bleibt ein Konjunktiv und ist darüber hinaus politisch motiviert.

——–

Siehe auch den früheren Beitrag zum Thema: "Ein Sommermärchen".

 

 

Mai-Schnee in Weimar, erstmals seit über 30 Jahren

Mai-Schnee in Weimar 2019, erstmals seit über 30 Jahren. Foto: Stefan Kämpfe

 

Die Sonne im April 2019 und der € 4500 Milliarden Flop

Von Fritz Vahrenholt und Frank Bosse

Unsere einzig nennenswerte Energiequelle im Zentrum des Planetensystems war auch im letzten Monat unterdurchschnittlich aktiv, wenn man in den Monaten des Minimums von einem Durchschnitt der letzten 23 Zyklen sprechen kann. Die festgestellte SSN (für SunSpotNumber) betrug 9,1 und die Fleckenaktivität betrug damit nur 42% des Mittelwertes der in diesem Zyklusmonat Nr. 125 noch anhaltenden Zyklen. Einige Zyklen ( Nr. 21, 18, 16, 15, 8 ) waren in diesem bereits beendet.

Abb.1: Der monatlich aufgelöste Verlauf der Fleckenaktivität des aktuellen Solaren Zyklus (SC) seit Dezember 2008 (rot) im Vergleich zum Mittelwert aller bisher systematisch beobachteten Zyklen seit dem Beginn des SC1 im März 1755 (blau) und dem über lange Zeiträume recht ähnlichen SC5 (schwarz).

 

In Abb.1 ist gut zu sehen, dass der Zyklus besonders zu Beginn und nach dem zweiten Peak mit einer SSN von über 140 zum Ende hin recht unternormal ablief. Seit dem Februar 2014 (dem Maximum des gesamten Zyklus 24 mit SSN=146 im Zyklusmonat 63)  brachte er es nur auf 2/3 der durchschnittlichen Aktivität. Welche Auswirkungen hat das? Die Gesamtstrahlung (TSI für Total Solar Irradiance) wird nur sehr mäßig beeinflusst:

 

Abb. 2: Die Gesamtstrahlung der Sonne im Erdabstand seit Ende 2003, dem Missionsbeginn der Sonde. Quelle

 

Seit dem Maximum sehen wir einen Rückgang von ca. 1,5 W/m². Am Boden geht dieser Hub auf 25% zurück, da die Erde keine Fläche, senkrecht ausgerichtet zur Sonne ist (wie der Sensor des Satelliten) und sich dreht. Es bleibt damit nur ein Hub von 0,38W/m² in der wirksamen Strahlungsleistung oder 0,1%, vergleichsweise recht wenig. Eine andere Größe mag mehr Einfluss haben: Die Sonne hält bei hoher Aktivität die galaktische kosmische Strahlung  (genau genommen weniger elektromagnetische Strahlung, dafür mehr Partikel) vom Inneren des Sonnensystems fern. Das schafft sie bei verringerter Aktivität weniger wirksam:

 

Abb.3: Die Variation der galaktischen Strahlung seit Anfang der 60er Jahre, hier gemessen in Moskau. Quelle. Hinweis: Ausschläge nach oben kennzeichnen stärkere kosmische Strahlung.

 

Seit Beginn der 2000er erkennt man den Rückgang im Vergleich zu den 90ern um bis zu 16% gegenwärtig. Auch im Maximum des SC24 um 2014 war die kosmische Strahlung  ca. 8% stärker als in den Maxima seit 1980. Wir hatten über die Zusammenhänge, die Hendrik Svensmark  postuliert, im Buch und auch im Blog (zuletzt hier) mehrfach berichtet. Nun der Vergleich der Zyklen untereinander:

Abb.4: Die Fleckenaktivität der Zyklen im Vergleich. Die Zahlen im Diagramm entstehen, wenn man die monatlichen Differenzen zwischen der beobachteten SSN  und dem Mittel (blau in Abb.1) aufsummiert bis zum aktuellen Zyklusmonat 125.

 

Auch der kommende Zyklus 25 mit wahrscheinlichem Start im August 2020 (hier zeigten wir, wie wir zu dieser Ansicht kamen) wird mit hoher Sicherheit wieder unterdurchschnittlich. Die Hochphase der Sonnenaktivität von 1935 bis etwa 2005 (SC 17…SC23) ist nachhaltig vorüber.

 

Der 4500 Milliarden Flop der Energiewende

Die Forderungen nach dem Ausstieg aus Kohle, Kraftstoff und Erdgas werden immer schriller: Es fing schon mit dem waghalsigen Vorschlag der Kohlekommission an, die vom Bundeskanzleramt zur Hälfte mit grünen Aktivisten besetzt wurde – Ausstieg aus der Kohle bis 2038. Dann folgte die Forderung Robert Habecks und seiner grünen Freunde nach dem Aus für den Verbrennungsmotor im Jahre 2030. Und als es vier Wochen im April sehr trocken war (sehr schlimm, hat es noch nie gegeben) rief  Annalena Baerbock  die Klimakrise aus: Verdopplung des CO2-Preises und ein starkes Ordnungsrecht! Nun fordern die Freitagskinder von Lummerland  eine CO2-Steuer von 180 € noch in diesem Jahr, bis 2035 „Treibhausemissionen auf Netto- Null“, 100 % Erneuerbare Energien.

Da lohnt es sich ja doch einmal, in die Studie des Akademieprojektes „Energiesysteme der Zukunft“ der „Union der Deutschen Akademien der Wissenschaften“, die Ende letzten Jahres unter dem Titel „Sektorkopplung- Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems veröffentlicht wurde, zu schauen. Es soll an dieser Stelle nicht hinterfragt werden, wieso der gesammelte technische Sachverstand unserer deutschen Akademien die Zukunft unserer Energieversorgung im Wesentlichen  auf allein zwei Technologien stützen will: Windenergie und Photovoltaik. Warum geben die Wissenschaftler der Kernfusion, der inhärent sicheren Kernenergie ohne langlebige Rückstände (dual fluid reactor) oder der CO2-freien Kohlenutzung (Carbon capture and sequestration) nicht den Hauch einer Chance ? Weil Wissenschaft in Deutschland nur noch  in der Bandbreite des Mainstreams denken darf, etwa von CDU-Parteitagsbeschluss bis Greenpeace-Resolution.

Es lohnt sich trotzdem reinzuschauen, um zu erahnen, was uns bevorsteht. Es werden alle Sektoren, Strom, Verkehr und Wärme zusammen betrachtet. Und siehe da: 80% der Energie werden fossil erzeugt, 7,5 % durch Kernenergie und 13 % durch Erneuerbare Energien. Wenn man bei den Erneuerbaren Energien die Biomasse (einschl. Biogas und Biosprit) abzieht, bleiben übrig: 1,5 % der Primärenergie wird durch Windkraft erzeugt und 1% durch Photovoltaik. (S.10 der Studie). Das ist ein langer Weg bis zu 100%. Die Studie kommt zum Schluss, wenn man den Weg einer  Dekarbonisierung um 90% bis 2050 gehen will, dann „wird mit rund 1150  Terawattstunden sogar fast doppelt so viel Strom benötigt wie heute“ (S.10), weil Verkehr und Wärme ebenfalls aus Strom erzeugt werden soll.

Da man sich nur auf Photovoltaik und Windkraft verkrampft hat, kommt die Studie zum Schluss:

Die installierte Leistung an Windkraft und Photovoltaik müsste in diesem Fall (bei gleichbleibendem Energieverbrauch) gegenüber heute versiebenfacht werden.“

Wir haben heute etwa 28 000 Windkraftanlagen mit einer Kapazität von 57 000 Megawatt und 46 000 Megawatt Photovoltaik. Eine Versiebenfachung der Photovoltaikfläche würde fast alle in Deutschland möglichen Dach-Fassaden- und andere Siedlungsflächen erfassen. Eine Versiebenfachung der Kapazität der Windenergieanlagen würde selbst bei Verdopplung der Kapazität der einzelnen Anlagen Deutschland verändern. Alle 1,5 Kilometer würde eine 200 m hohe 3-5 MW- Anlage stehen.

Die Studie lässt auch den Abgrund erahnen, auf den wir auf diesem Weg zugehen.

„Die Dominanz der fluktierenden Erneuerbaren Energien erfordert eine hohe Flexibilität auf der Stromerzeugungsseite und der Verbrauchsseite“

(!!) Das heißt mit anderen Worten, wenn die Natur nicht genügend Wind und Sonnenstrom liefert, muss man auch zeitweise ohne Strom auskommen. Interessant ist das Ergebnis, dass es auch in der schönen neuen Welt der dezentralen Energieerzeugung nicht ohne zentrale Grosskraftwerke gehen wird. Die Studie schätzt, das etwa 60- 100 000 Megawatt Großkraftwerke, die natürlich auf Biogasbasis oder synthetischem Methan oder Wasserstoff  gefahren werden, kurzfristige Zusammenbrüche verhindern helfen. Zum Vergleich: heutige Großkraftwerkskapazität  90 000 MW.

Wohltuend ist die Aussage, dass Batterien nur eine Lösung als Kurzzeitspeicher haben können. Voraussetzung für Langzeitspeicher ist die erfolgreiche Entwicklung von power-to -gas, also Windstrom per Elektrolyse in Wasserstoff oder gar Methan zu verwandeln. Das ist zwar heute noch absurd teuer, aber das schaffen wir schon. Allerdings warnen die Autoren, dass es in Tagen der kalten Dunkelflaute (keine Sonne und kein Wind im Winter) zu Konflikten zwischen power to heat (also der Wärme auf Windstrombasis) und dem Strombedarf bei knappem Angebot geben kann. Will sagen: Licht oder warme Heizung, das ist dann die Frage. Das Auto bleibt dann sowieso stehen.

Die Autoren korrigieren auch die weithin verbreitete Fehleinschätzung des Autos als Stromspeicher.

„Die Pufferkapazität der Elektroflotte, liegt im Bereich von einigen Stunden“

( S.57). Sie hängt zudem davon ab, ob die „Autobesitzer bereit sein werden, ihre Batterien dem System zur Verfügung zu stellen. Sind sie größtenteils nicht bereit, die Souveränität über Ladung und Entladung zeitweise abzugeben, ist der Betrag gering. Schlimmstenfalls könnte zeitgleiches Laden vieler Autos zu bestimmten Tageszeiten zu einer zusätzlichen Belastung für das Stromnetz werden. Wie undankbar diese Autofahrer sind. Da hat man jede Straße in den Städten für sie aufgerissen, um dem „Ausbau der Verteilnetze“ Rechnung zu tragen und nun wollen sie auch noch bestimmen, wann sie fahren wollen und wann nicht.

Aber die schöne neue Welt von Gretl, Annalena und Robert hat einen Preis. Die Autoren setzten 60% CO2 Minderung, die ja bis 2030 erreicht werden soll, voraus. Bis dahin kostet das 4000 Milliarden in gut 10 Jahren. Das heutige Energieversorgungssystem kostet pro Jahr 250 Milliarden €. Das wird schon mal 1500 Milliarden teurer. Bei 60 auf 75 % CO2 Minderung rechnen die Autoren mit weiteren 800 Milliarden. Von 75 auf 85 % mit weiteren 1000 Milliarden. Von 85 auf 90 % CO2 Minderung noch einmal weitere 1300 Milliarden. Also bis 60 % 1500 Milliarden, bis 90 % 3100 Milliarden, machen zusammen 4600 Milliarden. 4600 Milliarden € geben die deutschen Haushalte aus, um 800 Millionen t CO2 zu vermeiden. Dies ist eine Menge an CO2, die jedes Jahr China zusätzlich ausstößt.

Damit die Eltern von Fridays for future die 4600 Milliarden richtig verstehen: das sind im Jahr 153 Milliarden,  bei 40 Millionen Haushalten in Deutschland bezahlt jeder Haushalt monatlich 319 € im Monat – netto. Und wenn es nach Gretl und ihren Followern geht, nämlich in 15 Jahren 100% Erneuerbare Energien zu erreichen, dann wären das 628 € im Monat – wenn es denn nicht vorher zu einem Zusammenbruch der deutschen Energieversorgung kommen wird, was sehr wahrscheinlich ist. 628 € sind bei einem monatlichen Durchschnittsverdienst in Deutschland von netto 1890€ 33%. Damit fallen diese Haushalte dann unter die Armutsgrenze (60 % des Durchschnittsnettoeinkommens). Schöne neue Welt.

Wir kommen nicht einmal klar mit dem Umbau der Stromversorgung (siehe hierzu die Warnung der Bundesnetzagentur zum Aufbau von Reservekraftwerkskapazität in 2022 in Höhe von 10 000 Megawatt (10 Kernkraftwerke) . Da erweitern wir das Problem auf Wärme und Mobilität. Alle drei Sektoren, die bislang von unterschiedlichen Energieträgern (Kohle, Erdgas, Erdöl) geprägt waren, sollen von einem einzigen abhängig gemacht werden: Strom, gespeist aus Wind und Sonne. Wind und Sonne entscheiden, wann wir unser Auto bewegen können, wieviel Wärme wir im Winter nutzen dürfen und wann  das Licht angeschaltet werden kann.

Das nennt man einen nachhaltigen Kurzschluss. Und warum das alles? Natürlich wegen der anfangs erwähnten Klimakrise. Und deswegen sind solche Blogs wie dieser notwendig, um allen Entscheidern klarzumachen: Ja, wir müssen am Ende dieses Jahrhunderts die fossile Ära hinter uns gelassen haben. Aber diese Zeit haben wir auch, denn die Klimasensitivität des CO2 ist deutlich kleiner als uns die Panikmacher und Systemveränderer erzählen wollen.

 

US-Forscher dokumentieren Mittelalterliche Wärmeperiode und 60-Jahreszyklus in Neuengland

Für Greta und ihre Aktivistenhelfer läuft alles nach Drehbuch. Sie trifft den Papst, wie Zaro News am 15. April 2019 meldete:

Die Heilige Greta trifft den Papst – Wann trifft sie Gott?
[...] Ihren großen Auftritt jedoch in der ewigen Stadt hat Klima-Greta am Karfreitag, der im Gegensatz zu protestantischen Ländern in Italien kein Feiertag, sondern ein „Trauertag“ ist. Thunbergs Auftritt am Kreuzigungstag Christi in der Stadt des gottgleichen Stellvertreters ist also an Symbolik eigentlich nicht mehr zu überbieten. An diesem symbolschwangeren Karfreitag wird die Schwedin mit den italienischen Umweltaktivisten von „Fridays for Future Roma“ an einer Protestinitiative für Klimaschutz in Rom teilnehmen. Mehr geht nicht. Doch. Sie könnte noch ein Kreuz tragen. Natürlich eins aus nachhaltig angebautem zertifiziertem Holze. Ach ja, vielleicht könnte sie noch mit einem Esel in Rom einreiten. [...]

——————-

Interessante ntv-Dokumentation von 2007:

 

 

——————-

US-Forscher dokumentieren Mittelalterliche Wärmeperiode und 60-Jahreszyklus in Neuengland. Pressemitteilung der University of Massachusetts Amherst vom 9. Januar 2019 (via phys.org):

Geoscientists reconstruct ‘eye-opening’ 900-year Northeast climate record

Deploying a new technique for the first time in the region, geoscientists at the University of Massachusetts Amherst have reconstructed the longest and highest-resolution climate record for the Northeastern United States, which reveals previously undetected past temperature cycles and extends the record 900 years into the past, well beyond the previous early date of 1850.

First author Daniel Miller, with Helen Habicht and Benjamin Keisling, conducted this study as part of their doctoral programs with advisors geosciences professors Raymond Bradley and Isla Castañeda. As Miller explains, they used a relatively new quantitative method based on the presence of chemical compounds known as branched glycerol dialkyl glycerol tetra ethers (branched GDGTs) found in lakes, soils, rivers and peat bogs around the world. The compounds can provide an independent terrestrial paleo-thermometer that accurately assesses past variability.

Miller says, “This is the first effort using these compounds to reconstruct temperature in the Northeast, and the first one at this resolution.” He and colleagues were able to collect a total of 136 samples spanning the 900-year time span, many more than would be available with more traditional methods and from other locations that typically yield just one sample per 30-100 years.

In their results, Miller says, “We see essentially cooling throughout most of the record until the 1900s, which matches other paleo-records for North America. We see the Medieval Warm Period in the early part and the Little Ice Age in the 1800s.” An unexpected observation was 10, 50-to-60-year temperature cycles not seen before in records from Northeast U.S., he adds, “a new finding and surprising. We’re trying to figure out what causes that. It may be caused by changes in the North Atlantic Oscillation or some other atmospheric patterns. We’ll be looking further into it.”

He adds, “We’re very excited about this. I think it’s a great story of how grad students who come up with a promising idea, if they have enough support from their advisors, can produce a study with really eye-opening results.” Details appear in a recent issue of the European Geophysical Union’s open-access online journal, Climate of the Past.

The authors point out that paleo-temperature reconstructions are essential for distinguishing human-made climate change from natural variability, but historical temperature records are not long enough to capture pre-human-impact variability. Further, using conventional pollen- and land-based sediment samples as climate proxies can reflect confounding parameters rather than temperature, such as precipitation, humidity, evapo-transpiration and vegetation changes.

Therefore, additional quantitative paleo-temperature records are needed to accurately assess past temperature variability in the Northeast United States, the researchers point out. An independent terrestrial paleo-thermometer that relies on measuring two byproducts of processes carried out in branched GDGTs in lake sediment, a method first introduced two decades ago by researchers in The Netherlands, offered a promising alternative, Miller says.

Source organisms are not known for branch GDGTs, he points out, but they are thought to be produced in part by Acidobacteria. “These are compounds likely produced by different algae and bacteria communities in the membrane, or skin,” he notes. “Just like for humans, the skin regulates the organism’s body temperature and these compounds change in response to temperature. So if they grow in summer, they reflect that and the compounds are different than if they were produced in winter. We record the compounds to get the temperature curves. We found there seems to be a huge bloom of these organisms in the fall. After they die, they settle into the lake bottom. We think it’s mainly a fall temperature that we’re detecting.”

For this work, Miller and colleagues constructed large plastic sediment traps and deployed them about ten feet below the surface of a small, 106-foot-deep lake in central Maine in May, 2014. They then dove under to collect a catchment bottle from the bottom of each trap every month in June, July, August and September, and the following May 2015.

Miller says, “This lake is very deep for its small area, with very steep sides. It doesn’t seem to have much mixing of water layers by surface winds. We think that has helped to preserve a bottom water layer with no oxygen year-round, known as anoxia, which helps in the preservation of annual layers in the sediments at the bottom of the lake. It’s rare for a lake to have such fine, thin lines that represent annual deposition, so all you have to do is count the lines to count the years. We double-checked our results with radiocarbon dating and other methods, and it turns out that reconstructing the temperature record this way was successful.”

Miller and colleagues say this project enjoyed notable support from many quarters, including the UMass Amherst Alumni Association supporting student field work and data collection in Maine; the geology department at Bates College; funding from the U.S. Geological Survey; and at UMass Amherst, sophisticated biogeochemistry laboratory equipment and the Joe Hartshorn Memorial Award from the geosciences department, and other assistance from the Northeast Climate Adaptation Science Center.

The researchers conclude that this first paleo-temperature reconstruction coupled with site-specific knowledge from Basin Pond “informs our understanding of climatic variability in the Northeast U.S. beyond the era of human influence” and “contributes to our understanding of the production and fate of brGDGTs” in lake systems.

Paper: Daniel R. Miller et al, A 900-year New England temperature reconstruction from in situ seasonally produced branched glycerol dialkyl glycerol tetraethers (brGDGTs), Climate of the Past (2018). DOI: 10.5194/cp-14-1653-2018

 

Frühe Arktis-Wärme unerklärt: In Franz Josef Land war es in den frühen 1930er Jahren mehrere Grad wärmer als heute

Im Januar 2019 erschien im Fachblatt Theoretical and Applied Climatology eine Arbeit von Andrzej Araźny und Kollegen, in der die Forscher die Wetterdaten von vier wissenschaftlichen Expeditionen in das arktische Franz Josef Land auswerteten. Dabei stieß das Araźny-Team auch auf eine ungewöhnliche Wärme, die während einer Fahrt 1930/31 registriert wurde als es 4,6 °C wärmer war als der moderne Durchschnitt 1981–2010. Die Autoren erläutern, dass es in der Arktis in den letzten 140 Jahren zwei Wärmephasen gegeben hat. Die erste reichte von 1920-1938 die zweite begann in den 1980er oder 90er Jahren. Beide Wärmphasen weisen einen ähnlichen Verlauf auf, so dass der Anteil natürlicher gegenüber anthropogener Klimaantriebe ungeklärt ist. Araźny und Kollegen fordern, das die Klimamodelle sich dieser Frage verstärkt annehmen, um die großen Verständnislücken im arktischen Klimasystem – auch hinsichtlich der Attribution – endlich zu schließen. Hier der Abstract der Studie, deren pdf kostenfrei heruntergeladen werden kann:

A comparison of bioclimatic conditions on Franz Josef Land (the Arctic) between the turn of the nineteenth to twentieth century and present day
The paper presents the variability of meteorological conditions: air temperature, wind speed and relative air humidity; and biometeorological indices: wind chill temperature, predicted clothing insulation and accepted level of physical activity on Franz Josef Land (in Teplitz Bay and Calm Bay) in the years 1899–1931. It employs meteorological measurements taken during four scientific expeditions to the study area. The analysis mainly covered the period October–April, for which the most complete data set is available. For that period of the year, which includes the part of the year with the Franz Josef Land’s coldest air temperatures, the range and nature of changes in meteorological and biometeorological conditions between historical periods and the modern period (1981–2010) were studied. The data analysis revealed that during the three oldest expeditions (which took place in the years 1899–1914), the biometeorological conditions in the study area were more harsh to humans than in the modern period (1981–2010) or similarly harsh. In contrast, during the 1930/1931 expedition, which represents the Early Twentieth Century Warming (ETCW), conditions were clearly more favourable (including predicted clothing insulation being 0.3 clo lower and 4.0 °C higher wind chill temperature than conditions observed nowadays).

In der Diskussion gehen die Autoren detailliert auf das arktische Wärmephänomen der 1930er Jahre ein:

In approximately the last 140 years, there have been two periods of significant temperature increases in the Arctic. The first began in around 1918–1920 and lasted until 1938 and has been called the ‘1930s warming’ (Bengtsson et al. 2004). Other works have referred to this period as the ‘Early Twentieth Century Warming’ (ETCW, Brönnimann 2009) or the ‘Early Twentieth Century Arctic Warming’ (ETCAW, Wegmann et al. 2017, 2018). Our results confirm the observations for the last expedition from the historical study period in 1930/1931. These years covered the warmest part of the ETCW (Table 3, Fig. 4). In turn, the second increased warming of the Arctic began around 1980 (Johannessen et al. 2004) or according to Przybylak (2007) in about the mid-1990s. Changes in overall atmospheric circulation have long been believed to have been the cause of the ETCW (e.g. Scherhag 1937). As the modern climate warming (since 1975) has progressed in a largely similar manner to the progression of the ETCW (Wood and Overland 2010; Semenov and Latif 2012), there has been renewed interest in the insufficiently well-explained causes of the ETCW using the latest research methods, including, primarily, climate models. An analysis of the literature shows that the cause of such a significant warming in the present period is still not clear. There is even controversy over whether the main factors in the process are natural or anthropogenic, although the decided majority of researchers assign a greater role to natural factors (Bengtsson et al. 2004; Semenov and Latif 2012). It would appear that the greatest differences of opinion on the causes of the ETCW are to be found in works presenting climate models (see, e.g. Shiogama et al. 2006; Suo et al. 2013), which is an excellent illustration of the still insufficient knowledge of the mechanisms governing the Arctic Climate System.

In den Conclusions vergleichen die Autoren die Wärme der 1930er Jahre mit den heutigen Werten:

…during the 1930/31 expedition it was 4.6 °C warmer than the years 1981–2010.