News und Termine

Klimamodelle auf dem Prüfstand

Klimamodelle wurden vor zwanzig Jahren als der große Durchbruch gefeiert. Endlich konnte man die Realität im Computer nachvollziehen. Immer größer und schneller wurden die Rechner. Man glaubte fest daran, dass man nur noch i-Tüpfelchen justieren müsste und kurz vor dem Ziel war. Als dann aber die Rechenergebnisse mit der Realität verglichen wurden, ergaben sich riesige unerklärliche Diskrepanzen. Parallel dazu erarbeiteten Paläoklimatologen eine immer robustere Rekonstruktion des realen Klimaverlaufs, was die Probleme sogar noch offensichtlicher machte. Im Monatsabstand erscheinen heute Papers, die auf die schwerwiegenden Probleme der Klimamodellier hinweisen. Tests werden bevorzugt in der Mitte der Kleinen Eiszeit um 1800 begonnen, da dann die Erwärmung der letzten 200 Jahre so schön zum CO2-Anstieg passt. Geht man dann aber auf die letzten 1000 Jahre zurück, versagt die Technik.

Fabius Maximus wies im März 2016 auf das Offensichtliche hin: Die Modelle müssen viel schärfer getestet und kalibriert werden, bevor sie für Zukunftsmodellierungen freigegeben werden:

We can end the climate policy wars: demand a test of the models
[...] The policy debate turns on the reliability of the predictions of climate models. These can be tested to give “good enough” answers for policy decision-makers so that they can either proceed or require more research. I proposed one way to do this in Climate scientists can restart the climate change debate & win: test the models!— with includes a long list of cites (with links) to the literature about this topic. This post shows that such a test is in accord with both the norms of science and the work of climate scientists. [...] Models should be tested vs. out of sample observations to prevent “tuning” the model to match known data (even inadvertently), for the same reason that scientists run double-blind experiments). The future is the ideal out of sample data, since model designers cannot tune their models to it. Unfortunately…

“…if we had observations of the future, we obviously would trust them more than models, but unfortunately observations of the future are not available at this time.”
— Thomas R. Knutson and Robert E. Tuleya, note in Journal of Climate, December 2005.

There is a solution. The models from the first four IPCC assessment reports can be run with observations made after their design (from their future, our past) — a special kind of hindcast.

Ein anderer großer Kritikpunkt an den Kimamodellen ist das sogenannte Tuning. Hier werden die Klimamodelle so justiert, das sie möglichst nah an das gewünschte Ergebnis herankommen. Dies geschieht meist hinter verschlossenen Türen im dunklen Kämmerlein und leidet unter fehlender Transparenz. Hourdin et al. 2016 haben das Problem in einem Übersichtspaper ausführlich beschrieben. Judith Curry empfiehlt die Abhandlung wärmstens.

Two years ago, I did a post on Climate model tuning,  excerpts: “Arguably the most poorly documented aspect of climate models is how they are calibrated, or ‘tuned.’ I have raised a number of concerns in my Uncertainty Monster paper and also in previous blog posts.The existence of this paper highlights the failure of climate modeling groups to adequately document their tuning/calibration and to adequately confront the issues of introducing subjective bias into the models through the tuning process.”

Think about it for a minute. Every climate model manages to accurately reproduce the 20th century global warming, in spite of the fact that that the climate sensitivity to CO2 among these models varies by a factor of two. How is this accomplished? Does model tuning have anything to do with this?

Ganzen Beitrag auf Climate Etc. lesen.

Im November 2016 beschrieb Paul Voosen im angesehenen Fachblatt Science die Notwendigkeit, die Geheimniskrämerei zu beenden und die Black Boxes im Sinne der Transparenz für die Öffentlichkeit zu öffnen:

Climate scientists open up their black boxes to scrutiny
Climate models render as much as they can by applying the laws of physics to imaginary boxes tens of kilometers a side. But some processes, like cloud formation, are too fine-grained for that, and so modelers use “parameterizations”: equations meant to approximate their effects. For years, climate scientists have tuned their parameterizations so that the model overall matches climate records. But fearing criticism by climate skeptics, they have largely kept quiet about how they tune their models, and by how much. That is now changing. By writing up tuning strategies and making them publicly available for the first time, groups hope to learn how to make their predictions more reliable—and more transparent.

 

Sonne macht Klima: Spanien und Portugal

Beeinflusst die Sonne das Klima? Im heutigen Beitrag wollen wir neue Studien aus Spanien und Portugal vorstellen, die hier Licht ins Dunkel bringen. Im Februar 2017 erschien in Climate of the Past eine Baumring-Studie einer Gruppe um Ernesto Tejedor, in der eine Temperaturrekonstruktion für die Iberische Halbinsel für die vergangenen 400 Jahre vorgestellt wird. Die Autoren heben hervor, dass die Temperaturschwankungen recht gut mit den Schwankungen der Sonnenaktivität zusammenpassen. Warme Phasen gehen dabei mit Zeiten erhöhter Sonnenaktivität einher. Insgesamt hat sich das Untersuchungsgebiet in diesen 400 Jahren um fast 3°C erwärmt, was den Übergang von der Kleinen Eiszeit zur Modernen Wärmeperiode widerspiegelt (Abb.). Allerdings gab es bereits um 1625 und 1800 Phasen, als die Temperaturen für kurze Zeit das heutige Niveau erreichten.

Abbildung: Temperaturentwicklung im Gebirgszug Nordspanien während der letzten 400 Jahre und Vergleich mit der Sonnenaktivität. Quelle: Tejedor et al. 2017.

 

Hier der Abstract der Studie:

Temperature variability in the Iberian Range since 1602 inferred from tree-ring records
Tree rings are an important proxy to understand the natural drivers of climate variability in the Mediterranean Basin and hence to improve future climate scenarios in a vulnerable region. Here, we compile 316 tree-ring width series from 11 conifer sites in the western Iberian Range. We apply a new standardization method based on the trunk basal area instead of the tree cambial age to develop a regional chronology which preserves high- to low-frequency variability. A new reconstruction for the 1602–2012 period correlates at −0.78 with observational September temperatures with a cumulative mean of the 21 previous months over the 1945–2012 calibration period. The new IR2Tmax reconstruction is spatially representative for the Iberian Peninsula and captures the full range of past Iberian Range temperature variability. Reconstructed long-term temperature variations match reasonably well with solar irradiance changes since warm and cold phases correspond with high and low solar activity, respectively. In addition, some annual temperature downturns coincide with volcanic eruptions with a 3-year lag.

Weiter gehts in Portugal. Anna Morozova und Tatiana Barlyaeva analysierten den Temperaturverlauf der letzten 100 Jahre in Lissabon, Coimbra und Porto. Dabei stießen sie auf ein schwaches aber statistisch gut abgesichertes Signal der 11- und 22-jährigen Sonnenzyklen in den Temperaturdaten. Im Haupttext ihrer Arbeit heißt es dazu:

Weak but statistically significant (bi-)decadal signals in the temperature series that can be associated with the solar and geomagnetic activity variations were found. These signals are stronger during the spring and autumn seasons. The multiple regression models which include the sunspot numbers or the geomagnetic indices among other regressors have higher predictionquality. The wavelet coherence analysis shows that there are time lags between the temperature variations and the solar activity cycles. These lags are about 1–2 years in case of the 11-yr solar cycle as well as in case of the 22-yr solar magnetic cycle (relatively to the solar polar magnetic field observations). These lags are confirmed by the correlation analysis. The results obtained by these methods as well as comparison to results of other studies allow us to conclude that the found (bi-)decadal temperature variability modes can be associated, at least partly, with the effect of the solar forcing.

Bleiben wir in Portugal, gehen aber auf den weiten Atlantischen Ozean hinaus. Die Inselgruppe der Azoren spielt eine wichtige Rolle im westeuropäsichen Westtergeschehen. Im November 2016 ging eine Gruppe um Roy et al. im Journal of Atmospheric and Solar-Terrestrial Physics der Frage nach, ob bei der Ausprägung des berühmten Azoren-Hoch vielleicht die Sonnenaktivität eine Rolle spielen könnte. Ein solarer Einfluss auf diese wichtige Wettermaschine wäre bedeutsam. Und in der Tat stellten die Autoren eine signifikante Kopplung des Azorenhochs an die Sonnenaktivität fest. Sichtbar wird der Zusammenhang vor allem, wenn man die verschiedenen solaren Akivitätskennziffern berücksichtigt, nicht nur die meist verwendeten Sonnenflecken. Es wird immer klarer, dass das solare Magnetfeld eine mindestens ebenso wichtige Rolle spielt, was auch im Fall der Azoren den Durchbruch brachte. Zudem müssen zeitliche Verzögerungseffekte von 1-2 Jahren eingerechnet werden. Das Klimasystem ist träge und springt nicht gleich über jedes Stöckchen das man ihm hinhält. Manchmal dauert es ein wenig, bis sich das System an den externen Signalgeber orientiert und anpasst. Hier der Abstract der spannenden Studie:

Comparing the influence of sunspot activity and geomagnetic activity on winter surface climate
We compare here the effect of geomagnetic activity (using the aa index) and sunspot activity on surface climate using sea level pressure dataset from Hadley centre during northern winter. Previous studies using the multiple linear regression method have been limited to using sunspots as a solar activity predictor. Sunspots and total solar irradiance indicate a robust positive influence around the Aleutian Low. This is valid up to a lag of one year. However, geomagnetic activity yields a positive NAM pattern at high to polar latitudes and a positive signal around Azores High pressure region. Interestingly, while there is a positive signal around Azores High for a 2-year lag in sunspots, the strongest signal in this region is found for aa index at 1-year lag. There is also a weak but significant negative signature present around central Pacific for both sunspots and aa index. The combined influence of geomagnetic activity and Quasi Biannual Oscillation (QBO 30 hPa) produces a particularly strong response at mid to polar latitudes, much stronger than the combined influence of sunspots and QBO, which was mostly studied in previous studies so far. This signal is robust and insensitive to the selected time period during the last century. Our results provide a useful way for improving the prediction of winter weather at middle to high latitudes of the northern hemisphere.

 

Sonne macht Klima: Elfjähriger Sonnenzyklus beeinflusst das Wetter in Mitteleuropa

Immer wieder heißt es: Die Sonne kann nichts, sie wäre klimatisch nahezu wirkungslos, ein zahnloser Tiger. Diese Behauptung des IPCC steht im krassen Gegensatz zur Mehrheit der Forscher, die dieses Feld beackern. In hunderten von Publikationen und Fallstudien haben sie die Klimawirkung der Sonne eindrucksvoll belegt und stoßen bei den IPCC-Managern auf taube Ohren. Im heutigen Beitrag wollen wir uns neue Studien aus Europa vornehmen.

Im Januar 2017 erschien in Geology ein Artikel von Ludwig Luthardt und Ronny Rößler. Sie untersuchten Baumringe an einem fossilen Stumpf aus der Perm-Zeit (290 Millionen Jahre vor unserer Zeit) in einem Wald bei Chemnitz und fanden ein bemerkenswertes Muster: Die Dicke der Ringe pulsierte im 11-Jahrestakt. Dieser Rhythmus ist allen Paläoklimatologen bestens bekannt. Es ist der Schwabe-Zyklus, der kürzeste aller Sonnenzyklen. Sonne macht Klima! Hier der Abstract der Arbeit:

Fossil forest reveals sunspot activity in the early Permian
Modern-day periodic climate pattern variations related to solar activity are well known. High-resolution records such as varves, ice cores, and tree-ring sequences are commonly used for reconstructing climatic variations in the younger geological history. For the first time we apply dendrochronological methods to Paleozoic trees in order to recognize annual variations. Large woody tree trunks from the early Permian Fossil Forest of Chemnitz, southeast Germany, show a regular cyclicity in tree-ring formation. The mean ring curve reveals a 10.62 yr cyclicity, the duration of which is almost identical to the modern 11 yr solar cycle. Therefore, we speculate and further discuss that, like today, sunspot activity caused fluctuations of cosmic radiation input to the atmosphere, affecting cloud formation and annual rates of precipitation, which are reflected in the tree-ring archive. This is the earliest record of sunspot cyclicity and simultaneously demonstrates its long-term stable periodicity for at least 300 m.y.

Nun könnte man sagen, naja, das war vor 290 Millionen Jahren. Die klimabeeinflussende Fähigkeit hat die Sonne doch mittlerweile sicher verloren. Eine neue Arbeit von Mikhaël Schwander und Kollegen zeigt, dass diese Annahme grundsätzlich falsch ist. Der 11 jährige Sonnenzyklus hat auch in den letzten 250 Jahren das mitteleuropäische Wettergeschehen nachdrücklich mitgeprägt, wie die Auswertung von historischen Wetteraufzeichnungen zeigt. Während solarer Schwächephasen werden Westwinde über Mitteleuropa typischerweise seltener, und es treten vermehrt Winde aus nördlichen und östlichen Richtungen auf. Gleichzeitig gibt es mehr blockierte Wetterlagen im Bereich von Island und Skandinavien. Insgesamt läßt eine schwache Sonne die spätwinterlichen Temperaturen in Europa absinken. Die Autoren verglichen die von ihnen identifizierten Zusammenhänge mit den Ergebnissen von Klimamodellen und stellten fest, dass die Modell die Realität und empirisch belegten klimatischen Einfluss der Sonnenzyklik nicht nachvollziehen können. Die bemerkenswerte Studie erschien im Januar 2017 in Climate of the Past Discussions. Hier der Abstract:

Influence of solar variability on the occurrence of Central European weather types from 1763 to 2009
The impact of solar variability on weather and climate in Central Europe is still not well understood. In this paper we use a new time series of daily weather types to analyse the influence of the 11-year solar cycle on the tropospheric weather of Central Europe. We employ a novel, daily weather type classification over the period 1763–2009 and investigate the occurrence frequency of weather types under low, moderate and high solar activity level. Results show a tendency towards fewer days with westerly and west south-westerly flow over Central Europe under low solar activity. In parallel, the occurrence of northerly and easterly types increases. Changes are consistent across different sub-periods. For the 1958–2009 period, a more detailed view can be gained from reanalysis data. Mean sea level pressure composites under low solar activity also show a reduced zonal flow, with an increase of the mean blocking frequency between Iceland and Scandinavia. Weather types and reanalysis data show that the 11-year solar cycle influences the late winter atmospheric circulation over Central Europe with colder (warmer) conditions under low (high) solar activity. Model simulations used for a comparison do not reproduce the imprint of the 11-year solar cycle found in the reanalyses data.

Einen Monat zuvor war im Dezember 2016 in Climate of the Pasteine weitere Studie zum Thema erschienen. Ein 32-köpfiges Mammutteam um Chantal Camenisch hat die kalten 1430er Jahre in Nordwest- und Mitteleuropa näher analysiert. Die Kältephase ist gut dokumentiert und fällt interessanterweise in eine solare Schwächephase, nämlich das Spörer Minimum. Ob hier vielleicht ein Zusammenhang bestehen könnte? Die Forscher bestätigten zunächst die Kältephase eindrucksvoll mit einem ganzen Strauß an Rekonstruktionsmethoden. Dann jedoch beschritten sie einen Argumentationspfad, der wenig Sinn macht. Sie gaben ihre Daten in Klimamodelle ein und konnten keinen ursächlichen Zusammenhang zwischen Abkühlung und Sonnenabschwächung feststellen. Kunststück, denn die Klimamodelle sind ja genau so programmiert, dass kein Zusammenhang herauskommt. Der Strahlungsantrieb von solaren Schwankungen ist in den Modellen so niedrig angesetzt, dass hier niemals ein Bezug gefunden werden könnte. Damit handelt es sich um einen Pseudobeweis gegen die Sonne, der keinen Wert hat.

Aber eine Erklärung für die Kälte der 1430er Jahre brauchte die Gruppe trotzdem. Man spielte den Joker und behauptete einfach, es wäre eine Laune der Natur, eine kaum vorhersagbare klimasysteminterne Schwankung. Ein schwaches Resultat, das vermutlich ein Kompromiss des riesengroßen Autorenkollektiv war und nicht unbedingt die Meinung jedes einzelnen Teammitglieds widerspiegelt. Ein schönes Beispiel für politisch korrekte Forschung, bei der das Offensichtliche nicht herauskommen darf, weil die Konsequenzen unerwünscht sind. Das wirkliche Resultat: Bei den Klimamodellen ist etwas faul. Albert Einstein: „Das, wobei unsere Berechnungen versagen, nennen wir Zufall“. Hier der Abstract:

The 1430s: a cold period of extraordinary internal climate variability during the early Spörer Minimum with social and economic impacts in north-western and central Europe

Changes in climate affected human societies throughout the last millennium. While European cold periods in the 17th and 18th century have been assessed in detail, earlier cold periods received much less attention due to sparse information available. New evidence from proxy archives, historical documentary sources and climate model simulations permit us to provide an interdisciplinary, systematic assessment of an exceptionally cold period in the 15th century. Our assessment includes the role of internal, unforced climate variability and external forcing in shaping extreme climatic conditions and the impacts on and responses of the medieval society in north-western and central Europe.

Climate reconstructions from a multitude of natural and anthropogenic archives indicate that the 1430s were the coldest decade in north-western and central Europe in the 15th century. This decade is characterised by cold winters and average to warm summers resulting in a strong seasonal cycle in temperature. Results from comprehensive climate models indicate consistently that these conditions occurred by chance due to the partly chaotic internal variability within the climate system. External forcing like volcanic eruptions tends to reduce simulated temperature seasonality and cannot explain the reconstructions. The strong seasonal cycle in temperature reduced food production and led to increasing food prices, a subsistence crisis and a famine in parts of Europe. Societies were not prepared to cope with failing markets and interrupted trade routes. In response to the crisis, authorities implemented numerous measures of supply policy and adaptation such as the installation of grain storage capacities to be prepared for future food production shortfalls.

 

Winterliche Schneebedeckung der Nordhalbkugel hat sich in den letzten 50 Jahren erhöht

Am 10. Februar 2017 erschien im Traunsteiner Tagblatt (TT) ein erfrischendes Interview, in dem sich Günther Aigner gegen die allseits verbreitete Schnee-Endzeit-Stimmung ausspricht:

»Der Klimawandel bedroht den Wintersport derzeit nicht«
Es gibt vielmehr über die Jahrzehnte gesehen ein ständiges Auf und Ab von kälteren und wärmeren Perioden – ohne erkennbare Tendenz. »Der Klimawandel bedroht den Wintersport derzeit nicht«, sagt Günther Aigner, der in Innsbruck Sport und Wirtschaft studiert hat. Niemand könne allerdings voraussagen, wie es in Zukunft aussehe. Prognosen hält er für unseriös.

TT: Wieso haben Sie sich die Mühe gemacht und über Monate Tausende Daten ausgewertet?

Günther Aigner: Mich hat es fasziniert, dass sich alle einig sind, dass der Skisport wegen des Klimas keine Zukunft hat. Also habe ich begonnen, Wintertemperatur- und Schneedaten aus den Alpen auszuwerten. Diese Arbeit war so spannend, dass ich sie nun hauptberuflich mache.

TT: Ihre Untersuchungen haben ergeben, dass die Winter auf den Bergen der Ostalpen sogar kälter wurden, nicht wärmer. Wie kann das sein? Das Abschmelzen der Gletscher ist schließlich eine Tatsache…

Günther Aigner: Die Winter sind auf den Bergen innerhalb der letzten 30 Jahre kälter geworden, weil wir nicht mehr so häufige milde West- und Südwetterlagen wie noch Anfang der 1990er Jahre haben. Es liegt also an der Häufigkeitsverteilung der Großwetterlagen, und nicht am globalen Temperaturregime. Die Gletscher schmelzen, weil die Sommer in den Alpen in den letzten 30 Jahren viel sonniger und heißer wurden. Die Sommerschneefälle auf den Bergen haben sich drastisch reduziert.

TT: Jedes Jahr wieder gibt es die Diskussion um weiße Weihnachten. Ist es nicht ganz normal, dass im Dezember kein oder nur wenig Schnee liegt?

Günther Aigner: Doch, genau so ist es. Es ist normal, dass der Winter rund um Weihnachten erst beginnt. Eine tief verschneite weihnachtliche Landschaft ist somit die absolute Ausnahme und nicht die Regel. Unsere Gesellschaft bewertet den Winter allerdings daran, ob es zu Weihnachten kalt ist und Schnee hat. Das ist absurd.

Weiterlesen im Traunsteiner Tagblatt

Aigners hochinformative Auswertungen können Sie auf der Webplattform Zukunft Skisport finden. Hier geht es direkt zu den Klimadaten. Bereits im Oktober 2016 hatten sich die Betreiber von Seilbahnen gegen die Schnee-Panikmache gewehrt. Beitrag auf ORF Salzburg:

Klimawandel: Seilbahnmanager weiter optimistisch
Milde Winter seien noch über Jahrzehnte kein Problem für den Skitourismus, sagen Pinzgauer Seilbahnmanager. Sie widersprechen damit jüngsten Untersuchungen, wonach Schneesaisonen in den Alpen künftig bis zu 40 Tage kürzer sein könnten.

Wir nutzen die Gelegenheit und schauen in die offiziellen Schneedaten der Rutgers University. Wie hat sich die Schneebedeckung in den letzten Jahrzehnten wirklich verändert? Wir beginnen mit den Winter-Schneetrends für die Nordhalbkugel für die vergangenen 50 Jahre (Abbildung 1). Eine Riesenüberraschung: Die winterliche Schneebedeckung hat sich im letzten halben Jahrhundert erhöht!

Abbildung 1: Schneeausdehnung im Winter auf der Nordhalbkugel während der letzten 50 Jahre. Quelle: Rutgers University

 

Auf der gleichen Webseite kann man auch andere Jahreszeiten wählen. Der Herbstschnee hat ebenfalls zugenommen. Nur im Frühling ist die Schneebedeckung geschrumpft.

Verkleinern wir nun das Betrachtungsgebiet auf Europa und Asien (“Eurasien”). Zunächst wieder der Winterschneetrend (Abbildung 2). Das gleiche Ergebnis wie zuvor: Auch in Eurasien hat sich die winterliche Schneebedeckung in den letzten 50 Jahren erhöht.

Abbildung 2: Schneeausdehnung im Winter in Europa und Asien während der letzten 50 Jahre. Quelle: Rutgers University.

 

Die eurasischen Schneetrends für Herbst und Frühling entsprechen denjenigen der Nordhalbkugel. Auf der selben Webseite gibt es auch die nordamerikanischen Trends, die wiederum den bereits vorgestellten Entwicklungen entsprechen. Auf einer NOAA-Webseite kann man sich die Schneedaten sogar aufgeschlüsselt nach Monaten plotten lassen. In den Monaten September bis Januar ist der Schnee im letzten halben Jahrhundert auf der Nordhalbkugel häufiger, von Februar bis August ist er seltener geworden. Vielleicht sollten die Skifahrer ihren Skiurlaub einfach ein paar Monate vorziehen, anstatt sich im Frühling über Schneemangel zu beschweren?

Nun sind die nördliche Halbkugel und Eurasien riesige Regionen. Aus individueller Sicht interessiert sich jeder für sein eigenes Skigebiet, und dabei können lokale Trends natürlich von den (halb-) globalen Trends abweichen. Beispiel Bayerische Alpen in Deutschland, für die der Bayerische Rundfunk eine Schneestatistik mit sieben Stationen seit 1961 anbietet. Fünf Stationen (Oberstorf, Garmisch-Partenkirchen, Wendelstein, Reit im Winkel, Bad Reichenhall) zeigen einen statistisch signifikanten Rückgang der Schneetage im Winterhalbjahr (hier ist der halbe Herbst und Frühling enthalten) während der vergangenen 55 Jahre. Nur Mittenwald und Zugspitze sind einigermaßen stabil.

Zu beachten ist, dass der Startpunkt der Statistik in den 1960er Jahren in einer natürlichen Kältedelle in der Temperaturkurve liegt. Zwischen 1935 und 1952 lagen die Deutschlandtemperaturen jedoch deutlich über dem Durchschnitt der 1960er und frühen 70er Jahre (Abbildung 3), was vermutlich zu weniger Schneefall führte. Es wäre daher begrüßenswert, wenn die Schneestatistik weiter in die Vergangenheit ausgebaut werden könnte, um ein kompletteres Bild der Trends unnd ihrer natürlichen Schwankungsbreite zu bekommen.

Abb. 3: Temperaturentwicklung in Deutschland während der vergangenen 135 Jahre. Quelle: Quelle: Kaspar, F., H. Mächel (2017): Beobachtung von Klima und Klimawandel in Mitteleuropa und Deutschland, in: Brasseur, G.P., D. Jacob, S. Schuck-Zöller (Hrsg.; 2017): Klimawandel in Deutschland, Entwicklung, Folgen, Risiken und Perspektiven, Berlin Heidelberg, 17-26. Via Wiki Bildungsserver Klimawandel.


                    

Temperaturdaten-Stabilitätspakt dringend benötigt: NASA kühlt die 1930er Jahre nachträglich um zwei ganze Zehntelgrad ab

Mehrere Leser baten uns, die bunte Welt der Temperaturdatensätze und ihre Stolperfallen noch einmal vorzustellen. Die Anregung nehmen wir gerne auf, da es zu Jahresbeginn wieder zu Verwirrung gekommen ist: Während einige Datenlieferanten Stagnation meldeten, überboten sch andere mit neuen Rekorden. Was steckt hinter dieser Konfusion?

Es ist ein bisschen wie beim Boxen: Es gibt nicht nur einen Weltverband der Temperaturstatistik, sondern gleich eine ganze handvoll. Zu unterscheiden sind zwei Gruppen: Temperaturmessungen am Erdboden und Messungen per Satellit. Die drei wichtigsten Bodentemperaturdatensätze stammen von der NASA (GISS), vom britischen Hadley Centre (HadCRUT) sowie von der US-amerikanischen NOAA (NCDC). Bei den Satellitendaten gibt es RSS (Remote Sensing Systems) und UAH (University of Huntsville in Alabama). Die Bodendaten gehen mehr als 100 Jahre zurück, während die Satelliten erst Ende der 1970er Jahre den Betrieb aufnahmen. Zwar zeigen alle Datensätze die Erwärmung der letzten Jahrzehnte, aber Unterschiede gibt es.

Wer ein bisschen mit den Temperaturdaten selber experimentieren möchte, dem sei die benutzerfreundliche Webseite Wood for Trees empfohlen, wo man mit ein paar Klicks tolle Kurven generieren kann. Zu beachten ist, dass alle Datensätze unterschiedliche Referenzperioden haben, daher ist der absolute Temperaturvergleich erst nach einer Korrektur (“Offset”) und Angleichung der Baselines möglich.

Generell ist es so, dass die Satellitendaten weniger Erwärmung zeigen, als die Bodendaten. Weshalb ist das so? Die Bodendaten werden aus einer Vielzahl von Stationen generiert, wobei gewisse Anpassungen zur Vergleichbarkeit notwendig sind. Dies wird in der Fachwelt “Korrekturen” genannt. Fiktives Beispiel: Wenn in der Vergangenheit zum Beispiel Temperaturen in einer schwarzen Hütte gemessen wurde und heute in einer weißen, dann müssen die schwarzen Werte auf weiß umgerechnet werden. Das ist soweit in Ordnung. Trotzdem steckt hier auch das Problem, denn es wurden in der Vergangenheit soviele “Korrekturen” durchgeführt, dass einem fast schwindelig werden konnte. Im Jahresrhythmus wurden vor allem die neueren Temperaturen angehoben, während die älteren Temperaturen abgesenkt wurden. Schwupps, war am Computer eine künstliche Erwärmung herbeigezaubert. Der Kreis derjenigen, die diese nichttransparente Datenverbiegung nachvollziehen und bewerten kann, ist äußerst klein. Für subjektive Entscheidungen stehen Tür und Tor offen, ohne dass es aus dem kleinen Zirkel nach außen dringt.

Schauen wir uns das Beispiel GISS an. Seit vielen Jahren stehen diesem New Yorker NASA-Institut bekennende Klimaaktivisten vor, erst James Hansen, jetzt Gavin Schmidt. Keine gute Ausgangslage für die Betreuung einer als neutral gedachten Temperaturdatenbank. Es wundert daher kaum, dass GISS zu den Datensätze mit der stärksten Erwärmung zählt. Das Wort ‘Betrug’ ist hier sicher falsch, aber man kann sich leicht vorstellen, dass es bei den vielen Entscheidungsmöglichkeiten im Workflow stets zugunsten einer verstärkten Erwärmung geht.

Immer wieder haben Kritiker Aufklärung gefordert und eine Untersuchung der nicht endenwollenden Korrekturwelle des GISS angemahnt. Im März 2015 berichtete der Focus über eine solche Initiative, mit dem offensichtlichen Ziel, die Aktion als Tat von wirren Verschwörungstheoretikern abzutun:

Neuer Klimaskandal: Nasa soll bei Erderwärmung Daten gefälscht haben
[...] Das Nasa Goddard Institute for Space Studies (GISS) habe widersprüchliche Daten veröffentlicht, heißt es dort. Und tatsächlich: Die Daten, die die Nasa veröffentlichte, unterscheiden sich deutlich von den ursprünglich gemessenen Temperaturen. Bedeutet das jetzt, dass der Klimawandel eine Lüge ist? Nein. Der Klimawandel ist echt. Das Wetter wird extremer, die Erde heizt sich auf. Zu dem eindeutigen Ergebnis kommen Experten im Gespräch mit der „Bild“-Zeitung. Diese Experten erklären auch, warum es Abweichungen in den Daten der Nasa gibt. Demnach sei es eine ganz normale wissenschaftliche Methode, die Daten nachträglich anzupassen. Das sei aufgrund einiger Faktoren nötig, die die Messungen ungenau machen. So gibt es zum Beispiel Lücken bei den Messdaten, etwa wegen eines Ausfalls von Beobachtern. Auch kam es zu Stationsverlegungen und zu Zeitunterschieden bei den Messungen (das heißt, einmal wird mittags, dann wieder morgens gemessen), heißt es im Bericht der “Bild”-Zeitung weiter. Beides führt zu Abweichungen bei den Daten. Auch das Ersetzen veralteter durch moderne Technik führte zu veränderten Klimadaten. Dass den Klimaforschern heute oft nur „unsaubere“ Daten vorliegen liege auch daran, dass die Leute früher nicht davon ausgingen, dass ihre Ergebnisse für Langzeit-Analysen zum Klimawandel benutzt werden sollten. Mit verschiedenen Methoden werden die Daten deshalb nachträglich kalibriert. Die Experten sind sich einig, wie die “Bild”-Zeitung berichtet: Der Klimawandel existiert. Kein Grund für Verschwörungstheorien also.

Experten beruhigen: Alles gut. Hier gibt es nichts zu sehen. Gehen Sie bitte zügig weiter. Das würden wir gerne glauben, wollen aber doch nicht ganz auf Belege verzichten. Wir vergleichen eine ältere Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve):

Abbildung: Vergleich einer älteren Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve). Daten GISS, Graphik: Climate4You.

 

Sehen Sie es auch? In diesem letzten Update, wurden die Temperaturen für die letzten 35 Jahre in aller Stille um ein halbes Zehntelgrad angehoben. Prinzip Salamitaktik: Immer ein bisschen mehr. Wie Sie wissen, geht es bei der Klimaerwärmung insgesamt “lediglich” um acht Zehntelgrad, da macht ein halbes Zehntel schon etwas aus, insbesondere wenn es vorher schon weitere Korrekturen gegeben hat.

Vielleicht auf Druck von außen bietet die NASA nun einen Online-Vergleich der verschiedenen GISS-Versionen an. Machen wir also die Probe aufs Exempel. Wie sieht der Vergleich mit der vorletzten Korrektur aus? Die schwarze Kurve zeigt die aktuelle Version von 2016 an. Die hellgrüne Kurve ist die Version von 2013 (entspricht vermutlich der roten 2015er Kurve der vorherigen Abbildung). Und die violette Kurve ist die Version von 2012. Ganz genau: Salamitaktik, wieder ein halbes Zehntel. Immer schön unter dem Radar fliegen.

 

Abbildung: Vergleich der GISS-Temperaturversionen von 2012, 2013 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Weiterhin sieht man, wie die Temperaturen zwischen 1920 und 1970 künstlich abgekühlt wurden. Das sieht man noch besser, wenn man die Datenversionen von 1987 und 2016 vergleicht:

Abbildung: Vergleich der GISS-Temperaturversionen von 1987 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Ziemlich unglaublich: Die globalen Temperaturdaten wurden in den 1930er Jahren um zwei ganze Zehntelgrad künstlich heruntergekühlt. Oder anders ausgedrückt: Die Originalmeswerte der Messstationen waren um genau diese zwei Zehntelgrad (immerhin ein Viertel der globalen Gesamterwärmung in den letzten 150 Jahren) wärmer als von GISS heute dargestellt. Um Gründe für die Korrekturen sind die Datenhüter natürlich nicht verlegen. Aber sind sie glaubhaft?

Auch hier: Spielen Sie doch einmal selber mit dem GISS-Versions-Vergleichstool. Es gibt viel zu entdecken!

 

Nicht neu: Es blubbert Methan aus dem Meeresboden

Gashydrate in der Arktis haben der Fachwelt lange Sorge bereitet. Im Zuge der Erderwärmung glaubte man, dass hier riesige Mengen des Treibhausgases Methan in die Atmosphäre gelangen könnten und die Erwärmung weiter anheizen. Die Wissenschaftler machten sich an die Arbeit und fanden glücklicherweise, dass es wohl doch nicht so schlimm kommen wird, wie befürchtet. Wir haben bereits in der Vergangenheit an dieser Stelle berichtet:

Im Folgenden wollen wir weitere neue Literatur zum Thema vorstellen. Das National Oceanography Centre (NOC) in Southampton gab am 19. Oktober 2015 bekannt, dass aus dem Meeresboden vor Spitzbergen Methan austritt, dieses jedoch nur in geringen Mengen an die Meeresoberfläche gelangt, da es schnell von Bakterien zersetzt bzw. von Strömungen forttransportiert wird. Dieser “Deckel” verhindert letztendlich das Austreten des Methans in die Atmosphäre über Spitzbergen. Hier die Pressemitteilung (via Science Daily):

Methane bubbling off Svalbard is not a source of atmospheric greenhouse gas

Methane seeps from seafloor deposits near Svalbard release less ‘greenhouse gas’ into the atmosphere than other Arctic sites because ocean currents there form an effective barrier. This research, by scientists at the National Oceanography Centre (NOC) and the University of Southampton, was published this week in the Journal of Geophysical Research: Oceans.

Dr Carolyn Graves, the lead author of the study from the NOC, said “Strong ocean bottom currents carry the dissolved methane northwards, while bacteria consume it to produce carbon dioxide. This slows and reduces the volume of methane rising up through the ocean towards the atmosphere.”

The Arctic contains large volumes of methane stored in forms that turn into gas if temperatures rise or the pressure they are subject to decreases. These forms include methane trapped in marine sediment beneath permafrost as hydrate- a form of methane ice. If methane gas escapes from these deposits, as well as from seafloor reservoirs, it could add to atmospheric warming, causing a positive climate forcing feedback.

More than 250 plumes of methane gas were discovered rising from the seafloor near Svalbard in 2008. This gas is likely released from methane hydrate destabilized in seafloor sediments beneath about 400 metres water depth. Very high dissolved methane concentrations were observed near the seafloor, while much less methane was present in the surface waters that are in contact with the atmosphere. Researchers used these observations to set up a simple model of physical and biochemical processes. This model shows that strong ocean bottom currents prevent the direct release of the greenhouse gas into the atmosphere.

Dr Doug Connelly from the NOC, and a co-author of this paper, said “While this research shows that methane coming from the seafloor is not reaching the atmosphere in this particular location near Svalbard, there are areas that have more methane hydrate deposits. These may still pose a high risk of increasing global environmental change if released.”

This research involved scientists from seven institutes in the UK, Germany, and Switzerland and forms part of the NOC’s ongoing investigation into the relationship between processes happening at the sea floor, the ocean and the atmosphere. This study received funding from: The Natural Environment Research Council (NERC), the Graduate School of Ocean and Earth Science (University of Southampton, UK), and a Natural Sciences and Engineering Research Council of Canada Postgraduate Scholarship.

Carolyn A. Graves, Lea Steinle, Gregor Rehder, Helge Niemann, Douglas P. Connelly, David Lowry, Rebecca E. Fisher, Andrew W. Stott, Heiko Sahling, Rachael H. James. Fluxes and fate of dissolved methane released at the seafloor at the landward limit of the gas hydrate stability zone offshore western Svalbard. Journal of Geophysical Research: Oceans, 2015; DOI: 10.1002/2015JC011084

Das norwegische Centre for Arctic Gas Hydrate, Environment and Climate (CAGE) erinnerte im Februar 2015 daran, dass der Austritt von Methan aus dem arktische Meeresboden kein neues Phänomen ist, sondern seit vielen Millionen Jahren fester Bestandteil des Kohlenstoffzyklus in Arktis darstellt:

Methane seepage from Arctic seabed occurring for millions of years

Natural seepage of methane offshore the Arctic archipelago Svalbard has been occurring periodically for at least 2,7 million years. Major events of methane emissions happened at least twice during this period, according to a new study. We worry about greenhouse gas methane. Its lifetime in the atmosphere is much shorter than CO2´s, but the impact of methane on climate change is over 20 times greater than CO2 over a 100-year period.  60 percent of the methane in the atmosphere comes from emissions from human activities. But methane is a natural gas, gigatonnes of it trapped under the ocean floor in the Arctic.

And it is leaking. And it has been leaking for longer time than the humans have roamed the Earth

” Our planet is leaking methane gas all the time. If you go snorkeling in the Caribbean you can see bubbles raising from the ocean floor at 25 meters depth. We studied this type of release, only in a much deeper, colder and darker environment. And found out that it has been going on, periodically, for as far back as 2,7 million years.” says Andreia Plaza Faverola, researcher at CAGE and the primary author behind a new paper in Geophysical Research Letters. She is talking about Vestnesa Ridge in Fram Strait,  a thousand meters under the Arctic Ocean surface offshore West-Svalbard. Here, enormous – 800 meters high – gas flares rise from the seabed today. That’s the size of the tallest manmade structure in the world – Burj Khalifa in Dubai. “Half of Vestnesa Ridge is showing very active seepage of methane. The other half is not. But there are obvious pockmarks on the inactive half, cavities and dents in the ocean floor, that we recognized as old seepage features. So we were wondering what activates, or deactivates, the seepage in this area.,” says Plaza Faverola.

Why 2,7 million years?

She, and a team of marine geophysicists from CAGE, used the P-Cable technology , to figure it out. It is a seismic instrument that is towed behind a research vessel. It recorded the sediments beneath these pockmarks. P-Cable renders images that look like layers of a cake. It also enables scientists to visualize deep sediments in 3D. ” We know from other studies in the region that the sediments we are looking at in our seismic data are at least 2.7 million years old. This is the period of increase of glaciations in the Northern Hemisphere, which influences the sediment..  The P-Cable enabled us to see features in this sediment, associated with gas release in the past.“ “These features can be buried pinnacles or cavities that form what we call gas chimneys in the seismic data. Gas chimneys appear like vertical disturbances in the layers of our sedimentary cake.  This enables us to reconstruct the evolution of gas expulsion from this area for at least 2,7 million years.” says Andreia Plaza Faverola. The seismic signal penetrated into 400 to 500 meters of sediment to map this timescale.

How is the methane released?

By using this method, scientists were able to identify two major events of gas emission throughout this time period: One 1,8 million years ago, the other 200 000 years ago. This means that there is something that activated and deactivated the emissions several times. Plaza Faverola´s paper gives a plausible explanation: It is the movement of the tectonic plates that influences the gas release. Vestnesa is not like California though, riddled with earthquakes because of the moving plates. The ridge is on a so-called passive margin. But as it turns out, it doesn´t take a huge tectonic shift to release the methane stored under the ocean floor. “Even though Vestnesa Ridge is on a passive margin, it is between two oceanic ridges that are slowly spreading. These spreading ridges resulted in separation of Svalbard from Greenland and opening of the Fram Strait. The spreading influences the passive margin of West-Svalbard, and even small mechanical collapse in the sediment can trigger seepage.” says Faverola.

Where does the methane come from?

The methane is stored as gas hydrates, chunks of frozen gas and water, up to hundreds of meters under the ocean floor. Vestnesa hosts a large gas hydrate system. There is some concern that global warming of the oceans may melt this icy gas and release it into the atmosphere. That is not very likely in this area, according to Andreia Plaza Faverola. ” This is a deep water gas hydrate system, which means that it is in permanently cold waters and under a lot of pressure. This pressure keeps the hydrates stable and the whole system is not vulnerable to global temperature changes. But under the stable hydrates there is gas that is not frozen. The amount of this gas may increase if hydrates melt at the base of this stability zone, or if gas from deeper in the sediments arrives into the system.  This could increase the pressure in this part of the system, and the free gas may escape the seafloor through chimneys. Hydrates would still remain stable in this scenario .”

 Historical methane peaks coincide with increase in temperature

Throughout Earth´s history there have been several short periods of significant increase in temperature. And these periods often coincide with peaks of methane in the atmosphere , as recorded by ice cores. Scientists such as Plaza Faverola are still debating about the cause of this methane release in the past. ” One hypotheses is that massive gas release from geological sources, such as volcanos or ocean sediments may have influenced global climate..  What we know is that there is a lot of methane released at present time from the ocean floor. What we need to find out is if it reaches the atmosphere, or if it ever did.” Historical events of methane release, such as the ones in the Vestnesa Ridge, provide crucial information that can be used in future climate modeling. Knowing if these events repeat, and identifying what makes them happen, may help us to better predict the potential influence of methane from the oceans on future climate.

Reference: Role of tectonic stress in seepage evolution along the gas hydrate-charged Vestnesa Ridge, Fram Strait. A.Plaza Faverola, S.Bünz, J.E.Johnson, S. Chand, J. Knies, J. Mienert and P. Franek. Geophysical Research Letters. 2015.

Vier Monate später, im Juni 2015, berichte CAGE über neueste Expeditionsergebnisse zur Methanforschung in der Arktis.

Mithilfe von Tauchrobotern hat man heute eine recht gutes Bild, wie es um die Methanaustrittsstellen herum am Meeresboden aussieht. Fasziniert zeigten sich Forscher der University of Oregon, als sie hier komplexe Lebensgemeinschaften fanden, die das Methan als Antrieb nutzten und damit zum Teil entschärften. Pressemitteilung der Uni vom 31. Mai 2016:

Hydrothermal vents, methane seeps play enormous role in marine life, global climate

The hydrothermal vents and methane seeps on the ocean floor that were once thought to be geologic and biological oddities are now emerging as a major force in ocean ecosystems, marine life and global climate. However, even as researchers learn more about their role in sustaining a healthy Earth, these habitats are being threatened by a wide range of human activities, including deep-sea mining, bottom trawling and energy harvesting, scientists say in a report published in Frontiers in Marine Science.

Researchers from Oregon State University first discovered these strange, isolated worlds on the ocean bottom 40 years ago. These habitats surprised the scientific world with reports of hot oozing gases, sulfide chimneys, bizarre tube worms and giant crabs and mussels – life forms that were later found to eat methane and toxic sulfide. “It was immediately apparent that these hydrothermal vents were incredibly cool,” said Andrew Thurber, an assistant professor in the OSU College of Earth, Ocean and Atmospheric Sciences, and co-author on the new report. “Since then we’ve learned that these vents and seeps are much more than just some weird fauna, unique biology and strange little ecosystems. Rather than being an anomaly, they are prevalent around the world, both in the deep ocean and shallower areas. They provide an estimated 13 percent of the energy entering the deep sea, make a wide range of marine life possible, and are major players in global climate.”

As fountains of marine life, the vents pour out gases and minerals, including sulfide, methane, hydrogen and iron – one of the limiting nutrients in the growth of plankton in large areas of the ocean. In an even more important role, the life forms in these vents and seeps consume 90 percent of the released methane and keep it from entering the atmosphere, where as a greenhouse gas it’s 25 times more potent than carbon dioxide. “We had no idea at first how important this ecological process was to global climate,” Thurber said. “Through methane consumption, these life forms are literally saving the planet. There is more methane on the ocean floor than there are other forms of fossil fuels left in the oceans, and if it were all released it would be a doomsday climatic event.”

In reviewing the status of these marine geological structures and the life that lives around them, a group of researchers from 14 international universities and organizations have outlined what’s been learned in the past four decades and what forces threaten these ecosystems today. The synthesis was supported by the J.M. Kaplan fund. These vents and seeps, and the marine life that lives there, create rocks and habitat, which in some settings can last tens of thousands of years. They release heat and energy, and form biological hot spots of diversity. They host extensive mussel and clam beds, mounds of shrimp and crab, create some prime fishing habitat and literally fertilize the ocean as zooplankton biomass and abundance increases. While the fluid flows from only a small section of the seafloor, the impact on the ocean is global.

Some of the microorganisms found at these sites are being explored for their potential to help degrade oil spills, or act as a biocatalytic agent for industrial scrubbing of carbon dioxide. These systems, however, have already been damaged by human exploitation, and others are being targeted, the scientists said. Efforts are beginning to mine them for copper, zinc, lead, gold and silver. Bottom trawling is a special concern, causing physical disturbance that could interfere with seeps, affect habitat and damage other biologic linkages. Oil, gas or hydrate exploitation may damage seeps. Whaling and logging may interfere with organic matter falling to the ocean floor, which serves as habitat or stepping stones for species reliant on chemosynthetic energy sources. Waste disposal of munitions, sewage and debris may affect seeps.

The range of ecosystem services these vents and seeps provide is just barely beginning to be understood, researchers said in their report. As many of these habitats fall outside of territorial waters, vent and seep conservation will require international collaboration and cooperation if they are going to continue to provide ecosystem benefits. Contributors to this report included researchers from the Scripps Institution of Oceanography, Florida State University, the National Institute of Water and Atmospheric Research in New Zealand, University of the Azores, Temple University, Universidade de Aveiro, the U.S. Geological Survey, University of the West Indies, Dalhousie University, University of Victoria, Duke University, Ghent University and the University of Hawaii at Manoa.

Siehe hierzu auch Artikel in Spiegel Online aus dem Oktober 2016:

Küste der USA: Es blubbert aus dem Meeresboden
Vor den USA strömen gewaltige Mengen Gas aus dem Meeresgrund. Ein Tauchroboter spürte 500 Quellen auf – daneben erstaunliche Lebewesen.

“Es scheint, dass die gesamte Küste vor Washington, Oregon und Kalifornien eine gigantische Methanquelle ist”, sagt der Meeresforscher Robert Ballard. Er und seine Kollegen haben vor der US-Westküste 500 sprudelnde Methanquellen im Meeresboden entdeckt. Das Team um Ballard, der durch die Entdeckung des “Titanic”-Wracks bekannt wurde, hatte den Fund im Sommer vom Forschungsschiff “Nautilus” aus mithilfe zweier ferngesteuerter Unterwasser-Rover gemacht.

Weiterlesen auf Spiegel Online

 

Vor 6000 Jahren lag der größte Süßwasser-See der Erde in der Sahara

Vor 6000 Jahren lag der größte Süßwasser-See der Erde in der Sahara. Lake Mega-Chad erstreckte sich im zentralen Südteil der heutigen Wüste über 360.000 Quadratkilometer und erreichte eine Tiefe von über 170 m. Lake Mega-Chad bildete sich vor etwa 15.000 Jahren und existierte bis vor etwa 5000 Jahren, als er abrupt schrumpfte. Damals verlagerte sich der westafrikanische Monsun-Regen nach Süden und konnte die Sahara nicht mehr erreichen. Vor etwa 3000 Jahren kam der Regen wieder zurück, und der Seespiegel stieg wieder an. Die lebenspendende Phase hielt jedoch nur wenige Jahrhunderte an, und die Gegend wurde schnell wieder zur Wüste. Nachzulesen in einer ausgezeichneten Publikation von Simon Armitage und Kollegen. Hier die dazugehörige Pressemitteilung der University of Royal Holloway London vom 29. Juni 2015 (via Science Daily):

Largest freshwater lake on Earth was reduced to desert dunes in just a few hundred years

Researchers from Royal Holloway, Birkbeck and Kings College, University of London used satellite images to map abandoned shore lines around Palaeolake Mega-Chad, and analysed sediments to calculate the age of these shore lines, producing a lake level history spanning the last 15,000 years. At its peak around 6,000 years ago, Palaeolake Mega-Chad was the largest freshwater lake on Earth, with an area of 360,000 km2. Now today’s Lake Chad is reduced to a fraction of that size, at only 355 km2. The drying of Lake Mega-Chad reveals a story of dramatic climate change in the southern Sahara, with a rapid change from a giant lake to desert dunes and dust, due to changes in rainfall from the West African Monsoon. The research, published in the journal Proceedings of the National Academy of Sciences confirms earlier suggestions that the climate change was abrupt, with the southern Sahara drying in just a few hundred years.

Part of the Palaeolake Mega-Chad basin that has dried completely is the Bodélé depression, which lies in remote northern Chad. The Bodélé depression is the World’s single greatest source of atmospheric dust, with dust being blown across the Atlantic to South America, where it is believed to be helping to maintain the fertility of tropical rainforests. However, the University of London team’s research shows that a small lake persisted in the Bodélé depression until about 1,000 years ago. This lake covered the parts of the Bodélé depression which currently produce most dust, limiting the dust potential until recent times.

“The Amazon tropical forest is like a giant hanging basket,” explains Dr Simon Armitage from the Department of Geography at Royal Holloway. “In a hanging basket, daily watering quickly washes soluble nutrients out of the soil, and these need to be replaced using fertiliser if the plants are to survive. Similarly, heavy washout of soluble minerals from the Amazon basin means that an external source of nutrients must be maintaining soil fertility. As the World’s most vigorous dust source, the Bodélé depression has often been cited as a likely source of these nutrients, but our findings indicate that this can only be true for the last 1,000 years,” he added.

Publikation: Simon J. Armitage, Charlie S. Bristow, and Nick A. Drake. West African Monsoon dynamics inferred from abrupt fluctuations of Lake Mega-Chad. PNAS, June 2015 DOI: 10.1073/pnas.1417655112

 

 

Die Grüne Sahara

Ein Forscherteam der University of Arizona um Jessica Tierney hat die letzte klimatische Feuchtphase in der Sahara anhand von Sedimentkernen vor der Küste Marokkos untersucht und die Regenmengen anhand der Wachszusammensetzung von Pfllanzenresten rekonstruiert. 11.000 bis 5000 Jahre vor unserer Zeit regnete es laut den neuen Ergebnissen 10 mal mehr als heute. Dies erlaubte eine Besiedelung der Sahara, die damals zur Savanne und bewaldeten Graslandschaft wurde. Die Einwohner hielten ihr Leben in eindrucksvollen Felsbildern fest. Vor 8000 Jahren gab es jedoch eine Zeit von einigen Jahrhunderten, in denen der Regen ausblieb, wie Tierney und Kollegen dokumentierten. Die Autoren weisen zudem darauf hin, dass Klimamodelle die rekonstruierte Realität noch immer nicht zufriedenstellend nachbilden können, da offenbar wichtige Verstärkermechanismen im Zusammenhang mit der Vegetation und Staub zu wenig berücksichtigt wurden. Hier die Pressemitteilung der University of Arizona vom 18. Januar 2017:

Green Sahara’s Ancient Rainfall Regime Revealed by Scientists

A UA-led team has identified the climate pattern that generated a “Green Sahara” from 5,000 to 11,000 years ago. The region had 10 times the rainfall it does today.

Rainfall patterns in the Sahara during the 6,000-year “Green Sahara” period have been pinpointed by analyzing marine sediments, according to new research. What is now the Sahara Desert was the home to hunter-gatherers who made their living off the animals and plants that lived in the region’s savannahs and wooded grasslands 5,000 to 11,000 years ago. “It was 10 times as wet as today,” said lead author Jessica Tierney of the University of Arizona. Annual rainfall in the Sahara now ranges from about 4 inches to less than 1 inch (100 to 35 mm).

Although other research had already identified the existence of the Green Sahara period, Tierney and her colleagues are the first to compile a continuous record of the region’s rainfall going 25,000 years into the past. The team’s paper “Rainfall regimes of the Green Sahara,” is scheduled for publication in the journal Science Advances on Jan. 18 [2017]. Archaeological evidence shows humans occupied much of the Sahara during the wet period, but left for about a thousand years around 8,000 years ago — the middle of the Green Sahara period. Other investigators have suggested the Sahara became drier at the time people left, but the evidence was not conclusive, said Tierney, a UA associate professor of geosciences. Her team’s continuous rainfall record shows a thousand-year period about 8,000 years ago when the Sahara became drier. That drier period coincides with when people left, she said. “It looks like this thousand-year dry period caused people to leave,” Tierney said. “What’s interesting is the people who came back after the dry period were different — most raised cattle. That dry period separates two different cultures. Our record provides a climate context for this change in occupation and lifestyle in the western Sahara.”

Tierney and her colleagues also used their rainfall record to suggest ways current climate models can better replicate the Sahara’s ancient climate and therefore improve projections of future climate. Tierney’s co-authors are Francesco Pausata of Stockholm University in Sweden and Peter deMenocal of Columbia University’s Lamont-Doherty Earth Observatory in Palisades, New York. The David and Lucile Packard Foundation, the National Science Foundation and the Swedish Research Council funded the research. Researchers had long known the Sahara was much greener in the past, but how much of the Sahara was wetter and how much wetter was not well understood, Tierney said. Although scientists can learn about past climate by examining ancient lake sediments, in the Sahara the lakes dried up long ago and their sediments have blown away.

Instead of lake sediments, Tierney and her colleagues used cores of marine sediments taken off the coast of West Africa at four different sites. Because the cores were taken over a north-south distance of about 800 miles (1,300 km) — from offshore Cape Ghir, Morocco, to the northwest corner of Mauritania — the cores revealed both the ancient rainfall patterns and the areal extent of the Green Sahara. In terrestrial plants, the chemical composition of a leaf’s wax changes depending on how dry or wet the climate was when the plant was growing. Leaf wax also washes into the ocean and can be preserved in the marine sediments that are laid down year after year. “The waxes record the climate conditions on land,” Tierney said. By analyzing the leaf wax from ancient marine sediments, the team determined the region’s past rainfall patterns and also gathered clues about what types of plants were growing.

The team also wanted to know whether the conditions on land interacted with the atmosphere to affect climate, because most of the current climate models don’t simulate the Green Sahara period well, she said. The amount of solar radiation Earth receives during the Northern Hemisphere summer depends on where Earth’s “wobble,” known as precession, is in its 23,000-year cycle. At the beginning of the Green Sahara, the Northern Hemisphere was closer to the sun during summer. Warmer summers strengthened the West African monsoon and delivered more rain. Toward the end of the Green Sahara, the Northern Hemisphere was farther from the sun and the West African monsoon was weaker. There’s a feedback between vegetation, dust and rainfall, Tierney said. Right now the Sahara Desert is the planet’s biggest source of dust — but a vegetated Sahara would produce much less dust.

Und hier der Abstract der Arbeit in Science Advances:

Rainfall regimes of the Green Sahara
During the “Green Sahara” period (11,000 to 5000 years before the present), the Sahara desert received high amounts of rainfall, supporting diverse vegetation, permanent lakes, and human populations. Our knowledge of rainfall rates and the spatiotemporal extent of wet conditions has suffered from a lack of continuous sedimentary records. We present a quantitative reconstruction of western Saharan precipitation derived from leaf wax isotopes in marine sediments. Our data indicate that the Green Sahara extended to 31°N and likely ended abruptly. We find evidence for a prolonged “pause” in Green Sahara conditions 8000 years ago, coincident with a temporary abandonment of occupational sites by Neolithic humans. The rainfall rates inferred from our data are best explained by strong vegetation and dust feedbacks; without these mechanisms, climate models systematically fail to reproduce the Green Sahara. This study suggests that accurate simulations of future climate change in the Sahara and Sahel will require improvements in our ability to simulate vegetation and dust feedbacks.

Die Felsenbilder sind übrigens auch in einem Schulungsfilm zur geologischen Entwicklung der Sahara enthalten, den Sebastian Lüning im Rahmen mehrerer Expeditionen in Südlibyen drehte:

 

 

Die Sonne im Februar 2017 und das antarktische Meereis

Von Frank Bosse und Fritz Vahrenholt

Der Stern im Mittelpunkt unseres Planetensystems war auch im Vormonat nur sehr gering aktiv. Die festgestellte SSN (SunSpotNumber) von 26,1 reiht sich ein in die Datenreihe, die auf eine nur etwa 50- prozentige Fleckenaktivität des Normalen  über den gesamten Zyklus weist.

Abb. 1: Die mittlere Sonnenaktivität ( blau) im Vergleich zur Aktivität im laufenden Zyklus 24 (rot) und dem in Teilen sehr ähnlichen Zyklus 5 (schwarz).

 

Der Vergleich der Zyklen untereinander:

Abb.2: Die Aktivität der Zyklen 1…24 als Abweichung vom Mittelwert. Der aktuelle Zyklus begann im  Dezember 2008 und ist der drittruhigste seit Beginn der systematischen Beobachtungen im Jahre 1755.

 

Die solaren polaren Felder sind wohl inzwischen „eingeschwungen“, wir hatten Sie ja in den letzten Monaten informiert. Sowohl die Felder des Sonnennordpols als auch die des Südpols weisen auf eine Aktivität des folgenden Zyklus von ca. 2/3 im Vergleich zum aktuellen Zyklus hin. Eine frühe Prognose von uns also hier: Der Zyklus 25 ab ca. 2021 könnte etwa so schwach werden wie der Zyklus 6. Wir würden nach dem jetzigen Stand ein solares Minimum recht ähnlich zum Dalton- Minimum ( Zyklus 5,6,7) 1790…1830 erleben. Die weiter sehr stark entkoppelten polaren Felder – die des Südpols sind schon jahrelang am Stück deutlich stärker als die des Nordpols- tragen jedoch noch Unschärfen ein. Ein solches Phänomen wurde seit Beginn der systematischen Beobachtungen in den 70er Jahren noch nicht verzeichnet. In dieser Zeit waren wir jedoch auch in einem anderen  „Sonnenzeitalter“, die Sonne war damals so aktiv wie noch nie vorher beobachtet.

 

Antarktis: So wenig Eis wie noch nie!

Solche Schlagzeilen gab es im letzten Monat zu Hauf, die ARD relativ sachlich, andere schon reißerischer und durch tätige Mithilfe von Fotoshop mit suggestivem  Klimaalarm. Zunächst einmal die Fakten: Der diesjährige Eisextent (die Ausdehnung) ist tatsächlich auf Rekord-niedrigem Stand, dies referiert der NSIDC in seinem Bericht. Hier die zugehörige Graphik:

 

Abb.3:  die Ausdehnung der Eisfläche rund um Antarktika im Februar (nahe am sommerlichen Minimum dort) im Vergleich zu 1979 (in %). Quelle.

 

Man sieht den steigenden Trend als gestrichelte Linie. Der langjährige Trend ist am Ende das Entscheidende wenn es um das Klima geht, die kürzeren Schwankungen deuten auf Wetter hin. Eine Betrachtung der Temperaturen der gesamten Antarktis zeigt, dass sogar ins Gerede gekommene  GISS- Reihe dort keinen relevanten Trend sieht.

 

Abb.4: Die antarktische Temperaturanomalie am Boden nach GISS

 

Das Schmelzgeschehen auf dem Ozean rund um die Antarktis herum wird damit jedoch kaum erfasst, hier sind die Oberflächentemperaturen der Meere (SST) entscheidend. Und da sehen wir, woher der Eisverlust kommt:

 

 

Abb.5: Die Temperaturanomalie des Ozeans rund um Antarktika

 

Sie erkennen den fallenden Trend seit Mitte der 90er und am Ende den warmen Spike, der sich auf das Meereis auswirkte. Es ist also mit Sicherheit einiges an Wetter dabei am Ende des Jahres 2016, genauer gesagt ab September.  Über die genauen Ursachen herrscht auch in der Literatur keine Gewissheit. Eine naheliegende Vermutung könnte als (Teil)Ursache den sehr kräftigen ElNino 2015/16 sehen. Wie Sie jedoch bemerken hatte der letzte starke ElNino (1997/98) nicht diese Folgen. Hier muss man beachten, dass jeder ElNino im Detail anders ist als seine Vorgänger. Damit beschäftigte sich diese Studie näher. In 2015/16 hatten wir gleichzeitig zwei wirksame Ereignisse: einen zentralpazifischen ( auch ElNino Modoki genannt) plus einen ostpazifischen Wärmeschub mit dem ElNino. Der tropische Pazifik erwärmte sich stark vom südamerikanischen Festland bis hin fast zur Datumsgrenze.  Dies war in der genau beobachteten Zeit eine Premiere und es gibt kaum Vergleichswerte. Es könnte sich eine Wirkungskette entfaltet haben: Die Wärme des ElNino (viel mehr als 1998 über die Fläche verteilt) wird polwärts transportiert durch die Ozeane und die Troposphäre und wird dort zum großen Teil in den Weltraum abgestrahlt. Auf diesem Wege werden die Wässer um Antarktika mit erwärmt. Das nächste Jahr muss zeigen, ob es eine vorübergehende starke Erwärmung (ein Puls entgegen dem Langzeittrend) war oder ob sich der Trend umzukehren beginnt.

Dann werden Sie in den Medien wahrscheinlich lesen, dass die Klimaerwärmung nun auch in der Antarktis das Meereis katastrophal reduziert. Das ist jedoch wilde Spekulation. In einer aktuellen Studie zur AMOC (dies ist der globale ozeanische  Wärmefluss von Süd nach Nord) wird festgestellt, dass ein starker Wärmetransport Richtung Nordpol in der Antarktis ein spezielles Muster entstehen lässt: Es wird an der Oberfläche (SST) kühler und in der Tiefe wärmer. Die tieferen Wässer bis 700m am Rande des Kontinents zeigen einen Warmtrend, die Oberfläche ( vergleiche Abb. 5) einen Kühltrend. Hier ein Blick auf die „untere Etage“ dort:

 

Abb. 6: Die Temperaturanomalien des Ozeans bis in 700m Tiefe rund um Antarktika

 

Die Divergenz zwischen tieferen Schichten des Ozeans und seiner Oberfläche ist klar zu sehen. In  Abb. 5 sehen Sie den plötzlichen positiven Ausschlag der SST, dem kann der Ozean bis 700m Tiefe natürlich nicht folgen durch seine sehr hohe Wärmeträgheit. Im nördlichen Atlantik sehen wir jedoch den Rückgang des Wärmetransports bereits seit etwa 2012:

 

Abb. 7: Die Oberflächentemperaturanomalien  im subpolaren  Nordatlantik seit 1980.

 

Es könnte also sehr gut sein, dass zu dem Pulsverhalten durch den ElNino diese „Schaukelwirkung“ hinzu kommt: Eine starker nordwärts gerichteter Wärmetransport (starke AMOC) kühlt das Wasser an der Oberfläche des Ozeans (das Meereis wächst an) um die Antarktis herum während es in der Tiefe wärmer wird. Eine schwächere AMOC (Abb. 7  spricht für ein Nachlassen im Vergleich zu den Jahren nach 1998) dreht die Verhältnisse im Süden um: es wird an der Oberfläche wärmer (Meereisschwund) und in der Tiefe kälter.

Man wird also gespannt auf die Messungen aus den tieferen Meeresschichten um die Antarktis herum warten um zu erkennen, ob dies so ist. Dies alles sind völlig natürliche Vorgänge  und ob und wenn ja wie viel menschgemachte Erwärmung  da hineinspielt ist völlig unklar. Also bitte nicht auf vorschnelle Erklärungen (à la „Der Mensch schmilzt jetzt auch die Antartkis!!!“)  in den Medien oder von bestimmten Instituten hereinfallen wenn es zukünftig weniger Eis um die Antarktis herum geben sollte. Propaganda und „science at work“ sind Antagonismen. Die interne Variabilität des aktuell abkühlenden Nordatlantiks ist „Nature at work“.

 

Amerikanischer Geologischer Dienst gibt Entwarnung: Methanhydrat im arktischen Polarmeer stellt keine große Klimagefahr dar

Im Jahr 2010 warnte Michael Odenwald im Focus vor einer klimatischen Methanzeitbombe in der Arktis:

Methanhydrat: Kommt die rapide Erderwärmung?
Das Treibhausgas Methan strömt aus dem Schelf des arktischen Polarmeers in viel größeren Mengen in die Atmosphäre als gedacht. Dies ergab eine Studie einer Arbeitsgruppe von russischen, schwedischen und US-Wissenschaftlern, die in der aktuellen Ausgabe des Wissenschaftsjournals „Science“ veröffentlicht wird. Die Forscher hatten in den Jahren 2003 bis 2008 bei Fahrten auf russischen Eisbrechern im Gebiet des ostsibirischen Schelfs Wasserproben genommen, hinzu kamen per Helikopter Probennahmen aus der Luft. Am Ende waren 5100 Messungen zusammengekommen. Sie ergaben ein erschreckendes Bild: Rund 80 Prozent des Tiefenwassers und 50 Prozent des oberflächennahen Seewassers erwiesen sich als mit Methan übersättigt. Offenbar tritt das Gas aus dem Permafrostboden am Meeresgrund aus. Dabei gelangt aus dem relativ kleinen Meeresgebiet ebenso viel davon in die Luft wie aus allen übrigen Ozeanen der Welt zusammen. „Die Freisetzung nur eines kleinen Teils des im Sediment des ostsibirischen Schelfs gebundenen Methans kann eine abrupte globale Erwärmung auslösen“, warnt das Team um die russische Biogeochemikerin Natalia Schachowa, die an der Universität von Alaska in Fairbanks forscht.

Sieben Jahre Forschung später haben sich die Befürchtungen zum Glück nicht bestätigt, wie der US amerikanische Geologische Dienst und die University of Rochester am 9. Februar 2017 in einer Pressemitteilung bekanntgaben:

Gas Hydrate Breakdown Unlikely to Cause Massive Greenhouse Gas Release

A recent interpretive review of scientific literature performed by the U.S. Geological Survey and the University of Rochester sheds light on the interactions of gas hydrates and climate.

The breakdown of methane hydrates due to warming climate is unlikely to lead to massive amounts of methane being released to the atmosphere, according to a recent interpretive review of scientific literature performed by the U.S. Geological Survey and the University of Rochester. Methane hydrate, which is also referred to as gas hydrate, is a naturally-occurring, ice-like form of methane and water that is stable within a narrow range of pressure and temperature conditions.  These conditions are mostly found in undersea sediments at water depths greater than 1000 to 1650 ft and in and beneath permafrost (permanently frozen ground) at high latitudes. Methane hydrates are distinct from conventional natural gas, shale gas, and coalbed methane reservoirs and are not currently exploited for energy production, either in the United States or the rest of the world. On a global scale, gas hydrate deposits store enormous amounts of methane at relatively shallow depths, making them particularly susceptible to the changes in temperature that accompany climate change.  Methane itself is also a potent greenhouse gas, and some researchers have suggested that methane released by the breakdown of gas hydrate during past climate events may have exacerbated global warming.

The new review concludes that current warming of ocean waters is likely causing gas hydrate deposits to break down at some locations. However, not only are the annual emissions of methane to the ocean from degrading gas hydrates far smaller than greenhouse gas emissions to the atmosphere from human activities, but most of the methane released by gas hydrates never reaches the atmosphere. Instead, the methane often remains in the undersea sediments, dissolves in the ocean, or is converted to carbon dioxide by microbes in the sediments or water column. The review pays particular attention to gas hydrates beneath the Arctic Ocean, where some studies have observed elevated rates of methane transfer between the ocean and the atmosphere.  As noted by the authors, the methane being emitted to the atmosphere in the Arctic Ocean has not been directly traced to the breakdown of gas hydrate in response to recent climate change, nor as a consequence of longer-term warming since the end of the last Ice Age. “Our review is the culmination of nearly a decade of original research by the USGS, my coauthor Professor John Kessler at the University of Rochester, and many other groups in the community,” said USGS geophysicist Carolyn Ruppel, who is the paper’s lead author and oversees the USGS Gas Hydrates Project. “After so many years spent determining where gas hydrates are breaking down and measuring methane flux at the sea-air interface, we suggest that conclusive evidence for release of hydrate-related methane to the atmosphere is lacking.” 

Professor Kessler explains that, “Even where we do see slightly elevated emissions of methane at the sea-air interface, our research shows that this methane is rarely attributable to gas hydrate degradation.” The review summarizes how much gas hydrate exists and where it occurs; identifies the technical challenges associated with determining whether atmospheric methane originates with gas hydrate breakdown; and examines the assumptions of the Intergovernmental Panels on Climate Change, which have typically attributed a small amount of annual atmospheric methane emissions to gas hydrate sources. The review also systematically evaluates different environments to assess the susceptibility of gas hydrates at each location to warming climate and addresses the potential environmental impact of an accidental gas release associated with a hypothetical well producing methane from gas hydrate deposits.

Virginia Burkett, USGS Associate Director for Climate and Land Use Change, noted, “This review paper provides a truly comprehensive synthesis of the knowledge on the interaction of gas hydrates and climate during the contemporary period.  The authors’ sober, data-driven analyses and conclusions challenge the popular perception that warming climate will lead to a catastrophic release of methane to the atmosphere as a result of gas hydrate breakdown.”  The paper, “The Interaction of Climate Change and Methane Hydrates,” by C. Ruppel and J. Kessler, is published in Reviews of Geophysics and is available here.   The USGS and University of Rochester research that contributed to the review was largely supported by the U.S. Department of Energy and the National Science Foundation.  More information about the University of Rochester’s Dept. of Earth and Environmental Sciences is available here.

The USGS Gas Hydrates Project has been advancing understanding of U.S. and international gas hydrates science for over two decades. The Project focuses on natural gas hydrates and their potential as an energy resource, interaction with the climate system, and possible association with geohazards such as submarine landslides.  In the last decade, the group has participated in energy resource studies on the Alaskan North Slope and in the Gulf of Mexico, Indian Ocean, and other locations.  Studies of climate-hydrate interactions have been carried out in the Beaufort Sea, on the U.S. Atlantic margin, and at international sites.

 

Geben Planeten der Sonne den Takt vor?

Pressemitteilung des Helmholtz-Zentrums Dresden-Rossendorf vom 20. September 2016:

—–

Geben Planeten der Sonne den Takt vor?

HZDR-Forscher stellen eine Verbindung zwischen dem Sonnenzyklus und der Gezeitenwirkung von Venus, Erde und Jupiter her.

Die Sonnenaktivität wird vom Magnetfeld der Sonne bestimmt. Für dieses sind zwei gekoppelte Effekte verantwortlich: Der Omega-Effekt beruht auf der unterschiedlich schnellen Rotation des heißen und leitfähigen Plasmas, aus dem die Sonne besteht. So bildet sich ein Magnetfeld in Form zweier Ringe nördlich und südlich des Äquators. Aus diesen wiederum erzeugt der Alpha-Effekt ein Magnetfeld, das entlang der Längenkreise der Sonne verläuft. Wo und wie genau der Alpha-Effekt entsteht, gilt als ungeklärt. Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) stellen hierzu nun eine neue Theorie in der Fachzeitschrift „Solar Physics“ vor. Ihre Berechnungen legen nahe, dass die Gezeitenkräfte von Venus, Erde und Jupiter die Sonnenaktivität direkt beeinflussen können.

Viele Fragen zum Magnetfeld der Sonne sind noch offen. „Wie bei der Erde auch, haben wir es mit einem Dynamo zu tun. Durch Selbsterregung entsteht das Magnetfeld quasi aus dem Nichts, wobei die komplexe Bewegung des leitfähigen Plasmas als Energiequelle dient“, so der Physiker Dr. Frank Stefani vom HZDR. Der sogenannte Alpha-Omega-Dynamo der Sonne unterliegt einem regelmäßigen Zyklus. Etwa alle elf Jahre polt das Magnetfeld der Sonne um; mit derselben Periode durchläuft die Sonnenaktivität ein Maximum. Dieses zeigt sich an der Zunahme der Sonnenflecken – dunklen Stellen auf der Sonnenoberfläche, die von stark konzentrierten Magnetfeldern herrühren.

„Interessanterweise stehen alle 11,07 Jahre die Sonne und die Planeten Venus, Erde und Jupiter etwa auf einer Linie. Wir haben uns gefragt: Ist es Zufall, dass der Sonnenzyklus mit dem Zyklus von Konjunktion beziehungsweise Opposition der drei Planeten zusammenfällt?“, führt Stefani aus. Dabei ist die Fragestellung selbst keineswegs neu. Bisher konnten Wissenschaftler jedoch keinen physikalisch plausiblen Mechanismus dafür identifizieren, wie die sehr schwachen Gezeitenwirkungen von Venus, Erde und Jupiter den Sonnendynamo beeinflussen könnten.

Verstärkung durch Resonanz

„Auch wenn man einer Schaukel immer nur einen kleinen Schubs gibt, kommt sie mit der Zeit immer mehr in Schwung“, erläutert Frank Stefani das Prinzip der Resonanz. Er und sein Team fanden in aktuellen Berechnungen heraus, dass der Alpha-Effekt unter bestimmten Bedingungen zu Schwingungen neigt. „Die Anregung dieser Alpha-Oszillationen benötigt fast keine Energie. Dafür könnten die Gezeiten der Planeten als Taktgeber ausreichen.“ Für dieses Mitschwingen des Sonnendynamos spielt die sogenannte Tayler-Instabiltität eine entscheidende Rolle. Sie entsteht immer dann, wenn ein genügend starker Strom durch eine leitfähige Flüssigkeit oder ein Plasma fließt. Ab einer bestimmten Stärke erzeugt die Wechselwirkung des Stroms mit seinem eigenen Magnetfeld eine Strömung – im Falle der riesigen Sonne mit turbulentem Charakter.

Nach allgemeiner Auffassung beruht der Sonnendynamo auf einem Zusammenspiel zweier Induktionsmechanismen. Weitgehend unstrittig ist der Omega-Effekt, der in der Tachokline entsteht. So heißt ein schmales Band zwischen der inneren Strahlungszone der Sonne und den äußeren Bereichen, in denen Konvektion stattfindet, also Wärme über die Bewegung des heißen Plasmas transportiert wird. In der Tachokline treffen unterschiedlich schnell rotierende Bereiche aufeinander. Diese differentielle Rotation generiert das sogenannte toroidale Magnetfeld in Form zweier nördlich und südlich des Sonnenäquators gelegener „Rettungsringe“.

Neues Rezept für den Sonnendynamo

Große Unklarheiten bestehen hinsichtlich der Lage und Ursache des Alpha-Effektes, der aus dem Toroidalfeld ein Poloidalfeld erzeugt – letzteres verläuft entlang der Längengrade der Sonne. Einer weit verbreiteten Theorie zufolge hat der Alpha-Effekt seinen Ursprungsort in der Nähe der Sonnenflecken, also an der Sonnenoberfläche. Die Dresdner Forscher haben einen alternativen Ansatz gewählt, der den Alpha-Effekt mit der Rechts- oder Linkshändigkeit der Tayler-Instabilität in Zusammenhang bringt. Die Tayler-Instabilität wiederum entsteht aufgrund der stark aufgewickelten Toroidalfelder im Gebiet der Tachokline. „Damit können wir im Prinzip auch den Alpha-Effekt in der Tachokline verorten“, sagt Frank Stefani.

Nun haben die HZDR-Forscher erstmals Belege dafür gefunden, dass die Tayler-Instabilität auch zwischen Rechts- und Linkshändigkeit hin- und herpendeln kann. Das Besondere: Der Umschlag erfolgt faktisch ohne Änderung der Strömungsenergie. Dadurch reichen schon sehr kleine Kräfte aus, um eine Schwingung des Alpha-Effekts anzuregen. „Unsere Berechnungen zeigen, dass planetare Gezeitenkräfte hier wie winzige Taktgeber von außen wirken. Die etwa alle elf Jahre angestoßene Oszillation des Alpha-Effekts könnte die Umpolung des Magnetfeldes der Sonne bewirken und letztlich den 22-Jahres-Zyklus des Sonnendynamos bestimmen“, so der Physiker.

Die Wissenschaftler rund um Frank Stefani beschäftigen sich seit vielen Jahren intensiv mit Magnetfeldern im Kosmos und auf der Erde. So ist es ihnen als erster Gruppe weltweit gelungen, sowohl die Tayler- als auch die Magneto-Rotations-Instabilität im Laborexperiment nachzuweisen. Im Jahr 1999 waren die Spezialisten für Magnetohydrodynamik zudem am erstmaligen Nachweis des homogenen Dynamoeffekts in Riga beteiligt.

Tayler-Instabilität begrenzt neuartige Flüssigmetall-Batterien

„Interessanterweise sind wir auf die Tayler-Instabilität im Rahmen unserer Forschung zu neuartigen Flüssigmetall-Batterien gestoßen, die zurzeit als mögliche preiswerte Speicher für die stark fluktuierende Sonnenergie untersucht werden“, erklärt Frank Stefani. Das Grundprinzip einer Flüssigmetall-Batterie ist äußerst einfach. Sie besteht aus zwei unterschiedlich schweren, flüssigen Metallen – den Elektroden –, die nur durch eine dünne Salzschicht getrennt sind. Die Vorteile: ein extrem schneller Ladungsvorgang, eine zumindest theoretisch unendliche Anzahl von Ladungszyklen sowie geringe Kosten, wenn es denn gelingt, eine Batterie in Quadratmetergröße herzustellen. „Für diese Batterien stellt die Tayler-Instabilität eine ernstzunehmende Gefahr dar, weil sie unweigerlich dann auftritt, wenn die Zellen größer und größer werden. Ohne gewisse technologische Tricks, die wir bereits patentiert haben, würde die Tayler-Instabilität die stabile Schichtung der Batterie zerstören“, fügt Stefani hinzu.

Publikation: F. Stefani, A. Giesecke, N. Weber, T. Weier: „Synchronized Helicity Oscillations: A Link Between Planetary Tides and the Solar Cycle?”, in Solar Physics, Online-Veröffentlichung am 01. September 2016 (DOI:10.1007/s11207-016-0968-0)

 

 

Astronomischer Ursprung des solaren Hallstatt-Zyklus

Die University of Wisconsin-Madison hat am 22. Februar 2017 in einer Pressemitteilung den Klimaeinfluss von Gezeiteneffekten des Mars auf die Erde beschrieben. Forscher der Universität untersuchten dabei Gesteine der Kreidezeit, in denen sie bei Resonanz der beiden Planetenbahnen charakteristische Klimaeffekte nachweisen konnten.

From rocks in Colorado, evidence of a ‘chaotic solar system’

Plumbing a 90 million-year-old layer cake of sedimentary rock in Colorado, a team of scientists from the University of Wisconsin–Madison and Northwestern University has found evidence confirming a critical theory of how the planets in our solar system behave in their orbits around the sun. The finding, published Feb. 23, 2017 in the journal Nature, is important because it provides the first hard proof for what scientists call the “chaotic solar system,” a theory proposed in 1989 to account for small variations in the present conditions of the solar system. The variations, playing out over many millions of years, produce big changes in our planet’s climate — changes that can be reflected in the rocks that record Earth’s history. The discovery promises not only a better understanding of the mechanics of the solar system, but also a more precise measuring stick for geologic time. Moreover, it offers a better understanding of the link between orbital variations and climate change over geologic time scales.

Using evidence from alternating layers of limestone and shale laid down over millions of years in a shallow North American seaway at the time dinosaurs held sway on Earth, the team led by UW–Madison Professor of Geoscience Stephen Meyers and Northwestern University Professor of Earth and Planetary Sciences Brad Sageman discovered the 87 million-year-old signature of a “resonance transition” between Mars and Earth. A resonance transition is the consequence of the “butterfly effect” in chaos theory. It plays on the idea that small changes in the initial conditions of a nonlinear system can have large effects over time. In the context of the solar system, the phenomenon occurs when two orbiting bodies periodically tug at one another, as occurs when a planet in its track around the sun passes in relative proximity to another planet in its own orbit. These small but regular ticks in a planet’s orbit can exert big changes on the location and orientation of a planet on its axis relative to the sun and, accordingly, change the amount of solar radiation a planet receives over a given area. Where and how much solar radiation a planet gets is a key driver of climate.“The impact of astronomical cycles on climate can be quite large,” explains Meyers, noting as an example the pacing of the Earth’s ice ages, which have been reliably matched to periodic changes in the shape of Earth’s orbit, and the tilt of our planet on its axis. “Astronomical theory permits a very detailed evaluation of past climate events that may provide an analog for future climate.”

To find the signature of a resonance transition, Meyers, Sageman and UW–Madison graduate student Chao Ma, whose dissertation work this comprises, looked to the geologic record in what is known as the Niobrara Formation in Colorado. The formation was laid down layer by layer over tens of millions of years as sediment was deposited on the bottom of a vast seaway known as the Cretaceous Western Interior Seaway. The shallow ocean stretched from what is now the Arctic Ocean to the Gulf of Mexico, separating the eastern and western portions of North America. “The Niobrara Formation exhibits pronounced rhythmic rock layering due to changes in the relative abundance of clay and calcium carbonate,” notes Meyers, an authority on astrochronology, which utilizes astronomical cycles to measure geologic time. “The source of the clay (laid down as shale) is from weathering of the land surface and the influx of clay to the seaway via rivers. The source of the calcium carbonate (limestone) is the shells of organisms, mostly microscopic, that lived in the water column.”

Meyers explains that while the link between climate change and sedimentation can be complex, the basic idea is simple: “Climate change influences the relative delivery of clay versus calcium carbonate, recording the astronomical signal in the process. For example, imagine a very warm and wet climate state that pumps clay into the seaway via rivers, producing a clay-rich rock or shale, alternating with a drier and cooler climate state which pumps less clay into the seaway and produces a calcium carbonate-rich rock or limestone.” The new study was supported by grants from the National Science Foundation. It builds on a meticulous stratigraphic record and important astrochronologic studies of the Niobrara Formation, the latter conducted in the dissertation work of Robert Locklair, a former student of Sageman’s at Northwestern.

Dating of the Mars-Earth resonance transition found by Ma, Meyers and Sageman was confirmed by radioisotopic dating, a method for dating the absolute ages of rocks using known rates of radioactive decay of elements in the rocks. In recent years, major advances in the accuracy and precision of radioisotopic dating, devised by UW–Madison geoscience Professor Bradley Singer and others, have been introduced and contribute to the dating of the resonance transition. The motions of the planets around the sun has been a subject of deep scientific interest since the advent of the heliocentric theory — the idea that the Earth and planets revolve around the sun — in the 16th century. From the 18th century, the dominant view of the solar system was that the planets orbited the sun like clockwork, having quasiperiodic and highly predictable orbits. In 1988, however, numerical calculations of the outer planets showed Pluto’s orbit to be “chaotic” and the idea of a chaotic solar system was proposed in 1989 by astronomer Jacques Laskar, now at the Paris Observatory. Following Laskar’s proposal of a chaotic solar system, scientists have been looking in earnest for definitive evidence that would support the idea, says Meyers. “Other studies have suggested the presence of chaos based on geologic data,” says Meyers. “But this is the first unambiguous evidence, made possible by the availability of high-quality, radioisotopic dates and the strong astronomical signal preserved in the rocks.”

Bereits im November 2016 erschien in Earth-Science Reviews eine Arbeit einer Gruppe um Nicola Scafetta, in der der Ursprung des solaren Hallstatt-Zyklus (2300 Jahre) in Resonanzen der Bahnparameter von Jupiter, Saturn, Uranus und Neptun interpretiert wird. Je nach Konfiguration der Planeten und deren Gezeitenwirkung wird die Aktivität des Sonnenkraftwerks befördert oder gedämpft. Hier der Abstract:

On the astronomical origin of the Hallstatt oscillation found in radiocarbon and climate records throughout the Holocene
An oscillation with a period of about 2100–2500 years, the Hallstatt cycle, is found in cosmogenic radioisotopes (14C and 10Be) and in paleoclimate records throughout the Holocene. This oscillation is typically associated with solar variations, but its primary physical origin remains uncertain. Herein we show strong evidences for an astronomical origin of this cycle. Namely, this oscillation is coherent to a repeating pattern in the periodic revolution of the planets around the Sun: the major stable resonance involving the four Jovian planets – Jupiter, Saturn, Uranus and Neptune – which has a period of about p = 2318 years. Inspired by the Milanković’s theory of an astronomical origin of the glacial cycles, we test whether the Hallstatt cycle could derive from the rhythmic variation of the circularity of the solar system assuming that this dynamics could eventually modulate the solar wind and, consequently, the incoming cosmic ray flux and/or the interplanetary/cosmic dust concentration around the Earth-Moon system. The orbit of the planetary mass center (PMC) relative to the Sun was used as a proxy. We analyzed how the instantaneous eccentricity vector of this virtual orbit varies from 13,000 BCE to 17,000 CE. We found that it undergoes kind of pulsations as it clearly presents rhythmic contraction and expansion patterns with a 2318 year period together with a number of already known faster oscillations associated to the planetary orbital stable resonances, which are theoretically calculated. These periods include a quasi 20-year oscillation, a quasi 60-year oscillation, the 82-97 year Gleissberg oscillation and the 159-185 year Jose oscillation. There exists a quasi π/2 phase shift between the 2100–2500 year oscillation found in the 14C record and that of the calculated eccentricity function. Namely, at the Hallstatt-cycle time scale, a larger production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more elliptical shapes (e ≈ 0.598) to more circular ones (e ≈ 0.590), that is while the orbital system is slowly imploding or bursting inward; a smaller production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more circular shapes (e ≈ 0.590) to a more elliptical ones (e ≈ 0.598), that is while the orbital system is slowly exploding or bursting outward. Since at this timescale the PMC eccentricity variation is relatively small (e = 0.594 ± 0.004), the physical origin of the astronomical 2318 year cycle is better identified and distinguished from faster orbital oscillations by the times it takes the PMC to make pericycles and apocycles around the Sun and the times it takes to move from minimum to maximum distance from the Sun within those arcs. These particular proxies reveal a macroscopic 2318 year period oscillation, together with other three stable outer planets orbital resonances with periods of 159, 171 and 185 years. This 2318 year oscillation is found to be spectrally coherent with the Δ14C Holocene record with a statistical confidence above 95%, as determined by spectral analysis and cross wavelet and wavelet coherence analysis. At the Hallstatt time scale, maxima of the radionucleotide production occurred when, within each pericycle-apocycle orbital arc, the time required by the PMC to move from the minimum to the maximum distance from the Sun varies from about 8 to 16 years while the time required by the same to move from the maximum to the minimum distance from the Sun varies from about 7 to 14 years, and vice versa. Thus, we found that a fast expansion of the Sun-PMC orbit followed by a slow contraction appears to prevent cosmic rays to enter within the system inner region while a slow expansion followed by a fast contraction favors it. Similarly, the same dynamics could modulate the amount of interplanetary/cosmic dust falling on Earth. Indeed, many other stable orbital resonance frequencies (e.g. at periods of 20 years, 45 years, 60 years, 85 years, 159–171–185 years) are found in radionucleotide, solar, aurora and climate records, as determined in the scientific literature. Thus, the result supports a planetary theory of solar and/or climate variation that has recently received a renewed attention. In our particular case, the rhythmic contraction and expansion of the solar system driven by a major resonance involving the movements of the four Jovian planets appear to work as a gravitational/electromagnetic pump that increases and decreases the cosmic ray and dust densities inside the inner region of the solar system, which then modulate both the radionucleotide production and climate change by means of a cloud/albedo modulation.

—————

Auch Dimitris Poulos publizierte 2016 im Global Journal of Physics zum Thema:

Documentation of the solar activity variations and it’s influence on climate
The four planets that influence the most the solar surface through tidal forcing seem to affect the Earth climate. A simple two cosine model with periods 251 years, of the seasonality of the Earth – Venus syzygies, and 265.4 years, of the combined syzygies of Jupiter and Mercury with Earth when Earth is in synod with Venus, fits well the Northern Hemisphere temperatures of the last 1000 years as reconstructed by Jones et al (1998). The physical mechanism proposed is that planetary gravitational forces drive solar activity that in turn drives temperature variations in earth. The sun is in a boundary balance state at one hand collapsing due to gravity and at the other hand expanding due to fusion, and as such it should be heavily influenced by minimal external forcings such as planetary gravity. Sound waves in the solar mass, created from the planetary movement, are responsible for the formation of solar corona and sun spots. The Earth-Venus 251 year resonance is resonant to a near surface solar layer’s thermal natural frequency that “explodes” to form solar wind. The calculated solar wind properties match the observed.

 

 

 

Nature Editorial kritisiert Unausgewogenheit von sensationsheischenden Studien

Am 7. März 2017 erschien ein Nature-Editorial, das positiv überrascht. Nature geht darin auf ein Ranking der “besten und schlechtesten” Wissenschaftsseiten in der englischsprachigen Presselandschaft ein, die vom American Council on Science and Health angefertigt wurde. Die zwei Achsen des Rankings bestehen aus “evidence-driven” (faktenbasiert) und “compelling” (spannend lesbar). Nature und Science wurden in der absoluten Spitzenecke des Diagramms platziert. Das mag korrekt sein. Allerdings ist man in beiden Häusern stets bemüht, unliebsame und unbequeme Fakten aus den Heften fernzuhalten. Manuskripte von Klimaskeptikern haben bei diesen Journals keine Chance, egal wie hochwertig sie auch sein mögen. Die Türsteher weisen jegliche Einreichungsversuche bereits an der Tür ab. Am unteren Qualitätsende des Rankings finden wir die Daily Mail, die sich immer wieder traut, auch klimaskeptische Aspekte zu behandeln. Das gibt natürlich Punktabzüge.

Umso erfreulicher, dass die Nature-Herausgeber das Ranking äußerst skeptisch bewerten. Ein bestandenes Peer-Review ist noch lange keine Garantie, dass ein Ergebnis auch korrekt ist. Etliche Studien sind medial sensationsheischend und wenig ausgewogen. Nature erklärt, dass den Wissenschaftsblogs hier eine wichtige Rolle zukommt, indem sie Publikationen kritisch besprechen und mögliche Fehlerpunkte im Rahmen eines Post-Publication-Reviews benennen. Damit ist natürlich auch das Kaltesonne-Blog gemeint, in dem wir genau diese Funktion ausüben. Hier ein Auszug aus dem lesenswerten Editorial:

The judges’ criterion of evidence-based news is arguably problematic, as well. Many journalists could reasonably point to the reproducibility crisis in some scientific fields and ask — as funders and critics are increasingly asking — just how reliable some of that evidence truly is. Mainstream science reporters have typically taken peer review as an official stamp of approval from the research community that a published finding is sufficiently robust to share with their readers. Yet this kind of evidence-based reporting is only as reliable as the evidence it reports on. And many scientists would complain (even if only among themselves) that some published studies, especially those that draw press attention, are themselves vulnerable to bias and sensationalism.

This is one reason why the rise of the scientist (and non-scientist) as blogger, along with other forms of post-publication review, has been so valuable. Many scientists know about the problems with some fields of research. Many journalists do, too — articles on questionable practices from statistical fishing to under-powered studies are an increasing presence in most of the publications in the infographic. The relationship between science and media reporting is far from simple, and both sides should remember this.

 

Fische durch Klimawandel immer kleiner? Universität Oslo deckt schwere Berechnugsfehler von IPCC-Autor auf

Im Oktober 2012 berichteten die Medien über ein besorgniserregendes Resultat aus der Klimawandelforschung. Die Welt titelte:

Klimawandel macht Fische im Ozean kleiner

Steigt die Temperatur in der Atmosphäre, werden auch die Meere wärmer. Das macht Fischen zu schaffen: Sie stellen das Wachstum ein. Laut Prognose könnten die Größe um ein Viertel abnehmen.

Die weltweiten Fischbestände sind einer neuen Studie zufolge nicht nur durch massive Überfischung, sondern auch durch den Klimawandel bedroht. Die mit der Erderwärmung steigenden Wassertemperaturen zögen Wachstumsprobleme bei den Fischen nach sich, ergab die in der Zeitschrift „Nature Climate Change“ veröffentlichte Untersuchung. Die Wissenschaftler um Daniel Pauly von der kanadischen University of British Columbia simulierten die Auswirkung des Klimawandels auf die Meere und ihre Bewohner in Computermodellen.

Schockierende Nachrichten, die auch den letzten Zweifler an der Gefährlichkeit des CO2 überzeugen sollten. Der sorglose Umgang mit dem Treibhausgas führt uns direkt nach Lilliputhausen. Da ist der Schritt zum schrumpfenden Menschen als Folge der Klimaerwärmung nicht weit. Schockierend. Dazu muss man allerdings wissen, dass Daniel Pauly auch als Autor des 5. Klimazustandsberichts (AR5) des IPCC tätig war. Kann ausgeschlossen werden, dass Pauly seine Computermodelle etwas nachgeschärft hatte, um möglichst dramatische Ergebnisse zu erzielen, die er dann direkt in den IPCC-Bericht einarbeiten konnte? Eine neutrale Überprüfung wäre hier auf jeden Fall angezeigt.

Genau dies hat zum Glück eine Forschergruppe der Universität Oslo getan. Sjannie Lefevre und Göran Nilsson nahmen Paulys Computermodellierungen unter die Lupe und entdeckten gleich mehrere schwere fehlerhafte Annahmen im Gleichungsgewirr. Sowohl bei geometrischen Zusammenhängen zur Oberfläche von Fischen als auch bei der Sauerstoffaufnahme erlaubten sich Pauly und Kollegen schwere Schnitzer. Das Fazit der Norweger: Die Modelle sind falsch, die medial weit verbreiteten Schlussfolgerungen unbelegt. Den beiden Norwegern gebührt Dank für diese wichtige Aufklärungsarbeit. Es gibt Hoffnung, dass Fehler in der Klimawandeldiskussion über kurz oder lang keinen Bestand haben können. Hier die Pressemitteilung der Universiät Oslo vom 17. Februar 2017:

Some widely publicised papers suggesting that fishes and fish catches will be smaller in the future are based on false assumptions

Some models show that fish will have a smaller size in the future due to climate changes. Three researchers are now pointing out that these models are built on false assumptions.

Two physiologists, Sjannie Lefevre and Göran E. Nilsson, from the Department of Biosciences, the University of Oslo, have together with a colleague, David J. McKenzie at the University of Montpellier, published a paper in Global Change Biology this week showing that some highly cited and publicised modelling studies are based on erroneous physiological principles and facts. These models are suggesting that fishes will become smaller in the warmer climate expected in the future. The authors behind these modelling studies may be prominent fisheries biologists and modellers, but unfortunately some fundamental assumptions made in the models are simply incorrect, says Sjannie Lefevre. For once, they got the geometrical principles guiding the surface area of fish gills completely wrong, and they also make the unfounded assumption that the capacity of fish to take up oxygen from the water limits their ability to grow. It is troublesome that these inaccurate assumptions have been allowed to go unnoticed by fish physiologists, but they are partly hidden in the formulas used and in some obscure statements made in these papers. Lefevre, McKenzie and Nilsson say that they do not deny the possibility that fishes may become smaller in the warmer future, although there is currently not much firm evidence for this, but any such predictions must be based on verified mechanisms and experimental evidence.

Publikation: Lefevre, S., McKenzie, D. J. and Nilsson, G. E. (2017), Models projecting the fate of fish populations under climate change need to be based on valid physiological mechanisms. Glob Change Biol. Accepted Author Manuscript. doi:10.1111/gcb.13652, http://onlinelibrary.wiley.com/doi/10.1111/gcb.13652/full

Bisher griff keine einzige deutschsprachige Zeitung die norwegische Kritik auf. Während die Medien über das spektakuläre Fischschrumpfen damals eifrig berichteten, blieben sie nun stumm. Schweigen im Walde.

 

Judith Curry: Einführung in die Klimamodelle für Nichtfachleute

Mit großem Enthusiasmus und grenzenlosem Vertrauen stürzten sich die Klimawissenschaften vor 20 Jahren auf die Klimamodelle, die die komplexe Wirklichkeit bequem im Computer abbilden sollten. Schnell eroberte man die Öffentlichkeit und Politik. Die Ergebnisse der Rechenkästen wurden schnell als neue Wahrheit akzeptiert. Wie könnten solch sündhaftteure Rechner danebenliegen, undenkbar. Die Erwärmung der letzten 150 Jahre konnte ziemlich gut simuliert werden: CO2 steigt, daher steigt auch die Temperatur, ist doch klar. Kopfzerbrechen bereitete die kalte Phase 1940-1975. Wieso wurde es damals kühler, wenn das CO2 doch stieg? Die Modellierer griffen zum Aerosoltrick: Wie der Sandmann, ließen sie einfach kühlenden Staub in die Modelle rieseln, erst versuchte man es mit Schornsteinstaub, dann kühlte man mit Vulkanen. Die Staubkurven bog man sich so hin, dass sie zeitlich genau zur Abkühlung passten. Ein wenig unwohl war den Klimamodellierern dabei schon, denn hoffentlich kommt nicht jemand auf die verrückte Idee und möchte die harte Datengrundlage der Aerosolkurven überprüfen. Natürlich wollte das niemand, denn Zweifel waren nicht gestattet. Mit Ausnahme einiger Klimaskeptiker, lästige Querulanten. Die verfrachtete man schnell in die gekaufte Lobbyecke, schon hatte man sie lächerlich gemacht. Gefahr gebannt.

Wie lange kann man so ein Spiel eigentlich spielen? Es muss doch einige Kollegen geben, die dabei wissenschaftsethische Bedenken bekommen. Offener Protest wäre für die Karriere zu gefährlich. Also dokumentiert man die Fehlleistungen der Modelle lieber im Verborgenen. Tief, ganz tief im 5. IPCC-Bericht steht es dann geschrieben. Eine Einlassung, die explosiv ist, die aber kaum einer liest. Denn sie ist in schwer lesbaren technischen Text eingebettet, mit Fachbegriffen gespickt, dass nur Eingeweihte den Sinn entziffern können. Im Bericht steht also, dass die Klimamodelle die empirisch gut belegte Mittelalterliche Wärmeanomalie nicht reproduzieren können. Das Modell ist quasi durch die Fahrprüfung gefallen, fährt aber heute trotzdem mit 200 Sachen auf der Autobahn, immer auf der Überholspur mit Lichthupe. Ein Modell, das die Rückwärtsmodellierung nicht schafft, kann für die Zukunftsmodellierung nicht eingesetzt werden. Eine alte, solide Grundregel des Modellierungswesens. Wie lange dauert es, bis der Raser von der Piste genommen und der Führerschein ernsthaft kontrolliert wird?

—-

Judith Curry hat einen Leitfaden zum kritischen Umgang mit Klimamodelle geschrieben. Das pdf des Heftes kann bei der GWPF heruntergeladen werden. Hier die Kurzfassung:

Climate Models for the layman

There is considerable debate over the fidelity and utility of global climate models (GCMs). This debate occurs within the community of climate scientists, who disagree about the amount of weight to give to climate models relative to observational analyses. GCM outputs are also used by economists, regulatory agencies and policy makers, so GCMs have received considerable scrutiny from a broader community of scientists, engineers, software experts, and philosophers of science. This report attempts to describe the debate surrounding GCMs to an educated but nontechnical audience.

Key summary points:

  • GCMs have not been subject to the rigorous verification and validation that is the norm for engineering and regulatory science.
  • There are valid concerns about a fundamental lack of predictability in the complex nonlinear climate system.
  • There are numerous arguments supporting the conclusion that climate models are not fit for the purpose of identifying with high confidence the proportion of the 20th century warming that was human-caused as opposed to natural.
  • There is growing evidence that climate models predict too much warming from increased atmospheric carbon dioxide.
  • The climate model simulation results for the 21st century reported by the Intergovernmental Panel on Climate Change (IPCC) do not include key elements of climate variability, and hence are not useful as projections for how the 21st
  • century climate will actually evolve.

Climate models are useful tools for conducting scientific research to understand the climate system. However, the above points support the conclusion that current GCMs are not fit for the purpose of attributing the causes of 20th century warming or for predicting global or regional climate change on timescales of decades to centuries, with any high level of confidence. By extension, GCMs are not fit for the purpose of justifying political policies to fundamentally alter world social, economic and energy systems. It is this application of climate model results that fuels the vociferousness of the debate surrounding climate models.

 

Wie funktionierte das Klima im Eozän?

Das frühe Eozän vor 50 Millionen Jahren wird immer gerne als Beweis dafür angeführt, dass das CO2 ein äußerst stark erwärmendes Klimagas wäre. Wenn man sich dann etwas tiefer in die Literatur einliest, wird schnell klar, dass hier noch sehr viele Fragen offen sind. Unter anderem können viele Modelle die Eozän-Hitze nur unter Annahme extrem hoher CO2-Konzentrationen modellieren, die jedoch fernab der Wirklichkeit liegen, wenn man sich die geologischen CO2-Rekonstruktionen betrachtet. Henrik Carlson und Rodrigo Caballero von der Universität Stockholm haben nun in einem Artikel eine Alternative ausgelotet: Wie wäre es, wenn ein Großteil der Erwärmung nicht auf das Konto vom CO2, sondern durch Ausdünnen der Wolken verursacht worden wäre? Eine spannende Geschichte, die starken Einfluss auf die wichtige Frage der CO2-Klimasensitivität hat. Hier der Abstract aus Climate of the Past Discussions, erschienen Mitte Februar 2017:

Atmospheric circulation and hydroclimate impacts of alternative warming scenarios for the Eocene
Recent work in modelling the warm climates of the Early Eocene shows that it is possible to obtain a reasonable global match between model surface temperature and proxy reconstructions, but only by using extremely high atmospheric CO2 concentrations or more modest CO2 levels complemented by a reduction in global cloud albedo. Understanding the mix of radiative forcing that gave rise to Eocene warmth has important implications for constraining Earth’s climate sensitivity, but progress in this direction is hampered by the lack of direct proxy constraints on cloud properties. Here, we explore the potential for distinguishing among different radiative forcing scenarios via their impact on regional climate changes. We do this by comparing climate model simulations of two end-member scenarios: one in which the climate is warmed entirely by CO2, and another in which it is warmed entirely by reduced cloud albedo (which we refer to as the low CO2-thin clouds or LCTC scenario) . The two simulations have almost identical global-mean surface temperature and equator-to-pole temperature difference, but the LCTC scenario has ~ 11 % greater global-mean precipitation. The LCTC simulation also has cooler midlatitude continents and warmer oceans than the high-CO2 scenario, and a tropical climate which is significantly more El Niño-like. We discuss the potential implications of these regional changes for terrestrial hydroclimate and vegetation.

——————-

Sie haben schon einmal von Watergate gehört? Na klar. Und Sie kennen als Klimainteressierter natürlich auch die Climategate-Episode. Nun gibt es nicht nur bei den Klimawissenschaften Aktivisten und Interessenskonflikte, sondern auch bei der Bienenzucht. Genau, Sie haben richtig gehört, Bienenzucht. Der dazugehörige Skandal heißt entsprechend Beegate. Interesse geweckt? Im Risk Monger-Blog können Sie den Fall nachlesen, mit vielen Parallelen und sogar Berührungspunkten zur Klimadiskussion:

BeeGate

Almost ten years ago, when there were indications of stresses on honeybee populations (known as colony collapse disorder – CCD), different activists were jockeying for the right to claim this crisis for their campaigns. Climate activists wanted to show bees were suffering because of warmer weather; biodiversity campaigners saw land-use issues as the source for the crisis; anti-GMO stalwarts wanted us to know there was something unknown in the pollen; anti-EMF  fear-mongers wanted to highlight the confusion bees suffered due to our love of mobile technology. Nobody mentioned the main causes (cold winters and Varroa mite) … seriously, who would donate to that???

In an early blog, the Risk-Monger had predicted that the anti-pesticides lobby would win this issue as their own … and how right he was! It doesn’t matter that there was no science behind the bees and pesticides campaigns; it doesn’t matter that the campaigners lied and fear-mongered their way to the top; it doesn’t matter that farmers, the environment and bees suffered from the consequences of their self-serving dogmatic bias. The organic food lobby, that funded these cosmopolitan zealots, focused the campaign on the most advanced, least detrimental line of crop protection products: neonicotinoids (neonics)

Watching this crisis unfold, the Risk-Monger saw an enormous amount of unethical, unscientific and unacceptable behaviour from the save-the-bees groups. This is the story of BeeGate – how activist scientists and seasoned campaigners used Age of Stupid tactics to trick policymakers, seduce the media and terrify the public – litigious liars and lamentable fear-mongers have caused incomprehensible damage to the public trust in dialogue, science and policy. Winning might be everything to these activists, but destroying food security and trust in policy and science hardly merits such hypocrisy!

In 2014, I leaked a confidential activist strategy document that showed how a group of anti-pesticide scientists aligned with the IUCN conspired to ban neonics – putting policy first and looking for evidence later. That was only the first part of the scandal. I then showed in Part 2 how the scientists were conflicted and funded by interest groups that would benefit from an increase in organic food sales. After that I revealed how activists worked their way onto the EFSA Bee Risk Assessment Working Group to game the RA process to ensure that the available field trial data would not comply, leading to EFSA’s limited advice that would result in a precautionary ban on neonicotinoids.

Weiterlesen im Risk Monger-Blog

——————-

Der Newsletter ‘Klarsicht’ ist im Februar 2017 mit seiner zweiten Ausgabe erschienen, in der es vor allem um das vorindustrielle Klima der Vorzeit geht. Lesenswert! Das kostenlose pdf des Heftes finden Sie hier.

 

Bundesrechnungshofkritik an Energiewende, gefährliche Dunkelflaute und Klimakiller Elektroauto

Der Bundesrechnungshof sieht große Probleme bei der Umsetzung der Energiewende, wie der Deutschlandfunk am 12. Januar 2017 meldete:

Organisationsmängel: Rechnungshofkritik an Energiewende
Mitnahmeeffekte und ineffiziente Förderprogramme – das sind nur einige Probleme, die der Bundesrechnungshof bei der Umsetzung der Energiewende sieht. Damit die finanziellen Auswirkungen nicht höher ausfallen als geplant fordert der Bundesrechnungshof einen jährlichen Monitoringbericht zur Erfolgskontrolle.

Bereits am 21. Dezember [2016] hat der Bundesrechnungshof seinen Bericht über die Maßnahmen zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft an den Haushaltsausschuss der deutschen Bundestags übersandt. Da der Bericht im Haushaltsausschuss noch nicht beraten wurde, darf er vom Rechnungshof auch noch nicht veröffentlicht werden. Dabei hat der unserem Hauptstadtstudio vorliegende Bericht tatsächlich einiges an Brisanz und fordert das Wirtschaftsministerium zu deutlichen Veränderungen in der Steuerung und Erfolgskontrolle der Energiewende auf, damit die Kosten dafür nicht aus dem Ruder laufen.

[...]

Erfolgskontrollen, so mahnt der Rechnungshof, seien bei der Vielfalt der Programme zwingend notwendig, sonst würden ineffiziente Förderprogramme aufgesetzt, verlängert oder gar aufgestockt. Der Bundesrechnungshof sieht deshalb das Risiko, dass die Energiewende teurer werden könnte als bislang veranschlagt. Und nicht zuletzt würden die Fragen nach der Versorgungssicherheit und der Bezahlbarkeit erkennbar weniger berücksichtigt, als die Fragen der Umweltverträglichkeit der Programme.

Weiterlesen beim Deutschlandfunk

————

Daniel Wetzel berichtete am 7. Februar 2017 in der Welt über eine bedenkliche Schwächephase der Erneuerbaren Energien, die dem einen oder anderen Energieplaner sicher kalte Schauer über den Rücken gejagt hat:

Kaum Ökostrom: Die „Dunkelflaute“ bringt Deutschlands Stromversorgung ans Limit
In wenigen Monaten ist es wieder soweit: Am Pfingstsonntag werden erneuerbare Energien aus Wind- und Solarkraft wohl über Stunden hinweg fast den gesamten deutschen Strombedarf decken können. Energiewendeprotagonisten und Grünen-Politiker werden dann wie stets in dieser Jahreszeit die Erfolge der Ökostromrevolutionpreisen – und die schnellstmögliche Abschaltung aller Kohlekraftwerke fordern. In den langen, dunklen Wintermonaten allerdings schweigen die Lobbyisten der erneuerbaren Energien lieber. Aus gutem Grund, wie ein Blick auf die Erzeugungsdaten der zurückliegenden Wochen zeigt. Im Januar fielen die deutschen Ökostromanlagen wochenlang als Energielieferanten fast völlig aus. In der ersten Januarwoche und dann wieder von der Monatsmitte an stellten rund 26.000 Windkraftanlagen und mehr als 1,2 Millionen Solaranlagen ihre Arbeit für lange Zeit ein. Verantwortlich war eine sogenannte Dunkelflaute: Ein für diese Jahreszeit typisches Hochdruckgebiet sorgte für zehntägige Windstille und Nebel – während zugleich der Strombedarf in Deutschland stark anstieg, weil es ziemlich kalt war.

Weiterlesen auf welt.de

————

Elektroautos als Sauberfahrzeug für Klimaschützer? Eine Milchmädchenrechnung, denn der Energieverbrauch der Elektrolimousinen ist deutlich höher als die Benzin- und Dieselkollegen. Und da der Strom bekanntlich zwar aus der Steckdose kommt, jedoch in vielen Fällen aus Kohlekraftwerken, stellt sich der exakte Gegeneffekt ein, wie Dieter Seifried am 20. Februar 2017 in der Frankfurter Rundschau vorrechnete:

Klimawandel: Klimakiller Elektroauto
Fahren mit Strom gilt als gut für die Umwelt. Aber wer das glaubt, sitzt einer Lüge auf, denn mit jeder Zulassung eines Elektroautos steigt die CO2-Emission. [...] Nur mit dem Umstieg von Verbrennungsmotoren auf Elektrofahrzeuge ist für das Klima in den nächsten zwei Jahrzehnten nichts gewonnen. Im Gegenteil: Mit jeder Neuzulassung eines E-Fahrzeugs steigen die CO2-Emissionen an – selbst wenn der ambitionierte Umweltschützer und Autofahrer sein Fahrzeug an eine Steckdose mit Öko-Strom hängt. Warum ist das so? Schauen wir zunächst auf die Messergebnisse des letzten ADAC-Eco-Tests (12/2016), der für sich in Anspruch nimmt, auf einem realitätsnahen Fahrzyklus zu basieren, und vergleichen die dort ermittelten Verbrauchswerte. Im nächsten Schritt errechnen wir die CO2-Emissionen von Benzin-, Diesel- und E-Fahrzeugen. Die drei Elektrofahrzeuge auf der ADAC-Eco-Liste, die im Ranking vorne stehen, verbrauchen im Durchschnitt 20,5 Kilowattstunden (kWh) pro 100 Kilometer, der beste Benziner 5,1 Liter und die effizientesten Diesel 4,2 Liter pro 100 Kilometer. Rechnet man diese Verbräuche in CO2-Emissionen um, so kommt der Stromer auf 18,5 Kilogramm CO2 pro 100 Kilometer, der Benziner auf 12,1 und der Diesel auf 11,1 Kilogramm pro 100 Kilometer.

Ganzen Artikel in der Frankfurter Rundschau lesen.

Lesen Sie dazu auch den folgenden Powerline-Artikel von Martin Karo, der den Tesla ökologisch ein Stück weit entzaubert:

Martin Karo: How green was my Tesla

Reader Martin Karo is a Philadelphia attorney. Mr. Karo takes a look at the environmental theme that powers the Tesla. Warning: there will be math. He writes:

Teslas grind my gears. Well, at least their owners do. Every time, it’s a variation on an old “fighter pilot” joke: How can you tell when a Tesla owner is in the room? Answer: He tells you. Like the fighter pilot, he (seemingly always a he; must be the tech thing) is on a mission: to make sure you know he owns one, and you don’t. And he’s a better man than you, because he’s saving the planet, and you’re not. A Tesla has the dual advantages, for the condescending set, of being both terribly expensive and highly efficient.

While one can’t argue the expense, or the cachet – de gustibus non est disputandum — is the Tesla really efficient? Electricity has to be generated somehow, and in the US, the vast majority of that generation is via hydrocarbon fuels – coal or natural gas. And most of what isn’t hydrocarbon is nuclear. And basic physics dictate it takes energy to convert energy from one form to another, and it takes energy to move energy, and frictional or resistive losses occur all along the way, and all other things being equal, it takes the same amount of energy to move 4500 pounds, whether you do so by electric motor or gasoline; the only difference is efficiency loss.

Hier weiterlesen.

 

ZDF-Nachrichten: Rentierzüchter in Lappland beklagen, dass die Winter immer länger und härter werden

Am 27. Februar 2017 zog der Deutsche Wetterdienst (DWD) ein Fazit des Februar-Monats:

Deutschlandwetter im Februar 2017

Februar 2017 war deutlich zu warm und nur durchschnittlich sonnig

Der Februar 2017 begann zunächst im Nordosten unter Hochdruckeinfluss noch kalt. Den Süden und Westen streiften aber bereits Tiefausläufer mit milderer Luft. Ab Mitte des Monats befanden sich dann sämtliche Landesteile in einer niederschlagsreichen, kräftigen westlichen Strömung. Diese erreichte am 23. Februar mit Sturmböen vor allem im Westen und frühlingshaften Temperaturen im Süden ihren Höhepunkt. Insgesamt verlief der Februar deutlich zu warm mit nahezu ausgeglichenem Niederschlag und Sonnenschein. Das meldet der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner rund 2 000 Messstationen.

Weiterlesen beim DWD.

Der kürzliche Februar viel zu warm! Man kann sich das plastisch vorstellen: Eine wilde Temperaturspitze schießt aus den sonst üblichen Temperaturen. Wieder einmal der Beweis, dass es seit Jahren nur eine Richtung gibt: Immer heißer und heißer und heißer. Eine Graphik mit dem Temperaturverlauf stellte der DWD zusammen mit der Pressemiteilung nicht zur Verfügung. Warum eigentlich, die Leute würden den Februar-Hitzetrend doch sicher ganz gerne in Chart-Form anschauen wollen? Schade, dass der DWD hier mit Abbildungen knausert. Dankenswerterweise greift Josef Kowatsch dem DWD unter die Arme und erstellte für uns auf Basis der offiziellen DWD-Werte die Temperaturentwicklung der letzten 30 Jahre:

 

Abbildung: Entwicklung der Februar-Temperaturen der letzten 30 Jahre in Deutschland. Daten DWD, Graphik: Kowatsch.

 

Die Verwunderung ist groß: Von wegen “deutlich zu warm”. Der Klimatrend der letzten 30 Jahre zeigt für den Februar klar nach unten. Der diesjährige Ausschlag nach oben ist nichts Ungewöhnliches und hat sich in den letzten 3 Dekaden regelmäßig ereignet. Eine schwache Leistung des DWD, die Bürger verbal so in die Irre zu führen. Kein Hinweis auf den 30-Jahrestrend, keine Graphik, kein Kontext. Eine höchst fragwürdige Politisierung des Wetterberichts…

——————-

Josef Kowatsch wies uns auf eine weitere Kuriosität hin. Am 3. März 2017 wurde in den ZDF-Nachrichten um 16 Uhr dem staunenden Zuschauer vermeldet, dass wegen des Klimawandels die Lappländer (Samen) um ihre Rentierherden fürchten. Die wären am Verhungern, weil der Schnee seit einigen Jahren viel länger liegen bliebe. Offenbar werden die Winter auch in Lappland länger, bleiben die Böden fester gefroren mit mehr Schnee; das Frühjahr beginnt später. Die entsprechende Passage in der Sendung können Sie noch für einige Tage online anschauen (Beginn bei 12:10 min).

——————-

Am 9. Februar 2017 stellte Der Standard kostlenlose Werbefläche für einen aktivistischen Klimaalarmartikel zur Verfügung. Ob der Redaktion bewusst war, dass die angeblich so neutralen Aussagen von einem “Think Tank” stammten? Es ging wieder mal um Eisbären. Sie würden keine Jungen mehr kriegen, weil es kein Meereis gäbe und sie nichts zu essen hätten. Dabei hat die Wissenschaft bereits festgestellt, das Eisbären vielseitige Esser sind und das Eis keine große Rolle spielt. Aktivist Sepp Friedhuber plaudert munter von einem sich immer mehr erwärmendem Golfstrom (obwohl doch gerade wieder aus der Rahsmtof-Ecke tönte, dass der immer schwächer würde). Ob Friedhuber überhaupt weiß, wovon er spricht? Hier die Entwicklung der ozeanischen Wärme im Nordatlantik, man beachte den markanten Abkühlungstrend, der seit 2007 anhält:

Abbildung:  Entwicklung der ozeanischen Wärme im Nordatlantik bis 700m Tiefe während der letzten 60 Jahre. Graphik: Climate4You.

 

Hier die echten Eisbären-News, garantiert propagandafrei:

——————-

Lesenswerte Kolumne von Gunnar Schupelius am 21. Februar 2017 in der BZ:

Die Kirche möchte, dass wir gegen den Klimawandel fasten. Was soll das?

[...] Wie kann man nun beim Fasten CO2 vermeiden? Tipps dazu gibt die Kirche in einer kleinen Broschüre mit dem Titel „So viel du brauchst …“ (http://bit.ly/2lb8tCH). Dort ist vom Fasten im strengen Sinne nicht die Rede. Für jede Woche bis Ostern gibt es aber spezielle Tipps. In der ersten Woche zum Beispiel sollen Christen „einen Umweg zum Bioladen“ gehen und „dort einkaufen“. In der zweiten Woche sollen sie „ein E-Bike ausleihen“, in der dritten „kaputte Kleidung nähen“, außerdem „einen Tag ohne Geldbörse und Einkauf leben“. In der vierten Woche wird empfohlen, den Kuchen mit der Hand zu kneten und „Terrassen mit Heizpilzen zu meiden“. In der fünften sollen sich die Christen fragen, ob ihre Bank ein „Klimakiller“ ist.

Ganze Kolimne in der BZ lesen.

 

 

Oberverwaltungsgericht Magdeburg hat entschieden: Umweltbundesamt darf Journalisten anschwärzen

In den USA werfen Regierungsstellen unliebsamen Journalisten „Fake News“ vor, um sie zu diskriminieren. In Deutschland wäre das unmöglich? Irrtum. Das Umweltbundesamt (UBA) geht mit Rufmordmethoden auf Journalisten los. Doch leider gibt es hierzulande kein Gericht, das die Pressefreiheit davor schützt, wie jetzt bekannt wurde. Das Oberverwaltungsgericht (OVG) Magdeburg hat in der Sache „Miersch gegen Bundesrepublik Deutschland“ (Aktenzeichen 3 L 44/16.Z) eine Berufung gegen das Urteil des Verwaltungsgerichts Halle aus dem Jahr 2015 abgelehnt. Miersch hatte gegen seine Nennung in einer Broschüre des UBA mit dem Titel „Und sie erwärmt sich doch“ geklagt. Darin werden er und einige andere Journalisten und auch Wissenschaftler, darunter auch Sebastian Lüning und Fritz Vahrenholt, als „Klimawandelskeptiker“ bezeichnet, deren Publikationen „gegen den Kenntnisstand der Wissenschaft“ gerichtet sind. An anderen Stellen des Textes werden die Machenschaften von Klimawandelskeptikern als unlauter dargestellt. Auch wird der Vorwurf erhoben, Klimawandelskeptiker seien bezahlte Lobbyisten der Ölindustrie.

Das OVG Magdeburg schloss sich nun dem Urteil des Verwaltungsgerichts Halle voll und ganz an und erklärte, dass das Umweltbundesamt mit der Broschüre einem „postfaktischen Diskurs“ entgegenwirkt. Mit „postfaktischen“ sind somit die Artikel von Miersch (damals Ressortleiter Wissenschaft beim FOCUS) und der anderen vom UBA angeschwärzten Journalisten und Wissenschaftler gemeint. Dieser Beschluss ist letztinstanzlich. Beim Beginn des Verfahrens 2013, war ich, wie fast alle Beobachter, davon überzeugt, dass das Vorgehen des UBA vor Gericht nicht bestehen wird. Jetzt hat die Behörde juristisch gesiegt.

Als die Broschüre 2013 herauskam, löste dies eine Welle des Protestes aus. „Eine staatliche Behörde hat nicht die Aufgabe, Kritiker der Regierungspolitik als Abweichler zu brandmarken,“ erklärte der Deutsche Journalisten-Verband (DJV) beim Erscheinen. Der Vorsitzende forderte den damaligen Bundesumweltminister Peter Altmaier auf, „die Broschüre in der vorliegenden Form nicht weiter zu verbreiten und sich bei den betroffenen Kollegen zu entschuldigen.“ Altmeier entschuldigte sich bei Fritz Vahrenholt in einem telefonischen Gespräch, wollte aber die Broschüre nicht zurückziehen. Siehe unseren Beitrag “Ein Skandal schwappt nach oben: Minister Altmaier äußert sich zur fragwürdigen UBA-Broschüre, will aber nicht verraten, ob er die Publikation selber für gut und richtig hält“. So wird das Traktat bis heute vom Umweltbundesamt verbreitet. Wie andere Beobachter auch, war der DJV jedoch zuversichtlich, dass die Gerichte das UBA in seine Grenzen verweisen werden.

Die meisten großen deutschen Zeitungen und Zeitschriften kritisierten damals das UBA scharf  für diese denunziatorische Broschüre. Dabei machte es erfreulicherweise keinen Unterschied, welche Haltung die Redaktionen in der Klimadebatte vertraten. Martin Schneider, Vorsitzender der Wissenschafts-Pressekonferenz (WPK), erklärte:

„Es ist nicht Aufgabe einer staatlichen Institution festzulegen, welche Meinungen geäußert werden dürfen und welche nicht.“  

Im Bundestag kritisierten mehrere Abgeordnete das Umweltministerium für die beleidigende Broschüre seiner Behörde. Erkenntnisse in Frage zu stellen, sei eine Kernaufgabe der Wissenschaft, sagte der Vize-Fraktionschef der Unionsfraktion, Arnold Vaatz, und bezeichnete die UBA-Broschüre als „Gipfel der Unverschämtheit.“ Klimaforscher Prof. Hans von Storch nannte die UBA-Broschüre: „Unfug.“ Diese und viele andere Proteste konnten das UBA nicht zum Einlenken bewegen. Es vertreibt weiterhin die Broschüre und darf dies ab jetzt auch mit höchstrichterlichem Segen tun.

Ich kenne die meisten von Mierschs Artikeln und seine Bücher, die er gemeinsam mit Dirk Maxeiner verfasste (Maxeiner gab den Rechtsweg auf, als die Kosten zu drückend wurden). Darin ist definitiv kein Abweichen von den messbaren Fakten und vom Kenntnisstand der Wissenschaft zu finden. In seinen Artikeln und Büchern ließ Miersch Wissenschaftler zu Wort kommen, die aus dem Kenntnisstand der Wissenschaft andere Schlüsse ziehen als die Bundesregierung. Dabei hat er sich nie selbst als Wissenschaftler aufgespielt und immer die journalistische Distanz bewahrt. Dafür wurde er von einer Bundesbehörde öffentlich angeprangert und muss durch den jetzt erfolgten Gerichtentscheid die immensen Kosten des Verfahrens tragen.

Übrigens lohnt sich ein Blick auf die Autoren der UBA-Broschüre, die ja so tun, als seien sie die kompetenten Schiedsrichter darüber, was der Kenntnisstand der Wissenschaft sei. Hauptautor ist UBA-Fachbereichsleiter Harry Lehmann. Er gehört dem „Verein der Freunde und Förderer des Potsdam-Instituts“ an. Laut Satzung soll der Verein das PIK „vor allem durch Beschaffung von Mitteln“ unterstützen. Das UBA hat nach FOCUS-Recherchen von 2007 bis 2013 ein Dutzend Forschungsaufträge in Höhe von insgesamt rund zwei Millionen Euro an das PIK vergeben und diese nicht – wie vorgeschrieben – europaweit ausgeschrieben. Die Vergabepraxis des UBA sei „eine massive und auffallend häufige Verletzung des Vergaberechts“, urteilt Vergaberechtsexperte Heiko Höfler. Das UBA verteidigt die umstrittenen Zuwendungen, sie seien unter eine „vergaberechtliche Ausnahmeregelung“ gefallen. Höfler überzeugt dies nicht: „Das ist nach den Vertragsbedingungen des Amtes gar nicht vorgesehen. Es spricht viel dafür, dass es sich um eine Schutzbehauptung handelt.“  Harry Lehmann hat lange Jahre für den Lobbyverband „Eurosolar“ gearbeitet und es dort bis zum europäischen Vizepräsidenten gebracht. Aus dieser Position heraus wechselte er dann 2007 in eine Spitzenstellung als Abteilungsleiter in das Umweltbundesamt.

Auch unter den anderen drei Autoren ist kein Klimawissenschaftler. Mit-Autor Dr. Klaus Müschen ist Leiter der Abteilung Klimaschutz und Energie des UBA. Er studierte Elektrotechnik und Sozialwissenschaft an der Universität Hannover und arbeitete als Hochschulassistent für Elektrotechnik an der Universität Hamburg. Später leitete er das Referat für Klimaschutz, Luftreinhaltung und Lokale Agenda 21 in der Senatsverwaltung für Stadtentwicklung Berlin. Dr. Steffi Richter arbeitet in der von Klaus Müschen geleiteten UBA-Abteilung. Auch über sie kann man im  Internet keine klimawissenschaftlichen Publikationen finden. Dr. Claudia Mäder trat als Autorin des beim UBA kostenlos bestellbaren Kinderbuches „Pia, Alex und das Klimaprojekt – Eine abenteuerliche Entdeckungsreise“ in Erscheinung. Auch hier finden sich keine Hinweise auf eine naturwissenschaftliche Tätigkeit. Das sind die Leute, die die glauben, sich als Meinungspolizei in Sachen Klima aufführen zu dürfen. Leider ist diese Hybris jetzt durch ein Gericht bestätigt worden.

 

Fritz Vahrenholt: Energiewende wichtiger als der Schutz der Natur?

Die Basler Zeitung befragte am 18. Februar 2017 Fritz Vahrenholt zur Energiewende:

——–

«Das ist doch absurd!»

Der frühere Umweltpolitiker und Energiemanager Fritz Vahrenholt über die deutsche Energiepolitik und die Schweiz.

BaZ: Sie haben die deutsche Energiewende als «Desaster» bezeichnet. Wieso?
Fritz Vahrenholt: Zunächst einmal hat die deutsche Regierung nach dem Tsunami in Japan innerhalb eines Wochenendes entschieden, auf die Kernenergie zu verzichten, die bis dahin die Grundlast für die deutsche Industrie erzeugt hat. Die Regierung will seither diese gesicherte Energie durch schwankenden Strom aus Sonne und Wind ersetzen. Dass das nicht vernünftig ist, weiss eigentlich jeder.

Ich nicht. Erklären Sie es mir.
Wir haben 50 bis 100 Tage und manchmal ganze Wochen im Jahr mit Windstille und wenig Sonne. Dann produzieren diese weniger als zehn Prozent des Bedarfes. Und wenn der Wind bläst und die Sonne scheint, ist zu viel Strom im Netz, und da die Speicherkapazitäten fehlen, schalten wir Windkraftwerke ab. Wir haben ein sich zuspitzendes Problem – entweder zu viel oder zu wenig Strom.

Warum spitzt sich das Problem zu?
Weil mit jedem Zubau an solchem «Flatterstrom», durch jedes Windrad und jede Solarzelle, die Schwankungen erhöht werden.

Beginnen wir ganz vorne: Kernenergie hat doch keine Zukunft.
So hat es die Politik entschieden, obwohl es keine ernsthaften Beanstandungen und Befürchtungen hinsichtlich der deutschen Kernkraftwerke gab.

In der Schweiz ist vorgesehen, dass die Kernkraftwerke weiterlaufen, solange es die Sicherheit erlaubt.
Das ist klug. Damit gewinnen Sie Zeit, Zeit, bis sich vielleicht kostengünstige Speichertechnologien ergeben.

Und der strahlende Abfall?
Die Endlagerthematik ist völlig unabhängig davon zu lösen, ob die Kraftwerke 30, 40 oder 50 Jahre laufen. Nach Fukushima haben nur die Schweiz und Deutschland eine Energiewende beschlossen. Sogar in Japan setzt man wieder auf Kernkraft und Kohle. 2022 wird das letzte deutsche Kernkraftwerk abgestellt und es gibt dann keine gesicherte Versorgung mehr im Süden Deutschlands. Wir hängen zunehmend von den Naturkräften ab, wenn wir dann auch noch auf Kohle- und Gaskraftwerke verzichten wollen.

Wieso ist das schlecht?
Ich habe nichts gegen Wind- und Solarenergie, wenn sie denn wirtschaftlich ist und eine gesicherte Stromversorgung gewährleistet. Aber das funktioniert erst, wenn das Speicherproblem gelöst ist. Sie müssen die Naturkräfte zu einer zuverlässigen Versorgung machen können.

Es braucht einfach genügend Solar- und Windkraftwerke.
Nein, selbst wenn wir die Windkapazität verdreifachen, bleibt bei Flaute die Erzeugung nahe null. Für die Sonne gilt Ähnliches, insbesondere nachts. Windkraftanlagen erzeugen nur so viel Strom, als würden sie gerade einmal 90 Tage im Jahr mit voller Leistung laufen. Bei Fotovoltaik sind es 35 Volllasttage. Daraus erkennt man schon, dass es ohne Speicherung nicht gelingen kann, eine sichere Versorgung zu gewährleisten.

Warum ist das so wichtig?
Sie müssen sich immer vor Augen halten, was das bestehende System leistet. Immer wenn irgendwo ein Bedarf an Strom entsteht, muss in der gleichen Sekunde dieser Strom geliefert werden. Wenn an einem Winterabend die Flutlichtanlage des FC Basel angedreht wird, muss der zusätzliche Bedarf innert Sekunden bereitgestellt werden. Mit Sonnen- oder Windenergie können sie die Produktion nicht hochfahren.

Was bedeutet das?
Wenn tatsächlich die Sonne scheint oder der Wind weht, dann haben wir in Deutschland viel zu viel Strom. Wir verschenken den Überschussstrom, häufig zu negativen Strompreisen, ins Ausland. Wegen des Vorrangs der Erneuerbaren müssen zuerst die konventionell mit Gas oder Kohle betriebenen Kraftwerke runtergefahren werden, dann sogar Windkraftwerke, die dann aber trotzdem bezahlt werden, obwohl sie nichts produzieren. Das kostet mittlerweile eine Milliarde Euro pro Jahr, das ist doch absurd! Noch einmal: Neue Energieträger sind nur dann ein belastbarer Versorger, wenn wir das Speicherproblem gelöst haben.

Solche Technologien gibt es.
Ja, es gibt Möglichkeiten, beispielsweise Pumpspeicher, also Stauseen in den Bergen. Da pumpt man Wasser hoch und lässt es wieder ab, wenn der Strom benötigt wird. Bereits um eine viertägige Windflaute auszugleichen, müsste man den Bodensee (500 km², 100 m tief) auf ein hohes Niveau pumpen und wieder ablaufen lassen.

Wieso geht das nicht mit Batterien?
Das wird vielleicht irgendwann ­möglich sein. Dann hat auch die wechselhafte Wind- und Solar­energie eine Chance. Heute ist es viel zu teuer – gut und gerne 20 Eurocent pro ­Kilowattstunde – und die kommen zu den eigentlichen Stromkosten und Gebühren hinzu. Das kann sich nur noch der wohlhabende Privathaushalt leisten. Jede industrielle Nutzung von Strom können sie aus Kostengründen vergessen.

In der Schweiz haben wir viele Pumpspeicherwerke. Die haben sich jahrelang gut rentiert. Jetzt verdienen die nichts mehr.
Die Ursache hierfür ist die völlig aus den Fugen geratene Produktion von Wind- und Solarstrom in Deutschland. Dann wenn es windig ist, schieben wir den Überschuss unseren Nachbarn über die Grenze. Dieser Strom ist durch die Subventionen ja bereits bezahlt, wenn er entsteht, darum kostet er nichts oder hat sogar einen Negativpreis. Die Pumpspeicherwerke brauchen aber rund acht Eurocent, um wirtschaftlich zu überleben. Das ist ein grosses Dilemma für die Schweiz. Damit wird ihre heimische – fast CO?-freie – Stromproduktion plötzlich infrage gestellt.

Die Überschussproduktion gefährdet unsere Wasserkraft.
Wir haben in Deutschland 50 000 Megawatt Windkraft. Wenn alle produzieren, müssen sie zuerst Kohle- und Gaskraftwerke, dann aber auch noch Windkraftwerke selber abstellen, sonst droht ein Kollaps. Wenn das nicht reicht, schütten wir den Strom über die Grenze und zerstören damit die Energieversorgung unserer Nachbarländer. Diese Nachbarn müssen uns umgekehrt mit Strom aushelfen, wenn es keinen Wind gibt. Die Polen lassen sich das nun nicht mehr gefallen und haben an der Grenze Phasenschieber montiert, damit der deutsche Überschussstrom nicht mehr nach Polen kann. Die Tschechen werden das nachmachen.

Könnte das die Schweiz auch tun?
Ich kann mir vorstellen, dass diese Debatte in der Schweiz auch irgendwann beginnt und man sich fragt: «Müssen wir eigentlich die übermütige und nicht durchgerechnete Energiepolitik Deutschlands ausbaden?» Vermutlich gibt es Leute in der Schweiz, die diese Frage mit Nein beantworten würden. Da habe ich Verständnis dafür.

Dann müsste die Schweiz aber Selbstversorger sein, wozu es neue Gaskraftwerke braucht.
Wenn die Kernkraftwerke vom Netz genommen worden sind, müssen ­flexible Gaskraftwerke deren Funktion übernehmen. Die deutsche Energiewende hat aber wegen des Überschussstroms Gaskraftwerke unrentabel gemacht. Ein modernes Gaskraftwerk in Bayern wurde einen Tag nach der Inbetriebnahme abgestellt, weil es sich nicht lohnte.

Reden wir über Geld. Der Strom wird für die Konsumenten immer teurer, aber auf dem internationalen Markt ist er immer billiger. Woher kommt das?
Ganz einfach: Wind- und Solarstrom sind noch immer doppelt bis dreimal so teuer wie konventionell erzeugter Strom. Um das auszugleichen, werden die Mehrkosten durch eine Umlagegebühr bei den Kunden erhoben und an die Produzenten von Wind- und Solarenergie verteilt. Jeder Windmüller und Besitzer eines Solardaches bekommt eine feste Vergütung für seinen Strom, der ihm eine satte Rendite für 20 Jahre sicherstellt. Die Umlagegebühr verteuert den Strom für die Kunden. Der Strom aus Erneuerbaren wird also vorab bezahlt und kommt zum Preis von null ins Netz und verdrängt den konventionellen Strom vom Markt. Das senkt den Strompreis an der Börse. Beide Effekte zusammen führen zu einer Erhöhung für den privaten Kunden.

Früher hat man einfach die Kernkraftwerke subventioniert. Strom ist doch immer teuer gewesen.
In Deutschland waren die Kernkraftwerke nicht subventioniert und ich kann mir das für die Schweiz nicht vorstellen. Die Forschung und Entwicklung der Kernkraft ist zwar vom Staat gefördert worden, aber das ist doch nicht zu beanstanden.

Und die Risiken? Die mussten die Kernkraftwerke nicht vollständig versichern.
Das war eine von Politik und Gesellschaft getragene Entscheidung. Heute würde das anders entschieden. Aber die Frage stellt sich nicht, da neue Kernkraftwerke nicht wirtschaftlich betrieben werden können.

Ihre Alternative ist, die Kernkraftwerke möglichst lange laufen zu lassen und auf die Entwicklung von Speichertechnologien zu setzen.
Wenn wir wettbewerbsfähige Speichertechnologien haben, dann können wir mit schwankender Energie wie Sonne und Wind umgehen.

Es geht Ihnen also nur um die Reihenfolge?
Genau. Wir dürfen doch das Pferd nicht von hinten aufzäumen und zuerst die Wind- und Solarkraftwerke bauen, wenn wir wissen, dass diese nur eine sichere Stromversorgung bringen, wenn wir Speichertechnologien haben, die es noch zu entwickeln gilt. Alles andere erscheint mir nicht sonderlich klug.

Was bedeutet das für den Industrie­standort?
Es gibt schon heute ein Defizit an Stromversorgung in Bayern und Baden-Württemberg. Das kann man lösen, indem man Leitungen aus dem Norden dahin baut. Aber das dauert noch Jahre und wegen Widerstands gegen Freileitungen wird es sehr teuer. Die Schweiz hängt mit Deutschland zusammen. Bei Stromknappheit wirkt sich das auch in der Schweiz aus.

Gibt es keinen Widerstand aus der Industrie?
Aus der energieintensiven Industrie kommt kein Widerstand, weil diese von der Umlagegebühr befreit ist – wie auch in der Schweiz. Stahl, ­Chemie, Kupfer, Aluminium profitieren sogar von den tiefen Gross­handels­preisen. In Wirklichkeit ist das ­System aber insgesamt viel teurer. Die Privathaushalte und die Klein­unternehmen ­zahlen einfach die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen eher unterbleiben. Man investiert nicht in einem Land, wo man nicht genau weiss, wie sich die Energiepreise ­entwickeln. Neben dem Preis spielt auch die Versorgungssicherheit eine wichtige Rolle. Sie nimmt mit jedem neuen Wind­rad ab.

Welche Gefahren gehen von Wind­rädern aus?
Ich habe ja selber ein Windkraft­unternehmen im Jahre 2000 gegründet und gross gemacht und kenne die Technologie sehr gut. Ich wäre nie auf die Idee gekommen, zu glauben, dass man derart schwankende Energie dazu verwenden könnte, ein Bahnnetz zu betreiben. Das müssen wir alle lernen. Windenergie bringt nicht nur Wohltaten. In Deutschland ist durchschnittlich alle 2,7 Kilometer ein Windkraftwerk geplant, obwohl wir schon heute wissen, dass Greif­vögel, Fledermäuse und andere gefährdete Arten deswegen verschwinden werden. Der Rotmilan ist gefährdet. Die 26 wichtigsten Sing­vogelarten sind auf dem Rückzug. Die Auswirkungen auf die Lebensräume von Pflanzen und Tieren sind enorm. Wenn ein Kernkraftwerk so viel Natur zerstört hätte, wie es die Windenergie macht, wäre es schon längst still­gelegt worden.

Warum sagen das die Naturschutz­organisationen nicht?
Der tiefere Kern ist folgender: Die politischen Grünen haben sich die Energiewende zum Programm gemacht, koste es, was es wolle. Sie waren in Wirklichkeit in Deutschland nie eine Naturschutzpartei, sondern eine antikapitalistische Partei, die sich gegen die Kernkraft und Industrie engagiert. Deswegen haben sie auch kein Herzblut, wenn es um Flora und Fauna geht. Es gibt natürlich Naturschutzorganisationen, die auf dieser grünen Parteilinie sind und andere, die tatsächlich Naturschutz machen. Ersteren ist die Energiewende wichtiger als der Schutz der Natur.

Aber es gibt Widerstand gegen Wind­räder.
Ja. Auf dem Land gibt es ein enormes, sehr bürgerliches Protestpotenzial. Das erinnert mich ironischerweise sehr an den Anfang der Anti-Kern­energie-Bewegung. Es ist heute so: Der Traum der städtischen Elite von einer angeblich sauberen Energie­versorgung wird auf dem Rücken der ländlichen Bevölkerung ausgetragen, die ihre Heimat verliert.

Wer gewinnt und wer verliert eigentlich finanziell?
Jene, die Subventionen für ein Solardach erhalten oder sich an Windkraftfonds beteiligen, gehören in der Regel nicht zur Unterschicht. Die Arbeitnehmer, die Sozialhilfeempfänger, die Mieter in Mehrfamilienhäusern, das sind diejenigen, die zur Kasse gebeten werden und die die auf zwanzig Jahre staatlich garantierten Renditen der Wohlhabenden ermöglichen.

Sie sehen zwei Möglichkeiten der weiteren Entwicklung: durchwursteln oder korrigieren.
Man wird irgendwann korrigieren müssen, spätestens nach den ersten Netzzusammenbrüchen. Je länger es dauert, umso grösser werden die Schwierigkeiten. Wenn wir in zehn Jahren eine fantastische Batterie haben, die fünf Eurocent pro Kilowattstunde kostet, dann wird sich die Sache vielleicht einrenken. Das ist aber Politik nach dem Prinzip Hoffnung. Ich würde darauf keine Wette eingehen und schon gar nicht als Politiker eine Nation darauf verpflichten.

 

Zuerst erschienen in der Basler Zeitung, der wir an dieser Stelle für den Abdruck danken.