Geben Planeten der Sonne den Takt vor?

Pressemitteilung des Helmholtz-Zentrums Dresden-Rossendorf vom 20. September 2016:

—–

Geben Planeten der Sonne den Takt vor?

HZDR-Forscher stellen eine Verbindung zwischen dem Sonnenzyklus und der Gezeitenwirkung von Venus, Erde und Jupiter her.

Die Sonnenaktivität wird vom Magnetfeld der Sonne bestimmt. Für dieses sind zwei gekoppelte Effekte verantwortlich: Der Omega-Effekt beruht auf der unterschiedlich schnellen Rotation des heißen und leitfähigen Plasmas, aus dem die Sonne besteht. So bildet sich ein Magnetfeld in Form zweier Ringe nördlich und südlich des Äquators. Aus diesen wiederum erzeugt der Alpha-Effekt ein Magnetfeld, das entlang der Längenkreise der Sonne verläuft. Wo und wie genau der Alpha-Effekt entsteht, gilt als ungeklärt. Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) stellen hierzu nun eine neue Theorie in der Fachzeitschrift „Solar Physics“ vor. Ihre Berechnungen legen nahe, dass die Gezeitenkräfte von Venus, Erde und Jupiter die Sonnenaktivität direkt beeinflussen können.

Viele Fragen zum Magnetfeld der Sonne sind noch offen. „Wie bei der Erde auch, haben wir es mit einem Dynamo zu tun. Durch Selbsterregung entsteht das Magnetfeld quasi aus dem Nichts, wobei die komplexe Bewegung des leitfähigen Plasmas als Energiequelle dient“, so der Physiker Dr. Frank Stefani vom HZDR. Der sogenannte Alpha-Omega-Dynamo der Sonne unterliegt einem regelmäßigen Zyklus. Etwa alle elf Jahre polt das Magnetfeld der Sonne um; mit derselben Periode durchläuft die Sonnenaktivität ein Maximum. Dieses zeigt sich an der Zunahme der Sonnenflecken – dunklen Stellen auf der Sonnenoberfläche, die von stark konzentrierten Magnetfeldern herrühren.

„Interessanterweise stehen alle 11,07 Jahre die Sonne und die Planeten Venus, Erde und Jupiter etwa auf einer Linie. Wir haben uns gefragt: Ist es Zufall, dass der Sonnenzyklus mit dem Zyklus von Konjunktion beziehungsweise Opposition der drei Planeten zusammenfällt?“, führt Stefani aus. Dabei ist die Fragestellung selbst keineswegs neu. Bisher konnten Wissenschaftler jedoch keinen physikalisch plausiblen Mechanismus dafür identifizieren, wie die sehr schwachen Gezeitenwirkungen von Venus, Erde und Jupiter den Sonnendynamo beeinflussen könnten.

Verstärkung durch Resonanz

„Auch wenn man einer Schaukel immer nur einen kleinen Schubs gibt, kommt sie mit der Zeit immer mehr in Schwung“, erläutert Frank Stefani das Prinzip der Resonanz. Er und sein Team fanden in aktuellen Berechnungen heraus, dass der Alpha-Effekt unter bestimmten Bedingungen zu Schwingungen neigt. „Die Anregung dieser Alpha-Oszillationen benötigt fast keine Energie. Dafür könnten die Gezeiten der Planeten als Taktgeber ausreichen.“ Für dieses Mitschwingen des Sonnendynamos spielt die sogenannte Tayler-Instabiltität eine entscheidende Rolle. Sie entsteht immer dann, wenn ein genügend starker Strom durch eine leitfähige Flüssigkeit oder ein Plasma fließt. Ab einer bestimmten Stärke erzeugt die Wechselwirkung des Stroms mit seinem eigenen Magnetfeld eine Strömung – im Falle der riesigen Sonne mit turbulentem Charakter.

Nach allgemeiner Auffassung beruht der Sonnendynamo auf einem Zusammenspiel zweier Induktionsmechanismen. Weitgehend unstrittig ist der Omega-Effekt, der in der Tachokline entsteht. So heißt ein schmales Band zwischen der inneren Strahlungszone der Sonne und den äußeren Bereichen, in denen Konvektion stattfindet, also Wärme über die Bewegung des heißen Plasmas transportiert wird. In der Tachokline treffen unterschiedlich schnell rotierende Bereiche aufeinander. Diese differentielle Rotation generiert das sogenannte toroidale Magnetfeld in Form zweier nördlich und südlich des Sonnenäquators gelegener „Rettungsringe“.

Neues Rezept für den Sonnendynamo

Große Unklarheiten bestehen hinsichtlich der Lage und Ursache des Alpha-Effektes, der aus dem Toroidalfeld ein Poloidalfeld erzeugt – letzteres verläuft entlang der Längengrade der Sonne. Einer weit verbreiteten Theorie zufolge hat der Alpha-Effekt seinen Ursprungsort in der Nähe der Sonnenflecken, also an der Sonnenoberfläche. Die Dresdner Forscher haben einen alternativen Ansatz gewählt, der den Alpha-Effekt mit der Rechts- oder Linkshändigkeit der Tayler-Instabilität in Zusammenhang bringt. Die Tayler-Instabilität wiederum entsteht aufgrund der stark aufgewickelten Toroidalfelder im Gebiet der Tachokline. „Damit können wir im Prinzip auch den Alpha-Effekt in der Tachokline verorten“, sagt Frank Stefani.

Nun haben die HZDR-Forscher erstmals Belege dafür gefunden, dass die Tayler-Instabilität auch zwischen Rechts- und Linkshändigkeit hin- und herpendeln kann. Das Besondere: Der Umschlag erfolgt faktisch ohne Änderung der Strömungsenergie. Dadurch reichen schon sehr kleine Kräfte aus, um eine Schwingung des Alpha-Effekts anzuregen. „Unsere Berechnungen zeigen, dass planetare Gezeitenkräfte hier wie winzige Taktgeber von außen wirken. Die etwa alle elf Jahre angestoßene Oszillation des Alpha-Effekts könnte die Umpolung des Magnetfeldes der Sonne bewirken und letztlich den 22-Jahres-Zyklus des Sonnendynamos bestimmen“, so der Physiker.

Die Wissenschaftler rund um Frank Stefani beschäftigen sich seit vielen Jahren intensiv mit Magnetfeldern im Kosmos und auf der Erde. So ist es ihnen als erster Gruppe weltweit gelungen, sowohl die Tayler- als auch die Magneto-Rotations-Instabilität im Laborexperiment nachzuweisen. Im Jahr 1999 waren die Spezialisten für Magnetohydrodynamik zudem am erstmaligen Nachweis des homogenen Dynamoeffekts in Riga beteiligt.

Tayler-Instabilität begrenzt neuartige Flüssigmetall-Batterien

„Interessanterweise sind wir auf die Tayler-Instabilität im Rahmen unserer Forschung zu neuartigen Flüssigmetall-Batterien gestoßen, die zurzeit als mögliche preiswerte Speicher für die stark fluktuierende Sonnenergie untersucht werden“, erklärt Frank Stefani. Das Grundprinzip einer Flüssigmetall-Batterie ist äußerst einfach. Sie besteht aus zwei unterschiedlich schweren, flüssigen Metallen – den Elektroden –, die nur durch eine dünne Salzschicht getrennt sind. Die Vorteile: ein extrem schneller Ladungsvorgang, eine zumindest theoretisch unendliche Anzahl von Ladungszyklen sowie geringe Kosten, wenn es denn gelingt, eine Batterie in Quadratmetergröße herzustellen. „Für diese Batterien stellt die Tayler-Instabilität eine ernstzunehmende Gefahr dar, weil sie unweigerlich dann auftritt, wenn die Zellen größer und größer werden. Ohne gewisse technologische Tricks, die wir bereits patentiert haben, würde die Tayler-Instabilität die stabile Schichtung der Batterie zerstören“, fügt Stefani hinzu.

Publikation: F. Stefani, A. Giesecke, N. Weber, T. Weier: „Synchronized Helicity Oscillations: A Link Between Planetary Tides and the Solar Cycle?”, in Solar Physics, Online-Veröffentlichung am 01. September 2016 (DOI:10.1007/s11207-016-0968-0)

 

 

Astronomischer Ursprung des solaren Hallstatt-Zyklus

Die University of Wisconsin-Madison hat am 22. Februar 2017 in einer Pressemitteilung den Klimaeinfluss von Gezeiteneffekten des Mars auf die Erde beschrieben. Forscher der Universität untersuchten dabei Gesteine der Kreidezeit, in denen sie bei Resonanz der beiden Planetenbahnen charakteristische Klimaeffekte nachweisen konnten.

From rocks in Colorado, evidence of a ‘chaotic solar system’

Plumbing a 90 million-year-old layer cake of sedimentary rock in Colorado, a team of scientists from the University of Wisconsin–Madison and Northwestern University has found evidence confirming a critical theory of how the planets in our solar system behave in their orbits around the sun. The finding, published Feb. 23, 2017 in the journal Nature, is important because it provides the first hard proof for what scientists call the “chaotic solar system,” a theory proposed in 1989 to account for small variations in the present conditions of the solar system. The variations, playing out over many millions of years, produce big changes in our planet’s climate — changes that can be reflected in the rocks that record Earth’s history. The discovery promises not only a better understanding of the mechanics of the solar system, but also a more precise measuring stick for geologic time. Moreover, it offers a better understanding of the link between orbital variations and climate change over geologic time scales.

Using evidence from alternating layers of limestone and shale laid down over millions of years in a shallow North American seaway at the time dinosaurs held sway on Earth, the team led by UW–Madison Professor of Geoscience Stephen Meyers and Northwestern University Professor of Earth and Planetary Sciences Brad Sageman discovered the 87 million-year-old signature of a “resonance transition” between Mars and Earth. A resonance transition is the consequence of the “butterfly effect” in chaos theory. It plays on the idea that small changes in the initial conditions of a nonlinear system can have large effects over time. In the context of the solar system, the phenomenon occurs when two orbiting bodies periodically tug at one another, as occurs when a planet in its track around the sun passes in relative proximity to another planet in its own orbit. These small but regular ticks in a planet’s orbit can exert big changes on the location and orientation of a planet on its axis relative to the sun and, accordingly, change the amount of solar radiation a planet receives over a given area. Where and how much solar radiation a planet gets is a key driver of climate.“The impact of astronomical cycles on climate can be quite large,” explains Meyers, noting as an example the pacing of the Earth’s ice ages, which have been reliably matched to periodic changes in the shape of Earth’s orbit, and the tilt of our planet on its axis. “Astronomical theory permits a very detailed evaluation of past climate events that may provide an analog for future climate.”

To find the signature of a resonance transition, Meyers, Sageman and UW–Madison graduate student Chao Ma, whose dissertation work this comprises, looked to the geologic record in what is known as the Niobrara Formation in Colorado. The formation was laid down layer by layer over tens of millions of years as sediment was deposited on the bottom of a vast seaway known as the Cretaceous Western Interior Seaway. The shallow ocean stretched from what is now the Arctic Ocean to the Gulf of Mexico, separating the eastern and western portions of North America. “The Niobrara Formation exhibits pronounced rhythmic rock layering due to changes in the relative abundance of clay and calcium carbonate,” notes Meyers, an authority on astrochronology, which utilizes astronomical cycles to measure geologic time. “The source of the clay (laid down as shale) is from weathering of the land surface and the influx of clay to the seaway via rivers. The source of the calcium carbonate (limestone) is the shells of organisms, mostly microscopic, that lived in the water column.”

Meyers explains that while the link between climate change and sedimentation can be complex, the basic idea is simple: “Climate change influences the relative delivery of clay versus calcium carbonate, recording the astronomical signal in the process. For example, imagine a very warm and wet climate state that pumps clay into the seaway via rivers, producing a clay-rich rock or shale, alternating with a drier and cooler climate state which pumps less clay into the seaway and produces a calcium carbonate-rich rock or limestone.” The new study was supported by grants from the National Science Foundation. It builds on a meticulous stratigraphic record and important astrochronologic studies of the Niobrara Formation, the latter conducted in the dissertation work of Robert Locklair, a former student of Sageman’s at Northwestern.

Dating of the Mars-Earth resonance transition found by Ma, Meyers and Sageman was confirmed by radioisotopic dating, a method for dating the absolute ages of rocks using known rates of radioactive decay of elements in the rocks. In recent years, major advances in the accuracy and precision of radioisotopic dating, devised by UW–Madison geoscience Professor Bradley Singer and others, have been introduced and contribute to the dating of the resonance transition. The motions of the planets around the sun has been a subject of deep scientific interest since the advent of the heliocentric theory — the idea that the Earth and planets revolve around the sun — in the 16th century. From the 18th century, the dominant view of the solar system was that the planets orbited the sun like clockwork, having quasiperiodic and highly predictable orbits. In 1988, however, numerical calculations of the outer planets showed Pluto’s orbit to be “chaotic” and the idea of a chaotic solar system was proposed in 1989 by astronomer Jacques Laskar, now at the Paris Observatory. Following Laskar’s proposal of a chaotic solar system, scientists have been looking in earnest for definitive evidence that would support the idea, says Meyers. “Other studies have suggested the presence of chaos based on geologic data,” says Meyers. “But this is the first unambiguous evidence, made possible by the availability of high-quality, radioisotopic dates and the strong astronomical signal preserved in the rocks.”

Bereits im November 2016 erschien in Earth-Science Reviews eine Arbeit einer Gruppe um Nicola Scafetta, in der der Ursprung des solaren Hallstatt-Zyklus (2300 Jahre) in Resonanzen der Bahnparameter von Jupiter, Saturn, Uranus und Neptun interpretiert wird. Je nach Konfiguration der Planeten und deren Gezeitenwirkung wird die Aktivität des Sonnenkraftwerks befördert oder gedämpft. Hier der Abstract:

On the astronomical origin of the Hallstatt oscillation found in radiocarbon and climate records throughout the Holocene
An oscillation with a period of about 2100–2500 years, the Hallstatt cycle, is found in cosmogenic radioisotopes (14C and 10Be) and in paleoclimate records throughout the Holocene. This oscillation is typically associated with solar variations, but its primary physical origin remains uncertain. Herein we show strong evidences for an astronomical origin of this cycle. Namely, this oscillation is coherent to a repeating pattern in the periodic revolution of the planets around the Sun: the major stable resonance involving the four Jovian planets – Jupiter, Saturn, Uranus and Neptune – which has a period of about p = 2318 years. Inspired by the Milanković’s theory of an astronomical origin of the glacial cycles, we test whether the Hallstatt cycle could derive from the rhythmic variation of the circularity of the solar system assuming that this dynamics could eventually modulate the solar wind and, consequently, the incoming cosmic ray flux and/or the interplanetary/cosmic dust concentration around the Earth-Moon system. The orbit of the planetary mass center (PMC) relative to the Sun was used as a proxy. We analyzed how the instantaneous eccentricity vector of this virtual orbit varies from 13,000 BCE to 17,000 CE. We found that it undergoes kind of pulsations as it clearly presents rhythmic contraction and expansion patterns with a 2318 year period together with a number of already known faster oscillations associated to the planetary orbital stable resonances, which are theoretically calculated. These periods include a quasi 20-year oscillation, a quasi 60-year oscillation, the 82-97 year Gleissberg oscillation and the 159-185 year Jose oscillation. There exists a quasi π/2 phase shift between the 2100–2500 year oscillation found in the 14C record and that of the calculated eccentricity function. Namely, at the Hallstatt-cycle time scale, a larger production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more elliptical shapes (e ≈ 0.598) to more circular ones (e ≈ 0.590), that is while the orbital system is slowly imploding or bursting inward; a smaller production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more circular shapes (e ≈ 0.590) to a more elliptical ones (e ≈ 0.598), that is while the orbital system is slowly exploding or bursting outward. Since at this timescale the PMC eccentricity variation is relatively small (e = 0.594 ± 0.004), the physical origin of the astronomical 2318 year cycle is better identified and distinguished from faster orbital oscillations by the times it takes the PMC to make pericycles and apocycles around the Sun and the times it takes to move from minimum to maximum distance from the Sun within those arcs. These particular proxies reveal a macroscopic 2318 year period oscillation, together with other three stable outer planets orbital resonances with periods of 159, 171 and 185 years. This 2318 year oscillation is found to be spectrally coherent with the Δ14C Holocene record with a statistical confidence above 95%, as determined by spectral analysis and cross wavelet and wavelet coherence analysis. At the Hallstatt time scale, maxima of the radionucleotide production occurred when, within each pericycle-apocycle orbital arc, the time required by the PMC to move from the minimum to the maximum distance from the Sun varies from about 8 to 16 years while the time required by the same to move from the maximum to the minimum distance from the Sun varies from about 7 to 14 years, and vice versa. Thus, we found that a fast expansion of the Sun-PMC orbit followed by a slow contraction appears to prevent cosmic rays to enter within the system inner region while a slow expansion followed by a fast contraction favors it. Similarly, the same dynamics could modulate the amount of interplanetary/cosmic dust falling on Earth. Indeed, many other stable orbital resonance frequencies (e.g. at periods of 20 years, 45 years, 60 years, 85 years, 159–171–185 years) are found in radionucleotide, solar, aurora and climate records, as determined in the scientific literature. Thus, the result supports a planetary theory of solar and/or climate variation that has recently received a renewed attention. In our particular case, the rhythmic contraction and expansion of the solar system driven by a major resonance involving the movements of the four Jovian planets appear to work as a gravitational/electromagnetic pump that increases and decreases the cosmic ray and dust densities inside the inner region of the solar system, which then modulate both the radionucleotide production and climate change by means of a cloud/albedo modulation.

—————

Auch Dimitris Poulos publizierte 2016 im Global Journal of Physics zum Thema:

Documentation of the solar activity variations and it’s influence on climate
The four planets that influence the most the solar surface through tidal forcing seem to affect the Earth climate. A simple two cosine model with periods 251 years, of the seasonality of the Earth – Venus syzygies, and 265.4 years, of the combined syzygies of Jupiter and Mercury with Earth when Earth is in synod with Venus, fits well the Northern Hemisphere temperatures of the last 1000 years as reconstructed by Jones et al (1998). The physical mechanism proposed is that planetary gravitational forces drive solar activity that in turn drives temperature variations in earth. The sun is in a boundary balance state at one hand collapsing due to gravity and at the other hand expanding due to fusion, and as such it should be heavily influenced by minimal external forcings such as planetary gravity. Sound waves in the solar mass, created from the planetary movement, are responsible for the formation of solar corona and sun spots. The Earth-Venus 251 year resonance is resonant to a near surface solar layer’s thermal natural frequency that “explodes” to form solar wind. The calculated solar wind properties match the observed.

 

 

 

Nature Editorial kritisiert Unausgewogenheit von sensationsheischenden Studien

Am 7. März 2017 erschien ein Nature-Editorial, das positiv überrascht. Nature geht darin auf ein Ranking der “besten und schlechtesten” Wissenschaftsseiten in der englischsprachigen Presselandschaft ein, die vom American Council on Science and Health angefertigt wurde. Die zwei Achsen des Rankings bestehen aus “evidence-driven” (faktenbasiert) und “compelling” (spannend lesbar). Nature und Science wurden in der absoluten Spitzenecke des Diagramms platziert. Das mag korrekt sein. Allerdings ist man in beiden Häusern stets bemüht, unliebsame und unbequeme Fakten aus den Heften fernzuhalten. Manuskripte von Klimaskeptikern haben bei diesen Journals keine Chance, egal wie hochwertig sie auch sein mögen. Die Türsteher weisen jegliche Einreichungsversuche bereits an der Tür ab. Am unteren Qualitätsende des Rankings finden wir die Daily Mail, die sich immer wieder traut, auch klimaskeptische Aspekte zu behandeln. Das gibt natürlich Punktabzüge.

Umso erfreulicher, dass die Nature-Herausgeber das Ranking äußerst skeptisch bewerten. Ein bestandenes Peer-Review ist noch lange keine Garantie, dass ein Ergebnis auch korrekt ist. Etliche Studien sind medial sensationsheischend und wenig ausgewogen. Nature erklärt, dass den Wissenschaftsblogs hier eine wichtige Rolle zukommt, indem sie Publikationen kritisch besprechen und mögliche Fehlerpunkte im Rahmen eines Post-Publication-Reviews benennen. Damit ist natürlich auch das Kaltesonne-Blog gemeint, in dem wir genau diese Funktion ausüben. Hier ein Auszug aus dem lesenswerten Editorial:

The judges’ criterion of evidence-based news is arguably problematic, as well. Many journalists could reasonably point to the reproducibility crisis in some scientific fields and ask — as funders and critics are increasingly asking — just how reliable some of that evidence truly is. Mainstream science reporters have typically taken peer review as an official stamp of approval from the research community that a published finding is sufficiently robust to share with their readers. Yet this kind of evidence-based reporting is only as reliable as the evidence it reports on. And many scientists would complain (even if only among themselves) that some published studies, especially those that draw press attention, are themselves vulnerable to bias and sensationalism.

This is one reason why the rise of the scientist (and non-scientist) as blogger, along with other forms of post-publication review, has been so valuable. Many scientists know about the problems with some fields of research. Many journalists do, too — articles on questionable practices from statistical fishing to under-powered studies are an increasing presence in most of the publications in the infographic. The relationship between science and media reporting is far from simple, and both sides should remember this.

 

Fische durch Klimawandel immer kleiner? Universität Oslo deckt schwere Berechnugsfehler von IPCC-Autor auf

Im Oktober 2012 berichteten die Medien über ein besorgniserregendes Resultat aus der Klimawandelforschung. Die Welt titelte:

Klimawandel macht Fische im Ozean kleiner

Steigt die Temperatur in der Atmosphäre, werden auch die Meere wärmer. Das macht Fischen zu schaffen: Sie stellen das Wachstum ein. Laut Prognose könnten die Größe um ein Viertel abnehmen.

Die weltweiten Fischbestände sind einer neuen Studie zufolge nicht nur durch massive Überfischung, sondern auch durch den Klimawandel bedroht. Die mit der Erderwärmung steigenden Wassertemperaturen zögen Wachstumsprobleme bei den Fischen nach sich, ergab die in der Zeitschrift „Nature Climate Change“ veröffentlichte Untersuchung. Die Wissenschaftler um Daniel Pauly von der kanadischen University of British Columbia simulierten die Auswirkung des Klimawandels auf die Meere und ihre Bewohner in Computermodellen.

Schockierende Nachrichten, die auch den letzten Zweifler an der Gefährlichkeit des CO2 überzeugen sollten. Der sorglose Umgang mit dem Treibhausgas führt uns direkt nach Lilliputhausen. Da ist der Schritt zum schrumpfenden Menschen als Folge der Klimaerwärmung nicht weit. Schockierend. Dazu muss man allerdings wissen, dass Daniel Pauly auch als Autor des 5. Klimazustandsberichts (AR5) des IPCC tätig war. Kann ausgeschlossen werden, dass Pauly seine Computermodelle etwas nachgeschärft hatte, um möglichst dramatische Ergebnisse zu erzielen, die er dann direkt in den IPCC-Bericht einarbeiten konnte? Eine neutrale Überprüfung wäre hier auf jeden Fall angezeigt.

Genau dies hat zum Glück eine Forschergruppe der Universität Oslo getan. Sjannie Lefevre und Göran Nilsson nahmen Paulys Computermodellierungen unter die Lupe und entdeckten gleich mehrere schwere fehlerhafte Annahmen im Gleichungsgewirr. Sowohl bei geometrischen Zusammenhängen zur Oberfläche von Fischen als auch bei der Sauerstoffaufnahme erlaubten sich Pauly und Kollegen schwere Schnitzer. Das Fazit der Norweger: Die Modelle sind falsch, die medial weit verbreiteten Schlussfolgerungen unbelegt. Den beiden Norwegern gebührt Dank für diese wichtige Aufklärungsarbeit. Es gibt Hoffnung, dass Fehler in der Klimawandeldiskussion über kurz oder lang keinen Bestand haben können. Hier die Pressemitteilung der Universiät Oslo vom 17. Februar 2017:

Some widely publicised papers suggesting that fishes and fish catches will be smaller in the future are based on false assumptions

Some models show that fish will have a smaller size in the future due to climate changes. Three researchers are now pointing out that these models are built on false assumptions.

Two physiologists, Sjannie Lefevre and Göran E. Nilsson, from the Department of Biosciences, the University of Oslo, have together with a colleague, David J. McKenzie at the University of Montpellier, published a paper in Global Change Biology this week showing that some highly cited and publicised modelling studies are based on erroneous physiological principles and facts. These models are suggesting that fishes will become smaller in the warmer climate expected in the future. The authors behind these modelling studies may be prominent fisheries biologists and modellers, but unfortunately some fundamental assumptions made in the models are simply incorrect, says Sjannie Lefevre. For once, they got the geometrical principles guiding the surface area of fish gills completely wrong, and they also make the unfounded assumption that the capacity of fish to take up oxygen from the water limits their ability to grow. It is troublesome that these inaccurate assumptions have been allowed to go unnoticed by fish physiologists, but they are partly hidden in the formulas used and in some obscure statements made in these papers. Lefevre, McKenzie and Nilsson say that they do not deny the possibility that fishes may become smaller in the warmer future, although there is currently not much firm evidence for this, but any such predictions must be based on verified mechanisms and experimental evidence.

Publikation: Lefevre, S., McKenzie, D. J. and Nilsson, G. E. (2017), Models projecting the fate of fish populations under climate change need to be based on valid physiological mechanisms. Glob Change Biol. Accepted Author Manuscript. doi:10.1111/gcb.13652, http://onlinelibrary.wiley.com/doi/10.1111/gcb.13652/full

Bisher griff keine einzige deutschsprachige Zeitung die norwegische Kritik auf. Während die Medien über das spektakuläre Fischschrumpfen damals eifrig berichteten, blieben sie nun stumm. Schweigen im Walde.

 

Judith Curry: Einführung in die Klimamodelle für Nichtfachleute

Mit großem Enthusiasmus und grenzenlosem Vertrauen stürzten sich die Klimawissenschaften vor 20 Jahren auf die Klimamodelle, die die komplexe Wirklichkeit bequem im Computer abbilden sollten. Schnell eroberte man die Öffentlichkeit und Politik. Die Ergebnisse der Rechenkästen wurden schnell als neue Wahrheit akzeptiert. Wie könnten solch sündhaftteure Rechner danebenliegen, undenkbar. Die Erwärmung der letzten 150 Jahre konnte ziemlich gut simuliert werden: CO2 steigt, daher steigt auch die Temperatur, ist doch klar. Kopfzerbrechen bereitete die kalte Phase 1940-1975. Wieso wurde es damals kühler, wenn das CO2 doch stieg? Die Modellierer griffen zum Aerosoltrick: Wie der Sandmann, ließen sie einfach kühlenden Staub in die Modelle rieseln, erst versuchte man es mit Schornsteinstaub, dann kühlte man mit Vulkanen. Die Staubkurven bog man sich so hin, dass sie zeitlich genau zur Abkühlung passten. Ein wenig unwohl war den Klimamodellierern dabei schon, denn hoffentlich kommt nicht jemand auf die verrückte Idee und möchte die harte Datengrundlage der Aerosolkurven überprüfen. Natürlich wollte das niemand, denn Zweifel waren nicht gestattet. Mit Ausnahme einiger Klimaskeptiker, lästige Querulanten. Die verfrachtete man schnell in die gekaufte Lobbyecke, schon hatte man sie lächerlich gemacht. Gefahr gebannt.

Wie lange kann man so ein Spiel eigentlich spielen? Es muss doch einige Kollegen geben, die dabei wissenschaftsethische Bedenken bekommen. Offener Protest wäre für die Karriere zu gefährlich. Also dokumentiert man die Fehlleistungen der Modelle lieber im Verborgenen. Tief, ganz tief im 5. IPCC-Bericht steht es dann geschrieben. Eine Einlassung, die explosiv ist, die aber kaum einer liest. Denn sie ist in schwer lesbaren technischen Text eingebettet, mit Fachbegriffen gespickt, dass nur Eingeweihte den Sinn entziffern können. Im Bericht steht also, dass die Klimamodelle die empirisch gut belegte Mittelalterliche Wärmeanomalie nicht reproduzieren können. Das Modell ist quasi durch die Fahrprüfung gefallen, fährt aber heute trotzdem mit 200 Sachen auf der Autobahn, immer auf der Überholspur mit Lichthupe. Ein Modell, das die Rückwärtsmodellierung nicht schafft, kann für die Zukunftsmodellierung nicht eingesetzt werden. Eine alte, solide Grundregel des Modellierungswesens. Wie lange dauert es, bis der Raser von der Piste genommen und der Führerschein ernsthaft kontrolliert wird?

—-

Judith Curry hat einen Leitfaden zum kritischen Umgang mit Klimamodelle geschrieben. Das pdf des Heftes kann bei der GWPF heruntergeladen werden. Hier die Kurzfassung:

Climate Models for the layman

There is considerable debate over the fidelity and utility of global climate models (GCMs). This debate occurs within the community of climate scientists, who disagree about the amount of weight to give to climate models relative to observational analyses. GCM outputs are also used by economists, regulatory agencies and policy makers, so GCMs have received considerable scrutiny from a broader community of scientists, engineers, software experts, and philosophers of science. This report attempts to describe the debate surrounding GCMs to an educated but nontechnical audience.

Key summary points:

  • GCMs have not been subject to the rigorous verification and validation that is the norm for engineering and regulatory science.
  • There are valid concerns about a fundamental lack of predictability in the complex nonlinear climate system.
  • There are numerous arguments supporting the conclusion that climate models are not fit for the purpose of identifying with high confidence the proportion of the 20th century warming that was human-caused as opposed to natural.
  • There is growing evidence that climate models predict too much warming from increased atmospheric carbon dioxide.
  • The climate model simulation results for the 21st century reported by the Intergovernmental Panel on Climate Change (IPCC) do not include key elements of climate variability, and hence are not useful as projections for how the 21st
  • century climate will actually evolve.

Climate models are useful tools for conducting scientific research to understand the climate system. However, the above points support the conclusion that current GCMs are not fit for the purpose of attributing the causes of 20th century warming or for predicting global or regional climate change on timescales of decades to centuries, with any high level of confidence. By extension, GCMs are not fit for the purpose of justifying political policies to fundamentally alter world social, economic and energy systems. It is this application of climate model results that fuels the vociferousness of the debate surrounding climate models.

 

Wie funktionierte das Klima im Eozän?

Das frühe Eozän vor 50 Millionen Jahren wird immer gerne als Beweis dafür angeführt, dass das CO2 ein äußerst stark erwärmendes Klimagas wäre. Wenn man sich dann etwas tiefer in die Literatur einliest, wird schnell klar, dass hier noch sehr viele Fragen offen sind. Unter anderem können viele Modelle die Eozän-Hitze nur unter Annahme extrem hoher CO2-Konzentrationen modellieren, die jedoch fernab der Wirklichkeit liegen, wenn man sich die geologischen CO2-Rekonstruktionen betrachtet. Henrik Carlson und Rodrigo Caballero von der Universität Stockholm haben nun in einem Artikel eine Alternative ausgelotet: Wie wäre es, wenn ein Großteil der Erwärmung nicht auf das Konto vom CO2, sondern durch Ausdünnen der Wolken verursacht worden wäre? Eine spannende Geschichte, die starken Einfluss auf die wichtige Frage der CO2-Klimasensitivität hat. Hier der Abstract aus Climate of the Past Discussions, erschienen Mitte Februar 2017:

Atmospheric circulation and hydroclimate impacts of alternative warming scenarios for the Eocene
Recent work in modelling the warm climates of the Early Eocene shows that it is possible to obtain a reasonable global match between model surface temperature and proxy reconstructions, but only by using extremely high atmospheric CO2 concentrations or more modest CO2 levels complemented by a reduction in global cloud albedo. Understanding the mix of radiative forcing that gave rise to Eocene warmth has important implications for constraining Earth’s climate sensitivity, but progress in this direction is hampered by the lack of direct proxy constraints on cloud properties. Here, we explore the potential for distinguishing among different radiative forcing scenarios via their impact on regional climate changes. We do this by comparing climate model simulations of two end-member scenarios: one in which the climate is warmed entirely by CO2, and another in which it is warmed entirely by reduced cloud albedo (which we refer to as the low CO2-thin clouds or LCTC scenario) . The two simulations have almost identical global-mean surface temperature and equator-to-pole temperature difference, but the LCTC scenario has ~ 11 % greater global-mean precipitation. The LCTC simulation also has cooler midlatitude continents and warmer oceans than the high-CO2 scenario, and a tropical climate which is significantly more El Niño-like. We discuss the potential implications of these regional changes for terrestrial hydroclimate and vegetation.

——————-

Sie haben schon einmal von Watergate gehört? Na klar. Und Sie kennen als Klimainteressierter natürlich auch die Climategate-Episode. Nun gibt es nicht nur bei den Klimawissenschaften Aktivisten und Interessenskonflikte, sondern auch bei der Bienenzucht. Genau, Sie haben richtig gehört, Bienenzucht. Der dazugehörige Skandal heißt entsprechend Beegate. Interesse geweckt? Im Risk Monger-Blog können Sie den Fall nachlesen, mit vielen Parallelen und sogar Berührungspunkten zur Klimadiskussion:

BeeGate

Almost ten years ago, when there were indications of stresses on honeybee populations (known as colony collapse disorder – CCD), different activists were jockeying for the right to claim this crisis for their campaigns. Climate activists wanted to show bees were suffering because of warmer weather; biodiversity campaigners saw land-use issues as the source for the crisis; anti-GMO stalwarts wanted us to know there was something unknown in the pollen; anti-EMF  fear-mongers wanted to highlight the confusion bees suffered due to our love of mobile technology. Nobody mentioned the main causes (cold winters and Varroa mite) … seriously, who would donate to that???

In an early blog, the Risk-Monger had predicted that the anti-pesticides lobby would win this issue as their own … and how right he was! It doesn’t matter that there was no science behind the bees and pesticides campaigns; it doesn’t matter that the campaigners lied and fear-mongered their way to the top; it doesn’t matter that farmers, the environment and bees suffered from the consequences of their self-serving dogmatic bias. The organic food lobby, that funded these cosmopolitan zealots, focused the campaign on the most advanced, least detrimental line of crop protection products: neonicotinoids (neonics)

Watching this crisis unfold, the Risk-Monger saw an enormous amount of unethical, unscientific and unacceptable behaviour from the save-the-bees groups. This is the story of BeeGate – how activist scientists and seasoned campaigners used Age of Stupid tactics to trick policymakers, seduce the media and terrify the public – litigious liars and lamentable fear-mongers have caused incomprehensible damage to the public trust in dialogue, science and policy. Winning might be everything to these activists, but destroying food security and trust in policy and science hardly merits such hypocrisy!

In 2014, I leaked a confidential activist strategy document that showed how a group of anti-pesticide scientists aligned with the IUCN conspired to ban neonics – putting policy first and looking for evidence later. That was only the first part of the scandal. I then showed in Part 2 how the scientists were conflicted and funded by interest groups that would benefit from an increase in organic food sales. After that I revealed how activists worked their way onto the EFSA Bee Risk Assessment Working Group to game the RA process to ensure that the available field trial data would not comply, leading to EFSA’s limited advice that would result in a precautionary ban on neonicotinoids.

Weiterlesen im Risk Monger-Blog

——————-

Der Newsletter ‘Klarsicht’ ist im Februar 2017 mit seiner zweiten Ausgabe erschienen, in der es vor allem um das vorindustrielle Klima der Vorzeit geht. Lesenswert! Das kostenlose pdf des Heftes finden Sie hier.

 

Bundesrechnungshofkritik an Energiewende, gefährliche Dunkelflaute und Klimakiller Elektroauto

Der Bundesrechnungshof sieht große Probleme bei der Umsetzung der Energiewende, wie der Deutschlandfunk am 12. Januar 2017 meldete:

Organisationsmängel: Rechnungshofkritik an Energiewende
Mitnahmeeffekte und ineffiziente Förderprogramme – das sind nur einige Probleme, die der Bundesrechnungshof bei der Umsetzung der Energiewende sieht. Damit die finanziellen Auswirkungen nicht höher ausfallen als geplant fordert der Bundesrechnungshof einen jährlichen Monitoringbericht zur Erfolgskontrolle.

Bereits am 21. Dezember [2016] hat der Bundesrechnungshof seinen Bericht über die Maßnahmen zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft an den Haushaltsausschuss der deutschen Bundestags übersandt. Da der Bericht im Haushaltsausschuss noch nicht beraten wurde, darf er vom Rechnungshof auch noch nicht veröffentlicht werden. Dabei hat der unserem Hauptstadtstudio vorliegende Bericht tatsächlich einiges an Brisanz und fordert das Wirtschaftsministerium zu deutlichen Veränderungen in der Steuerung und Erfolgskontrolle der Energiewende auf, damit die Kosten dafür nicht aus dem Ruder laufen.

[...]

Erfolgskontrollen, so mahnt der Rechnungshof, seien bei der Vielfalt der Programme zwingend notwendig, sonst würden ineffiziente Förderprogramme aufgesetzt, verlängert oder gar aufgestockt. Der Bundesrechnungshof sieht deshalb das Risiko, dass die Energiewende teurer werden könnte als bislang veranschlagt. Und nicht zuletzt würden die Fragen nach der Versorgungssicherheit und der Bezahlbarkeit erkennbar weniger berücksichtigt, als die Fragen der Umweltverträglichkeit der Programme.

Weiterlesen beim Deutschlandfunk

————

Daniel Wetzel berichtete am 7. Februar 2017 in der Welt über eine bedenkliche Schwächephase der Erneuerbaren Energien, die dem einen oder anderen Energieplaner sicher kalte Schauer über den Rücken gejagt hat:

Kaum Ökostrom: Die „Dunkelflaute“ bringt Deutschlands Stromversorgung ans Limit
In wenigen Monaten ist es wieder soweit: Am Pfingstsonntag werden erneuerbare Energien aus Wind- und Solarkraft wohl über Stunden hinweg fast den gesamten deutschen Strombedarf decken können. Energiewendeprotagonisten und Grünen-Politiker werden dann wie stets in dieser Jahreszeit die Erfolge der Ökostromrevolutionpreisen – und die schnellstmögliche Abschaltung aller Kohlekraftwerke fordern. In den langen, dunklen Wintermonaten allerdings schweigen die Lobbyisten der erneuerbaren Energien lieber. Aus gutem Grund, wie ein Blick auf die Erzeugungsdaten der zurückliegenden Wochen zeigt. Im Januar fielen die deutschen Ökostromanlagen wochenlang als Energielieferanten fast völlig aus. In der ersten Januarwoche und dann wieder von der Monatsmitte an stellten rund 26.000 Windkraftanlagen und mehr als 1,2 Millionen Solaranlagen ihre Arbeit für lange Zeit ein. Verantwortlich war eine sogenannte Dunkelflaute: Ein für diese Jahreszeit typisches Hochdruckgebiet sorgte für zehntägige Windstille und Nebel – während zugleich der Strombedarf in Deutschland stark anstieg, weil es ziemlich kalt war.

Weiterlesen auf welt.de

————

Elektroautos als Sauberfahrzeug für Klimaschützer? Eine Milchmädchenrechnung, denn der Energieverbrauch der Elektrolimousinen ist deutlich höher als die Benzin- und Dieselkollegen. Und da der Strom bekanntlich zwar aus der Steckdose kommt, jedoch in vielen Fällen aus Kohlekraftwerken, stellt sich der exakte Gegeneffekt ein, wie Dieter Seifried am 20. Februar 2017 in der Frankfurter Rundschau vorrechnete:

Klimawandel: Klimakiller Elektroauto
Fahren mit Strom gilt als gut für die Umwelt. Aber wer das glaubt, sitzt einer Lüge auf, denn mit jeder Zulassung eines Elektroautos steigt die CO2-Emission. [...] Nur mit dem Umstieg von Verbrennungsmotoren auf Elektrofahrzeuge ist für das Klima in den nächsten zwei Jahrzehnten nichts gewonnen. Im Gegenteil: Mit jeder Neuzulassung eines E-Fahrzeugs steigen die CO2-Emissionen an – selbst wenn der ambitionierte Umweltschützer und Autofahrer sein Fahrzeug an eine Steckdose mit Öko-Strom hängt. Warum ist das so? Schauen wir zunächst auf die Messergebnisse des letzten ADAC-Eco-Tests (12/2016), der für sich in Anspruch nimmt, auf einem realitätsnahen Fahrzyklus zu basieren, und vergleichen die dort ermittelten Verbrauchswerte. Im nächsten Schritt errechnen wir die CO2-Emissionen von Benzin-, Diesel- und E-Fahrzeugen. Die drei Elektrofahrzeuge auf der ADAC-Eco-Liste, die im Ranking vorne stehen, verbrauchen im Durchschnitt 20,5 Kilowattstunden (kWh) pro 100 Kilometer, der beste Benziner 5,1 Liter und die effizientesten Diesel 4,2 Liter pro 100 Kilometer. Rechnet man diese Verbräuche in CO2-Emissionen um, so kommt der Stromer auf 18,5 Kilogramm CO2 pro 100 Kilometer, der Benziner auf 12,1 und der Diesel auf 11,1 Kilogramm pro 100 Kilometer.

Ganzen Artikel in der Frankfurter Rundschau lesen.

Lesen Sie dazu auch den folgenden Powerline-Artikel von Martin Karo, der den Tesla ökologisch ein Stück weit entzaubert:

Martin Karo: How green was my Tesla

Reader Martin Karo is a Philadelphia attorney. Mr. Karo takes a look at the environmental theme that powers the Tesla. Warning: there will be math. He writes:

Teslas grind my gears. Well, at least their owners do. Every time, it’s a variation on an old “fighter pilot” joke: How can you tell when a Tesla owner is in the room? Answer: He tells you. Like the fighter pilot, he (seemingly always a he; must be the tech thing) is on a mission: to make sure you know he owns one, and you don’t. And he’s a better man than you, because he’s saving the planet, and you’re not. A Tesla has the dual advantages, for the condescending set, of being both terribly expensive and highly efficient.

While one can’t argue the expense, or the cachet – de gustibus non est disputandum — is the Tesla really efficient? Electricity has to be generated somehow, and in the US, the vast majority of that generation is via hydrocarbon fuels – coal or natural gas. And most of what isn’t hydrocarbon is nuclear. And basic physics dictate it takes energy to convert energy from one form to another, and it takes energy to move energy, and frictional or resistive losses occur all along the way, and all other things being equal, it takes the same amount of energy to move 4500 pounds, whether you do so by electric motor or gasoline; the only difference is efficiency loss.

Hier weiterlesen.

 

ZDF-Nachrichten: Rentierzüchter in Lappland beklagen, dass die Winter immer länger und härter werden

Am 27. Februar 2017 zog der Deutsche Wetterdienst (DWD) ein Fazit des Februar-Monats:

Deutschlandwetter im Februar 2017

Februar 2017 war deutlich zu warm und nur durchschnittlich sonnig

Der Februar 2017 begann zunächst im Nordosten unter Hochdruckeinfluss noch kalt. Den Süden und Westen streiften aber bereits Tiefausläufer mit milderer Luft. Ab Mitte des Monats befanden sich dann sämtliche Landesteile in einer niederschlagsreichen, kräftigen westlichen Strömung. Diese erreichte am 23. Februar mit Sturmböen vor allem im Westen und frühlingshaften Temperaturen im Süden ihren Höhepunkt. Insgesamt verlief der Februar deutlich zu warm mit nahezu ausgeglichenem Niederschlag und Sonnenschein. Das meldet der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner rund 2 000 Messstationen.

Weiterlesen beim DWD.

Der kürzliche Februar viel zu warm! Man kann sich das plastisch vorstellen: Eine wilde Temperaturspitze schießt aus den sonst üblichen Temperaturen. Wieder einmal der Beweis, dass es seit Jahren nur eine Richtung gibt: Immer heißer und heißer und heißer. Eine Graphik mit dem Temperaturverlauf stellte der DWD zusammen mit der Pressemiteilung nicht zur Verfügung. Warum eigentlich, die Leute würden den Februar-Hitzetrend doch sicher ganz gerne in Chart-Form anschauen wollen? Schade, dass der DWD hier mit Abbildungen knausert. Dankenswerterweise greift Josef Kowatsch dem DWD unter die Arme und erstellte für uns auf Basis der offiziellen DWD-Werte die Temperaturentwicklung der letzten 30 Jahre:

 

Abbildung: Entwicklung der Februar-Temperaturen der letzten 30 Jahre in Deutschland. Daten DWD, Graphik: Kowatsch.

 

Die Verwunderung ist groß: Von wegen “deutlich zu warm”. Der Klimatrend der letzten 30 Jahre zeigt für den Februar klar nach unten. Der diesjährige Ausschlag nach oben ist nichts Ungewöhnliches und hat sich in den letzten 3 Dekaden regelmäßig ereignet. Eine schwache Leistung des DWD, die Bürger verbal so in die Irre zu führen. Kein Hinweis auf den 30-Jahrestrend, keine Graphik, kein Kontext. Eine höchst fragwürdige Politisierung des Wetterberichts…

——————-

Josef Kowatsch wies uns auf eine weitere Kuriosität hin. Am 3. März 2017 wurde in den ZDF-Nachrichten um 16 Uhr dem staunenden Zuschauer vermeldet, dass wegen des Klimawandels die Lappländer (Samen) um ihre Rentierherden fürchten. Die wären am Verhungern, weil der Schnee seit einigen Jahren viel länger liegen bliebe. Offenbar werden die Winter auch in Lappland länger, bleiben die Böden fester gefroren mit mehr Schnee; das Frühjahr beginnt später. Die entsprechende Passage in der Sendung können Sie noch für einige Tage online anschauen (Beginn bei 12:10 min).

——————-

Am 9. Februar 2017 stellte Der Standard kostlenlose Werbefläche für einen aktivistischen Klimaalarmartikel zur Verfügung. Ob der Redaktion bewusst war, dass die angeblich so neutralen Aussagen von einem “Think Tank” stammten? Es ging wieder mal um Eisbären. Sie würden keine Jungen mehr kriegen, weil es kein Meereis gäbe und sie nichts zu essen hätten. Dabei hat die Wissenschaft bereits festgestellt, das Eisbären vielseitige Esser sind und das Eis keine große Rolle spielt. Aktivist Sepp Friedhuber plaudert munter von einem sich immer mehr erwärmendem Golfstrom (obwohl doch gerade wieder aus der Rahsmtof-Ecke tönte, dass der immer schwächer würde). Ob Friedhuber überhaupt weiß, wovon er spricht? Hier die Entwicklung der ozeanischen Wärme im Nordatlantik, man beachte den markanten Abkühlungstrend, der seit 2007 anhält:

Abbildung:  Entwicklung der ozeanischen Wärme im Nordatlantik bis 700m Tiefe während der letzten 60 Jahre. Graphik: Climate4You.

 

Hier die echten Eisbären-News, garantiert propagandafrei:

——————-

Lesenswerte Kolumne von Gunnar Schupelius am 21. Februar 2017 in der BZ:

Die Kirche möchte, dass wir gegen den Klimawandel fasten. Was soll das?

[...] Wie kann man nun beim Fasten CO2 vermeiden? Tipps dazu gibt die Kirche in einer kleinen Broschüre mit dem Titel „So viel du brauchst …“ (http://bit.ly/2lb8tCH). Dort ist vom Fasten im strengen Sinne nicht die Rede. Für jede Woche bis Ostern gibt es aber spezielle Tipps. In der ersten Woche zum Beispiel sollen Christen „einen Umweg zum Bioladen“ gehen und „dort einkaufen“. In der zweiten Woche sollen sie „ein E-Bike ausleihen“, in der dritten „kaputte Kleidung nähen“, außerdem „einen Tag ohne Geldbörse und Einkauf leben“. In der vierten Woche wird empfohlen, den Kuchen mit der Hand zu kneten und „Terrassen mit Heizpilzen zu meiden“. In der fünften sollen sich die Christen fragen, ob ihre Bank ein „Klimakiller“ ist.

Ganze Kolimne in der BZ lesen.

 

 

Oberverwaltungsgericht Magdeburg hat entschieden: Umweltbundesamt darf Journalisten anschwärzen

In den USA werfen Regierungsstellen unliebsamen Journalisten „Fake News“ vor, um sie zu diskriminieren. In Deutschland wäre das unmöglich? Irrtum. Das Umweltbundesamt (UBA) geht mit Rufmordmethoden auf Journalisten los. Doch leider gibt es hierzulande kein Gericht, das die Pressefreiheit davor schützt, wie jetzt bekannt wurde. Das Oberverwaltungsgericht (OVG) Magdeburg hat in der Sache „Miersch gegen Bundesrepublik Deutschland“ (Aktenzeichen 3 L 44/16.Z) eine Berufung gegen das Urteil des Verwaltungsgerichts Halle aus dem Jahr 2015 abgelehnt. Miersch hatte gegen seine Nennung in einer Broschüre des UBA mit dem Titel „Und sie erwärmt sich doch“ geklagt. Darin werden er und einige andere Journalisten und auch Wissenschaftler, darunter auch Sebastian Lüning und Fritz Vahrenholt, als „Klimawandelskeptiker“ bezeichnet, deren Publikationen „gegen den Kenntnisstand der Wissenschaft“ gerichtet sind. An anderen Stellen des Textes werden die Machenschaften von Klimawandelskeptikern als unlauter dargestellt. Auch wird der Vorwurf erhoben, Klimawandelskeptiker seien bezahlte Lobbyisten der Ölindustrie.

Das OVG Magdeburg schloss sich nun dem Urteil des Verwaltungsgerichts Halle voll und ganz an und erklärte, dass das Umweltbundesamt mit der Broschüre einem „postfaktischen Diskurs“ entgegenwirkt. Mit „postfaktischen“ sind somit die Artikel von Miersch (damals Ressortleiter Wissenschaft beim FOCUS) und der anderen vom UBA angeschwärzten Journalisten und Wissenschaftler gemeint. Dieser Beschluss ist letztinstanzlich. Beim Beginn des Verfahrens 2013, war ich, wie fast alle Beobachter, davon überzeugt, dass das Vorgehen des UBA vor Gericht nicht bestehen wird. Jetzt hat die Behörde juristisch gesiegt.

Als die Broschüre 2013 herauskam, löste dies eine Welle des Protestes aus. „Eine staatliche Behörde hat nicht die Aufgabe, Kritiker der Regierungspolitik als Abweichler zu brandmarken,“ erklärte der Deutsche Journalisten-Verband (DJV) beim Erscheinen. Der Vorsitzende forderte den damaligen Bundesumweltminister Peter Altmaier auf, „die Broschüre in der vorliegenden Form nicht weiter zu verbreiten und sich bei den betroffenen Kollegen zu entschuldigen.“ Altmeier entschuldigte sich bei Fritz Vahrenholt in einem telefonischen Gespräch, wollte aber die Broschüre nicht zurückziehen. Siehe unseren Beitrag “Ein Skandal schwappt nach oben: Minister Altmaier äußert sich zur fragwürdigen UBA-Broschüre, will aber nicht verraten, ob er die Publikation selber für gut und richtig hält“. So wird das Traktat bis heute vom Umweltbundesamt verbreitet. Wie andere Beobachter auch, war der DJV jedoch zuversichtlich, dass die Gerichte das UBA in seine Grenzen verweisen werden.

Die meisten großen deutschen Zeitungen und Zeitschriften kritisierten damals das UBA scharf  für diese denunziatorische Broschüre. Dabei machte es erfreulicherweise keinen Unterschied, welche Haltung die Redaktionen in der Klimadebatte vertraten. Martin Schneider, Vorsitzender der Wissenschafts-Pressekonferenz (WPK), erklärte:

„Es ist nicht Aufgabe einer staatlichen Institution festzulegen, welche Meinungen geäußert werden dürfen und welche nicht.“  

Im Bundestag kritisierten mehrere Abgeordnete das Umweltministerium für die beleidigende Broschüre seiner Behörde. Erkenntnisse in Frage zu stellen, sei eine Kernaufgabe der Wissenschaft, sagte der Vize-Fraktionschef der Unionsfraktion, Arnold Vaatz, und bezeichnete die UBA-Broschüre als „Gipfel der Unverschämtheit.“ Klimaforscher Prof. Hans von Storch nannte die UBA-Broschüre: „Unfug.“ Diese und viele andere Proteste konnten das UBA nicht zum Einlenken bewegen. Es vertreibt weiterhin die Broschüre und darf dies ab jetzt auch mit höchstrichterlichem Segen tun.

Ich kenne die meisten von Mierschs Artikeln und seine Bücher, die er gemeinsam mit Dirk Maxeiner verfasste (Maxeiner gab den Rechtsweg auf, als die Kosten zu drückend wurden). Darin ist definitiv kein Abweichen von den messbaren Fakten und vom Kenntnisstand der Wissenschaft zu finden. In seinen Artikeln und Büchern ließ Miersch Wissenschaftler zu Wort kommen, die aus dem Kenntnisstand der Wissenschaft andere Schlüsse ziehen als die Bundesregierung. Dabei hat er sich nie selbst als Wissenschaftler aufgespielt und immer die journalistische Distanz bewahrt. Dafür wurde er von einer Bundesbehörde öffentlich angeprangert und muss durch den jetzt erfolgten Gerichtentscheid die immensen Kosten des Verfahrens tragen.

Übrigens lohnt sich ein Blick auf die Autoren der UBA-Broschüre, die ja so tun, als seien sie die kompetenten Schiedsrichter darüber, was der Kenntnisstand der Wissenschaft sei. Hauptautor ist UBA-Fachbereichsleiter Harry Lehmann. Er gehört dem „Verein der Freunde und Förderer des Potsdam-Instituts“ an. Laut Satzung soll der Verein das PIK „vor allem durch Beschaffung von Mitteln“ unterstützen. Das UBA hat nach FOCUS-Recherchen von 2007 bis 2013 ein Dutzend Forschungsaufträge in Höhe von insgesamt rund zwei Millionen Euro an das PIK vergeben und diese nicht – wie vorgeschrieben – europaweit ausgeschrieben. Die Vergabepraxis des UBA sei „eine massive und auffallend häufige Verletzung des Vergaberechts“, urteilt Vergaberechtsexperte Heiko Höfler. Das UBA verteidigt die umstrittenen Zuwendungen, sie seien unter eine „vergaberechtliche Ausnahmeregelung“ gefallen. Höfler überzeugt dies nicht: „Das ist nach den Vertragsbedingungen des Amtes gar nicht vorgesehen. Es spricht viel dafür, dass es sich um eine Schutzbehauptung handelt.“  Harry Lehmann hat lange Jahre für den Lobbyverband „Eurosolar“ gearbeitet und es dort bis zum europäischen Vizepräsidenten gebracht. Aus dieser Position heraus wechselte er dann 2007 in eine Spitzenstellung als Abteilungsleiter in das Umweltbundesamt.

Auch unter den anderen drei Autoren ist kein Klimawissenschaftler. Mit-Autor Dr. Klaus Müschen ist Leiter der Abteilung Klimaschutz und Energie des UBA. Er studierte Elektrotechnik und Sozialwissenschaft an der Universität Hannover und arbeitete als Hochschulassistent für Elektrotechnik an der Universität Hamburg. Später leitete er das Referat für Klimaschutz, Luftreinhaltung und Lokale Agenda 21 in der Senatsverwaltung für Stadtentwicklung Berlin. Dr. Steffi Richter arbeitet in der von Klaus Müschen geleiteten UBA-Abteilung. Auch über sie kann man im  Internet keine klimawissenschaftlichen Publikationen finden. Dr. Claudia Mäder trat als Autorin des beim UBA kostenlos bestellbaren Kinderbuches „Pia, Alex und das Klimaprojekt – Eine abenteuerliche Entdeckungsreise“ in Erscheinung. Auch hier finden sich keine Hinweise auf eine naturwissenschaftliche Tätigkeit. Das sind die Leute, die die glauben, sich als Meinungspolizei in Sachen Klima aufführen zu dürfen. Leider ist diese Hybris jetzt durch ein Gericht bestätigt worden.

 

Fritz Vahrenholt: Energiewende wichtiger als der Schutz der Natur?

Die Basler Zeitung befragte am 18. Februar 2017 Fritz Vahrenholt zur Energiewende:

——–

«Das ist doch absurd!»

Der frühere Umweltpolitiker und Energiemanager Fritz Vahrenholt über die deutsche Energiepolitik und die Schweiz.

BaZ: Sie haben die deutsche Energiewende als «Desaster» bezeichnet. Wieso?
Fritz Vahrenholt: Zunächst einmal hat die deutsche Regierung nach dem Tsunami in Japan innerhalb eines Wochenendes entschieden, auf die Kernenergie zu verzichten, die bis dahin die Grundlast für die deutsche Industrie erzeugt hat. Die Regierung will seither diese gesicherte Energie durch schwankenden Strom aus Sonne und Wind ersetzen. Dass das nicht vernünftig ist, weiss eigentlich jeder.

Ich nicht. Erklären Sie es mir.
Wir haben 50 bis 100 Tage und manchmal ganze Wochen im Jahr mit Windstille und wenig Sonne. Dann produzieren diese weniger als zehn Prozent des Bedarfes. Und wenn der Wind bläst und die Sonne scheint, ist zu viel Strom im Netz, und da die Speicherkapazitäten fehlen, schalten wir Windkraftwerke ab. Wir haben ein sich zuspitzendes Problem – entweder zu viel oder zu wenig Strom.

Warum spitzt sich das Problem zu?
Weil mit jedem Zubau an solchem «Flatterstrom», durch jedes Windrad und jede Solarzelle, die Schwankungen erhöht werden.

Beginnen wir ganz vorne: Kernenergie hat doch keine Zukunft.
So hat es die Politik entschieden, obwohl es keine ernsthaften Beanstandungen und Befürchtungen hinsichtlich der deutschen Kernkraftwerke gab.

In der Schweiz ist vorgesehen, dass die Kernkraftwerke weiterlaufen, solange es die Sicherheit erlaubt.
Das ist klug. Damit gewinnen Sie Zeit, Zeit, bis sich vielleicht kostengünstige Speichertechnologien ergeben.

Und der strahlende Abfall?
Die Endlagerthematik ist völlig unabhängig davon zu lösen, ob die Kraftwerke 30, 40 oder 50 Jahre laufen. Nach Fukushima haben nur die Schweiz und Deutschland eine Energiewende beschlossen. Sogar in Japan setzt man wieder auf Kernkraft und Kohle. 2022 wird das letzte deutsche Kernkraftwerk abgestellt und es gibt dann keine gesicherte Versorgung mehr im Süden Deutschlands. Wir hängen zunehmend von den Naturkräften ab, wenn wir dann auch noch auf Kohle- und Gaskraftwerke verzichten wollen.

Wieso ist das schlecht?
Ich habe nichts gegen Wind- und Solarenergie, wenn sie denn wirtschaftlich ist und eine gesicherte Stromversorgung gewährleistet. Aber das funktioniert erst, wenn das Speicherproblem gelöst ist. Sie müssen die Naturkräfte zu einer zuverlässigen Versorgung machen können.

Es braucht einfach genügend Solar- und Windkraftwerke.
Nein, selbst wenn wir die Windkapazität verdreifachen, bleibt bei Flaute die Erzeugung nahe null. Für die Sonne gilt Ähnliches, insbesondere nachts. Windkraftanlagen erzeugen nur so viel Strom, als würden sie gerade einmal 90 Tage im Jahr mit voller Leistung laufen. Bei Fotovoltaik sind es 35 Volllasttage. Daraus erkennt man schon, dass es ohne Speicherung nicht gelingen kann, eine sichere Versorgung zu gewährleisten.

Warum ist das so wichtig?
Sie müssen sich immer vor Augen halten, was das bestehende System leistet. Immer wenn irgendwo ein Bedarf an Strom entsteht, muss in der gleichen Sekunde dieser Strom geliefert werden. Wenn an einem Winterabend die Flutlichtanlage des FC Basel angedreht wird, muss der zusätzliche Bedarf innert Sekunden bereitgestellt werden. Mit Sonnen- oder Windenergie können sie die Produktion nicht hochfahren.

Was bedeutet das?
Wenn tatsächlich die Sonne scheint oder der Wind weht, dann haben wir in Deutschland viel zu viel Strom. Wir verschenken den Überschussstrom, häufig zu negativen Strompreisen, ins Ausland. Wegen des Vorrangs der Erneuerbaren müssen zuerst die konventionell mit Gas oder Kohle betriebenen Kraftwerke runtergefahren werden, dann sogar Windkraftwerke, die dann aber trotzdem bezahlt werden, obwohl sie nichts produzieren. Das kostet mittlerweile eine Milliarde Euro pro Jahr, das ist doch absurd! Noch einmal: Neue Energieträger sind nur dann ein belastbarer Versorger, wenn wir das Speicherproblem gelöst haben.

Solche Technologien gibt es.
Ja, es gibt Möglichkeiten, beispielsweise Pumpspeicher, also Stauseen in den Bergen. Da pumpt man Wasser hoch und lässt es wieder ab, wenn der Strom benötigt wird. Bereits um eine viertägige Windflaute auszugleichen, müsste man den Bodensee (500 km², 100 m tief) auf ein hohes Niveau pumpen und wieder ablaufen lassen.

Wieso geht das nicht mit Batterien?
Das wird vielleicht irgendwann ­möglich sein. Dann hat auch die wechselhafte Wind- und Solar­energie eine Chance. Heute ist es viel zu teuer – gut und gerne 20 Eurocent pro ­Kilowattstunde – und die kommen zu den eigentlichen Stromkosten und Gebühren hinzu. Das kann sich nur noch der wohlhabende Privathaushalt leisten. Jede industrielle Nutzung von Strom können sie aus Kostengründen vergessen.

In der Schweiz haben wir viele Pumpspeicherwerke. Die haben sich jahrelang gut rentiert. Jetzt verdienen die nichts mehr.
Die Ursache hierfür ist die völlig aus den Fugen geratene Produktion von Wind- und Solarstrom in Deutschland. Dann wenn es windig ist, schieben wir den Überschuss unseren Nachbarn über die Grenze. Dieser Strom ist durch die Subventionen ja bereits bezahlt, wenn er entsteht, darum kostet er nichts oder hat sogar einen Negativpreis. Die Pumpspeicherwerke brauchen aber rund acht Eurocent, um wirtschaftlich zu überleben. Das ist ein grosses Dilemma für die Schweiz. Damit wird ihre heimische – fast CO?-freie – Stromproduktion plötzlich infrage gestellt.

Die Überschussproduktion gefährdet unsere Wasserkraft.
Wir haben in Deutschland 50 000 Megawatt Windkraft. Wenn alle produzieren, müssen sie zuerst Kohle- und Gaskraftwerke, dann aber auch noch Windkraftwerke selber abstellen, sonst droht ein Kollaps. Wenn das nicht reicht, schütten wir den Strom über die Grenze und zerstören damit die Energieversorgung unserer Nachbarländer. Diese Nachbarn müssen uns umgekehrt mit Strom aushelfen, wenn es keinen Wind gibt. Die Polen lassen sich das nun nicht mehr gefallen und haben an der Grenze Phasenschieber montiert, damit der deutsche Überschussstrom nicht mehr nach Polen kann. Die Tschechen werden das nachmachen.

Könnte das die Schweiz auch tun?
Ich kann mir vorstellen, dass diese Debatte in der Schweiz auch irgendwann beginnt und man sich fragt: «Müssen wir eigentlich die übermütige und nicht durchgerechnete Energiepolitik Deutschlands ausbaden?» Vermutlich gibt es Leute in der Schweiz, die diese Frage mit Nein beantworten würden. Da habe ich Verständnis dafür.

Dann müsste die Schweiz aber Selbstversorger sein, wozu es neue Gaskraftwerke braucht.
Wenn die Kernkraftwerke vom Netz genommen worden sind, müssen ­flexible Gaskraftwerke deren Funktion übernehmen. Die deutsche Energiewende hat aber wegen des Überschussstroms Gaskraftwerke unrentabel gemacht. Ein modernes Gaskraftwerk in Bayern wurde einen Tag nach der Inbetriebnahme abgestellt, weil es sich nicht lohnte.

Reden wir über Geld. Der Strom wird für die Konsumenten immer teurer, aber auf dem internationalen Markt ist er immer billiger. Woher kommt das?
Ganz einfach: Wind- und Solarstrom sind noch immer doppelt bis dreimal so teuer wie konventionell erzeugter Strom. Um das auszugleichen, werden die Mehrkosten durch eine Umlagegebühr bei den Kunden erhoben und an die Produzenten von Wind- und Solarenergie verteilt. Jeder Windmüller und Besitzer eines Solardaches bekommt eine feste Vergütung für seinen Strom, der ihm eine satte Rendite für 20 Jahre sicherstellt. Die Umlagegebühr verteuert den Strom für die Kunden. Der Strom aus Erneuerbaren wird also vorab bezahlt und kommt zum Preis von null ins Netz und verdrängt den konventionellen Strom vom Markt. Das senkt den Strompreis an der Börse. Beide Effekte zusammen führen zu einer Erhöhung für den privaten Kunden.

Früher hat man einfach die Kernkraftwerke subventioniert. Strom ist doch immer teuer gewesen.
In Deutschland waren die Kernkraftwerke nicht subventioniert und ich kann mir das für die Schweiz nicht vorstellen. Die Forschung und Entwicklung der Kernkraft ist zwar vom Staat gefördert worden, aber das ist doch nicht zu beanstanden.

Und die Risiken? Die mussten die Kernkraftwerke nicht vollständig versichern.
Das war eine von Politik und Gesellschaft getragene Entscheidung. Heute würde das anders entschieden. Aber die Frage stellt sich nicht, da neue Kernkraftwerke nicht wirtschaftlich betrieben werden können.

Ihre Alternative ist, die Kernkraftwerke möglichst lange laufen zu lassen und auf die Entwicklung von Speichertechnologien zu setzen.
Wenn wir wettbewerbsfähige Speichertechnologien haben, dann können wir mit schwankender Energie wie Sonne und Wind umgehen.

Es geht Ihnen also nur um die Reihenfolge?
Genau. Wir dürfen doch das Pferd nicht von hinten aufzäumen und zuerst die Wind- und Solarkraftwerke bauen, wenn wir wissen, dass diese nur eine sichere Stromversorgung bringen, wenn wir Speichertechnologien haben, die es noch zu entwickeln gilt. Alles andere erscheint mir nicht sonderlich klug.

Was bedeutet das für den Industrie­standort?
Es gibt schon heute ein Defizit an Stromversorgung in Bayern und Baden-Württemberg. Das kann man lösen, indem man Leitungen aus dem Norden dahin baut. Aber das dauert noch Jahre und wegen Widerstands gegen Freileitungen wird es sehr teuer. Die Schweiz hängt mit Deutschland zusammen. Bei Stromknappheit wirkt sich das auch in der Schweiz aus.

Gibt es keinen Widerstand aus der Industrie?
Aus der energieintensiven Industrie kommt kein Widerstand, weil diese von der Umlagegebühr befreit ist – wie auch in der Schweiz. Stahl, ­Chemie, Kupfer, Aluminium profitieren sogar von den tiefen Gross­handels­preisen. In Wirklichkeit ist das ­System aber insgesamt viel teurer. Die Privathaushalte und die Klein­unternehmen ­zahlen einfach die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen eher unterbleiben. Man investiert nicht in einem Land, wo man nicht genau weiss, wie sich die Energiepreise ­entwickeln. Neben dem Preis spielt auch die Versorgungssicherheit eine wichtige Rolle. Sie nimmt mit jedem neuen Wind­rad ab.

Welche Gefahren gehen von Wind­rädern aus?
Ich habe ja selber ein Windkraft­unternehmen im Jahre 2000 gegründet und gross gemacht und kenne die Technologie sehr gut. Ich wäre nie auf die Idee gekommen, zu glauben, dass man derart schwankende Energie dazu verwenden könnte, ein Bahnnetz zu betreiben. Das müssen wir alle lernen. Windenergie bringt nicht nur Wohltaten. In Deutschland ist durchschnittlich alle 2,7 Kilometer ein Windkraftwerk geplant, obwohl wir schon heute wissen, dass Greif­vögel, Fledermäuse und andere gefährdete Arten deswegen verschwinden werden. Der Rotmilan ist gefährdet. Die 26 wichtigsten Sing­vogelarten sind auf dem Rückzug. Die Auswirkungen auf die Lebensräume von Pflanzen und Tieren sind enorm. Wenn ein Kernkraftwerk so viel Natur zerstört hätte, wie es die Windenergie macht, wäre es schon längst still­gelegt worden.

Warum sagen das die Naturschutz­organisationen nicht?
Der tiefere Kern ist folgender: Die politischen Grünen haben sich die Energiewende zum Programm gemacht, koste es, was es wolle. Sie waren in Wirklichkeit in Deutschland nie eine Naturschutzpartei, sondern eine antikapitalistische Partei, die sich gegen die Kernkraft und Industrie engagiert. Deswegen haben sie auch kein Herzblut, wenn es um Flora und Fauna geht. Es gibt natürlich Naturschutzorganisationen, die auf dieser grünen Parteilinie sind und andere, die tatsächlich Naturschutz machen. Ersteren ist die Energiewende wichtiger als der Schutz der Natur.

Aber es gibt Widerstand gegen Wind­räder.
Ja. Auf dem Land gibt es ein enormes, sehr bürgerliches Protestpotenzial. Das erinnert mich ironischerweise sehr an den Anfang der Anti-Kern­energie-Bewegung. Es ist heute so: Der Traum der städtischen Elite von einer angeblich sauberen Energie­versorgung wird auf dem Rücken der ländlichen Bevölkerung ausgetragen, die ihre Heimat verliert.

Wer gewinnt und wer verliert eigentlich finanziell?
Jene, die Subventionen für ein Solardach erhalten oder sich an Windkraftfonds beteiligen, gehören in der Regel nicht zur Unterschicht. Die Arbeitnehmer, die Sozialhilfeempfänger, die Mieter in Mehrfamilienhäusern, das sind diejenigen, die zur Kasse gebeten werden und die die auf zwanzig Jahre staatlich garantierten Renditen der Wohlhabenden ermöglichen.

Sie sehen zwei Möglichkeiten der weiteren Entwicklung: durchwursteln oder korrigieren.
Man wird irgendwann korrigieren müssen, spätestens nach den ersten Netzzusammenbrüchen. Je länger es dauert, umso grösser werden die Schwierigkeiten. Wenn wir in zehn Jahren eine fantastische Batterie haben, die fünf Eurocent pro Kilowattstunde kostet, dann wird sich die Sache vielleicht einrenken. Das ist aber Politik nach dem Prinzip Hoffnung. Ich würde darauf keine Wette eingehen und schon gar nicht als Politiker eine Nation darauf verpflichten.

 

Zuerst erschienen in der Basler Zeitung, der wir an dieser Stelle für den Abdruck danken.