News und Termine

Die gerne verdrängten Korallenkiller: Sonnenmilch, Mückenspray & Co.

Immer wieder lesen wir von schlimmen Korallenbleichen, wobei der Schuldige schnell ausgemacht ist: Der Klimawandel. Oft unerwähnt bleibt dabei, dass es eine ganze Reihe von anderen Gefahren für Korallen gibt. Der Lieblingstäter CO2 muss also nicht an allem und jedem Schuld sein.

Fallender Meeresspiegel

Sie haben richtig gelesen. Der Meeresspiegel ist keine Einbahnstrasse. Insgesamt auf globalem Maßstab steigt er, aber regional gibt es auch mehrmonatige und -jährige Phasen, in denen der Meeresspiegel sinkt. Das mögen die Korallen natürlich überhaupt nicht, denn dann liegen die obersten Teile trocken und sterben ab. Nachzulesen zum Beispiel in einer Arbeit von Eghbert Elvan Ampou und Kollegen, die am 24. Februar 2017 in Biogeosciences erschien:

Coral mortality induced by the 2015–2016 El-Niño in Indonesia: the effect of rapid sea level fall
The 2015–2016 El-Niño and related ocean warming has generated significant coral bleaching and mortality worldwide. In Indonesia, the first signs of bleaching were reported in April 2016. However, this El Niño has impacted Indonesian coral reefs since 2015 through a different process than temperature-induced bleaching. In September 2015, altimetry data show that sea level was at its lowest in the past 12 years, affecting corals living in the bathymetric range exposed to unusual emersion. In March 2016, Bunaken Island (North Sulawesi) displayed up to 85 % mortality on reef flats dominated by Porites, Heliopora and Goniastrea corals with differential mortality rates by coral genus. Almost all reef flats showed evidence of mortality, representing 30 % of Bunaken reefs. For reef flat communities which were living at a depth close to the pre-El Niño mean low sea level, the fall induced substantial mortality likely by higher daily aerial exposure, at least during low tide periods. Altimetry data were used to map sea level fall throughout Indonesia, suggesting that similar mortality could be widespread for shallow reef flat communities, which accounts for a vast percent of the total extent of coral reefs in Indonesia. The altimetry historical records also suggest that such an event was not unique in the past two decades, therefore rapid sea level fall could be more important in the dynamics and resilience of Indonesian reef flat communities than previously thought. The clear link between mortality and sea level fall also calls for a refinement of the hierarchy of El Niño impacts and their consequences on coral reefs.

Siehe auch Beitrag von Jim Steele hierzu auf WUWT.



Die University of North Florida beschrieb in einer Pressemitteilung vom 20. Januar 2015 einen weiteren Korallenkiller: Pestizide. Die Forscher fanden lediglich eine mittlere Resistenz gegen die untersuchten Mückenpestizide. Oder anders ausgedrückt: Unter gewissen Umständen können diese Pestizide Korallenlarven abtöten.

Pioneer Study Examines Declining Coral Reef Health Due to Pesticides/Sea Surface Temperatures

The declining health of coral reefs is intensifying worldwide at an alarming rate, due to the combined effects of land-based sources of pollution and climate change. Despite the persistent use of mosquito-control pesticides in populated coastal areas, studies examining the survival and physiological impacts on the early life stages of foundation species, like corals, are limited. In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Dr. Cliff Ross, an associate professor of biology at the University of North Florida, along with scientists from Mote Marine Laboratory, exposed larvae from the coral, Porites astreoides, to selected concentrations of pesticides and temperatures.

In this pioneer study, recently published in Ecotoxicology, Ross and his colleagues—Kevin Olsen, Michael Henry and Dr. Richard Pierce—uncovered that this particular coral larvae were shown to have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature.

“The significance of this work is that coral reefs across the globe are declining at an alarming rate due to climate change (warming ocean temperatures) and pollution. If baby corals don’t survive exposure to these stressors, then you won’t have adults, which are needed to reproduce and maintain the populations,” said Ross, who is focusing his current research at UNF on understanding the effects of climate change and environmental stressors on marine organisms, such as corals and sea grasses.

One big issue in the Florida Keys and many other coastal environments, Ross noted, is the use of mosquito-control pesticides. The Florida Keys relies heavily upon tourism. Unfortunately, the same beautiful habitat is conducive towards mosquito growth. According to Ross, the Florida Keys Mosquito Control district does an excellent job controlling mosquito populations by applying pesticides. Unfortunately, he said, some of these pesticides can inadvertently end up in the ocean and have a negative effect on marine life.

What kind of possible negative effects? In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Ross collected and exposed coral larvae to selected concentrations of two major mosquito pesticide ingredients, naled and permethrin, and seawater elevated to +3.5 degrees Celsius. After 18 to 20 hours of exposure, larvae subjected to high naled concentrations had significantly reduced survivorship compared to controls. These effects weren’t detected in the presence of permethrin or elevated temperature.

Additionally, larval settlement, post-settlement survival and bleaching weren’t impacted by any treatment. To evaluate the sub-lethal stress response of larvae, several cellular and molecular assays were run. These assays determine if the larvae are stressed, much like a human blood test. The molecular responses to pesticide exposure were variable and contingent upon pesticide type, as well as the specific biomarker being employed.

In some cases, such as with the protein carbonylation and catalase gene expression, the effects of naled exposure and temperature were interactive. In other cases, pesticide exposure failed to induce any sub-lethal stress response.

Overall, these results demonstrate that Porites astreoides larvae have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature. However, Ross notes much more work is needed on this topic, since there are many different types of environmental stressors that can interact with pesticides to cause damage to corals.

“With the onset of increasing stress to coral reefs, via direct human activities, or indirectly through effects associated with climate change, a more complete understanding of how stress impacts corals is essential,” said Ross. “In particular, as the use of pesticides increases in coastal communities there is a need to investigate the negative effects on early life stages of foundation species like corals.”

The full study, to be published in the February 2015 issue, can be found at



Sogar Sonnencreme von badenden Strandgästen kann den Korallen gefährlich werden wie National Geographic bereits 2008 meldete:

Swimmer’s sunscreen killing off coral
The sunscreen that you dutifully slather on before a swim on the beach may be protecting your body—but a new study finds that the chemicals are also killing coral reefs worldwide. Four commonly found sunscreen ingredients can awaken dormant viruses in the symbiotic algae called zooxanthellae that live inside reef-building coral species.

Weiterlesen in National Geographic

Die Universität Tel Aviv gab 2015 im Rahmen einer Pressemitteilung weitere Forschungsergebnisse zur Problematik bekannt:

Sunscreen is proven toxic to coral reefs

Tel Aviv University researchers discover chemical found in most sunscreen lotions poses an existential threat to young corals

The daily use of sunscreen bearing an SPF of 15 or higher is widely acknowledged as essential to skin cancer prevention, not to mention skin damage associated with aging. Though this sunscreen may be very good for us, it may be very bad for the environment, a new Tel Aviv University study finds.

New research published in Archives of Environmental Contamination and Toxicology finds that a common chemical in sunscreen lotions and other cosmetic products poses an existential threat — even in miniscule concentrations — to the planet’s corals and coral reefs. “The chemical, oxybenzone (benzophenone-3), is found in more than 3,500 sunscreen products worldwide. It pollutes coral reefs via swimmers who wear sunscreen or wastewater discharges from municipal sewage outfalls and coastal septic systems,” said Dr. Omri Bronstein of TAU’s Department of Zoology, one of the principal researchers.

The study was conducted by a team of marine scientists from TAU, including Prof. Yossi Loya, also of the Department of Zoology, the Haereticus Environmental Laboratory in Virginia, the National Aquarium (US), the US. National Oceanic & Atmospheric Administration, Ben Gurion University of the Negev, and other labs in the US.

A deadly day at the beach

A person spending the day at the beach might use between two to four ounces of sunblock if reapplied every two hours after swimming, towelling off, or sweating a significant amount. Multiply this by the number of swimmers in the water, and a serious risk to the environment emerges.

“Oxybenzone pollution predominantly occurs in swimming areas, but it also occurs on reefs 5-20 miles from the coastline as a result of submarine freshwater seeps that can be contaminated with sewage,” said Dr. Bronstein, who conducted exposure experiments on coral embryos at the Inter University Institute in Eilat together with Dr. Craig Downs of the Heretics Environmental Laboratories. “The chemical is highly toxic to juvenile corals. We found four major forms of toxicity associated with exposure of baby corals to this chemical.”

Forms of toxicity include coral bleaching, a phenomenon associated with high sea-surface temperature events like El Niño — and with global mass mortalities of coral reefs. The researchers found oxybenzone made the corals more susceptible to this bleaching at lower temperatures, rendering them less resilient to climate change. They also found that oxybenzone damaged the DNA of the corals, neutering their ability to reproduce and setting off a widespread decline in coral populations.

The study also pointed to oxybenzone as an “endocrine disruptor,” causing young coral to encase itself in its own skeleton, causing death. Lastly, the researchers saw evidence of gross deformities caused by oxybenzone — i.e., coral mouths that expand to five times their healthy, normal size.

It only takes a drop

“We found the lowest concentration to see a toxicity effect was 62 parts per trillion — equivalent to a drop of water in six and a half Olympic-sized swimming pools,” said Dr. Bronstein. The researchers found concentrations of oxybenzone in the US Virgin Islands to be 23 times higher than the minimum considered toxic to corals.

“Current concentrations of oxybenzone in these coral reef areas pose a significant ecological threat,” said Dr. Bronstein. “Although the use of sunscreen is recognized as important for protection from the harmful effects of sunlight, there are alternatives — including other chemical sunscreens, as well as wearing sun clothing on the beach and in the water.”

The researchers hope their study will draw awareness of the dangers posed by sunscreen to the marine environment and promote the alternative use of sun-protective swimwear.



Die Fischerei bedroht wichtige Fischarten in den Korallenriffen, so dass die Artenvielfalt hier stark gefährdet ist. Siehe Meldungen der University of Queensland und des ARC Centre of Excellence in Coral Reef Studies. Die Wildlife Conservation Society schlug 2015 sogar vor, bestimmte Fischarten gezielt in beschädigten Korallenriffen auszusetzen, die dann bei der Reparatur des Ökosystems und der Korallen mithelfen.



Böse Buben sind auch die Seesterne, wie die Augsburger Allgemeine am 17. Dezember 2015 berichtete:

Great Barrier Reef in Gefahr: Killer-Seesterne fressen Korallen
Für seine in allen Farben schillernde Unterwasserwelt ist das Great Barrier Reef vor der Küste Australiens weltbekannt. Doch ihm droht Gefahr durch einen Killer-Seestern.

Weiterlesen in der Augsburger Allgemeinen



Das Smithsonian Tropical Research Institute wies am 21. März 2017 auf einen viel zu wenig berücksichtigten Korallenkiller hin: Sauerstoffarme Zonen im Meer, sogenannte Dead Zones. Etliche Korallenbleichen die man vormals der Ozeanerwärmung und Ozeanversauerung zugeordnet hatte, sind wohl in Wahrheit eher eine Folge von Sauerstoffarmut. Dabei wird der Sauerstoffgehalt nicht einmal routinemäßig von allen Ozeanmonitorstationen erfasst. Eine große Forschungslücke.

Dead zones may threaten coral reefs worldwide

Dead zones affect dozens of coral reefs around the world and threaten hundreds more according to a new study by Smithsonian scientists published in Proceedings of the National Academy of Sciences. Watching a massive coral reef die-off on the Caribbean coast of Panama, they suspected it was caused by a dead zone — a low-oxygen area that snuffs out marine life — rather than by ocean warming or acidification.

“Ocean warming and acidification are recognized global threats to reefs and require large-scale solutions, whereas the newly recognized threats to coral reefs caused by dead zones are more localized, said Andrew Altieri, staff scientist at the Smithsonian Tropical Research Institute and first author of the study. Fortunately dead zones can be reduced by controlling sewage and agricultural runoff into the ocean.” In September, 2010, coral reefs in Almirante Bay, Bocas del Toro Province, showed severe signs of stress. In addition to corals turning white and dying, which is typical during coral bleaching associated with warming events, there were other clues suggesting that more was involved than high temperatures. Many unusual observations pointed to something else as the culprit. There were thick mats of bacterial slime, and the dead bodies of crabs, sea urchins and sponges lay scattered on the ocean floor. Even more odd, there was a clear depth line above which the reefs looked OK, and below which, something had gone terribly wrong. Even single colonies of corals that straddled the line were fine above and dying below.

Scientists went to work, measuring several aspects of water quality. One set of measurements came back as a shock. Extremely low oxygen levels in deeper waters contrasted with high oxygen levels in shallow waters where corals were still healthy. This is the hallmark of a dead zone. The team thinks that such dead zones may be common in the tropics but have gone largely unreported, simply because scientists never looked. “The number of dead zones currently on our map of the world is 10 times higher in temperate areas than it is in the tropics, but many marine biologists work out of universities in Europe and North America and are more likely to find dead zones close to home,” Altieri said. “We were lucky that there was already a reef monitoring program in place at STRI’s Bocas del Toro Research Station as part of the Smithsonian’s Marine Global Earth Observatory Network,” said Rachel Collin, station director.

“Based on our analyses, we think dead zones may be underreported by an order of magnitude.” said Nancy Knowlton, coauthor and Sant Chair for Marine Science at the Smithsonian’s National Museum of Natural History. “For every one dead zone in the tropics, there are probably 10 — nine of which have yet to be identified.” The researchers found 20 instances when dead zones were implicated in the mass mortality of coral reefs worldwide. “Hypoxia (low oxygen) isn’t even mentioned in several of the most important academic reviews of threats to coral reefs and is rarely discussed at scientific meetings,” Altieri said, “Even worse, many coral-reef monitoring efforts do not include measurement of oxygen levels, making it nearly impossible to identify low oxygen as the cause of mass coral mortality after the fact.” For example, the cause of a 2016 mass mortality at the Flower Garden Reefs in the Gulf of Mexico remains unclear, but some of the photographs look strikingly similar to what was observed in Panama.

The authors argue that building capacity to monitor oxygen on reefs will help people to improve coral reef health and understand how dead zones might interact with other forces such as global warming in a one-two punch, which put reefs in even greater danger.


 Die Korallenkillerbande

Die Oregon State University fasste am 7. Juni 2016 die vielfältigen Gefahren für die Korallenriffe in einer Pressemitteilung zusammen:

Coral reefs fall victim to overfishing, pollution aggravated by ocean warming (weiterlesen …)

Obere Atlantikschichten widersetzen sich hartnäckig dem Aufwärmbefehl

Wir wollen uns heute die ozeanische Wärme im Atlantik vornehmen. Aus dem neuesten Climate4You Newsletter (pdf hier) besorgen wir uns die Wärmeinhalts-Kurve für die letzten 60 Jahre, die für die obersten 100 m der atlantischen Wassermassen gilt:

Abb. 1: Atlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 100 m der atlantischen Wassermassen). Graphik: Climate4You.


Schön zu sehen: In den letzten 13 Jahren hat sich der Atlantik nicht weiter aufgeheizt. Die Graphik zeigt eine große Treppenstufe: Plateau 1955-1985, dann Anstieg, dann ab 2004 wieder ein Plateau. Die aktuell fehlende Erwärmung der atlantischen Oberflächenwässer war auch Thema einer Arbeit von Somavilla und Kollegen, die im März 2016 in den Geophysical Research Letters erschien. Sie erklären, die Hitze hätte sich einfach von den oberen Stockwerken des Atlantiks in die Tiefenschichten verlagert:

Mid-2000s North Atlantic shift: Heat budget and circulation changes
Prior to the 2000s, the North Atlantic was the basin showing the greatest warming. However, since the mid-2000s during the so-called global warming hiatus, large amounts of heat were transferred in this basin from upper to deeper levels while the dominance in terms of atmospheric heat capture moved into the Indo-Pacific. Here we show that a large transformation of modal waters in the eastern North Atlantic (ENA) played a crucial role in such contrasting behavior. First, strong winter mixing in 2005 transformed ENA modal waters into a much saltier, warmer, and denser variety, transferring upper ocean heat and salt gained slowly over time to deeper layers. The new denser waters also altered the zonal dynamic height gradient reversing the southward regional flow and enhancing the access of saltier southern waters to higher latitudes. Then, the excess salinity in northern regions favored additional heat injection through deep convection events in later years.

Wenn man sich dann aber die Temperaturanomaliekarten im Supplement der Arbeit (Fig. S1) anschaut, erkennt man, wie heterogen diese Trends eigentlich wirklich sind. Müssen wir also weiter im Auge behalten. Die Wärmeumverteilung war bereits Thema eines Papers von Desbruyères und Kollegen 2014 in den Geophysical Research Letters:

Full-depth temperature trends in the northeastern Atlantic through the early 21st century
The vertical structure of temperature trends in the northeastern Atlantic (NEA) is investigated using a blend of Argo and hydrography data. The representativeness of sparse hydrography sampling in the basin mean is assessed using a numerical model. Between 2003 and 2013, the NEA underwent a strong surface cooling (0–450 m) and a significant warming at intermediate and deep levels (1000 m to 3000 m) that followed a strong cooling trend observed between 1988 and 2003. During 2003–2013, gyre-specific changes are found in the upper 1000 m (warming and cooling of the subtropical and subpolar gyres, respectively), while the intermediate and deep warming primarily occurred in the subpolar gyre, with important contributions from isopycnal heave and water mass property changes. The full-depth temperature change requires a local downward heat flux of 0.53 ± 0.06 W m−2 through the sea surface, and its vertical distribution highlights the likely important role of the NEA in the recent global warming hiatus.

Die erwähnte Abkühlung im Nordatlantik wollen wir uns wieder in einer aktuellen Graphik von Climate4You anschauen:

Abb. 2: Nordatlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 700 m der nordatlantischen Wassermassen). Graphik: Climate4You.


PIK verweigert Filmemacher Interview: Die Unsicherheit wächst

Bereits mehrfach haben wir an dieser Stelle auf den neuen Dokumentarfilm “The uncertainty has settled” hingewiesen. Der Film von Marijn Poels wurde bereits auf etlichen Filmfestivals mit Preisen ausgezeichnet, eine Hase und Schildkröte Production. Den Trailer haben Sie vielleicht schon auf Youtube gesehen. Es war also nur eine Frage der Zeit, endlich einmal den ganzen Film anzuschauen. Die Kalte-Sonne-Redaktion hatte nun – ausgestattet mit Kaltgetränk und Popcorn – die Gelegenheit, den Film in ganzer Spielfilm-Länge von 90 Minuten zu inspizieren. Um es vorweg zu nehmen: Es hat sich gelohnt!

Zunächst einmal zum Titel. Für das deutsche Publikum wäre hier sicher eine landessprachliche Version sicher nützlich gewesen. “The uncertainty has settled”, was bedeutet das? Man muss den Film erst sehen, um den Sinn des Titels zu erahnen. In der Klimadebatte hieß es lange “The Science is settled”, bei den Klimawissenschaften ist alles fertigeforscht, alles im Griff. Das sollte auch bedeuten, dass man bitte mit dem nervigen Gefrage aufhört. Wenn ein Klimawissenschaftler etwas sagt, hat man das bitteschön ohne zu Murren anzuerkennen. Zurückmaueln unerwünscht. Naja, bis dann wirklich große Klopper ans Licht kamen, wie z.B. Klimamodelle, die nur die letzten 400 Jahre modellieren können, für die Zeit davor aber nichts Hinbekommen. Das kennen Sie ja. Der Titel ist also vermutlich ein Wortspiel: Statt der Wissenschaft ist nun die wissenschaftliche Unsicherheit bestätigt. Das stimmt.

Der Film ist als Roadmovie aufgebaut. Der Journalist (Marijn Poels) reist mit seinem Kameramann Volker Schmidt durch Europa und Nordamerika, um mit Landwirten und Wissenschaftlern über Biotreibstoffe und den Klimawandel zu sprechen. Poelsist lange Kare durch die schwierigen Länder und Krisenherde der Welt gereist, um von dort als Filmer und unabhängiger Medienmann zu berichten. Da war diese Reise durch den “zivilisierten” Westen sicher eine nette Abwechslung. Poels ist Holländer und sieht aus wie ein struppeliger Greenpeace-Kämpfer, wirkt dabei sehr sympathisch. Er ist Sohn eines linken Teilzeitmissionars, ein echter  Europäer – seine Frau stammt ursprünglich aus einem Dorf in Sachsen-Anhalt, in dem auch ein Teil des Films spielt.

Einen Erzähler aus dem Off gibt es nicht. Geredet wird nur vor der Kamera, auf deutsch, englisch und holländisch. Deutsche Untertitel machen es einfach, das Geschehen bequem über den ganzen Film hinweg zu verstehen. Poels konzipierte die Doku in einem langsamen unaufgeregten Erzählstil. Wilde Zusammenschnitte von Naturkatastrophen sucht man in dem Streifen zum Glück vergeblich. Der Protagonist stellt die Fragen, will selber lernen und vermeidet es, seine eigene Ansicht auszubreiten. Durch die Auswahl der Interviewpartner erkennt man aber schnell, dass Poels ernsthaft an einer Diskussion des Themas Energiewende und Klimawandel liegt. Die Öffnung zum Dialog ist ein wichtiger erster Schritt, den nur wenige gehen.

Im Heimatdorf seiner Frau in Sachsen-Anhalt trifft Poels zufällig einen holländischen Landsmann. Frits besaß mehrere große Betriebe in der Stadt, die er aber mittlerweile an seine Kinder weitergegeben hat. Das erlaubt ihm nun im Wohlstand auf dem Lande zu leben. Er ist kein Stadtmensch, sagt er. Zudem ist er Klimaskeptiker. Poels hört aufmerksam zu, sammelt Informationen. In der Entfernung dreht sich eine ganze Batterie Windkraftanlangen. Frits würde gerne eine Baumreihe davor pflanzen, damit er sie nicht mehr sehen muss. Ein Bauer aus der Region bedauert sehr, dass das Windmühlenland nicht ihm gehören würde. Denn ansonsten könte er es bequem an die Windmüller verpachten und müsste nie mehr arbeiten. Andere Bauerskollegen schnitten besser ab und müssen jetzt nur noch Geld zählen, anstatt Kartoffeln zu ernten.

Überhaupt scheint sich die deutsche Landwirtschaft vor allem um Biogas zu kümmern. Mittlerweile gibt es 8000 Biogasanlagen in Deutschland,wobei eine Snage etwa 260 Hektar Land verbraucht. Genau dieses Land fehlt jetzt für die Nahrunsgmittelherstellung. Im Zuge des globalen Nahrungsmittelmarktes wird dadurch perverserweise and Orten wie dem südmaerikanischen Regenwald neues Land gerodet, um dieses Anbaudefizit wieder auszugleichen. Die Biogaserzeugung ist stark subventioniert, lohnt sich nur, weil sie politisch gewollt ist. Marijn Poels trifft den Kieler Agrar- und Nährstoff-Exoerten Prof. Friedhelm Taube Uni Kiel. Im Interview verrät er, wie es dazu kam, dass die Biogas-Subventionen derart überdimnensioniert wurden. Die Subventionen wurden Anfang der 2000er Jahre mehrfach nachgebessert, um die Landwirte endlich ins Biogas zu bekommen. Die zögerten zunächst. Deshalb erhöhte man. Zu einem gewissen Zeitpunkt stieg dann aber der Weizen-Weltmarktpreis so stark an, dass die Politik befürchtete, die Landwirte könnten nun wieder auf Weizenanbau zurückwechseln. Also schüttete man sie so mit Subventionsgeldern zu, dass sie sich auf jeden Fall für das Biogas entschieden. Kurz nach einer neuen Steigerung der Subventionen rauschte dann der Weltmarktpreis für Weizen in den Keller. Blöd gelaufen.

Der Experte bemängelt die ökonomische Ineffizienz der Biogaserzeugung. Was könnte man mit dem vielen Geld nicht alles Gutes tun. In Ländern wie Tunesien könnte die Lndwirtschaft nachhaltig verbessert werden und Migrationsgrpnde beseitigt werden. Lieber setzt man weiter stur auf Biogas, um einen Gesichtsverlust zu vermeiden. 40% der Maisanbaufläche in Deutschland werden heute für Biogas verbraucht. Eine Tonne CO2-Vermeidung über Biogas kostet den Steuerzahler und Stromkunden 300-400 Euro. Eine Tonne CO2-Vermeidung über Wärmedämmung kostet jedoch nur 20 Euro also ein Fünzehntel. Wer kein Biogas macht, ist einfach blöd. Milchbauern machen derzeit pro Kuh 1000 Euro Verlust pro Jahr, ein kostspieliges Hobby. Will man so die Methanemissionen der Kühe senken?

Wir wollen Ihnen hier nicht den ganzen Film verraten. Im Laufe seiner Reise trifft Marijn Poels auch auf Hans von Storch, dem man gerne zuhört, da er seine Worte gut wählt und beim Klimwandel relativ ausgewogen positioniert ist. Er ist sich nicht sicher, ob der Klimawandel das wichtigste aktuelle Problem der Menschheit ist. Auf jeden Fall solle man seine Energie auch auf eine ganze Reihe anderer Herausforderungen lenken. Recht hat der Mann. Weitere Interviewpartner sind Freeman Dyson, stolze 93 Jahre alt, von der Princeton University. Er erklärt, dass die Computermodellierer zu früh zu viel Geld bekommen haben. Dann hätten sie sich verrannt und konnten dann aus der Kiste nicht mehr ohne Gesichtsverlust heraus. Es würde ihnen schwer fallen, objektiv zu bleiben.Es wäre aber klar, dass die Modelle gescheitert sind. Beobachtungen und Simulationen stimmen einfach nicht überein. Und ohne Klimaalarm gibt es kein Geld von der Regierung. Dyson kritisiert die Herdenmentalität der Wissenschaftler. Zuviel Loyalität, zu wenig eigenes Mitdenken.

Poels hatte auch beim Potsdam-Institut für Klimafolgenforschung um ein Interview gebeten. Das wurde ihm allerdings verweigert. Weshalb? Kritisches Mitdenken und Fragenstellen unerwünscht. Im Laufe des Films wird sich Poels darüber klar, dass er als Laie keine Chance hat, die Wahrheit zum Klimawandel zu erfahren. Es steht Aussage gegen Aussage. Wem soll man glauben, wer erzählt Mist? Freeman Dyson gibt Poels einen guten Rat mit auf den Weg. Er solle den Beobachtungen vertrauen, nicht theoretischen Modellen. Ein gutes Konzept.

Gegen Ende verrennt sich der Filmemacher etwas und bringt auch noch einen russischen Vertreter der abiogenen Kohlenwasserstoffe. Dies wird die meisten Zuseher zu sehr verwirren. Natürlich gibt es nicht-biologische Kohlenwasserstoffe. Aus vielen Vulkanen strömt Methan aus, Planeten haben Methanatmosphären und so weiter. In Russland glaubt man sogar, einige abiogene Ölfelder zu haben, z.B. im Kaukasus. Trotzdem ist es schon etwas ärgerlich, wenn Vladimir Kutcherov im Interview erzählen darf, man müsse nur 50 Jahre warten und die bereits leergeförderten Ölfelder wären dann alle wieder voll. Quatsch hoch drei. Das Öl und Gas der meisten entdeckten Felder stammt aus ehemaligen Tier- und Pflanzenresten. Da kann man auch 500 Jahre warten, und es füllt sich kaum etwas nach. Magengrummeln gibt es auch bei einigen Statements von Piers Corbyn, der zu ausführlich im Film zu Wort kommt und z.B. den aktuellen CO2-Anstieg als zeitverzögerten Effekt der Mittelalterlichen Wärmeperiode deutet. Höchst abenteuerlich.

Poels endet seinen Film mit einer Abwandlung des Goethezitats ‘Da steh ich nun, ich armer Tor, und bin so klug als wie zuvor’. Der Film hilft auf jeden Fall, das Interesse am Thema zu wecken. Eine systematische Behandlung der wichtigsten Klimafragen gehörte nicht zum Konzept. Das ist aber auch nicht so schlimm, denn man kann diese Themen auch in unserem Buch und Blog nachlesen. Wir möchten Ihnen den Film wärmstens empfehlen. Demnächst auch in einem Kino in Ihrer Nähe. Hier die aktuellen Vorführungstermine (2017), an denen auch der Filmemacher persönlich teilnehmen wird:

Beeinflussungsgrad der deutschen Jahresmitteltemperatur durch städtische Wärmeinseln erstmals flächendeckend quantifiziert

Eines der wichtigen Streitthemen in der Klimadebatte ist der städtische Wärmeinseleffekt (WI-Effekt). Bebauung und Wärmeerzeugung treiben die Temperaturen in den Ballungszentren zusätzlich zum weltweiten Klimawandel nach oben. Das Phänomen fungiert im Englischen auch unter ‘urban heat island’ (UHI) und ist in der Fachwelt allseits anerkannt. Eine berechtigte aber leider noch weitgehend ungeklärte Frage ist nun, inwieweit der UHI die Langzeittemperaturmessungen bereits beeinflusst hat. Wiewiel UHI steckt wirklich in den Temperaturkurven des Deutschen Wetterdienstes (DWD)?

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen


Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017


Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

 Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.


Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.


Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.


Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Identifying anthropogenic anomalies in air, surface and groundwater temperatures in Germany
Human activity directly influences ambient air, surface and groundwater temperatures. The most prominent phenomenon is the urban heat island effect, which has been investigated particularly in large and densely populated cities. This study explores the anthropogenic impact on the thermal regime not only in selected urban areas, but on a countrywide scale for mean annual temperature datasets in Germany in three different compartments: measured surface air temperature, measured groundwater temperature, and satellite-derived land surface temperature. Taking nighttime lights as an indicator of rural areas, the anthropogenic heat intensity is introduced. It is applicable to each data set and provides the difference between measured local temperature and median rural background temperature. This concept is analogous to the well-established urban heat island intensity, but applicable to each measurement point or pixel of a large, even global, study area. For all three analyzed temperature datasets, anthropogenic heat intensity grows with increasing nighttime lights and declines with increasing vegetation, whereas population density has only minor effects. While surface anthropogenic heat intensity cannot be linked to specific land cover types in the studied resolution (1 km × 1 km) and classification system, both air and groundwater show increased heat intensities for artificial surfaces. Overall, groundwater temperature appears most vulnerable to human activity, albeit the different compartments are partially influenced through unrelated processes; unlike land surface temperature and surface air temperature, groundwater temperatures are elevated in cultivated areas as well. At the surface of Germany, the highest anthropogenic heat intensity with 4.5 K is found at an open-pit lignite mine near Jülich, followed by three large cities (Munich, Düsseldorf and Nuremberg) with annual mean anthropogenic heat intensities > 4 K. Overall, surface anthropogenic heat intensities > 0 K and therefore urban heat islands are observed in communities down to a population of 5000.


Mehr zum UHI-Effekt hier.

Besonnenheit statt Panik: Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe

Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe. Das ist beruhigend zu wissen. Neben US-Präsident Donald Trump hält auch der Russische Präsident Putin nichts von klimatischer Panikmache, wie Die Welt am 30. März 2017 meldete:

Putin hält Klimawandel nicht für menschengemacht

Einst hatte Putin den Klimawandel begrüßt, nun legt der russische Präsident nach: Dieser sei nicht menschengemacht – und daher auch nicht zu stoppen. Zur „Großmacht“ USA strebt er „sehr gute Beziehungen“ an.

Nach Einschätzung des russischen Präsidenten Wladimir Putin ist der Klimawandel nicht durch den Menschen verursacht und deshalb auch nicht aufzuhalten. Beim Arktisforum in der nordrussischen Stadt Archangelsk sagte Putin, die Schmelze der Eisberge dauere bereits seit Jahrzehnten an. Die Klimaerwärmung habe in den 30er-Jahren des vorigen Jahrhunderts begonnen, als es noch gar keine Treibhausgase gegeben habe. Den Klimawandel zu stoppen sei „unmöglich“. Er hänge zusammen mit „globalen Zyklen auf der Erde oder sogar von planetarischer Bedeutung“. Es komme darauf an, sich der Klimaerwärmung „anzupassen“. Putin, der am Vortag die Inselgruppe Franz-Josef-Land im Nordpolarmeer aufgesucht hatte, erläuterte seine Position mit einem Beispiel.

Weiterlesen auf

Die Argumentation ist bei beiden sicher noch zu verfeinern. Zudem wäre auch eine quantitative Diskussion der CO2-Klimasensitivität wichtig, ansonsten erscheinen die Statements doch etwas zu schwarz und weiß. Trotzdem gibt es Hoffnung, dass die beiden Präsidenten ein Gegengewicht zum ungebremsten Klimaalarmismus bilden. Wie so oft, liegt die Wahrheit wohl irgendwo in der Mitte.


Heute halten wir das Blog etwas knapper. Morgen soll es dafür in aller Ausführlichkeit um den städtischen Wärmeinseleffekt (urban heat island, UHI) in Deutschland gehen. Hier hat es kürzlich unbemerkt von den Medien einen kleinen Durchbruch gegeben, den wir Ihnen präsentieren wollen. In diesem Zusammenhang wollen wir dann auch einen Weg aufzeigen, wie eine Temperaturkurve für Deutschland berechnet werden kann, aus der die gröbsten UHI-Verunreinigungen entfernt sind. Schalten Sie daher unbedingt morgen wieder das Kalte-Sonne-Blog ein, es lohnt sich.


Macht der Klimawandel verrückt?

Die American Psychological Association (APA) biss am 29. März 2017 ein Stück vom profitablen Klimawandelforschungskuchen ab. Sie ging in einer Pressemitteilung der Frage nach, ob der Klimawandel verrrückt macht. Wenig überraschend lautete die Antwort ‘ja’.

Climate Change’s Toll on Mental Health

New report outlines psychological effects on individuals and communities, vulnerable populations

When people think about climate change, they probably think first about its effects on the environment, and possibly on their physical health. But climate change also takes a significant toll on mental health, according to a new report released by the American Psychological Association and ecoAmerica entitled Mental Health and Our Changing Climate: Impacts, Implications, and Guidance.

Climate change-induced severe weather and other natural disasters have the most immediate effects on mental health in the form of the trauma and shock due to personal injuries, loss of a loved one, damage to or loss of personal property or even the loss of livelihood, according to the report. Terror, anger, shock and other intense negative emotions that can dominate people’s initial response may eventually subside, only to be replaced by post-traumatic stress disorder.

As an example of the impacts natural disasters can have, among a sample of people living in areas affected by Hurricane Katrina in 2005, suicide and suicidal ideation more than doubled, one in six people met the diagnostic criteria for PTSD and 49 percent developed an anxiety or mood disorder such as depression, said the report.

The impacts of climate on mental health are not relegated to disasters alone. There are also significant mental health impacts from longer-term climate change. Changes in climate affect agriculture, infrastructure and livability, which in turn affect occupations and quality of life and can force people to migrate. These effects may lead to loss of personal and professional identity, loss of social support structures, loss of a sense of control and autonomy and other mental health impacts such as feelings of helplessness, fear and fatalism. High levels of stress and anxiety are also linked to physical health effects, such as a weakened immune system. Worry about actual or potential impacts of climate change can lead to stress that can build over time and eventually lead to stress-related problems, such as substance abuse, anxiety disorders and depression, according to research reviewed in the report.

Climate change is likewise having mental health impacts at the community level. Both acute and long-term changes have been shown to elevate hostility and interpersonal and intergroup aggression, and contribute to the loss of social identity and cohesion, said the report. Certain disadvantaged communities, such as indigenous communities, children and communities dependent on the natural environment can experience disproportionate mental health impacts.

The key to combating the potential negative psychological effects of climate change, according to the report, is building resilience. It includes a section dedicated to offering guidance to aid professionals in supporting and promoting the mental health of individuals and communities and helping them build psychological resilience. One recommendation is to guide people to support and maintain their social networks.

“Individuals’ personal capacity to withstand trauma is increased when they are connected to their networks off- and online,” said the report. “Researchers have found that higher levels of social support during and in the aftermath of a disaster are associated with lower rates of psychological distress.”

The report also emphasized that adopting environmentally friendly policies and lifestyle choices can have a positive effect on mental health. For example, choosing to bike or walk to work has been associated with decreased stress levels. If walking or biking to work is impractical or unsafe, use of public transportation has been associated with an increase in community cohesion and a reduction in symptoms of depression and stress, according to the report. Also, increased accessibility to parks and other green spaces could benefit mental health as spending more time in nature has been shown to lower stress levels and reduce stress-related illness, regardless of socioeconomic status, age or gender.

The report, which was produced in collaboration with psychologists Susan Clayton, PhD, of the College of Wooster, and Christie Manning, PhD, of Macalester College, is an update to Beyond Storms and Droughts: The Psychological Impacts of Climate Change, a report released by the American Psychological Association and ecoAmerica in 2014. A seminal work on the relationship between climate change and psychology, Beyond Storms and Droughts was cited in the U.S. Global Change Research Program’s scientific assessment, The Impacts of Climate Change on Human Health in the United States. This 2017 update builds on the findings of the first report with new research, expanded emphasis on inequity, deeper guidance for individuals and communities and stories from professionals who are studying and supporting mental health in a changing climate.

A copy of the report can be found online at

Ist das nicht verrückt? In eine ähnliche Kategorie fällt eine Meldung auf GIZMODO vom 9. April 2017. Der Klimawandel würde auf Hawaii zu einer Zunahme von Ratten-Lungenwürmern führen, die in das menschliche Gehirn kriechen:

A Brain-Invading Parasite Is Believed To Be Spreading Because Of Climate Change
Health officials in Hawaii have been warning residents not to touch snails or slugs with their bare hands because of an increase in cases of people coming into contact with a rare parasitic infection known as a rat lungworm. Experts are blaming its sudden spread across the United States on climate change and globalisation.

Weiterlesen auf GIZMODO

Die Initiative Klimakontroverse hält ihr nächstes Treffen am Donnerstag den 27. April 2017 um 19:30 Uhr im Freizeitheim Linden in Hannover ab. Thema: Nordseeinsel – Energiewende und wieder zurück. Weitere Informationen des Veranstalters:

Beim letzten Treffen ging es um folgende Themen:

1. Wie das Normale plötzlich zum Unnormalen wird

Kritik der Ausstellung „WIR ALLE SIND ZEUGEN – MENSCHEN IM KLIMAWANDEL“ v. 08.03.-06.04.,2017 in der VHS in Hannover.

Arbeitsmethode der Ausstellung
Die in der Ausstellung dargestellten Fälle von „schlechtem“ Klimawandel überraschen den versierten Betrachter. Es werden nur Ereignisse der letzten Jahrzehnte dargestellt. Ein Vergleich mit früheren Jahrhunderten findet nicht statt. …

2. Klimawarner und Klimaskeptiker sollten miteinander reden und sachlich auf die jeweils anderen  Argumente eingehen.

Es ist kaum noch zu übersehen. Der Klimaschutz ist in der Krise. Beinahe wie aus dem Nichts haben sich die Kräfteverhältnisse international geändert. Die USA sind dabei aus dem Klimaschutz auszusteigen. … Mehr  >>

Haben Sie Fragen zum Klima oder der Energiewende? Wir antworten gerne. Leichte Verständlichkeit und die offene Diskussion unterschiedlicher Ansichten stehen im Vordergrund und sollen ein Markenzeichen dieser Initiative sein.

Do, 27. April, 19:30, Freizeitheim Linden, Windheimstr. 4, 30451 Hannover
Kontakt: Achim Fahnenschild,


Der CO2-Gehalt der Atmosphäre steigt. Da CO2 auch das Pflanzenwachstum ankurbelt wundert es kaum, dass auch die Pflanzenphotosynthese in den letzten beiden Jahrzehnten global um ein Drittel zugenommen hat. Dies berichtete jetzt die University of California.


Amüsanter und lehrreicher Blogbeitrag von Don Alphonso am 5. April 2017 auf “Stützen der Gesellschaft”:

Der Klimawandel als verbindliches Höllenfeuer der Moderne

Der Weise äußert sich vorsichtig, der Narr mit Bestimmtheit über das kommende Wetter.
Wilhelm Busch

Wissen ist tödlich, zumindest, wenn es das falsche Wissen ist. Ich beispielsweise hatte durch einen Zufall Seminare in Paläoethnobotanik. Das sind die Leute, die mit einem Bohrer in Sumpfgebiete gehen, die fernab der Zivilisation zu finden sind, und lange ungestört blieben. Dort versenken sie dann einen langen Bohrer im weichen Grund, und nehmen eine lange, weit hinunter reichende Sumpfprobe. Jedes Jahr werden in so einen Sumpf Pollen eingetragen, die sich dort unter Luftabschluss erhalten und nach unten sinken. Je tiefer die Probe, desto älter die Pollen. Auf diese Art sind Wissenschaftler in der Lage, relativ gut zu erkennen, welche Pollen wann eingetragen wurden, was Rückschlüsse auf die Pflanzenwelt der Vorgeschichte zulässt.

Bisher ist das alles noch harmlos, man bohrt dabei im Sumpf, man wäscht Sumpfmaterial aus, man schaut ins Mikroskop und vergleicht Pollen. Dann wartet man auf die C14-Datierung der jeweiligen Schicht. Paläoethnobotaniker können einem viel über das Auftauchen und Verschwinden von Weiden erzählen, auf die Gräserpollen schliessen lassen, oder über Ackerbau und Baumsorten. Wird beispielsweise der Wald abgeholzt, wie etwa in den Alpen zur Gewinnung von Metallen, Salz und Glas, schlägt sich das im Ausbleiben von Baumpollen auch in den Sümpfen nieder. Machen die Pest oder der Schwede die Menschen nieder, ergreift die Natur wieder Besitz vom besiedelten Raum, und Getreidepollen verschwinden. Auch diese Erkenntnis ist – außer für die früheren Menschen – nicht tödlich.

Tödlich wird es für unsereins erst, wenn man in der Konzertpause zwischen Rameau und Haydn plaudert und ganz beiläufig erwähnt, dass der gelbe Weinstock schon Triebe entwickelt, aber der blaue Weinstock bislang wenig Anstalten macht, sich mit Knospen zu zeigen. Normal ist es anders herum, und man gibt in solchen Momenten leichtfertig der Sorge Ausdruck, der blaue Weinstock könnte im strengen Winter Schaden genommen haben, und durch den Frost zugrunde…. DASKANNGARNICHTSEIN, wird man deutlich verwarnt, und dann kommen von Leuten, die in Biologie, Physik und Chemie nachweislich noch schlechter als ich waren, hochgenaue Auflistungen, dass auch dieser Winter viel zu warm war. Früher redete man über das Wetter, um zu plaudern, heute ist es lebensgefährlich.

Weiterlesen im FAZ-Blog.


Künstlich kleingeredet: Kleine Eiszeit ist und bleibt kälteste Phase der letzten 10.000 Jahre

Die britische Royal Astronomical Society hat es offenbar mit der Angst zu tun bekommen. Eigentlich sollte sich die RAS doch für eine ausgewogene Darstellung der Sonnenaktivität und ihrer klimatischen Wirkung einsetzen. Am 4. April 2017 jedoch tat man das genaue Gegenteil und redete die Sonne klein: Die Kleine Eiszeit sei gar nicht so extrem gewesen und die Sonne ist auch nur ein Faktor unter vielen. Großer Applaus aus der IPCC-Hardliner-Ecke, Stirnrunzeln bei den Paläoklimatologen. Denn eines ist klar: Die Kleine Eiszeit war extrem und stellt die kälteste Phase der vergangenen 10.000 Jahre dar. Die kältesten Episoden fallen exakt in die solaren Minima. Eigentlich ist der Fall klar. Musste die RAS diesen Schritt gehen, um politisch zu punkten? Zunächst hier die fragwürdige Pressemitteilung der RAS:

Paintings, sunspots and frost fairs: rethinking the Little Ice Age

The whole concept of the ‘Little Ice Age’ is ‘misleading’, as the changes were small-scale, seasonal and insignificant compared with present-day global warming, a group of solar and climate scientists argue.

Explanations for the cooling to Earth’s climate, thought to have occurred between the 16th and 19th centuries, include low solar activity, volcanic eruptions, human changes to land use and natural climatological change. But in a new paper in Astronomy & Geophysics, the house journal of the Royal Astronomical Society, Professor Mike Lockwood, of the University of Reading, and his collaborators, note that the temperature shift was smaller than that seen in recent decades resulting from the emission of greenhouse gases, and that although low solar activity may have been one driving factor, it certainly was not the only one.

Professor Lockwood said: “Commentators frequently refer to the Little Ice Age in discussions on climate change. We wanted to carry out a comprehensive study to see just how reliable the evidence is for a cooler climate, how big an impact it really had and how strong the evidence for a solar cause really was. “On the whole the Little Ice Age was a manageable downturn in climate concentrated in particular regions, even though places like the UK had a larger fraction of cold winters. Our research suggests that there is no single explanation for this, that warm summers continued much as they do today and that not all winters were cold.”

Researchers scrutinised historical records, such as the accounts of ‘frost fairs’ when the River Thames froze solid, and looked at the paintings from the era, such as the landscapes of Pieter Bruegel the Elder, with ‘Hunters in the Snow’ depicting a cold winter scene. Both of these are cited in support of the Little Ice Age concept. From around 1650-1710, and to a lesser extent from 1790-1825, periods respectively known as the Maunder and Dalton Minima, sunspot numbers were unusually low, an indication that the surface of the Sun was slightly cooler. This external influence is often suggested as an explanation for the colder conditions. The Reading-led team looked at the various pieces of evidence in more detail. They compared direct temperature records and proxy data such as ice records, with the years when the Thames was frozen over (whether or not a frost fair took place), and with the indications of solar activity.

Historical climate change is assessed through a variety of means. The Central England Temperature (CET) dataset tracks temperature from 1659, making it the oldest and longest running meteorological instrumental data sequence in the world. This direct record is supplemented by studies of biological proxies such as tree rings, corals, insect numbers and molluscs, all sensitive to climate change. The authors draw comparisons with the ice ages proper. Cores taken from Antarctic ice allow global temperatures to be inferred, by measuring the proportions of deuterium (2H), a heavier atom of hydrogen, and of the heavier oxygen atom 18O, compared with their lighter ‘normal’ counterparts. It takes more energy to evaporate water with a higher proportion of these atoms, and they are more easily lost from rainfall, before they are deposited in ice found nearer the poles. The changing proportion of these atoms then allows researchers to assess how the temperature has changed over millions of years.

From these comparisons, the scientists argue that the description of the period as an Ice Age is misleading, as temperatures in that period fell far less than in a glaciation. During the Little Ice Age (LIA), the average temperature in the northern hemisphere fell by around 0.5 degrees. In contrast, in the most recent major glaciation that came to an end around 12,000 years ago, global temperatures were typically 8 degrees Celsius colder than today. Frost fairs also seem to be a poor indication of overall climate, as they often did not take place despite the Thames freezing, partly for many reasons including puritanical authorities or safety as lives were lost when the ice melted. The ending of the frost fairs had nothing to do with climate change or solar activity, instead being due to the increased river flow when the original London Bridge was demolished in 1825, and the first Victoria embankment opened in 1870. Both of these prevented the river from freezing completely, despite many subsequent cold winters.

Selective use of art historical evidence appears to reinforce the illusion of a prolonged cold spell. Yet ‘Hunters in the Snow’, depicting a January scene, is part of a series by Bruegel known as ‘The Twelve Months’. Seven of these paintings may have been lost, but ‘The Gloomy Day’ (February), ‘Haymaking’ (July), and ‘The Return of the Herd’ (November) all give no indication of unusually cold conditions. Consistent with this, Lockwood and his team note that even at the height of the LIA period, colder European winters were still accompanied by many warm summers. For example, 1701 is close to the lowest point of the Little Ice Age, yet in both Paris and London the summer was reported as being unbearably hot and the CET for July that year is the 10th hottest on record, with average temperatures for the month reaching 18.3°C. The year 1676 is the second hottest June on record at 18.0°C, yet it too was in the middle of a run of cold winters. Such high summer temperatures do not fit at all with the name “Little Ice Age.”

Much more dramatic variations can result from large volcanic eruptions. Samalas, a volcano which erupted in 1257 in what is now Indonesia, ejected large amounts of dust into the atmosphere, causing a temporary cooling effect. The years between 1570 and 1730, corresponding to the coldest part of the LIA, also saw continuous lower level volcanic activity that may have suppressed temperatures. Volcanic eruptions undoubtedly cause both cold winters and cold summers. One of the clearest examples was the Tambora eruption of July 1815, which caused the next year to be called “the year without a summer.” Professor Lockwood said: “This study provides little solace for the future, as we face the challenge of global warming. Solar activity appears to be declining at present, but any cooling effect that results will be more than offset by the effect of rising carbon dioxide emissions, and provides us with no excuse for inaction.”

Eine Gleichsetzung der Kälte der Kleinen Eiszeit mit derjenigen einer richtigen Eiszeit hatte nie irgendjemand behauptet. Insofern bringt der von Lockwood und Kollegen sensationsheischende Fund “die Kleine Eiszeit war wärmer als die Große Eiszeit” nicht wirklich etwas Neues. Die im Paper Lockwood et al. 2017 verglichenen Daten sind lokal, bei den Daten der nördlichen Hemisphäre wurde offenbar ein ansonsten wenig verwendeter Datensatz verwendet. Hunderte anderer Klimakurven wurden ignoriert. Die Sonnenaktivität wurde allein über die Sonnenflecken dargestellt, obwohl es andere verlässliche Daten gibt wie z.B. isotopenbasierte solare Reihen. Insgesamt ein wenig zufriedenstellendes Paper, das eher durch Fotos von Gemälden als durch Datenvielfalt auffällt.

Um diesem Datenmangel entgegenzuwirken, hat das Kalte-Sonne-Team bereits mit Vorbereitungen zu einer eigenen Publikation zur Kleinen Eiszeit und der Auswirkungen der solaren Schwächeepisoden begonnen. Vielleicht können wir Ihnen an dieser Stelle in ein paar Monaten eine ausgewogenere Darstellung ankündigen.


Slowdown: Die gebremste Erwärmung der letzten anderthalb Jahrzehnte und ihre Gründe

Stefan Rahmstorf ist gegen den Erwärmungshiatus. Für ihn existiert er nicht. Er lebt lieber in der schönen heilen Rahmstorf-Welt, in der die Erwärmung ungebremst weiter voranschreitet, eine komisch-schaurige Parallelwelt, die nichts mit der Wirklichkeit zu tun hat. Der Rest der Fachwelt sieht die Dinge zum Glück etwas realistischer und publiziert fleißig zu den Gründen des Hiatus bzw. Slowdowns. Das Institut für atmosphärische Physik der Chinesischen Akademie der Wissenschaften gab zum Thema nun sogar eine Pressemitteilung heraus:

New Study Reveals the Atmospheric Footprint of the Global Warming Hiatus

The increasing rate of the global mean surface temperature was reduced from 1998 to 2013, known as the global warming hiatus or pause. Great efforts have been devoted to the understanding of the cause. The proposed mechanisms include the internal variability of the coupled ocean-atmosphere system, the ocean heat uptake and redistribution, among many others. However, the atmospheric footprint of the recent warming hiatus has been less concerned. Both the dynamical and physical processes remain unclear. 

In a recent paper published in Scientific Report, LIU Bo and ZHOU Tianjun from the Institute of Atmospheric Physics, Chinese Academy of Sciences have investigated the atmospheric anomalous features during the global warming hiatus period (1998-2013). They show evidences that the global mean tropospheric temperature also experienced a hiatus or pause (Fig. 1). To understand the physical processes that dominate the warming hiatus, they decomposed the total temperature trends into components due to processes related to surface albedo, water vapor, cloud, surface turbulent fluxes and atmospheric dynamics. The results demonstrated that the hiatus of near surface temperature warming trend is dominated by the decreasing surface latent heat flux compared with the preceding warming period, while the hiatus of upper tropospheric temperature is dominated by the cloud-related processes. Further analysis indicated that atmospheric dynamics are coupled with surface turbulent heat fluxes over lower troposphere and coupled with cloud processes over upper troposphere. 

Figure 1. (a) Global mean temperature anomalies from 1950 to 2015 and (b) linear trends of global mean temperature for near surface (i.e. the lowest atmospheric layer), and the vertical average of the whole (surface to 100hPa), lower (surface to 500hPa), and upper troposphere (500hPa to 100hPa). Red (black) bars are for the warming period. Blue(white) bars are for the hiatus period. (Liu and Zhou, 2017)

As to why the surface latent heat flux, atmospheric dynamics and cloud-related processes showed such large differences between 1983-1998 and 1998-2013, LIU, the first author of the paper, explained, “They are dominated by the Hadley Circulation and Walker Circulation changes associated with the phase transition of Interdecadal Pacific Oscillation (IPO).” According to LIU, the IPO is a robust, recurring pattern of sea surface temperature anomalies at decadal time scale. During a positive phase of IPO, the west Pacific and the mid-latitude North Pacific becomes cooler and the tropical eastern ocean warms, while during a negative phase, the opposite pattern occurs. The IPO has shifted from the positive phase to negative phase since 1998/1999, and this transition has led to the weakening of both Hadley Circulation and Walker Circulation, which served as a hub linking the three processes mentioned above. 

 “Though the heat capacity of the atmosphere is nearly negligible compared with the ocean”, said ZHOU, the corresponding author of the paper, “understanding the atmospheric footprint is essential to gain a full picture of how internal climate variability such as IPO affects the global climate from the surface to the troposphere. The new findings also provide useful observational metrics for gauging climate model experiments that are designed to understand the mechanism of global warming hiatus”.   

Citation: Liu, B. & Zhou, T. Atmospheric footprint of the recent warming slowdown. Sci. Rep. 7, 40947 (2017).

Mit anderen Worten: Der Hiatus wurde durch die Ozeanzyklen ausgelöst. Konnte man übrigens bereits 2012 in unserem Buch “Die kalte Sonne” nachlesen. Vielleicht kommt die Message demnächst sogar in Potsdam an.

Am 15. April 2017 erschien dann noch ein weiteres Paper zum Thema. Oka und Watanabe erläuterten in den Geophysical Research Letters, dass die gebremste Erwärmung mit der Ozeanzyklik im Pazifik zu tun habe:

The post-2002 global surface warming slowdown caused by the subtropical Southern Ocean heating acceleration
The warming rate of global mean surface temperature slowed down during 1998–2012. Previous studies pointed out role of increasing ocean heat uptake during this global warming slowdown, but its mechanism remains under discussion. Our numerical simulations, in which wind stress anomaly in the equatorial Pacific is imposed from reanalysis data, suggest that subsurface warming in the equatorial Pacific took place during initial phase of the global warming slowdown (1998–2002), as previously reported. It is newly clarified that the Ekman transport from tropics to subtropics is enhanced during the later phase of the slowdown (after 2002) and enhanced subtropical Ekman downwelling causes accelerated heat storage below depth of 700 m in the subtropical Southern Ocean, leading to the post-2002 global warming slowdown. Observational data of ocean temperature also support this scenario. This study provides clear evidence that deeper parts of the Southern Ocean play a critical role in the post-2002 warming slowdown.


Der Geowissenschaftler Henry Lyatsky veröffentlichte am 7. März 2017 einen lesenswerten Aufsatz zur Logik des Klimawandels:


This scientific “truth” was drilled into me, a young geology undergrad    in Calgary, by esteemed professors in basic courses at the beginning of the 1980s. In the 1970s the media were abuzz with global-cooling scares. Cooling was supposedly a scientific fact. Thankfully, the old fears of an impending new ice age have so far proved unfounded. But now, global warming has replaced the global-cooling craze. This article is not, by any means, a final word. I am neither a climatolo- gist nor a logician. My purpose is to encourage the readers to explore scientific logic, to always be skeptical, to question the methods and the motives, and to always be ready to wonder and be surprised.


Natural science is empirical. Empiricism says knowledge is derived from what we can sense or observe. Knowledge is gained by passive observation of natural occurrences or by active, preferably controlled, experiments. Epistemology is the study of human knowledge. It deals with how we know things.Much philosophical ink has been spilled on these subjects over the past several millennia. Too much of that ink flowed uselessly, or it is irrelevant to the discussion at hand. Only a few key points are summarized below.Karl Popper (1950, 1968) was probably the past century’s foremost empirical philosopher. He taught that a legitimate scientific hypoth- esis must be falsifiable, i.e., capable of being disproved by subsequent observations or experiments. If a “theory rules out certain possible occurrences, … it will be falsified if these possible occurrences do in fact occur”.

Weiterlesen bei der CAGW


Kirchenkult gegen Klimawandel: Bischof segnet Eisbär

Kein anderes Tier wird von Klimaaktivisten so instrumentalisiert wie der Eisbär. Vor einigen Jahrzehnten ging es dem weißen Ursus richtig schlecht, da er im großen Maßstab gejagt wurde. Dann stieg die Population jedoch wieder steil nach oben, da die Jagd stark eingeschränkt wurde. Klimaaktivisten ignorieren diese Entwicklung. Sie behaupten, das schwindende arktische Meereis würde das Aus für den Eisbären bedeuten. Seltsam, denn vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmeperiode gab es bereits schon einmal eine Eisarmut, und der Eisbär hat gut überlebt. Dies hat wohl auch damit zu tun, weil der Eisbär ein vielseitiger Esser ist. Wenn die Robben fehlen, kann er auch bequem auf andere Nahrung ausweichen. Wir haben an dieser Stelle bereits vielfach darüber berichtet.

Nichtsdestotrotz hat der Eisbär bereits religiösen Kultstatus bei den wissenschaftsfernen Aktivistengruppen erreicht. Zum Beipiel bei den Katholiken (Meldungauf vom 15. Februar 2017):

Gegen den Klimawandel: Bischof segnet Eisbär
Um öffentlich auf die Folgen des Klimawandels aufmerksam zu machen, will der Freiburger Erzbischof Stephan Burger im Karlsruher Zoo einen Eisbären segnen. Tiere müssten als Mitgeschöpfe geachtet werden; Eisbären litten schon heute stark unter den steigenden Temperaturen.

Weiterlesen auf

Als nächstes werden wohl Gletscher und Schneewehen gesegnet.

Eine wissenschafliche Studie von Susan Crockford (University of Victoria, Kanada) untersuchte den behaupteten Zusammenhang von Eisschmelze und Eisbärpopulation. Das Ergebnis: Die Hypothese ist nach statistischer Prüfung der Daten nicht robust. Das hängt vielleicht auch damit zusammen, dass die arktische Eisbärpopulation von 2015 auf 2016 sogar leicht gestiegen ist. Daily Caller vom 16. Februar 2017:

Polar Bear Numbers Still On The Rise, Despite Global Warming
Polar bear populations are still growing despite global warming, according to new research. The new population estimates from the 2016 Scientific Working Group are somewhere between 22,633 to 32,257 bears, which is a net increase from the 2015 number of 22,000 to 31,000. The current population numbers are a sharp increase from 2005’s, which stated only 20,000 to 25,000 bears remained — those numbers were a major increase from estimates that only 8,000 to 10,000 bears remained in the late 1960s. Until the new study, bear subpopulations in the Baffin Bay and Kane Basin (KB) were thought to be in decline due to over-hunting and global warming. The new report indicates this is not the case.

Weiterlesen auf Daily Caller am 15. Februar 2017:

The 2016 Scientific Working Group report on Baffin Bay and Kane Basin polar bears was released online without fanfare last week, confirming what local Inuit have been saying for years: contrary to the assertions of Polar Bear Specialist Group scientists, Baffin Bay and Kane Basin subpopulations have not been declining but are stable.

 Quelle: Crockford, WUWT.



Siehe auch Beitrag von Helmut Kuntz “Ein Eisbär wird vom Erzbischof als Märtyrer des Klimawandels gesegnet” auf EIKE vom 24. März 2017.


Was steckt wirklich hinter Joachim Müller-Jungs Klimaskeptiker-Mobbing in der FAZ?

Anlässlich des diesjährigen Earth Day am 22. April 2017 ist die englische Ausgabe unseres Buches “The Neglected Sun” ist noch bis zum 24. April 2017 als Teil eines preislich stark reduzierten Bücherpakets im Heartland Store erhältlich. Preis des Pakets: US$ 22,18. Hier geht es zum Webshop.


Ein Leser schrieb uns:

“Es fällt mir immer mal wieder auf, dass Wettermoderatoren erst warme Tage bejubeln, vorher aber das Trauerlied der Erderwärmung gesungen haben. Normalerweise müssten solche und auch alle fest Gläubigen bei jedem Sommertag Depressionen bekommen. Bei jedem viel zu kalten Tag müssten sie Freudensprünge machen. Oder ist es etwa so, dass sie sich über warme Tage deswegen freuen, weil dann die Litanei voll durchgezogen werden kann? Ein Höhepunkt war einmal das Treffen in den Alpen, wo der Reporter den Glanzsatz brachte, das an diesem Tag besonders freundliche und warme Wetter könne Merkel als Steilvorlage dienen. Damals noch mit dem Klima-Aktivisten Obama wurden sogar Wahnsinns-Summen in Aussicht gestellt, Greenpeace & Co jubelten, Realisten merkten aber schnell die Unverbindlichkeit der ganzen Sache, wie es ja eigentlich auch für Paris gilt.”


Die Kirche macht sich ernsthafte Sorgen, dass es immer noch Zweifler am klimatischen Weltuntergangsszenario gibt. Wie könnte man diese Dummdenker nur bekehren und auf den tugendhaften Weg des unreflektierten Folgens zurückführen? Hierzu vom 3. April 2017:

Wie man Skeptiker des Klimawandels erreicht: Bischöfe und eine evangelikale Expertin mahnen
Der Klimawandel ein Märchen? Das meinen Entscheidungsträger der US-Regierung, und auch viele evangelikale Christen sehen keine Gefahr im Verzug, da Gott alles im Griff habe. Gegen solches Denken regt sich Widerstand.

Unterstützt wird die Kirche in ihrem Streben zu höherem Klimagehorsam von einem Klimaprediger aus Potsdam:

Stefan Rahmstorf, Klimaforscher am Potsdam-Institut für Klimafolgenforschung (PIK), warnt. “Schon jede Verzögerung, die er beim Klimaschutz bewirken könnte, wäre schlimm”, sagte der Ozeanograph mit Blick auf Trump in einem Interview der “Frankfurter Rundschau” (Montagsausgabe). Die Menschheit habe “sehr wenig Zeit”, um die Erderwärmung noch deutlich unterhalb von zwei Grad zu stoppen – wie im Pariser Abkommen vereinbart. Schon jetzt seien “Auswirkungen der Erderwärmung von etwa einem Grad” sichtbar, “die wir hinter uns haben”: deutlich mehr extreme Wetterereignisse.

Naja, das hängt von der CO2-Klimasensitivität ab, die wohl deutlich niedriger liegt als lange vom IPCC verkündet. Das sollte auch Rahmstorf irgendwann einmal einsehen. Bei heißt es weiter

Ein Beispiel sei der Jahrhundertsommer des Jahres 2003 mit Hitzerekorden von weit über 40 Grad Celsius, der in Europa 70.000 Menschenleben gefordert habe. Oder die schlimmste Dürre in der syrischen Geschichte, die es laut Rahmstorf in den Jahren 2007 bis 2010 gab. Damals verendete Vieh, Ernten fielen aus.

Da machen es sich die Schreiber zu leicht. Hitzesommer hat es immer schon gegeben, insbesondere während der Mittelalterlichen Wärmeperiode vor 1000 Jahren, als es aber noch keine Thermometer gab. Der Syrienbezug macht für Rahmstorf Sinn, um maximale Aufmerksamkeit in der Öffentlichkeit zu erhalten, ist aber fachlich eine Einzelmeinung (siehe “Deutsches Klimakonsortium pfeift Rahmstorf zurück: Klimawandel ist nur ein Treiber von vielen im Syrienkonflikt“).

Der Potsdamer Ozeanograph sieht aber noch eine weitere gravierende Folge des Klimawandels: Der Meeresspiegel steige weiter. “Wir sind dabei, den grönländischen Eispanzer zu destabilisieren, der allein genug Eis enthält, um den globalen Meeresspiegel um sieben Meter anzuheben”, sagte Rahmstorf.

Auch beim Grönlandeis ist viel künstliche Ansgtmache dabei:

In eine ähnliche Richtung geht ein Text von Joachim Müller-Jung in der FAZ vom 31. März 2017:

Wie erkläre ich’s meinem Kind? Wieso Klimaskeptiker mit ihrer Blindheit durchkommen

Studien ohne hundertprozentigen Wahrheitsanspruch lassen sie nicht gelten, und sie glauben nur, was zu ihrer eigenen Haltung passt: Auch wenn Klimaskeptiker in der Minderheit sind, ihr Einfluss ist enorm.

Heutzutage ändert sich das Klima und mit ihm die Umwelt auf unserem Planeten so schnell und radikal wie nie zuvor in der jüngeren Menschheitsgeschichte. Das ist unbestritten, die objektiven Messungen sind unanfechtbar. 97 von hundert Experten stimmen dem Befund zu. Eine kleine Minderheit von Fachleuten und Politikern weltweit weigert sich allerdings beharrlich das anzuerkennen.

Müller-Jung ist bekennender Klimaalarmist, der regelmäßig in der FAZ zu seinem Lieblingsthema mit erhobenem Zeigefinger schreibt. Er packt seinen Ärger gleich in den Titel: Klimatisch Andersdenkende verhielten sich wie dumme Kinder, wären sozusagen blind für Argumente. Dann unterläuft ihm gleich zu Beginn seines Textes ein böser Fehler: Nein, auch in der vorindustriellen Vergangenheit hat es schnelle Klimawechsel gegeben. Die Erwärmung des 20. Jahrhunderts ist gar nicht so einzigartig wie Müller-Jung glaubt. Hier scheint es bei ihm schlicht an historischem Klimawissen und Literaturbelesenheit zu fehlen.


Ein ganz maßgeblicher Grund, warum die Gegner der Klimapolitik ihre Zweifel am Köcheln halten und sich in der politischen Landschaft am Rand festgesetzt haben, ist die Informationsblase, in der sie sich bewegen. Sie verstärken ihre Ansichten, indem sie ihre Informationen aus immer denselben Quellen beziehen und sich in denselben Kreisen bewegen. Psychologen nennen das „Echoräume“. Die sorgen dafür, dass zusätzliche Informationen oder Fakten, die die Skeptiker widerlegen könnten, kaum zu ihnen vordringen. Sie glauben auch nur ganz bestimmten Wissenschaftsquellen, die sie allein für glaubwürdig halten.

Wieder liegt der FAZ-Journalist falsch. Wenn er sich einmal die Mühe gemacht hätte, im Kalte-Sonne-Blog zu stöbern, hätte er das breite Spektrum der hier zitierten Papers und wissenschaftlichen Pressemitteilungen vielleicht wahrgenommen. Die von uns angeführten Studien wurden in einer Vielzahl von Journals veröffentlicht, die von Nature Climate Science bis Climate of the Past reichen. Weshalb verbreitet Müller-Jung hier offensichtliche Fake-News? Was steckt hinter seiner einseitigen Berichterstattung zum Klimathema?

Auch in der Mitgliederzeitschrift Eos der American Geophysical Union haben Klimaalamisten am 30. März 2017 Platz eingeräumt bekommen:

Responding to Climate Change Deniers with Simple Facts and Logic
A sequence of five questions and answers that can be used by scientists to communicate some simple concepts of climate change to broader audiences.

Many of our colleagues, and concerned citizens, have asked how to respond to climate contrarians who claim that they don’t “believe” in climate change, or have fallen prey to disinformation publicized by those with vested interests in fossil fuels and related industries. In some cases, simple facts and logic can help such people understand the realities of the earth system and how it is responding (and will respond further) to anthropogenic perturbations such as greenhouse gas emissions.

However, there are many others for whom this approach proves ineffective. Holding a worldview that would seem anathema to any scientist, many of our fellow citizens do not use direct observation, evidence, or science in general, as their primary basis for decision-making. No amount of factual education can alter this worldview, and it has become clear that other means must be found to prevent this segment of the population from making self-harming decisions, whether induced by disinformation or otherwise.

Wie kann man die dummen Klimaskeptiker überzeugen, wenn sie von der bösen Industrie durch Fehlinformationen auf den falschen Weg gebracht werden? Logik und Argumente helfen nicht weiter, wenn Wissenschaft bei der Meinungsfindung keine Rolle spielt. Eine kühne These von Dork Sahagian in diesem Editorial. Hier im Kalte-Sonne-Blog geht es streng wissenschaftlich zu. Seltsamerweise geht jedoch kaum ein Alarmist auf unsere Argumente ein. Vielleicht weil unsere Punkte gar nicht so falsch sind und wir auf der richtigen Spur sind? Ab und zu poltert Stefan Rahmstorf öffentlich und äußert sich zu uns in seiner ihm eigenen Art und Weise. Meist liegt er damit dann aber so daneben, dass es wenig Aufwand bedarf, um seinen Gedankenweg als offensichtlichen Fehlschluss zu enttarnen.

Der Eos-Autor Dork Sahagian schlägt vor, das Thema in 5 Fragen abzuhandeln:

1.  Is climate changing?

Ja, das Klima hat sich in den letzten 150 Jahren geändert, so wie es sich in den letzten 10,000 Jahren stets geändert hat.

2. Do people have anything to do with it?

Ja, einen gewissen Einfluss hat das CO2, jedoch liegt die CO2-Klimasensitivität wohl am unteren Rand des vom IPCC genannten weiten Spektrums.

3. Is climate change bad?

Ja und nein. Einige Gegenden verlieren, andere profitieren.

4. Can we do anything about it?

Ja und nein. Wir können die CO2-Emissionen senken, um die moderate Erwärmung zu bremsen. Aber dies muss man nicht panikartig tun, ohne Rücksicht auf Verluste. Den natürlichen Klimawandel können wir nicht aufhalten. Bei der Unterscheidung der anthropogenen und natürlichen Komponenten müssen wir noch besser werden. Die Attribution steckt noch in den Kinderschuhen. Leider.

5. Is it worth doing anything about?

Ja, siehe Frage 4.

Sahagians eigene Antworten sind zum Teil bedenklich. In der Antwort zu Frage 2 scheint er doch tatsächich die gesamte Erwärmung der letzten 150 Jahre dem CO2 und anderen anthropogenen Faktoren zuzuschieben. Das steht nicht einmal im IPCC-Bericht in dieser Art und Weise, die bedeutende natürliche Anteile sieht. In der Antwort zu Frage 3 fehlt die Beobachtung, dass kalte Zeiten stets Probleme für Zivilisationen brachten, während Warmphasen oft mit Vorteilen einhergingen. Ein wirklich schwaches Eos-Editorial.


Die Sonne im März 2017 und eine ENSO-Nachlese

Von Frank Bosse und Fritz Vahrenholt

Der  Energiespender unseres  gesamten Sonnensystems war im letzten Monat besonders ruhig. Die mittlere Sonnenfleckenzahl (SSN=SunSpotNumber) lag bei  17,7 und dabei war die Sonne über ganze 16 Tage, davon 15 am Stück (vom 6. d.M. bis zum 20. d.M.) völlig fleckenfrei. Es sei nochmals daran erinnert, dass die SSN nicht einfach die Summe der beobachteten Flecken ist; vielmehr entsteht sie aus der Anzahl der Flecken multipliziert mit den 10-fachen der beobachteten Fleckenregionen. Wenn  ein einzelner Fleck in einer aktiven Region beobachtet wird ergibt dies eine SSN von 11.

Die mittlere SSN aller Zyklen für den vergangenen einhundertsten Zyklusmonat liegt bei 48,6 sodass die Sonnenaktivität nur 36% des Mittelwerts betrug.

Abb.1: Der aktuelle Sonnenzyklus (SC)24 (rot) im Vergleich zum Mittelwert der Zyklen 1…23 (blau) und dem zeitweise recht ähnlichen Zyklus 5 (schwarz) seit Dezember 2008 (Monat 1 des Zyklus).


Der Vergleich der Zyklen untereinander:

Abb.2: Die aufsummierten monatlichen Differenzen zwischen dem jeweiligen Zyklus und dem Mittelwert (blau in Abb.1).


Recht bemerkenswert: zwischen Zyklusmonat 75 und 100 gab es seit Beginn der Aufzeichnungen keinen weniger aktiven Zyklus als den jetzigen. Im stark abfallenden Teil (vgl. die blaue Kurve in Abb.1)  ist SC24 der Rekordhalter in geringer Aktivität. Für die gesamte bisherige Länge steht er auf einem gesicherten  drittletzten Platz. Lediglich die Zyklen 5 und 6 (Dalton-Minimum) haben (noch) Rückstand.

Im Vergleich zur Zeitspanne 1930..2000 ist das ein herber Absturz. Glättet man die SSN-Zahlen über 4 Zyklen so stellt sich die Aktivität seit Beginn der systematischen Aufzeichnungen so dar:

Abb.3: Die mit einem Loess- Filter 44-jährig geglätteten SSN-Zahlen des SIDC (orange) und der Mittelwert seit 1700 (braun). In Amplitude und Zeitdauer waren die Jahre 1930…2000 die mit der aktivsten Sonne seit 300 Jahren. Der Absturzgradient seit Ende der 90er Jahre ähnelt dem des Dalton Minimums Ende des 18. Jahrhunderts.


Mit einem Auge schielen wir übrigens immer wieder auf die Entwicklung der solaren polaren Felder. Ihre Stärke ist ja in diesem fortgeschrittenen Stadium des Zyklus schon ein Fingerzeig auf die Aktivität den kommenden SC25.  Im Vergleich zu den Dezember-Daten  (wir hatten hier darüber ausführlicher berichtet) hat sich nicht viel getan bis Ende März. Wir bleiben bei unserer Prognose des letzten Monats:  Der kommende Zyklus könnte nochmals ca. 1/3 schwächer werden als der aktuelle SC24.

Was passiert wenn die Sonne immer stärker strahlt wie es unweigerlich langfristig kommen wird? Die Effektivität der thermonuklearen Reaktion im Sonnenkern nimmt mit der Lebendsauer zu und über lange Zeiträume ist die „Solarkonstante“ von momentan ca. 1362 W/m² bei mittlerem Erdabstand nicht konstant sondern wächst an. Hiermit beschäftigten sich mehrere Arbeiten, die das Geschehen in unserem Klimasystem simulierten. Eine recht aktuelle Studie kommt zu folgenden Ergebnissen: Bis in etwa 1,3 Mrd. Jahren (also  kein Alarm nächste Woche!) passiert nicht viel, es wird recht langsam immer wärmer, die Sonne gewinnt ca. 12% an Leistung im Vergleich zu heute.  Das führt schließlich zu einem zusätzlichen Sonnenantrieb des Klimasystems von wirksamen  41 W/m². (Zum Vergleich: eine CO2- Verdopplung führt nach bisherigen  Erkenntnissen zu einem Antrieb durch Reduktion der Wärmeabstrahlung  von 3,8W/m², etwa 9%.)  Danach wird wohl das Klimasystem in einen neuen Modus schalten, es wird recht schnell im Mittel ca. 20 °C wärmer auf der Erde. Das ist jedoch nicht das Ende allen Lebens, es wird weiterhin Wasser in flüssiger Form geben und das Klima stabilisiert sich auf diesem hohen Temperaturniveau. Gewinnt die Sonne weitere 10% an Leistung hinzu, kommt es dann zum schnellen Verlust allen Wassers in den Weltraum. Das wird in etwa 2,1 Mrd. Jahren der Fall sein.  Spätestens danach wird es kein Leben mehr geben auf der Erde, wie wir es kennen. Erst weitere 4 Mrd. Jahre später wird die Sonne wohl die dann trockene und verwüstete Erde  verschlingen wenn sie sich zum roten Riesen aufbläht. Kein Grund zum Pessimismus also heute! Und nicht vergessen: bis dahin wird es auf absehbare Zeiten wohl alle etwa hunderttausend Jahre eine Eiszeit geben wie in der Vergangenheit. Auch wenn es der Mensch schaffen sollte den CO2- Anteil in der Atmosphäre zu verdoppeln, so wird er die Erde nicht in eine Venus verwandeln, hierfür  wäre ein zusätzlicher Antrieb von 72W/ m² notwendig.


Eine ENSO- Nachlese

ENSO, das ist die „ElNino Southern Oscillation“ und man unterscheidet positive Phasen (gemeinhin  ElNino genannt) und negative Phasen namens LaNina. Ist der Wert irgendwo dazwischen, spricht man von ENSO-neutralen Bedingungen. Die Grenzen sind reichlich willkürlich, die NOAA ruft  einen ElNino aus, wenn die Temperaturabweichungen vom Mittelwert in einem Seegebiet  5°S…5°N; 120°W…170°W (auch Nino 3,4 genannt) des äquatorialen Pazifiks in drei aufeinander folgenden Monaten im Mittel höher als +0,5°C sind. Das klingt nach viel Statistik und wenig Physik, denn jedes ENSO- Ereignis unterscheidet sich im Detail von allen anderen unabhängig davon, ob es ElNino genannt wird oder nicht. Die Frage im Zusammenhang mit der Wirkung auf die globalen Temperaturen ist ja: Wie viel Wärme wurde durch ein Ereignis in die Atmosphäre eingebracht? Eine sehr aufschlussreiche aktuelle Arbeit der Autoren  Shineng Hu und Alexey Fedorof von der Yale Universität New Haven untersuchte diese Frage und kam zum Ergebnis: Die Energiemenge während des sehr langgezogenen Ereignisses in 2014/15/16 (obwohl es nicht über die gesamte Länge offiziell als ElNino bezeichnet wird, s.o.) hatte ungefähr die doppelte Größe gegenüber dem vorletzten Ereignis  1997/1998. Quantitativ bildeten die Autoren es so ab:


Abb.4: Die Anomalie des Energieflusses  vom tropischen pazifischen Ozean in die Atmosphäre (in W/m²) während 2014/15/16 (links) und 1996/97/98 (rechts). Quelle: Bild 1c und f der zitierten Arbeit)


Der Eintrag während des „Hauptereignisses“ im Nino 3,4- Bereich war Mitte 97 bis Mitte 98 etwas höher als beim aktuellen Ereignis, die „fast ElNino- Bedingungen“ in 2014 bis Mitte 2015 sowie die deutlich stärkere Freisetzung von Wärme auch weiter westlich von 170°W sorgten jedoch dafür, dass in Summe der Energiefluss etwa  doppelt so groß war. Wir wollen die Auswirkungen auf die globalen Temperaturen  2013…März 2017 deutlich machen:

Abb. 5: Die globalen Temperaturanomalien an der Oberfläche ( GISS, HadCRUT4, beide bezogen auf 1981…2010) und in der Troposphäre ( RSS, UAH, beide mit unterschiedlichen Referenzperioden, daher der optisch hilfreiche Versatz).


Schön ist zu sehen, dass etwa ab Herbst 2014 -es gibt eine Verzögerung der ENSO-Wirkung auf die globalen Temperaturen- eine deutliche Aufwärtsbewegung einsetzte, die auch die Freisetzung von Wärme durch das langandauernde ENSO- Ereignis (vgl. Abb.4 links) abbildet. Nach dem Peak (ebenfalls verzögert) sind die Troposphären- Temperaturen inzwischen  wieder da angekommen wo sie in 2013 waren, vor dem ENSO- Ereignis. Die Oberflächentemperaturen sind durch den hohen eingehenden Ozeananteil von ca. 70% naturgemäß träger. GISS vollführte im Februar und März nochmals einen Hüpfer, es sollte nun auch hier weiter abkühlen.   Beim letzten ENSO- Ereignis 1998 half dabei eine LaNina, sie wirkt stärker kühlend auf  die globalen Temperaturen. Sie ist im letzten Jahr praktisch ausgefallen,  daher geht alles langsamer nach unten als 1998/99. Wir werden sehen, wie sich die Temperaturen weiter entwickeln, recht wahrscheinlich wissen wir im Sommer mehr. Wir halten Sie auf dem Laufenden!


Keine Zeit für unbequeme Fragen: Karsten Schwanke trifft Hartmut Graßl

Vom Klimawandel hat der Großteil der Bevölkerung die Nase gestrichen voll. Das wissen auch die Fernsehmacher und wollen nicht riskieren, die Stamm-Zuseher in den großen Standardkanälen zu verprellen. Zum Glück gibt es Nischensender wie den ARD-Bildungskanal Alpha. Am 26. März 2017 traute man den bildungshungrigen Zusehern einen 43-minütigen Interviewmarathon mit Hartmut Graßl zu, dem bayerischen Altmeister des Klimaalarms. Sein ehemaliger Student Karsten Schwanke freute sich, mit seinem ehemaligen Prof zu fachsimpeln. Der heutige Fernsehmeterologe fertigte damals sogar seine Diplomarbeit in Meteorologie bei Graßl an. Nun wird plötzlich klar, weshalb Schwanke im Fernsehen El-Nino-getränkte Temperaturkurven von Stefan Rahmstorf präsentierte, lange nachdem der El Nino wieder abgeflaut war. Das Video gibt es bis zum 26. März 2018 online in der ARD-Mediathek anzuschauen.  Danach auch auf Youtube. In der Programmankündigung heißt es:

Karsten Schwanke trifft Prof. Dr. Hartmut Graßl, Klimaforscher
Karsten Schwanke trifft führende Wissenschaftler zum Gedankenaustausch auf seinem Hausboot. Woran arbeiten die Forscher, was sind ihre größten Herausforderungen, was treibt sie an? In einem sehr persönlichen Gespräch lernen wir faszinierende Forschungswelten, aber auch den Menschen hinter der Wissenschaft kennen.

Graßl beginnt etwas hölzern, geht nicht auf Schwankes Eingangsfrage ein, sondern denkt sich lieber selber ein Thema aus. Er brauchte etwas Aufwärmzeit. Wie kam er mit dem Klimawandel in Kontakt? Es war 1960, als er im 1. Semester von seinem ehemaligen Professor an der Uni München, Fritz Möller, angefixt wurde. Der kam gerade von einem Sabbatical aus den USA, wo er den Amerikanern erklärt hatte, dass eine Verdopplung des CO2-Gehalts eine Klimaerwärmung von 3-5°C bewirken würde. An dieser Stelle hätte Schwanke unbedingt eingreifen müssen, denn diese Spanne ist deutlich höher, als vom IPCC genannt. Offiziell geht man heute von 1,5-4,5°C Erwärmung pro CO2-Verdopplung aus. Der beste Schätzwert dürfte heute deutlich unter 3°C liegen. Das haben übrigens Kollegen des Max-Planck-Instituts herausgefunden, an dem er früher selber Direktor war. Graßl nutzt die Chance zum unwidersprochenen Alarmismus. Sein ehemaliger Diplomand hat offenbar nicht den Mumm, ihn mit unbequemen Fragen zu konfrontieren.

Dann geht es um das berühmte Spiegel-Titelbild mit dem überfluteten Kölner Dom von 1986. Graßl räumt ein, dass die Story natürlich Schrott war. Immerhin. Wir lernen, dass Graßl selber die Gründung des PIK vorgeschlagen hatte, Deutschlands Klimaalarmschmiede Nummer 1. Wir lernen, dass Alarmist Graßl 1988 der einzige deutsche Vertreter beim IPCC war. Im Interview freut er sich diebisch, dass er schon damals “drakonische Maßnahmen” gefordert hatte, als noch kaum etwas wissenschaftlich klar war. Schwanke verzieht das Gesicht, dies ist ihm dann doch etwas unheimlich. Graßls Spezielgebiet der atmosphärischen Physik war ihm schon immer zu klein. Stets wollte er große Politik machen und hat die drastische Klimalinie der deutschen Politik über Jahrzehnte hinweg geprägt. Einen ausgleichenden Gegenspieler scheint es nie gegeben zu haben, geeignete Kandidaten wurden weggebissen, was höchst bedauerlich ist.

Hartmut Graßl zeigt sich grundweg zufrieden mit dem Pariser Klimabkommen. Dabei unterläuft ihm bei 17:45 min ein echter Klopper. Er behauptet, das Paris Agreement würde anstreben, die Erwärmung im 21. Jahrhundert um maximal 1,5°C zu begrenzen. Das ist Quatsch, denn die 1,5 Grad beziehen sich auf das vorindustrielle Niveau, also 1850-1900. Die Hälfte der erlaubten Erwärmung haben wir schon erlebt. Ein nicht unbedeutender Teil davon ist natürlichen Ursprungs, denn das Basisniveau stellt das Ende der Kleinen Eiszeit dar. Schwanke schweigt zu Graßl’s unsauberer Formulierung und auch zum natürlichen Anteil an der Erwärmung des 20. Jahrhunderts. Ein unbequemes Thema. Durch Graßls Auslassungen sieht die Lage viel dramatischer aus, als sie in Wirklichkeit ist. Er will die Schaffung von CO2-Senken, und das sofort!

Bei Minute 19:00 spricht Schwanke das Thema Temperaturprognosen an. Vermutlich hatte er gelesen, dass Graßls Prognose aus dem  Jahr 1990 meilenweit über das Ziel hinausschoß. Wieder findet Schwanke nicht den Mut, Graßl mit dem Fehlschlag zu konfrontieren. Oder wurde der Teil später rausgeschnitten? Graßl mag das Thema nicht. Er behauptet schnell, die Langzeitprognosen wären gar nicht so wichtig. Vielleicht weil er selber so schlimm daneben lag? Er vergisst dabei, dass die Temperaturlangzeitprognosen das Herzstück der IPCC-Berichte ausmachen. Nicht so wichtig? Viel wichtiger wäre laut Graßl, das kommende Jahrzehnt korrekt in den Griff zu bekommen, herauszufinden ob es sich abkühlen oder erwärmen wird. Der Erwärmungshiatus hat Graßl offenbar kalt erwischt. Er erläutert, dass große Forschungsinstitute üppige Förderung bekommen hätten, um dies nun endgültig zu erforschen. Ist diese vorsichtige Antwort vielleicht sogar eine Folge der Kalten-Sonne-Diskussion? Graßl gibt zu, dass es eine bedeutende natürliche Variabilität gibt, räumt ein, dass es in der Klimawandelforschung noch große Fragezeichen gibt. Keine Spur von “The science is settled”.

Graßl erläutert: “Alles was wir bei den Modlelen bisher gemacht haben, ist reine Physik – und die ist in Ordnung”. Der Nachsatz klingt wie ein Stoßgebet: Bitte, bitte, laß die Physik in Ordnung sein. Er hat Grund dazu, denn keines der zuvor so hochgelobten physikalischen Modelle hatte den Hiatus kommen sehen, kläglich haben sie alle versagt. Hierzu kein Wort. Schwanke fragt, ob es schon gute regionale Klimamodelle gäbe, die verlässlich die Klimaentwicklung für Deutschland vorhersehen könnten. Eine gute Frage, denn es ist allseits bekannt, dass die Regionalmodelle noch überhaupt nicht gut funktionieren. Graßl wittert die Falle und antwortet geschickt: Die Regionalmodelle wären gut, wenn es gute globale Modelle gäbe. Und hier müssen die Forscher erst die schlechten Modelle eliminieren, um die guten dann gezielt weiterzuverfolgen. Oder anders ausgedrückt: Es gibt weder gute globale, noch gute regionale Modelle. Für Graßl ist es viel zu gefährlich, dies offen einzuräumen, deshalb das komplizierte Konstrukt.

Bei Minute 22:20 flunkert Graßl dann endgültig. Er behauptet, die Modelle würden angeblich mit der Beobachtung übereinstimmen. Dies ist falsch. Der IPCC hat dies selber im 5. Bericht eingeräumt. Die Modelle können die Mittelalterliche Wärmeperiode nicht nachvollziehen. Die Natur hält sich nicht an die physikalischen Modellvorgaben. Graßl umgeht das Problem, indem er nur über das 20. Jahrhundert spricht. Das ist natürlich viel zu kurz, um Modelle zu validieren. Das weiß auch Schwanke, der dazu jedoch schweigt. Ein Buddy-Interview. Anstatt mit Fakten, versucht Graßl mit klimareligiösen Methoden für seine Klimamodelle zu werben. Man müsse einfach Vertrauen in sie haben. Naja, weder haben sie den Hiatus des frühen 21. Jahrhunderts hinbekommen, noch die Wärme vor 1000 Jahren simulieren können. Wieviele Fehlschläge braucht es noch, um die Modelle sytematisch von unabhängiger Seite auf Herz und Nieren prüfen zu lassen? Stichwort: Red Team.

Bei Minute 30:00 geht es um die natürliche Klimavariabilität der letzten 3 Milliarden Jahre, die sich in der engen Spanne von 20-10°C globaler Mitteltemperatur abspielte. Schwanke fragt, wie das Klimasystem der Erde dies schaffen konnte, gibt es vielleicht einen dämpfenden Mechanismus, der Extreme verhindert? Graßl ist das Thema unangenehm. Da könnte man ja fast auf die Idee kommen, dass es auch heute solch einen Schutzmechanismus geben könnte. Er spielt den Joker und verweist auf aktuelle Forschungsanstrengungen. Graßl fährt seine harte Linie unbeirrt von den Fakten einfach weiter. Weshalb traut sich niemand, ihn mit der Wahrheit zu konfrontieren?


Mojib Latif bedauert, dass CO2-Gehalt der Luft nicht wie vergiftete Lebensmittel wirkt

Red Teams” sind Expertengruppen, die Ergebnisse anderer Teams unabhängig prüfen. In der Wirtschaft ist dies ein gängiges Verfahren, um Fehlerquellen auszuschließen. In den USA werden nun Stimmen laut, auch in den Klimawissenschaften Red Teams zu formieren, um strittige Punkte der Klimadebatte zu überprüfen. berichtete am 30. März 2017:

Experts call for creation of ‘red teams’ to challenge climate science

Prominent scientists operating outside the scientific consensus on climate change urged Congress on Wednesday to fund “red teams” to investigate “natural” causes of global warming and challenge the findings of the United Nations’ climate science panel.

The suggestion for a counter-investigative science force – or red team approach – was presented in prepared testimony by scientists known for questioning the influence of human activity on global warming. It comes at a time when President Donald Trump and other members of the administration have expressed doubt about the accepted science of climate change, and are considering drastic cuts to federal funding for scientific research.

A main mission of red teams would be to challenge the scientific consensus on climate change, including the work of the United Nations’ Intergovernmental Panel on Climate Change, whose reports are widely considered the authority on climate science.

Weiterlesen auf


Die Arizona State University berichtete am 1. März 2017 über antarktische Hitze-Temperaturrekorde. Überrasschenderweise kommt der Rekord nicht aus dem aktuellen Jahr, oder dem aktuellen Jahrzehnt, sondern stammt aus dem Jahr 1982:

World Meteorological Organization verifies highest temperatures for Antarctic region

ASU climate expert, WMO rapporteur talks about importance of such verification

The World Meteorological Organization announced Wednesday new verified, record high temperatures in Antarctica, an area once described as “the last place on Earth.” The temperatures range from the high 60s (in Fahrenheit) to the high teens, depending on the location they were recorded in Antarctica. Knowledge and verification of such extremes are important in the study of weather patterns, naturally occurring climate variability and human-induced change at global and regional scales, said Randy Cerveny, an Arizona State University professor of geographical science and urban planning and the Rapporteur of Climate and Weather Extremes for the WMO. “The temperatures we announced today are the absolute limit to what we have measured in Antarctica,” Cerveny said. “Comparing them to other places around the world and seeing how other places have changed in relation to Antarctica gives us a much better understanding of how climate interacts, and how changes in one part of the world can impact other places.”  Because Antarctica is so vast (it is roughly the size of the United States) and varied the WMO committee of experts, convened by Cerveny, provided three temperature measurements for the Antarctic.

The highest temperature for the “Antarctic region” (defined by the WMO and the United Nations as all land and ice south of 60-deg S) of 19.8 C (67.6 F), which was observed on Jan. 30, 1982, at Signy Research Station, Borge Bay on Signy Island. The highest temperature for the Antarctic Continent, defined as the main continental landmass and adjoining islands, is the temperature extreme of 17.5 C (63.5 F) recorded on Mar. 24, 2015 at the Argentine Research Base Esperanza located near the northern tip of the Antarctic Peninsula. The highest temperature for the Antarctic Plateau (at or above 2,500 meters, or 8,200 feet) was -7 C (19.4 F) made on Dec. 28, 1980, at an automatic weather station site D-80 located inland of the Adelie Coast.

The Antarctic is cold, windy and dry. The average annual temperature ranges from -10 C on its coasts to -60 C (14 F to -76 F) at the highest points in the interior. Its immense ice sheet is about 4.8 km (3 miles) thick and contains 90 percent of the world’s fresh water, enough to raise sea levels by around 60 meters (200 feet) if it were all to melt. Cerveny said that observing the extremes of what the Polar Regions are experiencing can provide a better picture of the planet’s interlinked weather system. “The polar regions of our planet have been termed the ‘canary’ in our global environment,” Cerveny said. “Because of their sensitivity to climate changes, sometimes the first influences of changes in our global environment can be seen in the north and south polar regions. Knowledge of the weather extremes in these locations therefore becomes particularly important to the entire world. The more we know of this critically important area to our environment, the more we can understand how all of our global environments are interlinked.”  Cerveny said an additional benefit is understanding how those extremes were achieved. “In the case of the Antarctic extremes, two of them were the result of what are called ‘foehn’ winds — what we call Chinook winds — very warm downslope winds that can very rapidly heat up a place. These winds are found even here in the United States, particularly along the front range of the Rockies. The more we learn about how they vary around the world, the better we can understand them even here in the United States. Full details of the Antarctic high temperatures and their assessment are given in the on-line issue of Eos Earth and Space Science News of the American Geophysical Union, published on March 1, 2017.


Auch der Dauervortragende Mojib Latif braucht einmal Erholung. Dafür schiffte er sich (vermutlich) kostenfrei Ende Februar 2017 an Bord der AIDAsol ein, wo er als Klimageschichtenerzäher vor den Kanaren das Kreuzfahrtpublikum mit Klimaalarm-Stories unterhaltsam gruselte. Latif genoss die Freifahrt laut Pressemitteilung sichtlich:

“Ich fühle mich sehr willkommen an Bord. Ich möchte den Gästen verdeutlichen, wie einmalig unsere Erde ist. Wir müssen anders auf unserem Planeten leben und es schaffen, intelligenter mit den begrenzten Ressourcen umzugehen”, so Latif. Für AIDA Gäste gibt es 2017 erneut sehr abwechslungsreiches Entertainment auf See zu erleben. Nicht nur das Schiff und die Destinationen prägen den Urlaub einer AIDA Kreuzfahrt, sondern auch das mehrfach preisgekrönte Entertainmentprogramm an Bord. Weit mehr als 20 prominente Moderatoren, Schauspieler und Bestseller-Autoren aus Film, Fernsehen und Theater werden 2017 an Bord mit ihren unterhaltsamen und spannenden, lustigen und bewegenden Lesungen begeistern. Darunter befinden sich unter anderem TV-Moderatorin Bettina Tietjen, die preisgekrönte Kriminal- und Drehbuchautorin Elisabeth Hermann, Bestsellerautorin und Sängerin Hera Lind und NDR Talkshow-Moderator und Produzent Hubertus Meyer-Burkhard.

“Lustig” ist Latif auf jeden Fall. Vor Schülern des Karl-Maybach-Gymnasiums in Friedrichshafen hatte er ein paar Tage vor dem Ablegen der Aida offenbar gesagt, er bedauere, dass der CO2-Gehalt der Luft nicht wie vergiftete Lebensmittel wirke. Damit hat sich Latif selbst endgültig disqualifiziert. Ein Fall für den Schulrat!


Neues zum Dokumentarfilm “The Uncertainty Has Settled”. Der Film kommt nun im Selbstverleih in deutsche Kinos. Hier eine Liste der bislang terminierten Vorstellungen (es kommen ständig neue hinzu, siehe hier):

Stendal, 19.4. – 20:00h & 23. 4.-11:00h

Köln, 26.4. – 19:45h

Lauterbach/Hessen, 29.4. – 20h

Potsdam, 30.4. – 20:45


Klimawandel führt nicht zu Winterextremen

Postdamer Wissenschaftler waren sich so sicher: Der Rückgang des arktischen Meereises verursacht kalte Winter in Mitteleuropa! Die Zeitungen druckten es begierig. Das der Bundesregierung nahestehende PIK-Institut bürgte für die Qualität der Information. Leider sahen es die meisten Fachkollegen ganz anders und lehnten die Postdamer Idee grundweg ab. Zuletzt äußerte sich die University of Exeter zur Thematik und schrieb am 28. Februar 2017 die wichtigste Erkenntnis gleich in den Titel einer Pressemitteilung:

Declining Arctic sea ice does influence European weather – but is not a cause of colder winters

The dramatic loss of Arctic sea ice through climate change is unlikely to lead to more severe winter weather across Northern Europe, new research has shown.

A pioneering new study has explored how Arctic sea-ice loss influences the North Atlantic Oscillation (NAO) weather phenomenon, which affects winter weather conditions in Northern Europe, in places such as the UK, Scandinavia and the Baltic states. Previous studies have suggested that Arctic sea-ice loss causes the NAO to spend longer in its ‘negative phase’ – generating more easterly winds that bring colder air from Scandinavia and Siberia to the UK. This might be expected to cause more frequent cold winters, such as the deep freeze experienced in the UK in the winter of 2009/2010.

However the new study, carried out by Dr James Screen from the University of Exeter, crucially suggests that Arctic sea-ice loss does not cause colder European winters. Dr Screen suggests this surprising result is due to a ‘missing’ cooling response – meaning that the expected cooling brought about by more easterly winds is offset by the widespread warming effects of Arctic sea-ice loss. The study is published in leading science journal, Nature Communications. Dr Screen, a Senior Lecturer in Mathematics at the University of Exeter said: “We know that the NAO is an important factor in controlling winter weather over Northern Europe”. “The negative phase of the NAO is typically associated with colder winters. Because of this it has been reasonable to think that we would experience more severe winter weather if Arctic sea-ice loss intensifies the negative phase of the NAO”.

“This research indicates that although sea-ice loss does intensify the negative NAO, bringing more days of cold easterly winds, it also causes those same winds to be warmer than they used to be. These two competing effects cancel each other out, meaning little change in the average temperature of European winters as a consequence of sea-ice loss”. The NAO phenomenon describes large-scale changes in atmospheric wind patterns over the North Atlantic. Importantly, the NAO relates to changes in the strength and position of the North Atlantic jet stream – a band of very fast winds high in the atmosphere. The position of the jet stream has a substantial impact on weather in Northern Europe. Using the sophisticated UK Met Office climate model, Dr Screen conducted computer experiments to study the effects of Arctic sea-ice loss on the NAO and on Northern European winter temperatures.

Dr Screen added: “Scientists are eager to understand the far-flung effects of Arctic sea-ice loss. On the one hand this study shows that sea-ice loss does influence European wind patterns. But on the other hand, Arctic sea-ice loss does not appear to be a cause of European temperature change, as some scientists have argued.” The missing Northern European winter cooling response to Artic sea ice loss by Dr James Screen is published in Nature Communications. It was funded through a grant by the Natural Environment Research Council (NERC).

Bereits 2015 verwies die ETH Zürich das Postdamer Winter-Konstrukt in das Land der Fabeln. In einer Pressemitteilung vom 30.3.2015 heißt es:

Klimawandel führt nicht zu Winterextremen

Kältewellen, wie sie im Osten der USA in den letzten Wintern auftraten, sind keine Folge des Klimawandels. Wissenschaftler der ETH Zürich und des California Institute of Technology zeigen, dass die Temperaturvariabilität unter der globalen Erwärmung allgemein eher abnimmt.

Die letzten beiden Winter brachten bittere Kälte über den Osten der USA. Über mehrere Wochen fielen die Temperaturen weit unter den Gefrierpunkt, und auf dem Lake Michigan vor Chicago trieben Eisschollen. So niedrige Temperaturen waren in den letzten Jahren selten geworden. Bilder von vereisten und schneebedeckten Städten gingen um die Welt und mit ihnen die Frage, ob der Klimawandel für diese Extremereignisse verantwortlich sei.

Ins Feld geführt wurde das Argument, dass sich die Arktis in den letzten Jahrzehnten stärker als andere Regionen erwärmt hat und dies den polaren Jetstream abgeschwächt haben sollte. Der polare Jetstream ist ein Starkwindstrom in mehreren Kilometern Höhe, der von den Temperaturunterschieden zwischen den heissen Tropen und den kalten Polarregionen angetrieben wird. Einer Hypothese nach soll ein schwächerer Jetstream grössere Wellen schlagen und so zu grösseren Temperaturausschwankungen in mittleren Breiten führen. Damit wäre die verstärkte Erwärmung der Arktis für die extremen Kältewellen, wie sie im Osten der USA in den letzten Wintern auftraten, mitverantwortlich.

Spannbreite der Temperatur wird abnehmen

Wissenschaftler um Tapio Schneider, Professor für Klimadynamik der ETH Zürich, kommen zu einem anderen Schluss. Sie zeigen anhand von Simulationen und mit theoretischen Argumenten, dass die Spannbreite der Temperaturschwankungen an den meisten Orten abnehmen wird, wenn sich das Klima erwärmt. Es wird also nicht häufiger, sondern seltener zu extrem niedrigen Temperaturen kommen. Das schreiben die Wissenschaftler der ETH Zürich und des California Institute of Technology in der aktuellen Ausgabe des Journal of Climate. Hinzukommt, dass kalte Tage künftig ohnehin seltener werden, weil sich das Klima erwärmt.

Ausgangslage der Arbeit war, dass sich die höheren Breiten tatsächlich schneller erwärmen als die tieferen, und deshalb der Temperaturunterschied zwischen Äquator und Pol abnimmt. Stellt man sich nun vor, dass es diesen Temperaturunterschied überhaupt nicht mehr gäbe, dann würde das bedeuten, dass auch die Luftmassen die gleiche Temperatur hätten, egal ob sie von Süden oder von Norden strömen. Es gäbe theoretisch keine Temperaturvariabilität mehr. Ein solcher Extremfall wird nicht eintreffen, erklärt aber den theoretischen Ansatz der Wissenschaftler.

Extreme werden seltener

Mit einem stark vereinfachten Klimamodell untersuchten sie verschiedene Wetterszenarien und überprüften so die Theorie. Es zeigte sich, dass die Temperaturvariabilität in mittleren Breiten und somit auch in Nordamerika tatsächlich sinkt, je weniger sich die Temperaturen von Pol und Äquator unterscheiden. Auch die Simulationen mit den Klimamodellen des Weltklimarats IPCC zeigten ähnliche Resultate: In den mittleren Breiten nehmen die Temperaturunterschiede und mit ihnen die Temperaturvariabilität ab, ganz besonders im Winter.

Die Extreme werden also seltener, wenn sich die Varianz verringert. Das bedeutet aber nicht, dass es künftig zu gar keinen Temperaturextremen kommt. «Ausserdem wird es in Zukunft trotz der geringeren Temperaturvarianz zu mehr extrem warmen Perioden kommen, denn die Erde wird sich mit dem Klimawandel grundsätzlich erwärmen», erklärt Schneider. Die Wissenschaftler beschränkten sich in ihrer Arbeit auf die Entwicklung der Temperatur. Für andere extreme Ereignisse wie Stürme oder heftige Regen- und Schneefälle können die ETH-Forscher daher keine Entwarnung geben.

Nord-Süd-Verschiebung macht den Unterschied

Und der Jetstream? Der Klimawissenschaftler winkt ab. «Die Auslenkungen des Jetstreams ändern sich wenig.» Vielmehr bringe der Nord-Süd Unterschied der Temperaturen und die Verschiebung der Luftmassen die Temperaturunterschiede.

Was diese Resultate für Europa bedeuten, will Tapio Schneider in weiteren Studien untersuchen. Unter anderem will er der Frage nachgehen, ob Hitzewellen in Europa mit sogenannten «geblockten Zyklonen» zusammenhängen und herausfinden, weshalb solche Wirbel an einem Ort stehenbleiben und wie sie sich mit dem Klima ändern. Das Forschungsprojekt wurde unterstützt von der U.S. National Science Foundation.

Literaturhinweis: Schneider T, Bischoff T, Plotka H. Physics of Changes in Synoptic Midlatitude Temperature Variability. Journal of Climate, 15. März 2015, doi:10.1175/JCLI-D-14-00632.1

Letztendlich war die Potsdamer Erklärung eher eine Art Repair-Patch um die kalten Winter vor einigen Jahren zu erklären, die so gar nicht zum Erzählmuster der Klimaerwärmung passten. Da die Winter nun wieder wärmer geworden sind, ärgert man sich vielleicht am PIK sogar ein wenig, dass man sich mit dem Eismodell so in die fachlichen Nesseln gesetzt hat. Trotzdem hat sich der Einsatz wohl gelohnt. Die Presse hat es bereitwillig abgedruckt und verliert nun über den eigentlichen Fachkonsens keinen Mucks. Zu groß ist offenbar die Gefahr, dass Journalisten als Copy-Paste-Experten ebenfalls an Glaubwürdigkeit verlieren könnten. Die Idee war aber auch zu komisch: Ein kalter Winter ist ein Anzeichen für die Klimaerwärmung, ebenso wie ein warmer Winter. Dazu passt diese Satire von Joe Bastardi:

Is Global Warming Causing More Snow and Less Snow at the Same Time?
In the Woody Allen comedy classic, “Bananas,” there is a scene where the CIA is sending US troops to fight on both sides of a revolution because they’re afraid of being on the wrong side. While many of us laughed at such things then because of the absurdity of it, we find that the same kind of strategy is being used by AGW propagandists that seek to claim every idea they have as the correct one.


Schon gewusst? Wärmeres Klima lässt Schnee langsamer schmelzen

Im Nordatlantik gibt es einen riesigen kalten Fleck, der Rätsel aufgibt. Alarmistisch gestimmte Forscher wie Stefan Rahmstorf sehen in ihm eine Abschwächung des Golfstroms und verkünden schlimme Konsequenzen für uns Erdlinge. Andere Forscher sehen eher die natürliche Klimavariabilität am Werke. Pablo Ortega fasste die Lage zum nordatlantischen Kaltspot jetzt in einem Blogartikel der Reading University zusammen. Er teilt Rahmstorfs Bedenken offenbar nicht und geht von einem baldigen Verschwinden des Kaltgebietes aus. Zitat aus dem Blogartikel:

The latest observations point to a likely reversal of the cold blob in the next few years. Positive NAO phases have been predominant since 2012, and Labrador Sea densities suggest that AMOC strength has been increasing since 2014. There is even evidence of a relative ESPNA warming starting last summer. Yet, it is too soon to determine whether these changes will be sustained long enough to reverse the cold blob completely. Indeed, to this date, the cold ESPNA anomaly has only slightly weakened with respect to the previous two years (Figure 3) – a small change that could be consistent with climate noise.


Kleiner Nachtrag zu unserem Beitrag “Eine unglaubliche Geschichte: Wikipedia und der Hamburger Forsythienstrauch“. Ein Leser wies uns auf einen Artikel auf aus dem Jahr 2014 hin, der schon fast Fake News-Charakter hat. Lesen Sie selber:

Rekord: Früheste Forsythienblüte – der Frühling ist da!
[...] Früheste Forsythienblüte beweist es: Der Frühling ist eingetroffen. Wenn man einen unparteiischen Frühlingsboten braucht, ist der Forsythienstrauch die beste Wahl. Und der hat sein Urteil schon gesprochen: Der Frühling ist in Deutschland schon so gut wie eingetroffen. Um es ganz genau zu sagen, der Vorfrühling. Und damit ist die Natur in diesem Jahr äußerst früh dran. Wenn man die Vergangenheit ansieht, ist im Schnitt der 30. März der Stichtag für die ersten Fosythienblüten. Das ist genau eineinhalb Monate später als in diesem Jahr. Weiterlesen auf

Die angebliche Sensation verpufft sogleich, wenn man sich den Blühbeginn der letzten 30 Jahre im Kontext anschaut (Abb. 1 hier).


Schon spannender dieses Ergebnis des National Center for Atmospheric Research (NCAR): Schnee schmilzt langsamer bei wärmerem Klima! Glauben Sie nicht? Lesen Sie selbst, steht in der Pressemitteilung des NCAR vom 27. Februar 2017:

Slower snowmelt in a warming world

As the world warms, mountain snowpack will not only melt earlier, it will also melt more slowly, according to a new study by scientists at the National Center for Atmospheric Research (NCAR). The counterintuitive finding, published today in the journal Nature Climate Change, could have widespread implications for water supplies, ecosystem health, and flood risk.

“When snowmelt shifts earlier in the year, the snow is no longer melting under the high sun angles of late spring and early summer,” said NCAR postdoctoral researcher Keith Musselman, lead author of the paper. “The Sun just isn’t providing enough energy at that time of year to drive high snowmelt rates.” The study was funded by the National Science Foundation, NCAR’s sponsor.

The findings could explain recent research that suggests the average streamflow in watersheds encompassing snowy mountains may decline as the climate warms — even if the total amount of precipitation in the watershed remains unchanged. That’s because the snowmelt rate can directly affect streamflow. When snowpack melts more slowly, the resulting water lingers in the soil, giving plants more opportunity to take up the moisture. Water absorbed by plants is water that doesn’t make it into the stream, potentially reducing flows. Musselman first became interested in how snowmelt rates might change in the future when he was doing research in the Sierra Nevada. He noticed that shallower, lower-elevation snowpack melted earlier and more slowly than thicker, higher-elevation snowpack. The snow at cooler, higher elevations tended to stick around until early summer — when the Sun was relatively high in the sky and the days had grown longer — so when it finally started to melt, the melt was rapid.

Musselman wondered if the same phenomenon would unfold in a future climate, when warmer temperatures are expected to transform higher-elevation snowpack into something that looks much more like today’s lower-elevation snowpack. If so, the result would be more snow melting slowly and less snow melting quickly. To investigate the question, Musselman first confirmed what he’d noticed in the Sierra by analyzing a decade’s worth of snowpack observations from 979 stations in the United States and Canada. He and his co-authors — NCAR scientists Martyn Clark, Changhai Liu, Kyoko Ikeda, and Roy Rasmussen — then simulated snowpack over the same decade using the NCAR-based Weather Research and Forecasting (WRF) model.

Once they determined that the output from WRF tracked with the observations, they used simulations from the model to investigate how snowmelt rates might change in North America around the end of the century if climate change continues unabated. “We found a decrease in the total volume of meltwater — which makes sense given that we expect there to be less snow overall in the future,” Musselman said. “But even with this decrease, we found an increase in the amount of water produced at low melt rates and, on the flip side, a decrease in the amount of water produced at high melt rates.”

While the study did not investigate the range of implications that could come from the findings, Musselman said the impacts could be far-reaching. For example, a reduction in high melt rates could mean fewer spring floods, which could lower the risk of infrastructure damage but also negatively affect riparian ecosystems. Changes in the timing and amount of snowmelt runoff could also cause warmer stream temperatures, which would affect trout and other fish species, and the expected decrease in streamflow could cause shortages in urban water supplies. “We hope this study motivates scientists from many other disciplines to dig into our research so we can better understand the vast implications of this projected shift in hydrologic patterns,” Musselman said.

About the article: Slower snowmelt in a warmer world, Authors: Keith N. Musselman, Martyn P. Clark, Changhai Liu, Kyoko Ikeda, and Roy Rasmussen. Journal: Nature Climate Change, DOI: 10.1038/nclimate3225

Logo – Danke!

Vor einigen Tagen stellten wir Ihnen an dieser Stelle unser Logo- und Bannerprojekt vor. Wir möchten Ihnen ganz herzlich für Ihre tatkräftige Unterstützung danken! Die Zielsumme ist erreicht worden, so dass wir nun mit der Planung beginnen können. Wir werden uns mit den Spendern in Kürze in Verbindung setzen und ihnen namentlich danken, sofern dies gewünscht ist. Hoffentlich können wir Ihnen schon bald die Resultate hier präsentieren.

Mit den besten Ostergüßen,

Ihr Kalte-Sonne-Team


Wellennummer-5 und Ananas-Express beenden langjährige Dürrezeit in Kalifornien

Gute Nachrichten aus Kalifornien. Nach einigen trockenen Jahren ist nun der Regen zurückgekehrt, wie Zeit Online am 8. April 2017 meldete:

Klimawandel: Kaliforniens Dürre ist offiziell vorbei

Fünf Jahre lang litt Kalifornien unter Waldbränden, Wasserknappheit und trockenen Äckern. Regen erlöste den US-Bundesstaat schließlich. Doch die nächste Dürre droht.

Nach heftigen Regenfällen in den vergangenen Monaten hat der kalifornische Gouverneur Jerry Brown die Dürre in seinem US-Bundesstaat für beendet erklärt. “Der Dürre-Notstand ist vorbei”, sagte Brown. Eine Karte der Klimatologen vom United States Drought Monitor zeigt, dass kein Gebiet in Kalifornien mehr von außergewöhnlicher oder extremer Dürre betroffen ist. Noch vor einem Jahr war mehr als die Hälfte der Fläche Kaliforniens diesen besonders schweren Formen der Dürre ausgesetzt.

Weiterlesen auf Zeit Online.

Was Die Zeit unerwähnt lässt: Das Winterhalbjahr 2016/17 war sogar das zweitfeuchteste der letzten 122 Jahre. Die NASA gab hierzu eine eigene Meldung heraus und erklärte die Entwicklung mit einem atmosphärischen Fluss, dem “Ananas-Express”. Schön wäre es zudem gewesen, wenn Die Zeit hier hochaktuelle Forschungsergebnisse erwähnt hätte, nach denen die kalifornische Dürreserie mit einem natürlichen Phänomen zusammenhängt, nämlich den atmosphärischen Wellen. Pressemitteilung der University Corporation for Atmospheric Research vom 6. April 2017, also zwei Tage vor dem Zeit-Artikel:

Scientists link California droughts and floods to distinctive atmospheric waves

The crippling wintertime droughts that struck California from 2013 to 2015, as well as this year’s unusually wet California winter, appear to be associated with the same phenomenon: a distinctive wave pattern that emerges in the upper atmosphere and circles the globe.

Scientists at the National Center for Atmospheric Research (NCAR) found in a recent study that the persistent high-pressure ridge off the west coast of North America that blocked storms from coming onshore during the winters of 2013-14 and 2014-15 was associated with the wave pattern, which they call wavenumber-5. Follow-up work showed that wavenumber-5 emerged again this winter but with its high- and low-pressure features in a different position, allowing drenching storms from the Pacific to make landfall.  “This wave pattern is a global dynamic system that sometimes makes droughts or floods in California more likely to occur,” said NCAR scientist Haiyan Teng, lead author of the California paper. “As we learn more, this may eventually open a new window to long-term predictability.”

The finding is part of an emerging body of research into the wave pattern that holds the promise of better understanding seasonal weather patterns in California and elsewhere. Another new paper, led by NCAR scientist Grant Branstator, examines the powerful wave pattern in more depth, analyzing the physical processes that help lead to its formation as well as its seasonal variations and how it varies in strength and location. The California study was published in the Journal of Climate while the comprehensive study into the wave patterns is appearing in the Journal of the Atmospheric Sciences. Both papers were funded by the National Science Foundation, which is NCAR’s sponsor, as well as by the Department of Energy, the National Oceanic and Atmospheric Administration, and NASA. The new papers follow a 2013 study by Teng and Branstator showing that a pattern related to wavenumber-5 tended to emerge about 15-20 days before major summertime heat waves in the United States.

Strong impacts on local weather systems

Wavenumber-5 consists of five pairs of alternating high- and low-pressure features that encircle the globe about six miles (10 kilometers) above the ground. It is a type of atmospheric phenomenon known as a Rossby wave, a very large-scale planetary wave that can have strong impacts on local weather systems by moving heat and moisture between the tropics and higher latitudes as well as between oceanic and inland areas and by influencing where storms occur. The slow-moving Rossby waves at times become almost stationary. When they do, the result can be persistent weather patterns that often lead to droughts, floods, and heat waves. Wavenumber-5 often has this stationary quality when it emerges during the northern winter, and, as a result, is associated with a greater likelihood of persistent extreme events.

To determine the degree to which the wave pattern influenced the California drought, Teng and Branstator used three specialized computer models, as well as California rainfall records and 20th century data about global atmospheric circulation patterns. The different windows into the atmosphere and precipitation patterns revealed that the formation of a ridge by the California coast is associated with the emergence of the distinctive wavenumber-5 pattern, which guides rain-producing low-pressure systems so that they travel well north of California.

Over the past winter, as California was lashed by a series of intense storms, wavenumber-5 was also present, the scientists said. But the pattern had shifted over North America, replacing the high-pressure ridge off the coast with a low-pressure trough. The result was that the storms that were forced north during the drought winters were, instead, allowed to make landfall.

Clues to seasonal weather patterns

Forecasters who predict seasonal weather patterns have largely looked to shifting sea surface temperatures in the tropical Pacific, especially changes associated with El Niño and La Niña. But during the dry winters of 2013-14 and 2014-15, those conditions varied markedly: one featured the beginning of an El Niño while the sea surface temperatures during the other were not characteristic of either El Niño or La Niña. The new research indicates that the wave pattern may provide an additional source of predictability that sometimes may be more important than the impacts of sea surface temperature changes. First, however, scientists need to better understand why and when the wave pattern emerges.

In the paper published in Journal of the Atmospheric Sciences, Branstator and Teng explored the physics of the wave pattern. Using a simplified computer model of the climate system to identify the essential physical processes, the pair found that wavenumber-5 forms when strong jet streams act as wave guides, tightening the otherwise meandering Rossby wave into the signature configuration of five highs and five lows. “The jets act to focus the energy,” Branstator said. “When the jets are present, the energy is trapped and cannot escape.” But even when the jets are present, the wavenumber-5 pattern does not always form, indicating that other forces requiring study are also at play.

The scientists also searched specifically for what might have caused the wave pattern linked to the severe California drought to form. In the paper published in the Journal of Climate, the pair found that extremely heavy rainfall from December to February in certain regions of the tropical Pacific could double the probability that the extreme ridge associated with wavenumber-5 will form. The reason may have to do with the tropical rain heating parts of the upper atmosphere in such a way that favors the formation of the wavenumber-5 pattern. But the scientists cautioned that many questions remain. “We need to search globally for factors that cause this wavenumber-5 behavior,” Teng said, “Our studies are just the beginning of that search.”

About the articles:
Title: Causes of Extreme Ridges That Induce California Drought

Authors: Haiyan Teng and Grant Branstator
Journal: Journal of Climate, DOI: 10.1175/JCLI-D-16-0524.1

Title: Tropospheric Waveguide Teleconnections and Their Seasonality
Authors: Grant Branstator and Haiyan Teng
Journal: Journal of the Atmospheric Sciences, DOI: 10.1175/JAS-D-16-0305.1

Ein Paper von Luo und Kollegen in den Geophysical Research Letters vom 9. April 2017 stellte fest, dass die kalifornischen Dürren auf Niederschlagsmangel und weniger auf Temperaturextreme zurückgeht:

Contribution of temperature and precipitation anomalies to the California drought during 2012–2015
The recent multiyear drought over California was characterized by large precipitation deficits and abnormally high temperatures during both wet and dry seasons. This study investigates and quantifies the contributions of precipitation and temperature anomalies to the development of the multiyear drought with a set of modeling experiments where the anomalies are either removed or randomly replaced with other historical observations. The study reveals that precipitation deficits have been largely responsible for producing the extreme agricultural drought (i.e., large soil moisture deficits) while warmer temperatures have only marginally intensified the drought. However, the warmer temperatures over the high-elevation areas during the wet season have contributed equally or more than the precipitation deficits to the reduction of snowpack. The interplay between temperature and precipitation anomalies in space and time also appears to be important for the drought development.

Bereits ein Jahr zuvor hatte die University of Texas in Austin den Wind als wichtigen Auslöser der Regenarmut und kalifornischen Dürren ausgemacht. In einer Pressemitteilung gab die Uni am 5. Juli 2016 bekannt:

California Droughts Caused Mainly by Changes in Wind, Not Moisture

Droughts in California are mainly controlled by wind, not by the amount of evaporated moisture in the air, new research has found. The findings were published in Geophysical Research Letters, a journal of the American Geophysical Union, on June 30. The research increases the understanding of how the water cycle is related to extreme events and could eventually help in predicting droughts and floods, said lead author Jiangfeng Wei, a research scientist at The University of Texas at Austin’s Jackson School of Geosciences. “Ocean evaporation provides moisture for California precipitation but is not the reason for droughts there, although the ocean evaporation is slightly lower during droughts,” Wei said.

The researchers analyzed 30-year data sets that recorded precipitation, ocean evaporation, surface wind speed and atmospheric pressure on and near the west coast of the United States. These are all factors that influence the water cycle in California. One of the difficulties of studying the water cycle, Wei said, is that the water sources for precipitation cannot be directly observed, so the team also used a mathematical moisture-tracking method and high-resolution model simulations. Their analysis showed that although moisture evaporated from the Pacific Ocean is the major source for California precipitation, the amount of water evaporated did not strongly influence precipitation in California, except in the cases of very heavy flooding. That’s because the amount of water evaporated from this ocean region does not change much year by year, researchers found, and did not cause rain to occur more or less often. “Ocean evaporation has little direct influence on California precipitation because of its relatively weak variability,” Wei said.

Instead, the researchers found that disturbances in atmospheric circulation, the large-scale movement of air, have the most effect on drought because they can affect factors that will cause it to rain more or less. The study co-authors are Qinjian Jin, a postdoctoral researcher at the Massachusetts Institute of Technology who earned his Ph.D. at the Jackson School; Zong-Liang Yang, a professor in the Jackson School’s Department of Geological Sciences; and Paul Dirmeyer, a professor at George Mason University.

Most of California has been in a severe drought since 2011, although a strong El Niño in the winter of 2015 helped diminish the drought. The current drought is caused by a high-pressure system that disturbs the atmospheric circulation. The development of the high-pressure system is related to a sea surface temperature pattern in the Pacific Ocean, according to research cited by the study. “Although this is a very rare event, the probability of this kind of high-pressure system is likely increasing with global warming,” the authors said. Yang said that the research could aid in the prediction of droughts and floods by improving scientific understanding of the intricate factors that influence rainfall the most. “The topic is extremely timely as current and future climate change would mean more changes in extreme events such as droughts and floods,” Yang said. “Understanding this asymmetric contribution of ocean evaporation to drought and flooding in California will ultimately help us make better predictions.”

Welche Schuld trägt nun der Mensch an den Dürren? Laut den oben genannten Studien spielt hier vor allem die natürliche Variabilität eine Rolle, auch wenn Stefan Rahmstorf und Michael Mann dies nicht wahrhaben wollen. Trotzdem ist der Mensch am Ausmaß der kalifornischen Dürren offenbar nicht ganz unschuldig. Eine Studie von Xiaogang He und Kollegen vom 18. Februar 2017 in den Geophysical Research Letters fand, dass unangepasstes Wassermanagement die Dürren künstlich verlängert hat. Anbei der Abstract:

Intensification of hydrological drought in California by human water management
We analyze the contribution of human water management to the intensification or mitigation of hydrological drought over California using the PCR-GLOBWB hydrological model at 0.5° resolution for the period 1979–2014. We demonstrate that including water management in the modeling framework results in more accurate discharge representation. During the severe 2014 drought, water management alleviated the drought deficit by ∼50% in Southern California through reservoir operation during low-flow periods. However, human water consumption (mostly irrigation) in the Central Valley increased drought duration and deficit by 50% and 50–100%, respectively. Return level analysis indicates that there is more than 50% chance that the probability of occurrence of an extreme 2014 magnitude drought event was at least doubled under the influence of human activities compared to natural variability. This impact is most significant over the San Joaquin Drainage basin with a 50% and 75% likelihood that the return period is more than 3.5 and 1.5 times larger, respectively, because of human activities.


Die Landschaftsfresser

In der Print-Ausgabe von Tichys Einblick geht es im Heft 5/2017 um ‘Grüne Killermaschinen’, besser bekannt als Windkraftanlagen:

Von wegen Naturschutz: Die Landschaftsfresser

Von Fritz Vahrenholt and Michael Miersch

Auf breiter Fläche zerstört die Energiewende Kulturlandschaften und Wälder. Im Namen des Klimas werden seltene Vögel geopfert und Idyllen in Industrieparks verwandelt. Umweltpolitiker applaudieren dazu Schulter an Schulter mit der Lobby der erneuerbaren Energien


„Für den Rotmilan sieht es nicht gut aus“, sagt Oliver Krüger, einer der führenden Ornithologen Deutschlands. „Und gerade für den Rotmilan tragen wir eine besondere Verantwortung.“ Krüger führte für das Bundesministerium für Wirtschaft und Energie die sogenannte PROGRESS-Studie durch, die bisher umfangreichste Forschung zum Konflikt zwischen Windwirtschaft und Vogelwelt. Die Ergebnisse wurden nur in aller Stille im Internet veröffentlicht, ohne Pressekonferenz oder Ministerwort. Der Startschuss für den Sinkflug des Rotmilans fiel am 1. Januar 1991 und wurde vom CDU-Umweltminister Klaus Töpfer abgegeben.


Erst langsam, dann unübersehbar und immer rasanter begann damit die größte Landschaftsveränderung seit dem Zweiten Weltkrieg. Zirka 28 000 Windkraftanlagen prägen heutzutage das Gesicht Deutschlands: von Ostfriesland bis zur Pommerschen Bucht,
vom Niederrhein bis zu Lausitz, vom Schwarzwald bis zum Harz. Etwa 1200 Anlagen wurden mittlerweile in Wäldern errichtet. Moderne Typen, wie die Enercon E126, sind 200 Meter hoch und haben einen Rotordurchmesser von 127 Metern. Um einen dieser Türme aufzustellen, müssen mehr als 5000 Quadratmeter Wald gerodet werden. Ihr enormer Flächenbedarf ist der große ökologische Nachteil der alternativen Energien. Dies gilt besonders für Biogas, aber auch für Solarkraftwerke und Windindustrie.

Den vollständigen Artikel von Fritz Vahrenholt and Michael Miersch können Sie in der Print-Ausgabe von Tichys Einblick im aktuellen Heft 5/2017 lesen.


Den im obigen Artikel genannten PROGRESS-Bericht können Sie kostenfrei bei BioConsult SH herunterladen. Auszug aus dem Fazit der Studie:

Kollisionen von Vögeln (und Fledermäusen) sind ein zentrales Konfliktfeld zwischen dem Ausbau der Windenergienutzung und dem Naturschutz. Obwohl mittlerweile eine hohe Anzahl von Studien zu diesem Bereich vorliegt, gibt es nur sehr wenige systematische Untersuchungen, in denen Kollisionsraten von Vögeln quantifiziert wurden. Dies erschwert die Bewertung eines möglichen Konfliktes. Im Hinblick auf strenge artenschutzrechtliche Genehmigungsvoraussetzungen für die Errichtung von WEA sind Wissensdefizite ein potenzielles Hindernis für den beabsichtigten Ausbau der Windenergienutzung.


Es ist insgesamt bemerkenswert, dass die Kollisionen mit WEA vorrangig am Tag und bei Arten mit guten Flugeigenschaften erfolgen, wogegen Arten mit schlechterer Manövrierfähigkeit, wie etwa Gänse oder Kraniche, sowie nachtziehende Arten deutlich seltener mit WEA kollidieren. Andererseits ist der genaue Kollisionszeitpunkt nicht bekannt und kann insbesondere bei der häufig als Kollisionsopfer gefundenen Stockente – die tagsüber nur in geringen Zahlen beobachtet wurde – auch während der Nacht erfolgt sein. Die Artenzusammensetzung der Kollisionsopfer weist angesichts der Ergebnisse der durchgeführten Beobachtungen zur Flugaktivität darauf hin, dass das Kollisionsrisiko wesentlich vom Verhalten der Vögel gegenüber den Anlagen bestimmt wird. Während einige Arten WEA offensichtlich als störende Strukturen wahrnehmen, nähern sich andere Arten diesen ohne Meidungsreaktionen zu zeigen an und werden durch die Rotoren gefährdet.


Mäusebussard: Die Ergebnisse von PROGRESS weisen auf hohe Kollisionsraten und potenziell bestandswirksame Auswirkungen des Ausmaßes bisheriger Windenergienutzung hin. Vor dem Hintergrund des großen Bestands des Mäusebussards in Deutschland tritt dadurch keine akute Bestandsgefährdung auf, aber zumindest regional sind starke Bestandsrückgänge dokumentiert. In welchem Maße diese durch Windenergienutzung und/oder andere Faktoren verursacht werden, bedarf dringend näherer Untersuchungen. Bei der Planung von weiteren Windparks bestehen durch die großflächige Verbreitung dieser Art Probleme bei der Konfliktvermeidung bzw. –minderung und es ist zu prüfen, wie diese in Genehmigungsverfahren berücksichtigt werden können. Wichtiger als bei den anderen Arten wird es beim Mäusebussard voraussichtlich sein, die mit der Errichtung von Windenergieanlagen verbundenen Eingriffe so auszugleichen, dass sie auch der betroffenen Art dienlich sind und den Bestand des Mäusebussards stützen.


Die Ergebnisse von PROGRESS verdeutlichen eine hohe Notwendigkeit für weitergehende Populationsstudien an Arten wie Mäusebussard und Rotmilan und ggfs. weiteren potenziell gefährdeten Arten. Vor dem Hintergrund des erfolgten Ausbaus und der Ergebnisse von PROGRESS erscheint es als bedeutsam, den bestehenden Einfluss der Windenergienutzung, aber auch weiterer Faktoren, auf die Bestände potenziell gefährdeter Arten weiter zu untersuchen und genauer zu ermitteln. Hierzu werden weitere Kollisionsuntersuchungen nach der PROGRESS-Methode empfohlen. Bei Arten mit niedrigen Beständen, bei denen der nötige Aufwand für Kollisionssuchen zu hoch wäre, kann die Markierung von Individuen eine Methode sein, um den Anteil anthropogener Mortalität zu ermitteln. Zur Bewertung der Befunde kann der Aufbau differenzierter Modelle hilfreich sein (z.B. Individual Based Modelling, IBM), welche dichteabhängige Prozesse, die Veränderung von Habitaten und Ressourcen sowie weitere anthropogene Mortalitätsursachen mit einbeziehen.

Den Gesamtbericht können Sie bei BioConsult SH herunterladen


Falls Sie Abonnent der VDI-Nachrichten sind, sei Ihnen der kritische Artikel “Effiziente Energiewende” von Klaus Riedle empfohlen.


Dr. med. Thomas Carl Stiller beschäftigte sich am 27. März 2017 auf der Webseite des Deutschen Arbeitgeberverbandes mit einem heißen Eisen:

Infraschall – der Bumerang der Energiewende

Unhörbarer aber biophysiologisch wirksamer Schall ist keine Science Fiction, sondern eine zunehmende Bedrohung für die Gesundheit.  Zunächst ein paar physikalische Grundlagen: Schall ist die Druckänderung in einem Medium wie z.B. Luft und breitet sich wellenförmig um die Quelle aus.  Je tiefer die Frequenz, desto weiter wird Schall in der Luft transportiert.  Sehr tiefe Frequenzen werden zudem auch durch geschlossene Gebäude hindurch übertragen.  Durch Schallreflexionen und Überlagerungen kann er dann örtlich zu überhöhten Schalldruckwerten führen. Generell werden Töne und Geräusche über Frequenz, Klangfarbe und Lautstärke beschrieben.   Das menschliche Gehör kann Frequenzen etwa im Bereich von 20.000 Hz, also Schwingungen pro Sekunde (hohe Töne) bis 20 Hz (tiefe Töne) hören.  Der Schallbereich oberhalb einer Frequenz von 20.000 Hz wird als Ultraschall, unterhalb von 200 Hz als tieffrequenter Schall, unterhalb von 20 Hz als Infraschall bezeichnet.  Sowohl Infra- als auch Ultraschall werden vom Ohr nicht mehr wahrgenommen, für Infraschall hat der Körper aber eine subtile Wahrnehmung, und manche Menschen sind für tieffrequenten Schall besonders empfindlich.

In der Natur sind tieffrequente Schwingungen allgegenwärtig.  Beispielsweise wird das Meeresrauschen über viele hundert Kilometer in der Atmosphäre übertragen, manche Zugvögel orientieren sich daran.  Der Schalldruck natürlicher Geräusche im Infraschallbereich ist allerdings recht gleichmäßig auf die verschiedenen Frequenzen verteilt und wird vom Menschen nicht als störend empfunden. Der Infraschall von Windkraftanlagen ist noch kilometerweit messbar (1).


Der Akustiker Steven Cooper hat zusammen mit einem Windparkbetreiber in Australien die Auswirkungen von Infraschall auf die lokale Bevölkerung näher untersucht. Anwohner in der Nähe eines Windparks klagten über die oben genannten Beschwerden. Sie hatten den Windpark aber nicht direkt vor Augen. Cooper ließ sie ihre Symptome mit genauem Zeitpunkt notieren und überprüfte die Korrelation mit der Aktivität der Windkraftanlagen: Die Symptome waren am stärksten, wenn die Windkraftanlagen besonders aktiv waren(5).

In Dänemark haben Informationen über Missbildungen und Fehlgeburten auf einer Nerzfarm, in deren Nähe nachträglich Windkraftanlagen gebaut wurden, sowie gehäufte Berichte von Krankheitssymptomen von Menschen in der Nähe von Windkraftanlagen zu einem Ausbaustopp geführt, der genutzt wird, um die Zusammenhänge näher zu untersuchen.  Auch hierzulande wird umweltmedizinisch das Thema Infraschall schon länger ernst genommen (6).

Ganzen Artikel auf der Webseite des Deutschen Arbeitgeberverbandes lesen. Siehe auch Projektergebnisse der BGR.


Wieviel CO2 stoßen Vulkane aus?

Der CO2-Gehalt steigt stetig an und hat die 400 ppm mittlerweile überschritten. Gemessen wird das CO2 seit 1958 auf einem hawaiianischen Vulkan, dem Mauna Loa (Abb. 1).

Abb. 2: Entwicklung der atmosphärischen CO2-Konzentration in der Erdatmosphäre. Messwerte vom Mauna Loa. Graphik: Climate4You.


Weshalb wählte man gerade den Mauna Loa? Vulkane sind wohlbekannte CO2-Quellen, da wäre ein neutralerer, nichtvulkanischer Ort sicher angebracht gewesen. Trotzdem sind die Bedenken einer vulkanischen Beeinflussung der Messwerte wohl unberechtigt, denn der Mauna-Loa-CO2-Verlauf wurde zwischenzeitlich an vielen anderen Stellen der Erde bestätigt.

Der Anstieg des CO2 in den vergangenen 150 Jahren ist Folge der Nutzung fossiler Brennstoffe im Zuge der Industrialisierung. Es stellt sich die Frage, inwieweit natürliche Prozesse zu diesem CO2-Anstieg möglicherweise beigetragen haben. Wenn man sich den CO2-Kreislauf anschaut, scheinen Vulkane eher wenig CO2 in die Atmosphäre zu pumpen. Laut dem 5. IPCC-Bericht (Arbeitsgruppe 1, Kapitel 6, Abbildung 6.1, Seite 471, pdf hier) stoßen Vulkane jährlich lediglich 100 Millionen Tonnen Kohlenstoff aus, während bei der Verbrennung fossiler Energierträger und bei der Zementherstellung 7,8 Milliarden Tonnen Kohlenstoff pro Jahr produziert werden.

Trotzdem wollen wir uns im Folgenden mit den Vulkanen und ihrem CO2-Ausstoß einma näher beschäftigen. Wie genau sind die vulkanischen CO2-Quellen eigentlich bekannt? Ist der CO2-Ausstoß kontinuierlich oder unterliegt er Schwankungen? Das Lamont-Doherty Earth Observatory der Columbia University überraschte am 5. Februar 2015 mit einer Pressemitteilung, in der charakteristische Zyklen beim vulkanischen CO2-Ausstoß beschrieben werden, die unter Umständen auch das Klima beeinflussen können:

Seafloor Volcano Pulses May Alter Climate: New Data Show Strikingly Regular Patterns, From Weeks to Eons

Vast ranges of volcanoes hidden under the oceans are presumed by scientists to be the gentle giants of the planet, oozing lava at slow, steady rates along mid-ocean ridges. But a new study shows that they flare up on strikingly regular cycles, ranging from two weeks to 100,000 years—and, that they erupt almost exclusively during the first six months of each year. The pulses—apparently tied to short- and long-term changes in earth’s orbit, and to sea levels–may help trigger natural climate swings. Scientists have already speculated that volcanic cycles on land emitting large amounts of carbon dioxide might influence climate; but up to now there was no evidence from submarine volcanoes. The findings suggest that models of earth’s natural climate dynamics, and by extension human-influenced climate change, may have to be adjusted. The study appears this week in the journal Geophysical Research Letters .

“People have ignored seafloor volcanoes on the idea that their influence is small—but that’s because they are assumed to be in a steady state, which they’re not,” said the study’s author, marine geophysicist Maya Tolstoy of Columbia University’s Lamont-Doherty Earth Observatory . “They respond to both very large forces, and to very small ones, and that tells us that we need to look at them much more closely.” A related study by a separate team this week in the journal Science bolsters Tolstoy’s case by showing similar long-term patterns of submarine volcanism in an Antarctic region Tolstoy did not study.

Volcanically active mid-ocean ridges crisscross earth’s seafloors like stitching on a baseball, stretching some 37,000 miles. They are the growing edges of giant tectonic plates; as lavas push out, they form new areas of seafloor, which comprise some 80 percent of the planet’s crust. Conventional wisdom holds that they erupt at a fairly constant rate–but Tolstoy finds that the ridges are actually now in a languid phase. Even at that, they produce maybe eight times more lava annually than land volcanoes. Due to the chemistry of their magmas, the carbon dioxide they are thought to emit is currently about the same as, or perhaps a little less than, from land volcanoes—about 88 million metric tons a year. But were the undersea chains to stir even a little bit more, their CO2 output would shoot up, says Tolstoy.

Some scientists think volcanoes may act in concert with Milankovitch cycles –repeating changes in the shape of earth’s solar orbit, and the tilt and direction of its axis—to produce suddenly seesawing hot and cold periods. The major one is a 100,000-year cycle in which the planet’s orbit around the sun changes from more or less an annual circle into an ellipse that annually brings it closer or farther from the sun. Recent ice ages seem to build up through most of the cycle; but then things suddenly warm back up near the orbit’s peak eccentricity. The causes are not clear.

Enter volcanoes. Researchers have suggested that as icecaps build on land, pressure on underlying volcanoes also builds, and eruptions are suppressed. But when warming somehow starts and the ice begins melting, pressure lets up, and eruptions surge. They belch CO2 that produces more warming, which melts more ice, which creates a self-feeding effect that tips the planet suddenly into a warm period. A 2009 paper from Harvard University says that land volcanoes worldwide indeed surged six to eight times over background levels during the most recent deglaciation, 12,000 to 7,000 years ago. The corollary would be that undersea volcanoes do the opposite: as earth cools, sea levels may drop 100 meters, because so much water gets locked into ice. This relieves pressure on submarine volcanoes, and they erupt more. At some point, could the increased CO2 from undersea eruptions start the warming that melts the ice covering volcanoes on land?

That has been a mystery, partly because undersea eruptions are almost impossible to observe. However, Tolstoy and other researchers recently have been able to closely monitor 10 submarine eruption sites using sensitive new seismic instruments. They have also produced new high-resolution maps showing outlines of past lava flows. Tolstoy analyzed some 25 years of seismic data from ridges in the Pacific, Atlantic and Arctic oceans, plus maps showing past activity in the south Pacific.

The long-term eruption data, spread over more than 700,000 years, showed that during the coldest times, when sea levels are low, undersea volcanism surges, producing visible bands of hills. When things warm up and sea levels rise to levels similar to the present, lava erupts more slowly, creating bands of lower topography. Tolstoy attributes this not only to the varying sea level, but to closely related changes in earth’s orbit. When the orbit is more elliptical, Earth gets squeezed and unsqueezed by the sun’s gravitational pull at a rapidly varying rate as it spins daily—a process that she thinks tends to massage undersea magma upward, and help open the tectonic cracks that let it out. When the orbit is fairly (though not completely) circular, as it is now, the squeezing/unsqueezing effect is minimized, and there are fewer eruptions.

The idea that remote gravitational forces influence volcanism is mirrored by the short-term data, says Tolstoy. She says the seismic data suggest that today, undersea volcanoes pulse to life mainly during periods that come every two weeks. That is the schedule upon which combined gravity from the moon and sun cause ocean tides to reach their lowest points, thus subtly relieving pressure on volcanoes below. Seismic signals interpreted as eruptions followed fortnightly low tides at eight out of nine study sites. Furthermore, Tolstoy found that all known modern eruptions occur from January through June. January is the month when Earth is closest to the sun, July when it is farthest—a period similar to the squeezing/unsqueezing effect Tolstoy sees in longer-term cycles. “If you look at the present-day eruptions, volcanoes respond even to much smaller forces than the ones that might drive climate,” she said.

Daniel Fornari, a senior scientist at Woods Hole Oceanographic Institution not involved in the research, called the study “a very important contribution.”  He said it was unclear whether the contemporary seismic measurements signal actual lava flows or just seafloor rumbles and cracking. But, he said, the study “ clearly could have important implications for better quantifying and characterizing our assessment of climate variations over decadal to tens to hundreds of thousands of years cycles.” Edward Baker, a senior ocean scientist at the National Oceanic and Atmospheric Administration, said, “The most interesting takeaway from this paper is that it provides further evidence that the solid Earth, and the air and water all operate as a single system.” The research for this paper was funded in large part by the U.S. National Science Foundation.

Da die Tiefseevulkane noch immer schlecht kartiert und verstanden sind, könnte sich der vulkanische CO2-Beitrag in den Kohlenstoffzyklus-Modellen noch ändern. Mike Burton vom Italian National Institute of Geophysics and Volcanology geht davon aus, dass Vulkane pro Jahr um die 600 Millionen Tonnen CO2 ausstoßen. Das sind etwa andertahlb mal soviel, wie vom IPCC im letzten Bericht behauptet (eine Tonne Kohlenstoff entspricht 3,67 Tonnen CO2).

Die quantitative Erforschung des vulkanischen CO2-Beitrags ist noch ziemlich am Anfang. Die University of New Mexico berichtete am 18. Januar 2016 über ermutigende Fortschritte in den kontinentalen Riftzonen, die sie in Ostafrika erstmals CO2-budgetierten:

Scientists detect deep carbon emissions associated with continental rifting

First of its kind study quantifies deep carbon emissions. Scientists at the University of New Mexico conducted research to effectively study carbon emissions through fault systems in the East African Rift (EAR) in an effort to understand carbon emissions from the Earth’s interior and how it affects the atmosphere.

Carbon dioxide (CO2) from Earth’s interior is thought to be released into the atmosphere mostly via degassing from active volcanoes. CO2 can also escape along faults away from active volcanic centers. However, such tectonic degassing is poorly constrained, and to date has been largely unmeasured. The research, funded by the National Science Foundation (NSF) Tectonics Program, is directed by UNM Professor Tobias Fischer and is part of a continued effort to better quantify global emissions of CO2 from the Earth’s interior. Led by UNM Ph.D. student Hyunwoo Lee, the lead author of the paper titled, Massive and prolonged deep carbon emissions associated with continental rifting published in Nature Geoscience, the scientists set out to measure diffuse CO2 flux from the Magadi-Natron basin in the East African Rift (EAR) between Kenya and Tanzania.

“CO2 is the main source of the greenhouse effect,” said Lee. “Natural carbon emissions come from volcanoes and are derived from magma. Mostly, people have thought the major sources of magmatic emissions have come through active volcanic events. Our research is the first attempt to quantify magmatic CO2 gases from non-volcanic and continental rift regions.” The EAR is the world’s largest active continental rift and is comprised through distinct western and eastern sectors. Several active volcanoes emit large volumes of CO2 including Nyiragongo in the Congo and Oldoinyo Lengai in Tanzania. Additionally, significant amounts of CO2 are stored in large anoxic lakes in this region.

“Widespread continental rifting and super-continent breakup could produce massive, long-term CO2 emissions and contribute to prolonged greenhouse conditions like those of the Cretaceous.” – UNM Ph.D. student Hyunwoo  Lee

“To measure diffuse CO2 flux, we used an EGM-4 CO2 gas analyzer with a cylindrical accumulation chamber,” Lee said. “The gas samples were then diverted from the chamber into pre-evacuated glass vials in order to carry out gas chemistry and carbon isotope analyses in our laboratories at UNM.” Additional gas samples collected along fault zones in the Magadi-Natron basin showed an elevated CO2 flux and provided further evidence that faults act as permeable pathways facilitating the ascent of deeply-derived CO2. This particular study area represented a conservative 10 percent of the entire Natron-Magadi region.

The data from all samples were then compared to gas data from the active volcano Oldoinyo Lengai and found to have carbon isotope compositions that indicated a strong magmatic contribution to the observed CO2. James Muirhead, a doctoral student at the University of Idaho, focused on the relationship between the structure of the faults and the gas they released, including what controls carbon dioxide flow from depth and what volumes of gas the faults release. Combing the CO2 flux data and fault structures with carbon isotopic analyses, conducted at UNM’s Center for Stable Isotopes (CSI), the research generated interesting data allowing the scientists to quantify the massive and prolonged deep carbon emissions through faults.

“We found that about 4 megatonnes per year of mantle-derived CO2 is released in the Magadi-Natron Basin, at the border between Kenya and Tanzania,” Lee said. “Seismicity at depths of 15 to 30 kilometers detected during our project implies that extensional faults in this region may penetrate the lower crust.” Thus, the ultimate source of the CO2 is the lower crust or the mantle, consistent with the carbon isotopes measured in the gas. The findings suggest that CO2 is transferred from upper mantle or lower crustal magma bodies along these deep faults. Extrapolation of the measurements to the entire Eastern branch of the rift system implies a huge CO2 flux 71 megatonnes per year, comparable to emissions from the entire global mid-ocean ridge system of 53 to 97 megatonnes per year.

“It is often argued that large volcanic eruptions instantly transfer significant amounts of CO2 and other gases into the atmosphere where they affect the global climate over a few years,” Fischer said. “On human time-scales, continental rifting is extremely slow at spreading rates of mm’s per year but on geologic time-scales, rifting can be considered a catastrophic continental break-up event.” “Widespread continental rifting and super-continent breakup could produce massive, long-term CO2 emissions and contribute to prolonged greenhouse conditions like those of the Cretaceous,” Lee added. Large-scale rifting events could play a previously unrecognized role in heating up the atmosphere and perhaps ending global ice ages.

“It is important to note, however, even when including the newly quantified CO2 emissions from the EAR in the global CO2 budget, natural emissions are dwarfed by emissions from fossil fuel use, which were 36 giga tons of CO2 in 2013,” Fischer said. “This comparison shows that humanity is currently emitting the equivalent of 500 East African Rifts in CO2 to the atmosphere per year.” Cindy Ebinger, a professor of earth and environmental sciences at the University of Rochester, coordinated field activities near the Kenya-Tanzania border and analyzed earthquake patterns within the rift zone.

“The unique coupling of gas chemistry and earthquake studies made it possible to discover the escape of gas along permeable fault zones that serve as conduits to the surface,” said Ebinger. “The work also allowed us to document the process of crustal growth through the formation of igneous rocks from magma in early-stage continental rift zones.”

Lee says the scientists plan to measure diffuse CO2 flux and collect gas samples from other areas in the EAR to better constrain how much it releases deep carbon to try to better constrain how much deeply derived CO2 comes from natural systems.

“Because some geological settings, for example fault zones, have never been paid attention to, global CO2 flux from natural systems are obviously underestimated,” he said. “Although there are still many ongoing studies to find better ways to quantify CO2 flux from active volcanoes, we expect this study to trigger more research on CO2 output from non-volcanic areas.” 

Additional scientists involved in the study included: Distinguished Professor Zach Sharp, UNM Department of Earth and Planetary Sciences; Simon Kattenhorn, University of Idaho; and Gladys Kianji, University of Nairobi (Kenya).

Um CO2 aus dem Erdboden bzw. aus dem Seeboden ausgasen zu sehen, muss man nicht weit reisen, es reicht ein Ausflug an den Laacher See in der Vulkaneifel (vorspulen, bei Minute 1:05 geht es zu den CO2-Blubberblasen):


Schließlich noch eine Pressemitteilung der Woods Hole Oceanographic Institution aus dem Juli 2015, in der CO2-Messungen in der Ägäis beschrieben werden:

Carbon Dioxide Pools Discovered in Aegean Sea

’Kallisti Limnes’ Get Their Distinctive Color from Opal Particles

The location of the second largest volcanic eruption in human history, the waters off Greece’s Santorini are the site of newly discovered opalescent pools forming at 250 meters depth. The interconnected series of meandering, iridescent white pools contain high concentrations of carbon dioxide (CO2) and may hold answers to questions related to deepsea carbon storage as well as provide a means of monitoring the volcano for future eruptions.  “The volcanic eruption at Santorini in 1600 B.C. wiped out the Minoan civilization living along the Aegean Sea,” said Woods Hole Oceanographic Institution (WHOI) scientist Rich Camilli, lead author of a new study published today in the journal Scientific Reports.  “Now these never-before-seen pools in the volcano’s crater may help our civilization answer important questions about how carbon dioxide behaves in the ocean.”

The pools range in size from 1 to 5 meters diameter, and scientists believe they are ephemeral, appearing and disappearing like a rain pool in the desert. Camilli and his colleagues from the University of Girona, National and Kapodistrian  University of Athens, Institut de Physique du Globe de Paris, and Hellenic Centre for Marine Research, working in the region in July 2012, used a series of sophisticated underwater exploration vehicles to locate and characterize the pools, which they call the Kallisti Limnes, from ancient Greek for “most beautiful lakes.” A prior volcanic crisis in 2011 had led the researchers to initiate their investigation at a site of known hydrothermal activity within the Santorini caldera. During a preliminary reconnaissance of a large seafloor fault the University of Girona’s autonomous underwater vehicle (AUV) Girona 500 identified subsea layers of water with unusual chemical properties. (weiterlesen …)

Ameisen kommen mit dem Klimawandel gut zurecht

Freude beim Deutschen Wetterdienst, endlich wieder ein Superlativ: Der März 2017 war der wärmste seit Beginn der systematischen Temperaturmessungen. Pressemitteilung des DWD vom 30. März 2017:

Im März [2017] wechselte der Einfluss von Hoch- und Tiefdruckgebieten immer wieder. Häufig herrschten dabei frühlingshafte oder sogar sommerliche Temperaturen – nicht zuletzt auch durch die zunehmende Tageslänge. Dies ergab den wärmsten März seit Beginn regelmäßiger Wetteraufzeichnungen im Jahr 1881. „Damit liegt dieser Monat im von uns erwarteten Trend des Klimawandels in Deutschland“, so Prof. Dr. Gerhard Adrian, Präsident des Deutschen Wetterdienstes (DWD).”

Voll im erwarteten Trend? Josef Kowatsch hat sich die Temperaturreihe für die letzten 30 Jahre angeschaut und förderte Überraschendes zutage: Der Trend der März-Temperaturen ist leicht negativ, abkühlend! War dies wirklich erwartet worden?

Abb. 1: Entwicklung der März-Temperaturen in Deutschland während der letzten 30 Jahre. Daten: DWD, Graphik: Josef Kowatsch.


Je nach Wahl alternativer Betrachtungsintervalle kommen andere Trends heraus. Daher hier die Langzeitkurve für die Märztemperaturen in Deutschland. Aufällig das Temperaturplateau der letzten 15 Jahre:

Abb. 2: Entwicklung der März-Temperaturen in Deutschland während der letzten 135 Jahre. Daten und Graphik: DWD.


Tolle Nachrichten aus der Tierwelt: Ameisen können sich offenbar besser an den Klimawandel anpassen als lange angenommen. Pressemitteilung der Case Western Reserve University vom 20. März 2017:

Species appears to evolve quickly enough to endure city temperatures

The speed at which a tiny ant evolves to cope to its warming city environment suggests that some species may evolve quickly enough to survive, or even thrive, in the warmer temperatures found within cities, according to a new study by researchers at Case Western Reserve University.

Evolution is often thought of as a process that takes millennia, but urban acorn ants collected in Cleveland have taken no more than 100 years to adjust to their heat-trapping home of asphalt and concrete steeped with waste heat from cars and buildings–although their tolerance to cold was reduced. The researchers’ findings are published online in the Biological Journal of the Linnean Society. “Ants are an indicator species, and by comparing the physiologies of urban versus rural ants, we can get an idea of whether ants and other cold-blooded animals will be able to cope with the temperature changes associated with urbanization and other sources of warming like global climate change,” said Sarah Diamond, assistant professor of biology at Case Western Reserve and the study’s lead author. Diamond worked with Ryan Martin, assistant professor of biology, research associates Lacy Chick and Stephanie Strickler, and PhD student Abe Perez.

Cities tend to be a couple of degrees warmer than surrounding rural areas. To determine whether animals evolve or simply adjust to added warmth, the research team collected and compared acorn ants from the city and nearby rural land. The acorn ant (Temnothorax curvispinosus) is widespread and important for decomposing organic material in urban and rural environments across the United States. This species of ant is smaller than a cookie crumb; an entire colony of 250 can fit in a single acorn. The researchers collected colonies from within the city of Cleveland and as far as 28 miles east from the Holden Arboretum in suburban Kirtland, Ohio, to study in Diamond’s lab.

To isolate evolutionary change from short-term acclimation, groups of rural and city ants were raised in warmer city temperatures for about 10 weeks. Other groups from both locations were raised in cooler rural temperatures for 10 weeks. Tests of thermal tolerance showed all the ants acclimated. “They’re very plastic,” Martin said. “But ants collected from city habitats retained their higher heat tolerance and loss of cold tolerance compared to rural ants, regardless of whether they were born and reared under warm or cool temperatures.” Martin and Diamond believe the Cleveland ants evolved as the city became and remained highly urban during the last 100 years. Because egg-laying queen ants live from five to 15 years, the evolution to heat tolerance likely took no more than 20 generations, the researchers estimated.

With temperatures predicted to rise at least a couple of degrees Celsius over the next century, “Global data suggests that the acclimation response won’t be enough to respond to climate change, but some species, like the acorn ants, may evolve quickly enough,” Diamond said. The researchers suggest this experiment can be repeated with other species in cities around the world. Whether other species can adapt as rapidly to cities and other sources of temperature change is unknown but remains an important question for researchers trying to predict what future biological communities will look like and how they will function, Diamond and Martin said.


Im Jahr 1991 produzierte Shell einen Dokumentarfilm zu den Gefahren des Klimawandels, der sich an der IPCC-Argumentation orientierte. 26 Jahre später wird Shell hierfür scharf kritisiert (Spektrum, Guardian, Klimaretter). Hätte man es vielleicht lieber gesehen, wenn Shell einen klimaskeptischen Film gemacht hätte? Ein Sturm im Wasserglas. Im Prinzip wurde der Industrie ein Maulkorb verpasst. Egal was sie sagt, immer ist es falsch. Ein wirksames Prinzip, um die Industrie aus der Diskussion herauszuhalten. Dabei hätten die gut ausgebildeten Akademiker der Firmen wichtige Beiträge zur Erforschung des Klimas und der Diskussion zu liefern…