Prozentrechnung müsste man können: Das en(t)liche CO2-Budget

Von Uli Weber

Auf dem Internetblog „Klimalounge“ war am 11. April 2017 ein Artikel mit dem Titel „Können wir die globale Erwärmung rechtzeitig stoppen?“ erschienen. Mit der Aussage, ein befürchteter Temperaturanstieg von  1,5 bis 2 Grad erlaube nur noch ein globales CO2-Budget von 150 bis 1050 Gigatonnen (Gt), wird dann über Ausstiegszenarien aus den kohlenstoff-basierten fossilen Energieträgern schwadroniert. Dort wird behauptet, das Temperaturniveau, auf dem die globale Erwärmung später zum Halten käme, wäre in guter Näherung proportional zu den kumulativen CO2-Emissionen und um die globale Erwärmung zu stoppen, müssten noch vor 2050 globale Nullemissionen für CO2 erreicht werden.

Aber selbst dann, wenn man an einen menschengemachten Klimawandel durch die Nutzung fossiler Energien glaubt, sollte man sich nicht gleich ins Bockshorn jagen lassen. Denn es schadet vom wissenschaftlichen Standpunkt her sicherlich nicht, die der dortigen Argumentation zugrunde liegende und nachfolgend abgebildete IPCC-Grafik einmal näher zu betrachten und mit zusätzlichen Fakten abzugleichen:
Die Klimawirksamkeit von CO2 wird üblicherweise als „Klimasensitivität“ in Grad pro Verdoppelung angegeben. Das IPCC gibt dafür eine Spanne von 1,5 bis 4,5 [° / 2xCO2] an. Der ursprüngliche vorindustrielle atmosphärische CO2-Gehalt soll 280 ppm betragen haben. Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1400 Gt CO2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht. Hier die IPCC-Abbildung aus dem Klimalounge-Artikel vom 11. April 2017:

 

Der dortige Text zu dieser Abbildung, Zitat:Zusammenhang von kumulativen CO2-Emissionen und globaler Erwärmung. Die Zahlen an den „Blasen“ geben die in den verschiedenen Szenarien erreichte CO2-Konzentration in der Atmosphäre an. Die auf der vertikalen Achse angegebene Temperatur gilt zu dem Zeitpunkt, an dem die auf der horizontalen Achse angegebene Emissionsmenge erreicht wird. Das heißt: die noch folgende weitere Erwärmung allein aufgrund der thermischen Trägheit im System ist hier noch nicht einkalkuliert. Quelle: IPCC Synthesebericht (2014).

 

Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 dT °C). Vergleichen wir diese Werte einmal mit den oben aufgeführten zusätzlichen Fakten:

Der vorindustrielle CO2–Gehalt in unserer Atmosphäre soll 280 ppm oder 0,028% betragen haben. Für den Zeitraum zwischen 1900 und 2015 summiert sich der anthropogene CO2-Eintrag auf insgesamt etwa 1400 Gigatonnen (Gt) und hatte zu einer Erhöhung des atmosphärischen CO2-Gehaltes um 0,012% auf 0,040% oder 400 ppm geführt. Zwischen dem anthropogenen CO2-Ausstoß und dem atmosphärischen CO2-Gehalt ergibt sich also folgender Zusammenhang:

(1)                         X Gt CO2 = 280 ppm       mit X = „natürliche“ atmosphärische CO2-Menge [Gt CO2]

(2)                         X Gt CO2 + 1.400 Gt CO2 = 400 ppm

(3) = (2) – (1)        1.400 Gt CO2 = 120 ppm

Die ursprüngliche atmosphärische CO2-Gesamtmenge „X [Gt CO2]“ ergibt sich dann aus den Zeilen (1) und (3) mit einem einfachen Dreisatz zu:

X Gt CO2 = 280 ppm x 1.400 Gt CO2 / 120 ppm = 3.200 Gt CO2

 

Wir können aus dem IPCC-Blasenwert mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 DT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge  ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.

Nach der hier durchgeführten Abschätzung würde eine Erhöhung des vorindustriellen atmosphärischen CO2-Gehaltes auf 510 ppm also weitere 1.400 Gt CO2 (=2.800 Gt CO2– 1.400 Gt CO2) erfordern, um nach der oben abgebildeten IPCC-Grafik schließlich eine atmosphärische Temperaturerhöhung von insgesamt etwa 1,75-2,0 °C auszulösen. Bei einem weltweiten jährlichen CO2-Ausstoß von konstant 30 Gigatonnen würde es ab dem Jahre 2015 dann noch etwa 45 Jahre bis zu einem angeblich anthropogen verursachten Temperaturanstieg von insgesamt knapp 2 Grad Celsius dauern, also etwa bis zum Jahre 2060.

Die Aussage über eine kumulative Wirkung von CO2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Klimalounge-Artikel ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Das anthropogene CO2 hat in unserer Atmosphäre nämlich eine Verweildauer von nur etwa 120 Jahren (hier unter dem Stichwort „Kohlendioxid“).

Das globale CO2-Budget ist also gar nicht kumulativ, sondern fortlaufend „erneuerbar“! Mit dieser Verweildauer von etwa 120 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß also etwa 2.800 Gt CO2 pro 120 Jahre. Damit dürfte dann ein vorgeblich menschengemachter Temperaturanstieg sicher unter 2 Grad bleiben. Wir haben also eigentlich bis zum Jahre 2060 Zeit, um den anthropogenen CO2-Ausstoß auf jährlich 23 Gigatonnen (=2.800 Gt CO2 / 120 Jahre) zu begrenzen und damit das ominöse 2-Grad Ziel dauerhaft zu abzusichern. Von Null-Emissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben will.

Ein globales CO2-Budget von jährlich etwa 23 Gigatonnen CO2 würde vielmehr die befürchtete menschengemachte Klimaerwärmung dauerhaft unter 2 Grad halten. Die Dekarbonisierung der Welt erweist sich damit zum wiederholten Male als eine völlig unnötige Selbstkasteiung der Menschheit. Und aufgrund dieser religiös anmutenden Agenda will die westliche Welt jetzt freiwillig ihre kohlenstoff-basierte Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Offen bleibt nur, ob das zustimmende Schweigen einer gesellschaftlichen Mehrheit in den von einer globalen Dekarbonisierung bedrohten westlichen Industrienationen auf einem übersättigten Desinteresse, einer verkümmerten individuellen Kritikfähigkeit oder auf mangelhaften Kenntnissen in der Prozentrechnung beruht…

 

Die gerne verdrängten Korallenkiller: Sonnenmilch, Mückenspray & Co.

Immer wieder lesen wir von schlimmen Korallenbleichen, wobei der Schuldige schnell ausgemacht ist: Der Klimawandel. Oft unerwähnt bleibt dabei, dass es eine ganze Reihe von anderen Gefahren für Korallen gibt. Der Lieblingstäter CO2 muss also nicht an allem und jedem Schuld sein.

Fallender Meeresspiegel

Sie haben richtig gelesen. Der Meeresspiegel ist keine Einbahnstrasse. Insgesamt auf globalem Maßstab steigt er, aber regional gibt es auch mehrmonatige und -jährige Phasen, in denen der Meeresspiegel sinkt. Das mögen die Korallen natürlich überhaupt nicht, denn dann liegen die obersten Teile trocken und sterben ab. Nachzulesen zum Beispiel in einer Arbeit von Eghbert Elvan Ampou und Kollegen, die am 24. Februar 2017 in Biogeosciences erschien:

Coral mortality induced by the 2015–2016 El-Niño in Indonesia: the effect of rapid sea level fall
The 2015–2016 El-Niño and related ocean warming has generated significant coral bleaching and mortality worldwide. In Indonesia, the first signs of bleaching were reported in April 2016. However, this El Niño has impacted Indonesian coral reefs since 2015 through a different process than temperature-induced bleaching. In September 2015, altimetry data show that sea level was at its lowest in the past 12 years, affecting corals living in the bathymetric range exposed to unusual emersion. In March 2016, Bunaken Island (North Sulawesi) displayed up to 85 % mortality on reef flats dominated by Porites, Heliopora and Goniastrea corals with differential mortality rates by coral genus. Almost all reef flats showed evidence of mortality, representing 30 % of Bunaken reefs. For reef flat communities which were living at a depth close to the pre-El Niño mean low sea level, the fall induced substantial mortality likely by higher daily aerial exposure, at least during low tide periods. Altimetry data were used to map sea level fall throughout Indonesia, suggesting that similar mortality could be widespread for shallow reef flat communities, which accounts for a vast percent of the total extent of coral reefs in Indonesia. The altimetry historical records also suggest that such an event was not unique in the past two decades, therefore rapid sea level fall could be more important in the dynamics and resilience of Indonesian reef flat communities than previously thought. The clear link between mortality and sea level fall also calls for a refinement of the hierarchy of El Niño impacts and their consequences on coral reefs.

Siehe auch Beitrag von Jim Steele hierzu auf WUWT.

 

Pestizide

Die University of North Florida beschrieb in einer Pressemitteilung vom 20. Januar 2015 einen weiteren Korallenkiller: Pestizide. Die Forscher fanden lediglich eine mittlere Resistenz gegen die untersuchten Mückenpestizide. Oder anders ausgedrückt: Unter gewissen Umständen können diese Pestizide Korallenlarven abtöten.

Pioneer Study Examines Declining Coral Reef Health Due to Pesticides/Sea Surface Temperatures

The declining health of coral reefs is intensifying worldwide at an alarming rate, due to the combined effects of land-based sources of pollution and climate change. Despite the persistent use of mosquito-control pesticides in populated coastal areas, studies examining the survival and physiological impacts on the early life stages of foundation species, like corals, are limited. In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Dr. Cliff Ross, an associate professor of biology at the University of North Florida, along with scientists from Mote Marine Laboratory, exposed larvae from the coral, Porites astreoides, to selected concentrations of pesticides and temperatures.

In this pioneer study, recently published in Ecotoxicology, Ross and his colleagues—Kevin Olsen, Michael Henry and Dr. Richard Pierce—uncovered that this particular coral larvae were shown to have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature.

“The significance of this work is that coral reefs across the globe are declining at an alarming rate due to climate change (warming ocean temperatures) and pollution. If baby corals don’t survive exposure to these stressors, then you won’t have adults, which are needed to reproduce and maintain the populations,” said Ross, who is focusing his current research at UNF on understanding the effects of climate change and environmental stressors on marine organisms, such as corals and sea grasses.

One big issue in the Florida Keys and many other coastal environments, Ross noted, is the use of mosquito-control pesticides. The Florida Keys relies heavily upon tourism. Unfortunately, the same beautiful habitat is conducive towards mosquito growth. According to Ross, the Florida Keys Mosquito Control district does an excellent job controlling mosquito populations by applying pesticides. Unfortunately, he said, some of these pesticides can inadvertently end up in the ocean and have a negative effect on marine life.

What kind of possible negative effects? In order to better understand the combined effects of mosquito pesticides and rising sea-surface temperatures, Ross collected and exposed coral larvae to selected concentrations of two major mosquito pesticide ingredients, naled and permethrin, and seawater elevated to +3.5 degrees Celsius. After 18 to 20 hours of exposure, larvae subjected to high naled concentrations had significantly reduced survivorship compared to controls. These effects weren’t detected in the presence of permethrin or elevated temperature.

Additionally, larval settlement, post-settlement survival and bleaching weren’t impacted by any treatment. To evaluate the sub-lethal stress response of larvae, several cellular and molecular assays were run. These assays determine if the larvae are stressed, much like a human blood test. The molecular responses to pesticide exposure were variable and contingent upon pesticide type, as well as the specific biomarker being employed.

In some cases, such as with the protein carbonylation and catalase gene expression, the effects of naled exposure and temperature were interactive. In other cases, pesticide exposure failed to induce any sub-lethal stress response.

Overall, these results demonstrate that Porites astreoides larvae have a moderate degree of resistance against short-term exposure to ecologically relevant concentrations of pesticides, even in the presence of elevated temperature. However, Ross notes much more work is needed on this topic, since there are many different types of environmental stressors that can interact with pesticides to cause damage to corals.

“With the onset of increasing stress to coral reefs, via direct human activities, or indirectly through effects associated with climate change, a more complete understanding of how stress impacts corals is essential,” said Ross. “In particular, as the use of pesticides increases in coastal communities there is a need to investigate the negative effects on early life stages of foundation species like corals.”

The full study, to be published in the February 2015 issue, can be found at http://link.springer.com/article/10.1007/s10646-014-1402-8.

 

Sonnencreme

Sogar Sonnencreme von badenden Strandgästen kann den Korallen gefährlich werden wie National Geographic bereits 2008 meldete:

Swimmer’s sunscreen killing off coral
The sunscreen that you dutifully slather on before a swim on the beach may be protecting your body—but a new study finds that the chemicals are also killing coral reefs worldwide. Four commonly found sunscreen ingredients can awaken dormant viruses in the symbiotic algae called zooxanthellae that live inside reef-building coral species.

Weiterlesen in National Geographic

Die Universität Tel Aviv gab 2015 im Rahmen einer Pressemitteilung weitere Forschungsergebnisse zur Problematik bekannt:

Sunscreen is proven toxic to coral reefs

Tel Aviv University researchers discover chemical found in most sunscreen lotions poses an existential threat to young corals

The daily use of sunscreen bearing an SPF of 15 or higher is widely acknowledged as essential to skin cancer prevention, not to mention skin damage associated with aging. Though this sunscreen may be very good for us, it may be very bad for the environment, a new Tel Aviv University study finds.

New research published in Archives of Environmental Contamination and Toxicology finds that a common chemical in sunscreen lotions and other cosmetic products poses an existential threat — even in miniscule concentrations — to the planet’s corals and coral reefs. “The chemical, oxybenzone (benzophenone-3), is found in more than 3,500 sunscreen products worldwide. It pollutes coral reefs via swimmers who wear sunscreen or wastewater discharges from municipal sewage outfalls and coastal septic systems,” said Dr. Omri Bronstein of TAU’s Department of Zoology, one of the principal researchers.

The study was conducted by a team of marine scientists from TAU, including Prof. Yossi Loya, also of the Department of Zoology, the Haereticus Environmental Laboratory in Virginia, the National Aquarium (US), the US. National Oceanic & Atmospheric Administration, Ben Gurion University of the Negev, and other labs in the US.

A deadly day at the beach

A person spending the day at the beach might use between two to four ounces of sunblock if reapplied every two hours after swimming, towelling off, or sweating a significant amount. Multiply this by the number of swimmers in the water, and a serious risk to the environment emerges.

“Oxybenzone pollution predominantly occurs in swimming areas, but it also occurs on reefs 5-20 miles from the coastline as a result of submarine freshwater seeps that can be contaminated with sewage,” said Dr. Bronstein, who conducted exposure experiments on coral embryos at the Inter University Institute in Eilat together with Dr. Craig Downs of the Heretics Environmental Laboratories. “The chemical is highly toxic to juvenile corals. We found four major forms of toxicity associated with exposure of baby corals to this chemical.”

Forms of toxicity include coral bleaching, a phenomenon associated with high sea-surface temperature events like El Niño — and with global mass mortalities of coral reefs. The researchers found oxybenzone made the corals more susceptible to this bleaching at lower temperatures, rendering them less resilient to climate change. They also found that oxybenzone damaged the DNA of the corals, neutering their ability to reproduce and setting off a widespread decline in coral populations.

The study also pointed to oxybenzone as an “endocrine disruptor,” causing young coral to encase itself in its own skeleton, causing death. Lastly, the researchers saw evidence of gross deformities caused by oxybenzone — i.e., coral mouths that expand to five times their healthy, normal size.

It only takes a drop

“We found the lowest concentration to see a toxicity effect was 62 parts per trillion — equivalent to a drop of water in six and a half Olympic-sized swimming pools,” said Dr. Bronstein. The researchers found concentrations of oxybenzone in the US Virgin Islands to be 23 times higher than the minimum considered toxic to corals.

“Current concentrations of oxybenzone in these coral reef areas pose a significant ecological threat,” said Dr. Bronstein. “Although the use of sunscreen is recognized as important for protection from the harmful effects of sunlight, there are alternatives — including other chemical sunscreens, as well as wearing sun clothing on the beach and in the water.”

The researchers hope their study will draw awareness of the dangers posed by sunscreen to the marine environment and promote the alternative use of sun-protective swimwear.

 

Fischerei

Die Fischerei bedroht wichtige Fischarten in den Korallenriffen, so dass die Artenvielfalt hier stark gefährdet ist. Siehe Meldungen der University of Queensland und des ARC Centre of Excellence in Coral Reef Studies. Die Wildlife Conservation Society schlug 2015 sogar vor, bestimmte Fischarten gezielt in beschädigten Korallenriffen auszusetzen, die dann bei der Reparatur des Ökosystems und der Korallen mithelfen.

 

Seesterne

Böse Buben sind auch die Seesterne, wie die Augsburger Allgemeine am 17. Dezember 2015 berichtete:

Great Barrier Reef in Gefahr: Killer-Seesterne fressen Korallen
Für seine in allen Farben schillernde Unterwasserwelt ist das Great Barrier Reef vor der Küste Australiens weltbekannt. Doch ihm droht Gefahr durch einen Killer-Seestern.

Weiterlesen in der Augsburger Allgemeinen

 

Sauerstoffarmut

Das Smithsonian Tropical Research Institute wies am 21. März 2017 auf einen viel zu wenig berücksichtigten Korallenkiller hin: Sauerstoffarme Zonen im Meer, sogenannte Dead Zones. Etliche Korallenbleichen die man vormals der Ozeanerwärmung und Ozeanversauerung zugeordnet hatte, sind wohl in Wahrheit eher eine Folge von Sauerstoffarmut. Dabei wird der Sauerstoffgehalt nicht einmal routinemäßig von allen Ozeanmonitorstationen erfasst. Eine große Forschungslücke.

Dead zones may threaten coral reefs worldwide

Dead zones affect dozens of coral reefs around the world and threaten hundreds more according to a new study by Smithsonian scientists published in Proceedings of the National Academy of Sciences. Watching a massive coral reef die-off on the Caribbean coast of Panama, they suspected it was caused by a dead zone — a low-oxygen area that snuffs out marine life — rather than by ocean warming or acidification.

“Ocean warming and acidification are recognized global threats to reefs and require large-scale solutions, whereas the newly recognized threats to coral reefs caused by dead zones are more localized, said Andrew Altieri, staff scientist at the Smithsonian Tropical Research Institute and first author of the study. Fortunately dead zones can be reduced by controlling sewage and agricultural runoff into the ocean.” In September, 2010, coral reefs in Almirante Bay, Bocas del Toro Province, showed severe signs of stress. In addition to corals turning white and dying, which is typical during coral bleaching associated with warming events, there were other clues suggesting that more was involved than high temperatures. Many unusual observations pointed to something else as the culprit. There were thick mats of bacterial slime, and the dead bodies of crabs, sea urchins and sponges lay scattered on the ocean floor. Even more odd, there was a clear depth line above which the reefs looked OK, and below which, something had gone terribly wrong. Even single colonies of corals that straddled the line were fine above and dying below.

Scientists went to work, measuring several aspects of water quality. One set of measurements came back as a shock. Extremely low oxygen levels in deeper waters contrasted with high oxygen levels in shallow waters where corals were still healthy. This is the hallmark of a dead zone. The team thinks that such dead zones may be common in the tropics but have gone largely unreported, simply because scientists never looked. “The number of dead zones currently on our map of the world is 10 times higher in temperate areas than it is in the tropics, but many marine biologists work out of universities in Europe and North America and are more likely to find dead zones close to home,” Altieri said. “We were lucky that there was already a reef monitoring program in place at STRI’s Bocas del Toro Research Station as part of the Smithsonian’s Marine Global Earth Observatory Network,” said Rachel Collin, station director.

“Based on our analyses, we think dead zones may be underreported by an order of magnitude.” said Nancy Knowlton, coauthor and Sant Chair for Marine Science at the Smithsonian’s National Museum of Natural History. “For every one dead zone in the tropics, there are probably 10 — nine of which have yet to be identified.” The researchers found 20 instances when dead zones were implicated in the mass mortality of coral reefs worldwide. “Hypoxia (low oxygen) isn’t even mentioned in several of the most important academic reviews of threats to coral reefs and is rarely discussed at scientific meetings,” Altieri said, “Even worse, many coral-reef monitoring efforts do not include measurement of oxygen levels, making it nearly impossible to identify low oxygen as the cause of mass coral mortality after the fact.” For example, the cause of a 2016 mass mortality at the Flower Garden Reefs in the Gulf of Mexico remains unclear, but some of the photographs look strikingly similar to what was observed in Panama.

The authors argue that building capacity to monitor oxygen on reefs will help people to improve coral reef health and understand how dead zones might interact with other forces such as global warming in a one-two punch, which put reefs in even greater danger.

 

 Die Korallenkillerbande

Die Oregon State University fasste am 7. Juni 2016 die vielfältigen Gefahren für die Korallenriffe in einer Pressemitteilung zusammen:

Coral reefs fall victim to overfishing, pollution aggravated by ocean warming (weiterlesen …)

Obere Atlantikschichten widersetzen sich hartnäckig dem Aufwärmbefehl

Wir wollen uns heute die ozeanische Wärme im Atlantik vornehmen. Aus dem neuesten Climate4You Newsletter (pdf hier) besorgen wir uns die Wärmeinhalts-Kurve für die letzten 60 Jahre, die für die obersten 100 m der atlantischen Wassermassen gilt:

Abb. 1: Atlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 100 m der atlantischen Wassermassen). Graphik: Climate4You.

 

Schön zu sehen: In den letzten 13 Jahren hat sich der Atlantik nicht weiter aufgeheizt. Die Graphik zeigt eine große Treppenstufe: Plateau 1955-1985, dann Anstieg, dann ab 2004 wieder ein Plateau. Die aktuell fehlende Erwärmung der atlantischen Oberflächenwässer war auch Thema einer Arbeit von Somavilla und Kollegen, die im März 2016 in den Geophysical Research Letters erschien. Sie erklären, die Hitze hätte sich einfach von den oberen Stockwerken des Atlantiks in die Tiefenschichten verlagert:

Mid-2000s North Atlantic shift: Heat budget and circulation changes
Prior to the 2000s, the North Atlantic was the basin showing the greatest warming. However, since the mid-2000s during the so-called global warming hiatus, large amounts of heat were transferred in this basin from upper to deeper levels while the dominance in terms of atmospheric heat capture moved into the Indo-Pacific. Here we show that a large transformation of modal waters in the eastern North Atlantic (ENA) played a crucial role in such contrasting behavior. First, strong winter mixing in 2005 transformed ENA modal waters into a much saltier, warmer, and denser variety, transferring upper ocean heat and salt gained slowly over time to deeper layers. The new denser waters also altered the zonal dynamic height gradient reversing the southward regional flow and enhancing the access of saltier southern waters to higher latitudes. Then, the excess salinity in northern regions favored additional heat injection through deep convection events in later years.

Wenn man sich dann aber die Temperaturanomaliekarten im Supplement der Arbeit (Fig. S1) anschaut, erkennt man, wie heterogen diese Trends eigentlich wirklich sind. Müssen wir also weiter im Auge behalten. Die Wärmeumverteilung war bereits Thema eines Papers von Desbruyères und Kollegen 2014 in den Geophysical Research Letters:

Full-depth temperature trends in the northeastern Atlantic through the early 21st century
The vertical structure of temperature trends in the northeastern Atlantic (NEA) is investigated using a blend of Argo and hydrography data. The representativeness of sparse hydrography sampling in the basin mean is assessed using a numerical model. Between 2003 and 2013, the NEA underwent a strong surface cooling (0–450 m) and a significant warming at intermediate and deep levels (1000 m to 3000 m) that followed a strong cooling trend observed between 1988 and 2003. During 2003–2013, gyre-specific changes are found in the upper 1000 m (warming and cooling of the subtropical and subpolar gyres, respectively), while the intermediate and deep warming primarily occurred in the subpolar gyre, with important contributions from isopycnal heave and water mass property changes. The full-depth temperature change requires a local downward heat flux of 0.53 ± 0.06 W m−2 through the sea surface, and its vertical distribution highlights the likely important role of the NEA in the recent global warming hiatus.

Die erwähnte Abkühlung im Nordatlantik wollen wir uns wieder in einer aktuellen Graphik von Climate4You anschauen:

Abb. 2: Nordatlantische Wärmeinhalts-Kurve für die letzten 60 Jahre (oberste 700 m der nordatlantischen Wassermassen). Graphik: Climate4You.

 

PIK verweigert Filmemacher Interview: Die Unsicherheit wächst

Bereits mehrfach haben wir an dieser Stelle auf den neuen Dokumentarfilm “The uncertainty has settled” hingewiesen. Der Film von Marijn Poels wurde bereits auf etlichen Filmfestivals mit Preisen ausgezeichnet, eine Hase und Schildkröte Production. Den Trailer haben Sie vielleicht schon auf Youtube gesehen. Es war also nur eine Frage der Zeit, endlich einmal den ganzen Film anzuschauen. Die Kalte-Sonne-Redaktion hatte nun – ausgestattet mit Kaltgetränk und Popcorn – die Gelegenheit, den Film in ganzer Spielfilm-Länge von 90 Minuten zu inspizieren. Um es vorweg zu nehmen: Es hat sich gelohnt!

Zunächst einmal zum Titel. Für das deutsche Publikum wäre hier sicher eine landessprachliche Version sicher nützlich gewesen. “The uncertainty has settled”, was bedeutet das? Man muss den Film erst sehen, um den Sinn des Titels zu erahnen. In der Klimadebatte hieß es lange “The Science is settled”, bei den Klimawissenschaften ist alles fertigeforscht, alles im Griff. Das sollte auch bedeuten, dass man bitte mit dem nervigen Gefrage aufhört. Wenn ein Klimawissenschaftler etwas sagt, hat man das bitteschön ohne zu Murren anzuerkennen. Zurückmaueln unerwünscht. Naja, bis dann wirklich große Klopper ans Licht kamen, wie z.B. Klimamodelle, die nur die letzten 400 Jahre modellieren können, für die Zeit davor aber nichts Hinbekommen. Das kennen Sie ja. Der Titel ist also vermutlich ein Wortspiel: Statt der Wissenschaft ist nun die wissenschaftliche Unsicherheit bestätigt. Das stimmt.

Der Film ist als Roadmovie aufgebaut. Der Journalist (Marijn Poels) reist mit seinem Kameramann Volker Schmidt durch Europa und Nordamerika, um mit Landwirten und Wissenschaftlern über Biotreibstoffe und den Klimawandel zu sprechen. Poelsist lange Kare durch die schwierigen Länder und Krisenherde der Welt gereist, um von dort als Filmer und unabhängiger Medienmann zu berichten. Da war diese Reise durch den “zivilisierten” Westen sicher eine nette Abwechslung. Poels ist Holländer und sieht aus wie ein struppeliger Greenpeace-Kämpfer, wirkt dabei sehr sympathisch. Er ist Sohn eines linken Teilzeitmissionars, ein echter  Europäer – seine Frau stammt ursprünglich aus einem Dorf in Sachsen-Anhalt, in dem auch ein Teil des Films spielt.

Einen Erzähler aus dem Off gibt es nicht. Geredet wird nur vor der Kamera, auf deutsch, englisch und holländisch. Deutsche Untertitel machen es einfach, das Geschehen bequem über den ganzen Film hinweg zu verstehen. Poels konzipierte die Doku in einem langsamen unaufgeregten Erzählstil. Wilde Zusammenschnitte von Naturkatastrophen sucht man in dem Streifen zum Glück vergeblich. Der Protagonist stellt die Fragen, will selber lernen und vermeidet es, seine eigene Ansicht auszubreiten. Durch die Auswahl der Interviewpartner erkennt man aber schnell, dass Poels ernsthaft an einer Diskussion des Themas Energiewende und Klimawandel liegt. Die Öffnung zum Dialog ist ein wichtiger erster Schritt, den nur wenige gehen.

Im Heimatdorf seiner Frau in Sachsen-Anhalt trifft Poels zufällig einen holländischen Landsmann. Frits besaß mehrere große Betriebe in der Stadt, die er aber mittlerweile an seine Kinder weitergegeben hat. Das erlaubt ihm nun im Wohlstand auf dem Lande zu leben. Er ist kein Stadtmensch, sagt er. Zudem ist er Klimaskeptiker. Poels hört aufmerksam zu, sammelt Informationen. In der Entfernung dreht sich eine ganze Batterie Windkraftanlangen. Frits würde gerne eine Baumreihe davor pflanzen, damit er sie nicht mehr sehen muss. Ein Bauer aus der Region bedauert sehr, dass das Windmühlenland nicht ihm gehören würde. Denn ansonsten könte er es bequem an die Windmüller verpachten und müsste nie mehr arbeiten. Andere Bauerskollegen schnitten besser ab und müssen jetzt nur noch Geld zählen, anstatt Kartoffeln zu ernten.

Überhaupt scheint sich die deutsche Landwirtschaft vor allem um Biogas zu kümmern. Mittlerweile gibt es 8000 Biogasanlagen in Deutschland,wobei eine Snage etwa 260 Hektar Land verbraucht. Genau dieses Land fehlt jetzt für die Nahrunsgmittelherstellung. Im Zuge des globalen Nahrungsmittelmarktes wird dadurch perverserweise and Orten wie dem südmaerikanischen Regenwald neues Land gerodet, um dieses Anbaudefizit wieder auszugleichen. Die Biogaserzeugung ist stark subventioniert, lohnt sich nur, weil sie politisch gewollt ist. Marijn Poels trifft den Kieler Agrar- und Nährstoff-Exoerten Prof. Friedhelm Taube Uni Kiel. Im Interview verrät er, wie es dazu kam, dass die Biogas-Subventionen derart überdimnensioniert wurden. Die Subventionen wurden Anfang der 2000er Jahre mehrfach nachgebessert, um die Landwirte endlich ins Biogas zu bekommen. Die zögerten zunächst. Deshalb erhöhte man. Zu einem gewissen Zeitpunkt stieg dann aber der Weizen-Weltmarktpreis so stark an, dass die Politik befürchtete, die Landwirte könnten nun wieder auf Weizenanbau zurückwechseln. Also schüttete man sie so mit Subventionsgeldern zu, dass sie sich auf jeden Fall für das Biogas entschieden. Kurz nach einer neuen Steigerung der Subventionen rauschte dann der Weltmarktpreis für Weizen in den Keller. Blöd gelaufen.

Der Experte bemängelt die ökonomische Ineffizienz der Biogaserzeugung. Was könnte man mit dem vielen Geld nicht alles Gutes tun. In Ländern wie Tunesien könnte die Lndwirtschaft nachhaltig verbessert werden und Migrationsgrpnde beseitigt werden. Lieber setzt man weiter stur auf Biogas, um einen Gesichtsverlust zu vermeiden. 40% der Maisanbaufläche in Deutschland werden heute für Biogas verbraucht. Eine Tonne CO2-Vermeidung über Biogas kostet den Steuerzahler und Stromkunden 300-400 Euro. Eine Tonne CO2-Vermeidung über Wärmedämmung kostet jedoch nur 20 Euro also ein Fünzehntel. Wer kein Biogas macht, ist einfach blöd. Milchbauern machen derzeit pro Kuh 1000 Euro Verlust pro Jahr, ein kostspieliges Hobby. Will man so die Methanemissionen der Kühe senken?

Wir wollen Ihnen hier nicht den ganzen Film verraten. Im Laufe seiner Reise trifft Marijn Poels auch auf Hans von Storch, dem man gerne zuhört, da er seine Worte gut wählt und beim Klimwandel relativ ausgewogen positioniert ist. Er ist sich nicht sicher, ob der Klimawandel das wichtigste aktuelle Problem der Menschheit ist. Auf jeden Fall solle man seine Energie auch auf eine ganze Reihe anderer Herausforderungen lenken. Recht hat der Mann. Weitere Interviewpartner sind Freeman Dyson, stolze 93 Jahre alt, von der Princeton University. Er erklärt, dass die Computermodellierer zu früh zu viel Geld bekommen haben. Dann hätten sie sich verrannt und konnten dann aus der Kiste nicht mehr ohne Gesichtsverlust heraus. Es würde ihnen schwer fallen, objektiv zu bleiben.Es wäre aber klar, dass die Modelle gescheitert sind. Beobachtungen und Simulationen stimmen einfach nicht überein. Und ohne Klimaalarm gibt es kein Geld von der Regierung. Dyson kritisiert die Herdenmentalität der Wissenschaftler. Zuviel Loyalität, zu wenig eigenes Mitdenken.

Poels hatte auch beim Potsdam-Institut für Klimafolgenforschung um ein Interview gebeten. Das wurde ihm allerdings verweigert. Weshalb? Kritisches Mitdenken und Fragenstellen unerwünscht. Im Laufe des Films wird sich Poels darüber klar, dass er als Laie keine Chance hat, die Wahrheit zum Klimawandel zu erfahren. Es steht Aussage gegen Aussage. Wem soll man glauben, wer erzählt Mist? Freeman Dyson gibt Poels einen guten Rat mit auf den Weg. Er solle den Beobachtungen vertrauen, nicht theoretischen Modellen. Ein gutes Konzept.

Gegen Ende verrennt sich der Filmemacher etwas und bringt auch noch einen russischen Vertreter der abiogenen Kohlenwasserstoffe. Dies wird die meisten Zuseher zu sehr verwirren. Natürlich gibt es nicht-biologische Kohlenwasserstoffe. Aus vielen Vulkanen strömt Methan aus, Planeten haben Methanatmosphären und so weiter. In Russland glaubt man sogar, einige abiogene Ölfelder zu haben, z.B. im Kaukasus. Trotzdem ist es schon etwas ärgerlich, wenn Vladimir Kutcherov im Interview erzählen darf, man müsse nur 50 Jahre warten und die bereits leergeförderten Ölfelder wären dann alle wieder voll. Quatsch hoch drei. Das Öl und Gas der meisten entdeckten Felder stammt aus ehemaligen Tier- und Pflanzenresten. Da kann man auch 500 Jahre warten, und es füllt sich kaum etwas nach. Magengrummeln gibt es auch bei einigen Statements von Piers Corbyn, der zu ausführlich im Film zu Wort kommt und z.B. den aktuellen CO2-Anstieg als zeitverzögerten Effekt der Mittelalterlichen Wärmeperiode deutet. Höchst abenteuerlich.

Poels endet seinen Film mit einer Abwandlung des Goethezitats ‘Da steh ich nun, ich armer Tor, und bin so klug als wie zuvor’. Der Film hilft auf jeden Fall, das Interesse am Thema zu wecken. Eine systematische Behandlung der wichtigsten Klimafragen gehörte nicht zum Konzept. Das ist aber auch nicht so schlimm, denn man kann diese Themen auch in unserem Buch und Blog nachlesen. Wir möchten Ihnen den Film wärmstens empfehlen. Demnächst auch in einem Kino in Ihrer Nähe. Hier die aktuellen Vorführungstermine (2017), an denen auch der Filmemacher persönlich teilnehmen wird:

Beeinflussungsgrad der deutschen Jahresmitteltemperatur durch städtische Wärmeinseln erstmals flächendeckend quantifiziert

Eines der wichtigen Streitthemen in der Klimadebatte ist der städtische Wärmeinseleffekt (WI-Effekt). Bebauung und Wärmeerzeugung treiben die Temperaturen in den Ballungszentren zusätzlich zum weltweiten Klimawandel nach oben. Das Phänomen fungiert im Englischen auch unter ‘urban heat island’ (UHI) und ist in der Fachwelt allseits anerkannt. Eine berechtigte aber leider noch weitgehend ungeklärte Frage ist nun, inwieweit der UHI die Langzeittemperaturmessungen bereits beeinflusst hat. Wiewiel UHI steckt wirklich in den Temperaturkurven des Deutschen Wetterdienstes (DWD)?

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017

 

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

 Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

 

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

 

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

 

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Identifying anthropogenic anomalies in air, surface and groundwater temperatures in Germany
Human activity directly influences ambient air, surface and groundwater temperatures. The most prominent phenomenon is the urban heat island effect, which has been investigated particularly in large and densely populated cities. This study explores the anthropogenic impact on the thermal regime not only in selected urban areas, but on a countrywide scale for mean annual temperature datasets in Germany in three different compartments: measured surface air temperature, measured groundwater temperature, and satellite-derived land surface temperature. Taking nighttime lights as an indicator of rural areas, the anthropogenic heat intensity is introduced. It is applicable to each data set and provides the difference between measured local temperature and median rural background temperature. This concept is analogous to the well-established urban heat island intensity, but applicable to each measurement point or pixel of a large, even global, study area. For all three analyzed temperature datasets, anthropogenic heat intensity grows with increasing nighttime lights and declines with increasing vegetation, whereas population density has only minor effects. While surface anthropogenic heat intensity cannot be linked to specific land cover types in the studied resolution (1 km × 1 km) and classification system, both air and groundwater show increased heat intensities for artificial surfaces. Overall, groundwater temperature appears most vulnerable to human activity, albeit the different compartments are partially influenced through unrelated processes; unlike land surface temperature and surface air temperature, groundwater temperatures are elevated in cultivated areas as well. At the surface of Germany, the highest anthropogenic heat intensity with 4.5 K is found at an open-pit lignite mine near Jülich, followed by three large cities (Munich, Düsseldorf and Nuremberg) with annual mean anthropogenic heat intensities > 4 K. Overall, surface anthropogenic heat intensities > 0 K and therefore urban heat islands are observed in communities down to a population of 5000.

 

Mehr zum UHI-Effekt hier.

Besonnenheit statt Panik: Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe

Die beiden mächtigsten Männer der Erde glauben nicht an die Klimakatastrophe. Das ist beruhigend zu wissen. Neben US-Präsident Donald Trump hält auch der Russische Präsident Putin nichts von klimatischer Panikmache, wie Die Welt am 30. März 2017 meldete:

Putin hält Klimawandel nicht für menschengemacht

Einst hatte Putin den Klimawandel begrüßt, nun legt der russische Präsident nach: Dieser sei nicht menschengemacht – und daher auch nicht zu stoppen. Zur „Großmacht“ USA strebt er „sehr gute Beziehungen“ an.

Nach Einschätzung des russischen Präsidenten Wladimir Putin ist der Klimawandel nicht durch den Menschen verursacht und deshalb auch nicht aufzuhalten. Beim Arktisforum in der nordrussischen Stadt Archangelsk sagte Putin, die Schmelze der Eisberge dauere bereits seit Jahrzehnten an. Die Klimaerwärmung habe in den 30er-Jahren des vorigen Jahrhunderts begonnen, als es noch gar keine Treibhausgase gegeben habe. Den Klimawandel zu stoppen sei „unmöglich“. Er hänge zusammen mit „globalen Zyklen auf der Erde oder sogar von planetarischer Bedeutung“. Es komme darauf an, sich der Klimaerwärmung „anzupassen“. Putin, der am Vortag die Inselgruppe Franz-Josef-Land im Nordpolarmeer aufgesucht hatte, erläuterte seine Position mit einem Beispiel.

Weiterlesen auf welt.de

Die Argumentation ist bei beiden sicher noch zu verfeinern. Zudem wäre auch eine quantitative Diskussion der CO2-Klimasensitivität wichtig, ansonsten erscheinen die Statements doch etwas zu schwarz und weiß. Trotzdem gibt es Hoffnung, dass die beiden Präsidenten ein Gegengewicht zum ungebremsten Klimaalarmismus bilden. Wie so oft, liegt die Wahrheit wohl irgendwo in der Mitte.

——-

Heute halten wir das Blog etwas knapper. Morgen soll es dafür in aller Ausführlichkeit um den städtischen Wärmeinseleffekt (urban heat island, UHI) in Deutschland gehen. Hier hat es kürzlich unbemerkt von den Medien einen kleinen Durchbruch gegeben, den wir Ihnen präsentieren wollen. In diesem Zusammenhang wollen wir dann auch einen Weg aufzeigen, wie eine Temperaturkurve für Deutschland berechnet werden kann, aus der die gröbsten UHI-Verunreinigungen entfernt sind. Schalten Sie daher unbedingt morgen wieder das Kalte-Sonne-Blog ein, es lohnt sich.

 

Macht der Klimawandel verrückt?

Die American Psychological Association (APA) biss am 29. März 2017 ein Stück vom profitablen Klimawandelforschungskuchen ab. Sie ging in einer Pressemitteilung der Frage nach, ob der Klimawandel verrrückt macht. Wenig überraschend lautete die Antwort ‘ja’.

Climate Change’s Toll on Mental Health

New report outlines psychological effects on individuals and communities, vulnerable populations

When people think about climate change, they probably think first about its effects on the environment, and possibly on their physical health. But climate change also takes a significant toll on mental health, according to a new report released by the American Psychological Association and ecoAmerica entitled Mental Health and Our Changing Climate: Impacts, Implications, and Guidance.

Climate change-induced severe weather and other natural disasters have the most immediate effects on mental health in the form of the trauma and shock due to personal injuries, loss of a loved one, damage to or loss of personal property or even the loss of livelihood, according to the report. Terror, anger, shock and other intense negative emotions that can dominate people’s initial response may eventually subside, only to be replaced by post-traumatic stress disorder.

As an example of the impacts natural disasters can have, among a sample of people living in areas affected by Hurricane Katrina in 2005, suicide and suicidal ideation more than doubled, one in six people met the diagnostic criteria for PTSD and 49 percent developed an anxiety or mood disorder such as depression, said the report.

The impacts of climate on mental health are not relegated to disasters alone. There are also significant mental health impacts from longer-term climate change. Changes in climate affect agriculture, infrastructure and livability, which in turn affect occupations and quality of life and can force people to migrate. These effects may lead to loss of personal and professional identity, loss of social support structures, loss of a sense of control and autonomy and other mental health impacts such as feelings of helplessness, fear and fatalism. High levels of stress and anxiety are also linked to physical health effects, such as a weakened immune system. Worry about actual or potential impacts of climate change can lead to stress that can build over time and eventually lead to stress-related problems, such as substance abuse, anxiety disorders and depression, according to research reviewed in the report.

Climate change is likewise having mental health impacts at the community level. Both acute and long-term changes have been shown to elevate hostility and interpersonal and intergroup aggression, and contribute to the loss of social identity and cohesion, said the report. Certain disadvantaged communities, such as indigenous communities, children and communities dependent on the natural environment can experience disproportionate mental health impacts.

The key to combating the potential negative psychological effects of climate change, according to the report, is building resilience. It includes a section dedicated to offering guidance to aid professionals in supporting and promoting the mental health of individuals and communities and helping them build psychological resilience. One recommendation is to guide people to support and maintain their social networks.

“Individuals’ personal capacity to withstand trauma is increased when they are connected to their networks off- and online,” said the report. “Researchers have found that higher levels of social support during and in the aftermath of a disaster are associated with lower rates of psychological distress.”

The report also emphasized that adopting environmentally friendly policies and lifestyle choices can have a positive effect on mental health. For example, choosing to bike or walk to work has been associated with decreased stress levels. If walking or biking to work is impractical or unsafe, use of public transportation has been associated with an increase in community cohesion and a reduction in symptoms of depression and stress, according to the report. Also, increased accessibility to parks and other green spaces could benefit mental health as spending more time in nature has been shown to lower stress levels and reduce stress-related illness, regardless of socioeconomic status, age or gender.

The report, which was produced in collaboration with psychologists Susan Clayton, PhD, of the College of Wooster, and Christie Manning, PhD, of Macalester College, is an update to Beyond Storms and Droughts: The Psychological Impacts of Climate Change, a report released by the American Psychological Association and ecoAmerica in 2014. A seminal work on the relationship between climate change and psychology, Beyond Storms and Droughts was cited in the U.S. Global Change Research Program’s scientific assessment, The Impacts of Climate Change on Human Health in the United States. This 2017 update builds on the findings of the first report with new research, expanded emphasis on inequity, deeper guidance for individuals and communities and stories from professionals who are studying and supporting mental health in a changing climate.

A copy of the report can be found online at ecoamerica.org/wp-content/uploads/2017/03/ea_apa_mental_health_report_web.pdf

Ist das nicht verrückt? In eine ähnliche Kategorie fällt eine Meldung auf GIZMODO vom 9. April 2017. Der Klimawandel würde auf Hawaii zu einer Zunahme von Ratten-Lungenwürmern führen, die in das menschliche Gehirn kriechen:

A Brain-Invading Parasite Is Believed To Be Spreading Because Of Climate Change
Health officials in Hawaii have been warning residents not to touch snails or slugs with their bare hands because of an increase in cases of people coming into contact with a rare parasitic infection known as a rat lungworm. Experts are blaming its sudden spread across the United States on climate change and globalisation.

Weiterlesen auf GIZMODO

———————-
Die Initiative Klimakontroverse hält ihr nächstes Treffen am Donnerstag den 27. April 2017 um 19:30 Uhr im Freizeitheim Linden in Hannover ab. Thema: Nordseeinsel – Energiewende und wieder zurück. Weitere Informationen des Veranstalters:

Beim letzten Treffen ging es um folgende Themen:

1. Wie das Normale plötzlich zum Unnormalen wird

Kritik der Ausstellung „WIR ALLE SIND ZEUGEN – MENSCHEN IM KLIMAWANDEL“ v. 08.03.-06.04.,2017 in der VHS in Hannover.

Arbeitsmethode der Ausstellung
Die in der Ausstellung dargestellten Fälle von „schlechtem“ Klimawandel überraschen den versierten Betrachter. Es werden nur Ereignisse der letzten Jahrzehnte dargestellt. Ein Vergleich mit früheren Jahrhunderten findet nicht statt. …

2. Klimawarner und Klimaskeptiker sollten miteinander reden und sachlich auf die jeweils anderen  Argumente eingehen.

Es ist kaum noch zu übersehen. Der Klimaschutz ist in der Krise. Beinahe wie aus dem Nichts haben sich die Kräfteverhältnisse international geändert. Die USA sind dabei aus dem Klimaschutz auszusteigen. … Mehr  >> www.klimakontroverse.de#27.04.2017

Haben Sie Fragen zum Klima oder der Energiewende? Wir antworten gerne. Leichte Verständlichkeit und die offene Diskussion unterschiedlicher Ansichten stehen im Vordergrund und sollen ein Markenzeichen dieser Initiative sein.

Do, 27. April, 19:30, Freizeitheim Linden, Windheimstr. 4, 30451 Hannover
www.KlimaKontroverse.de
Kontakt: Achim Fahnenschild, info@KlimaKontroverse.de

———————-

Der CO2-Gehalt der Atmosphäre steigt. Da CO2 auch das Pflanzenwachstum ankurbelt wundert es kaum, dass auch die Pflanzenphotosynthese in den letzten beiden Jahrzehnten global um ein Drittel zugenommen hat. Dies berichtete jetzt die University of California.

———————-

Amüsanter und lehrreicher Blogbeitrag von Don Alphonso am 5. April 2017 auf “Stützen der Gesellschaft”:

Der Klimawandel als verbindliches Höllenfeuer der Moderne

Der Weise äußert sich vorsichtig, der Narr mit Bestimmtheit über das kommende Wetter.
Wilhelm Busch

Wissen ist tödlich, zumindest, wenn es das falsche Wissen ist. Ich beispielsweise hatte durch einen Zufall Seminare in Paläoethnobotanik. Das sind die Leute, die mit einem Bohrer in Sumpfgebiete gehen, die fernab der Zivilisation zu finden sind, und lange ungestört blieben. Dort versenken sie dann einen langen Bohrer im weichen Grund, und nehmen eine lange, weit hinunter reichende Sumpfprobe. Jedes Jahr werden in so einen Sumpf Pollen eingetragen, die sich dort unter Luftabschluss erhalten und nach unten sinken. Je tiefer die Probe, desto älter die Pollen. Auf diese Art sind Wissenschaftler in der Lage, relativ gut zu erkennen, welche Pollen wann eingetragen wurden, was Rückschlüsse auf die Pflanzenwelt der Vorgeschichte zulässt.

Bisher ist das alles noch harmlos, man bohrt dabei im Sumpf, man wäscht Sumpfmaterial aus, man schaut ins Mikroskop und vergleicht Pollen. Dann wartet man auf die C14-Datierung der jeweiligen Schicht. Paläoethnobotaniker können einem viel über das Auftauchen und Verschwinden von Weiden erzählen, auf die Gräserpollen schliessen lassen, oder über Ackerbau und Baumsorten. Wird beispielsweise der Wald abgeholzt, wie etwa in den Alpen zur Gewinnung von Metallen, Salz und Glas, schlägt sich das im Ausbleiben von Baumpollen auch in den Sümpfen nieder. Machen die Pest oder der Schwede die Menschen nieder, ergreift die Natur wieder Besitz vom besiedelten Raum, und Getreidepollen verschwinden. Auch diese Erkenntnis ist – außer für die früheren Menschen – nicht tödlich.

Tödlich wird es für unsereins erst, wenn man in der Konzertpause zwischen Rameau und Haydn plaudert und ganz beiläufig erwähnt, dass der gelbe Weinstock schon Triebe entwickelt, aber der blaue Weinstock bislang wenig Anstalten macht, sich mit Knospen zu zeigen. Normal ist es anders herum, und man gibt in solchen Momenten leichtfertig der Sorge Ausdruck, der blaue Weinstock könnte im strengen Winter Schaden genommen haben, und durch den Frost zugrunde…. DASKANNGARNICHTSEIN, wird man deutlich verwarnt, und dann kommen von Leuten, die in Biologie, Physik und Chemie nachweislich noch schlechter als ich waren, hochgenaue Auflistungen, dass auch dieser Winter viel zu warm war. Früher redete man über das Wetter, um zu plaudern, heute ist es lebensgefährlich.

Weiterlesen im FAZ-Blog.

 

Künstlich kleingeredet: Kleine Eiszeit ist und bleibt kälteste Phase der letzten 10.000 Jahre

Die britische Royal Astronomical Society hat es offenbar mit der Angst zu tun bekommen. Eigentlich sollte sich die RAS doch für eine ausgewogene Darstellung der Sonnenaktivität und ihrer klimatischen Wirkung einsetzen. Am 4. April 2017 jedoch tat man das genaue Gegenteil und redete die Sonne klein: Die Kleine Eiszeit sei gar nicht so extrem gewesen und die Sonne ist auch nur ein Faktor unter vielen. Großer Applaus aus der IPCC-Hardliner-Ecke, Stirnrunzeln bei den Paläoklimatologen. Denn eines ist klar: Die Kleine Eiszeit war extrem und stellt die kälteste Phase der vergangenen 10.000 Jahre dar. Die kältesten Episoden fallen exakt in die solaren Minima. Eigentlich ist der Fall klar. Musste die RAS diesen Schritt gehen, um politisch zu punkten? Zunächst hier die fragwürdige Pressemitteilung der RAS:

Paintings, sunspots and frost fairs: rethinking the Little Ice Age

The whole concept of the ‘Little Ice Age’ is ‘misleading’, as the changes were small-scale, seasonal and insignificant compared with present-day global warming, a group of solar and climate scientists argue.

Explanations for the cooling to Earth’s climate, thought to have occurred between the 16th and 19th centuries, include low solar activity, volcanic eruptions, human changes to land use and natural climatological change. But in a new paper in Astronomy & Geophysics, the house journal of the Royal Astronomical Society, Professor Mike Lockwood, of the University of Reading, and his collaborators, note that the temperature shift was smaller than that seen in recent decades resulting from the emission of greenhouse gases, and that although low solar activity may have been one driving factor, it certainly was not the only one.

Professor Lockwood said: “Commentators frequently refer to the Little Ice Age in discussions on climate change. We wanted to carry out a comprehensive study to see just how reliable the evidence is for a cooler climate, how big an impact it really had and how strong the evidence for a solar cause really was. “On the whole the Little Ice Age was a manageable downturn in climate concentrated in particular regions, even though places like the UK had a larger fraction of cold winters. Our research suggests that there is no single explanation for this, that warm summers continued much as they do today and that not all winters were cold.”

Researchers scrutinised historical records, such as the accounts of ‘frost fairs’ when the River Thames froze solid, and looked at the paintings from the era, such as the landscapes of Pieter Bruegel the Elder, with ‘Hunters in the Snow’ depicting a cold winter scene. Both of these are cited in support of the Little Ice Age concept. From around 1650-1710, and to a lesser extent from 1790-1825, periods respectively known as the Maunder and Dalton Minima, sunspot numbers were unusually low, an indication that the surface of the Sun was slightly cooler. This external influence is often suggested as an explanation for the colder conditions. The Reading-led team looked at the various pieces of evidence in more detail. They compared direct temperature records and proxy data such as ice records, with the years when the Thames was frozen over (whether or not a frost fair took place), and with the indications of solar activity.

Historical climate change is assessed through a variety of means. The Central England Temperature (CET) dataset tracks temperature from 1659, making it the oldest and longest running meteorological instrumental data sequence in the world. This direct record is supplemented by studies of biological proxies such as tree rings, corals, insect numbers and molluscs, all sensitive to climate change. The authors draw comparisons with the ice ages proper. Cores taken from Antarctic ice allow global temperatures to be inferred, by measuring the proportions of deuterium (2H), a heavier atom of hydrogen, and of the heavier oxygen atom 18O, compared with their lighter ‘normal’ counterparts. It takes more energy to evaporate water with a higher proportion of these atoms, and they are more easily lost from rainfall, before they are deposited in ice found nearer the poles. The changing proportion of these atoms then allows researchers to assess how the temperature has changed over millions of years.

From these comparisons, the scientists argue that the description of the period as an Ice Age is misleading, as temperatures in that period fell far less than in a glaciation. During the Little Ice Age (LIA), the average temperature in the northern hemisphere fell by around 0.5 degrees. In contrast, in the most recent major glaciation that came to an end around 12,000 years ago, global temperatures were typically 8 degrees Celsius colder than today. Frost fairs also seem to be a poor indication of overall climate, as they often did not take place despite the Thames freezing, partly for many reasons including puritanical authorities or safety as lives were lost when the ice melted. The ending of the frost fairs had nothing to do with climate change or solar activity, instead being due to the increased river flow when the original London Bridge was demolished in 1825, and the first Victoria embankment opened in 1870. Both of these prevented the river from freezing completely, despite many subsequent cold winters.

Selective use of art historical evidence appears to reinforce the illusion of a prolonged cold spell. Yet ‘Hunters in the Snow’, depicting a January scene, is part of a series by Bruegel known as ‘The Twelve Months’. Seven of these paintings may have been lost, but ‘The Gloomy Day’ (February), ‘Haymaking’ (July), and ‘The Return of the Herd’ (November) all give no indication of unusually cold conditions. Consistent with this, Lockwood and his team note that even at the height of the LIA period, colder European winters were still accompanied by many warm summers. For example, 1701 is close to the lowest point of the Little Ice Age, yet in both Paris and London the summer was reported as being unbearably hot and the CET for July that year is the 10th hottest on record, with average temperatures for the month reaching 18.3°C. The year 1676 is the second hottest June on record at 18.0°C, yet it too was in the middle of a run of cold winters. Such high summer temperatures do not fit at all with the name “Little Ice Age.”

Much more dramatic variations can result from large volcanic eruptions. Samalas, a volcano which erupted in 1257 in what is now Indonesia, ejected large amounts of dust into the atmosphere, causing a temporary cooling effect. The years between 1570 and 1730, corresponding to the coldest part of the LIA, also saw continuous lower level volcanic activity that may have suppressed temperatures. Volcanic eruptions undoubtedly cause both cold winters and cold summers. One of the clearest examples was the Tambora eruption of July 1815, which caused the next year to be called “the year without a summer.” Professor Lockwood said: “This study provides little solace for the future, as we face the challenge of global warming. Solar activity appears to be declining at present, but any cooling effect that results will be more than offset by the effect of rising carbon dioxide emissions, and provides us with no excuse for inaction.”

Eine Gleichsetzung der Kälte der Kleinen Eiszeit mit derjenigen einer richtigen Eiszeit hatte nie irgendjemand behauptet. Insofern bringt der von Lockwood und Kollegen sensationsheischende Fund “die Kleine Eiszeit war wärmer als die Große Eiszeit” nicht wirklich etwas Neues. Die im Paper Lockwood et al. 2017 verglichenen Daten sind lokal, bei den Daten der nördlichen Hemisphäre wurde offenbar ein ansonsten wenig verwendeter Datensatz verwendet. Hunderte anderer Klimakurven wurden ignoriert. Die Sonnenaktivität wurde allein über die Sonnenflecken dargestellt, obwohl es andere verlässliche Daten gibt wie z.B. isotopenbasierte solare Reihen. Insgesamt ein wenig zufriedenstellendes Paper, das eher durch Fotos von Gemälden als durch Datenvielfalt auffällt.

Um diesem Datenmangel entgegenzuwirken, hat das Kalte-Sonne-Team bereits mit Vorbereitungen zu einer eigenen Publikation zur Kleinen Eiszeit und der Auswirkungen der solaren Schwächeepisoden begonnen. Vielleicht können wir Ihnen an dieser Stelle in ein paar Monaten eine ausgewogenere Darstellung ankündigen.

 

Slowdown: Die gebremste Erwärmung der letzten anderthalb Jahrzehnte und ihre Gründe

Stefan Rahmstorf ist gegen den Erwärmungshiatus. Für ihn existiert er nicht. Er lebt lieber in der schönen heilen Rahmstorf-Welt, in der die Erwärmung ungebremst weiter voranschreitet, eine komisch-schaurige Parallelwelt, die nichts mit der Wirklichkeit zu tun hat. Der Rest der Fachwelt sieht die Dinge zum Glück etwas realistischer und publiziert fleißig zu den Gründen des Hiatus bzw. Slowdowns. Das Institut für atmosphärische Physik der Chinesischen Akademie der Wissenschaften gab zum Thema nun sogar eine Pressemitteilung heraus:

New Study Reveals the Atmospheric Footprint of the Global Warming Hiatus

The increasing rate of the global mean surface temperature was reduced from 1998 to 2013, known as the global warming hiatus or pause. Great efforts have been devoted to the understanding of the cause. The proposed mechanisms include the internal variability of the coupled ocean-atmosphere system, the ocean heat uptake and redistribution, among many others. However, the atmospheric footprint of the recent warming hiatus has been less concerned. Both the dynamical and physical processes remain unclear. 

In a recent paper published in Scientific Report, LIU Bo and ZHOU Tianjun from the Institute of Atmospheric Physics, Chinese Academy of Sciences have investigated the atmospheric anomalous features during the global warming hiatus period (1998-2013). They show evidences that the global mean tropospheric temperature also experienced a hiatus or pause (Fig. 1). To understand the physical processes that dominate the warming hiatus, they decomposed the total temperature trends into components due to processes related to surface albedo, water vapor, cloud, surface turbulent fluxes and atmospheric dynamics. The results demonstrated that the hiatus of near surface temperature warming trend is dominated by the decreasing surface latent heat flux compared with the preceding warming period, while the hiatus of upper tropospheric temperature is dominated by the cloud-related processes. Further analysis indicated that atmospheric dynamics are coupled with surface turbulent heat fluxes over lower troposphere and coupled with cloud processes over upper troposphere. 

Figure 1. (a) Global mean temperature anomalies from 1950 to 2015 and (b) linear trends of global mean temperature for near surface (i.e. the lowest atmospheric layer), and the vertical average of the whole (surface to 100hPa), lower (surface to 500hPa), and upper troposphere (500hPa to 100hPa). Red (black) bars are for the warming period. Blue(white) bars are for the hiatus period. (Liu and Zhou, 2017)

As to why the surface latent heat flux, atmospheric dynamics and cloud-related processes showed such large differences between 1983-1998 and 1998-2013, LIU, the first author of the paper, explained, “They are dominated by the Hadley Circulation and Walker Circulation changes associated with the phase transition of Interdecadal Pacific Oscillation (IPO).” According to LIU, the IPO is a robust, recurring pattern of sea surface temperature anomalies at decadal time scale. During a positive phase of IPO, the west Pacific and the mid-latitude North Pacific becomes cooler and the tropical eastern ocean warms, while during a negative phase, the opposite pattern occurs. The IPO has shifted from the positive phase to negative phase since 1998/1999, and this transition has led to the weakening of both Hadley Circulation and Walker Circulation, which served as a hub linking the three processes mentioned above. 

 “Though the heat capacity of the atmosphere is nearly negligible compared with the ocean”, said ZHOU, the corresponding author of the paper, “understanding the atmospheric footprint is essential to gain a full picture of how internal climate variability such as IPO affects the global climate from the surface to the troposphere. The new findings also provide useful observational metrics for gauging climate model experiments that are designed to understand the mechanism of global warming hiatus”.   

Citation: Liu, B. & Zhou, T. Atmospheric footprint of the recent warming slowdown. Sci. Rep. 7, 40947 (2017). http://www.nature.com/articles/srep40947

Mit anderen Worten: Der Hiatus wurde durch die Ozeanzyklen ausgelöst. Konnte man übrigens bereits 2012 in unserem Buch “Die kalte Sonne” nachlesen. Vielleicht kommt die Message demnächst sogar in Potsdam an.

Am 15. April 2017 erschien dann noch ein weiteres Paper zum Thema. Oka und Watanabe erläuterten in den Geophysical Research Letters, dass die gebremste Erwärmung mit der Ozeanzyklik im Pazifik zu tun habe:

The post-2002 global surface warming slowdown caused by the subtropical Southern Ocean heating acceleration
The warming rate of global mean surface temperature slowed down during 1998–2012. Previous studies pointed out role of increasing ocean heat uptake during this global warming slowdown, but its mechanism remains under discussion. Our numerical simulations, in which wind stress anomaly in the equatorial Pacific is imposed from reanalysis data, suggest that subsurface warming in the equatorial Pacific took place during initial phase of the global warming slowdown (1998–2002), as previously reported. It is newly clarified that the Ekman transport from tropics to subtropics is enhanced during the later phase of the slowdown (after 2002) and enhanced subtropical Ekman downwelling causes accelerated heat storage below depth of 700 m in the subtropical Southern Ocean, leading to the post-2002 global warming slowdown. Observational data of ocean temperature also support this scenario. This study provides clear evidence that deeper parts of the Southern Ocean play a critical role in the post-2002 warming slowdown.

———————-

Der Geowissenschaftler Henry Lyatsky veröffentlichte am 7. März 2017 einen lesenswerten Aufsatz zur Logik des Klimawandels:

SCIENTIFIC LOGIC AND CLIMATE CHANGE

This scientific “truth” was drilled into me, a young geology undergrad    in Calgary, by esteemed professors in basic courses at the beginning of the 1980s. In the 1970s the media were abuzz with global-cooling scares. Cooling was supposedly a scientific fact. Thankfully, the old fears of an impending new ice age have so far proved unfounded. But now, global warming has replaced the global-cooling craze. This article is not, by any means, a final word. I am neither a climatolo- gist nor a logician. My purpose is to encourage the readers to explore scientific logic, to always be skeptical, to question the methods and the motives, and to always be ready to wonder and be surprised.

Empiricism

Natural science is empirical. Empiricism says knowledge is derived from what we can sense or observe. Knowledge is gained by passive observation of natural occurrences or by active, preferably controlled, experiments. Epistemology is the study of human knowledge. It deals with how we know things.Much philosophical ink has been spilled on these subjects over the past several millennia. Too much of that ink flowed uselessly, or it is irrelevant to the discussion at hand. Only a few key points are summarized below.Karl Popper (1950, 1968) was probably the past century’s foremost empirical philosopher. He taught that a legitimate scientific hypoth- esis must be falsifiable, i.e., capable of being disproved by subsequent observations or experiments. If a “theory rules out certain possible occurrences, … it will be falsified if these possible occurrences do in fact occur”.

Weiterlesen bei der CAGW

 

Kirchenkult gegen Klimawandel: Bischof segnet Eisbär

Kein anderes Tier wird von Klimaaktivisten so instrumentalisiert wie der Eisbär. Vor einigen Jahrzehnten ging es dem weißen Ursus richtig schlecht, da er im großen Maßstab gejagt wurde. Dann stieg die Population jedoch wieder steil nach oben, da die Jagd stark eingeschränkt wurde. Klimaaktivisten ignorieren diese Entwicklung. Sie behaupten, das schwindende arktische Meereis würde das Aus für den Eisbären bedeuten. Seltsam, denn vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmeperiode gab es bereits schon einmal eine Eisarmut, und der Eisbär hat gut überlebt. Dies hat wohl auch damit zu tun, weil der Eisbär ein vielseitiger Esser ist. Wenn die Robben fehlen, kann er auch bequem auf andere Nahrung ausweichen. Wir haben an dieser Stelle bereits vielfach darüber berichtet.

Nichtsdestotrotz hat der Eisbär bereits religiösen Kultstatus bei den wissenschaftsfernen Aktivistengruppen erreicht. Zum Beipiel bei den Katholiken (Meldungauf kath.ch vom 15. Februar 2017):

Gegen den Klimawandel: Bischof segnet Eisbär
Um öffentlich auf die Folgen des Klimawandels aufmerksam zu machen, will der Freiburger Erzbischof Stephan Burger im Karlsruher Zoo einen Eisbären segnen. Tiere müssten als Mitgeschöpfe geachtet werden; Eisbären litten schon heute stark unter den steigenden Temperaturen.

Weiterlesen auf kath.ch

Als nächstes werden wohl Gletscher und Schneewehen gesegnet.

Eine wissenschafliche Studie von Susan Crockford (University of Victoria, Kanada) untersuchte den behaupteten Zusammenhang von Eisschmelze und Eisbärpopulation. Das Ergebnis: Die Hypothese ist nach statistischer Prüfung der Daten nicht robust. Das hängt vielleicht auch damit zusammen, dass die arktische Eisbärpopulation von 2015 auf 2016 sogar leicht gestiegen ist. Daily Caller vom 16. Februar 2017:

Polar Bear Numbers Still On The Rise, Despite Global Warming
Polar bear populations are still growing despite global warming, according to new research. The new population estimates from the 2016 Scientific Working Group are somewhere between 22,633 to 32,257 bears, which is a net increase from the 2015 number of 22,000 to 31,000. The current population numbers are a sharp increase from 2005’s, which stated only 20,000 to 25,000 bears remained — those numbers were a major increase from estimates that only 8,000 to 10,000 bears remained in the late 1960s. Until the new study, bear subpopulations in the Baffin Bay and Kane Basin (KB) were thought to be in decline due to over-hunting and global warming. The new report indicates this is not the case.

Weiterlesen auf Daily Caller

Polarbearscience.com am 15. Februar 2017:

The 2016 Scientific Working Group report on Baffin Bay and Kane Basin polar bears was released online without fanfare last week, confirming what local Inuit have been saying for years: contrary to the assertions of Polar Bear Specialist Group scientists, Baffin Bay and Kane Basin subpopulations have not been declining but are stable.

 Quelle: Crockford, WUWT.

 

 

Siehe auch Beitrag von Helmut Kuntz “Ein Eisbär wird vom Erzbischof als Märtyrer des Klimawandels gesegnet” auf EIKE vom 24. März 2017.