University of Washington: Holzkocher der CO2-Kompensationsprojekte bringen keinen Nutzen für Klima und Umwelt

Sind sie mal wieder ein paar Kilometer zu weit mit dem Flugzeug geflogen und haben jetzt ein schlechtes Klimagewissen? Kein Problem, Sie können Ihr Gewissen bei Providern wie Atmosfair reinwaschen und für Ihre CO2-Sünden Ablassgelder zahlen. Das Geld wird dann für klimafreundliche Projekte eingesetzt, heißt es. Beispiel Nigeria:

Nigeria : Effiziente Öfen

 Gesamteinsparung:

30.000 Tonnen CO2 pro Jahr, gemittelt über 10 Jahre

Technologietransfer:

Effiziente Öfen können 80% des benötigten Brennholzes einsparen

Lokale Umwelt:

Weniger Rauchentwicklung, Vermeidung von Abholzung

Weitere Vorteile:

Niedrigere Kosten für Haushaltsenergie

Projektpartner:

DARE (Developmental Association for Renewable Energies, Nigeria) LHL (Lernen Helfen Leben e.V., deutscher Verein), BIA (BI Alliance Company Ltd.)

 

Brennholz einsparen, weniger Rauch – eine eigentlich gute Idee. Allerdings mit einem kleinen Haken. Eine Studie der University of Washington hat jetzt herausgefunden, dass die mit CO2-Kompensationsgeldern bezahlten Holzkocher-Projekte in der Praxis keinen Klimanutzen bringen. Die bittere Erkenntnis: Die verbrauchten Brennstoffmengen haben sich trotz Holzkochern nicht veringert. Und auch die Rauchkonzentration im Inneren der Häuser und Hütten ist nur kaum merkbar zurückgegangen. Im Gegenteil: Der Anteil des gefährlichen Rußes hat sich sogar gesteigert. Ein bitterer Fehlschlag. Hier die Pressemitteilung der University of Washington vom 27. Juli 2016:

Carbon-financed cookstove fails to deliver hoped-for benefits in the field

Replacing traditional cooking fires and stoves in the developing world with “cleaner” stoves is a potential strategy to reduce household air pollution that worsens climate change and is a leading global killer. A new study by researchers from the University of British Columbia, University of Washington and elsewhere — which measured ambient and indoor household air pollution before and after a carbon-finance-approved cookstove intervention in rural India — found that the improvements were less than anticipated. Actual indoor concentrations measured in the field were only moderately lower for the new stoves than for traditional stoves, according to a paper published in June in Environmental Science & Technology. The study is one of only a handful to measure on-the-ground differences from a clean cookstove project in detail, and the first to assess co-benefits from a carbon-financed cookstove intervention.

Additionally, 40 percent of families who used a more efficient wood stove as part of the intervention also elected to continue using traditional stoves, which they preferred for making staple dishes such as roti bread. That duplication erased many of the hoped-for efficiency and pollution improvements.

Laboratory studies suggested that the more efficient, cleaner-burning stoves could reduce a family’s fuelwood consumption by up to 67 percent, thereby reducing household air pollution and deforestation. In practice, there was no statistically significant difference in fuel consumption between families who used the new stoves and families who continued to cook over open fires or traditional stoves. Without field-based evaluations, clean cookstove interventions may be pursued under carbon financing programs that fail to realize expected carbon reductions or anticipated health and climate benefits, the study concludes. “A stove may perform well in the lab, but a critical question is what happens in the real world?” said lead author Ther Wint Aung, a doctoral student at UBC’s Institute for Resources, Environment and Sustainability. “Women who are busy tending crops and cooking meals and caring for children are using stoves in a number of ways in the field that don’t match conditions in the lab.”

Across all households, average indoor concentrations of particulate matter, an unhealthy component of cooking smoke that can contribute to lung and heart disease, increased after the intervention stoves were introduced — likely because of seasonal weather patterns or food rituals that required more cooking. The median increase, however, was smaller in homes where families exclusively used intervention stoves — 51 micrograms per cubic meter, compared to 92 micrograms per cubic meter for families who used both intervention and traditional stoves and 139 micrograms per cubic meter for the control group of families who continued cooking on a traditional stove. “On the one hand, there was less of an increase in some pollution levels and that’s a win. But on the other hand, it feels pretty far from a complete solution,” said co-author and UW professor of civil and environmental engineering Julian Marshall, who conducted the research at the University of Minnesota.

The cookstove intervention the research team studied was the first stove intervention in India approved for financing under the Kyoto Protocol’s Clean Development Mechanism, which allows wealthier countries to reduce their climate emissions by investing in projects that provide climate benefits elsewhere. Among 187 families who cooked with traditional stoves that burn wood or agricultural waste in the Koppal District of Karnataka in southern India, approximately half were randomly assigned to receive intervention stoves — a single-pot “rocket” cookstove that burns the same biomass fuels. Randomization allowed the two groups to be comparable on demographic and socio-economic variables that may influence the outcome of measures, thereby minimizing potential bias.

The community-based organization leading the intervention has a history of working in the region and took care to address issues promptly and ensure that the new stoves were culturally acceptable, such as lowering the height of the stoves to meet the ergonomic needs of the women using them. The research team took detailed measurements of how much wood the two groups burned — as well as air pollution within the household cooking areas and at sites in the center and upwind of the village — before and after the intervention stoves were introduced.

The researchers also measured black carbon — a less studied component of smoke that has negative health effects and also contributes to climate change — and found intervention stoves increased the proportion of that pollutant in the smoke. Next steps for the research team include investigating whether giving families more choices among intervention stoves — with the goal of finding one that would meet a wider range of their needs — could further reduce reliance on traditional, more polluting stoves.

“We haven’t cracked this nut yet,” Marshall said. “But maybe that’s the nature of this problem — maybe we’re going to have small, incremental steps forward. Maybe it’s not going to be a vaccine-type approach where you have one giant step that dramatically reduces the problem.” “Ultimately households throughout the world will desire the same clean cooking technologies used in high-income countries and in most urban areas: electricity or gas,” said co-author Michael Brauer, UBC professor in the School of Population and Public Health. “This study suggests that the interim solution of cleaner biomass stoves remains elusive.”

The research was funded by the University of Minnesota’s Initiative for Renewable Energy and the Environment. Co-authors include Grishma Jain and Karthik Sethuraman of the Resource Optimization Initiative in Bangalore, India; Jill Baumgartner at McGill University’s Institute for Health & Social Policy; Conor Reynolds of UBC and the University of Minnesota’s Department of Civil, Environmental and Geo-Engineering; and Andrew P. Grieshop of North Carolina State University’s Department of Civil, Construction and Environmental Engineering.

Das ernüchternde Ergebnis der Studie sollte eigentlich für alle Bürger hochinteressant sein. Eine Google-News-Suche zeigt jedoch: Auch knapp einen Monat nach Erscheinen der Pressemitteilung hat keine Zeitung und kein Sender das Thema aufgegriffen. Zu brisant. Ein weiterer Fall für unsere Rubrik “Schweigen im Walde“.

 

Eine kleine Sensation, von der Presse unbemerkt: Sonnenaktivität erreichte im späten 20. Jahrhundert nun doch Maximalwerte

In der Vergangenheit wurde uns stets erklärt, die Sonnenaktivität könne nichts mit der Erwärmung im späten 20. Jahrhundert zu tun haben, denn die beiden Kurven würden ja vollkommen entgegengesetzt zueinander verlaufen. Zum Beweis wurden dann Graphiken wie die folgende aus Wikipedia verwendet:

Abbildung 1: Vergleich der Entwicklung von globaler Temperatur, CO2 und Sonnenaktivität. Aus Wikipedia. Quelle: Leland McInnes at the English language Wikipedia [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], via Wikimedia Commons

 

Das Problem: Die Sonnenaktivität wird mittlerweile gar nicht mehr allein an den wackeligen Sonnenflecken festgemacht. Das oben dargestellte Diagramm ist ein Update von 2014, das offenbar von einem User mit dem wenig vertrauenserweckenden Namen “Kopiersperre” zur Verfügung gestellt wurde. Die aktualisierten Verlaufskurven der Sonnenaktivität gibt es bei der Österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) sowie der Forschergruppe PAGES:

 

Abbildung 2: Schwankungen des solaren Klimaantriebes in Jahrtausenden, Jahrhunderten und Jahrzehnten. Oben: Im 20. Jahrhundert war die stärkste Sonnenaktivität seit 11.000 Jahren (hier 7.000 Jahre) zu verzeichnen. Mitte: Dem starken Antrieb des Hochmittelalters und dem geringeren in den Jahrhunderten danach folgte der ungewöhnliche Anstieg zum aktuellen Niveau. Unten: Erst im kurzfristigen Maßstab tritt der elfjährige Zyklus deutlich hervor (Fröhlich 2000 aktual., Wagner u.a. 2007). Abbildungs-Quelle: ZAMG

 

Abbildung 3: Sonnenaktivität während der vergangenen 400 Jahre.Weiße Kurve gibt die Total Solar Irradiance (TSI) an, die gelbe Kurve repräsentieren die Sonnenflecken. Abbildungsquelle: PAGES.

 

 

Die starken Veränderungen im Verständnis der Sonnenaktivität haben Matthes & Funke Ende 2015 bereits in einem Konferenzbeitrag auf Seite 9 dargestellt (alte Kurve SATIRE-TS in rot):

Abbildung 4: Neue und alte Kurven zur Sonnenaktivität während der vergangenen 165 Jahre. Quelle: Seite 9 in Matthes & Funke 2015.

 

 

Aber es kommt noch besser. Die Sonne erzielte am Ende des 20. Jahrhundert nicht nur ihre Maximum der letzten Jahrhunderte, sondern war offenbar so stark wie nie zuvor in den vergangenen 10.000 Jahren. Matthes et al. zeigten es in einer aktuellen Publikation von 2016 im Fachblatt Geoscientific Model Development Discussions:

Abbildung 5: Sonnenaktivität während der letzten 10.000 Jahre. Quelle: Abb. 20 in Matthes et al. 2016

 

Die außergewöhnlich starke Sonnenaktivität in der zweiten Hälfte des 20. Jahrhundert hatte übrigens bereits Sami Solanki vor mehr als 10 Jahren in Nature berichtet. Danach zog er sich jedoch auf mysteriöse Weise aus der Klimadiskussion zurück. Ist dies vielleicht der Grund, weshalb die Sonnenforscher nun nahezu unbemerkt unterhalb des medialen Radars operieren? Die unerwartet starke Sonne wirft unbequeme Fragen auf, denen man gerne ausweicht. Könnte die hohe Sonnenaktivität vielleicht doch irgendetwas mit der starken Erwärmung 1980-2000 zu tun haben?

Auf jeden Fall kann uns nun niemand mehr erzählen, dass Sonnenaktivität und Temperatur divergieren und daher der Zusammenhang widerlegt sei. Die Attribution muss auf jeden Fall neu aufgerollt werden, das ist alternativlos.

 

Ozeanzyklik statt Aerosole: Met Office Hypothese zum Nordatlantik endgültig verworfen

Im April 2012 meldetete die WAZ reißerisch:

Klima: Luftverschmutzung fördert Dürren und Wirbelstürme
Die Luftverschutzung fördert Dürren in Afrika und Wirbelstürme über dem Atlantik. Das haben jetzt britische Klimaforscher herausgefunden. Historische Klimaereignisse können damit nicht mehr natürlichen Klimaschwankungen angelastet werden. [...] “Wir müssen umdenken: Eine ganze Anzahl von historischen Klimaereignissen wie besonders starke Dürren in der Sahelzone können wir nun nicht mehr nur den natürlichen Klimaschwankungen anlasten”, schreiben Ben Booth vom Hadley Centre des britischen Meteorological Office in Exeter und seine Kollegen. Bisherige Klimamodelle, aber auch Regelungen zum Schwebstoffausstoß müssten an die neuen Erkenntnisse angepasst werden.

Weiterlesen auf derwesten.de.

Es handelte sich um eine Arbeit von Booth et al. 2012, deren Belastbarkeit aber bereits damals von den meisten Fachkollegen bezweifelt wurde (siehe unseren Blogbeitrag “Britisches Met Office schnupft Aerosol-Überdosis: Ich mach’ mir die Welt, Widdewidde wie sie mir gefällt“).

Am 6. Juni 2016 kam nun das endgültige Ende des alarmistischen Modells. Eine Forscherguppe um Jon Robson analysierte in Nature Geoscience die Klimaentwicklung im Nordatlantik und konnte die Temperaturveränderungen vollständig mit der klimasysteminternen atlantischen Ozeanzyklik erklären. Die Autoren erklären ausdrücklich, dass die Aerosol-Hypothese von Booth und Kollegen damit hinfällig ist. Die WAZ schweigt zur Arbeit. Ein neuer Fall unserer Dokumentation zum verdächtigen “Schweigen im Walde“. Hier die Kurzfassung der neuen Arbeit von Robson et al. 2016:

A reversal of climatic trends in the North Atlantic since 2005
In the mid-1990s the North Atlantic subpolar gyre warmed rapidly1, which had important climate impacts such as increased hurricane numbers2 and changes to rainfall over Africa, Europe and North America3, 4. Evidence suggests that the warming was largely due to a strengthening of the ocean circulation, particularly the Atlantic Meridional Overturning Circulation1, 5, 6, 7. Since the mid-1990s direct and indirect measurements have suggested a decline in the strength of the ocean circulation8, 9, which is expected to lead to a reduction in northward heat transport10, 11. Here we show that since 2005 a large volume of the upper North Atlantic Ocean has cooled significantly by approximately 0.45 °C or 1.5 × 1022 J, reversing the previous warming trend. By analysing observations and a state-of-the-art climate model, we show that this cooling is consistent with a reduction in the strength of the ocean circulation and heat transport, linked to record low densities in the deep Labrador Sea9. The low density in the deep Labrador Sea is primarily due to deep ocean warming since 1995, but a long-term freshening also played a role. The observed upper ocean cooling since 2005 is not consistent with the hypothesis that anthropogenic aerosols directly drive Atlantic temperatures12.

 

Waldbrände im europäischen Mittelmeerraum sind in den letzten 30 Jahren seltener und kleiner geworden

In Südwesteuropa lodern zur Zeit Waldbrände und legen große Waldgebiete in Schutt und Asche. Insbesondere die Eukalyptus-Plantagen fackeln ab wie Zunder. Auf der spanischen Kanareninsel hat ein Deutscher das Feuer fahrlässig verursacht. Bild berichtete am 10. August 2016:

La Palma in Brand gesteckt: Deutscher Klopapier-Zündler war ein Hunde-Beißer!
Die Geschichte um Aussteiger Scott S. (27), der auf der La Palma Klopapier angezündet hatte und dadurch einen Teil der Kanaren-Insel abfackelte, wird immer irrer! Der Deutsche, der vor fünf Jahren ausgewandert war, sorgte bereits Anfang des Jahres für Schlagzeilen – weil er einen Hund gebissen hatte!

Weiterlesen in Bild.

Am selben Tag brachte schwaebische.de ein lesenswertes Interview mit dem Wissenschaftler Johann G. Goldammer zu den Waldbränden in Südeuropa:

Schwaebische.de: Wie problematisch sind Waldbrände wie sie derzeit wüten?

Goldammer: Auf den kanarischen Inseln ist das Feuer nichts ungewöhnliches. Dort gibt es eine Kieferart, die sich den Feuern anpasst und danach auch noch austreiben kann. Jetzt ist allerdings eine sehr große Fläche auf La Palma zerstört, mit Stabilität der Wald-Ökosysteme wird es so problematisch. Ein Problem dort ist, dass die Siedlungen direkt an den Wald grenzen. Das gilt gleichermaßen für Portugal. Und dort werden auch gerade sehr die Eukalyptus-Aufforstungen diskutiert. Wenn Sie vor 50 Jahren diese Landschaft besucht hätten, dann hätten Sie gesehen, dass da gar kein Wald ist. Das waren traditionelle Landwirtschaftsgebiete. Die Landflucht hat dazu geführt, dass diese Flächen verwildern. Dort ist einfach kein Mensch. Jetzt ist diese Landschaft plötzlich brennbar. Da fragt man sich, in welche Situation sich die Gesellschaft selbst manövriert hat. Das Problem ist absolut selbst geschaffen.

Ganzes Interview auf schwaebische.de lesen.

Passgenau zum Thema erschien im März 2016 in PLOS One eine neue Arbeit eines Teams um Marco Turco, in dem die Wissenschaftler das deutliche Ergebnis sogar in den Titel schrieben: Im europäischen Mittelmerrraum hat die verbrannte Fläche und Anzahl von Bränden in den letzten knapp 30 Jahren abgenommen. Nur in Portugal zappeln die Daten ein wenig stärker. Die allgemeine Abnahme der Waldbrände führen die Forscher auf verbesserte Feuerbekämpfungsvorkehrungen zurück. Lokale Anstiege interpretieren Turco und Kollegen als Folge “gefährlicherer Landschafts-Konfigurationen”, was vermutlich als Eukalyptus und Bauen in Waldnähe übersetzt werden kann. Die Klimaerwärmung wird ebenfalls kurz genannt, allerdings mit untergeordneter Bedeutung.

Im Folgenden der Abstract der wichtigen Studie:

Decreasing Fires in Mediterranean Europe

Forest fires are a serious environmental hazard in southern Europe. Quantitative assessment of recent trends in fire statistics is important for assessing the possible shifts induced by climate and other environmental/socioeconomic changes in this area. Here we analyse recent fire trends in Portugal, Spain, southern France, Italy and Greece, building on a homogenized fire database integrating official fire statistics provided by several national/EU agencies. During the period 1985-2011, the total annual burned area (BA) displayed a general decreasing trend, with the exception of Portugal, where a heterogeneous signal was found. Considering all countries globally, we found that BA decreased by about 3020 km2 over the 27-year-long study period (i.e. about -66% of the mean historical value). These results are consistent with those obtained on longer time scales when data were available, also yielding predominantly negative trends in Spain and France (1974-2011) and a mixed trend in Portugal (1980-2011). Similar overall results were found for the annual number of fires (NF), which globally decreased by about 12600 in the study period (about -59%), except for Spain where, excluding the provinces along the Mediterranean coast, an upward trend was found for the longer period. We argue that the negative trends can be explained, at least in part, by an increased effort in fire management and prevention after the big fires of the 1980’s, while positive trends may be related to recent socioeconomic transformations leading to more hazardous landscape configurations, as well as to the observed warming of recent decades. We stress the importance of fire data homogenization prior to analysis, in order to alleviate spurious effects associated with non-stationarities in the data due to temporal variations in fire detection efforts.

Bereits am 3. Mai 2016 hatte das Karslruher Institut für Technologie (KIT) eine interessante Pressemitteilung zur globalen Entwicklung von Waldbränden herausgegeben:

Flächenbrände: Je mehr Mensch, desto weniger Feuer

Wissenschaftler des KIT sowie aus Schweden und Amerika zeigen, dass der Einfluss der demografischen Entwicklung auf Feuer in Ökosystemen genauso stark ist wie der des Klimawandels

Jährlich verbrennen weltweit etwa 350 Millionen Hektar Landoberfläche – das entspricht der Größe von Indien. Im Hinblick auf gesundheitliche und wirtschaftliche Schäden sind genaue Prognosen über die zukünftige Entwicklung von Feuern von großer Bedeutung. Frühere Untersuchungen nennen in diesem Zusammenhang oft den Klimawandel als wichtigsten Faktor. Dass die Bevölkerungsentwicklung jedoch mindestens genauso viel Einfluss nimmt, konnte nun eine Forschergruppe mit Beteiligung des Karlsruher Instituts für Technologie (KIT) zeigen. Die Ergebnisse stellten sie im Fachblatt Nature Climate Change vor (dx.doi.org/10.1038/nclimate2999 ) [Knorr et al. 2016].

Feuer in Wäldern und Savannen sind für viele natürliche Ökosysteme essentiell: So tragen sie beispielsweise zur natürlichen Verjüngung und Biodiversität von Wäldern bei. Allerdings setzen sie auch große Mengen Luftschadstoffe frei, wie etwa Rußpartikel oder Ozon. „In einer zukünftig wärmeren, und häufig auch trockeneren Welt wird das Brandrisiko noch weiter ansteigen“, sagt Almut Arneth, Professorin am Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung des KIT. „Dadurch erhöht sich das Schadensrisiko für den Menschen.“ Wie sich Wald- und Savannenbrände zukünftig entwickeln und ausbreiten, haben die Umweltforscherin und ihre Kollegen der schwedischen Universität Lund sowie des amerikanischen National Center for Atmospheric Research in Colorado untersucht. In der globalen Modellstudie berücksichtigten sie dabei, welche Auswirkungen Faktoren wie Klimawandel oder Vegetationswachstum, aber auch der Mensch haben könnten. Als Grundlage nutzten die Wissenschaftler Satellitenaufnahmen von Flächenbränden, beginnend im Jahr 1997. Diese verknüpften sie mit Computersimulationen über die Entwicklung der Vegetation weltweit in Folge von Klimaveränderungen. Außerdem berücksichtigten sie verschiedene Szenarien aus globalen Klimamodellen sowie der länderspezifischen Bevölkerungsentwicklung.

Dabei zeigte sich ein komplexeres Bild, als die Forscher angenommen hatten: „Bisher gingen wir davon aus, dass der Klimawandel die Anzahl der Flächenbrände erhöht“, so Arneth. „In weiten Teilen der Welt hat die Größe der verbrannten Flächen über das vergangene Jahrhundert jedoch nicht zu- sondern abgenommen.“ Simulationen, die ausschließlich den Einfluss des Klimawandels abbildeten, zeigten allerdings, dass es zukünftig mehr Feuer weltweit geben wird: Vor allem in Nordamerika, Südeuropa, Zentralasien und in großen Teilen Südamerikas verstärkt der Klimawandel Flächenbrände. „Die Ursache für den Rückgang der Feuer musste also eine andere sein. Als wir die Modelle um demografische Faktoren erweiterten, dämpfte das die Folgen des Klimawandels stark ab“, erklärt Arneth. Das liege daran, dass der Mensch Flächenbrände weitestgehend unterdrücke, zum Beispiel durch das aktive Löschen von Bränden oder durch die „Fragmentierung“ der Landschaft: So bremsen etwa Straßen oder Felder die Ausbreitung von Waldbränden. Mit steigender Bevölkerungsdichte sinke demnach die Anzahl der Feuer. In Zukunft bremse die wachsende Bevölkerung sowie die Erschließung ländlicher Flächen als Lebensraum die Entstehung von Flächenbränden, vor allem in Afrika sowie Teilen Asiens und Südamerikas.

Dies heiße aber nicht, so Arneth, dass zukünftig das Brandrisiko für Mensch und Umwelt sinkt: So entstehen beispielsweise immer mehr Siedlungsgebiete in feueranfälligen Regionen. In diesen Gebieten sei dann schlicht aufgrund der wachsenden Bevölkerungsdichte das Risiko höher, durch Feuer Schäden zu erleiden. Genauso begünstige eine niedrige Population das Entstehen von Feuern: „Ländliche Gebiete, die durch den Umzug der Bevölkerung in Städte verlassen sind, werden wieder anfälliger für Flächenbrände werden“, so Arneth. Die Ergebnisse können vor allem dazu beitragen, zukünftige Feuerrisiken besser abzuschätzen, um Feuermanagementstrategien zu verbessern: „Raumplanung und Klimapolitik müssen eng miteinander verbunden sein. Mit einer sorgfältigen Planung und einem bewussten Umgang mit der Landoberfläche, kann das Risiko für Flächenbrände verringert werden.“

Im selben Monat gab die walisische Swansea University am 25. Mai 2016 eine Pressemitteilung mit ähnlicher Stoßrichtung heraus:

Wildfire: misconceptions about trends and impacts revealed in new research

A new analysis of global data related to wildfire, published by the Royal Society, reveals major misconceptions about wildfire and its social and economic impacts. Prof. Stefan Doerr and Dr Cristina Santin from Swansea University’s College of Science carried out a detailed analysis of global and regional data on fire occurrence, severity and its impacts on society. Their research, published in Philosophical Transactions of the Royal Society B, examined a wide range of published data arising from satellite imagery, charcoal records in sediments and isotope-ratio records in ice cores, to build up a picture of wildfire in the recent and more distant past.

In contrast to what is widely portrayed in the literature and media reports, they found that:

  • global area burned has seen an overall slight decline over past decades, despite some notable regional increases. Currently, around 4% of the global land surface is affected by vegetation fires each year;
  • there is increasing evidence that there is less fire in the global landscape today than centuries ago;
  • direct fatalities from fire and economic losses also show no clear trends over the past three decades

The researchers conclude: “The data available to date do not support a general increase in area burned or in fire severity for many regions of the world.   Indeed there is increasing evidence that there is overall less fire in the landscape today than there has been centuries ago, although the magnitude of this reduction still needs to be examined in more detail.” (weiterlesen …)

Hamburger Max-Planck-Institut für Meteorologie hält CO2-Klimasensitivität von 2°C pro CO2-Verdopplung für möglich

Das Thema CO2-Klimasensitivität ist der Schlüssel zur Entwirrung der Klimadebatte. Wie die meisten von unseren Lesern wissen, steuert die Wissenschaft derzeit auf deutlich niedrigere Werte zu. Während der IPCC lange Jahre 3,0°C Erwärmung pro CO2-Verdopplung annahm, geht die Reise in den jüngeren begutachteten Publikation stark in Richtung 2 Grad. Dem Hamburger Max-Planck-Institut für Meteorologie (MPIM), und speziell dessen Leiter Björn Stevens, gebührt hier große Anerkennung. Er sprach aus was viele bereits ahnten: Die Aerosole kühlen gar nicht so stark, wie in den Klimamodellen angenommen. Im Umkehrschluss kann auch das CO2 nicht so stark wärmen wie behauptet, um schlussendlich nicht über die aktuellen Temperaturen hinauszuschießen.

In einem neuen Artikel auf seiner Webseite erläuterte das MPIM die Klimasensitivität:

Klimasensitivität – Ein Maß für den Klimawandel und eine große wissenschaftliche Herausforderung

Die Klimasensitivität der Erde wurde oft als der “Heilige Gral” der Klimawissenschaft angesehen. Es gibt keine andere Maßzahl, die soviel über Klimawandel aussagt wie die Klimasensitivität. Sie ist ein Maß für die Änderung der mittleren globalen Erdoberflächentemperatur in Folge einer Verdopplung der atmosphärischen CO2-Konzentration.

Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des Intergovernmental Panel on Climate Change (IPCC) wahrscheinlich zwischen 1,5 und 4,5 °C und umfasst somit eine Unsicherheit, die sich seit den frühen Untersuchungen der Klimasensitivität in den 1970er Jahren nicht verringert hat. Das Gedankenexperiment der CO2-Verdopplung hat natürlich keine Entsprechung in der Realität, sondern liefert eine einfache Kennzahl zur Beschreibung der Empfindlichkeit der Erde gegenüber Kohlendioxid und anderen Antrieben, die das Klima beeinflussen könnten, wie z. B. Methan und Aerosolpartikel. Die Kenntnis dieser Zahl ist der Schlüssel zu verlässlichen zukünftigen Klimaprojektionen.

[...]

Im Bereich der Tropen ist das Verhältnis von Schwankungen der ins All abgegebenen Infrarotstrahlung zur Oberflächentemperatur in Beobachtungen größer, als es in Klimasimulationen ist. Das könnte darauf hinweisen, dass in den Modellen wichtige Rückkopplungsprozesse fehlen. Die Idee ist, dass sich trockene und wolkenfreie Regionen in einem erwärmten Klima ausdehnen und dadurch auch mehr Infrarotstrahlung in den Weltraum entweichen würde. Dieser Prozess wurde Iris-Effekt genannt, in Analogie zur Vergrößerung der Iris eines Auges bei verstärktem Lichteinfall, bei einer gleichzeitigen Verkleinerung der Pupille.

Der Iris-Effekt könnte ein negatives Feedback bedeuten und dadurch die Klimasensitivität absenken. Frühere Schätzungen des Effektes deuteten darauf hin, dass er alle anderen positiven Rückkopplungen aufheben könnte, was zu einer Klimasensitivität von nur 1 °C führen würde. Durch das Integrieren des Iris-Effekts in das MPI-M Erdsystemmodell zeigten Mauritsen und Stevens, dass die vom Iris-Effekt verursachte, trockenere Atmosphäre zu weniger Wolken führt und somit den verminderten Treibhauseffekt durch weniger hohe Wolken aufhebt. Diese Verringerung von hohen Wolken verstärkt zudem Änderungen des Wasserkreislaufs. Sowohl eine niedrigere Klimasensitivität von etwa 2 °C als auch eine verstärkte hydrologische Änderung könnten die Modelle näher an die besten Schätzungen aus Beobachtungen heranbringen. Mauritsen und Stevens stellen sich vor, dass der Iris-Effekt in der tropischen Konvektion als physikalisch plausibler Rückkopplungsprozess eintritt, wenn sich bei steigenden Temperaturen konvektive Niederschlagswolken zu größeren, aber weniger zahlreichen, Wolken zusammenschließen.

Ganzen Artikel auf der Webseite des MPIM lesen.

Eine erstaunliche Aussage: Die CO2-Klimasensitivität könnte durchaus bei 2°C liegen, sagen die Hamburger Forscher. Eine kleine Sensation, zu der die Medien schweigen, zu unbequem ist das Ergebnis für die Klimadebatte. Nicht auszuschließen, dass Stevens in 10 Jahren dafür den Nobelpreis bekommt.

In einer aktuellen Arbeit vom 9. August 2016 die in PNAS erschien (Bony et al. 2016), untermauern Stevens und Kollegen die Iris-Theorie. In einer Pressemitteilung teilte das MPIM am 15. Juli 2016 hierzu mit:

Thermodynamik steuert Amboss-Wolkenbedeckung

In einer neuen Studie haben Dr. Sandrine Bony, IPSL, Paris, Prof. Bjorn Stevens, Tobias Becker, beide Max- Planck-Institut für Meteorologie (MPI-M), Hamburg, und Kollegen Prozesse identifiziert, die das Entstehen von konvektiven Amboss-Wolken steuern. Konvektive Amboss-Wolken sind großräumige Eiswolken, die sich zu Gewittern ausbilden und Eispartikel hoch in die obere Troposphäre und wieder abwärts transportieren. Es wurden Theorien darüber entwickelt, was die Höhe dieser konvektiven Amboss-Wolken bestimmt; diese Theorien sind ein wichtiger Meilenstein für unser Verständnis wie Wolken auf Erwärmung reagieren. Nun wurde zum ersten Mal eine Theorie vorgeschlagen, die erklärt, was der Größe des konvektiven Gebietes steuert. Durch eine innovative Analyse von unterschiedlich komplexen Modellen zeigen die Autoren, dass sich in einem erwärmenden Klima die Wolken in größere Höhen verschieben. Die Temperatur bleibt dabei nahezu unverändert, die Stabilität der Atmosphäre nimmt jedoch zu; dies reduziert den konvektiven Ausfluss in der oberen Troposphäre und vermindert die Amboss-Wolkenbedeckung. Die Autoren zeigen außerdem, dass die gleichen Prozesse auch die Aggregation von Konvektion beeinflussen, und dass diese Prozesse dazu beitragen, dass Konvektion bei Erwärmung stärker zur Aggregation tendiert. Zusammengefasst liefern diese Ideen die Untermauerung für den atmosphärischen Iris-Effekt, der schon lange diskutiert wird.

Dieser Stabilitäts-Iris-Mechanismus trägt wahrscheinlich zum Schrumpfen von Regengebieten bei, wenn sich das Klima erwärmt. Ob er die Klimasensitivität beeinflusst oder nicht muss weiter untersucht werden. Im Gegensatz zu anderen Untersuchungen zeigt diese Studie, dass der Stabilitäts-Iris-Mechanismus in den Modellen repräsentiert ist, und dass die Auswirkung dieses Mechanismus auf die Klimasensitivität zum großen Teil davon abhängt wie niedrige Wolken auf ein kleiner werdendes Amboss-Wolkengebiet reagieren. Letzteres wird in diesem Sommer im Fokus einer neuen Feldmesskampagne in der Nähe von Barbados (als Teil von NARVAL II) und einer Folgekampagne 2020 stehen.

Originalveröffentlichung:
Bony, S., B. Stevens, D. Coppin, T. Becker, K. Reed, A. Voigt and B. Medeiros (2016) Thermydynamic control of anvil-cloud amount. PNAS, Early Edition, Opens external link in current windowdoi: 10.1073/pnas.1601472113.  

Wir wünschen gutes  Gelingen in Barbados!

Abschließend schauen wir kurz auf die Medienreaktionen auf diese spannende Arbeit. Google News bringt die traurige Gewissheit: Niemand hat darüber berichtet. Schade. Dies ist bei weitem nicht das erste Mal, dass auf den ersten Blick unbequeme Pressemitteilungen von Instituten einfach ignoriert werden. Wir werden daher einen neuen Service einführen. Immer wenn wir bemerken, dass die Medien stumm bleiben, werden wir den entsprechenden Blogartikel mit dem Schlagwort (“Tag”) ‘Schweigen-im-Walde’ versehen. Die Schlagwörter können Sie am rechten Rand unserer Seite unterhalb des Begriffes “Artikel” anklicken. Im Laufe der Zeit werden wir versuchen, dies auch für bereits veröffentlichte Artikel nachzutragen. Leider fehlt uns hier die personelle Basis. Wer hat Lust mitzuhelfen? Bitte via Kontaktformular melden.

Verwendet werden sollen die folgenden beiden Nachrichtensuchmaschinen:

Google News

Paperball

Suchbegriffe: Nachname des ersten Autors, ‘Klimawandel’ sowie weitere griffige Begriffe aus der Studie. Das Prädikat “Schweigen im Walde” wird verliehen, wenn sowohl Zeitungen, als auch Radiosender und TV-Sender die Nachricht ignoriert haben. Kleinere Spezialwebplattformen wollen wir mangels Masse nicht zählen. Das könnte am Ende eine schöne Materialsammlung für eine Diplom- oder Doktorarbeit geben… Wer macht mit?

 

Neue Studie in Nature Geoscience: Atlantische Ozeanzyklen sind Mitverursacher der Klimaerwärmung des späten 20. Jahrhunderts

In unserem Buch “Die kalte Sonne” hatten wir 2012 dargestellt, dass Ozeanzyklen wie die PDO, AMO oder NAO einen entscheidenden und in bestimmten Grenzen vorhersehbaren Einfluss auf die Temperaturentwicklung auf der Erde haben. Damals ernteten wir für diese Idee (die im übrigen gar nicht von uns war), heftige Kritik aus den Kreisen der Klimaforscher. Eine Olympiade später scheint das Modell jedoch endlich in den Köpfen der Wissenschaftler angekommen zu sein. Eine Gruppe um Thomas Delworth publizierte am 20. Juni 2016 in Nature Geoscience eine Arbeit, in der sie den systematischen Einfluss der NAO auf das vergangene aber auch zukünftige Klima detailliert beschreiben.

Es ist erfrischend zu sehen, wie hier der ernsthafte Versuch unternommen wird, den anthropogenen vom natürlichen Einfluss auf das Klima der vergangenen Jahrzehnte zu unterscheiden und zu quantifizieren. Der aufstrebende Ast der Nordatlantischen Oszillation (NAO) in den 1980er und 90er Jahren (Abbildung 1) hat dabei laut Studie zur Erwärmung der nördlichen Hemisphäre signifikant beigetragen. Zudem schreiben die Forscher den Rückgang des arktischen Meereises sowie die gesteigerte atlantische Hurrikantätigkeit der damals ansteigenden NAO zu.

 

Abbildung 1: NAO-Verlauf während der vergangenen 150 Jahre. Quelle: Wikipedia. Von Delorme – Eigenes Werk – Datei Quelle : Hurrell, James & National Center for Atmospheric Research Staff Hurrell North Atlantic Oscillation (NAO) Index (station-based) / Hosted data / “DJFM North Atlantic Oscillation Index (Station-Based) “, CC-BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=47611997

 

Da nun der systematische NAO-Einfluss auf das Klima der Vergangenheit erkannt wurde, kann man die Ozeanzyklen endlich auch in die Klimamodelle einbauen. Noch 2011 hatte uns ein bekannter Hamburger Klimamodellierer im Zuge der Recherche zum Buch erklärt, das wäre doch alles nur nutzloses Rauschen. So kann man sich irren. Im neuen Paper sehen Delworth und Kollegen nun plötzlich eine wichtige Rolle der Ozeanzyklen bei der Klimavorhersage. In ihrem Paper schreiben sie:

In addition, decadal predictions made with two of the models used in this study, as well as other models, suggest a weakening of the AMOC over the next decade (Supplementary Fig. 8). [...] In isolation, a weakening AMOC would tend to moderate the rate of loss of Arctic sea ice and warming over the NH extratropics through reduced poleward oceanic heat transport.

Auf gut deutsch: Im kommenden Jahrzehnt rechnen die Forscher mit einer Abschwächung des atlantischen AMOC-Ozeanzyklus (Abbildung 2), was zu einer “gedämpften Erwärmung” auf der Nordhalbkugel führen wird. Eigentlich meinen die Autoren “Abkühlung”, was jedoch politisch schwer vertretbar gewesen wäre. So bezieht sich die “gedämpfte Erwärmung” wohl eher auf die resultierende Temperatur, die ein Gemisch aus Ozeanzyklen, CO2 und Sonnenaktivität ist. Da sich auch die Sonnenaktvität in den kommenden Jahrzehnten abschwächt und das CO2 vermutlich eine sehr viel geringere Erwärmungswirkung besitzt als lange angenommen, wird es spannend werden.

Abbildung 2: Vorhersage der AMOC laut Delworth et al. 2016.

 

Im Folgenden der Abstract der neuen Studie:

The North Atlantic Oscillation as a driver of rapid climate change in the Northern Hemisphere
Pronounced climate changes have occurred since the 1970s, including rapid loss of Arctic sea ice1, large-scale warming2 and increased tropical storm activity3 in the Atlantic. Anthropogenic radiative forcing is likely to have played a major role in these changes4, but the relative influence of anthropogenic forcing and natural variability is not well established. The above changes have also occurred during a period in which the North Atlantic Oscillation has shown marked multidecadal variations5. Here we investigate the role of the North Atlantic Oscillation in these rapid changes through its influence on the Atlantic meridional overturning circulation and ocean heat transport. We use climate models to show that observed multidecadal variations of the North Atlantic Oscillation can induce multidecadal variations in the Atlantic meridional overturning circulation and poleward ocean heat transport in the Atlantic, extending to the Arctic. Our results suggest that these variations have contributed to the rapid loss of Arctic sea ice, Northern Hemisphere warming, and changing Atlantic tropical storm activity, especially in the late 1990s and early 2000s. These multidecadal variations are superimposed on long-term anthropogenic forcing trends that are the dominant factor in long-term Arctic sea ice loss and hemispheric warming.

 

Das Spiel ist aus: Niederländische Forscher entzaubern Rahmstorfs Golfstrom-Alarmgeschichte

Im März 2015 verbreitete Stefan Rahmstorf (“stefan”) über das IPCC-nahe Klimablog Realclimate eine windige Alarmstory. Eine Kälteanomalie im Atlantik südöstlich vor Grönland wäre der Beweis dafür, dass der Golfstrom langsam schwächer würde, eine Folge der menschengemachten Klimaerwärmung! “stefan” schrieb seinerzeit auf Realclimate:

What’s going on in the North Atlantic?
The North Atlantic between Newfoundland and Ireland is practically the only region of the world that has defied global warming and even cooled. Last winter there even was the coldest on record – while globally it was the hottest on record. Our recent study (Rahmstorf et al. 2015) attributes this to a weakening of the Gulf Stream System, which is apparently unique in the last thousand years. [...] It happens to be just that area for which climate models predict a cooling when the Gulf Stream System weakens (experts speak of the Atlantic meridional overturning circulation or AMOC, as part of the global thermohaline circulation). That this might happen as a result of global warming is discussed in the scientific community since the 1980s – since Wally Broecker’s classical Nature article “Unpleasant surprises in the greenhouse?” Meanwhile evidence is mounting that the long-feared circulation decline is already well underway.

Dazu zeigt Rahmstorf das folgende Bild (“Linear temperature trend from 1900 to 2013″):

 

In seinem Beitrag skizzierte der Postdamer PIK-Forscher ein wahres Klimahorrorszenario und suggerierte, dass alles noch viel schlimmer kommen würde als sowieso schon befürchtet.

In der Folge machten sich internationale Fachkollegen an die Validierung der Rahmstorfschen Schreckensthesen. Gut ein Jahr später liegt nun das Ergebnis der Überprüfung vor. Am 29. Juni 2016 gaben Femke de Jong und Laura de Steur vom niederländischen NIOZ-Institut auf der OSNAP-Projektseite im Rahmen einer Pressemitteilung  bekannt, dass Rahmstorf mit seinem Modell wohl heftig daneben lag. Die insbesondere im Winter 2014/15 beobachtete nordatlantische Kälteanomalie hat nichts mit einem schwächelnden Golfstrom zu tun, sondern ist vielmehr Folge von starker vertikaler Vermischung mit dem kalten Tiefenwasser. Im Folgenden die Pressemitteilung:

A new record in mixing of surface and deep ocean water in the Irminger Sea has important consequences for the Atlantic overturning circulation 

Scientists Femke de Jong and Laura de Steur of the NIOZ Royal Netherlands Institute for Sea Research have shown that the recent temperature changes in the Irminger Sea between Iceland and Greenland can be explained through regional ocean-atmosphere interaction during the cold winter of 2014-2015. This rejects a hypothesis that posed that increased meltwater from Greenland weakened deep water formation and caused the cold blob. The article by de Jong and de Steur is accepted by Geophysical Research letters and has appeared online.

Deep water formation is an important process in the global ocean circulation. When high latitude winters are cold enough, the salty surface water of the North Atlantic cools enough to increase its density and mix with underlying deeper waters. This mixing is called deep convection. It forms the vertical link between the warm northward flow near the surface and the cold southward flow along the bottom, which is generally referred to as the Atlantic Meridional Overturning Circulation. The transport of warm water in the overturning circulation is partly responsible for the mild climate in northwestern Europe compared to similar latitudes in North America.

In climate model simulations the strength of convection south of Greenland is related to the strength of the overturning circulation. Some models predict that convection will weaken due to the input of freshwater released from the melting ice on Greenland. Because of the much lower density of freshwater compared to seawater it forms a barrier that isolates the deep ocean from the cold atmosphere. While the majority of the Earth warms as a result of climate change the region around southern Greenland would cool.

In temperature observations of the earth’s surface in 2015 a similar pattern seems to appear. The Earth warmed while the ocean southeast of Greenland cooled. This led to speculation that convection had already weakened as a result of increased melting of Greenland’s icecap. It would mean that the overturning circulation would be affected faster than expected.

Instruments moored in the Irminger Sea, southeast of Greenland, shows that this is not (yet) the case. This mooring, deployed by the Royal Netherlands Institute for Sea Research (NIOZ) at 3 km depth in 2003, shows that convection strengthened in recent years. Record depths of convection were observed in the Irminger Sea in the winter of 2014-2015. This strong mixing was caused by an extremely cold and long winter. Two NIOZ scientists, Femke de Jong and Laura de Steur, have shown that the temperature evolution in the Irminger Sea (including the strong decrease in 2015) can be explained through regional interaction between the ocean and atmosphere. The manuscript that describes the convection and explains the temperature changes is accepted in Geophysical Research Letters. This coincides with a publication by a German group in Nature Geoscience this week, in which they use a model to show that it will take some time before freshwater from Greenland enters the deep water formation regions in large enough amount to weaken convection.

The measurements in the Irminger Sea were partly funded by the European North Atlantic CLIMate (NACLIM) project and are part of the international OSNAP (Overturning in the Subpolar North Atlantic Program). The goal of OSNAP is to quantify the overturning circulation and its heat transport at high latitudes and to establish a relation to convection and wind forcing. On the 26th of July a research expedition will return to the Irminger Sea to recover the NIOZ and other OSNAP moorings and do a hydrographic survey. This cruise can be followed on the OSNAP blog at www.o-snap.org. A short video documentary of last year’s cruise can be found on youtube (https://www.youtube.com/watch?v=a-lhCIQjE4c).

Im Abstract zum Paper in den Geophysical Research Letters lassen Femke de Jong und Laura de Steur keinen Zweifel daran, dass der Golfstrom weiterhin verlässlich strömt:

Strong winter cooling over the Irminger Sea in winter 2014–2015, exceptional deep convection, and the emergence of anomalously low SST
Deep convection is presumed to be vital for the North Atlantic Meridional Overturning Circulation, even though observational evidence for the link remains inconclusive. Modeling studies have suggested that convection will weaken as a result of enhanced freshwater input. The emergence of anomalously low sea surface temperature in the subpolar North Atlantic has led to speculation that this process is already at work. Here we show that strong atmospheric forcing in the winter of 2014–2015, associated with a high North Atlantic Oscillation (NAO) index, produced record mixed layer depths in the Irminger Sea. Local mixing removed the stratification of the upper 1400 m and ventilated the basin to middepths resembling a state similar to the mid-1990s when a positive NAO also prevailed. We show that the strong local atmospheric forcing is predominantly responsible for the negative sea surface temperature anomalies observed in the subpolar North Atlantic in 2015 and that there is no evidence of permanently weakened deep convection.

Ein weiterer wissenschaftlicher Fehlschlag für Stefan Rahmstorf und seine Potsdamer Klimaalarmschmiede. Es ist erfrischend zu sehen, dass sich die internationale Forschergemeinde mit steigender Tendenz gegen die fragwürdigen PIK-Kreationen wehrt. Es wäre an der Zeit, dass die deutsche Presse im Sinne der Ausgewogenheit auch einmal über diese Ergebnisse berichten würde. Die Washington Post hat am 30. Juni 2016 vorgemacht wie es geht:

The mysterious ‘cold blob’ in the North Atlantic Ocean is starting to give up its secrets
[...] Stefan Rahmstorf, an ocean physicist with the Potsdam Institute for Climate Impact Research and author of the study mentioned above, has writtenthat very cold temperatures in the subpolar North Atlantic Ocean in the winter of 2014-2015 “suggests the decline of the circulation has progressed even further now than we documented in the paper.” But in a new study in Geophysical Research Letters reporting on deep ocean measurements from this region, two researchers present an alternative interpretation. They say that they found “exceptional” levels of deep ocean convection, or mixing of surface waters with deep waters of a sort that helps drive the overturning circulation, during in the winter of 2014-2015 — the height of the cold “blob.” And they attribute that temperature phenomenon to natural climate variability, driven by local weather and winds. “We find that the observed temperature variability is explained without invoking a trend in the lateral heat transport that would be representative of an AMOC slowdown,” Femke de Jong and Laura de Steur of the Royal Netherlands Institute for Sea Research write in the paper. [...]

Ganzen Artikel in der Washington Post lesen.

Bedarf an Bewässerungswasser stärker bestimmt durch Kulturpflanze als durch Klimaänderung

Pressemitteilung des Potsdamer Leibniz-Institut für Agrartechnik (ATB) vom 8. Juli 2016:

—-

Bedarf an Bewässerungswasser stärker bestimmt durch Kulturpflanze als durch Klimaänderung

Erstmals haben Potsdamer Wissenschaftler den Bedarf an Bewässerungswasser der letzten 100 Jahre in Deutschland am Beispiel ausgewählter landwirtschaftlicher Kulturen (Sommergerste, Hafer, Winterweizen und Kartoffeln) retrospektiv und modellhaft errechnet. Die Ergebnisse zeigen, dass Anbaufläche und Pflanzenart einen stärkeren Einfluss auf den Bedarf an Bewässerungswasser hatten als die Klimaänderungen. Die Ergebnisse wurden soeben im Fachblatt „Science of the Total Environment“ veröffentlicht.

Weltweit steigt der Bedarf an Bewässerungswasser – auch in Regionen, wo, wie in Teilen Deutschlands, bei relativ geringen Niederschlagsmengen Kulturen mit hohen Wasseransprüchen wie Zuckerrüben und Kartoffeln angebaut werden. Vor diesem Hintergrund haben Wissenschaftler der Potsdamer Leibniz-Institute für Agrartechnik (ATB) und Klimafolgenforschung (PIK) analysiert, wie sich der Bedarf an Zusatzwasser für die Bewässerung zwischen 1902 und 2010 in Deutschland räumlich und zeitlich verändert hat. Die Fragestellung erlaubte einen Blick in die Vergangenheit der landwirtschaftlichen Produktionsbedingungen von der Zeit des Deutschen Kaiserreichs bis in die Gegenwart. Die betrachteten Kulturen waren Winterweizen, Sommergerste, Kartoffeln und Hafer. Für die Modellierung kam das AgroHyd Farmmodell zum Einsatz, eine am ATB entwickelte datenbankgestützte Software, die in hoher regionaler Auflösung auf globale Boden-, Wetter- und Ertragsdaten zugreift.

Die Ergebnisse zeigen, dass die Fläche und die Art der darauf angebauten Kulturen einen deutlich stärkeren Einfluss auf den Bedarf an Bewässerungswasser hatte als die klimatischen Veränderungen. Während in Deutschland im Durchschnitt der letzten hundert Jahre die Temperatur jährlich um 0,01 K und der Niederschlag um 1 mm zunahmen, spiegelten sich diese klimatischen Trends nicht unmittelbar in einem veränderten Bedarf an Bewässerungswasser wider. Dies ist unter anderem darin begründet, dass die Verlagerung der Niederschläge von der Vegetationsperiode in die Wintermonate der mengenmäßigen Zunahme an Regenwasser entgegen wirkte. Verändert hat sich auch das Spektrum der angebauten Pflanzenarten. Deutschlandweit waren zu Beginn des 20. Jahrhunderts Hafer und Kartoffeln die in der Fläche dominierenden Kulturen. Heute ist die Kartoffelanbaufläche um bis zu 90 % zurückgegangen. Dagegen hat der Anbau von Weizen seitdem in der Fläche eine große Ausdehnung erfahren.

Im Durchschnitt der untersuchten 109 Jahre lag der Bedarf an Zusatzwasser auf dem Gebiet der heutigen “Bundesrepublik Deutschland” bei jährlich 112 mm. Große Unterschiede zeigten sich jedoch regional hinsichtlich der Entwicklung des Zusatzwasserbedarfs – je nachdem welche Pflanzen auf welchen Flächenanteilen angebaut wurden.

Die Frage, wieviel Wasser künftig für die Bewässerung aufgewendet werden muss, hängt nach den Ergebnissen der Studie maßgeblich davon ab, in welchem Umfang Kulturpflanzen mit hohen Wasseransprüchen angebaut werden. Die Wahl der Pflanzenart ist für Anpassungsstrategien an die zu erwartenden lokalen und zeitlichen Wasserknappheiten von entscheidender Bedeutung. Der Anbau von Kulturen mit hohem Wasserbedarf, wie Zuckerrüben, Kartoffeln und Gemüse, muss mit Bedacht und unter Berücksichtigung des zur Verfügung stehenden Grund- und Oberflächenwassers geplant werden. Dies gilt insbesondere für den Anbau innerhalb eines sich vom Südwesten nach Nordosten Deutschlands erstreckenden Gürtels mit erhöhtem Bedarf an Bewässerungswasser.

Es ist zu erwarten, dass der Klimawandel auch in Deutschland zumindest lokal zu Wasserknappheit führen wird. Um Ertragseinbußen entgegenzuwirken, wird daher auch der Bedarf an Bewässerung steigen. Eine erhöhte Wassernutzung für die Bewässerung kann den Wasserhaushalt jedoch langfristig gefährden. Aus Sicht der Wissenschaftler ist in Anpassung an den Klimawandel ein strategisches Wassermanagement auf regionaler Ebene erforderlich, um Bewässerungsmaßnahmen auch begrenzend steuern zu können. Dies sollte auch eine Koordination des angebauten Kulturpflanzenspektrums und der Wasserrechte auf regionaler Ebene beinhalten.

Drastig, K.Prochnow, A.Libra, J.Koch, H.Rolinski, S.: Irrigation water demand of selected agricultural crops in Germany between 1902 and 2010. Science of the Total Environment. DOI:10.1016/j.scitotenv.2016.06.206. Online unter: www.sciencedirect.com/science/article/pii/S0048969716313961

—-

Ende der Pressemiteilung. Interessanterweise bietet das an der Untersuchung ebenfalls beteiligte PIK die Pressemitteilung nicht auf seiner Medienseite an. Offenbar war es der Institutsleitung unangenehm, dass dem Klimawandel hier nur eine Nebenrolle zukommt. Auch die Medien ignorierten die Studie überwiegend. Ausnahmen: Lediglich einige Spezialplattformen berichtete, darunter Proplanta sowie EUVID Wasser und Abwasser.

 

 

Klimawandel teilweise freigesprochen: Lichtverschmutzung lässt Pflanzen früher blühen

Pflanzen blühen wegen des Klimawandels immer früher im Jahr, hat man uns mit drohendem Zeigefinger erklärt. Wenn dann ein später Frost nochmal zuschlägt – halleluja. Neue Ergebnisse aus Großbritannien lassen nun Zweifel an der Erkläung durch den Klimawandel aufkommen. Die University of Exeter berichtete am 29. Juni 2016 in einer Pressemitteilung, dass vielmehr die zunehmende Lichtverschmutzung hinter dem Frühblüh-Trend stecken könnte. (Worterklärung “bud”=Knospe):

—-

Night-time light pollution causes Spring to come early

Human use of artificial light is causing Spring to come at least a week early in the UK, researchers at the University of Exeter in Cornwall have found.

New research led by a team of biologists based at the University’s Penryn campus highlights for the first time and at a national scale the relationship between the amount of artificial night-time light and the date of budburst in woodland trees. PhD student Robin Somers-Yeates, working with independent environmental consultants Spalding Associates in Truro, led the study which made use of data collected by citizen scientists from across the UK, after the Woodland Trust asked them to note down when they first saw sycamore, oak, ash and beech trees in leaf as part of the charity’s Nature’s Calendar initiative. The research team analysed this information, correlated with satellite images of artificial lighting. The research, published in the journal Proceedings of the Royal Society B, found that buds were bursting by up to 7.5 days earlier in brighter areas and that the effect was larger in later budding trees. Researchers believe early bud bursting will have a cascade effect on other organisms whose life cycles work in synchronicity with the trees. The proliferation of the winter moth for example, which feeds on fresh emerging oak leaves is likely to be affected which may in turn have some effect on birds in the food chain that rely on it for food.

The findings provide important information for those in charge of lighting levels, such as local councils, and point to the need for further research into the impact of different light quality and the specific wavelengths of light generated by different lighting types. Professor Richard ffrench-Constant, one of the co-leads of the study based at the University’s Penryn Campus said: “We found that artificial lighting can accelerate tree leaves budding, and effectively the onset of Spring, by a week. This has got to be bad for nature, particularly because of the knock-on effects. At the moment, caterpillars are timed to hatch to make the most of opportunities to feed from freshly budded leaves, and birds hatch in time to feed off the young caterpillars. If this cascade effect is thrown out of sync by early budding, wildlife is bound to suffer. “A positive from this research is that we found red lighting to be particularly culpable for this effect. We may now have the opportunity to create ‘smart lighting’ that is kinder to nature.”

Behavioural ecologist Peter McGregor, of the Centre for Applied Zoology at Cornwall College Newquay, said: “This study also shows that we can use citizen science in a meaningful way and that it has a real role to play in research that can have a meaningful impact.” Adrian Spalding of Spalding Associates in Truro is one of the leading experts on moths in Britain. He believes this work is important as councils have recently been given control over decisions as to when they want to turn on or off their street lights. “This study shows the importance of collaborative research between business and academia to address our real concerns of the effect of lighting on plants and animals and the importance of managing light levels in our urban environment in a sustainable way.” Light pollution is associated with earlier tree budburst across the United Kingdom by Richard H. ffrench-Constant, Robin Somers-Yeates, Jonathan Bennie, Theodoros Economou, David Hodgson, Adrian Spalding and Peter K. McGregor is published in the journal Proceedings of the Royal Society B.

 

Siehe auch Bericht auf WUWT.