News und Termine

Ameisen kommen mit dem Klimawandel gut zurecht

Freude beim Deutschen Wetterdienst, endlich wieder ein Superlativ: Der März 2017 war der wärmste seit Beginn der systematischen Temperaturmessungen. Pressemitteilung des DWD vom 30. März 2017:

Im März [2017] wechselte der Einfluss von Hoch- und Tiefdruckgebieten immer wieder. Häufig herrschten dabei frühlingshafte oder sogar sommerliche Temperaturen – nicht zuletzt auch durch die zunehmende Tageslänge. Dies ergab den wärmsten März seit Beginn regelmäßiger Wetteraufzeichnungen im Jahr 1881. „Damit liegt dieser Monat im von uns erwarteten Trend des Klimawandels in Deutschland“, so Prof. Dr. Gerhard Adrian, Präsident des Deutschen Wetterdienstes (DWD).”

Voll im erwarteten Trend? Josef Kowatsch hat sich die Temperaturreihe für die letzten 30 Jahre angeschaut und förderte Überraschendes zutage: Der Trend der März-Temperaturen ist leicht negativ, abkühlend! War dies wirklich erwartet worden?

Abb. 1: Entwicklung der März-Temperaturen in Deutschland während der letzten 30 Jahre. Daten: DWD, Graphik: Josef Kowatsch.

 

Je nach Wahl alternativer Betrachtungsintervalle kommen andere Trends heraus. Daher hier die Langzeitkurve für die Märztemperaturen in Deutschland. Aufällig das Temperaturplateau der letzten 15 Jahre:

Abb. 2: Entwicklung der März-Temperaturen in Deutschland während der letzten 135 Jahre. Daten und Graphik: DWD.

———————

Tolle Nachrichten aus der Tierwelt: Ameisen können sich offenbar besser an den Klimawandel anpassen als lange angenommen. Pressemitteilung der Case Western Reserve University vom 20. März 2017:

Species appears to evolve quickly enough to endure city temperatures

The speed at which a tiny ant evolves to cope to its warming city environment suggests that some species may evolve quickly enough to survive, or even thrive, in the warmer temperatures found within cities, according to a new study by researchers at Case Western Reserve University.

Evolution is often thought of as a process that takes millennia, but urban acorn ants collected in Cleveland have taken no more than 100 years to adjust to their heat-trapping home of asphalt and concrete steeped with waste heat from cars and buildings–although their tolerance to cold was reduced. The researchers’ findings are published online in the Biological Journal of the Linnean Society. “Ants are an indicator species, and by comparing the physiologies of urban versus rural ants, we can get an idea of whether ants and other cold-blooded animals will be able to cope with the temperature changes associated with urbanization and other sources of warming like global climate change,” said Sarah Diamond, assistant professor of biology at Case Western Reserve and the study’s lead author. Diamond worked with Ryan Martin, assistant professor of biology, research associates Lacy Chick and Stephanie Strickler, and PhD student Abe Perez.

Cities tend to be a couple of degrees warmer than surrounding rural areas. To determine whether animals evolve or simply adjust to added warmth, the research team collected and compared acorn ants from the city and nearby rural land. The acorn ant (Temnothorax curvispinosus) is widespread and important for decomposing organic material in urban and rural environments across the United States. This species of ant is smaller than a cookie crumb; an entire colony of 250 can fit in a single acorn. The researchers collected colonies from within the city of Cleveland and as far as 28 miles east from the Holden Arboretum in suburban Kirtland, Ohio, to study in Diamond’s lab.

To isolate evolutionary change from short-term acclimation, groups of rural and city ants were raised in warmer city temperatures for about 10 weeks. Other groups from both locations were raised in cooler rural temperatures for 10 weeks. Tests of thermal tolerance showed all the ants acclimated. “They’re very plastic,” Martin said. “But ants collected from city habitats retained their higher heat tolerance and loss of cold tolerance compared to rural ants, regardless of whether they were born and reared under warm or cool temperatures.” Martin and Diamond believe the Cleveland ants evolved as the city became and remained highly urban during the last 100 years. Because egg-laying queen ants live from five to 15 years, the evolution to heat tolerance likely took no more than 20 generations, the researchers estimated.

With temperatures predicted to rise at least a couple of degrees Celsius over the next century, “Global data suggests that the acclimation response won’t be enough to respond to climate change, but some species, like the acorn ants, may evolve quickly enough,” Diamond said. The researchers suggest this experiment can be repeated with other species in cities around the world. Whether other species can adapt as rapidly to cities and other sources of temperature change is unknown but remains an important question for researchers trying to predict what future biological communities will look like and how they will function, Diamond and Martin said.

———————-

Im Jahr 1991 produzierte Shell einen Dokumentarfilm zu den Gefahren des Klimawandels, der sich an der IPCC-Argumentation orientierte. 26 Jahre später wird Shell hierfür scharf kritisiert (Spektrum, Guardian, Klimaretter). Hätte man es vielleicht lieber gesehen, wenn Shell einen klimaskeptischen Film gemacht hätte? Ein Sturm im Wasserglas. Im Prinzip wurde der Industrie ein Maulkorb verpasst. Egal was sie sagt, immer ist es falsch. Ein wirksames Prinzip, um die Industrie aus der Diskussion herauszuhalten. Dabei hätten die gut ausgebildeten Akademiker der Firmen wichtige Beiträge zur Erforschung des Klimas und der Diskussion zu liefern…

 

Kalte-Sonne-Logo

Liebe Leser,

Das Kalte-Sonne-Blog gibt es nun seit nunmehr gut 5 Jahren. Wir berichten täglich aus der wundersamen Welt des Klimawandels. Das ist so ergiebig, dass es noch immer nicht langweilig geworden ist. Danke für Ihre Treue. Wir haben in der Zeit viel erreicht, die eine oder andere Diskussion angestoßen, dem einen oder anderen Klimaalarmisten die Grenzen aufgezeigt. Wir alle gemeinsam haben gelernt und staunen über die Natur, was für tolle Dinge sich dort ereignen.

Eines haben wir in den mehr als 2200 Blogartikeln bisher leider nicht geschafft, nämlich die Einführung eines griffigen Kalte-Sonne-Logos. Das könnten wir jetzt ändern. Eine Webdesignerin bot uns ihre Hilfe an. Sie würde für uns einige Entwürfe erstellen und unverbindlich zur Entscheidungsfindung zusenden. Wenn wir uns für einen der Entwürfe enscheiden, könnten wir das Logo dann für € 250 (inkl. MwSt.) erwerben. Das würden wir gerne ausprobieren. Es wäre toll, wenn wir das mit Sponsoren aus der Leserschaft stemmen könnten. Wer mitfördert, darf sich an der Auswahl des Logos beteiligen. Außerdem würde uns die Webdesignerin ein Banner entwickeln (€ 200 inkl. MwSt.). Sponsorzuwendungen gerne an unser Kalte-Sonne-Konto bzw. Kontakt via Sebastian.Luening@kaltesonne.de. Wir informieren im Blog umgehend, wenn das Sponsorziel erreicht ist.

Beste Grüße

Ihre Kalte-Sone-Redaktion

———————-

Bereits mehrfach haben wir über den neuen Dokumentarfilm “The Uncertainty Has Settled” des Filmemachers Marijn Poels berichtet. Auf Screenarchy.com erschien nun eine lesenswerte Rezension des Films:

The Uncertainty Has Settled – A deadly earnest search

The title of this brand new and excellent climate change documentary is immediately the best reason to go to see it. Is the story of global warming true; that science has proved its point and there is no longer any need for debate? This is what Marijn Poels, a seasoned documentary filmmaker and journalist par excellence, wanted to find out. He’s driven and socially conscious, with his heart in the right place. This is how Marijn was raised by his socially aware parents. He describes himself as left and progressive. In addition, this documentary was entirely self-financed.

Marijn Poels is aware of how sensitive and polarising the subject of climate change can be. Any hint of bias or conflict of interest had to be avoided. The quality of the film is extremely high and this has not escaped the attention of international expert juries as Marijn has already received two awards for Best Documentary; one in Berlin and one in Los Angeles.

What is so beautiful and compelling in this documentary is the ignorance of the maker. Marijn stumbles from one surprise to another. You can see his disbelief and amazement and sometimes even read the despair in his face. The beautiful images and transitions, along with the necessary rest points, provide the viewer with the necessary breaks but at the same time evoke a desire for more information. The way in which the issue is addressed, the words used to interpret the information, make the film extremely suitable for all and sundry. Even for those who thought there was only one opinion on the subject of climate change and CO₂.

Weiterlesen auf Screenarchy.com

Hier der Trailer des Films:

Trailer | The Uncertainty Has Settled from Marijn Poels on Vimeo.

Sie können den Film in ausgewählten Kinos anschauen.  Übersicht der Vorstellungen hier. Webseite des Films hier.

———————-

Im Aufwachen!-Podcast von Tilo Jung und Stefan Schulz hat der Wetterexperte Jörg Kachelmann für einen respektvollen Umgang mit klimatisch Andersdenkenden geworben. Link:
https://aufwachen-podcast.de/2017/03/10/a186-zauberformel/#t=47:03.152
Timecode: ab 1:49:51 oder konkreter ab 1:56:33, oder noch konkreter ab ca. 2:05:05

Dank an Oliver Slota für diesen Hinweis.

———————-

Klimaaktivismus ist offenbar auf dem absteigenden Ast. Die australische Klimaaktivistengruppe “The Climate Institute” schließt am 30. Juni 2017 für immer die Pforten. Wichtige Sponsoren waren abgesprungen und konnten nicht ersetzt werden. Hat faktenferner Klimaaktivismus noch eine Zukunft? Hier die Pressemitteilung des ‘Climate Institute’ vom 8. März 2017:

Chair of Board announces closure of The Climate Institute

The Board of The Climate Institute (TCI) has announced that the TCI will cease to operate on June 30 2017. The Board announced that the decisions comes as a result of being unable to establish the viable level of funding that would enable The Climate Institute to continue in a meaningful, sustainable form.

TCI has conducted ground-breaking research; built influential strategic partnerships among business, investor, welfare, union and other community groups; achieved domestic and diplomatic public policy outcomes; helped shape change to the regulatory landscape and driven the evolution of financial sector climate risk management, particularly among superannuation and institutional funds, domestically and internationally (see attached list of achievements on following page).

Through its Climate of the Nation series, TCI has also conducted what is now the longest trend survey of the attitudes of Australians to climate change and its solutions. “With the expiry of its original founding bequest, and despite ongoing support from a range of philanthropic and business entities, the Board has been unable to secure sufficient funding to continue the level and quality of work that is representative of TCI’s strong reputation,” said Board Chair Mark Wootton, who was among the original founding Directors and has been Chair since 2007.
“The Climate Institute has been a provider of pioneering research and a leading advocate for credible, practical climate policy throughout a tumultuous period in Australian public, investor and business decision-making.

“TCI is often described as a trusted broker and critical friend, and we are proud of the way it has built understanding and consensus among a wide variety of stakeholders on such a complex, challenging and important issue. “We are disappointed that some in Government prefer to treat what should be a risk management issue as a proxy for political and ideological battles. They are increasingly isolated as the costs of inaction mount and the opportunities and benefits of action become ever clearer,” he said.

When established in 2005 for an intended five-year life, TCI was the only non-government organisation focussed solely on climate change. TCI has now been joined by many other organisations with a significant focus on climate change. Regulators and investors are beginning to seriously integrate climate risk and opportunity management. The historic Paris agreement provides a framework for international accountability and action. There has also been a stunning recent surge in affordability and scale of clean energy alternatives.

“While challenges still abound, the landscape is much stronger than it was twelve years ago when TCI was first established. The Board is proud of the achievements of The Climate Institute, and its staff, in making an enduring contribution towards its 2050 vision of a resilient Australia prospering in a zero-carbon global economy, participating fully and fairly in international climate change solutions.”

TCI will see a core body of projects to fruition by June 30, and the Board will work with other organisations to ensure key aspects of its work continue through 2017 and beyond. A Transition Sub-Committee has been established to oversee this work. The Board has also reluctantly accepted the resignation of John Connor who has been Chief Executive Officer of The Climate Institute since February 2007. From April, Mr Connor will be working with Baker McKenzie, heading up the Fijian Government’s COP 23 Secretariat which has been established for the purpose of Fiji’s Presidency of the 23rd Convention of the Parties to the United Nations Framework Convention on Climate Change. John has been a dedicated and highly skilled CEO at TCI and has been pivotal to our achievements. Olivia Kember, Head of Policy will assume the role of Acting CEO. The Board will make final determinations on the future of The Climate Institute and its work before June 30 [2017].

 

Ozeanischer Wärmeinhalt im letzten Jahr stark zurückgegangen: Kurzfristeffekt oder Trendwende?

Schock-News auf Spiegel Online am 12. März 2017:

Klimawandel: Ozeane erwärmen sich deutlich schneller als befürchtet

Es ist ein weiterer Beleg für den Klimawandel: Die Ozeane heizen sich immer schneller auf. Neue Daten zeigen, wie sehr sich Forscher in der Vergangenheit geirrt haben.

Der Untersuchung zufolge erwärmen sich die Ozeane rund 13 Prozent schneller als bisher gedacht. Hinzu kommt, dass sich der Prozess immer weiter beschleunigt. 1992 heizten sich die Ozeane bereits nahezu doppelt so schnell auf wie noch 1960, schreiben die Wissenschaftler im Fachblatt “Science Advances”. Erst seit 1990 erreiche die Erwärmung überhaupt Wassertiefen unter 700 Metern.

Es geht um einen Artikel von Cheng et al. 2017 in Science Advances:

Improved estimates of ocean heat content from 1960 to 2015
Earth’s energy imbalance (EEI) drives the ongoing global warming and can best be assessed across the historical record (that is, since 1960) from ocean heat content (OHC) changes. An accurate assessment of OHC is a challenge, mainly because of insufficient and irregular data coverage. We provide updated OHC estimates with the goal of minimizing associated sampling error. We performed a subsample test, in which subsets of data during the data-rich Argo era are colocated with locations of earlier ocean observations, to quantify this error. Our results provide a new OHC estimate with an unbiased mean sampling error and with variability on decadal and multidecadal time scales (signal) that can be reliably distinguished from sampling error (noise) with signal-to-noise ratios higher than 3. The inferred integrated EEI is greater than that reported in previous assessments and is consistent with a reconstruction of the radiative imbalance at the top of atmosphere starting in 1985. We found that changes in OHC are relatively small before about 1980; since then, OHC has increased fairly steadily and, since 1990, has increasingly involved deeper layers of the ocean. In addition, OHC changes in six major oceans are reliable on decadal time scales. All ocean basins examined have experienced significant warming since 1998, with the greatest warming in the southern oceans, the tropical/subtropical Pacific Ocean, and the tropical/subtropical Atlantic Ocean. This new look at OHC and EEI changes over time provides greater confidence than previously possible, and the data sets produced are a valuable resource for further study.

Hier die entsprechende Pressemitteilung von NCAR/UCAR:

New estimate of ocean heat finds more warming

Recent observations lead to a better understanding of the past

The oceans may be storing 13 percent more heat than previously estimated, according to a new study co-authored by scientists at the National Center for Atmospheric Research (NCAR). The finding, published in the journal Science Advances, is based on a new analysis of how ocean temperatures have changed since 1960. The research team, led by Lijing Cheng of the Chinese Academy of Sciences, compared their results to estimates published in the Fifth Assessment Report of the Intergovernmental Panel on Climate Change in 2013. “In other words, the planet is warming quite a lot more than we thought,” said NCAR scientist Kevin Trenberth, a study co-author.

The vast majority of excess heat trapped on Earth by greenhouse gas emissions — about 90 percent — is stored in the oceans, but measuring how the heat content of the oceans has changed over time has been a challenge due to sparse observations. Historically, the temperature of ocean waters was measured by a variety of ships, but this limited observations to areas where ships traveled. In more recent decades, measurements of ocean heat have increased, thanks to new observational techniques. In 2000, scientists began deploying a network of thousands of floats called Argo to profile conditions in the top layer of the ocean extending down 2,000 meters (6,562 feet). Argo achieved near global coverage in 2005, though some remote regions are still not sampled.

To fill the large gaps in the historical ocean temperature record, the research team used a combination of statistical techniques and model output to determine how useful a single observation can be for inferring information about the surrounding area, as well as how the temperatures in different parts of the world’s oceans relate to one another. They found that, in most regions, a single ocean observation could provide valuable information about conditions as far as 2,000 kilometers (1,243 miles) away.

To check if they were correct, they used Argo observations. At first, they chose data from only a small number of floats in the network to mimic the scarcity of observations that would have been available in the mid-20th century. Then they used their new technique to create an entire ocean temperature map based on those few observations. When they checked their map against the full complement of Argo observations, they found that their reconstruction tracked closely with reality. “The results were remarkable,” Trenberth said. “They give us much more confidence about what the ocean heat content was, stretching back to the late 1950s.”

The results allowed the team to estimate the total warming between 1960 and 2005 to be 337 zettajoules (a measure of energy). They also found that changes were small until 1980, when the amount of heat stored in the oceans began to steadily increase. Since 1990, significant amounts of heat have begun to seep deeper into the ocean layers. NCAR scientist and co-author John Fasullo said the study also highlights the impact of improved observations and models, which are giving scientists important insights into what the world once looked like. “Science not only looks toward the future, but is also continually trying to make sense of the past,” he said. “This work is an example of how advances in technology have enabled an improved understanding of past changes in the ocean, where variability has always been a bit of an enigma due to its vastness and depth. The insights associated with this work change not only our understanding of past climate but also how future changes might unfold.” The other co-authors are Tim Boyer, of the National Oceanic and Atmospheric Administration; John Abraham, of the University of St. Thomas; and Jiang Zhu, of the Chinese Academy of Sciences.

Wir wollen es genauer wissen und schauen in die offiziellen Daten zum ozeanischen Wärmeinhalt (ocean heat content, OHC). Climate4You hat die Daten für die obersten 2 km der Weltozeane (Abb. 1):

 Abb. 1: Ozeanischer Wärmeinhalt (OHC) 2004-2017. Graphik: Climate4You.

 

Zu erkennen: Die Arktis kühlte sich zwischen 2004-2017 ab, Äquator erwärmt sich, Antarktis bleibt gleich. Global kommt für den OHC immer noch eine Erwärmung für diesen Zeitraum heraus. Wenn man sich die letzten zwei, drei Jahre anschaut, erspäht man etwas Interessantes: Das letzte Jahre (2016) scheint hier einen leichten Abkühlungstrend beim ozeanischen Wärmeinhalt aufzuweisen. Das wollen wir mit den OHC-Graphiken der NOAA (NODC) vergleichen:

Abb. 2: Globaler Ozeanischer Wärmeinhalt (OHC) der letzten 60 Jahre. Graphik: NOAA

 

Ein ziemlich deutlicher Zappler nach unten. Ob sich hier eine Trendwende anbahnt, oder ist es nur eine kleine Verschnaufpause auf dem Weg zu noch höheren OHC-Werten? Der Nordatlantik und Pazifik scheinen sich im letzten Jahrzehnt kaum erwärmt zu haben, wie diese Graphik von Bob Tisdale auf Basis der ARGO-Daten (0 bis 2000 m Wassertiefe) zeigt:

Abb. 3: Entwicklung des ozeanischen Wärmeinhalts, aufgeschlüsselt nach Ozeanen. Graphik: Bob Tisdale, WUWT.

 

Wissenschaftler wunderten sich, dass sich die Wassermassen des großen Pazifik kaum erwärmt haben. Eine Forschergruppe um Sang-Ki Lee erklärte in Nature Geoscience, dass die Wärme wohl in den Indischen Ozean weitergewandert wäre. Im Indik hat sich der OHC in den letzten anderthalb Jahrzehnten kräftig erhöht (Abb. 3). Wie sieht es unterhalb von 2 km Wassertiefe aus? Wir schauen in eine Arbeit von Llovel et al. 2014 in Nature Climate Change hinein:

Deep-ocean contribution to sea level and energy budget not detectable over the past decade
As the dominant reservoir of heat uptake in the climate system, the world’s oceans provide a critical measure of global climate change. Here, we infer deep-ocean warming in the context of global sea-level rise and Earth’s energy budget between January 2005 and December 2013. Direct measurements of ocean warming above 2,000 m depth explain about 32% of the observed annual rate of global mean sea-level rise. Over the entire water column, independent estimates of ocean warming yield a contribution of 0.77 ± 0.28 mm yr−1 in sea-level rise and agree with the upper-ocean estimate to within the estimated uncertainties. Accounting for additional possible systematic uncertainties, the deep ocean (below 2,000 m) contributes −0.13 ± 0.72 mm yr−1 to global sea-level rise and −0.08 ± 0.43 W m−2 to Earth’s energy balance. The net warming of the ocean implies an energy imbalance for the Earth of 0.64 ± 0.44 W m−2 from 2005 to 2013.

Oder in anderen Worten: Der tiefe Ozean unterhalb von 2000 m hat sich von 2005-2013 abgekühlt! Passt nicht so gut zur Behauptung, der Ozean würde sich ingesamt schneller erwärmen als gedacht.

 

Klimaschädliches Palmöl: Regendefizit im Amazonas-Regenwald durch Abholzung

In einer Pressemitteilung gab das Potsdam-Instituts für Klimafolgenforschung (PIK) am 13. März 2017 Modellierungsergebnisse zur Auswirkung von Dürren auf den Amazonas Regenwald bekannt. Im Folgenden der volle Text, da sich hier viel Richtiges mit einigen Fragezeichen mischt:

Teufelskreis aus Dürre und Waldverlust am Amazonas

Der Waldverlust durch Abholzen im Amazonasgebiet und die mögliche Abnahme der Regenfälle dort könnten einen Teufelskreis in Gang bringen. Wenn Trockenzeiten mit dem menschengemachten Klimawandel zunehmen, so steigt zusätzlich das Risiko eines sich selbst verstärkenden Waldverlustes, so hat ein internationales Team von Wissenschaftlern herausgefunden. Wenn allerdings ein großer Artenreichtum von Bäumen in einem Waldabschnitt lebt, so kann das dessen Überlebenschancen merklich steigern. Um dieses nicht-lineare Verhalten aufzuspüren, haben die Forscher eine neuartige Analyse komplexer Netzwerke angewendet.

„Der Regenwald des Amazonas ist eines der Kipp-Elemente im Erdsystem“, sagt Leit-Autorin Delphine Clara Zemp, die die Studie am Potsdam-Institut für Klimafolgenforschung (PIK) durchgeführt hat. „Wir wissen bereits, dass einerseits geringerer Niederschlag die Gefahr des Waldsterbens erhöht. Andererseits kann der Waldverlust auch regionale Trockenheit verstärken. Mehr Dürren können also zu weniger Waldbedeckung führen, was wiederum zu mehr Dürren führen kann und so weiter. Die Folgen dieser Rückkopplung zwischen Pflanzen und der Atmosphäre war aber bislang nicht klar. Unsere Studie zeigt das Risiko eines sich selbst verstärkenden Waldverlustes, der noch zusätzlich zu dem Waldverlust entsteht, der direkt durch weniger Regen ausgelöst wird.“ Zemp ist heute an der Georg-August-Universität Göttingen; die Untersuchung ist Ergebnis einer Forschungsgruppe zu dynamischen Phänomenen in komplexen Netzwerken (IRTG1740) mit der Humboldt-Universität zu Berlin.

Selbstverstärkender Effekt bewirkt zusätzlichen Waldverlust

Wenn sich in der Trockenzeit die Niederschlagsmenge im Amazonasgebiet halbieren würde, könnten mindestens 10 Prozent des Waldes allein durch den Effekt der Selbstverstärkung verloren gehen, zusätzlich zu dem erheblichen direkten Waldverlust durch Trockenheit. Computer-Simulationen der Wissenschaftler legen nahe, dass dies vor 20.000 Jahren im Amazonas-Regenwald schon einmal geschehen sein könnte, dies passt auch zu Belegen aus der Erdgeschichte. Die Wissenschaftler betonen aber, dass es Unsicherheiten gibt. Wenn man die noch nicht völlig verstandenen Rückkopplungen zwischen Vegetation und Atmosphäre mit einbezieht, dann könnte der sich selbst verstärkende Waldverlust sogar bis zu 38 Prozent des Amazonasbeckens treffen. In Verbindung mit den direkten Effekten der Dürren wäre damit letztlich der Großteil des Amazonas-Regenwaldes in Gefahr. Die Studie kann keine Informationen über die Zeiträume der Entwicklung bieten, sie ist eine Analyse der Empfindlichkeit des Systems.

Tropische Regenwälder erzeugen viel von dem Wasser, das sie benötigen, aus sich selbst heraus – sie verdunsten Feuchtigkeit, die dann wieder auf sie herab regnet. „Der Wasserkreislauf des Amazonas-Regenwaldes ist natürlich reine Physik und Biologie, aber er ist auch eines der großen Wunder der Natur“, sagt Ko-Autor Henrique M.J. Barbosa von der Universidade de São Paulo in Brasilien. „So machtvoll dieser Kreislauf ist, so ist er doch zugleich erstaunlich empfindlich für Umweltveränderungen – und die Menschheit stört das Amazonasgebiet massiv, sowohl durch die Abholzung von tropischen Bäumen als auch indirekt über die Erwärmung der Atmosphäre durch Treibhausgase aus fossilen Brennstoffen. Dies verringert den großräumigen Transport von Feuchtigkeit und trifft am Ende sogar die zuvor unberührten Teile des Waldes.“

Ausgedehnte Trockenzeiten erhöhen das Risiko des Kippens

„Derzeit nimmt im Süden und Osten des Amazonaswaldes der Niederschlag während der Regenzeit zu und während der Trockenzeit ab, das liegt an sich verändernden Temperaturen an der Oberfläche des Ozeans, die den Feuchtetransport zwischen den Tropenregionen beeinflussen“, sagt Ko-Autorin Anja Rammig von der Technischen Universität München (TUM) und PIK. „Es ist noch unklar, ob dies sich so fortsetzt; aber jüngste Projektionen, die mit Beobachtungsdaten abgeglichen wurden, weisen darauf hin, dass in den Trockenzeiten die Niederschlagsmengen weiter abnehmen könnten.“

Sogar wenn die durchschnittlichen Regenmengen sich nicht drastisch verändern, könnte eine Verlängerung von zwischenzeitlichen Dürren Teile des Amazonaswaldes kippen, hin zu dem sich selbst verstärkenden Waldverlust. „Die bis Ende unseres Jahrhunderts vorhergesagten Veränderungen der Regenfälle werden kein vollständiges Absterben des Amazonaswaldes auslösen“, sagt Ko-Autor Carl Schleussner von dem wissenschaftlichen Think-Tank Climate Analytics und dem PIK. „Aber unsere Ergebnisse legen nahe, dass große Teile des Waldes durchaus in Gefahr sind.“

Interessanterweise scheint der Amazonaswald umso weniger verletzlich zu sein, je vielfältiger seine Pflanzenwelt ist. Biodiversität hat das Potenzial, die Auswirkungen des sich selbst verstärkenden Waldverlustes zu verringern. „Weil jede Art auf andere Weise auf Belastungen reagiert, kann das Vorhandensein einer großen Vielfalt von Arten die Widerstandsfähigkeit des Ökosystems verbessern“, sagt Ko-Autorin Marina Hirota von der Universität von Santa Catarina in Brasilien. „Beim Erhalt von Biodiversität könnte es also nicht bloß um die Liebe zu Bäumen und Kräutern und Vögeln und Käfern gehen; die Biodiversität könnte vielmehr ein Hilfsmittel zur Stabilisierung von wichtigen Elementen des Erdsystems sein.“

Artikel: Delphine Clara Zemp, Carl-Friedrich Schleussner, Henrique M. J. Barbosa, Marina Hirota, Vincent Montade, Gilvan Sampaio, Arie Staal, Lan Wang-Erlandsson, Anja Rammig (2017): Self-amplified Amazon forest loss due to vegetation-atmosphere feedbacks. Nature Communications [DOI:10.1038/NCOMMS14681]

Es ist nachvollziehbar, dass Dürren den Regenwald in Mitldeidenschaft ziehen. Bei den Regen-Trends wollen wir etwas genauer hinschauen. In der Meldung lesen wir:

„Derzeit nimmt im Süden und Osten des Amazonaswaldes der Niederschlag während der Regenzeit zu und während der Trockenzeit ab…”

Weniger Regen in der Trockenzeit ist ein Problem, im Süden und Osten des Amazonasgebietes. Aber was ist mit dem Norden und Westen? Nahm der Regen dort in der Trockenzeit vielleicht zu oder blieb gleich? Der Rest der Trendaussagen beizieht sich auf die Zukunft, basierend auf fragwürdigen Modellierungen, die noch selten verlässlich waren. Ein wichtiger Aspekt wird nur kurz zu Beginn des Artikels angerissen, nämlich die Zerstörung des Regenwaldes durch die angeblich so grünen Palmölbarone. Die anthropogene Entwaldung unter dem Deckmäntelchen des Klimaschutzes führt laut einer Studie von Spracklen & Gardcia-Carreras (2015) in den Geophysical Research Letters zu einer Abnahme der Niederschläge:

The impact of Amazonian deforestation on Amazon basin rainfall
We completed a meta-analysis of regional and global climate model simulations (n = 96) of the impact of Amazonian deforestation on Amazon basin rainfall. Across all simulations, mean (±1σ) change in annual mean Amazon basin rainfall was −12 ± 11%. Variability in simulated rainfall was not explained by differences in model resolution or surface parameters. Across all simulations we find a negative linear relationship between rainfall and deforestation extent, although individual studies often simulate a nonlinear response. Using the linear relationship, we estimate that deforestation in 2010 has reduced annual mean rainfall across the Amazon basin by 1.8 ± 0.3%, less than the interannual variability in observed rainfall. This may explain why a reduction in Amazon rainfall has not consistently been observed. We estimate that business-as-usual deforestation (based on deforestation rates prior to 2004) would lead to an 8.1 ± 1.4% reduction in annual mean Amazon basin rainfall by 2050, greater than natural variability.

Naturschützer warnt vor Klima-Hysterie „Die Eisbären werden auch Trump überleben“

In der Zeit zwischen 8000 und 5000 Jahre vor heute war die Sahara dank reichhaltigerer Niederschläge grün: The Green Sahara. Die Phase fällt in das holozäne thermische Maximum, als es global um 1-2 Grad wärmer war als heute. Im Zuge der Milankovic-Zyklik reichte der Monsunregen viel weiter nach Norden als heute. Der Archäologe David Wright sollte diese Fakten eigentlich kennen. Trotzdem publizierte er nun in Frontiers in Earth Science eine richtig verrückte Hypothese: Der Mensch wäre am Umschlag von der Grünen zur Gelben Sahara selber Schuld. Er hätte durch Überweidung die Vegetation zerstört, damit die Albedo verstärkt und die Wüste verschuldet. Quatsch hoch drei. Wer sich trotzdem Wrights Argumente einmal anschauen möchte, kann die dazugehörige Pressemitteilung studieren.

Siehe auch unseren kürzlichen Blogartikel "Die Grüne Sahara".

———————-

Michael Miersch am 14. März 2017 in der Bildzeitung zum Klimawandel, Naturschutz und zur Energiewende:

Naturschützer warnt vor Klima-Hysterie „Die Eisbären werden auch Trump überleben“

Miersch: „Ein besonders gutes Beispiel für Klima-Hysterie! In den 50er-Jahren gab es weltweit noch 5000 Eisbären, nach neueren Zählungen sind die Bestände auf über 30 000 angewachsen. Tendenz steigend. Warum? Ein Zoologe sagte mir mal: ‚Ein Eisbär lebt nicht von Eis, sondern von Robben.‘ Und auch die wichtigsten Beutetiere Sattelrobben und Ringelrobben haben sich erfreulich vermehrt. Wer also das Ende des Eisbären vorhersagt, begibt sich selbst auf dünnes Eis. Die Eisbären werden auch die vier oder acht Jahre Trump überleben – auch wenn das Klima sich weiter erwärmen sollte.“

[...]

BILD: Sie arbeiten als Geschäftsführer für Bildung für die Deutsche Wildtier-Stiftung. Verstehen wir Sie richtig, dass Ihnen der Naturschutz inzwischen zu kurz kommt?

Miersch: „Es ist eine Sache der Abwägung. Im Moment ist die Priorität von Politik und Bevölkerung klar. Nehmen Sie die Windenergie, die in Deutschland inzwischen eine mächtigere Lobby als die Öl-, Kohle- und Atomkraft-Fraktion aufgebaut hat. Jährlich 120 000 Vögel, darunter 12 000 Greifvögel und 250 000 Fledermäuse sterben durch Windräder, ohne dass sich die breite Masse darüber aufregt. Stellen Sie sich mal vor, was in Deutschland los gewesen wäre, wenn in der Nähe von Atomkraftwerken 100 Vögel tot vom Himmel gefallen wären. Völlig zu Recht.“

Ganzes Interview in der Bildzeitung lesen.

———————-

Gute Nachricht für das Leben in der Antarktis. Der Klimawandel schafft dort besserer Lebensbedingungen, wie eine Pressemitteilung des Dartmouth College (via ScienceDaily) vom 13. März 2017 berichtet:

Increased water availability from climate change may release more nutrients into soil in Antarctica

Increases in phosphorus load in soil and aquatic ecosystems may allow for more abundant life

As climate change continues to impact the Antarctic, glacier melt and permafrost thaw are likely to make more liquid water available to soil and aquatic ecosystems in the McMurdo Dry Valleys, potentially providing a more nutrient-rich environment for life, according to a Dartmouth study recently published in Antarctic Science. With an average annual air temperature of -2.2 F and an average precipitation of 3-50 mm per year, the McMurdo Dry Valleys of Antarctica are dominated by dry soils underlain by permafrost. The Dry Valleys ecosystem is severely limited by liquid water and nutrients, resulting in limited organic matter. One such limited nutrient is phosphorus, an element that is essential to all living organisms. Understanding the spatial distribution of phosphorus in the soil is crucial to identifying where life could become more abundant in the future.

Dartmouth scientists examined the variability of soil phosphorus in the McMurdo Dry Valleys by evaluating two forms of phosphorus in surface soil samples: labile phosphorus, which is immediately available to organisms, and mineral phosphorus, which needs to be broken down by weathering before organisms can use it. The researchers analyzed how parent material, landscape age, soil chemistry and texture, and topography affect the two forms of phosphorus.

The findings indicate that in the McMurdo Dry Valleys, as for many other regions, the two forms of phosphorus, labile and mineral phosphorus, are not related. Even though rock type may be used to help predict the amount of mineral phosphorus in soils, it does not predict how much phosphorus is available to organisms. Instead, the available phosphorus was found to be correlated with soil conductivity, soil texture and topography. The findings also revealed that landscape age across a gradient of approximately 20,000 to 1.5 million years was not a strong predictor of either form of phosphorus. “Mineral phosphorus, while not currently available to organisms, represents a large store of this essential nutrient that could become unlocked in the future,” says lead author Ruth C. Heindel, a graduate student in earth sciences at Dartmouth.

As global warming continues to impact the McMurdo Dry Valleys of Antarctica, with more meltwater streams and water tracks travelling across the landscape, more mineral phosphorus is likely to become available through rock weathering over centuries to millennia. Phosphorus loads are also likely to increase to Dry Valleys aquatic ecosystems, which are currently some of the most phosphorus-limited ecosystems on the planet. As more phosphorus becomes available, microscopic organisms, such as nematodes, tardigrades, rotifers, algae and cyanobacteria, may become more abundant in the McMurdo Dry Valleys.

Ruth C. Heindel, Angela M. Spickard, Ross A. Virginia. Landscape-scale soil phosphorus variability in the McMurdo Dry Valleys. Antarctic Science, 2017; 1 DOI: 10.1017/S0954102016000742

 

University of California Santa Barbara: Bis zur Hälfte der arktischen Meereisschmelze geht auf das Konto der natürlichen Variabilität

Am 26. März 2017 zeichnete Der Tagesspiegel ein düsteres Bild für das arktische Meereis:

Globaler Klimawandel: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge

Ein ungewöhnlich milder arktischer Winter hat der Nordpolarregion einen neuen unerfreulichen Rekord beschert. Noch nie gab es am Ende dieser Jahreszeit so wenig Eis auf dem Arktischen Ozean. Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen. Das National Snow and Ice Data Centre (NSIDC) der Universität von Colorado in Boulder gab nun die maximale Eisfläche auf dem nördlichen Polarmeer im Winter 2016/2017 an. Die Meereisfläche wuchs in der kalten Jahreszeit nur auf 14,42 Millionen Quadratkilometer an. Gemessen wurde dies am 7. März. „Das ist der niedrigste Stand in den 38 Jahren mit Satellitenmessungen“, teilte das NSIDC mit.

Ersteinmal: Es ist richtig, dass das arktische Meereis derzeit ziemlich geschrumpft ist. Climate4You zeigt die Entwicklung auf Basis des NSIDC (Stand Februar 2017):

Abbildung 1: Entwicklung der arktischen (blau) und antarktischen (rot) Meereisbedeckung währen der letzten 35 Jahre. Quelle: Climate4You auf Basis von NSIDC.

 

Die Formulierung “noch nie” ist natürlich grob irreführend, wenn man bedenkt, dass die Satellitendaten gerade einmal ein paar Jahrzehnte zurückreichen. Ein sinnvoller Vergleich wäre mit der letzten großen Wärmephase, der Mittelalterlichen Wärmeperiode vor 1000 Jahren. Hier eine Rekonstruktion der Meereisentwicklung vor Grönland von Miettinen et al. 2016:

Abbildung 2: Entwicklung der Temperatur (oben) und Meereisbedeckung (unten) im Bereich von Grönland. Graphik: Miettinen et al. 2016.

 

Gut zu erkennen ist der starke Rückgang des arktischen Meereises in der Zeit 1000-1200 n.Chr. (untere Kurve in Abb. 2). Dieser wichtige historische Kontext wird in den aktuellen Presseartikeln zum arktischen Meereis komplett ausgeblendet. Das Verschweigen einer unbequemen Vergangenheit ist jedoch keine nachhaltige Erklärungslösung. Umso erfreulicher ist ein Artikel auf Spiegel Online vom 14. März 2017 zu einer neuen Arbeit, die den aktuellen Meereisschwund zu einem großen Teil der natürlichen Variabilität zuschreibt:

Eisschwund in der Arktis: Schuld ist nicht nur der Mensch
Das Eis der Arktis wird immer kleiner. Die Verantwortung dafür trägt die Menschheit – aber nicht allein, wie eine neue Studie zeigt.

[...] Etwas komplizierter wird die Sache allerdings dadurch, dass der Mensch ganz offenbar nicht allein verantwortlich ist für das Verschwinden des Eises. “Seriöse Leute haben schon lange gesagt, dass natürliche Variabilität beim Meereisrückgang eine Rolle spielt”, sagt etwa Rüdiger Gerdes vom Alfred-Wegener-Institut in Bremerhaven. Und auch Claire Parkinson vom Goddard Space Flight Center der Nasa in Greenbelt (US-Bundesstaat Maryland) bestätigt: “Polarforschern ist schon lange klar, dass Veränderungen beim Meereis verschiedene Ursachen haben.” [...] Mit Computermodellierungen berechnete  [ein Forscherteam um Qinghua Ding von der University of California Santa Barbara] dafür zunächst, welchen Anteil die atmosphärische Zirkulation im September am Verlust des Meereises insgesamt hatte. Dabei kamen sie auf einen stattlichen Beitrag von bis zu 60 Prozent. Nun ist es allerdings so, dass die Emissionen der Menschen – und die daraus resultierenden Temperaturänderungen in der Atmosphäre – die großräumigen Windsysteme der Erde auch beeinflussen. Also nahmen Ding und seine Kollegen diesen menschengemachten Beitrag aus ihrer Rechnung wieder heraus. Übrig blieb ein natürlicher Anteil von 30 bis 50 Prozent am Verschwinden des sommerlichen Meereises.

Ganzen Artikel auf Spiegel Online lesen.

Hochspannend: Bis zur Hälfte der sommerlichen Meereisschmelze in der Arktis geht auf das Konto der natürlichen Variabilität. Der Tagesspiegel hätte dies in seinem Artikel gerne erwähnen können. Lieber schwieg man, denn das Volk hätte es ja missverstehen können. Für alle mutigen Leser daher hier der Originalabstract von Ding et al. aus Nature Climate Change. Das Paper erschien dort am 13. März 2017:

Influence of high-latitude atmospheric circulation changes on summertime Arctic sea ice
The Arctic has seen rapid sea-ice decline in the past three decades, whilst warming at about twice the global average rate. Yet the relationship between Arctic warming and sea-ice loss is not well understood. Here, we present evidence that trends in summertime atmospheric circulation may have contributed as much as 60% to the September sea-ice extent decline since 1979. A tendency towards a stronger anticyclonic circulation over Greenland and the Arctic Ocean with a barotropic structure in the troposphere increased the downwelling longwave radiation above the ice by warming and moistening the lower troposphere. Model experiments, with reanalysis data constraining atmospheric circulation, replicate the observed thermodynamic response and indicate that the near-surface changes are dominated by circulation changes rather than feedbacks from the changing sea-ice cover. Internal variability dominates the Arctic summer circulation trend and may be responsible for about 30–50% of the overall decline in September sea ice since 1979.

Siehe auch Bericht in der Welt vom 14. März 2017:

Klimawandel: Auch natürliche Gründe für Eis-Schwund der Arktis
[...] Lange Zeit gingen [Experten] davon aus, dass das Handeln des Menschen, der übermäßige Ausstoß von Treibhausgasen in die Atmosphäre, die Erwärmung am Nordpol vorantreibt. Dass der Mensch also schuld ist, wenn sich die biologischen Netzwerke im Eis des Nordens auflösen. Eine neue Studie aber sieht das anders. Der drastische Rückgang des sommerlichen Meereises in der Arktis geht demnach zu einem großen Teil auf natürliche Schwankungen zurück. Etwa 40 Prozent des Schwunds beruhten auf vom Treibhauseffekt unabhängigen Luftströmungen, schätzen US-Forscher um Qinghua Ding von der University of California in Santa Barbara im Fachblatt „Nature Climate Change“.

Ganzen Artikel in der Welt lesen.

Hier die dazugehörige Pressemitteilung der University of Washington vom 13. März 2017:

Rapid decline of Arctic sea ice a combination of climate change and natural variability

Arctic sea ice in recent decades has declined even faster than predicted by most models of climate change. Many scientists have suspected that the trend now underway is a combination of global warming and natural climate variability.

A new study finds that a substantial chunk of summer sea ice loss in recent decades was due to natural variability in the atmosphere over the Arctic Ocean. The study, from the University of Washington, the University of California Santa Barbara and federal scientists, is published March 13 in Nature Climate Change. “Anthropogenic forcing is still dominant — it’s still the key player,” said first author Qinghua Ding, a climate scientist at the University of California Santa Barbara who holds an affiliate position at the UW, where he began the work as a research scientist in the UW’s Applied Physics Laboratory. “But we found that natural variability has helped to accelerate this melting, especially over the past 20 years.” The paper builds on previous work by Ding and other UW scientists that found changes in the tropical Pacific Ocean have in recent decades created a “hot spot” over Greenland and the Canadian Arctic that has boosted warming in that region.

The hot spot is a large region of higher pressure where air is squeezed together so it becomes warmer and can hold more moisture, both of which bring more heat to the sea ice below. The new paper focuses specifically on what this atmospheric circulation means for Arctic sea ice in September, when the ocean reaches its maximum area of open water. “The idea that natural or internal variability has contributed substantially to the Arctic sea ice loss is not entirely new,” said second author Axel Schweiger, a University of Washington polar scientist who tracks Arctic sea ice. “This study provides the mechanism, and uses a new approach to illuminate the processes that are responsible for these changes.”

Ding designed a new sea ice model experiment that combines forcing due to climate change with observed weather in recent decades. The model shows that a shift in wind patterns is responsible for about 60 percent of sea ice loss in the Arctic Ocean since 1979. Some of this shift is related to climate change, but the study finds that 30-50 percent of the observed sea ice loss since 1979 is due to natural variations in this large-scale atmospheric pattern. “What we’ve found is that a good fraction of the decrease in September sea ice melt in the past several decades is most likely natural variability. That’s not really a surprise,” said co-author David Battisti, a UW professor of atmospheric sciences. “The method is really innovative, and it nails down how much of the observed sea ice trend we’ve seen in recent decades in the Arctic is due to natural variability and how much is due to greenhouse gases.”

The long-term natural variability is ultimately thought to be driven by the tropical Pacific Ocean. Conditions in the tropical Pacific set off ripple effects, and atmospheric waves snake around the globe to create areas of higher and lower air pressure. Teasing apart the natural and human-caused parts of sea ice decline will help to predict future sea ice conditions in Arctic summer. Forecasting sea ice conditions is relevant for shipping, climate science, Arctic biology and even tourism. It also helps to understand why sea ice declines may be faster in some decades than others. “In the long term, say 50 to 100 years, the natural internal variability will be overwhelmed by increasing greenhouse gases,” Ding said. “But to predict what will happen in the next few decades, we need to understand both parts.”

What will happen next is unknown. The tropical Pacific Ocean could stay in its current phase or it could enter an opposite phase, causing a low-pressure center to develop over Arctic seas that would temporarily slow the long-term loss of sea ice due to increased greenhouse gases. “We are a long way from having skill in predicting natural variability on decadal time scales,” Ding said. The research was funded by NOAA, the National Science Foundation, NASA and the Tamaki Foundation. Other co-authors are Stephen Po-Chedley, Eduardo Blanchard-Wrigglesworth and Ryan Eastman in the UW’s Department of Atmospheric Sciences; Eric Steig in the UW’s Department of Earth and Space Sciences; and Michelle L’Heureux, Kristin Harnos and Qin Zhang at the National Oceanographic and Atmospheric Administration’s Climate Prediction Center.

 

Neue Hinweise auf eine niedigere CO2-Klimasensitivität

Wie stark erwärmt CO2 das Klima? Ein Teil der Klimaskeptiker sagt, dass das CO2 überhaupt keine Erwärmungswirkung besitzt. Ein anderer Teil sieht durchaus eine Erwärmungswirkung, die jedoch unterhalb der vom IPCC angegebenen Spanne von 1,5-4,5°C Erwärmung pro CO2-Verdopplung liegen soll. Wiederum ein anderer Teil der Skeptiker vermutet eine Erwärmung am unteren Rand innerhalb der IPCC-Spanne. In unserem Buch “Die kalte Sonne” hatten wir Beispiele für 1,5°C und 1,0°C pro CO2-Verdopplung vorgestellt. Die sogenannte CO2-Klimasensitivität bleibt weiterhin eine kontrovers diskutierte Größe. Im letzten IPCC-Bericht (AR5) hatten sich die Experten so zerstritten, dass sie sich nicht einmal mehr auf einen besten Schätzwert einigen konnten.

Zuletzt gab es vermehrte Hinweise darauf, dass die CO2-Klimasensitivität wohl eher am unteren Rand der IPCC-Spanne liegt. Siehe unsere Blogbeiträge hier. Im Folgenden wollen wir Sie auf den neuesten Stand der Diskussion bringen. Was hat sich in den letzten Monaten auf diesem Feld getan?

Im Oktober 2016 stellten Zeng & Geil 2016 in den Geophysical Research Letters eine Temperaturprognose vor, in der sie auch die bisherigen Messwerte verstärkt berücksichtigen. Dabei kommen sie auf eine Klimasensitivität (ECS) von 2,34°C pro CO2-Verdopplung, was deutlich unterhalb des vom IPCC (AR4) genannten Mittelwerts von 3,0°C liegt. Zeng & Geil 2016 schreiben im Haupttext der Arbeit:

Then our equilibrium climate sensitivity of 2.34°C is within the IPCC [2013] range of 1.5–4.5°C, and our transient climate response of 1.46°C is also within the IPCC [2013] range

Hier der Abstract:

Global warming projection in the 21st century based on an observational data-driven model
Global warming has been projected primarily by Earth system models (ESMs). Complementary to this approach, here we provide the decadal and long-term global warming projections based on an observational data-driven model. This model combines natural multidecadal variability with anthropogenic warming that depends on the history of annual emissions. It shows good skill in decadal hindcasts with the recent warming slowdown well captured. While our ensemble mean temperature projections at the end of 21st century are consistent with those from ESMs, our decadal warming projection of 0.35 (0.30-0.43) K from 1986–2005 to 2016–2035 is within their projection range and only two-thirds of the ensemble mean from ESMs. Our predicted warming rate in the next few years is slower than in the 1980s and 1990s, followed by a greater warming rate. Our projection uncertainty range is just one-third of that from ESMs, and its implication is also discussed.

Bereits im Mai 2016 hatte Ray Bates in Earth and Space Science ein anderes Modell vorgestellt, in dem er eher Werte um 1°C für die Klimasensitivität errechnete:

Estimating climate sensitivity using two-zone energy balance models
Estimates of 2 × CO2 equilibrium climate sensitivity (EqCS) derive from running global climate models (GCMs) to equilibrium. Estimates of effective climate sensitivity (EfCS) are the corresponding quantities obtained using transient GCM output or observations. The EfCS approach uses an accompanying energy balance model (EBM), the zero-dimensional model (ZDM) being standard. GCM values of EqCS and EfCS vary widely [Intergovernmental Panel on Climate Change range: (1.5, 4.5)°C] and have failed to converge over the past 35 years. Recently, attempts have been made to refine the EfCS approach by using two-zone (tropical/extratropical) EBMs. When applied using satellite radiation data, these give low and tightly constrained EfCS values, in the neighborhood of 1°C. These low observational EfCS/two-zone EBM values have been questioned because (a) they disagree with higher observational EfCS/ZDM values and (b) the EfCS/two-zone EBM values given by GCMs are poorly correlated with the standard GCM sensitivity estimates. The validity of the low observational EfCS/two-zone EBM values is here explored, with focus on the limitations of the observational EfCS/ZDM approach, the disagreement between the GCM and observational radiative responses to surface temperature perturbations in the tropics, and on the modified EfCS values provided by an extended two-zone EBM that includes an explicit parameterization of dynamical heat transport. The results support the low observational EfCS/two-zone EBM values, indicating that objections (a) and (b) to these values both need to be reconsidered. It is shown that in the EBM with explicit dynamical heat transport the traditional formulism of climate feedbacks can break down because of lack of additivity.

Am 20. März 2017 erschien nun ein Paper von Hermann Harde im International Journal of Atmospheric Sciences, in dem er auf eine Klimasensitivität (ECS) von 0,7°C kommt:

Radiation Transfer Calculations and Assessment of Global Warming by CO2
We present detailed line-by-line radiation transfer calculations, which were performed under different atmospheric conditions for the most important greenhouse gases water vapor, carbon dioxide, methane, and ozone. Particularly cloud effects, surface temperature variations, and humidity changes as well as molecular lineshape effects are investigated to examine their specific influence on some basic climatologic parameters like the radiative forcing, the long wave absorptivity, and back-radiation as a function of an increasing CO2 concentration in the atmosphere. These calculations are used to assess the CO2 global warming by means of an advanced two-layer climate model and to disclose some larger discrepancies in calculating the climate sensitivity. Including solar and cloud effects as well as all relevant feedback processes our simulations give an equilibrium climate sensitivity of = 0.7°C (temperature increase at doubled CO2) and a solar sensitivity of = 0.17°C (at 0.1% increase of the total solar irradiance). Then CO2 contributes 40% and the Sun 60% to global warming over the last century.

Ein paar Tage zuvor hatte Antero Ollila auf WUWT eine Abhandlung auf WUWT veröffentlicht, bei der er eine transient climate Response (TCR) von 0,6°C bestimmt:

On the Reproducibility of the IPCC’s climate sensitivity
[...] The conclusion is that the IPCC’s warming values are about 200 % too high (1.75 degrees versus 0.6 degrees) because both the CO2 radiative forcing equation, and the CS calculation include water feedback. It is well-known that IPCC uses the water feedback in doubling the GH gas effects; even though there are relative humidity measurements showing that this assumption is not justified. CO2 radiative forcing by Myhre et al. includes also water feedback, and this has not been recognized before the author’s studies. This feature explains too high of a contribution of CO2.

Die ansonsten üblicherweise zitierte equilibrium climate sensitivity (ECS) würde entspreched höher liegen. Ollila schreibt hierzu jedoch:

The calculation of the equilibrium CS (ECS) by IPCC applies positive feedbacks, which are not observed so far and are therefore very theoretical.

Die zuletzt genannten Arbeiten mit Werten unterhalb von 1,0°C erinnern auch an eine Berechnung von Dietze (2003), in der eine ECS von 0,65°C pro CO2-Verdopplung vorschlagen wurde. In dem Aufsatz erläutert Peter Dietze auch, dass Stephen Schneider früher wohl von einem ähnlichen Wert ausgegangen sein muss:

Hinsichtlich der Übertreibung der Klimaerwärmung sei auch an Stephen Schneider mit seiner bekannten Aussage von 1989 [5.1] erinnert „To capture the public imagination, we have to offer up some scary scenarios, make simplified dramatic statements and little mention of any doubts one might have. Each of us has to decide the right balance between being effective, and being honest“. In einer Studie des Pew Center im Oktober 2000 [5.2] konstatierte er, die Klimasensitivität der Erde für CO2 sei „unbekannt“ (!), es werde jedoch „allgemein [für die Simulationsrechnungen] angenommen daß der wahrscheinlichste Gleichgewichtswert für eine CO2-Verdoppelung zwischen 1,5 und 4,5 °C liegt“. Als er wegen der solar bedingten Abkühlung nach 1940 eine kommende Eiszeit befürchtete, veröffentlichte er 1971 in Science, daß selbst eine Verachtfachung der CO2-Konzentration eine globale Erwärmung um kaum 2 °C bewirken würde [5.1].

Zu erwähnen ist auch eine Arbeit von Holger Schmithüsen und Kollegen in den Geophysical Research Letters aus dem Dezember 2015. Thema ist ein negativer Treibhauseffekt in der Antarktis.

How increasing CO2 leads to an increased negative greenhouse effect in Antarctica
CO2 is the strongest anthropogenic forcing agent for climate change since preindustrial times. Like other greenhouse gases, CO2 absorbs terrestrial surface radiation and causes emission from the atmosphere to space. As the surface is generally warmer than the atmosphere, the total long-wave emission to space is commonly less than the surface emission. However, this does not hold true for the high elevated areas of central Antarctica. For this region, the emission to space is higher than the surface emission; and the greenhouse effect of CO2 is around zero or even negative, which has not been discussed so far. We investigated this in detail and show that for central Antarctica an increase in CO2 concentration leads to an increased long-wave energy loss to space, which cools the Earth-atmosphere system. These findings for central Antarctica are in contrast to the general warming effect of increasing CO2.

Eine gute Übersicht zur Debatte der Klimasensitivität finden Sie in einem Vortrag von Marcel Crok, den er im Dezember 2015 in Essen hielt:

 

Angesichts der vielen Hinweise auf eine geringere CO2-Klimasensitivität wundert es nicht, dass die Hardliner im IPCC vorsorgen und im Gegenzug Papers mit hohen Werten publizieren. Im kommenden IPCC-Bericht (AR6) werden diese dann gleichberechtigt verwendet, so dass am Ende alles beim Alten bleiben kann. Eine tolle Taktik. Beispiel 1 stammt von Richardson et al. 2016 im IPCC-nahen Blatt Nature Climate Change. Darin wird behauptet, die gemessenen Temperaturen wären falsch gemessen. Wenn man die richtigen (nicht gemessenen) Temperaturen verwenden würde, dass würde die IPCC-Klimasensitivität auch stimmen. Klingt logisch, oder? Judith Curry und Nick Lewis (hier und hier) entzauberten die Abhandlung elegant. Judith Curry schrieb:

The key issue that this paper raises is about the quality of the global surface temperature data sets, particularly related to sampling. The paper infers that the trend of surface temperature anomalies in HadCRUT4 are 9-40% lower than the true global averages. Is this believable? Well the uncertainty in surface temperature trends (9-40%) doesn’t seem implausible, but the inference that the uncertainty is only on the side of insufficient warming doesn’t seem plausible.

Beispiel 2: Carolyn Snyder wollte es offenbar besonders gut machen. Im Oktober 2016 schlug sie in Nature doch tatsächlich eine Klimasensitivität von 7-13°C vor. Das gab sicher eine Festanstellung oder Beförderung. Möglicherweise ignoriert Snyder, dass der CO2 Anstieg nach einem Glazial rund 800 Jahre NACH der Wiedererwärmung einsetzt und daher nicht die eigentliche Ursache sein kann, sondern höchstens verstärkend wirkt. Da ist wohl etwas schief gelaufen. Nature war es egal, hauptsache krasser Alarm. Siehe auch Beiträge hierzu auf JoNova und WUWT.

Skandal beim Spiegel-Jugendmagazin Bento: Feuer frei zum faktenfreien Mobbing wissenschaftlich Andersdenkender

Drei Nachwuchsjournalisten legten vor kurzem im Jugendmagazin Bento von Spiegel Online eine Arbeitsprobe vor, die wenig überzeugt. Was hatten sich Caroline Wiemann, Vanessa Vu und Josa Mania-Schlegel wohl dabei gedacht, als sie versuchten, wissenschaftliche Ansichten ins Lächerliche zu ziehen, ohne auch nur einen einzigen konkreten Sachinhalt anzusprechen? Bereits bei der Planung des Interviews mit Michael Limburg scheinen böse Pannen unterlaufen zu sein. Hätte man nicht mindestens drei wissenschaftliche Fragestellungen diskutieren müssen, um dann die Diskrepanzen herauszuarbeiten und anschließend zu bewerten? Stattdessen verlassen sich Wiemann, Vu und Mania-Schlegel blind auf Dritte, ohne eigenen Faktencheck. Peinlich.

Die Klimawissenschaften sind zugegebenermaßen komplex. Das darf jedoch kein Vorwand dafür sein, komplett ohne Inhalte auszukommen und Andersdenkende ins Lächerliche zu ziehen. Es ist schon ein starkes Stück, was die drei Youngster hier mit Limburg treiben. Störrisch beharre er auf seinen alternativen Fakten, die jedoch im Artikel nicht konkret angesprochen werden. Sie werfen ihm vor, Limburg gehöre zur organisierten Klimaleugner-Szene, würde ganz fies mit dem Flugzeug reisen und sähe wie ein Agent aus. Außerdem kenne er einen, der angeblich das Passivrauchen gut findet. Der tickt ja wohl nicht richtig.

Leute, Leute. Das ist armselig. Hier drei Klimafragen an Caroline Wiemann, Vanessa Vu und Josa Mania-Schlegel, quasi zur Nachbearbeitung dieses Fiaskos:

1) Liebe Frau Wiemann, könnten Sie kurz die vorindustrielle Temperaturentwicklung der letzten 10.000 Jahre für uns skizzieren? Hat es während dieser Zeit bereits schon einmal Zeiten gegeben, während denen es ähnlich warm oder sogar wärmer als heute war? Was waren die Gründe für diese natürlichen Wärmeperioden?

2) Liebe Frau Vu, der IPCC räumte in seinem 5. Klimazustandsbericht ein, dass die gängigen Klimamodelle die paläoklimatologisch gut dokumentierte mittelalterliche Wärmeperiode nicht reproduzieren können. Inwieweit kann man Modellen vertrauen, die die Rückwärtsmodellierung nicht verlässlich bewältigen? Zusatzfrage: Auf welchen besten Schätzwert (“best estimate”) der “CO2-Klimasensitivität” hat sich der IPCC in seinem letzten Bericht geeinigt?

3) Lieber Herr Mania-Schlegel, das Jahr 1850 wird in politischen Diskussionen oftmals als Bezugspunkt von Betrachtungen zum Klimawandel verwendet. Inwiefern halten Sie diesen Bezugspunkt für geeignet, berücksichtigend, dass es sich um die Schlussphase der sogenannten Kleinen Eiszeit handelt, einer natürlichen Kälteperiode, die eine kalte Extrementwicklung in der Klimageschichte der letzten 10 000 Jahre darstellt?

 

Lesen Sie auch die lesenswerten Besprechungen des bento-Artikels auf EIKE und achgut.

 

Aus der Klimageschichte lernen: Die arktischen Hitzewellen der 1930er und 40er Jahre

Klimaalarm der World Meteorological Organization (WMO), brühwarm weitererzählt am 21. März 2017 von derwesten.de:

Hitzewellen in der Arktis – Klimaforscher schlagen Alarm
[...] Im Winter gab es in der Arktis Temperaturen fast am Schmelzpunkt. Nicht das einzige Wetterextrem, von dem Klimaforscher berichten. Mindestens drei Mal sei es Anfang 2017 in der Arktis zu so etwas wie Hitzewellen gekommen, berichtete die Weltwetterorganisation (WMO) in Genf. Mächtige atlantische Stürme hätten warme, feuchte Luft in die Arktis gebracht. Auf dem Höhepunkt des Winters und der eigentlichen Gefrierperiode habe es Tage mit Temperaturen fast am Schmelzpunkt gegeben. Das habe den polaren Jetstream – einen der Windströme, die sich in großer Höhe um den Planeten ziehen – und damit das Wetter global beeinflusst.

Ist es wirklich fünf vor zwölf? Wird es in der Arktis immer heißer und heißer? Schauen wir uns den Verlauf der HadCRUT4-Temperaturen in der Arktis einmal an (Abb. 1). Schön zu sehen ist die Erwärmungsphase 1990-2005. Davor und danach herrschte eher ein welliges Temperaturplateau. Eine signifikante Arktis-Erwärmung in den letzten 10 Jahren ist nicht zu erkennen.

Abb. 1: Temperaturentwicklung in der Arktis seit 1957. Daten: HadCRUT4, Graphik: Climate4You.

 

Erweitern wir nun unseren Zeithorizon und schauen fast 100 Jahre zurück. Was für eine Überraschung: In den 1930er und 40er Jahren gab es in der Arktis zwei Hitze-Jahrzehnte, die ähnlich warm waren wie heute (Abb. 2). Eine klitzekleine Auslassung in der WMO-Pressemitteilung und dem Artikel auf derwesten.de.

Abb. 2: Temperaturentwicklung in der Arktis seit 1920. Daten: HadCRUT4, Graphik: Climate4You.

 

Die frühen arktischen Hitzejahre sind eindrucksvoll in den Temperaturaufzeichnungen der isländischen Stadt Akureyri dokumentiert (Abb. 3):

Abb. 3: Temperaturentwicklung des isländischen Ortes Akureyri seit 1880. Quelle: NASA/GISS.

 

Was könnte wohl zu der Erwärmung in den 1930er/40er Jahren geführt haben? Hier genügt ein Blick auf den Verlauf des 60-jährigen Atlantikzyklus, der AMO (Atlantische Multidekaden Ozillation). Die kann man ganz einfach auf der NOAA-Webseite hochaktuell selber plotten (Abb. 4). Die AMO-Kurven auf Wikipedia oder anderswo sind zwar farbenfroher, aber oft fehlen die letzten Jahre. Hauptantrieb der Arktis-Erwärmung in den 1990er und 2000er Jahren war der zeitgleiche starke Anstieg der AMO. Die von der WMO berichteten Hitzewellen passen gut zum aktuelle Plateau der AMO (Abb. 4). Nun muss man kein Wahrsager sein, um die zukünftig Entwicklung realistisch abzuschätzen: Das AMO-Plateau könnte sich noch einige Jahre fortsetzen. Eine weitere massive Erwärmung ist nicht zu erwarten, da der höchste Punkt der AMO-Spitze bereits erreicht ist. Irgendwann in den kommenden Jahren beginnt dann die Talfahrt der AMO. Entsprechend sollten auch die Temperaturen in der Arktis dann zurückgehen. Der Blick in die Klimageschichte lohnt sich.

 

 

Bereits Winston Churchill wusste:

Je weiter man zurückblicken kann, desto weiter wird man vorausschauen.

Irgendwann werden das dann auch die Damen und Herren Zeitungsredakteure erkennen. Die Kunst des Faktencheckens scheint seit Erfindung der Copy-Paste-Funktion verlorengegangen zu sein.

 

 

Machen wir wieder gutes Klima

Am 25. März 2017 hat sich SRF-Wettermann Christoph Siegrist wieder einmal ziemlich lächerlich gemacht:

Über den Klimawandel: Machen wir wieder gutes Klima
Wer hat den Treibhauseffekt erfunden? Und wer kam auf die Idee, Gase in der Luft zu messen? Die Geschichte von Klimawandel und CO2 ist turbulent und Donald Trump ist nicht der erste, der der Klimaforschung den Geldhahn zudrehen will.

Weiterlesen beim SRF.

Allein schon der Titel “Machen wir wieder ein gutes Klima” ist so albern wie naiv. Damit definiert Siegrist die ungünstig kühle Periode der Kleinen Eiszeit vor der industriellen Revolution (also vor der postulierten anthropogenen Erwärmung) als “gutes Klima”. Zudem scheint er davon überzeugt zu sein, dass die Menschheit allein über die Regulation der CO2-Emissionen das irdische Klima nach Wunsch manipulieren könnte. Von den zahlreichen natürlich verursachten Klima-Schwankungen (die selbst schon im Holozän durchaus signifikant waren) scheint Wetterfrosch Siegrist noch nie etwas gehört zu haben. Noch peinlicher ist diese widersinnige Textpassage von Siegrist, der einst – man glaubt es kaum – an der ETH Zürich das Fach Naturwissenschaften studierte:

“Es (das CO2) schwankt im Takt der Erde, die Konzentration steigt vom Morgen bis zum Mittag, sinkt dann auf die Nacht hin wieder. Und es scheint, also würde die Erde atmen, denn immer im nordhemisphärischen Frühling steigt die CO2-Konzentration und sinkt dann (im Sommer) wieder auf den Herbst (hin). Aber die Erde schnauft immer schwerer, denn es gibt immer mehr CO2 in der Atmosphäre.

Offenbar hat der diplomierte Naturwissenschaftler Siegrist mittlerweile völlig verdrängt, was bereits interessierte Sekundar-Schüler wissen sollten: Das CO2-Atmen der Erde wird vor allem durch die Photosynthese der Pflanzenwelt verursacht, also dem Prozess, der notabene die wichtigste Grundlage des irdischen Lebens darstellt. Aber Pflanzen “schnaufen” mit mehr CO2 nicht “immer schwerer”, sondern in Gegenteil, immer leichter! Für die meisten Pflanzen sind höhere CO2-Gehalte von 1000 bis 2000 ppm ideal und bereits die bisherige Zunahme von ca. 300 auf 400 ppm führte in den letzten Jahrzehnten zu einem erstaunlichen Ergrünen der Erde.

Weiter scheint Siegrist nicht zu wissen, dass die Ozonloch-Problematik und die These eines CO2-induzierten globalen Klimawandels zwei grundverschiedene Themen sind, zwischen denen höchstens einige indirekte Verknüpfungen existieren. Warum sonst kommt er auf die Idee, diese unterschiedlichen Zusammenhänge im folgenden Zitat derart unreflektiert zu vermischen:

“Er (Ronald Reagan) hatte wenig Interesse übrig für Klimaforschung. Allerdings sass damals ein gewisser Al Gore im Kongress, der ein Hearing zum Thema organisierte und so verhinderte, dass Klimaforschung komplett aus der politischen Agenda fiel. Und Reagan war lernfähig: Unter seiner Regierung gingen die USA mutig voran in der Bekämpfung des Ozonlochs; mit Erfolg.”

Aber immerhin muss man Siegrist zugestehen, dass er die globale Abkühlungsphase von den 1940er bis in die 1970er Jahre offen benennt und mit dem damaligen Vorstoss vieler Gletscher auch als eine reale Tatsache belegt. Damit gibt er – wohl nicht ganz freiwillig und unbewusst – zu, dass die durch zahlreiche nachträgliche “Adjustments” manipulierte globale Temperatur-Kurve von GISS/NASA nicht stimmen kann, da dort diese globale Abkühlungsphase weitgehend weg retuschiert wurde, weil sie nicht in das Konzept einer allein durch CO2 bedingten Klimaerwärmung passt.

 

Kein Klimawandel: Überschwemmungen in Peru durch einen halben El Nino

Klimasorgen am 21. März 2017 in der Frankfurter Rundschau:

El Niño, Klimawandel: Peru kämpft gegen Fluten

Nur ein Vorbote für weit schlimmere Katastrophen? Forscher rätseln, wie das Aufheizen des Pazifiks, daraus resultierende Regenfälle und die schweren Überschwemmungen in Peru genau zusammenhängen.

Peru bekommt die dramatische Lage infolge tagelanger Unwetter und Überschwemmungen nach Einschätzung von Präsident Pedro Pablo Kuczynski langsam unter Kontrolle. „Wir haben die Hoffnung, dass es bald vorbei ist“, sagte er bei einem Besuch des Katastrophenzentrums. Bisher starben 78 Menschen, 260 wurden verletzt und über 100.000 Menschen verloren ihre Häuser. Die Unwetter gehen nach Meinung von Wissenschaftlern auf das Klimaphänomen des „Küsten-El-Niño“ zurück, der bisher räumlich begrenzt ist. Das Meereswasser vor der Küste ist um fünf Grad wärmer als normalerweise um diese Jahreszeit üblich. Wegen der starken Verdunstung des Wassers kommt es zu heftigen Regenfällen in den Anden, was die Flüsse stark anschwellen ließ. Ob sich aus diesem Wetterphänomen die als El Niño verstandene großräumige Erwärmung des äquatorialen zentralen Pazifiks entwickeln werde, ist derzeit aber nach Einschätzung des Deutschen Wetterdienstes (DWD) noch unklar. [...] Kuczynski forderte mehr Einsatz gegen den Klimawandel. Er hat bereits angekündigt, dass die rund 30 Flüsse an der Küste stärker kanalisiert werden müssen. Ihr starkes Gefälle von den Anden herunter zum Pazifik mache sie schnell zu reißenden Strömen. „Alle Länder müssen zusammen arbeiten, das Thema ist ein globales“, sagte er dem Sender CNN.

El Nino, Klimawandel? Der Artikel lässt einen zunächst ziemlich ratlos zurück. Ist der El Nino nicht schon seit etlichen Monaten vorbei? Handelt es sich um die Nachwehen des El Nino? Was ist ein “Küsten-El Nino”? Und was soll der Klimawandel damit zu tun haben? Die Washington Post gibt einen ersten Hinweis, um was es sich handelt:

The water is so warm, actually, that Peru climatologists declared a “coastal El Niño” to communicate to the public the kind of conditions they should expect and prepare for. The situation doesn’t meet NOAA’s technical definition of an El Niño, so you won’t be seeing the agency declare its arrival — perhaps for months — but meteorologists can’t ignore this technically unnamed phenomenon’s devastating impact. NOAA says the ocean is still in a neutral condition — meaning neither El Niño or La Niña — but forecast models used by the Australian Bureau of Meteorology suggest El Niño might arrive as early as April [2017]. It’s a tough call to make, though, since the region is known to have a “spring barrier” on forecasts. For whatever reason, El Niño forecasts made in spring tend not to perform that well. But the warm water is blatantly obvious off the coast of South America in 2017. It’s kind of like half an El Niño, but for all intents and purposes in Peru, it might as well be a whole one.

Die Bezeichnung “Küsten-El Nino” ist also eine Lokalbezeichnung peruanischer Wissenschaftler, die salopp im Artikel als “halber El Nino” bezeichnet wird. Offiziell stehen die El Nino-Anzeichen auf neutral, was kein Wunder nach dem Abflauen des letzten starken El Ninos ist. Eine robuste Prognose der weiteren Entwicklung ist zu diesem frühen Zeitpunkt noch nicht möglich. Mit dem Klimawandel hat das Ganze herzlich wenig zu tun. Der peruanische Präsident agiert hier als Trittbrettfahrer und erhofft sich internationale Gelder zur Sicherung der schon immer gefährlichen Andenflüsse unter dem Schirm des “Klimaschutzes”. Gegen eine internationale Beteiligung an den Fluss-Sicherungsmaßnahmen ist nichts auszusetzen. Aber ginge es auch ohne die moralisch und fachlich falsche Klimakeule?

Wir nutzen die Gelegenheit und schauen uns das El Nino-Geschehen etwas genauer an. Die NOAA bietet auf ihrer Webseite detallierte Verlaufskarten und Temperaturkurven hierzu an. Dort ist schön zu erkennen, wie die Wärmeblase in den letzten Wochen die peruanische Küste erreicht hat:

Abbildung 1: Entwicklung der Ozeanoberflächentemperatur Januar bis März 2017. Graphik: NOAA.

 

Die peruanische Küstenregion (hier als Nino 1+2-Region bezeichnet) liegt derzeit 2,2°C über normal:

Abbildung 2: El Nino-Regionen zur Bestimmung lokaler El Nino-Anomalien. Quelle: NOAA. Stand: 27. März 2017.

 

Die dazugehörigen Temperatur-Anomalie-Kurven hier (NINO 1+2=peruanische Küste):

Abbildung 3: Temperaturanomalien in verschiedenen Äquatorsegmenten des Pazifik. Quelle: NOAA.

 

Das war’s dann wieder für heute mit der Kalten-Sonne-Universität. Bei uns gibt es den wissenschaftlichen Hintergrund zu Zeitungsartikeln, die auf den ersten Blick nicht leicht zu erschließen sind. Und das Ganze 100% Klimaalarm-frei.

 

 

 

 

Einfluss der Sonne auf den Klimawandel erstmals beziffert

Pressemitteilung des Schweizerischen Nationalfonds zur Förderung der Wissenschaflichen Forschung vom 27. März 2017:

———-

Einfluss der Sonne auf den Klimawandel erstmals beziffert

Modellrechnungen zeigen erstmals eine plausible Möglichkeit auf, wie Schwankungen der Sonnenaktivität einen spürbaren Effekt auf das Klima haben. Gemäss den vom Schweizerischen Nationalfonds geförderten Arbeiten könnte sich die menschgemachte Erderwärmung in den nächsten Jahrzehnten leicht verlangsamen: Eine schwächere Sonne wird voraussichtlich ein halbes Grad Abkühlung beitragen.

Es gibt den menschgemachten Klimawandel – und es gibt natürliche Klimaschwankungen. Ein wichtiger Faktor bei diesem unabänderlichen Auf und Ab der Erdtemperatur, das in verschiedenen Zyklen verläuft, ist die Sonne: Ihre Aktivität variiert und damit auch die Intensität der Strahlung, die bei uns ankommt. Es ist eine der zentralen Fragen der Klimaforschung, ob diese Schwankungen überhaupt einen Effekt auf das irdische Klima haben. Die IPCC-Berichte gehen davon aus, dass die Sonnenaktivität in der jüngeren Vergangenheit und auch der nächsten Zukunft keine Bedeutung für den Klimawandel hat.

Eine vom Schweizerischen Nationalfonds (SNF) geförderte Studie relativiert diese Annahme nun. Die Forschenden vom Physikalisch-Meteorologischen Observatorium Davos (PMOD), der EAWAG, der ETH Zürich und der Universität Bern liefern mit aufwendigen Modellrechnungen eine belastbare Schätzung des zu erwartenden Beitrags der Sonne zur Temperaturänderung in den nächsten 100 Jahren und finden dabei erstmals einen signifikanten Effekt. Sie errechnen eine Abkühlung des Erdklimas um ein halbes Grad, wenn die Sonnenaktivität ihr nächstes Minimum erreicht.

Auch wenn diese Abkühlung den menschgemachten Anstieg der Temperatur keineswegs kompensieren wird, ist sie bedeutsam, so Werner Schmutz, Direktor des PMOD und Leiter des Projekts: “Wir könnten wertvolle Zeit gewinnen, wenn die Aktivität der Sonne zurückgeht und sich der Temperaturanstieg damit ein wenig verlangsamt. Das dürfte uns helfen, mit den Folgen des Klimawandels umzugehen.” Doch die Zeit ist nur geborgt: Nach dem nächsten Minimum komme auch das nächste Maximum garantiert, warnt Schmutz.

Starke Schwankungen können vergangenes Klima erklären

Ende März treffen sich die beteiligten Forscher zu einer Konferenz in Davos, um die Endresultate des Projekts zu diskutieren. Dieses bündelte das Knowhow verschiedener Forschungsinstitutionen bei der Modellierung von Klimaeffekten. Das PMOD errechnete den sogenannten Strahlungsantrieb der Sonne (wobei neben der elektromagnetischen auch die Teilchenstrahlung berücksichtigt wurde), die ETH Zürich die weiteren Auswirkungen in der Atmosphäre und die Universität Bern die Wechselwirkungen zwischen Atmosphäre und Ozeanen.

Die Schweizer Forscher gingen dabei von einer deutlich stärkeren Schwankung der auf die Erde treffenden Strahlung aus als in bisherigen Modellen. “Das ist der einzige Ansatz, um die natürlichen Klimaschwankungen der letzten paar Tausend Jahre zu verstehen”, ist Schmutz überzeugt. Die anderen Hypothesen seien weniger schlüssig, wie zum Beispiel der Effekt grosser Vulkanausbrüche.

Wie genau sich die Sonne in den nächsten Jahren verhalten wird bleibt allerdings Spekulation: entsprechende Datenreihen gibt es erst seit ein paar Jahrzehnten und über diese Zeitspanne weisen sie keine Schwankungen auf. “Insofern bleiben auch unsere neuen Ergebnisse noch eine Hypothese”, sagt Schmutz: “Den nächsten Zyklus vorauszusagen fällt den Solarphysikern nach wie vor schwer.” Doch weil wir seit 1950 eine konstante starke Phase beobachten, werden wir aller Voraussicht nach in 50 bis 100 Jahren wiederum einen Tiefpunkt erleben, und das könnte durchaus so stark wie das sogenannte Maunder-Minimum ausfallen, das im 17. Jahrhundert für besonders kalte Verhältnisse sorgte.

Wichtige historische Daten

Auch die historische Perspektive war ein wichtiger Teil des Forschungsprojekts. Das Oeschger-Zentrum für Klimaforschung der Universität Bern hat Datenreihen zur Sonnenaktivität aus der Vergangenheit mit konkreten klimatischen Verhältnissen verglichen. Sonnenflecken, deren Anzahl gut mit der Aktivität der Sonne korreliert, werden schon seit gut drei Jahrhunderten erfasst. Wie kalt es auf der Erde damals wirklich war, ist dagegen viel schwieriger exakt zu beziffern: “Wir wissen, dass die Winter beim letzten Minimum sehr kalt waren, zumindest in Nordeuropa”, sagt Schmutz. Für die Forschenden bleibt noch einiges an Arbeit, um den Zusammenhang mit dem globalen Erdklima im Detail nachvollziehen zu können – in der Vergangenheit und eben auch in der Zukunft.

————-

Siehe auch SRF-Radiobeitrag (ab Minute 08:10 hier) und DLF. In den SRF-Abendnachrichten von TV und Radio gab es jeweils etwas längere Beiträge, die beide hier nun über diese Zusammenfassung auf SRF News abgerufen werden können. Dringende Leseempfehlung auch für den Beitrag “Es ist die Sonne” von Markus Schär in der Weltwoche vom 29. März 2017:

Klima: Es ist die Sonne
Schweizer Studie: Nicht der Mensch, die Sonne erwärmt das Klima

[...] Und vor allem stellte Projektleiter Werner Schmutz fest, die Schwankungen der Sonnenaktivität seien «der einzige Ansatz, um die natürlichen Klimaschwankungen der letzten paar tausend Jahre zu verstehen». Wie bitte? Fritz Vahrenholt, vorher Umweltpolitiker, Windkraft-Unternehmer und Weltklimarat-Experte, gab vor fünf Jahren mit dem Geologen Sebastian Lüning das Buch «Die kalte Sonne» heraus. «Die Sonne befand sich in den letzten Jahrzehnten in einer ihrer aktivsten Phasen der vergangenen 10 000 Jahre», stellten die beiden Wissenschaftler fest: Die Erde genoss ein «Grosses Solares Maximum» wie um das Jahr null und das Jahr 1000 – als ein ebenso günstiges Klima herrschte wie heute. Und das Duo sagte bis 2035 wegen der schwachen Sonnenaktivität eine Abkühlung um ein halbes Grad voraus. Laut Wikipedia wurden diese Thesen in der Fachwelt aber «einhellig verworfen». Jetzt kommen Schweizer Forscher «erstmals» zur Erkenntnis, dass sich der Klimawandel nur mit der Sonnenaktivität erklären lässt. Das ist eine solche Sensation, dass Tages-Anzeiger, NZZ und Blick natürlich nicht darüber berichteten.

Ganzen Beitrag in der Weltwoche lesen (für Abonnenten).

 

 

University of Exeter: Phytoplankton kann sich leicht an den Klimawandel anpassen

Hans Joachim Schellnhuber und der ehemalige Greenpeace-Aktvist Malte Meinshausen haben am 24. März 2017 in Science einen tollkühnen Fahrplan für die globale Dekarbonisierung veröffentlicht. Bis 2050 muss das CO2 auf nahezu Null runter. Wenn die Bausindustrie es nicht schafft Beton und Stahl ohne CO2- Erzeugung herzustellen, sollen sie die Stoffe durch Holz, locker geschichtete Steine oder Glasfiber ersetzen, und zwar bis maximal 2040!  Das wäre das Ende jedes wirtschaftlichen, bezahlbaren Bauens und für die dritte Welt besonders verheerend. Kein Dach überm Kopf aber 2 Grad? Klima-Wissenschaftler wollen nun am ganz großen historischen Rad drehen. Zurück in die Steinzeit in nur drei Jahrzehnten. In welcher Eigenschaft genau haben die Autoren den Artikel geschrieben? Das Paper ist auch Gegenstand der Diskussion bei Judith Curry.

Der Untergang der Welt
sich stets Grenzen hält.

© Erhard Horst Bellermann
(*1937), deutscher Bauingenieur, Dichter und Aphoristiker
Quelle: Bellermann, Dümmer for One, BoD 2003

——————————————

Am 16. März 2017 fand in Osnabrück eine von der Deutschen Bundesstiftung Umwelt ausgerichtete Lehrerfortbildung mit bizarrem Titel statt:

“Lehrerfortbildung: “Der Klimawandel vor Gericht”

Am Donnerstag, den 16. März 2017, findet von 15.00 bis 18.00 Uhr die Lehrerfortbildung “Der Klimawandel vor Gericht – Fachliches Lernen, Bewertungskompetenz entwickeln, Fächerübergreifende Perspektiven wahrnehmen” mit Prof. Dr. Ingo Eilks und MEd Fiona Affeldt, Universität Bremen, in der Deutschen Bundesstiftung Umwelt (DBU) statt. Fachdidaktiker und Lehrkräfte haben im Rahmen des Projektes »Der Klimawandel vor Gericht« Unterrichtseinheiten zum fachlichen Lernen und zur Förderung von Kommunikations- und Bewertungskompetenz entwickelt. Entstanden sind dabei Arbeitsmaterialien, Versuche und Methoden für das fachliche Lernen zum Thema Klimawandel aus den Perspektiven der Fächer Biologie, Chemie, Physik und Politik. Prof. Dr. Ingo Eilks und Fiona Affeldt von der Universität Bremen vermitteln den Teilnehmerinnen und Teilnehmern aktuelle fachliche Grundlagen und geben einen Überblick über die Materialien. Anhand dieser Materialien lassen sich Themen wie die Hinterfragung unseres Konsumverhaltens, Aspekte einer nachhaltigen Ernährung und gesellschaftliche Entscheidungen zum Klimawandel alltagsnah bearbeiten. Einige Unterrichtselemente und Versuche können selber ausprobiert werden. Darüber hinaus lernen die Teilnehmenden auch die aktuelle DBU-Ausstellung »ÜberLebensmittel« und ihr Begleitprogramm kennen.

Wie ist der Titel zu verstehen? Oder handelt es sich vielmehr um eine Mittagsveranstaltung “Klimawandel vor dem Hauptgericht”? Alles deutet auf eine verdeckte klimaalarmistische Schulung hin…

———————-

Die University of Exeter hatte am 21. März 2017 gute Nachrichten: Phytoplankton kann sich relativ leicht an steigende Wassertemperaturen und den Klimawandel anpassen, wie Langzeituntersuchungen an Grünalgen jetzt zeigten. Im Folgenden die Pressemitteilung der Forschergruppe um Dr Elisa Schaum:

The foundation of aquatic life can rapidly adapt to global warming, new research suggests

Important microscopic creatures which produce half of the oxygen in the atmosphere can rapidly adapt to global warming, new research suggests.

Phytoplankton, which also act as an essential food supply for fish, can increase the rate at which they take in carbon dioxide and release oxygen while in warmer water temperatures, a long-running experiment shows.

Monitoring of one species, a green algae, Chlamydomonas reinhardtii, after ten years of them being in waters of a higher temperature shows they quickly adapt so they are still able to photosynthesise more than they respire.

Phytoplankton use chlorophyll to capture sunlight, and photosynthesis to turn it into chemical energy. This means they are critical for reducing carbon dioxide in the atmosphere and for providing food for aquatic life. It is crucial to know how these tiny organisms – which are not visible to the naked eye – react to climate change in the long-term. Experts had made predictions that that climate change would have negative effects on phytoplankton. But a new study shows green algae can adjust to warmer water temperatures. They become more competitive and increase the amount they are able to photosynthesise.

Algae examined by scientists which lived in warmer waters became fitter, and more competitive, proving that these tiny creatures adapt well to climate change. This suggests that this species could continue to be a plentiful source of food for aquatic life even if temperatures rise. Previous studies which sought to answer this question have been conducted only in laboratories rather than looking at how phytoplankton reacted to real conditions. In contrast this research, which has run so far for ten years, has allowed researchers to examine how the green algae fare in their natural environment, where they are exposed to a more complex environment, and competitors.

Scientists at the University of Exeter’s Penryn campus in Cornwall have for a decade monitored ten tanks home to the phytoplankton with freshwater heated to four degrees centigrade above the ambient temperature. This is the rate at which our climate will have been warmed by the end of the century. The temperatures of ten other tanks were kept at normal temperatures. All the tanks were kept outside the Freshwater Biological Association’s river laboratory in Dorset. All twenty tanks were populated with the same types and proportion of various freshwater phytoplankton, zooplankton, invertebrates and plants. In the laboratory scientists tested how much the algae could photosynthesise, how fast they were growing, and how well they outcompeted organisms from the ambient ponds.

Lead author Dr Elisa Schaum said: “phytoplankton may be microscopically small, but they are essential for all aquatic life. They provide food for zooplankton, which are then eaten by fish. Aquatic ecosystems produce the oxygen in every second breath we take, and are responsible for the oceans’ capacity as a sink for carbon dioxide.

“Other research had suggested that increased temperatures can pose problems for some types of phytoplankton. But we have shown that algae adapt very rapidly and that the mechanism underpinning their evolutionary response is linked to higher rates of photosynthesis – they can produce more energy, and channel it into faster growth rates and a better capacity for competition with other algae. They divide once a day and live in large populations of thousands of cells per millilitre of water. This means evolutionary changes are made through a few hundred of generations within a couple of years.

“It is important to recognise that climate change is a serious threat to aquatic ecosystems. Although the green algae monitored in our study cope well with elevated temperature, and may be able to sustain populations of organisms that eat them, we do not know yet what will happen to other groups of algae, and whether or not they will adapt through the same mechanisms.”

 

Eine unglaubliche Geschichte: Wikipedia und der Hamburger Forsythienstrauch

Von Sebastian Lüning und Josef Kowatsch

An der Hamburger Binnenalster steht nahe der Lombardsbrücke ein Forsythienstrauch. Vor wenigen Tagen, am 24. März 2017, war es wieder soweit: Der Strauch blühte! Na und, wird der eine oder andere sagen. Soll er doch blühen. Nun ist dieser Strauch jedoch nicht irgendein Strauch, sondern auch ein wissenschaftliches Studienobjekt, das seit 1945 ununterbrochen beobachtet wird. Der Blühtermin des Forsythienstrauchs wird penibel festgehalten und in einer Langzeitreihe aufgetragen. Schauen wir zunächst auf die letzten 30 Jahre, ein Zeitraum der kimawissenschaftlich Relevanz besitzt (Abb. 1). Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar). Gut zu erkennen ist der deutliche Verspätungstrend beim Blühen. Der neue Datenpunkt aus diesem Jahr (2017) passt sich bestens in diesen Trend ein. Späteres Blühen ist in der Regel ein Anzeichen für einen kalten Winter (Abb. 2). Insofern will der unbestechliche Hamburger Forsythienstrauch so gar nicht in das Erzählmuster einer katastrophalen Klimaerwärmung passen.

 

Abbildung 1: Verschiebung des Blühtermins von Forsythiensträuchern auf der Hamburger Lombardsbrücke während der letzten 30 Jahre. Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar).

 

Abbildung 2: Entwicklung der Februar-Temperaturen in Deutschland während der vergangenen 30 Jahre. Daten DWD. Graphik: Kowatsch

 

Aufgrund seiner klimatologischen Relevanz besitzt der Hamburger Strauch sogar seine eigene Wikipedia-Seite. Bis zum Februar 2017 war die Seite relativ knapp gehalten und bestand eigentlich nur aus einem Unterkapitel mit dem Titel “Geschichte”. Dort hieß es damals (beim Link ganz nach unten scrollen um die Seitenversion zu begutachten):

Der Hamburger Forsythien-Kalender ist die phänometrische Aufzeichnung der Zeitpunkte des Blühbeginns der Forsythiensträucher an der Lombardsbrücke in Hamburg seit 1945.

Geschichte

Im zerstörten Hamburg, kurz vor Ende des Zweiten Weltkriegs, fielen Carl Wendorf am 27. März 1945 die blühenden Forsythiensträucher inmitten der Trümmer an der Lombardsbrücke auf. Er beschloss jedes Frühjahr den Blühbeginn zu notieren, was zu einer lückenlosen Aufzeichnung ab 1945 führte. Seit dem Tod von Carl Wendorf im Jahr 1984 führt Jens Iska-Holtz diese Liste weiter. Er meldet die Daten als phänologischer Beobachter an den Deutschen Wetterdienst.[1][2]

Die zunehmende Verspätung des Blühens während der letzten 30 Jahre blieb seltsamerweise im Wikipedia-Artikel unerwähnt. Kürzlich kontaktierte uns ein Naturfreund, dem diese Informationslücke auf der Wikipedia-Seite ebenfalls aufgefallen war. Der anonym bleiben wollende Naturfreund erklärte, dass er sich in der Mitte zwischen den Klimalagern verortet sehe, beide Seiten hätten zum Teil gute Argumente. Er hatte vom kruden Vorwurf von Seiten der Skeptiker gelesen, dass Wikipedia angeblich von Klimaktivisten unterwandert wäre. Dies sei schwer nachvollziehbar, dachte er sich.

Daher wagte er ein Experiment. Ganz oben auf der Wikipedia-Seite gibt es die Reiter “Bearbeiten” und “Versionsgeschichte“. Dort kann Jedermann/Jederfrau Ergänzungen oder Korrekturen von Wikipediaartikeln vornehmen. Am 8. Februar 2017 loggte sich der Naturfreund als “Greenway21″ bei Wikipedia ein und schlug eine wichtige Ergänzung auf der Seite des Hamburger Forsythienstrauches vor:

Während der letzten 50 Jahren ist ein generelles Vorrücken der Forsythienblüte im Jahresverlauf zu erkennen. Seit 1988 allerdings verspätet sich der Blüh-Termin der Hamburger Forsythien wieder zunehmend. [3]

Ein wissenschaftlich einwandfreies Statement, beschreibt es doch in fairer Weise zum einen den Langzeittrend und andererseits den hochrelevanten aktuellen Trend der letzten 30 Jahre. Die offizielle Langzeitreihe seit 1945 können Sie auf dieser Webseite des Deutschen Wetterdienstes anschauen (zweite Graphik auf der Seite, gelbe Kurve). Das Experiment hatte begonnen. Würden die Wikipedia-Redakteure die wichtige Ergänzung zulassen und freischalten? Es dauerte keine halbe Stunde, da war die Ergänzung wieder rückgängig gemacht. Ein Seiten-Editor mit dem Codenamen “DeWikiMan” verweigerte die Aufnahme. Grund: Der Trend zum verspäteten Blühen während der letzten 30 Jahre wäre statistisch nicht ausreichend belegt. Schauen Sie sich Abbildung 1 nocheinmal genau an. Ist der Trend wirklich nicht erkennbar? Und wir haben sogar nachgerechnet. Das Resultat: Der Trend des Blühbeginns seit 1988 ist signifikant steigend. Der Trend über die letzten 30 Jahre beträgt 0,83+-0,62 Tage/Jahr auf dem 95%- Konfidenzniveau.

Ganz offensichtlich wurde hier ein wichtiger Zusatz aus persönlichen Gründen blockiert. Daher lohnt sich ein Blick auf die Person “DeWikiMan”. Wer steckt dahinter? In seinem Wikipedia-Profil outet er sich als ökologisch Interessierter:

Mein Hauptinteresse hier gilt allem, was mit Umweltökonomik, Ökologischer Ökonomik und speziell Klimaökonomik (das Rot schmerzt!) zu tun hat.

Genau so stellt man sich einen Klimaaktivisten vor. Ein klassischer Torwächter, der auf Wikipedia nur Inhalte zulässst, die mit seiner Ideologie übereinstimmen. Auf keinen Fall ein guter Inhalts-Schiedsrichter für diese wichtige Online-Enzyklopädie. Aber DeWikiMan setzte noch einen oben drauf. Er grübelte 11 Tage und schrieb dann selber einen längeren Absatz, den niemand hinterfragte, ja hinterfragen konnte, denn DeWikiMan hatte ja die Änderungsmacht. Am 19. Februar 2017 erschien auf der Wikipedia-Seite ein ganz neues Unterkapitel mit dem kuriosen Titel “Früherer Blühbeginn“, also dem genauen Gegenteil des aktuellen Trends:

Im Jahr 1995 stellte der DWD fest, dass die Lombardsbrücke mit einer Verfrühung um 26 Tage in 50 Jahren von allen Standorten mit einer phänologischen Datenreihe den stärksten Trend aufwies.[3] Auch 2015 konstantierte der DWD für den Zeitraum zwischen 1945 und 2014 einen Trend zu einem immer früheren Blühbeginn.[4] Neben Änderungen des Klimas sind auch andere Änderungen der Umwelteinflüsse an diesem urbanen Standortes als Ursache in Betracht zu ziehen.[2][3] Hinzu kommt, dass die Forsythie, wenn kein ausreichender Kältereiz vorhanden ist, nicht unbedingt der Temperatur folgt. So gab es im Winter 2006/2007 ein Temperaturmaximum an der Lombardsbrücke, dennoch blühte die Forsythie relativ spät, deutlich nach ihrem Rekordwert 2001/2002, weil im warmen Winter 2006/2007 der Kältereiz gefehlt hatte.[4]

Der Wikipedia-Klimaaktivist nutzte seinen Hebel, um die Desinformation auf die Spitze zu treiben. Anstatt im Text in transparenter Weise auch Raum für den unbequemen Trend der letzten 30 Jahre zu schaffen, umtänzelt er ihn und betrachtet lediglich das für ihn passende Zeitfenster von 60 Jahren. Bitterböses Rosinenpicken. Wir danken Naturfreund “Greenway21″ für diesen wichtigen Test, der in eindrucksvoller Art und Weise bestätigt, dass Klimaaktivisten die Wikipedia-Seite gekapert und fest im Griff haben. DeWikiMan ist als Editor schwer haltbar geworden und Wikipedia sollte seine Aktivitäten einmal etwas genauer unter die Lupe nehmen. Schade, dass das ursprünglich ausgezeichnete Konzept einer von Freiwilligen geschriebenen Online-Enzyklopädie von politischen Aktivisten gekapert und in sensiblen Themenbereichen unbrauchbar gemacht wurde.

 

Abbildung 3: Hamburger Forsythiensträucher an der Binnenalster. Foto: NordNordWest, Lizenz: Creative Commons by-sa-3.0 de

 

 

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen

Es hat ein wenig gedauert, aber nun hat man sogar in Berlin realisiert, dass nur gemeinsame internationale Anstrengungen Sinn machen, wenn es um globale Probleme geht. Daniel Wetzel am 11. März 2017 in der Welt:

Bundesregierung gibt Alleingänge im Klimaschutz auf
Deutschland hat im Klimaschutz stets den Vorreiter und Musterschüler gespielt. Doch damit ist jetzt offenbar Schluss. Kanzleramtsminister Peter Altmaier spricht sich gegen nationale Alleingänge aus. [...] Denn der Bundesminister für besondere Aufgaben [Altmaier] stellte den versammelten Unternehmern und Managern die Erfüllung eines lang gehegten Wunsches in Aussicht: Mit den teuren klimapolitischen Alleingängen Deutschlands könnte es nach seinen Worten bald vorbei sein. „Ich bin fest davon überzeugt, dass der Weg nationaler Ziele falsch ist“, erklärte Altmaier vor den Teilnehmern der exklusiven „Klausurtagung Energie- und Umweltpolitik“, zu der der Wirtschaftsrat der CDU eingeladen hatte. Es sei zwar „schwer, bestehende Vereinbarungen zu canceln“, sagte Altmaier. Doch künftig brauche man „europäische und internationale Ziele“.

Ganzen Artikel in der Welt lesen.

Bereits einige Tage zuvor, am 6. März 2017, erläuterte Wetzel in derselben Zeitung die ungeschminkten Fakten des deutschen Energieexperiments:

Teuer und unrealistisch Die Energiewende droht zum ökonomischen Desaster zu werden
Während die Kosten für die Energiewende weiter steigen, sinkt laut einer eine McKinsey-Langzeit-Studie die Zahl der Ökostrom-Jobs. Und auch das wichtigste Ziel der Umstellung verfehlt die Politik. ie Sichtweisen der Bundesregierung und der Berater könnten nicht unterschiedlicher sein. Gerade hat die neue Bundeswirtschaftsministerin Brigitte Zypries (SPD) in hoher Auflage eine Broschüre mit dem Titel „Die Energiewende – unsere Erfolgsgeschichte“ verteilen lassen. Da wird auf 20 Seiten gepriesen, dass Deutschland inzwischen einen Ökostrom-Anteil von 32 Prozent erreicht hat und die Stromversorgung dabei weiterhin die sicherste der Welt ist. Die Strompreise für private Haushalte hätten sich stabilisiert. Insgesamt, so Zypries, sei die Energiewende „nachhaltig und sicher, bezahlbar und planbar, verlässlich und intelligent“. Ganz anders sieht das Bild aus, das die Beratungsgesellschaft McKinsey mit der aktuellen Fortschreibung ihres „Energiewende-Index“ zeichnet. Das Expertenteam um Senior Partner Thomas Vahlenkamp überprüft alle sechs Monate anhand von 15 quantitativ messbaren Kriterien, ob die von der Politik aufgestellten Energiewende-Ziele noch erreichbar sind. Der Titel dieses Papiers: „Die Kosten steigen weiter.“

Ganzen Artikel auf welt.de lesen.

Zu allem Überfluss scheint das vormals so hochgelobte Erneuerbare Energien Gesetz (EEG) das ganze Gegenteil von dem zu bewirken, was versprochen wurde. Pressemitteilung der Universität Hamburg vom 14. Februar 2017:

Wieviel Klimaschutz steckt im EEG?

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen.

2017 ist die Reform des Erneuerbare-Energien-Gesetzes (EEG) in Kraft getreten. Mit dem EEG soll der Ausstoß von Treibhausgasen verringert und damit das Klima geschützt werden. Welchen Effekt das EEG tatsächlich für den Klimaschutz hat, haben Prof. Dr. Grischa Perino und Dr. Johannes Jarke vom Fachbereich Sozialökonomie der Universität Hamburg untersucht. Sie kommen zu dem Schluss, dass angesichts des europäischen Treibhausgas-Handelssystems (EU ETS) die Treibhausgasemissionen durch das EEG sogar steigen können.

Durch das EEG soll laut Bundeswirtschaftsministerium der Anteil erneuerbarer Energien von derzeit rund 32 Prozent auf 40 bis 45 Prozent im Jahr 2025 und auf 55 bis 60 Prozent im Jahr 2035 steigen. In ihrem Klimaschutzplan hat sich die Bundesregierung außerdem verpflichtet, die Treibhausgasemissionen bis 2050 im Vergleich zu 1990 um 80 bis 95 Prozent zu vermindern. Doch durch das europäische Emissionshandelssystem (EU ETS) ist die Obergrenze an Treibhausgasemissionen verbindlich festgelegt. Das EU ETS erfasst europaweit rund 12.000 Anlagen der Energiewirtschaft und der energieintensiven Industrie sowie alle innereuropäischen Flüge. Die Betreiber der Anlagen, die dem EU-ETS unterliegen, müssen für jede ausgestoßene Tonne CO2 ein Zertifikat abgeben. Emissionsrechte, die nicht benötigt werden, werden an andere teilnehmende Unternehmen verkauft oder für die Zukunft gespart. Eine Reduzierung der Emissionen in der deutschen Stromerzeugung verschiebt die Emissionen also lediglich an eine andere Stelle. Das hat auch das Gutachten Anfang Februar 2017 vorgestellte Gutachten des Wissenschaftlichen Beirats des Bundeswirtschaftsministeriums noch einmal betont.

Die Hamburger Forscher zeigen in ihrer gerade im „Journal of Environmental Economics and Management“ erschienenen Studie: Werden die erneuerbaren Energien durch einen Aufschlag auf den Strompreis finanziert, wie dies in Deutschland mit der EEG-Umlage der Fall ist, können die Treibhausgasemissionen insgesamt sogar steigen. Der Grund: Für Verbraucherinnen und Verbraucher ist Strom durch die Energiewende deutlich teurer geworden, so dass sie vermehrt fossile Energieträger in Bereichen nutzen, die nicht dem EU ETS unterliegen, und damit die Gesamtemissionen erhöhen. Eine Finanzierung der Energiewende über das Steuersystem würde diesen Effekt vermeiden.

Professor Perino: „Der Ausbau erneuerbarer Energien im Stromsektor ist ein zentraler Bestandteil der Energiewende und damit der Klimapolitik der Bundesregierung. Intuitiv erscheint das sehr sinnvoll. Auf den zweiten Blick sind die Zusammenhänge aber deutlich komplexer. Insbesondere die Wechselwirkungen mit dem Emissionshandel stellen derzeit so manche Intuition auf den Kopf. Eine regelgebundene Flexibilisierung der Emissionsobergrenze im Emissionshandel, wie auch vom Umweltbundesamt und dem Wissenschaftlichen Beirat des Bundeswirtschaftsministeriums gefordert, ist daher für die Klimawirkung des EEG entscheidend.“

Originalartikel: Do Renewable Energy Policies Reduce Carbon Emissions? On Caps and Inter-Industry Leakage”. Journal of Environmental Economics and Management, DOI: 10.1016/j.jeem.2017.01.004

Schauen Sie hierzu auch ein Video, in dem Prof. Perino seine Ergebnisse weiter erläutert.

Immer deutlicher wird, dass man sich mit der übereilten Energiewende in gefährliches Gelände vorgewagt hat. Dies zeigt auch ein Vorfall vom 24. Januar 2017 als das deutsche Stromnetz erneut am Rande des Zusammenbruchs stand. Der Grund dafür war die klägliche Leistung von Windkraftanlagen und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpft. Lesen Sie hierzu den Beitrag “24. Januar 2017 – Der Tag, an dem Merkels Energie­wende auf der Kippe stand” von Günter Keil auf EIKE.

Weite Teil der deutschen Landschaft sind mittlerweile mit Windkraftanlagen zugespargelt. Möglich gemacht wurde dies durch üppige staatliche Subventionen. Die laufen jedoch in ein paar Jahren aus. Der Rückbau der Stahlkolosse ist daher wohl nur eine Frage der Zeit. Was aufgebaut wurde, kann auch wieder abgebaut werden. Die Leipziger Volkszeitung berichtete am 16. März 2017:

Jedes dritte Windrad in Sachsen hat bald ausgedient
Hunderte Windräder in Sachsen und Thüringen könnten bald aus der Landschaft verschwinden. Ab Ende 2020 wird für Anlagen, die seit 20 Jahren in Betrieb sind, keine Einspeisevergütung mehr gezahlt. Weil ihr Betrieb laut Windenergieverband BWE dann unrentabel werde, droht in den meisten Fällen der Abriss. Gegen die anhaltende Flaute bei der Wind-energienutzung laufen Sachsens Grüne jetzt Sturm. Bundesweit sind rund 6000 Altanlagen betroffen, wie eine Deutsche Windguard-Studie im Auftrag der Naturstrom AG belegt. In den Folgejahren stünden weitere 1600 Rückbauten pro Jahr an.

Weiterlesen in der Leipziger Volkszeitung

Beim Klimaretter macht man sich bereits große Sorgen.  Jörg Staude beklagte am 2. März 2017:

Strompreis legt ab 2020 Windkraft still
Zufall oder Absicht? Am Aschermittwoch wird in Berlin eine Studie vorgestellt, laut der nach 2020 bis zu einem Drittel der Windkraft-Kapazität die Abschaltung droht, falls der Strompreis an der Börse so bleibt und es keine politischen Gegenmaßnahmen gibt.

Weiterlesen auf klimaretter.info.

Björn Peters vom Deutschen Arbeitgeber Verband schaute über die nationale Grenze hinüber und entdeckte in China einen Trend, der Magengrummeln verursacht. Sein Beitrag vom 20. März 2017:

Warum stoppt China den Ausbau von Windkraft?
Eine Meldung Ende Februar auf china.org.cn ließ die Fachwelt aufhorchen:  China hat den weiteren Ausbau der Windkraft in sechs wichtigen Provinzen vorerst gestoppt.  Die Förderung erneuerbarer Energien hat auch in China einen sehr hohen Stellenwert, daher lohnt ein näherer Blick auf die Umstände dieser Entscheidung. [...] Nach den Pressemeldungen war der Ausbaustopp eine Reaktion auf die geringe Nutzbarkeit des Windstroms.  Traurige Rekordhalter waren die Anlagen in Gansu in Zentralchina.  Dort konnten nur 57 % der durch Windenergieanlagen im Jahr 2016 produzierten Energie auch genutzt werden.  In der sehr großen Provinz Xinjiang im Nordwesten Chinas waren es 62 %, in den beiden benachbarten Provinzen Jilin und Heilongjiang im Nordosten Chinas waren es 70 % und 81 %, in der Inneren Mongolei, eine große Provinz im Norden Chinas immerhin 79 %.  Insgesamt blieben im Jahr 2016 fast 50 TWh an Windstrom ungenutzt, im Jahr davor bereits 34 TWh.  Dass so viel Energie quasi weggeworfen werden musste, liegt vordergründig am immer noch nicht ausreichenden Leitungsbau zwischen den entlegenen Provinzen mit hohem Windaufkommen und den industriellen Zentren.  Dahinter verbirgt sich aber ein tieferes Problem der Windenergie, das hier dank der besseren Datenlage anhand der deutschen Windstromproduktion skizziert wird. 

Ganzen Beitrag auf deutscherarbeitgeberverband.de lesen. Zur Meldung auf china.org.cn geht es hier.

Und abschließend wieder eine Nachricht, die hoffnungsfroh stimmt. Kann schon bald im großen Maßstab Treibstoff aus CO2 gewonnen werden, sozusagen Gold aus Stroh? Pressemitteilung der Duke University vom 23. Februar 2017 (via Science Daily):

Light-driven reaction converts carbon dioxide into fuel: Illuminated rhodium nanoparticles catalyze key chemistry

Duke University researchers have developed tiny nanoparticles that help convert carbon dioxide into methane using only ultraviolet light as an energy source.

Having found a catalyst that can do this important chemistry using ultraviolet light, the team now hopes to develop a version that would run on natural sunlight, a potential boon to alternative energy. Chemists have long sought an efficient, light-driven catalyst to power this reaction, which could help reduce the growing levels of carbon dioxide in our atmosphere by converting it into methane, a key building block for many types of fuels. Not only are the rhodium nanoparticles made more efficient when illuminated by light, they have the advantage of strongly favoring the formation of methane rather than an equal mix of methane and undesirable side-products like carbon monoxide. This strong “selectivity” of the light-driven catalysis may also extend to other important chemical reactions, the researchers say. “The fact that you can use light to influence a specific reaction pathway is very exciting,” said Jie Liu, the George B. Geller professor of chemistry at Duke University. “This discovery will really advance the understanding of catalysis.” The paper appears online Feb. 23 in Nature Communications.

Despite being one of the rarest elements on Earth, rhodium plays a surprisingly important role in our everyday lives. Small amounts of the silvery grey metal are used to speed up or “catalyze” a number of key industrial processes, including those that make drugs, detergents and nitrogen fertilizer, and they even play a major role breaking down toxic pollutants in the catalytic converters of our cars. Rhodium accelerates these reactions with an added boost of energy, which usually comes in the form of heat because it is easily produced and absorbed. However, high temperatures also cause problems, like shortened catalyst lifetimes and the unwanted synthesis of undesired products.

In the past two decades, scientists have explored new and useful ways that light can be used to add energy to bits of metal shrunk down to the nanoscale, a field called plasmonics. “Effectively, plasmonic metal nanoparticles act like little antennas that absorb visible or ultraviolet light very efficiently and can do a number of things like generate strong electric fields,” said Henry Everitt, an adjunct professor of physics at Duke and senior research scientist at the Army’s Aviation and Missile RD&E Center at Redstone Arsenal, AL. “For the last few years there has been a recognition that this property might be applied to catalysis.”

Xiao Zhang, a graduate student in Jie Liu’s lab, synthesized rhodium nanocubes that were the optimal size for absorbing near-ultraviolet light. He then placed small amounts of the charcoal-colored nanoparticles into a reaction chamber and passed mixtures of carbon dioxide and hydrogen through the powdery material. When Zhang heated the nanoparticles to 300 degrees Celsius, the reaction generated an equal mix of methane and carbon monoxide, a poisonous gas. When he turned off the heat and instead illuminated them with a high-powered ultraviolet LED lamp, Zhang was not only surprised to find that carbon dioxide and hydrogen reacted at room temperature, but that the reaction almost exclusively produced methane. “We discovered that when we shine light on rhodium nanostructures, we can force the chemical reaction to go in one direction more than another,” Everitt said. “So we get to choose how the reaction goes with light in a way that we can’t do with heat.”

This selectivity — the ability to control the chemical reaction so that it generates the desired product with little or no side-products — is an important factor in determining the cost and feasibility of industrial-scale reactions, Zhang says. “If the reaction has only 50 percent selectivity, then the cost will be double what it would be if the selectively is nearly 100 percent,” Zhang said. “And if the selectivity is very high, you can also save time and energy by not having to purify the product.” Now the team plans to test whether their light-powered technique might drive other reactions that are currently catalyzed with heated rhodium metal. By tweaking the size of the rhodium nanoparticles, they also hope to develop a version of the catalyst that is powered by sunlight, creating a solar-powered reaction that could be integrated into renewable energy systems.

“Our discovery of the unique way light can efficiently, selectively influence catalysis came as a result of an on-going collaboration between experimentalists and theorists,” Liu said. “Professor Weitao Yang’s group in the Duke chemistry department provided critical theoretical insights that helped us understand what was happening. This sort of analysis can be applied to many important chemical reactions, and we have only just begun to explore this exciting new approach to catalysis.”

Paper: Xiao Zhang, Xueqian Li, Du Zhang, Neil Qiang Su, Weitao Yang, Henry O. Everitt, Jie Liu. Product selectivity in plasmonic photocatalysis for carbon dioxide hydrogenation. Nature Communications, 2017; 8: 14542 DOI: 10.1038/NCOMMS14542

 

Großbaustelle Klimamodelle: Probleme mit Pilzen, Bakterien, Boden-CO2 und Regionalmodellierungen

Klimamodelle sollen das Klima der Erde virtuell nachbilden. Dazu müssen alle Prozess in Gleichungen gefasst werden, aus denen der Computer dann den Verlauf in Zeit und Raum berechnet. Die Ergebisse von Klimamodellen bilden die Grundlage für den begonnenen weitreichenden Umbau der Energiesysteme und Gesellschaft. Die Erwärmung der letzten 150 Jahre bekommen die Modelle einigermaßen hin. Der Anstieg des CO2 passt gut zur Erwärmung. Allerdings ist im selben Zeitraum auch die Sonnenaktivität stark angestiegen. Hat sie wirklich nichts mit der Erwärmung zu tun?

Einen Hinweis auf Probleme bei den Klimamodellen gibt die Auswertung von regionalen Entwicklungen. Eigentlich sollten die Modelle die kleinermaßstäblichen Klimaentwicklungen gut bewältigen können, denn die Summe der regionalen Entwicklungen ergibt doch eigentlich die globale Summe. Interessanterweise versagen die Modelle jedoch reihenweise, wenn es um regionale Simulationen geht. Hierauf wies im August 2016 die Penn State University in einer Pressemitteilung noch einmal ausdrücklich hin:

Global climate models do not easily downscale for regional predictions

One size does not always fit all, especially when it comes to global climate models, according to Penn State climate researchers.”The impacts of climate change rightfully concern policy makers and stakeholders who need to make decisions about how to cope with a changing climate,” said Fuqing Zhang, professor of meteorology and director, Center for Advanced Data Assimilation and Predictability Techniques, Penn State. “They often rely upon climate model projections at regional and local scales in their decision making.”

Zhang and Michael Mann, Distinguished professor of atmospheric science and director, Earth System Science Center, were concerned that the direct use of climate model output at local or even regional scales could produce inaccurate information. They focused on two key climate variables, temperature and precipitation.

They found that projections of temperature changes with global climate models became increasingly uncertain at scales below roughly 600 horizontal miles, a distance equivalent to the combined widths of Pennsylvania, Ohio and Indiana. While climate models might provide useful information about the overall warming expected for, say, the Midwest, predicting the difference between the warming of Indianapolis and Pittsburgh might prove futile.

Regional changes in precipitation were even more challenging to predict, with estimates becoming highly uncertain at scales below roughly 1200 miles, equivalent to the combined width of all the states from the Atlantic Ocean through New Jersey across Nebraska. The difference between changing rainfall totals in Philadelphia and Omaha due to global warming, for example, would be difficult to assess. The researchers report the results of their study in the August issue of Advances in Atmospheric Sciences.

“Policy makers and stakeholders use information from these models to inform their decisions,” said Mann. “It is crucial they understand the limitation in the information the model projections can provide at local scales.” Climate models provide useful predictions of the overall warming of the globe and the largest-scale shifts in patterns of rainfall and drought, but are considerably more hard pressed to predict, for example, whether New York City will become wetter or drier, or to deal with the effects of mountain ranges like the Rocky Mountains on regional weather patterns.

“Climate models can meaningfully project the overall global increase in warmth, rises in sea level and very large-scale changes in rainfall patterns,” said Zhang. “But they are uncertain about the potential significant ramifications on society in any specific location.” The researchers believe that further research may lead to a reduction in the uncertainties. They caution users of climate model projections to take into account the increased uncertainties in assessing local climate scenarios. “Uncertainty is hardly a reason for inaction,” said Mann. “Moreover, uncertainty can cut both ways, and we must be cognizant of the possibility that impacts in many regions could be considerably greater and more costly than climate model projections suggest.”

Ein Jahr zuvor hatte bereits die Lund University auf eine große Unsicherheit in den Klimamodellen hingewiesen, die wohl den wenigsten Beobachtern in den Sinn gekommen wäre: Pilze und Bakterien. Diese werden von den gängigen Klimamodellen fundamental falsch dargestellt. Hier die Pressemitteilung vom  28. August 2015:

Future climate models greatly affected by fungi and bacteria
Researchers from Lund University, Sweden, and USA have shown that our understanding of how organic material is decomposed by fungi and bacteria is fundamentally wrong. This means that climate models that include microorganisms to estimate future climate change must be reconsidered.

When a plant dies, its leaves and branches fall to the ground. Decomposition of soil organic matter is then mainly carried out by fungi and bacteria, which convert dead plant materials into carbon dioxide and mineral nutrients. Until now, scientists have thought that high quality organic materials, such as leaves that are rich in soluble sugars, are mainly decomposed by bacteria. Lower quality materials, such as cellulose and lignin that are found in wood, are mainly broken down by fungi. Previous research has also shown that organic material that is broken down by fungi results in a reduced leakage of carbon dioxide and nutrients compared to material decomposed by bacteria. This has consequences for climate models, since more loss of carbon dioxide and mineral nitrogen would have a direct bearing on the soil’s contribution to greenhouse gases and eutrophication.

In a 23-year experiment, researchers from Lund University and USA have examined the relative significance of fungal and bacterial decomposition. “In contrast with expectations, there was no evidence that high quality organic material was mainly broken down by bacteria. In fact, the data strongly suggested the contrary”, says Johannes Rousk, researcher in Microbial Ecology at Lund University in Sweden. “There was also no evidence to suggest that organic material broken down by fungi reduced the leakage of carbon dioxide into the atmosphere, or the leakage of nutrients. Once again, the results tended to suggest the contrary”, says Johannes Rousk. The results could have consequences not only for future climate models, but may also impact current policies on land use intended to promote fungi. This may be based on flawed assumptions regarding the fungal role in reducing negative environmental effects.

Publication: Revisiting the hypothesis that fungal-to-bacterial dominance characterizes turnover of soil organic matter and nutrients

Die großen Unsicherheiten in den Klimamodellen hinsichtlich des CO2-Haushalts im Boden sind auch Thema einer Pressemitteilung der Yale University vom 1. August 2016:

Managing Uncertainty: How Soil Carbon Feedbacks Could Affect Climate Change

A new Yale-led paper makes the case that developing meaningful climate projections depends upon a better understanding of the role of “soil carbon turnover.”

There is more than twice as much carbon in the planet’s soils than there is in its atmosphere, so the loss of even a small proportion of that could have a profound feedback effect on the global climate. Yet in its most recent report, in 2013, the Intergovernmental Panel on Climate Change (IPCC) used models that paid less attention to soil carbon potentially entering the atmosphere than had earlier reports, concluding that there simply wasn’t enough evidence about how warmer global temperatures might impact soil carbon stocks.

A new Yale-led paper makes the case that developing meaningful climate projections will rely on understanding the role of “soil carbon turnover” and how it might potentially trigger climate feedbacks in a warming world. Writing in the journal Nature Climate Change, a team of scientists calls for more collaboration between modelers and soil scientists to improve the scientific understanding of the mechanisms that control the creation, stabilization, and decomposition of carbon in the soil. That in turn will promote the kinds of experiments that will begin to remove uncertainties about the competing mechanisms that drive soil carbon stocks, the researchers write.

While scientists might never eliminate all uncertainty when it comes to evaluating the mechanisms driving changes in soil carbon stocks, new research advances are making it possible to predict the full range of potential outcomes, said Mark Bradford, an Associate Professor of Terrestrial Ecosystem Ecology at the Yale School of Forestry & Environmental Studies (F&ES) and lead author of the study. And that, he says, will increase confidence. “There is so much discussion of uncertainty in the public debate about climate change that the term now seems ambiguous and politically loaded,” Bradford said. “The discussion should not be about how much uncertainty there is, but rather about how much confidence we have that the real planetary response lies somewhere in the range of projected uncertainty.”  “You gain scientific confidence by representing the best — and sometimes polar opposite — ideas about the how the world works in your models. If someone tells you they have high confidence that something will happen, you can then take actions based on the best knowledge available.”

Warming temperatures can trigger two very different changes in soil carbon soil levels. On the one hand, they can stimulate the growth of plants, increasing the amount of carbon storage potential. Conversely, those higher temperatures can also accelerate the activity of organisms that live in the soil and consume decaying plant matter. In that case, there is a net increase in the amount of carbon released from the biosphere into the atmosphere. In other words, one function puts carbon into the soil, keeping it out of the atmosphere, while the other emits it into the atmosphere. The twist, however, is that the processes that emit carbon from the soil also convert a small fraction of the decaying plant matter into stores of carbon that can be locked away over millennial timescales, which would be optimal to minimizing climate impacts.

While scientists have made great advances in understanding how plants will respond, their ability to evaluate how much carbon goes into the soil, and where it ends up, is made difficult because it’s not possible to measure directly. “In the soil, we don’t know how things are working because, if you like, it’s as clear as mud,” Bradford said. “Often we can’t measure what we’re trying to measure because we can’t see the organisms. You have millions of individual microbes — from thousands of cryptic species — in just a handful of soil.” For these reasons, he said, much of the understanding of how soil carbon stocks will respond to warming is based only on the outputs, which is like trying to calculate the balance of a bank account based simply on how much money is being withdrawn.

Another complicating factor is that our knowledge of how soil carbon is created and stabilized is undergoing somewhat of a conceptual revolution, and only one set of ideas is represented in the climate models, the new paper says. For decades scientists assumed that carbon entering the soil through materials that are harder to “digest” by microbes — like, say, wood — would be more likely to remain in the soil longer. In recent years, however, there has emerged a growing consensus that carbon is more likely to remain in the soil if it enters through more digestible plant matter — a cloverleaf, for instance. “The science has flipped,” Bradford said. “The harder it is to digest initially the less of it stays in the soil, whereas the easier it is to be eaten then the more of it stays in the soil.” This is important because it’s the easily digestible plant matter — such as the sugars released from plant roots into the soil — that likely eventually get converted into the long term stores of soil carbon but they are also the hardest inputs to quantify.

This growing awareness shifts the way scientists view ecosystem management, from thinking about the biomass that you can see aboveground to a focus on thinking about the amount of carbon that can be pumped belowground directly through the roots of the plants and to the organisms in the soils. Ultimately, Bradford says, it will be impossible to eliminate all uncertainty. But that, he says, is not such a bad thing. “By increasing our real understanding, we might even end up making our climate projections more uncertain, in terms of a greater range in the extent the planet might warm,” he said. “But we’ll be more confident that the true answer falls within that range.” “Advancing our confidence and taking necessary actions will ultimately require that we embrace uncertainty as a fact of life.”

 

Wird die CO2-Verweildauer in der Atmosphäre überschätzt?

Der CO2-Gehalt der Erdathmosphäre ist mittlerweile auf einen Stand geklettert, der alle Werte der letzten 800.000 Jahre übertrifft (Abb. 1). Während der Eiszeiten sank die CO2-Konzentration bis auf 180 ppm ab, während er in den dazwischenliegenden Warmzeiten (Interglazialen) auf 250-300 ppm hinaufkletterte. Grund für diese CO2-Entwicklung ist vor allem das Ausgasen des CO2 aus dem wärmernen Interglazial-Wasser. Seit Beginn der Industriellen Revolution stieg der CO2-Wert jedoch auf Werte deutlich oberhalb der typischen Warmzeit-Spannweite. Aktuell besitzt die Atmosphäre einen CO2-Anteil von etwas mehr als 400 ppm.

Abbildung 1: CO2-Verlauf der letzten 800.000 Jahre. Quelle: Scripps Institution of Oceanography, via Climate Central.

 

Die große Frage ist nun, wie lange die Natur wohl brauchen würde, bis der antrhopogene CO2-Berg wieder abgebaut ist, sofern die CO2-Emissionen stark zurückgefahren werden könnten. Nehmen wir einmal an, von heute auf morgen würden Kohle, Öl und Gas verboten werden. In wievielen Jahren wäre der CO2-Überschuss vom natürlichen Kreislauf aufgenommen und aus der Atmosphäre verschwunden sein? Der 5. IPCC-Bericht schreibt hier, dass nach 1000 Jahren 85-60% des anthropogenen CO2 aus der Atmosphäre wieder verschwunden wären. Der vollständig Abbau würde aber mehrere hunderttausend Jahre dauern. In Kapitel 6 der Arbeitsgruppe 1 heißt es dazu:

The removal of human-emitted CO2 from the atmosphere by natural processes will take a few hundred thousand years (high confidence). Depending on the RCP scenario considered, about 15 to 40% of emitted CO2 will remain in the atmosphere longer than 1,000 years. This very long time required by sinks to remove anthropogenic CO2 makes climate change caused by elevated CO2 irreversible on human time scale.

Laut Umweltbundesamt (UBA) geht es aber auch schneller. Auf der UBA-Webseite wird angegeben:

Kohlendioxid ist ein geruch- und farbloses Gas, dessen durchschnittliche Verweildauer in der Atmosphäre 120 Jahre beträgt.

Von einem ähnlichen Wert geht auch Mojib Latif aus: Infranken.de berichtete am 13. Januar 2016 über einen Latif-Vortrag im Rahmen einer Lions-Club-Veranstaltung:

“100 Jahre bleibt CO2 in der Luft”
Der Klimaforscher Professor Mojib Latif machte als Gastredner beim Neujahresempfang des Lions-Clubs auf den Klimawandel aufmerksam. [...] “Wenn wir CO2 in die Luft blasen, dann bleibt das da 100 Jahre”, so Latif.

Hermann Harde von der Helmut-Schmidt-University Hamburg beschreibt in einer Arbeit, die im Mai 2017 im Fachblatt Global and Planetary Change erscheint und bereits vorab online verfügbar ist, einen neuen Ansatz, der Hinweise auf eine viel kürzere CO2-Verweildauer in der Atmosphäre liefert. Laut Harde bleibt das überschüssige CO2 im Durchschnitt lediglich 4 Jahre in der Luft:

Scrutinizing the carbon cycle and CO2 residence time in the atmosphere
Climate scientists presume that the carbon cycle has come out of balance due to the increasing anthropogenic emissions from fossil fuel combustion and land use change. This is made responsible for the rapidly increasing atmospheric CO2 concentrations over recent years, and it is estimated that the removal of the additional emissions from the atmosphere will take a few hundred thousand years. Since this goes along with an increasing greenhouse effect and a further global warming, a better understanding of the carbon cycle is of great importance for all future climate change predictions. We have critically scrutinized this cycle and present an alternative concept, for which the uptake of CO2 by natural sinks scales proportional with the CO2 concentration. In addition, we consider temperature dependent natural emission and absorption rates, by which the paleoclimatic CO2 variations and the actual CO2 growth rate can well be explained. The anthropogenic contribution to the actual CO2 concentration is found to be 4.3%, its fraction to the CO2 increase over the Industrial Era is 15% and the average residence time 4 years.

Dieser Wert ist nicht zu verwechseln mit der Verweildauer von einzelnen CO2-Molekülen in der Atmosphäre. Hier herrscht weitgehend Einigkeit, dass die Moleküle selber nur einige Jahre in der Luft bleiben, bevor sie mit CO2 aus dem Meerwasser im Sinne einer Gleichgewichtsreaktion ausgetauscht werden.

 

 

 

Hartmut Heinrich – Ein Pionier der Paläoklimawissenschaften

Die natürliche Klimavariabilität dokumentieren und verstehen, das wäre eine der Hauptaufgaben der modernen Klimawissenschaften. Der deutsche Meeresgeologe und Klimatologe Hartmut Heinrich war seiner Zeit weit voraus. Bereits Ende der 1980er Jahre hat er in Meeressedimenten ein wiederkehrendes Klimasignal entdeckt, die nach ihm benannten sogenannten Heinrich-Ereignisse. Wikipedia beschreibt:

Heinrich-Ereignisse beschreiben Perioden beschleunigter Eisvorstöße (englisch Ice flow surges) und deren Abfluss ins Meer. Die Ereignisse wurden aufgrund von Beobachtungen eines verstärkten Sedimenteintrages kontinentalen Ursprunges in jungpleistozänen Sedimentlagen am Meeresboden postuliert. Diese Sedimentlagen werden auch als Heinrich-Lagen oder IRD (englisch ice rafted debris oder ice rafted deposit) bezeichnet.[1] Aufgrund der groben Sedimentfraktion erscheint ein Transport durch Meeresströmungen unwahrscheinlich, als Transportmedium dürften daher vielmehr Eisberge/-schollen in Frage kommen.

Heinrich-Ereignisse wurden im Jahr 1988 erstmals von Hartmut Heinrich erwähnt und bisher nur für die letzte Kaltzeit nachgewiesen. Bei diesen Ereignissen brachen große Mengen an Eisbergen von den vorrückenden Gletschermassen ab und drifteten über den Nordatlantik. Die Eisberge führten Sedimente mit sich, die durch die Gletschertätigkeit abgetragen und inkorporiert worden waren; durch das Schmelzen der Eisberge fiel dieses von Eisbergen verschleppte Material auf den Meeresboden.

Das Schmelzen der Eisberge führte zu einer erhöhten Süßwasserzufuhr in den Nordatlantik. Dieser Zustrom an kaltem Süßwasser hat wahrscheinlich die dichtegetriebenen thermohalinen Zirkulationsmuster des Ozeans verändert. Die Ereignisse fallen oft mit Hinweisen auf globale Klimaschwankungen zusammen.

Weiterlesen auf Wikipedia.

Hans von Storch und Kay Emeis haben kürzlich ein spannendes Interview mit dem Klimapionier geführt. Absolut lesenswert. Das pdf des Interview finden Sie auf academia.edu. Leider kehrte Hartmut Heinrich der Wissenschaft früh den Rücken. In der von Klimamodellierern dominierten Klimawelt bräuchten wir heute mehr Forscher vom Typus Heinrich.

 

Philipp Blom: Die Kleine Eiszeit

Im Februar 2017 erschien ein neues Buch von Philip Blom zur Kleinen Eiszeit:

Die Welt aus den Angeln: Eine Geschichte der Kleinen Eiszeit von 1570 bis 1700 sowie der Entstehung der modernen Welt, verbunden mit einigen Überlegungen zum Klima der Gegenwart

Eine Rezension des Buches erschien am 10. März 2017 in der Welt von Christoph Arens:

Plötzlicher Klimawandel Vor 330 Jahren war ganz Europa ein eisiges Reich
Lange Winter und kurze, kühle Sommer: Im 17. Jahrhundert änderte sich das Klima in Europa dramatisch. Hungersnöte waren die Folge. Der Historiker Philipp Blom hat erforscht, wie der Kontinent die „Kleine Eiszeit“ überlebte.

Was passiert in einer Gesellschaft, wenn sich das Klima ändert? Wer stirbt, wer überlebt? Was bricht zusammen, und was wächst? „Es wirkt wie ein sadistisches Experiment“, erdacht von einem „böswilligen Dämon oder einem außerirdischen Wissenschaftler, ein Tierversuch mit ganzen Gesellschaften“, schreibt der Historiker Philipp Blom in seinem neuen Buch „Die Welt aus den Angeln.“

Weiterlesen in der Welt

———————-

Peter Heller am 25. Februar 2017 in Tichys Einblick:

Fakten statt Dogmen: Klimakatastrophe in der Krise
Mit einer Podiumsdiskussion wollte die VolkswagenStiftung zu mehr Klimaschutzanstrengungen aufrufen. Das aber scheiterte kläglich. Ein Veranstaltungsbericht.

Nach neunzig Minuten war für Bettina Münch-Epple die Grenze des Erträglichen überschritten. Unübersehbar hatte sich in ihr bis dahin viel verwirrte Verzweiflung aufgestaut, die schließlich in eine nur mühsam kaschierte Publikumsbeschimpfung mündete. Die Verärgerung der Leiterin der Bildungskommunikation des WWF Deutschland entstand, weil der Verlauf des Abends so gar nicht dem Plan des Veranstalters entsprach.

Unter dem Titel „Klimaschutz ade? Wie kann die Gesellschaft mobilisiert werden?“ wollte die von dem gleichnamigen Konzern unabhängige VolkswagenStiftung eigentlich darüber diskutieren lassen, warum denn gegen den „kommenden Klimawandel“ trotz der „düsteren Vorhersagen“ der Wissenschaft nichts getan würde.

Die mit apokalyptischen Bildern gefüllte Ankündigung vermittelte deutlich das Bestreben, über die Gleichsetzung von „Klimawandel“ mit „Klimakatastrophe“ unter dem tarnenden Überbau einer wissenschaftlichen Debatte Volkserziehung zu betreiben. Als aber der offensichtlich zum Zweck der seriösen Untermauerung „dramatischer Befunde“ geladene Klimaforscher Hans von Storch seinen Impulsvortrag mit dem Satz begann, er wäre nicht gekommen, um irgendwen zu mobilisieren, flog ihm die Sympathie der gut einhundertfünfzig Zuhörer spürbar zu. Seine weiteren Ausführungen ließen dann auch der Auffassung Raum, der Stand des Wissens sei wohl doch nicht so besorgniserregend, was viele Gäste, erkennbar am Beifall, mit Genugtuung zur Kenntnis nahmen.

Weiterlesen auf Tichys Einblick

 

Klimamodelle auf dem Prüfstand

Klimamodelle wurden vor zwanzig Jahren als der große Durchbruch gefeiert. Endlich konnte man die Realität im Computer nachvollziehen. Immer größer und schneller wurden die Rechner. Man glaubte fest daran, dass man nur noch i-Tüpfelchen justieren müsste und kurz vor dem Ziel war. Als dann aber die Rechenergebnisse mit der Realität verglichen wurden, ergaben sich riesige unerklärliche Diskrepanzen. Parallel dazu erarbeiteten Paläoklimatologen eine immer robustere Rekonstruktion des realen Klimaverlaufs, was die Probleme sogar noch offensichtlicher machte. Im Monatsabstand erscheinen heute Papers, die auf die schwerwiegenden Probleme der Klimamodellier hinweisen. Tests werden bevorzugt in der Mitte der Kleinen Eiszeit um 1800 begonnen, da dann die Erwärmung der letzten 200 Jahre so schön zum CO2-Anstieg passt. Geht man dann aber auf die letzten 1000 Jahre zurück, versagt die Technik.

Fabius Maximus wies im März 2016 auf das Offensichtliche hin: Die Modelle müssen viel schärfer getestet und kalibriert werden, bevor sie für Zukunftsmodellierungen freigegeben werden:

We can end the climate policy wars: demand a test of the models
[...] The policy debate turns on the reliability of the predictions of climate models. These can be tested to give “good enough” answers for policy decision-makers so that they can either proceed or require more research. I proposed one way to do this in Climate scientists can restart the climate change debate & win: test the models!— with includes a long list of cites (with links) to the literature about this topic. This post shows that such a test is in accord with both the norms of science and the work of climate scientists. [...] Models should be tested vs. out of sample observations to prevent “tuning” the model to match known data (even inadvertently), for the same reason that scientists run double-blind experiments). The future is the ideal out of sample data, since model designers cannot tune their models to it. Unfortunately…

“…if we had observations of the future, we obviously would trust them more than models, but unfortunately observations of the future are not available at this time.”
— Thomas R. Knutson and Robert E. Tuleya, note in Journal of Climate, December 2005.

There is a solution. The models from the first four IPCC assessment reports can be run with observations made after their design (from their future, our past) — a special kind of hindcast.

Ein anderer großer Kritikpunkt an den Kimamodellen ist das sogenannte Tuning. Hier werden die Klimamodelle so justiert, das sie möglichst nah an das gewünschte Ergebnis herankommen. Dies geschieht meist hinter verschlossenen Türen im dunklen Kämmerlein und leidet unter fehlender Transparenz. Hourdin et al. 2016 haben das Problem in einem Übersichtspaper ausführlich beschrieben. Judith Curry empfiehlt die Abhandlung wärmstens.

Two years ago, I did a post on Climate model tuning,  excerpts: “Arguably the most poorly documented aspect of climate models is how they are calibrated, or ‘tuned.’ I have raised a number of concerns in my Uncertainty Monster paper and also in previous blog posts.The existence of this paper highlights the failure of climate modeling groups to adequately document their tuning/calibration and to adequately confront the issues of introducing subjective bias into the models through the tuning process.”

Think about it for a minute. Every climate model manages to accurately reproduce the 20th century global warming, in spite of the fact that that the climate sensitivity to CO2 among these models varies by a factor of two. How is this accomplished? Does model tuning have anything to do with this?

Ganzen Beitrag auf Climate Etc. lesen.

Im November 2016 beschrieb Paul Voosen im angesehenen Fachblatt Science die Notwendigkeit, die Geheimniskrämerei zu beenden und die Black Boxes im Sinne der Transparenz für die Öffentlichkeit zu öffnen:

Climate scientists open up their black boxes to scrutiny
Climate models render as much as they can by applying the laws of physics to imaginary boxes tens of kilometers a side. But some processes, like cloud formation, are too fine-grained for that, and so modelers use “parameterizations”: equations meant to approximate their effects. For years, climate scientists have tuned their parameterizations so that the model overall matches climate records. But fearing criticism by climate skeptics, they have largely kept quiet about how they tune their models, and by how much. That is now changing. By writing up tuning strategies and making them publicly available for the first time, groups hope to learn how to make their predictions more reliable—and more transparent.