News und Termine

Kürzlicher Ausbruch des Zika-Virus durch Erdbeben in Ekuador und El Nino ausgelöst

Artikel in der FAZ am 23. September 2017:

Energiewende: Klimavisionen im Realitätscheck
Klimaschutz befürwortet theoretisch jeder. Aber wenn es konkret wird, ist das Geschrei groß. Deshalb wird sich die neue Bundesregierung bemühen, die Energiewende so effizient und günstig wie möglich zu gestalten.[...] Die beispielgebende Rolle Deutschlands zielt nicht allein und vor allem auf die Einsparung von Kohlendioxid ab – denn mit dem Verzicht auf rund 2 Prozent aller Emissionen auf der Welt wird der Anstieg der Erdtemperatur nicht gestoppt. Auf die Nachahmer kommt es an. So erfahren die ewigen Ziele des „energiepolitischen Dreiecks“ von Preiswürdigkeit und Sicherheit der Versorgung (neben dem Umweltschutz) eine doppelte Begründung: von innen, weil es die Lebensgrundlagen der Bürger und der Wirtschaft betrifft, von außen, weil kein anderes Land dem Beispiel einer durch die Energiewende ruinierten Wirtschaft folgen würde.

Ganzen Artikel in der FAZ lesen.

—————-

Nochmal die FAZ, am 10. Oktober 2017:

Heftige Kritik an der deutschen Klimapolitik
Dena, die bundeseigene Energieagentur, hält die deutsche Klima- und Energiepolitik für engstirnig und unrealistisch. Besonders deutlich werden die Fachleute, was den Verkehr angeht.

Weiterlesen in der FAZ

—————-

Der kürzliche Ausbruch des Zika-Virus wurde durch eine Kombination eines Erdbeben in Ekuador und dem starken El Nino 2014-16 ausgelöst, wie die American Geophysical Union (AGU) am 12. Oktober 2017 in einer Pressemitteilung bekannt gab:

Combination of El Niño and 2016 Ecuador earthquake likely worsened Zika outbreak

A Zika virus outbreak in coastal Ecuador in 2016 was likely worsened by a strong El Niño and a magnitude 7.8 earthquake that struck the region in April, according to a new study.

A new research commentary suggests the earthquake left more people exposed to disease-carrying mosquitoes, and climate variability associated with the 2014-2016 El Niño event created more favorable mosquito breeding grounds. Warmer temperatures and increased rainfall, combined with destruction of the region’s infrastructure and a population influx into large cities, likely caused the number of Zika cases to increase 12-fold in just three months, according to the study’s authors. The research was accepted for publication in GeoHealth, a journal of the American Geophysical Union.

Zika was first observed in Africa in the 1950s and recently spread to South America and Southeast Asia. The disease is transmitted by mosquitoes and usually causes a mild illness with symptoms such as headaches, rash and eye infections. Zika virus infection in pregnant mothers can result in a variety of birth defects. As of September 2017, approximately 6,811 suspected and confirmed cases of Zika have occurred in Ecuador, according to a World Health Organization report.

El Niño is the warm phase of a regular climate pattern that occurs in the Pacific Ocean. It brings warmer air temperatures and higher rainfall levels to the west coast of South America. Previous research established a link between the 2014-2016 El Niño and the spread of Zika in South America, but the new study goes further and examines the interaction between these two events and the 2016 earthquake.

The new commentary suggests changes in the climate can amplify the worst effects of natural disasters and disease outbreaks in socially vulnerable regions. Areas that are already stressed by short-term climate changes like El Niño can be sent over the edge due to a catastrophe and may struggle to recuperate afterwards, said Cecilia Sorensen, a Living Closer Foundation fellow in climate and health policy at the University of Colorado School of Medicine in Aurora, Colorado and lead author of the new study.

The authors studied the effects of short-term changes in Ecuador’s climate, not long-term global warming patterns. But extreme El Niño events such as the one observed in 2016 are projected to increase in frequency due to human-caused climate change. Sorensen’s team suspects that the combination of increased extreme events and long-term warming could lead to conditions that favor the spread of mosquito-borne diseases.

The findings are important because of their applicability to recent events, like recent earthquakes in Mexico and hurricanes in the Caribbean and the U.S., according to Ángel G. Muñoz, a research associate in atmospheric and ocean sciences at Princeton University in New Jersey. “The main message of the authors is related to the important question of how a combination of natural hazards can increase the vulnerability of the population, making people’s exposure higher and lowering their adaptive capacity during and after the occurrence of such hazards,” he said.

Examining the Zika outbreak

A magnitude 7.8 earthquake struck the province of Manabi in coastal Ecuador on April 16, 2016. The quake affected approximately 720,000 people, destroyed much of the region’s sanitation and healthcare infrastructure, and resulted in a massive influx of displaced residents into urban areas. Sorensen and the study co-authors worked with the non-governmental organization Walking Palms Global Initiative to operate a mobile health clinic after the earthquake. They saw many women and children coming in with symptoms typical of mosquito-borne illnesses like dengue fever and Zika. In July of 2016, UNICEF reported the number of Zika cases in Ecuador spiked from 92 cases before the earthquake to 1,106 cases just three months after the event. 80 percent of these new cases occurred in Manabi.

The research team set out to study how damage from the earthquake and short-term changes in weather associated with El Niño could have potentially exposed more people to mosquitoes and exacerbated the outbreak. “We saw so many people affected by the earthquake that were sleeping outside without any shelter from mosquitoes, so we were worrying that the region’s changing climate could facilitate the spread of diseases,” Sorensen said. “Natural disasters can create a niche for emerging diseases to come out and affect more people.”

Link to climate changes

Sorensen’s team reviewed the existing research on the link between short-term changes in climate and disease transmission. They then applied those findings to explain the role of the earthquake and El Niño in the Zika outbreak. The researchers suggest El Niño created ideal conditions for Zika-carrying mosquitos to breed and make more copies of the Zika virus. The warmer air temperatures and increased rainfall brought by El Niño have previously been associated with a higher likelihood of dengue outbreaks. Warmer temperatures can accelerate viral replication in mosquitoes and influence mosquitos’ development and breeding habits.

Additionally, the El Niño event brought warmer sea-surface temperatures, which have been shown to correlate with outbreaks of mosquito-transmitted diseases. Estimates from remote sensing data in coastal Ecuador show that sea-surface temperatures were higher than average from 2014-2016. The team also believes an increase in water scarcity after the earthquake indirectly benefitted mosquito development. The quake damaged municipal water systems, forcing people to store water in open containers outside their homes. These containers served as additional habitats for mosquito larvae to grow in.

The new findings could be used by governments to identify and protect vulnerable communities before natural disasters happen, Sorensen said. “One idea is to develop disease models that can use existing climate models to predict where these vectors will show up due to climate variability,” she said. “Applying these new models to areas that have pre-existing social vulnerabilities could identify susceptible regions, allowing us to direct healthcare resources there ahead of time.”

Paper: Sorensen et al. 2017. This research article is open access. A PDF copy of the article can be downloaded at the following link: http://onlinelibrary.wiley.com/doi/10.1002/2017GH000104/pdf.

 

18 Staaten verzichten auf Kohlestrom: “Pläne zur Begrenzung der Kohleförderung haben wir nicht”

Martin Schlumpf bloggt zu den Themen Klima, Energie und Politik. So erschien auf Schlumpf-Argumente am 4. Oktober 2017 z.B. der folgende Artikel:

Klima-Alarmismus?

Replik auf „Es gibt kein Zurücklehnen“ von Martin Läubli im Tages-Anzeiger vom 21. September 2017.

In diesem Artikel geht Martin Läubli auf die Folgen einer neuen Klimastudie ein, die zeigt, dass uns mehr Zeit bleibt, um die Treibhausgase zu reduzieren. Die Studie räumt ein, dass die Klimaforscher bisher mit ihren Computer-Simulationen “die Temperaturentwicklung nicht exakt abbilden konnten, weil viele physikalische Prozesse unterschiedlich gut verstanden sind”. Man reibt sich ein wenig die Augen: Es wurde uns doch immer und immer wieder gesagt, dass die Klimawissenschaft in diesem Punkt das letzte Wort gesprochen hat – the science is settled. Es wurde apodiktisch verkündet, dass uns bei gleichbleibendem Tempo der Treibhausgas-Emissionen noch sieben Jahre Zeit bleiben, bevor wir in eine Katastrophe schlittern. Nun sind es aber plötzlich 15 bis 20 Jahre! Von einer abgeschlossenen Wissenschaft also keine Rede. Und es ist beschämend, dass Kritiker, die auf diese Unsicherheiten der Modelle hingewiesen haben, oft als Klimaleugner diffamiert wurden.

Wie reagieren nun die führenden Klimawissenschaftlern der ETH auf diese neuen Ergebnisse? Nach Joeri Rogelj, einem Mitautor der Studie, gibt es “nach wie vor wissenschaftliche Unsicherheiten, sowohl wie das Klimasystem auf die Massnahmen reagiert, als auch mit welchen Klimafolgen bei einer Erwärmung um 1,5 Grad zu rechnen wäre.” Dies ist eine ehrliche wissenschaftliche Antwort: Es besteht weiterhin teilweise Unklarheit darüber, was unsere Massnahmen bewirken, und welche Folgen eine Erwärmung hätte. Gibt er also den Rat, die gewonnene Zeit möglichst optimal zu nutzen, damit wir einen angemessenen Klimaschutz betreiben? Nein, er empfiehlt bei der bisherigen strengen CO2-Reduktionsstrategie zu bleiben. Dasselbe Bild auch bei den ETH-Klimaforschern Reto Knutti und Andreas Fischlin: Es ist schon erstaunlich, wie solche neuen positiven Erkenntnisse – es bleiben uns immerhin gut 10 Jahre mehr Zeit, das Problem zu lösen – nicht zur geringsten Korrektur des bisherigen Lösungswegs führen. Ist die forcierte Reduktion von CO2 aber tatsächlich der einzig sinnvolle Ausweg? Und vor allem: Ist er auch effektiv?

Dazu zuerst ein Rückblick auf die Zeitperiode seit 1992, wo die erste Klimakonferenz von Rio die grundlegenden Elemente dieser Strategie festgeschrieben hat.

Weiterlesen auf Schlumf-Argumente

———–

Die Klimakonferenz in Bonn trägt Früchte. 18 Länder die sowieso wenig Kohle bei der Energieerzeugung einsetzen erklärten nun, aus der Kohle auszusteigen. Das ist in etwa so, als wenn ein langjähriger Vegetarier erklärt, von nun an kein Fleisch mehr zu essen. Dazu der Zeithorizont und die Fußnoten: Kanada will aus der Verbrennung von Kohle aussteigen bis 2060. Sie wollen aber weiter fördern für Asien, natürlich ganz anderes CO2. Ebenso in Großbritannien. Frankreich will auch aus der Kohle aussteigen, dafür Spaltungsreaktoren laufen lassen. Hierzu ein aufschlussreiches Interview vom 16. November 2017 auf Spiegel Online:

18 Staaten verzichten auf Kohlestrom “Pläne zur Begrenzung der Kohleförderung haben wir nicht”
Die Umweltministerinnen Kanadas und Großbritanniens haben 16 weitere Staaten zum Verzicht auf Kohleenergie bewegt. Im SPIEGEL-ONLINE-Interview erklären sie, dass sie trotzdem weiter von der Kohle profitieren wollen.

Weiterlesen auf Spiegel Online

———————

Früher konnte man sich über das Wetter unterhalten, ohne erbitterte Streitereien zu provozieren. Diese Zeiten sind endgültig vorbei. Seitdem Klimaforscher und Öko-Dogmatiker in der Verbreitung von Weltuntergangsstimmung ihre heiligste Pflicht sehen, ist es aus mit eitel Sonnenschein. Das Small-Talk-Thema ist zum Schauplatz hochpolitisierter Debatten geworden, an ihm scheiden sich die Geister weltweit. Der grobe Frontverlauf: Hysterisch keifende Untergangspropheten, die den Menschen zum Klima-Sünder verurteilt haben und die industrielle Gesellschaft brennen sehen wollen, rennen gegen allzu gelassene, wirtschaftsliberale Fortschrittsoptimisten an, die den Klima-Gau ins Reich der Märchen verbannen. Mal ehrlich: Wer blickt da überhaupt noch durch? Und wer hat die Fakten auf seiner Seite?

Die Redaktion des COMPACT-Magazins fand, dass es höchste Zeit wurde, die Kima-Kontroverse in ihrer gesamten Komplexität auszuleuchten. In dieser nunmehr 15. Spezial-Ausgabe Klimawandel – Fakten gegen Hysterie rüttelt das Magazin an den zentralen Glaubenssätzen der neuen, grünen Religion: Gibt es einen unangefochtenen Konsens der Wissenschaft? Ist der Mensch ein Klima-Killer? Welche Rolle spielt das CO2? Diese und viele andere Fragen werden von sachkundigen Experten mit nachvollziehbaren und vor allem nachprüfbaren Argumenten beantwortet. Außerdem lässt die Publikation die Protagonisten beider Seiten im Originalton zu Wort kommen, etwa Al Gore contra Vaclav Klaus und Michail Gorbatschow gegen Wladimir Putin. Klar, kontrovers, kritisch – Erkenntnisgewinn garantiert!

Doch nicht nur die Frage nach den wissenschaftlichen Grundlagen des Klima-Alarmismus stellten sich die verantwortlichen Autoren, auch wollten sie wissen: Wer profitiert von der Angst? Was bedeutet die Klima-Politik für unsere Freiheit? Wird die Energiewende zum Desaster – und gibt es Alternativen für Deutschland? Spannend, faktenreich und mit erhellendem Tiefgang erzählt die 84 Seiten starke Ausgabe die ganze Geschichte des wohl größten Betrugs des 21. Jahrhunderts. Wenn Siedieses Thema interessiert, dann schauen Sie mal ins vollständige Inhaltsverzeichnis. Bestellen können Sie die bislang wohl gründlichste Abrechnung mit der Klimareligion in deutscher Sprache hier oder direkt hier. Einen vollständigen Überblick über den Inhalt des Heftes erhalten Sie hier. Ein kurzes Video zur Vorstellung der Spezialausgabe ist hier. Bestellt werden kann die Print-Ausgabe hier.

Hinweis: Diese Empfehlung der KS-Redaktion beschränkt sich ausdrücklich auf die COMPACT-Spezialausgabe zum Klimawandel. Andere kontrovers diskutierte Ansichten der COMPACT-Redaktion werden hiervon nicht erfasst.

 

 

Mission accomplished: GRACE geht in Rente

Pressemitteilung des Geoforschungszentrum Postdam (GFZ):

—————-

15 Jahre GRACE

Wenn über GRACE berichtet wird, fällt oft das Wort „revolutionär“. Seit das deutsch-amerikanische Satelliten-Duo am 17. März 2002 angefangen hat zu senden, haben die Daten des „Gravity Recovery and Climate Experiments“ (GRACE) den Blick der Wissenschaft auf die Bewegung des Wassers und auf Grundwasserspeicher grundlegend verändert. „GRACE hat es uns ermöglicht, mittels der Beobachtung von Massenverlagerungen nachzuverfolgen, wie Wasser sich im Untergrund verhält“, sagt Reinhard Hüttl, Vorstandsvorsitzender und Wissenschaftlicher Vorstand des Deutschen GeoForschungsZentrums GFZ. „Dieser Bereich war der Weltraum-gestützten Fernerkundung davor nicht zugänglich“, so Hüttl weiter, „und das hat uns neue Möglichkeiten eröffnet, Klimaveränderungen zu beobachten und zu quantifizieren.“ Das GFZ betreibt die Satellitenmission zusammen mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) und auf amerikanischer Seite mit dem Jet Propulsion Laboratory (JPL) der US-Raumfahrtbehörde NASA.

Wie viele Revolutionen begann GRACE mit einem radikalen Gedanken: „Die völlig neue Idee bei GRACE war, dass man Messungen der Masse nutzen könnte, um Informationen über das System Erde zu gewinnen“, sagt der leitende Wissenschaftler Byron Tapley vom Center for Space Research der University of Texas (UTCSR) in Austin. Massenverlagerungen zu verfolgen war der Schlüssel zu einem besseren Verständnis dafür, wie Wasser und die feste Erde sich im Untergrund verhalten, wo niemand hinsehen kann.

Das Gewicht des Wassers

Je größer die Masse eines Objektes ist, desto größer ist auch dessen Anziehungskraft. So üben die Alpen beispielsweise eine höhere Anziehungskraft aus als die norddeutsche Tiefebene. Die winzigen Unterschiede merkt kein Mensch, aber Satelliten können die Veränderung messen. Wenn sie die Erde umkreisen und auf über eine massereiche Region fliegen, dann beschleunigen sie minimal, wenn sie darauf zufliegen, und werden langsamer beim Wegfliegen.

Der weitaus größte Teil der Erdanziehungskraft rührt von der Masse im Erdinneren. Ein winziger Bruchteil allerdings geht auf das Wasser auf oder nahe der Oberfläche zurück. Ozeane, Flüsse, Seen, Gletscher und Grundwasser verändern sich viel rascher als das zähflüsssige Gestein im Erdinneren, denn sie reagieren auf Jahreszeiten, Stürme, Dürren oder andere Wettereffekte. GRACE entstand nun aus der Erkenntnis, dass die daraus resultierenden winzigen Schwerkraftänderungen aus dem All zu messen seien und so die Geheimnisse des Wasserkreislaufs lüften könnten.

Das Prinzip: GRACE misst die Massenveränderungen, indem es deren Effekt auf das Satelliten-Duo aufzeichnet, das mit 220 Kilometer Abstand hintereinander unseren Planeten umkreist. Wird ein Satellit schneller, weil er als erstes auf ein massereiches Objekt zufliegt, vergrößert sich der Abstand um den Bruchteil einer Haaresbreite. Mittels Mikrowellen können diese Änderungen gemessen werden: Die Satelliten senden sich wechselseitig Pulse zu und registrieren, wann die Wellen zurückgestrahlt werden. Hinzu kommen GPS-Sensoren an Bord sowie Beschleunigungsmesser, um die Überflughöhe zu bestimmen und Bremseffekte zu erkennen, die etwa durch Reibung an atmosphärischen Teilchen entstehen. Aus all diesen Daten errechnen die Forscherinnen und Forscher monatliche Karten der regionalen Änderungen der Erdanziehungskraft und der daraus resultierenden Veränderungen der Massen an der Oberfläche.

Als die NASA diese komplexe Hochpräzisionsmission für ihr Earth System Science Pathfinder-Programm auswählte und ich Ende der 1990-er Jahre ins GRACE-Projekt kam, hatte ich schon meine Zweifel, ob mit GRACE jemals monatliche Schwerefeldkarten produziert werden”, erinnert sich Frank Flechtner vom GFZ. Er war als deutscher GRACE-Projektmanager eingestiegen und ist heute einer der beiden leitenden Wissenschaftler bei GRACE. Er folgte in dieser Funktion auf Christoph Reigber, den ursprünglichen “Co-Principal Investigator” und früheren Direktor des GFZ-Departments Geodäsie. “Schon gar nicht dachte ich, dass wir so lange Zeitreihen erhalten würden”, fügt Flechtner hinzu.

Der Erfolg rühre aus der engen und sehr glatt verlaufenden deutsch-amerikanischen Zusammenarbeit, sagt Flechtner. Die beteiligten Partner sind NASA, UTCSR, das DLR, Airbus Defense and Space in Friedrichshafen und das GFZ.

Hintergrund

Die GRACE-Satelliten wurden in Deutschland bei Airbus D&S gebaut. Auftraggeber war das JPL der NASA in Pasadena, Kalifornien. Die Mission wird von Oberpfaffenhofen aus gesteuert, wo das DLR ihr Raumfahrtkontrollzentrum GSOC (German Space Operations Center) betreibt. Gestartet wurde GRACE von einer russischen Rockot-Rakete. Das GFZ ist in mehrfacher Hinsicht an der Mission beteiligt: Es ist Teil des GRACE Science Data Systems mit den Partnern bei JPL und UTCSR, es trägt mit seiner Satellitenempfangsstation auf Spitzbergen zur Steuerung des Missionsbetriebs bei und es stellt den stellvertretenden “Mission Operations Manager“, derzeit Heiner Massmann. Die Finanzierung des Missionsbetriebs wird getragen durch GFZ, DLR und durch ein Programm der europäischen Raumfahrtagentur ESA (Third Party Mission Programme).

Was hat GRACE gesehen?

In den vergangenen 15 Jahren haben Forschende weltweit Methoden der Auswertung entwickelt, um die Schwerefelddaten mit Modellen und anderen Beobachtungssystemen zu verknüpfen. Zu den Highlights zählen unter anderem:

Grundwasserbeobachtung: In Böden und wasserführenden Gesteinsschichten (Aquiferen) gespeichertes Grundwasser wird weltweit nur selten gemessen. Der Hydrologe Matt Rodell vom Goddard Space Flight Center der NASA in Greenbelt, Maryland (USA) schrieb seine Doktorarbeit über die Möglichkeiten, GRACE-Daten hydrologisch zu nutzen. “Vor dem Satellitenstart hätte niemand gedacht, dass GRACE helfen könnte, den Raubbau an Grundwasserressourcen zu dokumentieren”, sagt Rodell. Doch in den letzten zehn Jahren haben Rodell, Jay Famiglietti (JPL) und andere mehr und mehr Aquifere identifiziert, die von Menschen rascher entleert werden als sie sich erneuern können. 2015 publizierte Famiglietti gemeinsam mit Kollginnen und Kollegen eine Übersicht, die zeigte, dass weltweit ein Drittel der größten Grundwasserbecken dramatisch übernutzt werden.

Hochwasservorhersage: Systeme zur Prognose von Überflutungen brauchen Informationen in nahezu Echtzeit (near-real time oder NRT), um die Entstehung und Entwicklung von Flutwellen abschätzen zu können. Für große Einzugsgebiete ergeben sich so Vorwarnzeiten von einigen Tagen. Die EU fördert das Projekt EGSIEM (European Gravity Service for Improved Emergency Management), um genau solche NRT-Daten zum Schwerefeld und korrespondierende Flutindikatoren zusammenzuführen. Dies soll innerhalb des Zentrums für Satellitengestützte Kriseninformationen (ZKI) am DLR geschehen. Der Testbetrieb wird am 1. April beginnen.

Eisschilde und Gletscher: Die Antarktis ist ein extrem unwirtlicher Ort, um Daten zu sammeln, und Grönland ist nicht viel besser. Gleichwohl müssen wir wissen, wie schnell die Eisschilde dort abschmelzen, um die Schwankungen des Meeresspiegels weltweit besser zu verstehen. Forschende, die sich mit der Kryosphäre befassen, gehörten zu den Pionieren bei der Nutzung von GRACE-Daten. Es stellte sich schnell heraus, dass der Massenverlust sowohl auf Grönland als in der Antarktis weitaus dramatischer war als vorher angenommen. Seit dem Start von GRACE hat Grönland 280 Milliarden Tonnen Eis pro Jahr verloren, die Antarktis rund 120 Milliarden Tonnen.

Ingo Sasgen vom GFZ (heute beim Alfred-Wegener-Institut für Polar- und Meeresforschung in Bremerhaven) hat zusammen mit seinem GFZ-Kollegen Henryk Dobslaw und anderen gezeigt, wie jahreszeitlichen Schwankungen des Schneefalls und die damit verbundene Massenzunahme auf der Antarktischen Halbinsel mit der Stärke eines Tiefdrucksystems über der Amundsensee zusammenhängen. Dieses Tiefdruckgebiet wiederum ist mit dem tropischen La-Niña-Phänomen (dem Gegenstück zu El Niño) verknüpft. So haben GRACE-Daten erstmals ermöglicht, den Effekt von atmosphärischen “Telekonnektionen”, die das Klima der Tropen sogar mit entlegenen Regionen wie der Antarktis verbinden, zu quantifizieren. Mehr Informationen dazu finden Sie hier.

GRACE-Daten zeigen jedoch auch den Massenverlust von Inlandsgletschern in vielen Bergregionen weltweit. Das geht einher mit einer Gefährdung der Wasserversorgung in den Bergen vorgelagerten Gebieten. So hat ein internationales Team von Forschenden unter der Leitung der GFZ-Wissenschaftler Daniel Farinotti und Andreas Güntner anhand von GRACE-Daten abgeschätzt, dass das Tian Shan-Gebirge derzeit jährlich doppelt so viel Eis verliert wie ganz Deutschland an Wasser pro Jahr verbraucht. Gekoppelt an ein glaziologisches Modell ergaben die Daten, dass die Hälfte allen Gletschereises des Tian Shan im Jahr 2050 verschwunden sein könnte. Die Originalstudie finden Sie hier, die Pressemitteilung dazu hier.

Ozeandynamik: Das Meerwasser erwärmt sich und dehnt sich daher aus. Hinzu kommen die erhöhten Zuflüsse aus den Gletscherregionen und Eisschilden der Erde. Beides trägt zum Anstieg der Meeresspiegel weltweit bei. Zwar gibt es seit 1992 hochpräzise Meeresspiegelmessungen über die US-französische Topex-Poseidon- und die folgenden Jason-Missionen, aber diese zeigen nur die gesamten Höhenänderungen der Meeresoberfläche an. Um nun herauszufinden, ob sich die (temperaturbedingte) Ausdehnung des Wassers oder schmelzendes Eis oder der Zufluss von Land mehr auf diese Änderungen auswirkt, muss man die Massenverteilung des Wassers untersuchen. Genau das hat Inga Bergmann vom GFZ mit GRACE-Daten für den antarktischen Zirkumpolarstrom getan. Gemeinsam mit Henryk Dobslaw gelang es ihr, sogar Schwankungen in Zeiträumen von weniger als einem Monat zu dokumentieren. Damit eröffnete sie einen weit besseren großräumigen Blick auf die Dynamik der weltweit stärksten Meeresströmung als bisherige Messungen vor Ort ergeben hatten. Hier geht es zur Originalstudie.

Änderungen der festen Erde: Als Reaktion auf die Veränderung der Masse des oberflächennahen Wassers bewegt sich sogar der zähflüssige Mantel unter der Erdkruste, wenn auch nur um Winzigkeiten. Eine Gruppe von GRACE-Nutzern berechnet diese Verschiebungen für ihre Forschung. Kürzlich haben Surendra Adhikari und Erik Ivins vom JPL Daten von GRACE genutzt, um zu ermitteln, wie nicht nur der Verlust der Eisschilde, sondern auch der Schwund des Grundwassers die Erdrotation verändert haben, weil sich das System diesen Massebewegungen anpasst.

Die Planer von GRACE hatten wenig Hoffnung, dass die Mission dazu führen könnte, die abrupten Masseänderungen im Zusammenhang mit Erdbeben präzise bestimmen zu können. Das liegt an den unterschiedlichen Skalen: Erdbeben treten plötzlich und lokal auf, während die monatlichen GRACE-Karten durchschnittlich eine Fläche doppelt so groß wie Bayern und eben einen ganzen Monat abbilden. Dennoch haben die Forscher neue Datenverarbeitungs- und Modellierungstechniken entwickelt, um die Erdbebeneffekte herauszudestillieren. „Wir sind in der Lage, die unmittelbaren Masseverschiebungen in einem Erdbeben zu messen und wir haben dabei herausgefunden, dass es eine messbare Entspannung bis zu ein bis zwei Monate nach dem Beben gibt“, sagt der leitende Wissenschaftler bei GRACE, Byron Tapley. Diese Messungen eröffnen bisher nicht gekannte Einsichten in das Geschehen weit unter der Erdoberfläche.

Atmosphärenbeobachtung: Das zweite wissenschaftliche Ziel der GRACE-Mission ist es, unter Nutzung der GPS-Radio-Okkultations-Technik (RO) täglich über 150 sehr präzise weltweit verteilte vertikale Temperatur- und Feuchtigkeitsprofile zu erhalten. „Diese Messungen sind von größtem Interesse für Wetterdienste und Studien zum Klimawandel. Daher stellen wir diese Profile spätestens 2 Stunden nach Messung durch einen der GRACE-Satelliten den führenden Wetterzentren der Welt auf einer 24/7-Basis bereit, wie z.B. ECMWF (European Center for Medium-Range Weather Forecasts), MetOffice, MeteoFrance, NCEP (National Centers for Environmental Predictions) oder dem DWD (Deutscher Wetterdienst), um deren globale Vorhersagen zu verbessern“, sagt Jens Wickert, RO-Manager am GFZ.

Die Zukunft

Mit 15 Jahren hat GRACE dreimal so lange wie ursprünglich geplant funktioniert. Die Projektmanager haben alles getan, um ihr Leben zu verlängern, aber das Satelliten-Duo wird demnächst seine Treibstoffvorräte aufgebraucht haben – vermutlich in diesem Sommer. Die NASA und das GFZ haben seit 2012 an einer Nachfolge-Mission, GRACE Follow-On (GRACE-FO), gearbeitet, wobei Deutschland erneut die Trägerrakete und die Missionssteuerung bezahlt. Die Zwillings-Satelliten wurden, wieder im Auftrag von JPL, bei Airbus D&S in Deutschland gebaut.

Es ist geplant, dass GRACE-FO zwischen Dezember 2017 und Februar 2018 an den Start geht. Die neue Mission konzentriert sich auf die Fortsetzung der erfolgreichen GRACE-Zeitreihen. Die neuen Satelliten werden eine ähnliche Hardware wie GRACE benutzen, sollen aber außerdem eine Technologie demonstrieren, die ein neuartiges Laser Ranging Interferometer (LRI) benutzt, um die Distanz zwischen beiden Satelliten zu überwachen. Das LRI ist eine deutsch-amerikanische Entwicklung, die das Potenzial hat, noch genauere Intersatelliten-Messungen und daraus resultierende Schwerkraftkarten zu produzieren.

Da die GRACE-FO Mission das revolutionäre Erbe von GRACE fortsetzen wird, sind aus ihr sicherlich weitere innovative Erkenntnisse zu erwarten. Das Wichtigste ist aber, dass die Forschenden weiterhin Veränderungen in unseren kostbaren globalen Wasserressourcen überwachen können.

 

Das PIK und die nachlassende Wirkung des Zaubertranks

Sonnenmobbing im Nature-Ableger Scientific Reports. Ein Autorenkonsortium um D. A. Smirnov unter Beteiligung von gleich drei PIK-Leuten versucht das Klima der Vergangenheit mit Vulkanausbrüchen zu erklären. Der Sonne traut man nichts zu, denn wenn sie in der Vergangenheit das Klima kontrolliert hätte, müsste man ihr ja auch in der heutigen Zeit eine Wirkung zubilligen. So ganz konnte man die Vulkane dann aber doch nicht hinbiegen. Im Bereich der Mittelalterlichen Wärmeperiode rechnet man plötzlich mit einem spürbaren solaren Wärmeeffekt. Um das CO2 in seiner Wirkung nicht zu schwächen, greift man dann zu einem putzigen Trick: Man erklärt einfach einen “Regime-Wechsel”. Irgendwann zwischen 1000-1300 n.Chr. soll die Sonne ihre Klimapower verloren haben, so wie Asterix bei dem die Wirkung des Zaubertranks nachlässt. Ohne Worte. Abstract:

A regime shift in the Sun-Climate connection with the end of the Medieval Climate Anomaly
Understanding the influence of changes in solar activity on Earth’s climate and distinguishing it from other forcings, such as volcanic activity, remains a major challenge for palaeoclimatology. This problem is best approached by investigating how these variables influenced past climate conditions as recorded in high precision paleoclimate archives. In particular, determining if the climate system response to these forcings changes through time is critical. Here we use the Wiener-Granger causality approach along with well-established cross-correlation analysis to investigate the causal relationship between solar activity, volcanic forcing, and climate as reflected in well-established Intertropical Convergence Zone (ITCZ) rainfall proxy records from Yok Balum Cave, southern Belize. Our analysis reveals a consistent influence of volcanic activity on regional Central American climate over the last two millennia. However, the coupling between solar variability and local climate varied with time, with a regime shift around 1000–1300 CE after which the solar-climate coupling weakened considerably.

—————–

Eos am 13. Oktober 2017 mit der Antwort auf eine wichtige Grundsatzfrage:

Is There a Greenhouse Effect in the Ionosphere, Too? Likely Not
Controversial observations of long-term changes in the ionosphere appear to be explained by the Sun’s 11-year cycle of activity, not human greenhouse gas emissions.

In the late 1980s, climate scientists began raising concerns that human emissions of greenhouse gases were warming Earth’s climate. At the time, some space physicists also predicted that such emissions could alter the ionosphere, the high-altitude layers of the atmosphere that consist of charged particles, ionized by the Sun or captured from space. In the intervening years the consensus that human carbon emissions are altering Earth’s climate has only solidified. But in the case of the “ionospheric greenhouse effect,” the jury is still out, with decades of mixed results that include some observational evidence. But now a new study by Mikhailov et al. makes a strong argument that most of these variations are not due to human activity but to solar activity. The ionosphere, they found, is just responding to the Sun’s 11-year cycle, in which its magnetic field slowly wraps itself into knots and produces periods of intense sunspots and flares.

Weiterlesen auf Eos.

Kein Treibhauseffekt in der Ionosphäre, sondern Steuerung durch die solare Aktivität. Gut zu wissen. Aber die Überaschung hält sich in Grenzen.

 

 

 

Insektensterben in Deutschland: Klimawandel als Ursache ausgeschlossen

Spektrum der Wissenschaft am 19. Oktober 2017:

Insektensterben in Deutschland bestätigt
Seit dem Sommer 2017 macht der Begriff des “Insektensterbens” die Runde - welches vielfach schlicht bezweifelt wird. Eine neue Studie stellt jedoch drastische Rückgänge fest. [...] Während der letzten 27 Jahre ist die Menge an Fluginsekten im Mittel tatsächlich um rund 80 Prozent eingebrochen. “Ein Rückgang wurde ja schon lange vermutet, aber er stellt sich als noch gravierender dar, als wir erwartet hatten”, kommentiert Hallmann die Studie. [...] Schwierig bleibt hingegen die Ursachenforschung, die aber nicht das primäre Ziel der Studie war. Da es sich ausnahmslos um Naturschutzgebiete handelt, scheidet eine großflächige Umgestaltung der Landschaft innerhalb dieser Flächen aus – abgesehen von natürlichen Entwicklungen wie dem Aufkommen von Büschen und Bäumen. Weil diese Areale allerdings typische Offenlandstandorte bewahren sollen, wurde regelmäßig pflegend eingegriffen, um ihren Charakter zu erhalten. Den Klimawandel schließen die Forscher anhand ihrer Analysen ebenfalls aus. Denn konsistent über den Zeitraum zeigten sich nur steigende Durchschnittstemperaturen, die jedoch normalerweise zu einer Zunahme der Insektenpopulationen hätten führen müssen, so die Autoren. [...]

Ganzen Artikel auf spektrum.de lesen.

———————-

Wie verlässlich sind die IPCC-Berichte? In der ersten Berichtsausgabe von 1990 prognostizierte der Weltklimarat eine Erwärmung von 0,3°C pro Jahrzehnt bei Annahme des ‘Business as Usual’ Emissionsszenarios. Die Unter- und Obergrenze dieses Wertes wurde mit 0,2℃ und 0,5℃ angegeben. Siehe Seite xxii in diesem pdf. Wir spulen 27 Jahren nach vorne, in das Jahr 2017. Die wirkliche Erwärmung in den letzte Jahren betrug lediglich 0,15°C pro Jahrzehnt. Peinlich, denn der Wert liegt sogar unterhalb des angegebenen Unsicherheitsbereiches.

———————-

Die Europäische Kommission meldete am 20. Oktober 2017 Überraschendes: Die globalen CO2-Emisionen stagnieren im dritten Jahr in Folge:

Global CO2 emissions stalled for the third year in a row

The annual assessment of global greenhouse gas (GHG) emissions by the JRC and the Netherlands Environmental Assessment Agency (PBL) confirms that CO2 emissions have stalled for the third year in a row. The report provides updated results on the continuous monitoring of the three main greenhouse gases: carbon dioxide (CO2), methane (CH4) and nitrous oxide (N2O). Global GHG emissions continue to be dominated by fossil carbon dioxide (CO2) emissions, which however show a slowdown trend since 2012, and were stalled for the third year in a row in 2016. Russia, China, the US and Japan further decreased their CO2 emissions from 2015 to 2016, while the EU’s emissions remained stable with respect to the previous year, and India’s emissions continued to increase.

Other greenhouse gases keep creeping up

Information on the other two greenhouse gases, methane (CH4) and nitrous oxide (N2O), is only available until 2012, as international statistics on agricultural activities – the main source of these emissions – are not updated as frequently as on energy and industry-related activities. Uncertainty is also higher for these emissions than for CO2 emissions. However, the data until 2012 shows a steady increase in global GHG emissions, with an overall increase of 91% from 1970 to 2012. CH4 is mainly generated by agricultural activities, the production of coal and gas, as well as waste treatment and disposal. N2O is mainly emitted by agricultural soil activities and chemical production. In the EU, 60% of the CH4 and N2O emissions are emitted by the top six emitting countries – Germany, UK, France, Poland, Italy and Spain. The upward trend in CH4 and N2O emissions is also visible in the US, China, Japan and India which all recorded increasing GHG emissions.

Europe’s downward trend stalling

Over the past two decades, the EU28 has steadily decreased its CO2 emissions, which still represent two thirds of the EU’s total greenhouse gas emissions. In 2016, the EU’s CO2 emissions were 20.8% below the levels in 1990 and 17.9% below the levels in 2005. Since 2015, the EU’s CO2 emissions have stabilised, representing 9.6% of global emissions.

Country profiles

The report is based on the JRC’s Emissions Database for Global Atmospheric Research (EDGAR), which is not only unique in its space and time coverage, but also in its completeness and consistency of the emissions compilations for multiple pollutants: the greenhouse gases (GHG), air pollutants and aerosols. The new report contains country-specific fact sheets for 216 countries. The factsheets show the evolution of country-level CO2 emissions from 1990 to 2016 and the evolution of country-level GHG emissions from 1970 to 2012.

———————-

Ein Hardcoreaktivist am 21. Oktober 2017 beim SRF:

Dürfen wir noch fliegen? «Fliegen tötet zukünftige Menschen»
Wir Schweizer gehören zu den Vielfliegern. Und damit auch zu den Klimasündern. Der Schweizer Ethiker Dominic Roser fordert darum mehr Verzicht. [...] Durch unsere Flüge sterben Menschen zukünftiger Generationen. Zugespitzt formuliert ist das Flugzeug, in dem ich sitze, wie eine Rakete, gerichtet auf zukünftige Menschen. Laut einer Schätzung ist ein Amerikaner mit seinen Treibhausgasemissionen für den Tod oder das Leiden von ein bis zwei Menschen verantwortlich. [...]

Ganzen Beitrag auf SRF lesen.

Die Klimareligion treibt ulkige Blüten…

———————-

Drama am 20. Oktober 2017 auf noizz.de:

Durch Klimawandel: Tausende Pinguin-Küken verhungern

Ein wirklich tragischer Fall. Aber was hat nun der Klimawandel damit zu tun? Noizz.de schreibt:

Der Grund: Durch Klimaveränderungen ist vor etwa sieben Jahren in der Region ein Riesengletscher abgebrochen, der Mertz-Gletscher. Dadurch mussten die Eltern-Pinguine zur Nahrungssuche für ihre Nachfahren einen Umweg von etwa 100 Kilometern auf sich nehmen.

Ein Gletscher bricht ab. Ist dies bereits Beweis genug, dass es sich um den Klimawandel handelt? Eine windige Beweisführung. Aber noizz schiebt noch ein Argument nach:

Durch die Hindernisse schafften sie es nicht rechtzeitig zurück – die Küken verhungerten beim Warten im regnerischen, kalten Wetter. Bereits 2013 kam es in derselben Kolonie zu einem ähnlichen Massensterben.

Kalt und regnerisch. Das leuchtet ein, das muß auf jeden Fall eine Folge der Klimaerwärmung sein. Demnächst auf noizz: In China kippt ein Sack Reis um, auch dies natürlich eine Folge des Klimawandels.

 

 

 

Klimawandel im TV: So langweilig kann Fernsehen sein

Der Klimawandel ist im Fernsehen ein Dauerthema. Die Sender überbieten sich in Schockerbildern von Stürmen, Überschwemmungen und Dürren. Es geht vor allem um die Unterhaltung der Zuseher. Weshalb schauen die Leute so gerne Krimis, je mehr Leichen desto besser? Da muss die Natur natürlich in einem ähnlich gefährlichen Kontext gezeigt werden, um die Gunst der Zuschauer zu erlangen.

Immer wieder haben wir an dieser Stelle die klimaalarmistische Fernsehberichterstattung kritisiert. Leider ohne Erfolg, die aufgeregten Filme scheinen bei den Intendanten und Programmplanern besonders attraktiv zu sein. Drehen wir also den Spieß um: Gab es in letzter Zeit irgendeine Sendung, die man inhaltlich als ausgewogen bezeichnen könnte, die dem Drang nach immer größeren Sensationen nachgegeben hat?

Wir beginnen mit Quarks & Co. vom 12. September 2017:

Tropenstürme und Starkregen – der Klimawandel ist da!
Noch laufen die Aufräumarbeiten in Texas, da wütet der nächste Hurrikan – diesmal Irma – an der Ostküste der USA, weitere Tropenstürme folgen. Die Gefahr durch Extremwetter-Ereignisse scheint global zu wachsen. Sind das noch saisonale Wetterphänomene oder ist es der Klimawandel mit seinen verheerenden Auswirkungen? Ranga Yogeshwar trägt die Fakten zusammen und erklärt, wie der Klimawandel unser Wetter beeinflusst. Auch Deutschland wurde in diesem Jahr wieder von heftigen Unwettern heimgesucht. Starkregen und reißende Wassermassen haben einige Orte innerhalb weniger Stunden in Katastrophengebiete verwandelt. Quarks erklärt, wie es zu Starkregenfällen kommt, warum jeder von uns betroffen sein kann und wie wir uns trotzdem davor schützen können.

Viele dramatische Bilder. Bei Minute 6 eine gute Aussage: Die Hurrikane sind in den letzten 140 Jahren nicht häufiger geworden, kein Trend. Aber warum muss dann Stefan Rahmstorf in die Sendung zugeschaltet werden? Er ist bekannt für seine extremen Ansichten. Wäre ein Interview mit einem Mainstream-Wissenschaftler nicht ehrlicher gewesen?

Weiter mit einem englischsprachigen Film von John Robson: The Environment: A True Story (2017). Ein klimaskeptischer Film mit einer Länge von zwei Stunden und vierzig Minuten. Viel Spaß dabei!

Nächstes Video: Zuschauerfrage an Frauke Petry zum Klimawandel.

Am 8. Oktober 2017 dann Max Moor vom Kulturmagazin ttt mit einer Attacke gegen Klimaskeptiker:

Attribution Science – Zuordnungswissenschaft. Dahinter verbirgt sich die neuartige Möglichkeit, extreme Wetterereignisse wie Hurrikane, Hitzewellen und Starkregen zuzuordnen. “ttt” hat die Physikerin Friederike Otto in Oxford besucht.

Die Redaktion interviewt die deutsche Pysikerin Friederike Otto, die im Bereich der Attributionsforschung tätig ist. Die mit schickem Augenbrauen-Piercing verzierte Forscherin berechnet den Klimawandel mit und ohne anthropogene Kompenente und schaut sich dann die Unterschiede in den beiden Simulationen an. Eine gute Idee, wenn denn die Klimamodelle so vollkommen wären. Und genau daran hapert es. Wenn die Modelle weder das Klima der letzten 2000 Jahre, noch den Erwärmungshiatus des 21. Jahrhunderts in den Griff bekommen, wie groß kann dann das Vetrauen in diesen methodischen Ansatz sein? Eher gering. Das ttt-Team geht auf diese Unstimmigkeiten nicht ein.

Bei Minute 4:20 im Video wird es dann aber nochmal interessant. Das Rekordhochwasser 2013 an der niederbayerischen Donau war nämlich laut Attributionsberechnungen keine Folge des anthropogenen Klimawandels. Die Regenmengen bewegten sich im normalen Bereich der natürlichen Schwankungsbreite. Es muss also andere Ursachen für das Hochwasser gegegebn haben, wie ttt erläutert: Begradigung von Flüssen, Fehlen von Überflutungsflächen, politische Versäumnisse also.

Siehe auch Kommentierung der ttt-Sendung auf unbesorgt.de:

Schuldig durch Zuweisung – Klimawandel goes Hexenverbrennung
Woher kommt nur diese Liederlichkeit vieler Medien im Umgang mit bestimmten Begriffen? Es ist heute möglich, die Worte „Wetter“, „Modell-Rechnung“ und „Klimawandel“ in einem Satz zu verwenden und dabei als Moderator oder Journalist ein Gefühl von Wahrhaftigkeit auszusenden, als hätte man die Konstante PI auf 50 Nachkommastellen genau vorgelesen. Kein Bisschen Distanz zum Thema, kein Konjunktiv steht dem Aktivismus im Wege. Stattdessen werden Experimente, Modelle, Hochrechnungen und „optimierte“ Zahlen zu gefühlten Gewissheiten zusammengefiedelt. Man tut bildlich gesprochen so, als sei die Tatsache, dass sich die Christen auf den Inhalt des „Vaterunser“ geeinigt hätten, ein Gottesbeweis. Auch „ttt-Titel Thesen Temperamente“ befasste sich am 8.10.2017 mal wieder mit dem Klimawandel (Video im Link). In den Ankündigungen zur Sendung war sogar davon die Rede, dass es nun „endlich den Beweis“ für die bisher nur geglaubten Behauptungen gäbe, mit denen die Hohepriester der Klima-Religion ihre Ablassbriefe unters Volk des schlechten Gewissens bringen: Nun sei es gewiss, es gäbe ihn tatsächlich, den Teufel, vor dem der Klerus seit Jahren in den schrillsten Tönen warnt und der Name des Gehörnten ist Klimawandel!

Weiterlesen auf unbesorgt.de

Nun zu einem TV-Video für alle Leser mit niederländischen Sprachkenntnissen. Der Wissenschaftsjournalist und Klimaoptimist Marcel Crok wurde im Vorfeld der Bonner Klimatagung zum Pariser Klimavertrag interviewt. Hier geht es zum Clip. Gut gemacht.

Große Klimadiskussionsrunde bei Maischberger am 11. Oktober 2017 unter dem Titel: “Xavier und die Wetterextreme: Kippt unser Klima?“.  Gäste: Jörg Kachelmann, Dorothee Bär (CSU), Bärbel Höhn (Grüne), Hans Joachim Schellnhuber, Alex Reichmuth. Viel wurde über die Rund bereits geschrieben. Wer sie noch nicht gesehen hat, der kann dies nun nachholen.

 

Weiter mit dem Klimareport im Ersten vom 6. November 2017. Bei Minute 38:25 ein sehenswertes Statement von Philipp Lengsfeld (MdB, CDU). Der Rest ist austauschbarer Klimaalarm, wie er in jeder andere Sendung vorkommt. Langweilig.

Insgesamt fehlt der Klimaberichterstattung im deutschen Fernsehen der Pfiff. Phrasendrescherei anstatt eine ernsthafte Beschäftigung mit dem Thema. Fakten kommen zu kurz, da man die Klimakurven den Zuschauern ja nicht zumuten kann. Lieber möchte der deutsche Zuseher wohl das unvermeidliche Trio Schellnhuber-Latif-Rahmstorf beim Schimpfen erleben. Sie haben die Deutungshoheit im Fernsehen. Dank Kachelmann, Reichmuth und Lengsfeld gibt es durchaus Raum für abweichende Gedanken. Allerdings wäre es wirklich an der Zeit, auch einmal der klimarealistischen Sichtweise etwas mehr Raum zu geben. Es gäbe viele neue wissenschaftliche Erkenntnisse zu besprechen. Könnte man nicht wenigstens einmal einen Strauß an Klimakritik offen debattieren? Die zehn geeignetsten Punkte können wir gerne bei Interese nennen.

 

 

 

Die Kleine Eiszeit: Schwache Sonne oder starke Vulkane?

Am 30. August 2017 gab das Hamburger Max-Planck-Institut für Meteorologie die folgende Pressemitteilung heraus:

Neue Studie: Warum die europäischen Winter während der Kleinen Eiszeit so kalt waren

Es sind die Winterlandschaften der holländischen und flämischen Genremaler wie Pieter Breugel, dem Älteren, und Hendrick Averkamp, die unser Bild der Kleinen Eiszeit (KE), der relativ kalten Klimaperiode in den drei Jahrhunderten vor der industriellen Revolution prägen. Nicht nur die Darstellungen von Härten und Freuden in eisigen Landschaften, sondern auch schriftliche Quellen und Temperaturrekonstruktion aus Klimaarchiven weisen darauf hin, dass die KE in Europa vor Allem ein Winterphänomen war.

In einer neuen Studie [1] in Scientific Reports, einer open-access-Zeitschrift der Nature Publishing Group, schlagen die Autoren Drs. Eduardo Moreno-Chamarro, Katja Lohmann und Johann Jungclaus vom Max-Planck-Institut für Meteorologie (MPI-M), Dr. Davide Zanchettin von der Universität Venedig und Prof. Jürg Luterbacher von der Universität Gießen einen neuen Mechanismus vor, der die winterliche Verstärkung der Abkühlung während der KE in Europa erklärt, in dem sie diese mit Änderungen in der Ozeanzirkulation des subpolaren Nordatlantiks in Verbindung bringen.

Ähnlich zu (nun eher seltenen) besonders kalten Wintern unserer Tage waren die Winter während der KE typischerweise durch langandauernde Hochdruckwetterlagen über Skandinavien geprägt, die zum einen mit nord-östlichen Winden kalte kontinentale Luft aus den Flächen Russlands heranbringen und zum anderen die Tiefdruckgebilde, die Westeuropa normalerweise Feuchtigkeit und Wärme bringen, nach Norden abdrängen (sog. Blocking-Wetterlagen). Aber wie konnten diese großskaligen atmosphärischen Zirkulationsmuster über zwei Jahrhunderte derart vorherrschend und bestimmend für die Winter sein?

In seiner Doktorarbeit analysierte Eduardo Moreno-Chamarro Klimamodellsimulationen über das gesamte vorindustrielle Jahrtausend, um nach einer Erklärung für diese anomalen Winterbedingungen zu suchen. In Übereinstimmung mit Rekonstruktionen aus Klimaarchiven offenbarten diese Simulationen nicht nur, dass die KE durch besonders niedrigere Wintertemperaturen gekennzeichnet war, sondern auch, dass diese direkt mit einer außergewöhnlich schwachen großskaligen Ozeanzirkulation im Nordatlantik zusammen hängen, insbesondere mit dem Subpolaren Wirbel (SW). Der SW ist ein gegen den Uhrzeigersinn rotierender Wirbel, der den nordwärtigen Wärmetransport vom Atlantik in die Norwegische See und den Arktischen Ozean steuert. Daher verursacht ein geschwächter SW während der KE eine langandauernde Abkühlung des oberen Ozeans in hohen nördlichen Breiten, was eine Zunahme der eisbedeckten Flächen, insbesondere in der Barents-See, begünstigte. Die Auswirkungen blieben dabei nicht auf Ozean und Meereis beschränkt: In der Barents-See beeinflusste die veränderte Meereisbedeckung die Zirkulation der Atmosphäre und stabilisierte die blockierenden Hochdruckwetterlagen über Skandinavien.

“Es gab schon früher Spekulationen darüber, dass der Ozean eine Rolle für diese langzeitlichen Änderungen gespielt haben könnte”, führt Johann Jungclaus, Projektleiter am MPI-M aus. “Aber die vorherrschende Erklärung war zu stark vereinfacht: sie besagte, dass der Golfstrom als “Warmwasserheizung” Europas während der KE versagte oder abgeschwächt wurde. Unsere Untersuchungen zeigen, dass eine generelle Abschwächung der meridionalen Atlantischen Umwälzbewegung wahrscheinlich nicht beteiligt war, und dass wir nach Details in regionalen dynamischen Merkmalen Ausschau halten müssen, wie den Subpolarwirbel und den lokalen Ozean-Atmosphäre-Rückkopplungen”. Er ergänzt: “Darüberhinaus erklärt der von uns vorgeschlagene Mechanismus die speziellen saisonalen Besonderheiten der KE in Europa.”

Die Autoren identifizierten eine Anzahl von Vulkanausbrüchen Ende des 16. Jahrhunderts als den wahrscheinlichsten Grund für die Variationen in der Ozeanzirkulation. “Diese Ereignisse waren viel schwächer als zum Beispiel der prominente Ausbruch des Tambora 1815, der zu dem bekannten “Jahr ohne Sommer” 1816 geführt hat”, erklärt Eduardo Moreno-Chamarro. “Allerdings haben wir in einer vorherigen Studie [2], die sich detailliert mit den zu Grunde liegenden Mechanismen beschäftigt, herausgefunden, dass der akkumulierte Effekt dieser kleineren Eruptionen eine relative abrupte Abschwächung der Wirbelzirkulation im subpolaren Nordatlantik hervorgerufen hat”.

Originalveröffentlichungen:

[1] Moreno-Chamarro, E., D. Zanchettin, K. Lohmann, J. Luterbacher, and J. H. Jungclaus, 2017: Winter amplification of the European Little Ice Age cooling by the subpolar gyre. Sci. Rep., 7, doi:10.1038/s41598-017-07969-0.

[2] Moreno-Chamarro, E., D. Zanchettin, K. Lohmann, and J. H. Jungclaus, 2017: An abrupt weakening of the subpolar gyre as trigger of Little Ice Age-type episodes. Clim. Dyn., 48, 727-744.

Interessante Ergebnisse der Klimamodellierer, möchte man meinen. Allerdings hatten sie vermutlich von vorneherein keine echte Chance, die Zusammenhänge vollkommen zu verstehen. Die verwendeten Modelle vernachlässigen weiter die starke Rolle der Sonne im Geschehen. Anstatt die besonder schwache Sonnenaktivität als Ursache der Kleinen Eiszeit anzuerkennen, müssen nun Vulkanausbrüche herhalten. Allerdings passen diese zeitlich gar nicht richtig zu den Kälteschüben der Kleinen Eiszeit. Literaturhinweis: In Abbildung 4 in Lüning et al. 2017 kann man sich die vulkanische Ausbruchsgeschichte sowie den Verlauf der Sonnenaktivität der letzten 1500 Jahre im Vergleich anschauen.

Anfang Oktober 2017 berichtete der Deutschlandfunk in einem 5-minütigen Beitrag über die Studien. Dort wird das Thema ‘Sonne oder Vulkane’ durchaus angesprochen. Allerdings versäumt Volker Mrasek, auf die frappierend genaue Synchron-Taktung der solaren Schwächephasen und Kälteepisoden einzugehen. Außerdem Vulkane können nur einige wenige Jahre kühlen, wie sollen da 300 Jahre Kleine Eiszeit entstehen, insbesondere wenn das Timing gar nicht stimmt?

 

 

Die Sonne im Oktober 2017 und das Christ-Mädchen vor der Tür

Von Frank Bosse und Fritz Vahrenholt

Unser (fast) einziger Energielieferant im Zentrum des Sonnensystems war im Vormonat wieder so unternormal aktiv wie wir es – außer im September – immer vermelden mussten. Die festgestellte Sonnenfleckenzahl (SunSpotNumber SSN) betrug im Monatsmittel 13,2. Besonders zur Monatsmitte (vom 9. bis 20. d.M.) war die Sonne häufig – an 11 von 12 Tagen -  gänzlich ohne Fleck. Damit brachte es unser Zentralgestirn nur auf eine Aktivität, die bei 33% des zu diesem Zyklusmonat ( Nr. 107) üblichen lag. Über den gesamten Zyklus betrachtet sahen wir damit nur 56% der Aktivität des mittleren Zyklus, gebildet aus dem Mittelwert aller bisher vollendeten 23 Zyklen, blau im Bild unten.

Abb.1: Die SSN- Zahlen des aktuellen Zyklus ( rot) im Vergleich mit einem mittleren Zyklus ( blau) und dem seit über 2 Jahren sehr ähnlichen Zyklus 5 (schwarz). Auch auffällig: seit etwa einem Jahr erkennen wir einen Stillstand ( „Hiatus“) der Aktivität bei einer mittleren SSN von 25 und leichten Pendelbewegungen um diesen Wert.

 

Der Vergleich der Zyklen untereinander:

Abb.2: Die aufsummierten Anomalien ( dies sind die monatlichen Differenzen zwischen den festgestellten SSN-Werten und dem Mittelwert der Zyklen 1-23, blau in Abb.1) der bisherigen Zyklen bis zum aktuellen 107. Monat nach dem Beginn des SC (Solar Cycle) 24 im Dezember 2008.

 

Seit dem Beginn der systematischen Beobachtung der Sonnenflecken mit dem ersten aufgezeichneten Zyklus im März 1755 ist der aktuelle SC24 der drittschwächste, nur unterboten von den Zyklen 5 und 6,  1798…1823 im Dalton Minimum. Wir wollen diesmal wieder einen Blick in die Zukunft wagen,  auf den kommenden Zyklus 25 ab etwa 2021. Hierfür benutzen wir die Stärke der aktuellen polaren Felder, wir hatten darüber ausführlich bereits im Dezember 2016 berichtet.  Die Mitarbeiter des  Wilcox- Observatoriums der Stanford Universität wurden  im Mai auf einen verschmutzten Spiegel aufmerksam gemacht, der die Messungen recht stark in Mitleidenschaft zog. Inzwischen ist der Fehler wohl behoben und wir werfen vertrauensvoll wieder einen Blick auf die Daten. Die Felder (das Mittel der Nord/Südhemisphärischen  Werte) liegen bei 57 Centi Gauss (cG). Der vorherige Zyklus (als Vorbote der Fleckenaktivität für den aktuellen Zyklus) lag zum etwa gleichen Zykluszeitpunkt bei ca. 61 cG. Zum Vergleich: der etwa normal starke SC23 ( vgl. Abb.2) wurde durch polare Felder von ca. 104 cG angekündigt. Es ist also sehr wahrscheinlich, dass auch der Zyklus 25 so unterdurchschnittlich aktiv wird wie der gerade zu Ende gehende. Damit werden wir also eine Schwächephase der Sonne vergleichbar zum Dalton- Minimum erleben, ein noch stärkeres Absinken wie beim Maunder- Minimum zwischen 1650 und 1700 ist eher unwahrscheinlich.

 

Das Christ-Mädchen kommt

Natürlich kommt das Christkind unaufhaltsam, gemeint ist hier jedoch ein Ereignis, das über längere Zeiten große Teile der Erde klimatisch beeinflusst: eine La Niña. Sie ist ein Zustand der pazifischen Oszillation  ENSO und bezeichnet eine Phase mit kühlerem Oberflächenwasser vor allem im östlichen tropischen Pazifik. Über einige Aspekte dieser pazifischen Wärmeschaukel hatten wir sie z.B. bereits hier informiert.

Damals waren wir alle in Erwartung eines El Niños, das ist übersetzt der Christ-Junge. Die beiden ausgeprägten ENSO- Zustände wurden so benannt, weil sie sich häufig um Weihnachten herum voll entfalten. Mit den modernen Messungen der Argo – Bojen ab 2004 ist es möglich, detaillierte Temperaturmessungen bis in 2000 m Tiefe hinab mit hoher zeitlichen Konstanz zu gewinnen und wir möchten Ihnen zeigen, wie die Phänomene im Ozean wirken. Zunächst die Wärmeverteilung beim El Niño im November 2015:

Abb. 3: Die Temperaturverteilung beim letzten großen El Niño unter dem pazifischen Äquator. Man erkennt die warmen Wässer vor allem bis in nur 100m Tiefe im östlichen Pazifik während die tieferen Schichten des Westpazifiks deutlich kühler als normal sind. Quelle: Argo

 

Nun der Kontrast, eine La Niña:

Abb.4: Die gleiche Darstellung wie Abb.3 nun unter La Niña- Bedingungen. Der Ostpazifik bis weit westlich der Datumsgrenze bei 180° ist kühler in den oberen Schichten, dafür ist der Westpazifik vor allem in Schichten unter 100m viel wärmer als normal. Quelle: Argo

 

ENSO ist so gesehen eine Art Oszillator: Bei La Niña- Bedingungen wird ein „Kondensator“ im Westpazifik zwischen 100 und ca. 400 m Wassertiefe aufgeladen mit Wärme (vgl. Abb.4), die nicht in die Messung an der Oberfläche eingeht. Nach einigen Jahren wird dieser „Kondensator“ in relativ kurzer Zeit entladen,  an der Oberfläche wird das Wärme-Reservoir  freigesetzt, das sich vorher in der Tiefe gefüllt hat. Für die Oberflächentemperaturen heißt das: Beim El Niño gibt es eine Wärmespitze, bei einer La Niña wird der Meeresoberfläche und damit auch der Atmosphäre  Wärme entzogen indem das erwärmte Wasser im Westpazifik unter der Oberfläche eingelagert wird und vermehrt kühleres Wasser aus der Tiefe im Osten nachströmt.

Abb. 5: Der Verlauf der globalen Meeresoberflächentemperaturen ( SST  nach Reynolds) nach 2010. Die La Niña in 2011/12 (vgl. auch Abb.4) zeichnet sich klar als Delle ab, der El Niño Ende 2015 (vgl. auch Abb.3) als mächtige Beule.

 

Die gegenwärtige Situation spricht mit nahezu hundertprozentiger Sicherheit für eine La Niña im Winter 2017/18. Die fraglichen Meeresgebiete des Ostpazifiks sind bereits recht kühl an der Oberfläche:

Abb. 6: Die pazifischen Meeresoberflächentemperaturen (SST)  Mitte November 2017, ein La Niña-ähnliches Muster ist bereits bis zur Datumsgrenze ausgebildet. Quelle: NOAA

 

Auch die Modelle dafür rechnen mit einer La Niña, so kurz vor dem fraglichen Zeitpunkt irren sie kaum.

Abb.7: Die Modellrechnungen der NOAA für die SST in der Region. Je später die Modellrechnungen  vorgenommen  wurden ( die blauen Linien) desto negativer sind tendenziell die Wintertemperaturen, desto stärker die La Niña.

 

Eine La Niña hat nicht nur große Auswirkungen auf das globale Temperaturniveau sondern auch auf die Landwirtschaft großer Teile der Erde und besonders empfindliche Pflanzen wie z.B. Kaffee. La Niña  beeinflusst ebenso den Jet-Stream über Nord-Amerika. Das führt  zu kälteren Temperaturen und mehr Niederschlag im Norden der USA und zu wärmeren, trockeneren Konditionen im Süden. Ein Einfluss auf das Winterwetter in Europa konnte bislang nicht sicher festgestellt werden.

Auch im Vorjahr sahen wir eine (allerdings recht schwache) La Niña, wie ein verbreiteter Index anzeigt.  Für den sehr starken El Niño 2015/16 war dies nicht genug, um die Verhältnisse in der Tiefe ( vgl. Abb.3 und 4) wieder auf „normal“ zu stellen. Eine aktuelle Arbeit hat das Phänomen von sich wiederholenden La Niñas untersucht und ein Modell entwickelt, das aus den Bedingungen des Jahres 2015 eine „Doppel-La Niña“ bis 2017/18 mit hoher Wahrscheinlichkeit berechnete.

So ist es nicht verwunderlich, dass das Reservoir im Westpazifik unter 100m Wassertiefe noch immer recht leer ist. Es wurde nicht genug Wärme eingelagert, dies sollte erst die kommende La Niña erledigen. Damit entzieht sie der Oberfläche mehr Wärme und erst danach können wir mit Sicherheit sagen, wie sich in den Monaten ab Sommer 2018 die globalen Temperaturen nach dem sehr starken El Niño vor 2 Jahren  entwickeln werden. Die Versuche, den Temperaturanstieg 2015-17 (vgl. Abb. 5) vor allem der verstärkten Wirkung von Treibhausgasen anzulasten werden dann in einem anderen Licht stehen.

ENSO ist ein natürlicher, vor allem passatwindgetriebener Oszillator. Es macht wenig Sinn, das  dadurch beeinflusste globale Temperaturmuster herzunehmen um mal wieder ein paar Alarmsirenen anzuwerfen wie es in 2016 u.a. hier gemacht wurde. Warten wir die zweite Jahreshälfte 2018 ab-dann sehen wir klarer, wohin uns das ENSO- Geschehen 2015-18 gebracht hat.

 

Studie in Nature Geoscience: Klimamodelle laufen zu heiß, 1,5-Gradziel kann auch mit dreifacher Menge an CO2-Emissionen erreicht werden

Am 19. September 2017 musste die Aktivistenplattform ‘Klimaretter‘ über ihren Schatten springen und zur Abwechslung eine gute Nachricht an seine Leser weitergeben:

CO₂-Budget könnte länger reichen
Eine neue Studie schlägt hohe Wellen auch über Fachkreise hinaus. Laut dem Papier, das ein Forscherteam um Richard Millar von der Universität Oxford im Fachmagazin Nature Geoscience publiziert hat, bleiben der Menschheit immer noch rund 20 Jahre, bis das CO2-Budget für das 1,5-Grad-Ziel aufgebraucht und die Schwelle zu einem gefährlichen Klimawandel überschritten wäre. Dieses Ergebnis ist äußerst ungewöhnlich. Denn bislang wird angenommen, dass nur noch wenige Jahre bleiben, bis das 1,5-Grad-Limit geknackt wird. Bei einem mittleren Szenario wären es nach bisherigen Berechnungen weniger als zwei Jahre, bei einem optimistischen Szenario gut vier Jahre und bei einem pessimistischen Szenario sogar nur noch fünf Monate. Die Erderwärmung auf 1,5 Grad zu begrenzen wäre also kaum noch möglich. Die neue Studie stellt diese Annahmen nun auf den Kopf.

Weiterlesen beim Klimaretter.

Man muss dem Klimaretter-Team schon dankbar sein, dass sie die Publikation vorgestellt haben, denn der Abstract des Papers in Nature Geoscience liest sich doch etwas sperrig:

Emission budgets and pathways consistent with limiting warming to 1.5 °C
The Paris Agreement has opened debate on whether limiting warming to 1.5 °C is compatible with current emission pledges and warming of about 0.9 °C from the mid-nineteenth century to the present decade. We show that limiting cumulative post-2015 CO2 emissions to about 200 GtC would limit post-2015 warming to less than 0.6 °C in 66% of Earth system model members of the CMIP5 ensemble with no mitigation of other climate drivers, increasing to 240 GtC with ambitious non-CO2 mitigation. We combine a simple climate–carbon-cycle model with estimated ranges for key climate system properties from the IPCC Fifth Assessment Report. Assuming emissions peak and decline to below current levels by 2030, and continue thereafter on a much steeper decline, which would be historically unprecedented but consistent with a standard ambitious mitigation scenario (RCP2.6), results in a likely range of peak warming of 1.2–2.0 °C above the mid-nineteenth century. If CO2 emissions are continuously adjusted over time to limit 2100 warming to 1.5 °C, with ambitious non-CO2 mitigation, net future cumulative CO2 emissions are unlikely to prove less than 250 GtC and unlikely greater than 540 GtC. Hence, limiting warming to 1.5 °C is not yet a geophysical impossibility, but is likely to require delivery on strengthened pledges for 2030 followed by challengingly deep and rapid mitigation. Strengthening near-term emissions reductions would hedge against a high climate response or subsequent reduction rates proving economically, technically or politically unfeasible.

Um die Materie etwas benutzerfreundlicher und zugänglicher zu machen, erschien paralell dazu in Nature auch eine populärwissenschaftliche Zusammenfassung der Studie durch Jeff Tollefson:

Limiting global warming to 1.5 °C may still be possible
Analysis suggests that researchers have underestimated how much carbon humanity can emit before reaching this level of warming.

A team of climate scientists has delivered a rare bit of good news: it could be easier than previously thought to limit global warming to 1.5 °C above pre-industrial levels, as called for in the 2015 Paris climate agreement. But even if the team is right — and some researchers are already questioning the conclusions — heroic efforts to curb greenhouse-gas emissions will still be necessary to limit warming. Published on 18 September in Nature Geoscience1, the analysis focuses in part on the fact that global climate models used in the 2013 report from the Intergovernmental Panel on Climate Change (IPCC) tend to overestimate the extent of warming that has already occurred. After adjusting for that discrepancy and running further models, the authors of the latest study found that the amount of carbon that humanity can emit from 2015 onward while holding temperatures below 1.5 °C is nearly three times greater than estimated by the IPCC — or even larger if there is aggressive action on greenhouse gases beyond carbon dioxide. The implications for global policymakers are significant.

Weiterlesen in Nature

Im Prinzip hat man nun endlich die Realitäten erkannt und die überhitzten Klimamodelle ein Stück weit zurückgefahren. Die Erwärmungspause 2000-2014 hat Wirkung gezeigt und zu einer Revision der Prognosen geführt. Die Menschheit könne nun dreimal mehr CO2 ausstoßen als zuvor gedacht, um das 1,5°C-Ziel noch zu erreichen. Die Sunday Times berichtete über die Studie und drückte ihre Skepsis über die Klimamodellirer aus, die nun mit reichlicher Verspätung Defizite einräumen, jedoch zuvor noch jeden scharf angegriffen hatten, die Kritik äußerten. Siehe auch Ross McKittricks Diskussion auf Climate Etc.

Natürlich waren die Vertreter der harten Klimalinie nicht froh über das neue Paper, da es ihre extremen Alarmszenarien in Frage stellt. Sie lehnen die neuen Zahlen aus naheliegenden Gründen kategorisch ab, was Politikentscheider und Bevölkerung in ein Dilemma stürzt, wie Volker Dambeck in Spiegel Online darlegt:

Für Politiker und Bürger erweist sich die Debatte um das CO2-Budget der Menschheit als schwierig. Wem soll man nun glauben, wenn man Ziele von Paris noch erreichen will? Die einen empfehlen 600 Gigatonnen für 1,5 Grad, die anderen 800 für 1,5 Grad, der Wert könnte jedoch auch bei 150 oder 1050 liegen! Es gibt sogar noch eine weitere Unsicherheit, die zwar beileibe nicht so groß ist, aber immerhin das Zwei-Grad-Ziel betrifft. Laut dem Pariser Klimaabkommen wird der Temperaturanstieg im Vergleich zur vorindustriellen Zeit gemessen. Zwei Grad – das ist an sich eine präzise Angabe, der Begriff der vorindustriellen Zeit hingegen nicht. Zum einen ist unklar, wann genau denn nun diese vorindustrielle Zeit geendet haben soll. 1780? Oder 1880? Zum anderen sind sich Klimaforscher uneins, wie hoch die Durchschnittstemperatur auf der Erde von 150 oder 200 Jahren war. Für Regionen wie die Arktis fehlen Messdaten – die Temperaturen werden dann mit Modellen berechnet – mit je nach Modell etwas anderen Ergebnissen.

Ganzen Artikel auf Spiegel Online lesen.

Man muss sogar noch weiter zurück gehen, denn 150, 200 Jahre reichen nicht. Bei Berücksichtigung der letzten 2000 Jahre liegt die mittlere Temperatur nämlich viel höher, etwa auf dem Niveau von 1950. Wäre dies nicht ein viel geeigneteres Null-Niveau der Debatte? Aber dann müsste man die schönen Temperaturziele alle umbenennen, denn das obere Limit sollte natürlich bleiben, das im Fall des 2-Gradziels der Temperatur aus der letzten Warmphase vor 120.000 Jahren, dem Eem, entspricht.

 

Siehe auch Berichte in The Australian, GWPF, Investor's Business Daily, Daily Caller

 

Ungebremste Entwaldung lässt globale Temperaturen bis 2100 nach oben schnellen

Die Energiewende bereitet Kopfzerbrechen. So richtig hatte wohl keiner mitgerechnet, als alles geplant wurde. Nun hangelt man sich von Baustelle zu Baustelle. Kein großer Wurf. Beispiel Biotreibstoffe. Der große Appetit nach Palmöl hat zu großflächigen Rodungen in den tropischen Regenwäldern geführt. Während der grüngesonnene Autofahrer nun mit “reinem Gewissen” mit Biosprit unterwegs ist, haben unzählige Waldbewohner ihre Heimat verloren. Großgrundbesitzer und Konzerne streichen üppige grüne Gewinne ein. Eine Studie der Cornell University konnte nun nachweisen, dass die Tropenwaldrodung den Klimawandel stärker befeuert, als lange angenommen. Wenn die Entwaldung mit dem heutigen Tempo weitergeht, wird dies bis 2100 die Temperaturen nach oben schnellen lassen. Ob die Designer der Energiewende dies bedacht hatten? Die Geister die ich rief… Hier die Pressemitteilung der Uni vom 5. September 2017:

Deforestation long overlooked as contributor to climate change
When it comes to tackling climate change, the focus often falls on reducing the use of fossil fuels and developing sustainable energy sources. But a new Cornell University study shows that deforestation and subsequent use of lands for agriculture or pasture, especially in tropical regions, contribute more to climate change than previously thought.

The new paper, “Are the Impacts of Land Use on Warming Underestimated in Climate Policy?” published in Environmental Research Letters, also shows just how significantly that impact has been underestimated. Even if all fossil fuel emissions are eliminated, if current tropical deforestation rates hold steady through 2100, there will still be a 1.5 degree increase in global warming.

“A lot of the emphasis of climate policy is on converting to sustainable energy from fossil fuels,” said Natalie M. Mahowald, the paper’s lead author and faculty director of environment for the Atkinson Center for a Sustainable Future. “It’s an incredibly important step to take, but, ironically, particulates released from the burning of fossil fuels – which are severely detrimental to human health – have a cooling effect on the climate. Removing those particulates actually makes it harder to reach the lower temperatures laid out in the Paris agreement.” She said that in addition to phasing out fossil fuels, scientific and policymaking communities must pay attention to changes in land use to stem global warming, as deforestation effects are “not negligible.”

While the carbon dioxide collected by trees and plants is released during the cutting and burning of deforestation, other greenhouse gases – specifically nitrous oxide and methane – are released after natural lands have been converted to agricultural and other human usage. The gases compound the effect of the carbon dioxide’s ability to trap the sun’s energy within the atmosphere, contributing to radiative forcing – energy absorbed by the Earth versus energy radiated off – and a warmer climate. As a result, while only 20 percent of the rise in carbon dioxide caused by human activity originates from land use and land-cover change, that warming proportion from land use (compared with other human activities) increases to 40 percent once co-emissions like nitrous oxide and methane are factored in.

“In the short term, the land use tends to have twice the radiative forcing as it should have had from the carbon dioxide because of the co-emissions, so it’s twice as important,” said Mahowald. Mahowald’s finding resonates with a previous paper she published in Global Biogeochemical Cycles in January, “Interactions Between Land Use Change and Carbon Cycle Feedbacks,” which showed that the carbon released by a deforested area is actually doubled over time because that area’s future potential to function as a natural sink – i.e., a habitat that can absorb carbon dioxide from the atmosphere – has been eliminated. “Normally people only think about what’s happening right now when they think about the carbon budget,” Mahowald said. “But if you think about what’s going to happen over the lifetime of that land, long into the future, you should multiply that land conversion by two to understand the net effect of it.”

As agriculture expands in tropical areas and the pressures to turn forest into croplands increase, Mahowald stresses the importance of using extended timelines to assess the impact these practices have on the climate. “We have a nice phrase: multi-centennial legacy of current land-use decisions,” she said. “When we think about climate change, we can’t stop at the end of the century. The consequences keep going for a couple more centuries.”

Noch so eine Energiewenden-Stilblüte: Holzpellets und selbstgeschlagenes Holz lassen einen in der Illusion, man würde besonder grün und nachhaltig heizen. Das ist jedoch nicht immer der Fall. In London plant man nun, die Holzverfeuerung zu verbieten. Die daraus resultierende Luftverschmutzung droht die Stadt in das vorletzte Jahrhundert zurück zu katapultieren, als der Ruß aus unzähligen Londoner Kaminen die berühmtberüchtigten Dauernebel an der Themse auslöste.

FDP-Chef Christian Lindner hat die Zeichen der Zeit erkannt und fordert die Abschaffung der verrückten Subventionen bei den Erneuerbaren Energien, wie er im Tagesspiegel Ende Juni 2017 in einem Gastbeitrag schrieb:

“Von wegen Reform – das EEG muss weg”

FDP-Chef Christian Lindner fordert ein Ende der EEG-Reform. Statt auf bezahlbare Preise und Versorgungssicherheit zu achten, fokussiert sich Deutschland geradezu religiös überhöht auf den Klimaschutz. 

Das Jahrhundertprojekt Energiewende ist gescheitert. Keines der vereinbarten Ziele wird gegenwärtig erreicht: Der Klimaschutz kommt nicht voran, die Energiepreise steigen, belasten uns als Stromverbraucher genau so wie Industrie und Mittelstand. Nicht zuletzt wird es in den Wintermonaten immer schwieriger, eine sichere Stromversorgung zu garantieren.

Das Planungsbüro der DDR hätte die Energiewende nicht schlechter konzipieren können: Deutschland hat mit Italien die höchsten Industriestrompreise in der EU – Arbeitsplätze und Investitionen werden zunehmend ins Ausland verlagert. Konventionelle Kraftwerke können nicht mehr rentabel betrieben werden, Stromanbieter ziehen sich vom Markt zurück. Kohle- und Gaskraftwerke sollen dann staatliche Zuschüssen erhalten. Statt auf Wirksamkeit, bezahlbare Preise und Versorgungssicherheit zu achten, orientiert sich Deutschland einseitig und geradezu religiös überhöht auf den Klimaschutz.

Weiterlesen im Tagesspiegel

Aufschlussreicher Artikel auf wetteronline.de am 1. November 2017:

Strompreis: Kollaps bei HERWART
Es klingt absurd: Wer Strom verkauft, muss seinen Abnehmern Geld dafür zahlen. So geschehen bei Sturmtief HERWART. Bezahlen muss dies letztlich der Verbraucher.

Weiterlesen auf wetteronline.de

FAZ im September 2017″ mit einem Artikel “Front gegen die Windkraft“.

Unerwarteter Effekt der Energiewende: Der Bedarf an Kohle ist gestiegen! Das merkte im September 2017 Bloomberg Businessweek.

Wie umweltfreundlich sind eigentlich elektrische Autos? Jack Barkenbus hat die Frage untersucht und seine Ergebnisse auf Issues in Science and Technology jetzt präsentiert. Nicht ganz unerwartet fand er, dass die E-Autos nur so umweltfreundlich sein können, wie die Quelle der Stromerzeugung. In Deutschland wird dies zu einem großen Anteil wohl Kohle sein. E-Autos haben also gar nicht einen so kleinen CO2-Fußabdruck wie oft vermutet, insbesondere wenn man sich für große E-Limousinen entscheidet, die mehr Energie schlucken als Kleinwagen. Überhaupt scheint ein Teil der Faszination E-Auto zu sein, dass nun alle von großen (aber meist unbezahlbaren) Limousinen träumen. Ein toller Marketingtrick. Hier die Schlußfolgerung aus der Analyse von Barkenbus:

In summary, currently EVs can be climate positive or climate negative depending on where they are located and when they are recharged. As demonstrated in this analysis, EV ownership is taking place in some regions where there is a concurrent growth in the use of renewable energy. That is the good news. As EVs grow as a percentage of sales, however, they will inevitably spread to regions with grids that are more carbon intensive. This is the story right now in China, where the electric grid is still very carbon intensive.

Ganzen Artikel auf Issues in Science and Technology lesen.

Biomais-Monokulturen hat die Felder des Landes geflutet. Garantierte Einnahmen, eine tolle Sache für die Beteiligten. Allerdings hat die Umwelt offenbar das Nachsehen. Die intensive Übernutzung der landwirtschaftlichen Flächen dezimiert dramatisch die schwächsten Glieder in der Fauna, die Insekten. Ein Beispiel aus der Freien Presse aus dem August 2017:

Der Bläuling auf der Roten Liste
Schmetterlinge sind den Deutschen die liebsten Insekten. In der Gunst rangieren sie noch vor den Bienen. Doch geht ihre Vielfalt zurück. Intensive Landwirtschaft raubt ihnen Lebensraum. Auch viele von Sachsens Falterarten brauchen Hilfe. Für einige ist es schon zu spät.

Weiterlesen in der Freien Presse

 

Neues vom ungeliebten Hiatus

Die letzten anderthalb Jahrzehnte geriet die globale Erwärmung ins Stocken. Erst der kürzliche El Nino konnte den Hiatus beenden. Noch immer rätselt die Fachwelt, wie es zum Hiatus kommen konnte. Im Monatstakt erscheinen neue Papers zur Ursachenforschung. Im Januar 2017 publizierten Garfinkel und Kollegen eine Studie zur Erwärmungspause in Europa, deren Ursache sie in der Stratosphäre sehen, nämlich in einem geschwächten polaren Wirbel. Kurios: Ursache für die Abschwächung des Wirbels soll der Anstieg der Treibhausgase sein:

Stratospheric variability contributed to and sustained the recent hiatus in Eurasian winter warming
The recent hiatus in global-mean surface temperature warming was characterized by a Eurasian winter cooling trend, and the cause(s) for this cooling is unclear. Here we show that the observed hiatus in Eurasian warming was associated with a recent trend toward weakened stratospheric polar vortices. Specifically, by calculating the change in Eurasian surface air temperature associated with a given vortex weakening, we demonstrate that the recent trend toward weakened polar vortices reduced the anticipated Eurasian warming due to increasing greenhouse gas concentrations. Those model integrations whose stratospheric vortex evolution most closely matches that in reanalysis data also simulate a hiatus. While it is unclear whether the recent weakening of the midwinter stratospheric polar vortex was forced, a properly configured model can simulate substantial deviations of the polar vortex on decadal timescales and hence such hiatus events, implying that similar hiatus events may recur even as greenhouse gas concentrations rise.

Im April 2017 gab es dann ein Paper von Hedemann und Kollegen in Nature Climate Change. Zu den Autoren gehört übrigens auch Jochem Marotzke. Zunächst einmal wird die Existenz des Hiatus eingeräumt, ebenso die Tatsache, dass Klimamodelle ihn nicht haben kommen sehen. Als Auslöser wird dann eine ominöse Gleichgewichtsstörung am oberen Rand der Atmosphäre genannt. Schließlich wird noch erklärt, dass man das Phänomen wohl niemals aufklären werden wird. Das ist doch recht ernüchternd. Abstract:

The subtle origins of surface-warming hiatuses
During the first decade of the twenty-first century, the Earth’s surface warmed more slowly than climate models simulated1. This surface-warming hiatus is attributed by some studies to model errors in external forcing2,3,4, while others point to heat rearrangements in the ocean5,6,7,8,9,10 caused by internal variability, the timing of which cannot be predicted by the models1. However, observational analyses disagree about which ocean region is responsible11,12,13,14,15,16. Here we show that the hiatus could also have been caused by internal variability in the top-of-atmosphere energy imbalance. Energy budgeting for the ocean surface layer over a 100-member historical ensemble reveals that hiatuses are caused by energy-flux deviations as small as 0.08 W m−2, which can originate at the top of the atmosphere, in the ocean, or both. Budgeting with existing observations cannot constrain the origin of the recent hiatus, because the uncertainty in observations dwarfs the small flux deviations that could cause a hiatus. The sensitivity of these flux deviations to the observational dataset and to energy budget choices helps explain why previous studies conflict, and suggests that the origin of the recent hiatus may never be identified.

Etwas verständlicher sind da vielleicht zwei neue Papers (2017) eines Teams um Nicola Scafetta. Im ersten Teil beschreiben die Autoren die Rolle der Ozeanzyklen auf die Temperaturentwicklung. Hier der Abstract von Scafetta et al. 2017a (pdf hier):

Natural climate variability, part 1: Observations versus the modeled predictions
During the whole history of the planet, astronomical factors (orbital and solar variability) have determined the energy balance of the Earth and generated natural climate oscillations affecting the life of plants, animals and human beings at all time scales. During the last decades, severe concerns have been raised about whether human activities could have been so influential as to deeply modify the natural variability of the global climate and, in particular, could have caused a significant warming since the beginning of the 20th century. To properly address the latter issue, it is required to understand the phenomenology of the natural climate fluctuations. These are well emphasized by several climate indexes such as the Atlantic Multidecadal Oscillation, the Pacific Decadal Oscillation, the El Niño–Southern Oscillation and others. This complex natural dynamic is still not reproduced by the general circulation models (GCMs) supporting the Anthropogenic Global Warming Theory (AGWT), which is mainly advocated by the Intergovernmental Panel on Climate Change (IPCC). In this “part 1” of our work we briefly introduce the general topic and statistically compare observed and GCM modeled global surface warming trends from 1860 to 2016. We find that the models have significantly overestimated the observed warming during the historical record. In addition, we compare observed and modeled temperature trends of three significant periods: from Jan/1922 to Dec/1941, from Jan/1980 to Dec/1999 and from Jan/2000 to Dec/2016. We find that only during the 1980-1999 period the observed and synthetic records show compatible warming trends within the 95% confidence level. The severe discrepancy between observations and modeled predictions found during the 1922-1941 and 2000-2016 periods further confirms, according to the criteria proposed by the AGWT advocates themselves, that the current climate models have significantly exaggerated the anthropogenic greenhouse warming effect.

Im zweiten Teil wird der Hiatus diskutiert. Der kürzliche El Nino wird als Sonderereignis abgezogen. Er kann nicht als Beleg dafür herangezogen werden, dass sich die Erwärmung nach dem Hiatus nun fortsetzen würde. Hier der Abstract von Scafetta et al. 2017b (pdf hier):

Natural climate variability, part 2: Interpretation of the post 2000 temperature standstill
The period from 2000 to 2016 shows a modest warming trend that the advocates of the anthropogenic global warming theory have labeled as the “pause” or “hiatus.” These labels were chosen to indicate that the observed temperature standstill period results from an unforced internal fluctuation of the climate (e.g. by heat uptake of the deep ocean) that the computer climate models are claimed to occasionally reproduce without contradicting the anthropogenic global warming theory (AGWT) paradigm. In part 1 of this work, it was shown that the statistical analysis rejects such labels with a 95% confidence because the standstill period has lasted more than the 15 year period limit provided by the AGWT advocates themselves. Anyhow, the strong warming peak observed in 2015-2016, the “hottest year on record,” gave the impression that the temperature standstill stopped in 2014. Herein, the authors show that such a temperature peak is unrelated to anthropogenic forcing: it simply emerged from the natural fast fluctuations of the climate associated to the El Niño–Southern Oscillation (ENSO) phenomenon. By removing the ENSO signature, the authors show that the temperature trend from 2000 to 2016 clearly diverges from the general circulation model (GCM) simulations. Thus, the GCMs models used to support the AGWT are very likely flawed. By contrast, the semi-empirical climate models proposed in 2011 and 2013 by Scafetta, which are based on a specific set of natural climatic oscillations believed to be astronomically induced plus a significantly reduced anthropogenic contribution, agree far better with the latest observations.

 

 

 

Landgrabbing: Nahrungsknappheit entsteht in Afrika nicht nur durch Klimawandel

Guter Artikel von Jutta Schilly am 8. Oktober 2017 im Standard:

Knappheit entsteht in Afrika nicht nur durch Klimawandel
Laut dem Klimarat sind die Afrikaner am stärksten von Auswirkungen des Klimawandels betroffen. Der Druck auf den Kontinent steigt auch durch Landgrabbing: Private sichern sich fruchtbaren Boden. [...] Weil fruchtbarer Boden weniger wird, versuchen Konzerne, sich möglichst viel davon zu sichern. Denn der Appetit der industrialisierten Staaten des Nordens und von Schwellenländern nach Soja, Raps, Zuckerrohr, Palmöl und anderen Rohstoffen wächst. Bei der “Land Matrix Initiative”, die mit der EU-Kommission kooperiert, können Fälle von Landgrabbing gemeldet werden. Die Betreiber stellen sie nach einer Prüfung online. Laut Berechnungen auf Grundlage dieser Daten wurden bereits zehn Millionen Hektar in Afrika von internationalen Investoren – unter anderen aus Malaysia, den USA, Großbritannien und Saudi-Arabien – übernommen. [...]

Ganzen Artikel im Standard lesen.

——————–

Einige Forscher warnen, aus den Böden würde zusätzliches CO2 emporsteigen, das den Klimawandel verschärft. Andere behaupten das Gegenteil, z.B. die Stanford University. Hier eine Pressemitteilung vom 5. Oktober 2017 (via WUWT):

Soil holds potential to slow global warming, Stanford researchers find

The land under our feet and the plant matter it contains could offset a significant amount of carbon emissions if managed properly. More research is needed to unlock soil’s potential to mitigate global warming, improve crop yields and increase resilience to extreme weather.

If you want to do something about global warming, look under your feet. Managed well, soil’s ability to trap carbon dioxide is potentially much greater than previously estimated, according to Stanford researchers who claim the resource could “significantly” offset increasing global emissions. They call for a reversal of federal cutbacks to related research programs to learn more about this valuable resource. The work, published in two overlapping papers Oct. 5 in Annual Review of Ecology, Evolution and Systematics and Global Change Biology, emphasizes the need for more research into how soil – if managed well – could mitigate a rapidly changing climate. “Dirt is not exciting to most people,” said Earth system science professor Rob Jackson, lead author of the Annual Review of Ecology, Evolution and Systematics article and co-author of the Global Change Biology paper. “But it is a no-risk climate solution with big co-benefits. Fostering soil health protects food security and builds resilience to droughts, floods and urbanization.”

Humble, yet mighty

Organic matter in soil, such as decomposing plant and animal residues, stores more carbon than do plants and the atmosphere combined. Unfortunately, the carbon in soil has been widely lost or degraded through land use changes and unsustainable forest and agricultural practices, fires, nitrogen deposition and other human activities. The greatest near-term threat comes from thawing permafrost in Earth’s northern reaches, which could release massive amounts of carbon into the atmosphere. Despite these risks, there is also great promise, according to Jackson and Jennifer Harden, a visiting scholar in Stanford’s School of Earth, Energy & Environmental Sciences and lead author of the Global Change Biology paper. Improving how the land is managed could increase soil’s carbon storage enough to offset future carbon emissions from thawing permafrost, the researchers find. Among the possible approaches: reduced tillage, year-round livestock forage and compost application. Planting more perennial crops, instead of annuals, could store more carbon and reduce erosion by allowing roots to reach deeper into the ground.

Jackson, Harden and their colleagues also found that about 70 percent of all sequestered carbon in the top meter of soil is in lands directly affected by agriculture, grazing or forest management – an amount that surprised the authors. “I think if beer bets were involved, we all would have lost,” Harden said of her co-authors. Jackson and his co-authors found a number of other surprises in their analysis. For example, plant roots are five times more likely than leaves to turn into soil organic matter for the same mass of material. The study also provides the most complete estimate yet of carbon in peatland and permafrost – almost half of the world’s estimated soil carbon. “Retaining and restoring soil organic matter helps farmers grow better crops, purifies our water and keeps the atmosphere cleaner,” said Jackson, the Michelle and Kevin Douglas Provostial Professor in the School of Earth, Energy & Environmental Sciences.

Overcoming obstacles

The Jackson-led paper describes an unexpectedly large stock of potentially vulnerable carbon in the northern taiga, an ecosystem that is warming more rapidly than any other. These carbon stocks are comparatively poorly mapped and understood. The study warns of another danger: overestimating how the organic matter in soil is distributed. Jackson and his co-authors calculate there may be 25 to 30 percent less organic matter than currently estimated due to constraints from bedrock, a factor previously not analyzed in published scientific research. While scientists are now able to remotely map and monitor environmental changes on Earth’s surface, they still don’t have a strong understanding of the interactions among biological, chemical and physical processes regulating carbon in soils. This knowledge is critical to understanding and predicting how the carbon cycle will respond to changes in the ecosystem, increasing food production and safeguarding natural services we depend on, such as crop pollination and underground water storage.

A rapidly changing climate – and its effects on soil – makes these scientific advances all the more urgent. “Soil has changed under our feet,” Harden said. “We can’t use the soil maps made 80 years ago and expect to find the same answers.” However, funding pressures such as federal cuts to climate science, combined with turnover in science staff and a lack of systematic data, threaten progress on soil carbon research. Jackson, Harden and their colleagues call for a renewed push to gather significantly more data on carbon in the soil and learn more about the role it plays in sequestering carbon. They envision an open, shared network for use by farmers, ranchers and other land managers as well as policymakers and organizations that need good data to inform land investments and conservation. “If we lose momentum on carbon research, it will stifle our momentum for solving both climate and land sustainability problems,” Harden said.

 

Verzicht auf egoistischen Kinderwunsch spart pro Jahr 58,6 Tonnen Kohlendioxid

Spannende Selbsterkenntnis bei der Internetplattform “Klimaretter”, die jahrelang durch Klimaschockernachichten punkten wollten. Nun hat offenbar ein Umdenken stattgefunden, wie ein Artikel vom 26. September 2o17 dort zeigt:

Alarmismus hilft nicht
Wie lassen sich die Erkenntnisse der Klimawissenschaft vermitteln, sodass sie auch gehört und verstanden werden? Mit solchen Fragen befasst sich erstmals im deutschsprachigen Raum ein Kongress in Salzburg. Klar wird: Katastrophenszenarien sind genauso schädlich wie ein Herunterspielen der Gefahren.

Weiterlesen beim Klimaretter.

————————-

Pressetext.com brachte am 29. September 2017 eine Meldung zum Einbruch der globalen Hummelpopulation, was laut Uni Florida eine deutliche Folge des Klimawandels sei. Eine Kleinigkeit haben die Klimaaktivistenforscher jedoch offenbar bequemerweise ausgeblendet, nämlich dass Fachkollegen längst den exzessiven Einsatz von Pestiziden als Hauptkiller ausgemacht haben. Baron et al. 2017 in Nature Ecology & Evolution:

Pesticide reduces bumblebee colony initiation and increases probability of population extinction
Pollinators are in global decline and agricultural pesticides are a potential driver of this. Recent studies have suggested that pesticides may significantly impact bumblebee colonies—an important and declining group of pollinators. Here, we show that colony-founding queens, a critical yet vulnerable stage of the bumblebee lifecycle, are less likely to initiate a colony after exposure to thiamethoxam, a neonicotinoid insecticide.

Es gibt zu denken, dass die Süddeutsche Zeitung in ihrem Bericht zur Hummelkatastrophe die Pestizide mit keiner Silber erwähnt.

————————-

Sie interessieren sich für die Klima- und Geowissenschaften? Dann empfehlen wir Ihnen eine Stöbertour auf Geo Leo, einer Fundgrube digitaler Arbeiten zum Thema. Angeboten wird der kostenlose Service von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen.

————————-

Löst sich die Klimdebatte demnächst vielleicht selber in Luft auf, weil der Alarmistenseite der Nachwuchs ausgeht? Hierauf deutet ein Aufruf von Lena Seiferlin auf Bento hin, einem Ableger des Spiegels für junge Erwachsene. Aus Klimaschutzgründen wäre es wichtig, die menschliche Reproduktion einzustellen und auf Nachwuchs zu verzichten:

Wir sollten alle aufhören, Kinder zu bekommen. Denn das ist egoistisch!
[...] Eltern lassen ihren Kinderwunsch größer werden als ihr Mitgefühl für die Welt und ihre Bewohner – und auch größer als ihre Sorgen um die Zukunft. Und genau das ist für mich Egoismus. “Eine US-amerikanische Familie, die auf ein Kind verzichtet, spart genauso viel Emissionen ein wie 684 Teenager, die für den Rest ihres Lebens strikt recyceln”, schreiben die Wissenschaftler Seth Wynes und Kimberly Nicholas im Fachblatt “Environmental Research Letters. In ihrer Studie über die Entwicklung der Bevölkerung fanden sie heraus, dass ein Kind weniger zu haben dem Einsparen von 58,6 Tonnen Kohlendioxid im Jahr entspricht (die Emissionen anderer Treibhausgase wie Methan wurden entsprechend umgerechnet und sind enthalten).

Ist dies noch journalistischer Inhalt oder schon pseudoreligiöse Propaganda? Vor einigen Wochen hatten wir bereits einen Antifa-Aktivisten, der für bento schreibt. Und im April dieses Jahres (2017) gab es dort faktenfreies Mobbing gegen wissenschaftlich Andersdenkende zu bestaunen. Was für ein Journal, das sich der Spiegel da leistet…

Fidjigate

Die Klimakonferenz (COP23) von Bonn war eigentlich auf den Fiji-Inseln geplant. Damit die ca. 25.000 Vertreter (!) aus aller Herren Länder jedoch einigermaßen komfortabel an-und abreisen konnten, einigte man sich auf Bonn als Durchführungsort. Im Spiegel wurde darüber berichtet wie die Inseln dem Meer zum Opfer fallen. Der Autor Axel Bojanowski verweist am Anfang des Artikels kurz auf den Anstieg des Meeresspiegels, er verlinkt auf eine NOAA- Website. Im weiteren Verlauf des SPON-Artikels ist dann nicht mehr die Rede vom Klimawandel-Versinken der Inseln. Völlig zu Recht betont Bojanowski, dass die bedeutendsten Ursachen für die Erosion der Inseln im Verhalten der Inselbewohner selbst liegt. Die wilden Rodungen verminderten die Festigkeit und Widerstandsfähigkeit gegen die See, selbst bei Nicht-Sturmbedingungen berichten Segler über 3m hohe Wellen in der Region. Aber zurück zum Anstieg des Meeres dort. Auf der oben verlinkten Website findet sich auch die Möglichkeit, die Daten herunterzuladen. Wir haben das getan.

Abb. 1: Der Anstieg des Meeres bei den Fiji-Inseln 1990-2011. Daten: NOAA. Der lineare Trend beträgt 6mm/Jahr

 

Die verfügbaren NOAA- Daten reichen (lückenhaft) bis 1972 zurück, die Station wurde jedoch im März 1989 verlegt, was einen Sprung in den Daten nach oben von ca. 10cm erzeugte. Wir schauen daher nur von 1990 bis Ende 2011, die Datenreihe endet dort unglücklicherweise. Aber wir haben ja als Ergänzung die Daten der Satelliten aus der Gegend, sie sind hier zu gewinnen.

 

Abb. 2: Die Meereshöhe (Sea Surface Hight=SSH) bei den Fiji Inseln nach Satellitenbeobachtungen. Quelle.

 

Nach dem Peak in 2012 ging der Pegel also um etwa 10 cm zurück bis Mitte 2017. Es ist also sehr viel enthalten an natürlichen Schwankungen, so zeichnet sich das Muster von ElNinos (hier örtlich geringerer Wasserstand) und LaNinas (höherer Wasserstand) ab. Was also bleibt übrig von den Klimawandel- Horrorstories in Verbindung mit den Fiji-Inseln? Im Artikel kommt eine heute 40-jährige Frau zu Worte die in ihrer Jugend (also um 1990) das Wasser als Freund kennenlernte und heute (2017) ist es ein Feind. Was doch netto ca. 8 cm Pegelerhöhung (nicht die oft zitierten 17 cm, das war 2011/12 durch eine starke LaNina erzeugt) in 27 Jahren so anrichten sollen, bei Wellen von 3m Höhe! Der Klimawandelbeitrag zur Erosion der Insel ist sicher von den Einwohnern kaum bemerkbar. Zur Öffentlichkeitsarbeit scheint er sich jedoch glänzend zu eignen um Geld einzusammeln.

 

University of Arizona: Eklatante Diskrepanzen zwischen Simulation und Realität bei der Temperaturentwicklung der Tropen

Der El Nino in den beiden letzten Jahren hat die globale Temperatur nach oben schnellen lassen. Mittlerweile sind die Werte aber wieder auf Normalniveau abgesunken. Die nächsten Monate werden jetzt spannend. Denn offenbar ist eine La Nina im Anmarsch, wie mehrere Vorhersagestellen (z.B. Australischer Wetterdienst, Columbia University) übereinstimmend melden. Der australische Wetterdienst meldete am 8. November 2017:

The ENSO Outlook remains at La Niña WATCH. This means the chance of a La Niña forming in late 2017 is around 50%; twice the normal likelihood. In the last fortnight, cooling of sea surface temperatures in the tropical Pacific has stalled, however climate models indicate further cooling is likely in the coming months. Atmospheric indicators are also showing a slight shift towards a weak La Niña-like state. A La Niña WATCH is not a guarantee that La Niña will occur; it is an indication that some typical precursors of an event are in place. Climate models suggest that if an event does occur this year, it is likely to be weak and short-lived. Bureau climatologists will continue to closely monitor developments in the tropical Pacific over the next fortnight. Further information on the current status of ENSO can be found in the ENSO Wrap-Up, linked below.

Falls die La Nina wirklich kommt, werden die globalen Temperaturen noch einmal kräftig abstürzen. Vielleicht wird sich auch der Hiatus wieder einstellen, sollte die kürzliche El Nino-Spitze komplett durch die La Nina ausgeglichen werden.Es könnte durchaus passieren, dass die Temperaturen demnächst aus dem unteren Vorhersageband der CIMP5-Klimamodelle herauslaufen.

Abbildung: Vergleich von Modell (schwarz/grau) und Messwerten (GISS). Quelle: Gavin Schmidt via WUWT

————————-

Einer unser Hauptkritikpunkte in der Klimadebatte ist die schlechte Leistung der Klimamodelle in der historischen Rückschau, auch Hindcast genannt. Realität und Simulation klaffen einfach zu stark auseinander, was die Vorhersagekraft der Computermodelle massiv untergräbt. Am 17. Oktober 2017 erschien im Journal of Climate eine Studie zu diesem Thema von Parsons und Kollegen. Beim Regen beobachten die Forscher “Weißes Rauschen”, während sie bei der Temperatur in den Tropen eklatante Unterschiede zwischen Modellen und Messwerten finden. Eine Nullnummer. Hier der Abstract:

Temperature and Precipitation Variance in CMIP5 Simulations and Paleoclimate Records of the Last Millennium
Accurate assessments of future climate impacts require realistic simulation of interannual–century-scale temperature and precipitation variability. Here, well-constrained paleoclimate data and the latest generation of Earth system model data are used to evaluate the magnitude and spatial consistency of climate variance distributions across interannual to centennial frequencies. It is found that temperature variance generally increases with time scale in patterns that are spatially consistent among models, especially over the mid- and high-latitude oceans. However, precipitation is similar to white noise across much of the globe. When Earth system model variance is compared to variance generated by simple autocorrelation, it is found that tropical temperature variability in Earth system models is difficult to distinguish from variability generated by simple autocorrelation. By contrast, both forced and unforced Earth system models produce variability distinct from a simple autoregressive process over most high-latitude oceans. This new analysis of tropical paleoclimate records suggests that low-frequency variance dominates the temperature spectrum across the tropical Pacific and Indian Oceans, but in many Earth system models, interannual variance dominates the simulated central and eastern tropical Pacific temperature spectrum, regardless of forcing. Tropical Pacific model spectra are compared to spectra from the instrumental record, but the short instrumental record likely cannot provide accurate multidecadal–centennial-scale variance estimates. In the coming decades, both forced and natural patterns of decade–century-scale variability will determine climate-related risks. Underestimating low-frequency temperature and precipitation variability may significantly alter our understanding of the projections of these climate impacts.

————————-

Guter Gedankenanstoß zu schärferem Denken am 27. September 2017 in der Neuen Zürcher Zeitung:

[...] Essayist Pascal Bruckner meint, eine Fehlstellung in der Argumentation zu erkennen. Wenn der Klimawandel vom Menschen gemacht ist, gibt es keine Naturkatastrophen mehr. «Tsunamis, Erdbeben, Wirbelstürme wären dann nämlich alle oder zumindest fast alle vom Menschen verursacht.» «Obwohl kein Wissenschafter den Zusammenhang zwischen der Klimaerwärmung und den schrecklichen Unwettern in den USA wirklich erhärten kann, tut man so, als ob alles miteinander zusammenhinge. Als ob die Hypothese, dass alles mit allem verbunden ist, die einzige wäre, nach der wir unser Handeln ausrichten könnten und also müssten.» [...]

Es geht dabei um diesen lesenwerten Essay in der NZZ von Pascal Bruckner:

Der Mensch, das grössenwahnsinnige Tier

Die Erde erwärmt sich, die Natur tobt. Und wir tun so, als könnten wir alles wiedergutmachen, was wir verursacht haben.

Der Klimawandel ist eine Tatsache. Aber muss man daraus nun auch noch eine Glaubenssache machen? Muss man in ihm die letzte Ursache aller Probleme auf unserem Planeten sehen, von den Naturkatastrophen bis zum Terrorismus? Vor der Versammlung der G-20 im Juli brachte Präsident Macron den Jihadismus mit der Erderwärmung in Verbindung – als ob ein Temperaturanstieg von ein paar Grad Menschen zu Kriminellen machen könnte. Wäre Hitler demnach das Resultat der glühend heissen Sommer, die Deutschland in den dreissiger Jahren erlebte? Stalin das Ergebnis der Schneestürme, die zur gleichen Zeit Russland heimsuchten und Pol Pot die Frucht der ausserordentlichen Monsune im Kambodscha der siebziger Jahre?

Unbedingt weiterlesen in der NZZ

 

 

 

Studie der University of Wollongong: Medien schweigen sich zu relativierenden Ergebnissen beim Klimawandel aus

Im Juni 2017 erschien im Fachblatt Asia Pacific Media Educator eine Publikation des Medienwissenschaftlers David Blackall, in der er die Berichterstattung zu Klimawandelthemen unter die Lupe nimmt, die auf den ersten Blick eher entwarnend wirken. Anhand von Publikationen zur globalen Temperatur, zum australischen Meeresspiegel und Insider-Kritik aus den Reihen der NOAA zeigt Blackall auf, dass unbequeme Themen von den Medien in der Regel nicht berichtet, also totgeschwiegen werden. Auf diese Weise entstehe eine unerträgliche inhaltliche Schieflage, die den wahren wissenschaftlichen Verhältnissen nicht gerecht wird. Hier der Abstract:

Environmental Reporting in a Post Truth World
The science publication Nature Climate Change this year published a study demonstrating Earth this century warmed substantially less than computer-generated climate models predict. Unfortunately for public knowledge, such findings don’t appear in the news. Sea levels too have not been obeying the ‘grand transnational narrative’ of catastrophic global warming. Sea levels around Australia 2011–2012 were measured with the most significant drops in sea levels since measurements began. This phenomenon was due to rainfall over Central Australia, which filled vast inland lakes. It was not predicted in the models, nor was it reported in the news. The 2015–2016 El-Niño, a natural phenomenon, drove sea levels around Indonesia to low levels such that coral reefs were bleaching. The echo chamber of news repeatedly fails to report such phenomena and yet many studies continue to contradict mainstream news discourse. Whistle-blower Dr. John Bates exposed the U.S. National Oceanic Atmospheric Administration (NOAA) when it manipulated data to meet politically predetermined conclusions for the 2015 Paris (Climate) Agreement. This was not reported. Observational scientific analyses and their data sets continue to disagree with much of climate science modelling, and are beginning to suggest that some natural phenomena, which cause variability, may never be identified. 

Siehe auch Bericht zur Arbeit in Quadrant Online und unsere Blogrubrik “Schweigen im Walde“.

——————

Buchempfehlung: Gerd Ganteför, Wir drehen am Klima – na und? (Erlebnis Wissenschaft)

——————

In einer Pressemitteilung berichtet der Wissenschaftsverlag Elsevier über eine neue Studie, die eine Zunahme von Herzproblemen mit sinkenden Temperaturen fand. Kälte ist schlecht fürs Herz!

Higher risk of heart failure in cold weather, study suggests

Could decreases in temperature cause heart failure and death?

An increase in hospitalization and death in elderly patients with heart failure could be associated with changes in temperature and atmospheric pressure, according to a new study in Environment International. The authors of the study say elderly with heart failure should avoid fog and low cloud in the winter as a preventive measure. Previous research has shown that changes in the weather can affect the health of vulnerable people – for example, heat waves and cold spells have been shown to increase disease and even lead to death in people from low-income neighborhoods. The new study, led by researchers at Université Laval and Université de Sherbrooke in Quebec, Canada, reveals the impact of changes in temperature and air pressure on heart failure patients.

“We know that doctors rarely take the weather forecast into account when treating or making recommendations to heart failure patients,” said Prof. Pierre Gosselin, lead author of the study from Universitié Laval in Canada. “So with the extreme differences in temperature due to climate change, we wanted to show how the weather is becoming a more relevant factor. Our study shows that exposure to cold or high-pressure weather could trigger events leading to hospitalization or death in heart failure patients.” Treating heart failure patients is expensive: according to the Institut Canadien d’Information sur la Santé, people over 65 accounted for 78 percent of patients with the most expensive hospitalization costs per diagnosis between 2011 and 2012 in Canada. Of these, the cost of heart failure ranked third and was estimated at CAN$276 million.

In the new study, the team assessed 112,793 people aged 65 years and older that had been diagnosed with heart failure in Quebec between 2001 and 2011. Patients with heart failure were identified in the Quebec Integrated Chronic Disease Surveillance System (QICDSS) database using the International Classification of Diseases (ICD). The participants were followed for an average of 635 days. During this time, the researchers measured the mean temperature, relative humidity, atmospheric pressure and air pollutants in the surrounding environment and studied the data to see if there was an association. The results showed a higher risk of hospitalization or death in the winter period of the year (October to April) compared to the summer period (May to September). The researchers noticed that the risk to experience hospitalization or death of heart failure cause was increased of 0.7 percent for every 1°C decrease in the mean temperature of the previous seven days. They also found that the risk of heart failure incident increased by 4.5 percent for each increase of 1 kPa in atmospheric pressure. In other words, a drop of 10°C in the average temperature over seven days, which is common in several countries because of seasonal variations, is associated with an increased risk in being hospitalized or dying of heart failure of about 7 percent in people aged over 65 diagnosed with the disease..

During the follow-up period, 21,157 heart failure events occurred, representing 18.7 percent of the people studied. In total, 18,309 people were hospitalized and 4,297 died. In some cases, hospitalization and death occurred the same day. The researchers calculated this to 0.03 percent of patients experiencing an incident per day, which extends to about 1500 hospitalizations or deaths over a 10-year period, or 150 events per year.  Prof. Gosselin and the team suggest that elderly with heart failure should be given support and access to preventive measures, especially since managing heart failure is expensive for society. He commented: “Our study suggests that exposure to cold or high-pressure weather could trigger events leading to hospitalization or death in heart failure patients. This means that they should avoid exposure to fog and low cloud weather in winter as they often accompany high pressure systems.”

Bibliographische Angaben: The article is “Effects of climate and fine particulate matter on hospitalizations and deaths for heart failure in elderly: A population-based cohort study,” by P. Gosselin (http://dx.doi.org/10.1016/j.envint.2017.06.001). It appears in Environmental International, volume 106, issue 257-266 (2017), published by Elsevier.

 

Pyrenäen-Studie kritisiert Klimamodellierungen: Simulationen unterschätzen vorindustrielle Wärme signifikant

Im Juli 2017 erschien im Journal of Climate ein Paper von Ulf Büntgen und Kollegen, in der sie anhand von Baumringen die sommerliche Temperaturentwicklung der spanischen Pyrenäen rekonstruierten. Die Datenreihe beginnt bei etwa 1200 n. Chr. und findet sofort eine Warmperiode, die bis 1400 n. Chr. andauert. Für die 1970er Jahre rekonstruierten die Wissenschaftler eine markante Abkühlung, gefolgt von einer Erwärmung, die sich nach 2003 abschwächt. Büntgen und Coautoren verglichen die Ergebnisse mit Modellierungen und bemängeln, dass die Simulationen die vorindustriellen Temperaturspitzen signifikant unterschätzen, während sie die moderne Erwärmung des 20. und 21. Jahrhunderts stark überschätzen. Hier der Abstract:

New Tree-Ring Evidence from the Pyrenees Reveals Western Mediterranean Climate Variability since Medieval Times
Paleoclimatic evidence is necessary to place the current warming and drying of the western Mediterranean basin in a long-term perspective of natural climate variability. Annually resolved and absolutely dated temperature proxies south of the European Alps that extend back into medieval times are, however, mainly limited to measurements of maximum latewood density (MXD) from high-elevation conifers. Here, the authors present the world’s best replicated MXD site chronology of 414 living and relict Pinus uncinata trees found >2200 m above mean sea level (MSL) in the Spanish central Pyrenees. This composite record correlates significantly (p ≤ 0.01) with May–June and August–September mean temperatures over most of the Iberian Peninsula and northern Africa (r = 0.72; 1950–2014). Spanning the period 1186–2014 of the Common Era (CE), the new reconstruction reveals overall warmer conditions around 1200 and 1400, and again after around 1850. The coldest reconstructed summer in 1258 (−4.4°C compared to 1961–90) followed the largest known volcanic eruption of the CE. The twentieth century is characterized by pronounced summer cooling in the 1970s, subsequently rising temperatures until 2003, and a slowdown of warming afterward. Little agreement is found with climate model simulations that consistently overestimate recent summer warming and underestimate preindustrial temperature changes. Interannual–multidecadal covariability with regional hydroclimate includes summer pluvials after large volcanic eruptions. This study demonstrates the relevance of updating MXD-based temperature reconstructions, not only back in time but also toward the present, and emphasizes the importance of comparing temperature and hydroclimatic proxies, as well as model simulations for understanding regional climate dynamics.

———————

Suchen Sie schon nach Weihnachstgeschenken? Dann könnte Sie dieses Buch eventuell interessieren:  Eisbären Fakten und Mythen: Eine wissenschaftliche Zusammenfassung für alle Altersgruppen:

———————

Wie hat man im Mittelalter seine Kritiker Mundtot gemacht? Man hat Ihnen einfach die Zunge abgeschnitten. Aber auch im 21. Jahrhundert macht man es kaum anders. Man greift Kritiker einfach persönlch an, schließt sie aus den illustren Kreisen aus und macht sie lächerlich. Ater Methoden in neuer Tracht. Alfred Brandenberger hat die Beispiele aus den Klimawissenschaften gesammelt:

 

Zeit: Die Mär von den 200.000.000 Klimaflüchtlingen

 

Wir sind es gewohnt, dass Klimaktivisten maßlos übertreiben, um mit Schockerzahlen auf Menschenfang zu gehen. Wir sind es ebenso gewohnt, dass Zeitungen diese fragwürdigen Aussagen eins zu eins ungeprüft nachdrucken, in der Annahme, dies würde dem Guten nutzen. Umso überraschender ist jetzt ein Gastkommentar in der Zeit von Steffen Bauer und Benjamin Schraven, der am 8. November 2017 erstmals verrückte Zahlen in Frage stellt und auf Plausibilität prüft. Ist damit das Ende der uneingeschränkten Klimanarrenzeit eingeläutet? Hier der Beitrag:

Die Mär von den 200.000.000 Klimaflüchtlingen
Der Klimawandel nimmt gerade den Armen die Lebensgrundlage. Aber treibt er wirklich so viele Menschen in die Flucht? Die Behauptung lässt sich kaum belegen. [...] der Stifter des Alternativen Nobelpreises, Jakob von Uexküll, warf jüngst die Frage auf, wie Europa mit 200 Millionen Klimaflüchtlingen umgehen solle, wenn es schon mit einer Million Kriegsflüchtlingen nicht klarkomme.
Doch die Gleichung “je mehr Klimawandel, desto mehr Migration” geht nicht auf. Denn Migrationsentscheidungen sind sehr komplex. Sie werden nicht nur durch die Folgen von Klimaveränderungen beeinflusst, etwa durch Ernteausfälle infolge veränderter Niederschlagsmuster, sondern auch von vielen anderen Faktoren politischer, wirtschaftlicher oder kultureller Natur.

Weiterlesen auf zeit.de

——————

Im September 2017 erschien im Fachblatt Scientometrics ein Artikel von Ferenc Jankó und Kollegen, in dem sie die Literaturzitate der letzten beiden IPCC-Berichte mit denen der klimaskeptischen NIPCC-Berichte verglichen. Dabei fanden sie eine ähnliche Auswahl von Zeitschriften aus denen die Artikel stammten. Allerdings gab es bei den Papers selber kaum eine Schnittmenge. Offenbar führen beide Gruppe ganz unterschiedliche begutachtete Publikationen an. Jankó und Kollegen sehen hier ein wichtige Aufgabe für die Zukunft: Weshalb zitiert der IPCC-Bericht die vom NIPCC angeführten Arbeiten nicht, und andersherum? Eine weitere Beobachtung war die Fokussierung des IPCC auf Modellierungen, während der NIPCC die Klimageschichte in den Vordergrund rückte. Die Klärung der Gründe für diese Zitatdiskrepanz würde die Klimadebatte vorantreiben, erklären die Autoren. Hier der Abstract:

Is climate change controversy good for science? IPCC and contrarian reports in the light of bibliometrics
Debate and controversy concerning the issue of climate change generally results in the hindering and obstruction of social and governmental action on this issue. This paper analyses the scientific background, i.e. the reference list of the IPCC Fifth Assessment Report “The Physical Science Basis” and an alternative climate change report of a US think tank institute “Climate Change Reconsidered II. Physical Science”. We compared these two reports to the antecedent reports from 2007 (IPCC AR4 WGI) and 2009 (Climate Change Reconsidered). For the purposes of the study, we developed a database containing all the references collected from the four reports. The bibliometric analysis focused on the distribution of references among peer reviewed scientific journals and the most frequently cited lead authors that created the basis for the evaluation of their different scientific emphasis. Our findings underline that there is still no convergence between the scientific literature of the IPCC and the contrarian reports; however, the remarkable quantitative development on both sides and the qualitative progress of the IPCC report allows us to draw somewhat surprising conclusions in the context of climate change science. Contrary to expectations, controversy is beneficial to the science of climate change as it fosters the review process on both sides of the debate.

Es ist erfreulich, dass die NIPCC-Berichte von der Forschung wahrgenommen werden und zu Vergeleichsuntersuchungen Anlass geben. Zu den Kapitel-Leitautoren des NIPCC-Berichts 2013 gehört übrigens auch Sebastian Lüning.

——————

Mitte 2016 erschien in WIREs Climate Change ein Paper von Philip Slavin. Darin stellt er den Automatismus zwischen Extremwetter und Hungersnöten in Frage. Extremwetter wie etwa Dürren würden zunächst zu einer Verknappung von Lebensmitteln führen, die nur bei Mißmanagement und ungünstiger Demographie zu Hungersnöten wird. Klima alleine kann nicht zu Hungersnötrn führen, vermutet Slavin. Abstract:

Climate and famines: a historical reassessment
This study, dealing with the question of the impact of climate and extreme weather events on famines, has two objectives. The first objective is to review recent literature on the topic, distinguishing between economic and political science papers aimed at addressing contemporary famine events in the Third World countries, and historical research dealing with famines of the past. The former category of literature is characterized by a tendency to take the connection between the two variables for granted. The latter category, however, tends to exercise more analytical caution, but it still exhibits a degree of environmental determinism. The second objective of the article is to reassess the role and impact of climate and short-term weather anomalies on famines in pre-Industrial societies, in both European and non-European history. At first, it appears that famines went invariably hand-in-hand with climatic changes and anomalies. A closer analysis, however, reveals that those climatic events created environmental shocks (harvest failures and blights), which implied shortages, rather than famines. Whether those shortages were bound to transform into full-fledged famines was determined by nonenvironmental factors: primarily, human institutions and demographic trends. Climate alone, it is argued, is incapable of creating famines. The often unquestioned connection between the two variables appears to be an imaginary cultural and political construct of our era, when the fear of global warming and the awareness of climate change dominate the public and scholarly discourse.

 

 

 

Überraschung: Oberfläche des Schwarzen Meeres hat sich in den vergangenen 50 Jahren nicht erwärmt

Am 15. September 2017 überraschte die Europäische Kommission mit einer erfreulichen Nachricht zum Schwarzen Meer: Sein Oberflächenwasser hat sich in den letzten 50 Jahren nicht erwärmt. Eine Studie konnte jetzt keinen Trend in der Temperaturentwicklung feststellen:

Black Sea water temperatures may buck global trend

Average surface temperatures of the Black Sea may not have risen, according to the surprising results of a new study from the JRC. The study used a model to simulate possible temperature changes and predict long term trends in the Black Sea’s hydrodynamics. While the surface showed no long term warming trend, the same simulations also indicated that average temperatures at 50 metres below the surface may be rising. The Black Sea has unique natural conditions like a positive net freshwater balance and very specific local currents. Observational data on temperature change is varied and scarce. As such it is not clear what the impacts of climate change have been on Black Sea water temperatures. The Sea has undergone significant ecological degradation since the 1970s, due largely to pollution, overfishing and natural climatic variations. Mapping trends in its ecosystem and simulating future scenarios is vital to understand how the Sea’s properties may develop in the future as a result of climate change and policy decisions.

Main findings

The simulations in this study, covering five decades, show no significant long-term trend in the Black Sea’s average surface water temperature. This lack of a trend is an entirely new result based on a long term simulation that had not previously been successfully conducted. The simulation was run for the full period from 1960 – 2015 and the results were checked against known data, both from satellite information available over the last twenty years and less complete data from earlier decades.

Prior to the completion of this study, scientists had relied on sparse surface temperature data from ship cruises to understand the Sea’s properties in the earlier decades. However, the few data points that do exist for this period have not been enough to prove a decisive trend. In fact, in the decade between 1966 and 1975 there is practically no observational data available at all. The results of the simulation, while filling in the gaps, also came as a surprise to scientists who were expecting to see at least some warming trend between 1960 and 2015. The results also come in direct contrast to previous simulations of the nearby Mediterranean Sea, which is getting warmer.

Scientists were also surprised to find a significant decreasing trend in surface salt content of 0.02 % per year, again in direct contrast to the increasing surface salinity found in the Mediterranean. The simulations found no individual correlation between salinity and wind speed/direction, or indeed with an increase in fresh water input from the many rivers running into the Black Sea. This suggests that combinations of weather conditions are responsible for the trend.

Furthermore, the study identifies three distinct periods in which there was a significant shift in the salt water and temperature properties of the Black Sea – 1960-1970, 1970-1995 and 1995-2015. This may be related to changes in the Sea’s currents, as the periods were also characterised by significant changes from a weak and disintegrated current circulation in the first period, to a strong main ‘Rim Current’ circulation in the second and third periods. Over the full simulation period, the strengthening of this circulation can be seen, accompanied by intensified formation of small, localised eddies running against the current.

The bigger picture

The Earth is getting warmer, but this isn’t happening uniformly across the planet and some regions are heating faster than others. So whilst the Black Sea might not be strongly affected, this is likely compensated by other regions which are warming at a faster rate than the globe as a whole. For example, the sea-surface waters near Texas when Hurricane Harvey roared toward Houston were among the Earth’s warmest. While it might sound like good news that there has been no long-term increase in the surface water temperatures of the Black Sea, this does not mean that it is unaffected by global warming. These effects may be hidden or mitigated by the fact that air temperature in the region is warming. Indeed, the study also looked at average temperature trends at specific depths and found a positive trend at 50 metres below the surface, which suggests a warming of the deeper waters prior to the surface layer.

Background

Several unique natural conditions of the Black Sea are well known: the so-called ‘Rim Current’ of strong water circulation around the perimeter of the Sea; the Cold Intermediate Layer (CIL) of waters below surface level; and the high level of anoxic water, which makes up over 90% of the basin’s deep water volume. However, current knowledge about the spatial and temporal dynamics of the Black Sea’s salt content and temperature characteristics is far more limited, due to a lack of data and sparse distribution of existing measurements. With this knowledge gap in mind, researchers at the JRC sought to develop a model able to reproduce the Black Sea’s temperature and salt-water content over the long term. During the study, carried out as part of the EU’s Scenario simulations of the changing Black Sea ecosystem (SIMSEA) project, continuous simulations covering the period 1960-2015 were performed. The researchers used a high-resolution General Estuarine Transport Model (GETM) with specific equations designed to accurately reproduce the main physical features of the Black Sea without relying on scarce observational and climatological data. The study is the first successful Black Sea model based on GETM and has been published in the Journal of Geophysical Research. The successful validation and long-term application of the model used will be incorporated into future forecasts and simulations.

 

Scripps Institution of Oceanography: Risiko des Auftretens einer Klimakatastrophe beträgt 5%

Die Klimakatastrophe steht vor der Tür, und wir sind die Schudigen. So wird es uns im penetranten Predigtton von den Medienprotagonisten täglich erzählt. In der Times of San Diego hat am 15. September 2017 nun ein Forscher versucht, das Zerrbild vorsichtig gerade zu rücken.

Scripps: 5% Chance of ‘Catastrophic’ Global Warming by Century’s End
A new study by Scripps Institution of Oceanography finds a 5 percent chance that rapid global warming will be “catastrophic” or worse for the human race. The study led by Veerabhadran “Ram” Ramanathan, a distinguished professor of climate and atmospheric sciences and adviser to Pope Francis, found that an average global temperature increase greater than 3 degrees centigrade could result in “catastrophic” — and over 5 degrees “existential” — threat to humanity. These categories describe two low-probability but statistically significant scenarios that could play out by the century’s end according to an analysis of different models of global warming by Ramanathan and Yangyang Xu of Texas A&M University. “When we say 5 percent-probability high-impact event, people may dismiss it as small but it is equivalent to a one-in-20 chance the plane you are about to board will crash,” said Ramanathan. “We would never get on that plane with a one-in-20 chance of it coming down but we are willing to send our children and grandchildren on that plane.”

Weiterlesen in der Times of San Diego

———————

Vor kurzem erschien GWPF-Report 26, in dem Anastasios Tsonis auf 20 Seiten den El Nino beleuchtet. Das pdf gibt es hier.

———————

Der Oktober 2017 in Deutschland war mild. Darüber sollte man sich freuen. Im Kontext der letzten 20 Jahre war die kleine Wärmespitze jedoch nichts Besonderes.

 

Abbildung: Entwicklung der Oktober-Temperaturen in Deutschland ab 1995. Graphik: Josef Kowatsch. Daten: DWD.