US-Forscher schlagen Alarm: Klimamodelle versagen kläglich bei der Simulation der Kleinen Eiszeit

Im letzten Jahr (2017) erschien das US-amerikanische Gegenstück zum IPCC-Bericht, das Fourth National Climate Assessment, kurz NCA4. Dieser Bericht fokussiert auf die USA, behandelt aber am Rande auch das Weltklima als Kontextinformation. Zunächst hatte man befürchtet, dass Präsident Trump das Erscheinen des Berichts verhindern könnte. Die Befürchtungen waren letztendlich unbegründet, so dass der Bericht Ende 2017 veröffentlicht werden konnte. Die Arbeit ist im Internet frei einsehbar und die Kapitel als pdf herunterladbar.

Die Wenigsten Politiker, Aktivisten und Bürger werden sich die Mühe gemacht haben, und den Bericht gelesen haben, selbst auszugsweise. Wir möchten Sie ermutigen, es trotzdem zu tun. Denn dabei stößt man auf die eine oder andere wichtige Information der Wissenschaftler. Gehen wir z.B. in Kapitel 3. Im Abschnitt  3.2 “Detection and Attribution of Global Temperature Changes” geht es um die Kleine Eiszeit, eine natürliche Kältephase im 15.-19. Jahrhundert. Damals kühlten die Temperaturen so stark ab wie kaum zuvor in den letzten 10.000 Jahren. All dies geschah in vorindustrieller Zeit, als anthropogene Treibhaus noch keine Rolle spielten. Was hat die Kälte der Kleinen Eiszeit verursacht? Wir lesen im NCA4:

Schurer et al. use detection and attribution fingerprinting methods along with paleoclimate reconstructions and millennial-scale climate model simulations from eight models to explore causes for temperature variations from 850 AD to the present, including the Medieval Climate Anomaly (MCA, around 900 to 1200 AD) and the Little Ice Age (LIA, around 1450 to 1800 AD). They conclude that solar variability and volcanic eruptions were the main causal factors for changes in Northern Hemisphere temperatures from 1400 to 1900, but that greenhouse gas changes of uncertain origin apparently contributed to the cool conditions during 1600–1800. Their study provides further support for previous IPCC report conclusions (e.g., IPCC 2007 ) that internal variability alone was extremely unlikely to have been the cause of the recent observed 50- and 100-year warming trends. Andres and Peltier also inferred from millennial-scale climate model simulations that volcanoes, solar variability, greenhouse gases, and orbital variations all contributed significantly to the transition from the MCA to the LIA.

Man räut ein, dass die schwache Sonne eine Hauptrolle spielt. Dazu gesellt man noch die Vulkanausbrüche, deren Ausbruchsmuster aber gar nicht zum detaillierten Temperaturverlauf passt. Dann schreiben die NCA4-Autoren etwas ganz Sonderbares: Eine Mitursache der Kleinen Eiszeit seien Änderungen bei den Treibhausgasen unbekannter Herkunft. Offenbar bekommen die Modelle das volle Ausmaß der Abkühlung der Kleinen Eiszeit nicht hin, so dass man einfach noch die Treibhausgase in den Simulationen reduzieren muss, um die Kälte zu reproduzieren. Ein ungeheuerlicher Trick, denn aus den Eiskernen wissen wir, dass die CO2-Konzentration in vorindustrieller Zeit während der letzten 10.00 Jahre kaum schwankte. Wenn man die Klimawirkung der Sonne in seiner Bedeutung hochschrauben würde, wäre das Problem vermutlich gelöst. Aber das möchte man nicht, denn dann würde die Sonne auch im 20. Jahrhundert eine viel wichtigere Rolle beim Klimageschehen einnehmen.

Der NCA4-Bericht räumt also unumwunden ein, dass die Modelle die Kleine Eiszeit nur mit unbekannten Zauberfaktoren simulieren können. Das Versagen der Modelle während der letzten Jahrhunderte müsste eigentlich ernste Konsequenzen haben: Sie dürften für Zukunftsmodellierungen gar nicht verwendet werden, da die Rückwärtkalibrierung nicht gelingt. Fahren ohne Führerschein. Wo ist die Klimapolizei?

 

Meerestiere folgen seit Jahrmillionen ihrem bevorzugten Klima

Pressemitteilung der Friedrich-Alexander-Universität Erlangen-Nürnberg vom 8. Mai 2018:

———-

Meerestiere folgen seit Jahrmillionen ihrem bevorzugten Klima

Die gegenwärtige globale Erwärmung hat weitreichende ökologische Auswirkungen, auch auf die Weltmeere. Die Wanderung vieler Meeresorganismen in Richtung der Pole ist eine klare Antwort darauf. Wissenschaftler des Geozentrums Nordbayern der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben nun herausgefunden, dass die Tiere schon seit Jahrmillionen auf Wanderschaft gehen, wenn die Temperatur auf der Erde steigt oder sinkt.

Meerestiere folgen veränderten Temperaturzonen zu Polen oder Äquator

Die meisten Lebewesen auf der Erde haben sich in ökologischen Nischen eingerichtet und bevorzugen daher – neben anderen Faktoren – auch eine bestimmte Temperatur ihres Lebensraums. Meerestiere brauchen für ihren Stoffwechsel entweder wärmeres Wasser, wie tropische Arten, oder kälteres Wasser, wie Tiere, die von einem höheren Sauerstoffgehalt abhängig sind. Sie wandern deshalb in Richtung der Pole oder des Äquators, sobald sich die Temperatur ändert – und das schon seit Millionen von Jahren. „Die Geschwindkeit des Klimawandels war scheinbar noch nie so hoch wie heute, aber auch in der Vergangenheit gab es rapide Klimaveränderungen, auf die Organismen mit Migration reagieren mussten um nicht auszusterben – Anpassung war eher die Ausnahme“, betont Prof. Wolfgang Kießling, Inhaber des Lehrstuhls für Paläoumwelt.

Seine gemeinsamen Forschungen mit Dr. Carl Reddin, ebenfalls am Geozentrum Nordbayern, haben anhand von Fossilien gezeigt, dass zum Beispiel Korallen, Muscheln und Schwämme schon seit einer halben Milliarde Jahre ihrer bevorzugten Wärme- oder Kältelinie folgen. Denn sobald die globale Temperatur steigt oder sinkt, verschieben sich die Isotherme, also die geografische Linien für beispielsweise 20°C, Richtung Pole oder Äquator. In der heutigen Zeit sind die Isotherme wegen der Erderwärmung seit Jahren polwärts in Bewegung.

Tropische Tiere zeigen die Tendenz zur klimabedingten Migration am deutlichsten. Das mag daran liegen, dass viele von ihnen nahe am thermischen Maximum für komplexe Tiere von 35-45°C leben. Aktuelle Erwärmungstendenzen treiben tropische Tiere vermutlich polwärts, vorausgesetzt, es gibt für sie einen passenden Lebensraum, zu dem sie wandern können.

Wandel in der Verbreitung der Arten führt auf die Spur des Klimawandels

Doch wie kamen die Paläobiologen den vorzeitlichen Wanderungsbewegungen auf die Spur? Sie bestimmten zunächst die geografischen Koordinaten des Gebiets, wo die Fossilien damals lebend vorkamen: Mit einem Modell ermittelten sie die Bewegung der tektonischen Platten zurück in die Zeit, in der die Tiere lebten, und kombinierten die Ergebnisse mit den aktuellen Koordinaten des jeweiligen Fundorts der fossilen Proben. Nun konnten sie die Entwicklung der fossilen Artenzusammensetzung im Laufe von langen Zeiträumen nachvollziehen. Dabei griffen die Wissenschaftler auf eine weltweit vernetzte Datenbank mit allen jemals gefundenen Fossilien zurück, die sie selber mit aufgebaut haben.

Die Ergebnisse haben auch eine Bedeutung für die Gegenwart: So erwarten Wolfgang Kießling und Carl Reddin, dass die derzeitigen Verschiebungen vor allem tropische Arten betreffen, wo letztlich ein deutlicher Rückgang von Arten zu erwarten ist. Die bisherigen Beobachtungen sind weitgehend auf mittlere Breiten begrenzt, wo Migrationen bereits allgegenwärtig sind.

Das Paper ist online verfügbar: https://onlinelibrary.wiley.com/doi/full/10.1111/geb.12732

 

Unrühmliche Dieselstudie des Umweltbundesamtes bringt es zur “Unstatistik des Monats”

Deutsche Welle am 24. April 2018:

Klimawandel: Steht die Wasserkraft vor dem Aus?
Wasser ist die größte Quelle für erneuerbare Energie. Starke Dürreperioden sorgen aber immer wieder dafür, dass einigen Wasserkraftwerken das Wasser ausgeht. Welche Rolle spielt dabei der Klimawandel?

Weiterlesen bei der Deutschen Welle

Verdrängt wird offenbar, dass auch das Hydroklima zyklischen natürlichen Schwankungen unterliegt. Nicht jede beobachtete Änderung kann langfristig in die Zukunft extrapoliert werden.

——————-

Die mittlerweile berühmt-berüchtigte Dieselstudie des Umweltbundesamtes hat es am 28. März 2018 zur “Unstatistik des Monats März” gebracht, die vom RWI – Leibniz-Institut für Wirtschaftsforschung herausgegeben wird. Autoren: Der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas K. Bauer:

Diesel, Stickstoff und 6000 Tote
Die Unstatistik März 2018 sind die 6000 angeblichen Stickstofftoten im Jahr 2014 in Deutschland. Eine Studie, die im Auftrag des Umweltbundesamtes erstellt wurde, will herausgefunden haben, dass 5996 Bundesbürger an Herz-Kreislauf-Krankheiten vorzeitig verstorben seien, die sie sich durch NO2-Belastung zugezogen hätten. Die methodischen und konzeptionellen Mängel dieser Studie wurden schon an anderer Stelle kritisiert, unter anderem bei „Spiegel online“ und welt.de, sowie kabarettistisch aufgespießt bei „Nuhr im Ersten“ in der ARD (ab Sendeminute 24:40). Die Zahl 6000 ist das Produkt einer reinen Modellrechnung; es gibt zwar die Vermutung, aber keinen Nachweis, dass NOx zum Tod durch Herz-Kreislauf-Erkrankungen führt. Kaum ein Arzt hat bisher die NOx-Belastung als Todesursache angegeben.

Weiterlesen beim RWI

Hierzu auch ein Interview mit Walter Krämer in der WAZ vom 13. März 2018:

„Es ist Panikmache, von Tausenden Abgas-Toten zu sprechen“
Auch in Essen drohen Diesel-Verbote. Statistik-Professor Walter Krämer über unseriöse Studien, willkürliche Grenzwerte und ideologische Kämpfe.

Der Dortmunder Statistik-Professor Walter Krämer ist seit vielen Jahren ein Streiter gegen die unsachgemäße, ideologisch geprägte Verwendung von Statistiken, wobei er neben Politik, Medien und Lobbygruppen auch interessegeleitete Wissenschaftler angreift. Besonders erbost ihn die derzeitige Debatte über fiktive Tote aufgrund von Diesel-Abgasen, die auch in Essen dazu führt, dass Fahrverbote bald möglich erscheinen.

Weiterlesen in der WAZ

———————

Die Klimarevolution frisst ihre Kinder. Nach Jahren des Alarmschlagens sind einige Klimakämpfer nun nahe am Zusammenbruch. Trauriges Beispiel Eric Holthaus. Er wollte ursprünglich gar keine Kinder, weil er damit dachte, das Klima am besten zu schützen. Dann bekam er doch welche. Dann trennte er sich offenbar von seiner Frau, was natürlich auch nicht gerade gut für das Klima ist, wenn man plötzlich wieder einen doppelten Haushalt führen muss. Jetzt wurde bekannt, dass er nachts wegen schlechter Klimagedanken nicht mehr schlafen könne und ärztliche Hilfe benötigt. Wie konnte es soweit kommen? Vielleicht sollte sich der beklagenswerte Mann einmal gründlich mit der vorindustriellen Klimageschichte beschäftigen. Danach ist er vielleicht geheilt. Jetzt wird sich der eine oder andere fragen, woher wir das alles wissen. Plaudern wir Geheimnisse aus? Nein, kann man heutzutage alles auf Twitter und Co. lesen. Einige können einfach nicht ihre Finger vom Handy lassen. WUWT hat die Tweets aufgefangen, hier und hier.

 

Lake Superior: Quelle oder Puffer von CO2?

Die Welt am 8. Mai 2018:

Es wäre ehrlicher, sich von den Klimazielen völlig zu verabschieden
Energiewende und Klimaschutz gehören nicht zu den Prioritäten der Regierung. Erreichbar sind ihre 2030er-Klimaziele nur, wenn wir sofort gezwungen werden, jeden Kessel, Ofen, Motor stillzulegen. Völlig illusorisch. Es bleibt eine einzige Hoffnung.

Weterlesen in der Welt.

———————

Deutscher Arbeitgeberverband am 24. April 2018:

Klimawissenschaftliche Abstimmung mit den Füßen
In Europa herrscht ein breiter Konsens darüber, dass Kohlekraftwerke so bald wie möglich abgeschaltet werden sollten. Hintergrund ist die Furcht vor sich änderndem Wetter infolge eines Anstiegs an Kohlendioxid in der Atmosphäre. In Asien wird diese Furcht ganz offensichtlich nicht geteilt. 2.000 Kohlekraftwerke sollen in den nächsten Jahren gebaut werden.

Die South China Morning Post berichtete in einem Artikel am 1. April, dass in den nächsten zwanzig Jahren mehr als 1.600 Kohlekraftwerke moderner Bauart in 60 Ländern durch chinesische Firmen gebaut werden sollen. Auch Japan möchte an dem wachsenden Markt für asiatische Kohlekraftwerke teilhaben und nach dem Bericht weitere 400 Kohlekraftwerke bauen und exportieren. In den USA glauben nach einer aktuellen Umfrage 69 Prozent der Republikaner (aber nur 4 Prozent der Demokraten), dass die Furcht vor Klimaveränderungen durch einen Anstieg an Kohlendioxid in der Atmosphäre übertrieben sei, wie eine aktuelle Umfrage des Gallup-Instituts ermittelte.

Weiterlesen beim Deutschen Arbeitgeberverband

———————

Die Welt am 23. April 2018:

Die deutsche Energiewende verliert ihren Risikopuffer
Die Erneuerbaren Energien können sich nicht mehr auf die Absicherung durch konventionelle Kraftwerke verlassen, warnt die Strombranche. Um eine Unterdeckung abzuwenden, müsse die Politik sofort handeln. Ansonsten sei die Netzstabilität nachhaltig gefährdet.

Weiterlesen in der Welt

———————

Großbritannien hat die Anzahl seiner Spezialisten für den Klimawandel im Auswärtigen Amt in den letzten Jahren um ein Viertel reduziert.Offenbar gibt es wichtigere Themen, die es anzugehen gilt.

———————

Der CO2-Kreislauf der Erde wird oft mit bunten Pfeildiagrammen illustriert. Dort stehen dann Werte von CO2-Mengen wie sie von einem System ins andere wechseln. Was die Wenigsten wissen ist, dass das Grundverständnis dieser Prozesse ziemlich mager ist. Die Utah State University veröffentlichte jetzt eine Pressemitteilung (via Science Daily) in der eingeräumt wird, dass man wohl lange nicht einmal das Vorzeichen in gewissen Fällen korrekt verstanden hatte:

Blinded by the light: Climate change, the sun, and Lake Superior

Blinded by the light: How climate change, El Niño, and the sun led us to believe that Lake Superior was a source of CO2 to the atmosphere

Lakes tend to emit carbon dioxide (CO2) to the atmosphere, making them important players in the planet’s natural regulation of its climate. However, the direction of the flow of CO2 between lakes and the atmosphere can be influenced by humans or by natural factors such as rainfall or air temperature. Lake Superior is the largest freshwater lake on the planet, and a number of detailed studies occurring in the late 1990s and early 2000s found that, like most lakes, it was a net source of CO2 to the atmosphere. However, earlier publications described Lake Superior as a sink of atmospheric CO2. Dr. Soren Brothers of the Ecology Center and Watershed Sciences Department at USU analyzed monitoring data of dissolved oxygen concentrations in the lake from the past 50 years. His analysis indicated that in most years the lake absorbs atmospheric CO2 from late May to early October, but then expels CO2 during the winter.

This reanalysis of CO2 fluxes resulted in the publication of Light may have triggered a period of net heterotrophy in Lake Superior in Limnology and Oceanography by Soren Brothers and his co-author Dr. Paul Sibley from the University of Guelph. Their synthesis indicated that a powerful climatic event such as the 1997/98 El Niño, coupled with the effects of climate change, could make Lake Superior a temporary summertime source of CO2 to the atmosphere. Their research demonstrates how the shifting dynamics of CO2 in lakes both contributes to and is affected by climate change. The El Niño of 1997/98 was associated with a strong decline in Lake Superior’s winter ice cover, while climate change had gradually warmed its waters and reduced its cloud cover. A concurrent increase in water clarity resulted in greater light penetration, liberating a portion of the lake’s dissolved organic carbon pool for release into the atmosphere as CO2. Since the early-to-mid 2000s, the lake appears to have returned to a net sink of atmospheric CO2.

As the water characteristics of Lake Superior are in many ways similar to that of some parts of the world’s oceans, Brothers and Sibley suggest that their findings may be relevant to the large global pool of dissolved organic carbon in marine waters. Major implications for potential marine-atmospheric feedbacks exist with future climatic warming.

Paper: Soren Brothers, Paul Sibley. Light may have triggered a period of net heterotrophy in Lake Superior. Limnology and Oceanography, 2018; DOI: 10.1002/lno.10808

 

Bäume verbrauchen zuviel Wasser: Umhauen!

Spiegel Online am 18. April 2018:

Kritik des Bundesrechnungshofs Regierung weiß nicht, was Energiewende kostet
Das Wirtschaftsministerium koordiniert Dutzende Gesetze zur Energiewende. Doch es hat laut Bundesrechnungshof keinen Überblick über deren Kosten. Dabei wird genau das seit mehr als einem Jahr angemahnt.

Weiterlesen auf Spiegel Online

————————–

Die Welt am 17. April 2018:

Altmaier akzeptiert den wahren Zustand der Energiewende
Erstmals hat der neue Bundeswirtschaftsminister zur Energiepolitik gesprochen. Dabei hätte er relativ einfach Applaus einsammeln können. Doch Altmaier verzichtete auf das Erzählen eines alten deutschen Klima-Märchens.

Weiterlesen auf welt.de

————————–

Das Barcelona Institute for Global Health warnte am 25. April 2018 vor Krebsgefahr bei Verwendung von energiesparenden weißen LEDs (via EurekAlert!) :

Study links night exposure to blue light with breast and prostate cancer

Researchers used images taken by astronauts to evaluate outdoor lighting in Madrid and Barcelona

A study performed by an international team led by the Barcelona Institute for Global Health (ISGlobal), a centre supported by the “la Caixa” Foundation, reports a link between exposure to blue light at night and higher risk of developing breast and prostate cancer. Blue light is a range of the visible light spectrum emitted by most white LEDs and many tablet and phone screens. The results have been published in Environmental Health Perspectives.

“WHO’s International Agency for Research on Cancer (IARC) has classified night shift work as probably carcinogenic to humans. There is evidence pointing to an association between exposure to artificial light at night, disruption of the circadian rhythm, and breast and prostate cancers. With this study we sought to determine whether night exposure to light in cities can affect the development of these two types of cancer”, explains Manolis Kogevinas, ISGlobal researcher and coordinator of the study. “We know that depending on its intensity and wave length, artificial light, particularly in the blue spectrum, can decrease melatonin production and secretion”, says Martin Aubé, physics professor at CÉGEP in Sherbrooke, Canada and study co-author.

The study was conducted within the framework of the MCC-Spain project cofunded by the ‘Consorcio de Investigación Biomédica en Red de Epidemiología y Salud Pública’ (CIBERESP), and includes medical and epidemiological data of more than 4,000 people between 20 and 85 years of age in 11 Spanish regions. Indoor exposure to artificial light was determined through personal questionnaires, while outdoor levels of artificial light were evaluated for Madrid and Barcelona, based on nocturnal images taken by astronauts aboard the International Space Station. Results obtained for both cities show that participants exposed to higher levels of blue light had a 1.5 and 2-fold higher risk of developing breast and prostate cancer, respectively, as compared to the less-exposed population.

Ariadna García, ISGlobal researcher and first author of the study, says: “Given the ubiquity of artificial light at night, determining whether it increases or not the risk of cancer is a public health issue”. At this point, further studies should include more individual data using for instance light sensors that allow measuring indoor light levels. It would also be important to do this kind of research in young people that extensively use blue light emitting screens”.

“Currently, the images taken by the astronauts on the Space Station are our only way of determining the colour of outdoor lighting at a large scale, and the spread of blue light-emitting white LEDs in our cities”, comments Alejandro Sánchez de Miguel, scientist at the Astrophysics Institute in Andalucía-CSIC and Exeter University.

Reference: Garcia-Saenz A., Sánchez de Miguel A., Espinosa A., Valentín A., Aragonés N., Llorca J., Amiano P., Martín Sánchez V., Guevara M., Capelo R., Tardón A., Peiró-Pérez R., Jiménez-Moleón JJ., Roca-Barceló A., Pérez-Gómez B., Dierssen-Sotos T., Fernández-Villa T., Moreno-Iribas C., Moreno V., García-Pérez J., Castaño-Vinyals G., Pollán M., Aubé M., Kogevinas M. Evaluating the association between artificial light-at-night exposure and breast and prostate cancer risk in Spain (MCC-Spain study). April 2018. DOI:10.1289/EHP1837. Environmental Health Perspectives

————————–

Kurios: Weil Bäume Wasser brauchen, sollen sie jetzt in einigen Gegenden der Welt umgehauen werden, um die Wasserressourcen zu schonen. Pressemitteilung der US-amerikanischen National Science Foundation (NSF) vom 23. April 2018:

Billions of gallons of water saved by thinning forests

Too many trees in Sierra Nevada forests stress water supplies, scientists say

There are too many trees in Sierra Nevada forests, say scientists affiliated with the National Science Foundation (NSF) Southern Sierra Critical Zone Observatory (CZO). That may come as a surprise to those who see dense, verdant forests as signs of a healthy environment. After all, green is good, right? Not necessarily. When it comes to the number of trees in California forests, bigger isn’t always better. That’s in part because trees use lots of water to carry out basic biological tasks. In addition, they act as forest steam stacks, raking up water stored in the ground and expelling it as vapor into the atmosphere, where it’s accessible to humans and forest ecosystems only when it falls back to Earth as rain and snow.

That process — by which plants emit water through tiny pores in their leaves — is known as evapotranspiration. And according to researchers, excessive evapotranspiration may harm a fragile California water system, especially during prolonged, warm droughts. New research published this week in the journal Ecohydrology shows that water loss from evapotranspiration has decreased significantly over the past three decades. That’s due in large part to wildfire-driven forest thinning — a finding with important implications for forest and water management. A century of forest management had kept wildfires to a minimum. But without fire, Sierra forests grew very dense. In recent decades, new policies have allowed nature to take its course, with wildfires helping to thin out overgrown forests.

“Forest wildfires are often considered disasters,” said Richard Yuretich, director of NSF’s CZO program, which funded the research. “But fire is part of healthy forest ecosystems. By thinning out trees, fires can reduce water stress in forests and ease water shortages during droughts. And by reducing the water used by plants, more rainfall flows into rivers and accumulates in groundwater.” Using data from CZO measurement towers and U.S. Geological Survey satellites, researchers found that over the period 1990 to 2008, fire-thinned forests saved 3.7 billion gallons of water annually in California’s Kings River Basin and a whopping 17 billion gallons of water annually in the American River Basin — water that would otherwise have been lost through evapotranspiration.

Forest thinning has increased in recent decades in an effort to stave off disastrous wildfires fueled by dense forests. This study shows that restoring forests through mechanical thinning or wildfire can also save California billions of gallons of water each year. “The need for forest restoration is being driven largely by the need to lower the risk of high-intensity wildfires and restore forest health,” said University of California Merced scientist Roger Bales, director of the Southern Sierra CZO and study co-author. “Downstream users who benefit from the increased water yield are an important potential revenue stream that can help offset some of the costs of restoration.”

Forested areas needing restoration are large, Bales said, but potential changes in water availability are significant. The total effect of wildfires over a 20-year period suggests that forest thinning could increase water flow from Sierra Nevada watersheds by as much as 10 percent. The U.S. Forest Service says that 6 to 8 of the 21-million acres it manages in California need immediate restoration. Another 58 million acres nationally also require restoration. For California alone, restoration costs are estimated at $5 to $10 billion. But, according to the study authors, the restoration might help pay for itself. “We’ve known for some time that managed forest fires are the only way to restore the majority of overstocked western forests and reduce the risk of catastrophic fires,” said James Roche, a National Park Service hydrologist and lead author of the new study. “We can now add the potential benefit of increased water yield from these watersheds.”

 

2 Jahre globale Abkühlung

Die Website Real Clear Markets behauptete, dass wir soeben Zeuge eine massiven Abkühlung wurden, die sich in den letzten 2 Jahren abgespielt hat:

Did You Know the Greatest Two-Year Global Cooling Event Just Took Place?
Would it surprise you to learn the greatest global two-year cooling event of the last century just occurred? From February 2016 to February 2018 (the latest month available) global average temperatures dropped 0.56°C. You have to go back to 1982-84 for the next biggest two-year drop, 0.47°C—also during the global warming era. All the data in this essay come from GISTEMP Team, 2018: GISS Surface Temperature Analysis (GISTEMP). NASA Goddard Institute for Space Studies (dataset accessed 2018-04-11 at https://data.giss.nasa.gov/gistemp/). This is the standard source used in most journalistic reporting of global average temperatures.

Weiterlesen bei Real Clear Markets

Stimmt das? Haben wor da was verpasst? In der deutschen Zeitung konnte man das jedenfalls nicht lesen. Wir schauen bei Woodfortrees nach:

Abb. 1: Globale Temperaturentwicklung seit 2010 laut GISS-Daten.

 

Potzblitz: Der Artikel hat Recht. Das globale hat sich in den letzten 2 Jahren doch glatt um ein halbes Grad abgekühlt.

————–

Gute Nachrichten aus Amerika. Die Environmental Protection Agency (EPA) wird in Zukunft nur noch Daten verwenden, die öffentlich zur Verfügung gestellt werden. Das bedeutet das Aus für Privatdatensätze, deren Validität unüberprüfbar war. Ein guter Schritt hin zu mehr Transparenz und Reproduzierbarkeit.

————–

Sanne Derks präsentiert am 25. April 2018 auf der Deutschen Welle eine rührende Klimaalarmstory aus Bolivien:

Der Sonne so nah: Starke Frauen in Bolivien begegnen dem Klimawandel
Im Hochland Boliviens sind Frauen für die Landwirtschaft verantwortlich. Ein großes Problem hier ist der Klimawandel, durch den nachhaltiger Anbau schwerer wird. Trotzdem schaffen die Frauen hohe Erträge. [...] Die Frauen in Tiraque bekommen den Klimawandel sehr deutlich mit. Die Durchschnittstemperaturen steigen, sagen sie. Die Regenzeit ist kürzer geworden und dauert nun nur noch zwei anstatt vier Monate. Deshalb kommt es zu Dürreperioden. Das Wetter sei insgesamt weniger gut vorhersehbar, außerdem gebe es nun sogar Hagelstürme und Überschwemmungen. Warum das so ist, erklären sie sich auf ganz unterschiedliche Weise. Eine sagt etwa, dass Pachamama, also Mutter Erde, müde geworden sei, andere glauben, dass die Sonne durch das Ozonloch so stark brenne, dass der Regen verdampfe, bevor er auf die Erde fallen kann. Wieder andere sehen in Autos, Asphalt und Fabriken außerhalb Boliviens die Gründe.

Ganzen Artikel bei der Deutschen Welle lesen.

War das Klima früher stets stabil und heute ist alles anders? Lesetipp für Sanne Derks und alle anderen Interessierten: Kellerhals et al. 2010:

Ammonium concentration in ice cores: A new proxy for regional temperature reconstruction?
We present a reconstruction of tropical South American temperature anomalies over the last ∼1600 years. The reconstruction is based on a highly resolved and carefully dated ammonium record from an ice core that was drilled in 1999 on Nevado Illimani in the eastern Bolivian Andes. Concerning the relevant processes governing the observed correlation between ammonium concentrations and temperature anomalies, we discuss anthropogenic emissions, biomass burning, and precipitation changes but clearly favor a temperature‐dependent source strength of the vegetation in the Amazon Basin. That given, the reconstruction reveals that Medieval Warm Period– and Little Ice Age–type episodes are distinguishable in tropical South America, a region for which until now only very limited temperature proxy data have been available. For the time period from about 1050 to 1300 AD, our reconstruction shows relatively warm conditions that are followed by cooler conditions from the 15th to the 18th century, when temperatures dropped by up to 0.6°C below the 1961–1990 average. The last decades of the past millennium are characterized again by warm temperatures that seem to be unprecedented in the context of the last ∼1600 years.

Ein Jahr später kam dann diese Studie von Neukom et al. 2011 zu den Anden:

Multiproxy summer and winter surface air temperature field reconstructions for southern South America covering the past centuries
We statistically reconstruct austral summer (winter) surface air temperature fields back to ad 900 (1706) using 22 (20) annually resolved predictors from natural and human archives from southern South America (SSA). This represents the first regional-scale climate field reconstruction for parts of the Southern Hemisphere at this high temporal resolution. We apply three different reconstruction techniques: multivariate principal component regression, composite plus scaling, and regularized expectation maximization. There is generally good agreement between the results of the three methods on interannual and decadal timescales. The field reconstructions allow us to describe differences and similarities in the temperature evolution of different sub-regions of SSA. The reconstructed SSA mean summer temperatures between 900 and 1350 are mostly above the 1901–1995 climatology. After 1350, we reconstruct a sharp transition to colder conditions, which last until approximately 1700. The summers in the eighteenth century are relatively warm with a subsequent cold relapse peaking around 1850. In the twentieth century, summer temperatures reach conditions similar to earlier warm periods. The winter temperatures in the eighteenth and nineteenth centuries were mostly below the twentieth century average. The uncertainties of our reconstructions are generally largest in the eastern lowlands of SSA, where the coverage with proxy data is poorest. Verifications with independent summer temperature proxies and instrumental measurements suggest that the interannual and multi-decadal variations of SSA temperatures are well captured by our reconstructions. This new dataset can be used for data/model comparison and data assimilation as well as for detection and attribution studies at sub-continental scales.

 

University College London: Klimawandel ist nicht Ursache von Konflikten und Migration in Ostafrika

Pressemitteilung des University College London (UCL) vom 24. April 2018:

————

Climate change not the key driver of human conflict and displacement in East Africa

Over the last 50 years climate change has not been the key driver of the human displacement or conflict in East Africa, rather it is politics and poverty, according to new research by UCL.

Human displacement refers to the total number of forcibly displaced people, and includes internally displaced people – the largest group represented – and refugees, those forced to across international borders. “Terms such as climate migrants and climate wars have increasingly been used to describe displacement and conflict, however these terms imply that climate change is the main cause. Our research suggests that socio-political factors are the primary cause while climate change is a threat multiplier,” said Professor Mark Maslin (UCL Geography).

The study, published in Palgrave Communications, found that climate variations such as regional drought and global temperature played little part in the causation of conflict and displacement of people in East Africa over the last 50 years. The major driving forces on conflict were rapid population growth, reduced or negative economic growth and instability of political regimes. While the total number of displaced people is linked to rapid population growth and low or stagnating economic growth. However the study found that variations in refugee numbers, people forced to cross international borders, are significantly linked to the incidence of severe regional droughts as well as political instability, rapid population growth and low economic growth.

The UN Refugee Agency report there were over 20 million displaced people in Africa in 2016 – a third of the world’s total. There has been considerable debate as to whether climate change will exacerbate this situation in the future by increasing conflict and triggering displacement of people. This new study suggests that stable effective governance, sustained economic growth and reduced population growth are essential if conflict and forced displacement of people are to be reduced in Africa, which will be severally affected by climate change. A new composite conflict and displacement database was used to identify major episodes of political violence and number of displaced people at country level, for the last 50 years. These were compared to past global temperatures, the Palmer Drought Index, and data for the 10 East African countries represented in the study on population size, population growth, GDP per capita, rate of change of GDP per capita, life expectancy and political stability.

The data were then analysed together using optimisation regression modelling to identify whether climate change between 1963 and 2014 impacted the risk of conflict and displacement of people in East Africa. The findings suggest that about 80% of conflict throughout the period can be explained by population growth that occurred 10 years ago, political stability that occurred three years ago and economic growth within the same year. For total displacement of people, the modelling suggests that 70% can be predicted by population growth and economic growth from 10 years before.

While for refugees, 90% can be explained by severe droughts that occurred one year ago, population growth that occurred 10 years ago, economic growth one year ago, and political stability two years ago. This correlates with an increase in refugees in the 1980s during a period of major droughts across East Africa. “The question remains as to whether drought would have exacerbated the refugee situation in East Africa had there been slower expansion of population, positive economic growth and more stable political regimes in the region,” said Erin Owain, first author of the study. “Our research suggests that the fundamental cause of conflict and displacement of large numbers of people is the failure of political systems to support and protect their people”, concluded Professor Maslin. The research was funded by the Natural Environmental Research Council and the Royal Society.

———-

Siehe auch Bericht zum Paper auf The Conversation.

 

 

GISS-Institut mit anderthalb Millionen US$ an ungenehmigten Ausgaben ertappt

Das GISS-Institut der NASA veöffentlicht eine vielzitierte Temperaturmessreihe. Dabei wurde und wird das Institut von bekennenden Aktivisten geleitet. Viele Fachleute bezweifeln mittlerweile die Stabilität der Daten, da sie ständig verändert werden. Alte Temperaturen werden meist abgesenkt, während neue Messwerte angehoben werden, was zu einer vermeintlichen Beschleunigung der Erwärmung führt. Im Büro nachgeschärfter Klimawandel. Nun fanden Inspektoren zu allem Überfluss noch heraus, dass das GISS-Institut in den letzten Jahren knapp anderthalb Millionen US-Dollar nichtgenehmigter Gelder ausgegeben hat. Daily Caller am 6. April 2018:

AUDIT: Mismanagement At NASA’s Global Warming Arm Resulted In $1.6 Million In ‘Unallowable’ Costs
NASA’s global warming research arm inappropriately spent $1.63 million in the last six years due to poor oversight, according to an Office of Inspector General audit. The IG report identified “multiple instances of unallowable use of NASA-appropriated funds by [Goddard Institute for Space Studies (GISS)] employees, grant recipients, and contractors for salary expenses, sub-contracting, and computer equipment.” Auditors found “$1.47 million in unallowable costs identified in NASA’s GISS-related cooperative agreements” with Columbia University, and $147,138 in unallowable costs billed by IT contractor Trinnovim LLC “for unallowable salaries and immigration fees.” Columbia University, for example, spent “$1,219,491.41 on contract services, financial aid, and salaries for graduate students and short-term employees – all items not included in the cooperative agreement,” including diverting more than $633,000 from research funds to graduate tuition.

Weiterlesen auf Daily Caller. Siehe auch Bericht auf WUWT.

—————————–

Die Klimageschichte als Schlüssel zur Lösung der heutigen Klimadebatte. Das Fachblatt Eos stellte am 30. März 2018 einige ausgefallene Klimarekonstruktionsmethoden vor:

Five Weird Archives That Scientists Use to Study Past Climates
When tree rings, ice cores, and cave formations can’t cut it, try your luck with whale earwax or bat poop.

It’s no secret that Earth scientists are obsessed with the past—what did our planet look like, how did its mountains and valleys evolve, where did it rain or dry up? For that last question, scientists can turn to proxies that reflect whether the climate was hot, cold, dry, or wet. Ratios of heavy and light isotopes, especially those of carbon, nitrogen, and oxygen, often serve as those proxies. Scientists measure these ratios in the layers of many different natural archives, such as ice cores, cave formations, tree rings, corals, and even ocean and lake sediments.

Weiterlesen auf Eos

—————————–

Javier veröffentlichte am 26. April 2018 auf WUWT einen interessanten Artikel zum 60-jährigen Ozeanzyklus.

The 60-year oscillation revisited
It is a well-known feature of climate change that since 1850 multiple climate datasets present a ~ 60-year oscillation. I recently wrote about it in the 7th chapter of my Nature Unbound series. This oscillation is present in the Atlantic Multidecadal Oscillation (AMO), Arctic Oscillation (AO), North Atlantic Oscillation (NAO), Pacific Decadal Oscillation (PDO), Length of Day (LOD), and Global (GST) and Northern Hemisphere (NHT) temperatures, with different lags (figure 1).

Weiterlesen auf WUWT

 

Hurrikane kommen heute wegen atlantischem Ozeanzyklus schneller auf Touren als noch vor 30 Jahren

Eine Forschergruppe des US Department of Energy und des Pacific Northwest National Laboratory machte kürzlich eine spannende Entdeckung: Hurrikane kommen offenbar heute schneller auf volle Touren als noch vor 30 Jahren. Früher dauerte es länger, nun ist die Maximalstärke bereits früher erreicht. Die Wissenschaftler haben auch den Schuldigen ausgemacht. Trommelwirbel. Nein, es ist nicht der Mensch mit seinem frevelhaften Tun, sondern der atlantische AMO-Ozeanzyklus, der mit einer Periode von 60 Jahren schwingt. Im Laufe seines Zyklus verändert er auch die Hurrikane. Leuchtet ein. Hier die Pressemitteilung vom 9. Mai 2018:

Powerful hurricanes strengthen faster now than 30 years ago

The storms intensify more rapidly today due largely to a natural climate phenomenon

Hurricanes that intensify rapidly — a characteristic of almost all powerful hurricanes — do so more strongly and quickly now than they did 30 years ago, according to a studypublished recently in Geophysical Research Letters, a journal of the American Geophysical Union. While many factors are at play, the chief driver is a natural phenomenon that affects the temperature of the waters in the Atlantic where hurricanes are powering up, according to scientists at the U.S. Department of Energy’s Pacific Northwest National Laboratory and the National Oceanic and Atmospheric Administration. They found that a climate cycle known as the Atlantic Multidecadal Oscillation or AMO is central to the increasing intensification of hurricanes, broadly affecting conditions like sea temperature that are known to influence hurricanes.

Stronger hurricanes in a day’s time

Last year’s lineup of powerful storms — Harvey, Irma, Jose and Maria — spurred the scientists to take a close look at the rapid intensification process. This occurs when the maximum wind speed in a hurricane goes up by at least 25 knots (28.8 miles per hour) within a 24-hour period. It’s a rite of passage for nearly all major hurricanes, including the big four of 2017. The team, comprised of Karthik Balaguru and Ruby Leung of PNNL and Greg Foltz of NOAA, analyzed 30 years’ worth of satellite hurricane data encompassing 1986 through 2015. Information came from NOAA’s National Hurricane Center and the U.S. Navy’s Joint Typhoon Warning Center. Consistent with other studies, the scientists did not find that rapid intensification is happening more often nowadays.

But the scientists also looked closely at just how much the storms are strengthening. They found a sizeable jump in the strength of fast-growing storms — the storms are getting more powerful more quickly within a 24-hour period than they were 30 years ago. The team found that the average boost in wind speed during a 24-hour intensification event is about 13 mph more than it was 30 years ago — on average about 3.8 knots (4.3 mph) for each of the three decades studied. Several factors play a role when a hurricane gains more power rapidly, including the temperature of the surface of the ocean, humidity, characteristics of the clouds, the heat content in the ocean, and the direction of the wind at the surface compared to miles above. Among the biggest factors affecting the increase in magnitude in the last 30 years, according to the team’s analysis:

–The amount of heat available in the uppermost layer of the ocean, known as the ocean heat content. The warmer the upper ocean, the more powerful a hurricane can become.
–Wind shear: The less the vertical wind shear — the difference in the direction and force of the winds at the surface compared to several miles into the air — the more powerful the hurricane can become.The influence of the Atlantic Multidecadal Oscillation

The team found that the biggest factor explaining the increasingly rapid intensification is the AMO. The result comes in part from analyses using 16 separate climate models to isolate the impact from global warming. “This was a surprise, that the AMO seems to be a bigger influence in rapid intensification than other factors, including overall warming,” said Balaguru, the first author of the paper.

The AMO governs how the temperature of the waters in the North Atlantic cycles between warmer and cooler, with each period typically lasting a decade or more. The cycling occurs for reasons scientists don’t completely understand, but it has broad effects on the environment. For example, it plays a big part in determining the heat content of the oceans, an important factor powering hurricanes. The AMO has generally been “positive” — causing warmer waters — since the late 1990s.

Balaguru noted that while rapid intensification historically has occurred more often in the western Atlantic, that’s not where the team found the increasing strength of the last 30 years. Rather, the phenomenon is strengthening more in the central and eastern Atlantic, especially to the east of the islands of the Lesser Antilles, which includes the Virgin Islands and Saint Kitts. That’s the same area where the AMO creates warmer waters and boosts ocean heat content, in the central and eastern Atlantic. That’s exactly the alley where hurricanes Irma, Jose and Maria powered up rapidly last year. It’s a proving ground of sorts where many of the most powerful hurricanes strengthen dramatically. Balaguru notes that teasing out the effects of the AMO from broader effects of global warming was beyond the scope of the current study but is a focus for scientists.

Das fand dann sogar der sonst so IPCC-lastige Deutschlandfunk (DLF) berichtenswert. Am 9. Mai 2018 konnte man in der täglichen Radio-Sendung “Forschung Aktuell” doch tatsächlich hören:

1) Hurrikane sind trotz Klimawandel nicht häufiger geworden (was den sonst üblichen Behauptungen in DLF-Sendungen zu diesem Thema völlig widerspricht).

2) Das zur Zeit schnellere Erstarken von Hurrikanen hat nichts mit dem anthropogenen Klimawandel (anthropogenic global warming, AGW) zu tun, sondern hängt von der AMO-Phase ab.

3) Die Ursachen für die AMO-Zyklen sind unbekannt und haben auch nichts mit AGW zu tun.

Schade nur , dass diese, für DLF-Verhältnisse geradezu revolutionär klimarealistischen Aussagen in einer schnellen Kurzmeldung abgewickelt wurden, statt sich mit diesen unbequemen Fakten für einmal ausführlicher zu beschäftigen… Nachzuhören ist diese kleine DLF-Revolution hier (ab Laufzeit 1:33)

 

Überflutet: Landschaftsgeschichte der Doggerbank

Von Dr. Hans-J. Dammschneider
(Inst. f. Hydrographie, Geoökologie und Klimawissenschaften / IFHGK, Schweiz)

Mit Bezug auf den Text „Als das Mittelmeer in der Jungsteinzeit menschliche Siedlungen wegspülte“ (www.kaltesonne.de vom 10. Mai 2018) sei ergänzend angemerkt, dass man parallel zu den Erkenntnissen von HERRLE u.a. (2018) auch auf die altbekannten Wasserspiegelveränderungen der Nordsee blicken kann, um ganz ähnliches wie im Mittelmeer zu sehen. Auch dort, auf der Doggerbank/in der Nordsee, hat der Meeresspiegelanstieg Siedlungsräume vertrieben und zwar während der nahezu gleichen Zeiträume, wie sie von HERRLE u.a. (2018) angegeben werden.

Meint, man sollte immer schauen, ob es nicht auch historisch parallele Ereignisse/Entwicklungen anderswo gab. Ohne hier speziell auf die Ergebnisse, die man im Nordseeraum gewonnen hat, einzugehen, sei nur auf eine zusammenfassende Darstellung verwiesen, welche die Landschaftsgeschichte der Doggerbank in kurzer Form übermittelt (siehe DAMMSCHNEIDER, 2015).

Was man ganz generell anmerken muss: Die subjektive Meeresspiegel-Wahrnehmung der neolithischen Menschheit, die im Bereich der heutigen Nordsee siedelte, war vermutlich gar nicht so viel anders als die Einschätzung mancher der derzeitigen Küstenbewohner … es handelte sich um eine Art „Sintflut“; damals ´von oben´ heraufbeschworen, heute vielleicht durch einen vermeintlich unvernünftigen Umgang mit begrenzten Resourcen (CO2) vom Menschen verursacht. Wie sagt es Prof. Dr. Jens Herrle (Senckenberg Biodiversität und Klima Forschungszentrum der Goethe-Universität Frankfurt) im Pressetext: „Unsere Ergebnisse zeigen, dass ein schwankender Meeresspiegel  bereits in der Vergangenheit einen sehr starken Einfluss auf die Menschheitsgeschichte hatte“.

Das ist so und führte damals zu Mythen, so wie es heute oftmals Ängste auslöst. Problematisch wird es, wenn es im eigentlichen Artikel heisst: „Unsere Ergebnisse werfen ein neues Licht auf den Zusammenhang zwischen dem katastrophalen Anstieg des Meeresspiegels und der Neolithisierung Südosteuropas und stellen ein historisches Beispiel dafür dar, wie die Küstenbevölkerung durch den künftigen raschen Anstieg des Meeresspiegels beeinflusst werden könnte“. Im Pressetext der Universität wird dies ergänzt durch die Aussage „Aufgrund der globalen Klimaerwärmung wird damit gerechnet, dass der Meeresspiegel innerhalb der nächsten 100 Jahre um bis zu einen Meter ansteigt. Millionen von Menschen könnten damit aus küstennahen Regionen vertrieben werden, mit all den damit verbundenen sozialen und ökonomischen Konsequenzen“.

Nun, das ist denkbar, aber eben erdgeschichtlich (wie man sieht) wiederum auch nichts Neues/keine Singularität. Natürliche Prozesse, die den Meeresspiegel schwanken lassen, gibt und gab es zu allen Zeiten … ob Neolithikum oder heute oder morgen. Allein die Annahme, dass „heute“ dafür nur noch der Mensch als Verursacher infrage komme, ist etwas, das hier wohl (wenn auch unausgesprochen) dahinter steht … aber klimawissenschaftlich nicht haltbar ist.

Man kann klar feststellen: Alles schon mal dagewesen. Nur war es zur Jungsteinzeit mit Sicherheit kein Vorgang aufgrund menschlichen Einflusses bzw. anthropogener CO2-Emissionen. Verantwortlich sind eigentlich immer nur Klimazyklen, damals mit einem Anstieg der Temperaturen (und des Meeresspiegels) am Ende der Weichselvereisung. Wenn jedoch Ähnliches heute abläuft bzw. Klimazyklen nachwievor stattfinden, ist es in der öffentlichen Wahrnehmung für viele doch ´ganz anders´ und für/durch Medien wird (zumindest indirekt) suggeriert, die Veränderungen in unserer Ist-Zeit seien primär menschengemacht. Das führt bei vielen Bürgern zu Schwarzseherei und in weiten Bereichen der politischen Meinungsbildung in Folge dessen dazu, dass man alarmistisch Forderungen in Form eines „Stoppt den Klimawandel“ aufbaut. Denn genau dieser menschengemachte Klimawandel wird weit verbreitet verantwortlich dafür gemacht, dass (immer noch!) der Meeresspiegel ansteigt.

Das Thema Meeresspiegelanstieg können und dürfen wir selbstverständlich nicht ignorieren. Man muss nur zugeben, dass im Unterschied zur Jungsteinzeit den Menschen der Ist-Zeit jetzt technische Möglichkeiten zu einer praktikablen Gefahrenabwehr zur Verfügung stehen … Deiche und Sperrwerke, speziell an der niederländischen Küste, zeigen, wie es gehen kann. Damit darf man fragen, ob es in diesem Sinne nicht (auch) eine volkswirtschaftlich sinnvolle Alternative wäre, stärker in konkrete technische Massnahmen zu investieren als eine eher abstrakte Willensanstrengung wie das sogenannte 2-Grad Ziel zu proklamieren. Denn das ist allein politisch gesehen bereits sehr viel schwieriger zu bewerkstelligen und darüber hinaus leider auch noch gänzlich unsicher in seiner effektiven Durchführ- wie Wirksamkeit. Allein das Narrativ „wir steigen aus dem CO2 aus“ schützt keineswegs vor den Wirkungen eines (natürlich) steigenden Meeresspiegels!

Nicht nur im Neolithikum, sondern auch in der Jetztzeit (und nicht nur im Mittelmeer, sondern auch im Bereich der Nordsee) waren und sind es sehr viel mehr natürliche Prozesse, die Meeresspiegelveränderungen verursachen … und, wie weltweite Vergleiche von Pegeltrends zeigen, in allen Fällen mit regional sehr unterschiedlicher Gewichtung. Besser also, man fasst diese Probleme auch mit genau jenen Massnahmen an, die den jeweiligen lokalen Bedingungen entsprechen und nicht nur pauschal mit „wir stoppen den Klimawandel“. Letzteres ist ein ideelles Ziel, aber leider für jene Menschen kein praktikables Vorgehen, die letztlich wirklich an ´ihrer´ Küste vom schwankenden Meeresspiegel (mal örtlich mehr und mal lokal weniger) betroffen sind.

DAMMSCHNEIDER (2015): “Ausser Sicht” … Ozeanographie für Seereisende: Band 1: Nordmeer (Elbe, Nordsee, Nordatlantik, Island, Grönland, Spitzbergen, Norwegen). Norderstedt 2015, ISBN 978-3-732-23772-2. Erhältlich als kindle- oder Taschenbuch-Edition bei AMAZON und im Buchhandel.

————————

Textausschnitt aus DAMMSCHNEIDER (2015):

Am Ende der Weichseleiszeit lag der Meeresspiegel des Ostatlantiks etwa 60m unter dem heutigen Normalnull. Die Westeuropäische Küste verlief immer noch nördlich der Doggerbank. Die südliche Nordsee war Festland, die Britischen Inseln und das europäische Festland bildeten eine zusammenhängende Landmasse.

Abb. 45 : Ausdehnung und Grenzen der Weichselvereisung (weisse Fläche)  (Karte nach ULAMM 2013)

 

In den folgenden Jahrtausenden stieg das Wasser, wobei dieser Anstieg im Laufe der Zeit an Geschwindigkeit abnahm. Vor etwa 9.850 bis 7.100 Jahren wurden Teile des Elbe-Urstromtals überflutet. Der südliche Teil der Nordsee zwischen der Doggerbank und dem Ärmelkanal  war teils ein Binnensee, in den die Flüsse und nordeuropäischen Gletscher entwässerten. Als in der Mittelsteinzeit um etwa 6.500 v. Chr. die Kreidefelsverbindung zwischen Dover (Weald) und Calais (Pas-de-Calais) erodierte, floss das Wasser dieses Süsswassersees durch den Ärmelkanal in den Atlantik ab. Der Meeresspiegel stieg weiter an, so dass Britannien etwa 5.000 v.Chr. zur Insel wurde. Das Wattenmeer entstand ungefähr im selben Zeitraum, und in der darauf folgenden Zeit wechselten Phasen stärkeren Meeresspiegelanstiegs (Transgression) mit Meeresspiegelsenkungen (Regression).

Abb. 46 : Küstenlinien und Doggerland im frühen Holozän (rd. 9000 Jahre vor heute) … England und ein grosser Teil der heutigen Nordsee gehören zum festländischen Kontinentaleuropa (Paläogeografische Darstellung nach C.REID)

 

Ausgelöst hat diese Veränderungen der rasche Abbau des nordamerikanischen Inlandeises, des damals ausgedehntesten Eisschilds auf der Nordhalbkugel. Weite Küstenräume wurden überflutet und es bildeten sich die heutigen Küstenlinien aus (sogenannte „Flandrische Transgression“ bzw. „Dünkirchener Transgression“). Zum anderen wurden einige Nebenbecken des Atlantiks überspült und so zu Nebenmeeren. Um 7.000 v. Chr. (womöglich auch früher) wurden die dänischen Inseln und Grossbritannien vom europäischen Festland getrennt; ein Vorgang, der durch eine Serie von verheerenden Sturmfluten verursacht wurde.

Die University of Birmingham hat im Rahmen des Forschungsprojekts Mapping Doggerland  eine relativ flache Landschaft von rund 23.000 Quadratkilometern in einem Computermodell nachgebildet. Es zeigt sich ein weitverzweigtes Netz von Flussläufen, eine Vielzahl kleiner Seen und ein zentrales Süsswasser-Binnenmeer. Die geophysikalischen Daten für das Projekt bzw. die Kartierung des Meeresbodens lieferte eine norwegische Firma für Erdöl-Geoservice. Unter den zahlreichen Flüssen, die man fand, zeichnete sich 10m unter dem Schlick der Doggerbank auch der Shotton River ab, sowie der grosse Binnensee Outer Silver Pit, der später zu einem riesigen Delta-System mehrerer Flüsse mutierte und noch heute als Tal auf dem Grund der Nordsee erkennbar ist.

Die computergestützt generierten Rekonstruktionen zeigen, dass das Leben am Ende der Eiszeit weit in die heutige Nordsee vorstiess. Archäologen vermuten, dass das Gebiet in gewissem Sinne fast ´paradiesisch´ anmutete: „Auf dem Marschland plätscherten Seen, Flüsse schlängelten sich durch dicht bewachsene Gräser- und Strauchlandschaften. Es gab genügend Nahrung für alle: Die Gewässer wimmelten von Fischen, im Schilf nisteten Vögel, Beerenbüsche säumten die Ufer. Tausende Menschen siedelten bis vor etwa 8000 Jahren dort, wo heute der Grund der Nordsee liegt.“ (A.Bojanowski, 2012).

Doggerland war eine, wie es heisst, blühende Landschaft. Hunderte Funde von Steinwerkzeugen, Harpunen und menschlichen Knochen belegen die Geschichte am Nordseegrund. Erhaltene Blütenpollen im Schlick geben Aufschluss über die damalige Vegetation (B. WENINGER u.a. 2008). Wie schon gesagt, schufen vor allem Daten aus der Erdölexploration die Grundlagen zur Rekonstruktion der damaligen Geographie und der heutigen Unterwasserverhältnisse. Die Vermessung des Meeresbodens mit geophysikalischen Methoden (u.a. Schallwellen, Bohrungen) zeigte nach und nach ein zwar nicht ganz flächendeckendes aber doch ziemlich klares Bild der ehemaligen Landoberfläche. Die Daten der Erdölgeologen wurden mit  Forschungsergebnissen der Klimageschichte und archäologischen Funden verglichen.

Es zeigt sich, dass am Ende der letzten Eiszeit die Gletscher weiter tauten und ihr Schmelzwasser den Meeresspiegel steigen liess. Die „Nordsee“, wie wir sie heute nennen und kennen, drang immer weiter vor. Erst schluckte sie die Sümpfe und Täler, letztlich waren die steinzeitlichen Siedlungen auf stehen gebliebenen Anhöhen isoliert. Aus diesem Grund gelten die heutigen Sandbänke (jetzt „Untiefen“, damals die relativ höchsten Punkte in der Landschaft) in der Nordsee bei Archäologen als Fundgruben für Hinterlassenschaften der Bewohner von Doggerland.

Der endgültige Untergang von Doggerland kam im Übrigen dann doch recht plötzlich: Vor etwa 6000 Jahren rollte ein Tsunami über die Nordsee. Vor der Küste Norwegens waren Schlamm- und Geröllmassen am Meeresgrund einen tausende Meter hohen und steilen Hang hinuntergestürzt und hatten gewaltige Wellen ausgelöst … die Storegga-Rutschung.

Fortsetzung: Siehe DAMMSCHNEIDER (2015)