Mittelalterliche Warmperiode – ein Plädoyer für die Beibehaltung eines Terminus technicus in einem postnormal geführten, wissenschaftlichen Diskurs

Von Dr. Jürgen Koller

 

Kurzfassung

Einige Wissenschaftler, darunter Silvio Funtowicz, Jerome Ravetz und Hans von Storch, argumentieren für eine postnormale Phase in den Klimawissenschaften. Dabei sieht sich nicht nur die Wissenschaft als solche sondern auch die etablierte Begrifflichkeit einer postnormalen politischen Kritik und Parteinahme ausgesetzt. Vorliegende Arbeit analysiert die Etymologie und historische Evolvierung des Terminus Mittelalterliche Warmperiode, einer, in der Paläoklimatologie tief verwurzelten Konzeption und legt die Beibehaltung dieses Terminus technicus, wenn auch intensional enger gefasst, im wissenschaftlichen Diskurs nahe.

 

Abstract

[Medieval Warm Period–a pley for the retention of a terminus technicus within a post-normal scientific discourse]

In recent years, some scientists, including Silvio Funtowicz, Jerome Ravetz, and Hans von Storch, argue for a post-normal phase in climate science. In this situation, not only climate science faces political criticism and partisanship, but also the scientific abstractness. This paper strongly advocates for retention of the Medieval Warm Period as a key term in Palaeoclimatology. In doing so, etymology and historical-conceptual evolution of the terminus technicus are analyzed and a closer definition of the concept is finally suggested.

 

Einleitung

In den Klimawissenschaften herrscht, so die Behauptung einiger Autoren (Funtowicz & Ravetz 1989, Elzinga 1997, Bray & von Storch 1999; s. a. Krauss & von Storch 2012), mittlerweile ein postnormaler Zustand vor. Dabei unterscheide sich dieser von normaler Wissenschaft – „dem Lösen von Problemen in einem Rahmen, der nicht in Frage gestellt wird, einem ‚Paradigma‘“ (Ravetz 2010) – dadurch, dass nicht mehr die Wissenschaftlichkeit, „die methodische Qualität, das Popper’sche Falsifikationsdiktum oder auch der Fleck’sche Reparaturbetrieb überzogener Erklärungssysteme (vgl. Fleck 1980)“ (von Storch 2009: 308) im Zentrum der akademischen Wissensproduktion stehe, sondern die Nützlichkeit der möglichen wissenschaftlichen Aussagen – bei inhärenter Unsicherheit – für die Formulierung von dringenden Entscheidungen in der Sphäre des Politischen (vgl. von Storch 2007, Ravetz 2010).

Eine logische Konsequenz hieraus ist die – wenn nötig – Umdeutung von bereits normierten wissenschaftlichen Prädikatoren, d.s. Fachtermini (s. Seiffert 1996: 57), und Einpassung in eine gemischte, postnormal-normale Terminologie.

 

1 Etymologische Betrachtung und begriffsgeschichtliche Entwicklung

Ein solch‘ normierter Prädikator ist die sogenannte Mittelalterliche Warmperiode (MWP). Diese geht, als Konstrukt, zurück auf Lamb, der Evidenz aus verschiedenen Quellen (historischer, meteorologischer, archäologischer, botanischer und glaziologischer Natur) für die Behauptung generierte, dass, vor allem während des Hoch- und Spätmittelalters (ca. 900-1300 A. D.) wärmere klimatische Bedingungen „from the Arctic to New Zealand“ (Lamb 1965: 14), im Speziellen in West-Europa und den Regionen um den Nord-Atlantik, vorherrschten.

In weiterer Folge wurden die Aussagen Lambs an verschiedenen Orten, in verschiedenen Regionen (u. a. Grönland, Vereinigte Staaten von Amerika, Argentinien, China, Japan, Neuseeland), auf den Globus verteilt bestätigt und der Terminus technicus MWP setzte sich durch – 1965 sprach Lamb noch von einer MWE (Medieval Warm Epoch) – (vgl. u. a. Lamb 1966, 1977; 1982, Cermak 1971, Zhu 1973, LaMarche 1974, Dansgaard et al. 1975, Lamb & Gribbin 1978, Bernabo 1981, Williams & Wigley 1983, Villalba et al. 1990, Nesje et al. 1991, Cook et al. 1991, 1992, Graumlich 1993, Bonneville & Umer 1994, Stuiver, Grootes & Brazinuas 1995, Blackford & Chambers 1995, Hass 1996, Huang, Pollack & Shen 1997, Thorsen & Dale 1998, Campbell 1998, Cioccale 1999, Li et al. 2000, Schilman et al. 2001, Calkin, Wiles & Barclay 2001).

 

2 Normal-wissenschaftlich begriffsgeschichtliche Entwicklung, postnormale Deutungsversuche und deren Konsequenzen

2001 stellte Broecker die berechtigte Frage: „Was the Medieval Warm Period Global?“ (bereits 1994 hatten Grove und Switsur, gestützt auf glaziologische Befunde, für eine globale MWP argumentiert). Nicht ohne Grund verwies Broecker, der zu einer positiven Beantwortung seiner selbst gestellten Frage neigte, auf eine nordhemisphärische Klimarekonstruktion von Mann, Bradley & Hughes aus dem Jahre 1999. Er schrieb: „The reconstruction of global temperatures during the last millennium can provide important clues for how climate may change in the future. A recent, widely cited reconstruction (1)[Mann, Bradley & Hughes 1999, Jürgen Koller] leaves the impression that the 20th century warming was unique during the last millennium. It shows no hint of the Medieval Warm Period (from around 800 to 1200 A.D.) during which the Vikings colonized Greenland (2)[Grove 1988, Jürgen Koller], suggesting that this warm event was regional rather than global” (Broecker 2001: 1497).

Mit dem technologischen Fortschritt der 90er Jahre ging auch ein Anstieg der Klimarekonstruktionen einher (u. a. D’Arrigo & Jacoby 1993, Bradley & Jones 1993, Hughes & Diaz 19941, Briffa et al. 1995, Mann et al. 1995, Huang, Pollack & Shen 1997, Overpeck et al. 1997, Jones et al. 1998, D’Arrigo et al. 1999; für einen Überblick s. Frank et al. 2010a, FN 11-36). Allen Rekonstruktionen, insofern sie bis ins Mittelalter zurückreichen, ist gemein, dass sie, im Gegensatz zu Manns nordhemisphärischer Rekonstruktion, eine MWP – im Sinne von wärmeren klimatischen Bedingungen, vor allem im Hoch- und Spätmittelalter – für das jeweilige Studiengebiet (lokal, hemisphärisch, global), wenn teilweise auch wenig ausgeprägt, ausweisen:

weiter lesen

Teilen:

IPCC-nahe Klimaaktivistengruppe zieht Video zurück: Zugrundeliegende Rahmstorf-Arbeit entspricht nicht mehr dem wissenschaftlichen Konsens

Seit Jahren setzt sich die Internetplattform ‚Skeptical Science‚ für den Schutz der liebgewonnenen Klimakatastrophen-Modelle des IPCC ein. Der Name der Webseite wurde offenbar bewusst irreführend gewählt, denn es handelt sich nicht etwa um Skeptiker der Klimakatastrophe, sondern vielmehr um Skeptiker der Klimaskeptiker („Getting skeptical about global warming skepticim“). Auf ihrer Webseite diskutiert die Aktivistengruppe die gängigsten Klimaskeptiker-Kritikpunkte und versucht diese fachlich zu entkräften, was jedoch in der Regel misslingt. Ein Blick in die Diskussionsweise bringt erschreckende Ergebnisse. So dient als Grundlage der Diskussion zur klimatischen Wirkung der Sonne ein unvollständiges Temperaturdiagramm, in dem das Temperaturplateau der letzten 15 Jahre aus mysteriösen Gründen fehlt. Am 10. Januar …

weiter lesen

Mojib Latif hatte Recht: Wohl keine Erwärmung in den nächsten Jahren

Von Frank Bosse

In  Mojib Latifs Arbeit „Is the Thermohaline Circulation changing“ (Latif et al. 2006) kommt er mit seinen Co- Autoren zu dem Schluss, dass die thermohaline Zirkulation einem Auf und Ab unterworfen ist.  Die thermohaline Zirkulation, umgangssprachlich auch globales Förderband genannt, ist ein Bündel von Meeresströmungen, die Ozeane miteinander verbinden und sich dabei zu einem Kreislauf globalen Ausmaßes vereinen. Im Nordatlantik wird die thermohaline Zirkulation als MOC (Meridional Overturning circulation) wahrgenommen: Bestandteile sind hier der Golfstrom und der Nordatlantikstrom.

In seiner Arbeit untersucht Latif den rhythmischen Wechsel des Druckluftunterschieds zwischen dem Islandtief und dem Azorenhoch, Nordatlantische Oszillation (NAO) genannt, in den Monaten Dezember-März (NAO DJFM). Latif und Kollegen stellen nun dieser atmosphärischen „Druckschaukel“ den Unterschied der Wasseroberflächentemperaturen  (SST- sea surface temperatures) zwischen Teilen des Nordatlantiks und des südlichen Atlantiks gegenüber. In Abbildung 3 der Arbeit ist  die Winter-NAO (DJFM) [Nordatlantische Oszillation, Dezember-März] dargestellt (Schattenlinie) und der definierte SST-Dipol-Index, der ein Ausdruck der Meridionalen Overtuning Circulation (MOC) sei. In der Bildunterschrift wird erklärt, dass die Winter-NAO mit ca. einem Jahrzehnt die MOC anführt und wohl der treibende Faktor der MOC ist.

 

 

Abbildung 3 aus Latif et al. (2006)

 

Schreibt man die Beobachtung bis Ende 2012 bzw. 2013 für die NAO und die Meeresoberfächentemperatur fort, ergibt sich das nachfolgende Diagramm. Zusätzlich wurden in das Bild die Temperaturen der nördlichen Hemisphäre (NH, rot) 11-jährig geglättet aufgenommen.

Nordatlantische Oszillation (NAO, grau), Temperatur der nördlichen Hemisphäre (HadCRUT4 NH, rot), Latif’s “atlantischer Dipol” Parameter der Meeresoberflächentemperatur (Atlantic Dipole SST, blau, ungeglättet und 11-jährig geglättet)

 

Gut zu sehen ist, dass sich der Peak der NAO in 1992 mit 14 Jahren Verzögerung wie bereits 2006 vorhergesagt im Peak des atlantischen Dipols und in den Temperaturen der NH manifestiert. Der weitere Verlauf der NAO lässt den Schluss zu, dass sowohl der SST-Dipol als auch die Temperaturen der NH nicht weiter steigen werden, bis mindestens 2020.

In einer weiteren Arbeit aus 2008 legt das Team um Latif nach: Sie wagen eine Vorhersage und erklären:

„Our results suggest that global surface temperature may not increase over the next decade, as natural climate variations in the North Atlantic and tropical Pacific temporarily offset the projected anthropogenic warming.”

Oder hier nochmal Latif im Originalton auf deutsch in einem kürzlichen Interview im Deutschlandfunk auf die Frage, warum es denn in den letzten Jahren gar nicht mehr wärmer geworden ist:

Latif: Ja, das ist völlig normal. Ich selber habe ja in einer Studie im Magazin „Nature“ schon darauf hingewiesen 2008, dass es so eine Atempause geben wird. Das sind einfach die natürlichen Klimaschwankungen, die arbeiten mal mit, mal gegen die globale Erwärmung. Aber langfristig pendelt sich das aus und langfristig wird einfach die Temperatur ansteigen. Deswegen noch mal: Nächstes Jahr, übernächstes Jahr, das bedeutet gar nichts, selbst wenn die Temperatur nicht weiter steigen würde. Wir haben immer 2050, 2100 im Blick, das heißt die langfristige Entwicklung.

Ehring: Trauen Sie sich denn eine mittelfristige Prognose für die nächsten Jahre zu?

Latif: Nein. Da sind wir noch ganz am Anfang. Wie gesagt, ich habe es nur einmal probiert 2008, das scheint ja ganz in Ordnung gewesen zu sein, bisher jedenfalls. Wir haben gesagt, bis 2015 wird die Erderwärmung nicht weitergehen. Ich denke mal, dann werde ich mich aufraffen mit meinen Kollegen zusammen und dann werden wir wieder neue Prognosen machen. Mal sehen, wie es dann aussehen wird.

weiter lesen

Teilen:

Klimawandel lässt Menschen in Peru frieren

Im Dresdner UniversitätsJournal vom 13. November 2012 (Nr. 18) erschien auf der Titelseite ein überraschender Artikel aus dem wir hier einen Auszug bringen: Klimawandel lässt Menschen in Peru frieren Humboldt-Stipendiatin Andrea Vásquez befasst sich an der TUD mit Klimaproblemen ihrer Heimat Seit Oktober 2012 arbeitet Andrea Váquez als Humboldt-Stipendiatin an der TU Dresden. Am Institut für Bauklimatik der Fakultät Architektur befasst sich die 36-jährige peruanische Mechatronik-Ingenieurin zunächst ein Jahr lang damit, wie Passivhaus-Technologiekonzepte in ländlichen Häusern der kalten Hochlandregionen Perus adaptiert werden können. Die Förderung im Programm »Internationale Klimaschutzstipendien für Entwicklungs- und Schwellenländer« hilft ihr dabei. Viele Regionen der Erde erwärmen …

weiter lesen

Klimawandel seit der Kleinen Eiszeit: Die Wirkung der Sonne wurde unterschätzt

Von Horst Malberg
Univ. Prof. (A.D.) für Meteorologie und Klimatologie

Die über den Klimawandel und seine primäre Ursache aussagekräftigsten Klima-/ Temperaturreihen finden sich in West- und Mitteleuropa. Dabei reichen die Beobachtungsdaten der Central England Temperatures (CET) bis ins 17. Jahrhundert, die der Mitteleuropareihe (Klimamittel aus Berlin, Basel, Prag, Wien) bis 1701 zurück. Bei der nachfolgenden Analyse ab 1671 wurden für die drei Dekaden 1671-1700 die Mitteleuropatemperaturen aus den CET-Daten abgeleitet (Reduktionsfaktor –0,5°C).

In den Beiträgen zur Berliner Wetterkarte (BWK) SO 29/09 bzw. SO 37/09 war der Zusammenhang zwischen Sonnenaktivität und Klimawandel in Mittel- bzw. Westeuropa getrennt untersucht worden. Im ersten Fall konnte dadurch die Auswirkung des integralen solaren Effekts auf einen primär kontinental geprägten, im zweiten auf einen ozeanischen Klimabereich erfasst werden. In Analogie zur Betrachtung des globalen Klimawandels, d.h. des Mittels aus primär ozeanischer Südhemisphäre und stark kontinental geprägter Nordhemisphäre, wird bei der vorliegenden Analyse eine Europa-Temperaturreihe als Mittel aus Central-England-Reihe und Mitteleuropareihe gebildet. Auf diese Weise wird eine repräsentative empirische Aussage über die integralen (direkten und indirekten) Auswirkungen solarer Aktivitätsänderungen auf den Klimawandel seit der Kleinen Eiszeit möglich.

Sonnenaktivität und Temperaturverhalten

In Abb. 1 ist die mittlere Sonnenfleckenzahl je Sonnenfleckenzyklus als Maß für die solare Aktivität wiedergegeben. Deutlich sind sowohl die kurzzeitlichen Fluktuationen als auch die klimarelevanten langzeitlichen Änderungen der Sonnenaktivität zu erkennen. Dem solaren Aktivitätsminimum im 17. Jahrhundert, dem Maunder-Minimum, folgte eine Zunahme der Sonnenaktivität im 18. Jahrhundert: der „ruhigen“ Sonne folgte eine zunehmend „aktive“ Sonne. Am Ende des 18. Jahrhunderts begann erneut eine Phase geringer Sonnenaktivität, das sog. Dalton-Minimum. Gegen Ende des 19. Jahrhunderts setzte erneut eine anhaltende Phase zunehmender Sonnenaktivität ein. Diese hielt bis zum Ende des 20.Jahrhunderts an. Seither nimmt die Sonnenaktivität wieder deutlich ab. In Abb.2 sind für denselben 330-jährigen Zeitraum die dekadischen Mitteltemperaturen in Europa dargestellt. Auch diese weisen eine hohe Fluktuation auf. Die Ursache dafür sind die vielfältigen
kurzfristigen Einflüssen von Ozean (v.a. El Niño/La Niña), Biosphäre, Sonnenaktivität und Vulkanismus auf die Atmosphäre.

Der langfristige Klimaverlauf wird durch die Ausgleichskurve beschrieben. Dem Temperaturminimum der Kleinen Eiszeit im 17. Jahrhundert folgte ein Temperaturanstieg im 18. Jahrhundert. Am Ende des 18. Jahrhunderts setzte eine rapide Abkühlung ein. Erst gegen Ende des 19. Jahrhunderts folgte erneut eine Erwärmung. Diese erreichte 1998 ihren Höhepunkt. Seither stagniert die Temperatur global bzw. weist einen Abkühlungstrend auf. Im Gegensatz zu der globalen Klimareihe seit 1850, die allein die letzte Erwärmung erfasst, also nur eine einzige Phase des Klimawandels der letzten Jahrhunderte, lässt die Europareihe eine Untersuchung des Klimawandels seit der Kleinen Eiszeit zu.

 

 

Empirische Klimaanalyse

Wie schon der optische Vergleich von Abb.1 und Abb.2 belegt, weisen die langzeitlichen Kurvenverläufe der solaren Aktivität und der Europa-Temperatur seit 1671 unverkennbar ein synchrones Verhalten auf. Als „Klima“ definiert die Weltorganisation für Meteorologie (WMO) das Integral über alle Wetter-/Witterungsereignisse, erfasst durch die Mittelwerte, in einem mindestens 30-jährigen Zeitraum. Entsprechend dieser Definition spiegeln daher nicht kurzfristige Sprünge von Jahr zu Jahr oder Dekade zu Dekade, sondern allein die Langfristverläufe den (wahren) Klimawandel wider. In der gegenwärtigen Klimadebatte wird aber ständig gegen die WMO-Definition verstoßen. Wenn es in die Ideologie passt, werden einzelne Wetter-/Witterungsereignisse (Hurrikan „Sandy“, Überschwemmungen) oder einzelne Jahre/Jahreszeiten als Beleg für die anthropogene Erwärmungshypothese angeführt. Äußerungen dieser Art sind unseriös und zeugen von wenig meteorologischem Sachverstand. Entsprechend der WMO-Klimadefinition wurde die Datenanalyse für Klimaperioden von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre) durchgeführt. Da der solare Klimaantrieb kontinuierlich auf unser Klimasystem wirkt, werden der Auswertung gleitende Klimaperioden von 3 Sonnenfleckenzyklen zugrunde gelegt.

weiter lesen

Teilen:

Klimatrends in Temperaturreihen: Wieviel Natur steckt in der Erwärmung der letzten 100 Jahre?

Im Oktober 2011 erschien im International Journal of Modern Physics eine Arbeit einer deutschen Forschergruppe um Horst-Joachim Lüdecke mit dem Titel „How natural is the recent centenial warming? An analysis of 2249 surface temperature records“. Darin behandeln die Autoren die Frage, wie hoch der natürliche Anteil gegenüber dem menschengemachten an der Klimaerwärmung der letzten 100 Jahren gewesen sein könnte. Im folgenden Beitrag, der im März 2013 auch auf der EIKE-Webseite erschienen ist, gibt Lüdecke einen Überblick über die Arbeit und macht zusätzliche Ergänzungen zum Thema. Eine kleine Warnung an alle Nichtmathematiker unter unseren Lesern: Hier geht es zahlentechnisch ganz schön zur Sache. Rückmeldungen zu diesem Beitrag bitte wie immer via unser Kontaktformular. Wir leiten die Kommentare dann an den Autor weiter.

—————————————–

Von Horst-Joachim Lüdecke

Zusammenfassung: Konstantes Klima ist unmöglich. Wetter und Klima ändern sich zu jeder Zeit und überall. In Temperaturreihen, die sich über mehrere Jahrzehnte erstrecken, zeigen sich Klimaschwankungen. Die in diese Reihen eingebrachten Trendlinien deuten vordergründig auf äußere Ursachen hin, die freilich fast immer unbekannt sind. Die bis heute einzigen, zweifelsfrei gesicherten Ursachen sind extrem starke Vulkanausbrüche, deren globale Folgen mehrjährige Abkühlungstrends sind. Selbst vielen Fachleuten ist es immer noch unbekannt, dass sich Trends in Temperaturzeitreihen aber auch ganz ohne äußere Ursachen bilden können. Der Augenschein ist kein verlässlicher Zeuge, denn sogar sehr deutliche Trends sind keineswegs eine Gewähr für externe Ursachen. Die von selbst auftretenden Trends werden durch das „Gedächtnis“ (Persistenz) der Temperaturreihe erzeugt. Seit dem Jahre 2009 steht mit der modernen Persistenzanalyse ein Verfahren zur Verfügung, mit dem erstmalig verlässlich entschieden werden kann, ob ein Trend in einer Temperaturzeitreihe eine äußere Ursache hat oder ob man umgekehrt dies nicht annehmen muss. Neben weiteren Anwendungen wurde mit dieser neuen Methode die globale Temperaturentwicklung des 20. Jahrhunderts an Hand von ca. 2500 Langzeit-Temperaturreihen analysiert. Hierbei zeigte sich, dass für die Erwärmung des 20. Jahrhunderts ein externer Einfluss zwar nicht ausgeschlossen werden kann, er allerdings dramatisch schwächer ist als die vom IPCC eingeschätzte Wirkung des anthropogenen CO2. Woher der nicht auszuschließende äußere Einfluss stammt, kann nicht mit der Methode entschieden werden. Es kommen auch andere Ursachen als das Treibhausgas CO2 in Frage, zum Beispiel ein ungewöhnliches Verhalten der Sonne.

 

1. Was ist Persistenz in Temperaturzeitreihen?

Zeitreihen sind wichtige Werkzeuge, um Informationen über komplexe Prozesse zu gewinnen. Herzspezialisten nehmen Zeitreihen des Herzschlags oder des Blutdrucks auf, um Aufschlüsse über den gesundheitlichen Zustand eines Patienten zu erhalten. Finanz- und Versicherungsmathematiker analysieren Zeitreihen, um die finanziellen oder versicherungstechnischen Risken von Unternehmen zu bewerten. Klimatologen verwenden Temperaturzeitreihen (Tages-, Monats- oder Jahresmittelwerte), um langfristige Klimatrends aufzufinden. Im Folgenden geht es hier um Temperaturzeitreihen.

Der englische Wasserbau-Ingenieur Harold Edwin Hurst untersuchte in den 1950-er Jahren  die Tief- und Höchststände des Nils und entdeckte dabei als erster, dass hydrologische Zeitreihen ein Gedächtnis besitzen. Die aktuell gemessenen Werte hängen von den vergangenen, zum Teil weit zurückliegenden Werten ab. Später wurde erkannt, dass auch viele weitere Zeitreihen der Natur wie z.B. Baumringe ein Gedächtnis aufweisen. Man nennt dieses Phänomen Persistenz oder Autokorrelation. Die Schwankungen der Zeitreihe um ihren Mittelwert erfolgen in persistenten Zeitreihen nicht mehr unabhängig, sondern sie werden von der Vergangenheit der Zeitreihe beeinflusst.

Betrachtet man Temperaturzeitreihen, so erscheint dieses Verhalten zunächst nicht einmal so ungewöhnlich. Eine Temperaturzeitreihe weist zumindest ein „Gedächtnis“ über die momentan herrschende Jahreszeit auf. Es kommt nie vor, dass auf einen warmen Sommertag plötzlich ein kalter Wintertag folgt, bzw. umgekehrt. Da jahreszeitlich bedingte Schwankungen im Allgemeinen weniger interessieren, werden die saisonalen Einflüsse vor der Persistenzanalyse aus einer Temperaturzeitreihe entfernt. Aber auch danach beobachtet man noch, dass ein Tagestemperaturmittelwert zumindest vom Vortag abhängt. So wird ein über dem längerfristigen Mittel liegender Temperaturwert am nächsten Tag mit über 50% Wahrscheinlichkeit ebenfalls über diesem Mittel liegen, Entsprechendes trifft für einen unter dem Mittel liegenden Temperaturwert zu. Eine Erklärung für dieses Phänomen liefern anhaltende Wetterlagen. Persistenz über mehrere Wochen kann man mit meteorologischen Blocksituationen, wie etwa einem lang anhaltendes Azorenhoch erklären. Für noch längere Zeiträume ist freilich über die Ursachen von Persistenz wenig bekannt. Es werden dekadale Oszillationen wie z.B. der El Nino, Einflüsse aus den sich ändernden Planetenkonstellationen und weiteres mehr diskutiert. Erstaunlicherweise findet man in Temperaturzeitreihen Persistenz bis über mehrere Jahrzehnte. Die Ursachen solch langreichweitiger Persistenz sind bis heute völlig unbekannt.

weiter lesen

Teilen:

Neue Studie in Nature Geoscience: Temperaturen lagen zur Römerzeit mehrere Jahrhunderte lang auf dem heutigen Niveau

Die Justus-Liebig-Universität Giessen gab am 21. April 2013 eine Pressemitteilung zu einem neuen Fachartikel im Magazin Nature Geoscience heraus, in dem die natürliche Klimavariabilität der letzten zwei Jahrtausende auf globalem Maßstab dokumentiert wird. Mit dabei sind auch die Kleine Eiszeit, eine lange Wärmeperiode zur Römerzeit sowie Sonnenaktivitätsschwankungen. Im Folgenden die Pressemitteilung im Original (Fettsetzung ergänzt):

———————————–

Die erste 2000 Jahre umfassende Temperaturrekonstruktion für einzelne Kontinente – Gießener Wissenschaftler Mitautoren einer Veröffentlichung in „Nature Geoscience“

Der Klimawandel in der Vergangenheit unterschied sich deutlich von Region zu Region. Zu diesem Ergebnis kommt eine neue Studie mit Beteiligung Gießener Wissenschaftler, die durch das internationale PAGES-Projekt (Past Global Changes) koordiniert wurde. In dieser Studie wurden erstmalig die regionalen, kontinentalen Temperaturen der letzten ein- bis zweitausend Jahre umfassend rekonstruiert. Ein zentrales Ergebnis ist, dass der global  vorherrschende Abkühlungstrend  – hervorgerufen durch reduzierte Sonneneinstrahlung im Sommer und Vulkanismus – seit Ende des 19. Jahrhunderts durch Erwärmung abgelöst wurde. Etwa achtzig Wissenschaftlerinnen und Wissenschaftler aus aller Welt arbeiteten gemeinsam an der Studie „Kontinentale Temperaturvariabilität über die letzten beiden Jahrtausende“, die nun in der renommierten Fachzeitschrift „Nature Geoscience“ veröffentlicht wurde. Diese Arbeit stellt eine der umfassendsten und umfangreichsten zu diesem Thema dar. Das internationale Autorenteam – darunter Prof. Jürg Luterbacher, PhD und Dr. Johannes Werner vom Institut für Geographie – wertete Klimaarchivdaten von allen Kontinenten aus, um die Temperaturschwankungen der vergangenen beiden Jahrtausende zu erfassen.
Die Initiative geht zurück auf die 1991 ins Leben gerufene Organisation PAGES (Past Global Changes) des Internationalen Geosphären-Biosphären-Programms (IGBP). Das Ziel von PAGES ist es, unser Verständnis des Klimasystems zu verbessern, indem Klima und Umwelt der Vergangenheit rekonstruiert und analysiert werden. Die Hauptgeldgeber für das Programm sind der Schweizerische Nationalfonds (SNF) sowie die National Science Foundation (NSF) der Vereinigten Staaten.

weiter lesen

Teilen:

Eine Analyse der Globaltemperaturen seit 1880 mit dem Versuch einer Prognose bis 2100

Ein wichtiges Anliegen unseres Klimablogs ist es, eine Plattform für wissenschaftliche Diskussionen bereitzustellen. Wir freuen uns daher, dass wir heute einen Beitrag von Ulrich Berger präsentieren können, der die Temperaturentwicklung der letzten 130 Jahre auf Muster ausgewertet hat, die bei der Prognose bis 2100 helfen könnten. Für alle Nichtmathematiker ein kleiner Warnhinweis: In der Diskussion tauchen Formeln auf! Wer es eilig hat, kann sich das Resultat in Abbildung 6 anschauen. Fazit: Die Erwärmung wird wohl deutlich geringer ausfallen, als vom IPCC befürchtet.

———————————————————————————-

Von Dr. Ulrich Berger

Da es zu der Problematik, wie hoch der menschliche Anteil an der unbestreitbar gegebenen Klimaerwärmung der letzten 150 Jahre war (und künftig sein wird), immer noch große Differenzen gibt, habe ich (ursprünglich für mich selbst) eine gründlichere Datenanalyse versucht. Ich habe dazu ausschließlich die in Bild 1 gezeigten Messwerte der globalen Temperatur- und CO2-Entwicklung  verwendet. Die in dieser Grafik eingetragene CO2-Kurve ist ein parabolischer Fit an die bisher gemessenen Werte (dunkelblau) und eine mit diesem Fit gerechnete Zukunftsprognose in grau (diese ist natürlich nur EIN mögliches CO2-Szenario). Die gestrichelte Gerade soll einen mittleren Verlauf dessen andeuten, was das IPCC (wesentlich auf Basis der Entwicklung von 1970-2000) meines Wissens per Klimamodellierung vorhersagt.

Bild 1: Temperatur- und CO2-Messwerte als Basis der vorliegenden Analyse

 

Meine Überlegungen gingen von dem Anschein aus, dass die Temperaturentwicklung seit 1880 einem linearen Grundtrend von ca. 0,004 °C/a mit einer überlagerten etwa 60jährigen Periodizität folgte. Auf dieser als „natürlich“ anzusehenden Charakteristik setzt dann ggf. noch eine mit der Konzentration des anthropogenen CO2 (aCO2) wachsende additive Komponente auf. Gründe für diese Annahmen waren folgende:

  1. Unabhängig vom aCO2 gab es in regelmäßigem  Wechsel stagnierende/abkühlende Phasen (ca. 1880-1910, 1940-1970) und Phasen starker Erwärmung (ca. 1910-1940, 1970-2000). Beide Phasen-Typen waren jeweils etwa 30 Jahre lang und wiesen ähnliche Temperaturgradienten auf.
  2. Von 2000 bis 2030 wäre danach wieder eine stagnierende/abkühlende Phase zu erwarten – bisher wird diese Erwartung erfüllt.
  3. Parallel hierzu hat die sog. „Pazifische Dekaden-Oszillation“ (PDO) ebenfalls eine 60jährige Periodizität, deren warme und kalte Abschnitte sich jeweils mit den Erwärmungsphasen bzw. stagnierenden/abkühlenden Phasen der Globaltemperaturen (s. Bild 1) weitgehend decken.

Um hier nun nicht bei Vermutungen und Behauptungen stehen zu bleiben, habe ich einmal versucht, auf rechnerischem Wege die nichtanthropogenen Vorgänge von den Effekten zu isolieren, die auf das Wirken des Menschen (des aCO2 hauptsächlich) zurückgehen. Wie Bild 1 zeigt, begann das aCO2 etwa 1940-1960, einen merklichen Anteil an der Gesamt-CO2-Konzentration (gCO2) auszumachen. Daher habe ich zunächst versucht, den T-Verlauf von 1880 bis 1960 mit einer Kombination aus Linear- und Cosinusfunktion (cos-lin-Modell) zu beschreiben. Das wäre dann annähernd als der *natürliche* Verlauf im genannten Zeitraum anzusehen. Dieser Grundtrend sollte sich auch später fortsetzen, da es nicht plausibel ist, sein plötzliches Abbrechen anzunehmen. Ein eventueller aCO2-Effekt würde dann additiv auf dem Grundtrend aufsetzen. Bild 2 zeigt das Ergebnis einer Optimierungsrechnung (Fittung) für den beschriebenen Grundtrend ohne aCO2, sowie des linearen Modellanteils alleine (lin-Modell).

weiter lesen

Teilen:

Mittelalterliche Wärme auf dem nördlichen Tibetplateau lässt Zweifel an Michael Manns Temperaturkarte aufkommen

Im Jahr 2009 veröffentlichte der Erfinder der berühmt-berüchtigen Hockey Stick Kurve, Michael Mann, zusammen mit einigen Kollegen einen Artikel im Fachmagazin Science, in dem sie versuchten, die globale Bedeutung der Mittelalterlichen Wärmeperiode zu widerlegen. Die Idee dabei war, dass die Wärme an einigen Orten der Erde einfach durch Kälte ausgeglichen wird. Hierzu wurden nun dringend Gebiete gesucht, an denen es vor 1000 Jahren kälter als normal war. Das Problem bestand dabei vor allem im atlantischen Raum, wo die Datenlage ausgezeichnet war. Die Temperaturen lagen hier mindestens auf dem Niveau von heute. Also schaute sich Michael Mann in anderen Regionen um, von wo es …

weiter lesen

Osteuropäische Kälteperioden während solarer Schwächephasen

Ein internationales Forscherteam um Ulf Büntgen erstellte kürzlich mithilfe von Baumringen eine Temperaturrekonstruktion für Osteuropa für die vergangenen eintausend Jahre. Die Studie erschien im Januar 2013 im Fachmagazin PNAS. Büntgen und sein Team fanden eine Reihe von Kälteepisoden, die interessanterweise mit solaren Inaktivitätsphasen zusammenfallen (Abbildung 1). Die Autoren schreiben hierzu in ihrer Arbeit:

„Der visuelle Vergleich der Temperaturrekonstruktion und der Sonnenaktivität deutet auf eine Verknüpfung beider Prozesse im Bereich von mehreren Dekaden bis Jahrhunderten hin.“

Abbildung 1: Sonnenaktivität (rote Kurve oben) mit Angabe der solaren Minimaphasen (Wolf, Spörer, Maunder, Dalton). Darunter ist die Temperaturrekonstruktion Osteuropas auf Basis von Baumringen dargestellt (braune Kurve). Quelle: PNAS.

 

Hier die dazugehörige Pressemitteilung der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft WSL vom 14.1.2013:

————————————————————————————————

Osteuropa: Jahrringe als Zeugen von Klima- und Kulturgeschichte
In den vergangenen Tausend Jahren gingen Kälteperioden in Osteuropa mit schwierigen Zeiten für die Menschen einher. Heute ist es in dieser Region warm wie noch nie. Das sind zwei Ergebnisse aus der dendrochronologischen Untersuchung eines internationalen Forscherteams unter der Leitung von Ulf Büntgen von der Eidgenössischen Forschungsanstalt WSL und von der Universität Bern. Die Wissenschaftler haben zum ersten Mal die Frühlingstemperaturen in Osteuropa seit dem Mittelalter lückenlos berechnet. Ihre Studie wurde am 14. Januar 2013 in der renommierten Fachzeitschrift „Proceedings of the National Academy of Sciences, USA“ veröffentlicht.

weiter lesen

Teilen:

Neue chinesische Temperaturkurve der letzten zwei Jahrtausende überrascht: Es war bereits mehrfach wärmer als heute

Ein Forscherteam der chinesischen Akademie der Wissenschaften in Peking erstellte kürzlich eine neue Temperaturkurve, welche die Temperaturentwicklung Chinas für die vergangenen 2000 Jahre beschreibt (Abbildung 1). Die Wissenschaftler um Q. Ge vom Institut für Geographische Wissenschaften vereinten fünf regionale Datensätze des Landes mithilfe statistischer Verfahren. Die entsprechende Arbeit erschien im Januar 2013 in der Fachzeitschrift Climate of the Past Discussions. In der Kurzfassung ihres Aufsatzes schreiben die Klimafachleute: In unserer Studie fanden wir drei Wärmeperioden, die sich um 270-390 n. Chr., 1080-1210 n. Chr. und ab 1920 ereigneten. Die Temperaturen während der Phasen 260-400 n. Chr., 560-730 n. Chr. und 970-1250 n. Chr. …

weiter lesen

Neue Studie in Nature: Ostafrikanischer Dürretrend Teil eines natürlichen Zyklus

In den letzten Jahrzehnten ist es in Ostafrika immer trockener geworden. Heftige Dürren haben der Region stark zugesetzt. Der Schuldige hierfür war schnell gefunden: Es muss wohl der Mensch selbst gewesen sein, der durch seinen fortwährenden CO2-Ausstoß das ostafrikanische Klima nachhaltig geschädigt und den Regen vertrieben hat. So oder so ähnlich argumentieren zumindest etliche Umwelt- und Hilfsorganisationen wie zum Beispiel die Aktion Deutschland Hilft oder Greenpeace. Man muss kein Psychologe oder Marketingexperte sein, um die Intention hinter diesem Vorgehen zu erkennen: Mit Schuldgefühlen spendet es sich einfach besser. So funktioniert der moderne Ablasshandel. (Damit wir uns nicht mißverstehen: Spenden für den guten Zweck sind immer gut, insbesondere für Dürreopfer. Aber es ist unredlich und unnötig, hierfür die Wissenschaft zu verbiegen).

Eine neue Publikation im Fachmagazin Nature stellt nun den angeblich menschengemachten Dürretrend in Ostafrika in Frage. Ein US-amerikanisches Forscherteam von der Woods Hole Oceanographic Institution sowie dem Lamont-Doherty Earth Observatory um Jessica Tierney hat sich die Feuchtigkeitsentwicklung in Ostafrika näher angeschaut und Überraschendes zu Tage gefördert. Zwar konnten die Wissenschaftler anhand von geologischen Rekonstruktionen die stetige Austrocknung Ostafrikas während der vergangenen Jahrzehnte bestätigen. Jedoch gelang es der Gruppe auch, den Datensatz bis zum Jahr 1300 zurück auszudehnen. Im Kontext dieses 700 Jahre umfassenden Datensatzes entpuppte sich der Dürretrend der letzten Jahrzehnte als Teil eines mehrere Jahrhunderte umfassenden natürlichen Zyklus. Anders als zuvor angenommen, begann die Austrocknung nicht erst in der zweiten Hälfte des 20. Jahrhunderts, sondern bereits Ende des 18. Jahrhunderts. Zwischen 1680 und 1765 herrschte in Ostafrika eine ausgeprägte Feuchtphase (Abbildung 1). Dies entspricht dem Höhepunkt der Kleinen Eiszeit, als die globalen Durchschnittstemperaturen um mehr als 1 Grad tiefer als heute lagen. Interessanterweise war es im 14. und 15. Jahrhundert in Ostafrika genauso trocken wie heute. Das CO2 kann an dieser Entwicklung nicht beteiligt gewesen sein, da die Konzentration in der Atmosphäre vor Beginn der industriellen Revolution, also vor 1850, relativ stabil geblieben ist.

Abbildung 1: Feuchtigkeitsentwicklung von Ostafrika während der vergangenen 700 Jahre. Feucht nach oben, trocken nach unten. Quelle: Tierney et al. 2013.

 

Das Forscherteam um Jessica Tierney machte sich daher auf die Suche, um den natürlichen Antrieb der Feuchtigkeitsentwicklung in Ostafrika zu identifizieren. Dabei verglichen sie die Dürre-Daten auch mit der Temperaturentwicklung im Indischen Ozean. Und wer hätte es gedacht: Die beiden Kurven ähnelten sich in hohem Maße. Offensichtlich wird der Regen in Ostafrika vom Indischen Ozean maßgeblich mitbestimmt. Immer wenn es dort kalt ist, verstärkt sich der ostafrikanische Regen. Und wenn es warm wird, werden die Regenfälle seltener (Abbildung 2).

Abbildung 2: Feuchtigkeitsentwicklung von Ostafrika (blau; feucht nach oben, trocken nach unten) und Meerestemperatur der Makassar-Straße (rot; kalt nach oben, warm nach unten) während der vergangenen 700 Jahre. Quelle: Tierney et al. 2013.

weiter lesen

Teilen:

Diplom-Meteorologe Dominik Jung: Der fünfte zu kalte Winter in Deutschland in Folge – Rekord!

Dominik Jung von wetter.net ist als anerkannter Wetter-Fachmann von den deutschen Medien geschätzt und wird regelmäßig zum Wettergeschehen befragt (siehe z.B. Beiträge in Focus, Freie Presse, Bild, Wiesbadener Kurier, Die Welt). Am 15. Februar 2013 veröffentlichte Dominik Jung auf wetter.net nun eine aufschlussreiche Analyse der letzten Winter in Deutschland, die wir hier gerne vorstellen möchten: —————————————– Von Dominik Jung, Diplom-Meteorologe  Wiesbaden (wetter.net), 15.02.2013 – Noch vor ein paar Jahren wurde uns von den Klimaexperten prophezeit, dass es in Deutschland zukünftig keine Winter mehr mit Eis und Schnee geben würde. „In den 90er Jahren gab es eine ganze Reihe milder und stürmischer Winter. Diese brachten zahlreiche Schäden …

weiter lesen

Deutschland – Ein Wintermärchen

Von Klaus-Eckart Puls und Sebastian Lüning

Als Heinrich Heine im Dezember 1843 von Paris nach Hamburg reiste, fand er ihn so vor wie wir ihn heute: Den ganz normalen Winter. Aktuell herrschen in diesem Winter 2012/13 in Deutschland und in weiten Teilen Europas wiederholt über etliche Wochen jeweils Kälte, Eis und Schnee  –  der fünfte Winter dieser Art in Folge. Wer erinnert sich da schon noch an die Prognosen und Aussagen einiger Alarmisten aus der etablierten Klima-Forschung, wie diese [1]:

„Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“ sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie.“ Dieses Zitat stammt aus einem SPIEGEL-Interview des Jahres 2000, mit der Schlagzeile „Winter ade: Nie wieder Schnee? In Deutschland gehören klirrend kalte Winter der Vergangenheit an“.

Allerdings – vielleicht beliebte Herr Prof. Latif auch nur zu scherzen, denn – der Artikel  erschien im Jahre 2000 am 1. April ! Unter diesem Aspekt könnte man leicht darüber hinweg gehen, wenn – ja wenn – diese Aussage von Herrn Latif und auch anderen Klima-Forschern nicht in ständiger Wiederholung stände, z.B. [2]:

„Die sehr milden Winter in den vergangenen Jahrzehnten sind vor allem auf den anthropogenen Treibhauseffekt zurückzuführen. Als Konsequenz registrieren wir beispielsweise einen Rückgang der Schneefälle. Während die heute 50-Jährigen als Kinder fast in jedem Winter Schlitten fahren konnten, müssen Kinder heute oft viele Jahre auf größere Mengen Schnee warten.“

Das müssen die Kinder seit fünf Jahren nun nicht mehr –  wie schön für unsere Kinder ! Aber – das alles war offensichtlich noch nicht ausreichend, denn nur zwei Jahre später (2005) ließ sich Mojib Latif erneut vernehmen [3], nun gleich für 50 Jahre im voraus:

2050 kein Schnee mehr im Flachland ; Mainz (dpa). Die Winter in Deutschland werden nach Ansicht des Kieler Klimaforschers Mojib Latif weiterhin wärmer. Ohne künftigen Klimaschutz „wird es im Jahr 2050 in Deutschland keinen Schnee mehr geben – zumindest nicht im Flachland“, sagte der Professor vom Institut für Meereskunde der Universität Kiel gestern im ZDF-Mittagsmagazin. Der beobachtete Trend zu wärmeren Wintern werde sich fortsetzen.

Darf man auch hier mal nachfragen: Wo ist dieser Trend nur in den vergangenen fünf Wintern geblieben ? In einem Konferenz-Bericht der Dow Jones News GmbH [4] wird der „…renommierte Kieler Klimaforscher Prof. Mojib Latif…“ dort sinngemäß so zitiert:

‚Die von den Wissenschaftlern diskutierten Szenarien gingen von einer weiteren Erwärmung von durchschnittlich 1,4 bis 5,8 Grad bis zum Jahrhundertende aus. In Deutschland werde es dann keinen Frost oder Schnee mehr geben, in heißen Klimazonen komme es zur Verwüstung.‘

weiter lesen

Teilen:

Wieviel menschengemachter Einfluss steckt im Klimawandel?

Von Frank Bosse

Glaubt man Stefan Rahmstorf und Grant Foster (Foster & Rahmstorf 2011, im Folgenden „F/R 11“) ist es ganz einfach mit der Berechnung des menschgemachten Klimawandels: Man nehme die beobachteten Temperaturdaten 1979-2010, subtrahiere das, was durch El Nino und La Nina (ENSO) beigetragen wird, außerdem die Änderungen, die durch die Variation der Sonnengesamtstrahlung (TSI) eingetragen werden und schließlich  berücksichtige man noch die vulkanischen Aerosole – und simsalabim – das, was da übrig bleibt, ist die menschgemachte Erwärmung. Abbildung 5 aus F/R 11 zeigt das Ergebnis:

 

Was wir sehen, ist ein linearer Trend mit einer Erwärmung von ca. 0,15 Grad Celsius pro 10 Jahre und daran ist „am wahrscheinlichsten ausschließlich der Mensch“ schuld! Aus der Zusammenfassung von F/R 11 (Fettsetzung ergänzt):

„The resultant adjusted data show clearly,…, that the rate of global warming due to other factors (most likely these are exclusively anthropogenic) has been remarkably steady during the 32 years from 1979 through 2010.”

Das sind in der Tat alarmierende Nachrichten: Bis 2100 wären wir dann auf der Ordinate ihres Bildes bei 2 Grad Erwärmung, hinzu kommen noch 0,8 Grad seit Beginn der Industrialisierung, die schon aufgelaufen sind.

Sind wir einer sehr kritischen globalen Situation nahe oder ist es wie bei bisher allen diesen Ankündigungen in der Geschichte – prophezeite Katastrophen  traten noch nie wirklich ein? Ist der Alarm also stichhaltig? Oder gibt es da noch eine größere interne Variabilität, die beim Alarm nicht berücksichtigt wurde? Hätten die Autoren vielleicht von möglichen Argumenten gegen ihren Schluss wissen können? Ihr Kollege Latif (ja, der mit den Prognosen über den ausbleibenden Winterschnee und die Sommertemperaturen von bis zu 50 Grad Celsius in Mitteleuropa – beides nicht eingetroffen) hatte bereits 2006  (Latif et al. 2006) eine dekadische Variabilität in Modellen simuliert, und es gab auch aktuelle Hinweise zum Zeitpunkt des Verfassens der F/R 11-Arbeit: So hatten u.a. DelSole et al. 2011 gewarnt: es könnte eine Variabilität ohne jedes Forcing (ohne treibende Kräfte von außen wie etwa Treibhausgase, Sonne oder Vulkane) geben, die auf Zeitspannen von etwa 30 Jahren einen Trend von 0,08°C pro 10 Jahre erzeugen kann, ohne dass der Mensch dazu beiträgt.

Dass es eine „Fluktuation“ geben muss, die F/R (2011) in ihrer Betrachtung nicht berücksichtigten, liegt auf der Hand: Benutzt man ihren Algorithmus (er ist nicht sehr kompliziert, ein geübter Benutzer eines Kalkulationsprogrammes braucht kaum eine Stunde, um die linearen Rechnungen nachzuvollziehen – erstaunlich wenig Zeit für so etwas komplexes wie unser Klima) für die Jahre 1915-1945 ist man verblüfft:

 

Auch im frühen 20. Jahrhundert verbleibt ein Anstieg von 0,12 Grad/10 Jahre, und der kann in dieser Höhe damals schwerlich menschengemacht sein. Die atlantische multidekadische Oszillation (AMO) war schon seit 2000 und davor bekannt, aber die Erklärung hierfür lange strittig: Ist es ein Auf-und-Ab der Temperaturen des nördlichen extratropischen Atlantiks, das selbst durch ein Forcing entsteht, oder ist es eine Schwankung der thermohalinen Zirkulation, also völlig natürlich?

Das IPCC setzte bisher auf das Forcing als Ursache der Schwankungen in der Temperaturreihe seit 1880 und erklärte es so: Die Erwärmung nach 1910 entstand durch ein Nachlassen der kühlenden Wirkung von vorangegangenen Vulkanausbrüchen. Die Abkühlung 1945-1975 wurde dagegen durch troposphärische, vornehmlich anthropogene Aerosole verursacht, die zunächst ein Absinken der Sonnenstrahlung am Boden („Global Dimming“) und nach 1975 mit dem Greifen von Umweltschutzmaßnahmen zu ihrer Reduzierung ein Aufhellen („Global Brightening“) bewirkten.

Immer wieder erschienen Arbeiten hierzu. Darunter solche, die die AMO auch in Modellen nachvollzogen, ohne dass immer wieder Aerosole die Variabilität zum richtigen Zeitpunkt etwa alle 60 Jahre „von oben her“ steuern mussten, genannt seien Wei & Lohmann (2012) und Wouters et al. (2012). Aktuell ist auch eine Publikation, die die These des aerosolen Forcings stützt: Booth et al. 2012 meinten in Simulationen zeigen zu können, dass man das Verhalten der nordatlantischen Variabilität der Oberflächentemperaturen des Ozeans durch Aerosolforcing im 20. Jahrhundert vollständig erklären könne. Dem widersprachen erst unlängst Zhang et al. (2013). Sie fanden, dass bei Einbeziehung des Wärmeinhalts der oberen 700m (Ocean Heat Content – OHC) des nördlichen Atlantiks die Erklärung durch Aerosolforcing allein sehr zweifelhaft ist.

weiter lesen

Teilen: