Klimatologische Wahrheitsfindung à la Correctiv

Von Michael Kalisch
Diplombiologe

Vor einiger Zeit stolperte ich über eine klimatologische Wahrheitsfindung durch correctiv (nicht suchen, finden!), die ihre Beweisführung überwiegend auf die neue Attributionsforschung stützt – womit sich neuerdings jeder weitere Beweis, jede Selbstkritik und auch jedes Gegenüberstellen unterschiedlicher Sichtweisen endlich erübrigt hat. Dabei verharrt der Grad der physischen Verdichtung schwebend im Reich des Konjunktivs – könnte, dürfte, sollte, wäre, vermutlich, wahrscheinlich… In dem correctiv-Korrektiv, in dem es zunächst um das Thema dürrer Sommer und niedriger Flusspegel geht, findet sich folgende Passage:

„Ein einzelnes Extremereignis an einem Pegel oder Fluss könne nicht herangezogen werden, ‹um einen anthropogenen Einfluss auf den Klimawandel in Frage zu stellen›, schrieb uns die Bundesanstalt für Gewässerkunde per E-Mail.“

Andersherum aber kann man offensichtlich sehr wohl: ein Einzelereignis als Indiz für die Folgen des anthropogenen Klimawandels heranzuziehen, das geht! Zum Glück haben sie ein Diagramm beigefügt, das für sich selbst sprechen kann:

Abb.: Serie des mittleren Niedrigwasserabflusses der Jahre 1890 bis 2021 am Elbepegel Dresden. (Quelle: Bundesanstalt für Gewässerkunde) Dieser Wert ist das arithmetische Mittel aus den jährlich niedrigsten Abflüssen (NQ) für die Jahre des Betrachtungszeitraums.

Schon hier lässt sich eine etwa 10jährige, teilweise auch 5jährige Zyklizität erahnen – vermutlich synchron schwingend mit dem (10-11jährigen) Schwabe-Zyklus der Sonnenaktivität. Solche Pegelstandszyklen sind dokumentiert und beschrieben (Hubertus Schulze-Neuhoff: SKI und RODEL gut – ab sofort wieder öfters: Fazit aus: Klima-, Erd- und Sonnenzyklen, 2006). Sehr aufschlussreich ist auch die Seite http://www.pegeldeutschland.de/ mit Pegelständen der großen Flusssysteme. Dort erfährt man z.B., dass die 10 jemals gemessenen Niedrigstpegelstände in Karlsruhe-Maxau in der Zeitspanne von 1882 und 1947 verzeichnet wurden. Aber es gibt natürlich auch andere Beispiele, wie Worms, wo 5 der 10 Niedrigststände seit 2003 eintraten.

Die Faktenkorrigierer haben außerdem noch folgende Quelle angeführt, eine Pressemeldung des PIK (journalistisch eher auf dem Niveau von Spiegel, Focus …: „Ihr habt schon Angst? Wir machen, dass euch richtig Angst wird! Und Fortsetzung folgt!!“): vom 7.10.2021 mit folgenden Bild und der Unterschrift:

„Auch mit dem Klimawandel verbundene Regenextreme wie das Hochwasser 2021 in Westdeutschland haben zugenommen. Hier in Altenahr, Rheinland-Pfalz. (Bild: M. Seifert, Wikimedia Commons).“

War das Ahr-Hochwasser eines der Exempel für die Zunahme der „Regenextreme“? Wirklich? 1) Zum einen lag das Ereignis zeitlich ganz im Rahmen der bisherigen Extremereignisse im Ahrtal, die seit dem 17. Jh. dokumentiert sind, nämlich 1601 – 1719 – 1804 – 1910 und zuletzt 2021. Seit 1601 kam es also alle durchschnittlich 105 Jahre zu einem Extremhochwasser. Interessant wäre eine rückwärtige Verlängerung ins 16., 15. Jh. bis zum Übergang von der Mittelalterlichen Warmzeit zur Kleinen Eiszeit, einer dramatischen Zeit extremer Wetterereignisse, z.B. anhand von Diagrammen, die Rüdiger Glaser in seinem Buch Klimageschichte Mitteleuropas. 1200 Jahre… zeigt. Dabei könnten auch Vergleiche gezogen werden: die extremen Hochwasser der Pegnitz kehrten fast taktmäßig jeweils etwas nach der Mitte eines Jahrhunderts wieder; und die Ereignisse des 16. und 17. Jhs. überragten alle anderen.

Nimmt man große Flusssysteme wie Rhein oder Elbe, so zeigt sich nicht mehr diese deutliche ‹Taktung›, weil das Einzugsgebiet Regionen unterschiedlicher Wetterregimes zusammenfasst, man erkennt Überlagerungen verschiedener Rhythmen. Der Gleissberg-Zyklus ist einer von ihnen (er spaltet sich in zwei Wellenlängen auf, 55–82 und 110–123 Jahre).

Außerdem war die Wassermenge im Juli 2021 im Ahrtal nicht größer als 1804, nur die Abflussgeschwindigkeit war erhöht. Wie kommen die Cherry-PIKKer daher zu folgender Aussage:

„Schon heute sind Extremereignisse, die mit dem vom Menschen verursachten Klimawandel zusammenhängen, auf einem noch nie dagewesenen Niveau, …“

(alle Hervorh. MK). Welchen historischen Rahmen betrachtet man eigentlich in Potsdam? Bei Hermann Flohn finden sich Angaben für das postglaziale Wärmeoptimum vor ca. 6000 Jahren, dass die Temperaturen in Mitteleuropa, aber selbst im Himalaya, in Feuerland und in der Antarktis um 2-3° höher waren als heute (H. Flohn: Arbeiten zur Allgemeinen Klimatologie, 1971. S.100), sowie Angaben zu den Temperaturen im letzten und wärmsten großen Interglazial (Eem) vor ca. 127-115 ka: sie betrugen in Mitteleuropa ca. +2.5° gegenüber heute, im kontinentaleren eurasischen Bereich sogar +5-6° (H. Flohn: Das Problem der Klimaänderungen in Vergangenheit und Zukunft, 1985. S.148ff.)

Müsste man nicht in jenen Zeitabschnitten nach vergleichbaren „Extremereignissen“ suchen, oder haben wir Menschen die gepachtet?- Wo setzt die Weltgeschichte für das PIK ein? Beim Beginn der Messungen in Potsdam (1893)? Oder an Prof. Rahmstorfs Geburtstag 1960? Ohne Angabe eines Zeitrahmens erklären uns dies „… die Forschenden. Und sie erwarten eine weitere Zunahme…“ Das ist selbstverständlich. Es gibt nichts, was so überzeugend wirkt wie Voraussagen, die nicht belegt werden müssen und können! Und weiter im Text: „… Noch stärker ist die Veränderung bei den Extremereignissen, die wir als 4-Sigma-Ereignisse bezeichnen, und die es vorher praktisch nicht gab – hier sehen wir sogar eine Zunahme um das 1000-fache im Vergleich zum Referenzzeitraum [1951-1980, der zufällig in einer Kaltphase des 20. Jhs. lag, vermutlich bedingt durch das Auftreten des Rahmstorfschen Geburtstags am Beginn des zweiten Dezenniums].“

Das ist allerdings nun überraschend. Etwas war noch nie da (seit 1951…) und nimmt dann gleich auf 1000% zu? So wenig? Muss man es nicht als ‹Singularität› bezeichnen, so wie den Urknall? Doch nun kommt das Spannende: „… Im Vergleich zu dem, was in einem Klima ohne globale Erwärmung zu erwarten wäre, ist die Zahl der Regenrekorde um etwa 30 Prozent gestiegen. Dies bedeutet, dass einer von vier Rekorden bereits auf den vom Menschen verursachten Klimawandel zurückzuführen ist. Die Physik dahinter wird durch die Clausius-Clapeyron-Gleichung erklärt: Luft kann pro Grad Celsius Erwärmung 7 Prozent mehr Feuchtigkeit aufnehmen.“ Vor allem dreht es sich um Temperaturextreme, die zunehmen sollen – es ist natürlich auch äußerst überraschend, dass im Zusammenhang mit einer Erwärmung die extremen Hitzetage zunehmen.

Wie sie aber zur Aussage „Im Vergleich zu dem, …“ kommen, wo wird es uns verraten? Mit welchen Tricks arbeiten die Attributionsmodelle, um ein „Klima ohne globale Erwärmung“ zu produzieren, wenn selbst die CMIP-Modelle nicht in der Lage sind, die bekannte Vergangenheit korrekt ‹rückzusimulieren›? Wo nehmen sie dieses „Klima ohne“ her? Eine ganz ketzerische Frage müsste lauten: Gab es überhaupt jemals ein „Klima ohne globale Erwärmung / Abkühlung“, weil insbesondere das „globale Klima“ eine Abstraktion ist, das mit Mittelwerten aus beliebig langen Zeitreihen definiert werden kann, womit alle kürzeren und längeren Wellen nivelliert werden? Was läuft hier eigentlich ab, methodisch gesehen? Ist dieses Ding ‹Attributionsforschung› überhaupt schon unter Klimatologen offen und breit diskutiert worden, oder ist es so eine ‹Setzung› wie die Schellnhuberschen Kipp-Punkte, die einfach selbst-evident sind, indem immer wieder von ihnen gesprochen wird, so dass aus einer These irgendwann eine ‹etablierte Theorie› geworden ist?

Meine zentrale Frage ist hierbei: Wo wird von den Attributionisten die ‹natürliche Variabilität› berücksichtigt, und zwar so, wie sie beschaffen ist: als Ensemble unterschiedlichster Zyklen? Wie jeder der oben zitierten Doktorarbeit von Schulze-Neuhoff entnehmen kann, gibt es Zyklen für alle möglichen Extreme oder besonderen Wetterlagen – auch anscheinend singuläre, man muss nur genau genug und weit genug schauen, nicht nur 30 Jahre zurück und weniger, wie heute. Die Vielfalt an Zyklen, die er zusammengestellt und mit Beispielreihen belegt hat, ist überwältigend, selbst das ‹wiederkehrende schöne Wochenendwetter› ist so ein Zyklus (7 d) – und vieles davon hängt mit Zyklen der Sonne zusammen (Aktivitätsveränderungen, oder aber auch Bahnbewegungen um das planetarische Baryzentrum), sogar mit dem Mond, mit dem Erdmagnetfeld usw.

Sollte man nicht eigentlich so vorgehen: Es existiert eine These, die bereits vielfach geprüft und bestätigt wurde – 1) Wetterextreme, bestimmte Großwetterlagen, wiederholen sich zyklisch. Ferner gibt es Häufungen, kürzere Serien ähnlicher Ereignisse, z.B. eine Gruppe sehr trockener Jahre, dann wieder etwas anderes – in 2.5er-, 5er-, 10er-, 20er-Jahreszyklen, was heute anscheinend selbst den Fernsehmeteorologen nicht mehr bekannt ist. 2) Neue Ereignisse müssten zunächst daraufhin untersucht werden, ob sie in einen dieser Zyklen hineinpassen, wobei auch die Lokalisierung zu berücksichtigen ist – wenn das nicht feststellbar ist, dann kann man weitergehen und 3) fragen, ob das anders zu ‹attributieren› wäre. Also erst eine bestehende These prüfen und gegebenenfalls falsifizieren, dann neue Erklärungen zur Anwendung bringen.

Wurden diese Methoden wissenschaftlichen Arbeitens einfach stillschweigend suspendiert? Immer öfter wird der Grundsatz befolgt: „Beweise nicht – behaupte!“ Ist das die sog. ‹Postnormale Wissenschaft›, die auch nicht mehr von Wissenschaftlern, sondern von ‹Forschenden› ausgeführt wird? Oder – eine schlimme Vermutung – handelt es sich hier ebenfalls um einen großen historischen Zyklus: nach 500 Jahren kehren wir in die Zeit vor Galilei zurück? Konzilien bestimmen wieder konsensuell, was ‹wahr› ist… ?

Nachbemerkungen:

1) Interessant ist auch die Argumentation der PIKker mit ‹Clausius-Clapeyron›, um Regenrekorde zu erklären: „Luft kann pro Grad Celsius Erwärmung 7 Prozent mehr Feuchtigkeit aufnehmen“, während man gleichzeitig versucht, Niedrigwasser als Ausdruck desselben anthropogenen Klimawandels zu erklären, was ja ein diametraler Widerspruch ist. Wo ist die Lösung? Man muss sich klarmachen, dass die absolute Luftfeuchtigkeit mit der Temperatur steigen kann (also der transportierte Wassergehalt), dies aber nicht geschehen muss – denn das hängt auch davon ab, ob überhaupt Wasser zur Verdunstung vorhanden ist und welche Temperatur das Wasser hat. So wie der oben zitierte Leitsatz gilt: „Ein einzelnes Extremereignis an einem Pegel oder Fluss kann nicht herangezogen werden, um einen anthropogenen Einfluss auf den Klimawandel in Frage zu stellen“, sowie dessen übersehene Umkehrung: „Ein einzelnes Extremereignis […] kann nicht herangezogen werden, um einen anthropogenen Einfluss auf den Klimawandel zu begründen“, so muss man auch bedenken: „Ein einziger physikalisch gesetzmäßiger Zusammenhang [wie das Clausius-Clapeyron-Gesetz] kann nicht herangezogen werden, um Veränderungen des Klimas zu begründen oder vorauszusagen.“

Denn Ereignisse wie langanhaltende Dürren genauso wie großflächige Starkniederschläge sind Ausdruck von großräumigen Witterungszuständen (etwa Vb- oder Omega-Lagen) und somit von synoptischen Phänomenen, die (meines Erachtens) nicht rechnerisch direkt deduzierbar / modellierbar sind aus physikalischen Einzelgesetzen („bottom up“), weil sich hier das unvermeidbare Chaos dazwischenschaltet… so dass diese synoptischen Phänomene und ‹Gebilde› (etwa eine Mesozyklone) eine Art Eigenwürde haben – obwohl sie physikalisch durch die Werte der bekannten Parameter Druck, Temperatur, Luftfeuchte, Windstärke usw. charakterisiert werden können („top down“). Die Widersprüchlichkeit von Dürre und Überschwemmung löst sich erst auf, wenn man auf die synoptischen Phänomene eingeht: stationäre Hochs bzw. Tiefs von großer Ausdehnung, die außerdem in bestimmten Jahreszeiten auftreten (was bereits der Blick in die Tabellen der Pegelextreme erahnen lässt: eine Häufung im Januar-Februar oder im Juli-August). Die Luft im Tief und im Hoch mag die gleiche Temperatur haben, dennoch verhält sie sich gegensätzlich.

Das erklärt nicht ‹Clausius-Clapeyron›, sondern die global schauende Synoptische Meteorologie zusammen mit historischen Wetterdaten, die in eine Klimatologie überführt, welche sich auf konkrete Zonen, Jahreszeiten, Epochen und sogar astronomisch bedingte Zyklusphasen (Milancovich) bezieht, und die nicht nur tote ‹Mittelwerte› (die als Bezug ihren Wert haben) sammelt, sondern Zyklen erkennbar macht, die mit kulturellen und Umgebungsveränderungen korreliert werden können.

2) Noch ein anderes Beispiel dafür, wie die „Faktenchecker“ vorgehen – ob mit Vorsatz oder nicht lasse ich dahingestellt: Der „Physikprofessor“, um den es hier geht, ist der Astrophysiker Nir Shaviv (die correcten› Angaben zu seiner Person datieren teilweise vom Jahr 2000…). Dieser Beitrag zur Bereinigung ‹falschen Denkens› demonstriert auch die diffizile Kunst, Haare zu spalten: durch das Fokussieren auf Nebensächlichkeiten verliert der Leser den Blick für das Wesentliche und geht dann den eher dünngewobenen Argumenten ins Netz (sogar der Faktenchecker selbst mag sich im Wirrwarr von richtigen und falschen Berechnungen verheddern). Diese Form von Mikroskopie zeigt Details übergroß – aber sie hat eine Kehrseite: das Gesichtsfeld wird extrem eng.

So ist es korrekt, dass Michael Mann nicht wegen seines ‹Hockeysticks› vor Gericht stand – aber damit ist dieses Artefakt der Temperaturrekonstruktion (oder sollte man sagen –orthopädie?) noch keineswegs rehabilitiert; die Zahl der Eisbären stünde „nicht auf einem Rekordniveau“, aber wie groß sie heute tatsächlich ist, z.B. im Vergleich zu Jahrzehnten davor, wo er durch Bejagung noch stark dezimiert war, erfahren wir nicht (laut der zitierten Seite, die nur noch auf archive.ph zu finden ist, sind es heute im Mittelwert etwa 22.000, im Gedächtnis habe ich, dass es in den 1960ern nur um 6000 waren). Stattdessen wird damit argumentiert, der Eisbär stünde ja auf der Roten Liste und gelte als „gefährdet“. Die Rote Liste ist offenbar eine Naturtatsache und wird daher nicht überprüft. Ein Kunststück der Zoologie wird ganz nebenbei auch noch vorgeführt, vom IUCN wurden nämlich die 19 zu unterscheidenden Eisbär-Populationen rund um den Nordpol jetzt zu „Unterarten“ erklärt. Da die Informationen über die Tiere teilweise lückenhaft sind (was correcterweise zugegeben wird), ist dieses Machtwort ein Wagnis. Wo sind die 19 Belegexemplare, wo sind die Artdefinitionen?

Ich zitiere das Ergebnis dieses Mikroskopierkurses auch deshalb, weil hier „von berufener Seite“ eine bestimmte Zahl genannt wird, die den meisten Zeitgenossen unbekannt sein dürfte und die, wenn man sie ausspricht, auf Unglauben, wenn nicht Empörung stößt – nämlich wie groß der Anteil des Menschen am Eintrag des atmosphärischen CO2 ist – unsere Correct(iv)en bestätigen die in den sozialen Medien geäußerte Behauptung, vom Gesamten „produziert die Natur selbst etwa 96 %. Den Rest, also 4 %, der Mensch.“ Auf einer älteren Seite hatten sie sogar nur 3% angegeben:

„Dass die Natur wesentlich mehr CO2 emittiert als der Mensch, stimmt. ‹Etwa 97 Prozent der jährlichen globalen CO2-Emissionen sind natürlichen Ursprungs und damit Bestandteil des globalen natürlichen Kohlenstoffkreislaufs (IPCC, 2013; USGCRP, 2018)›, teilt Eric Fee vom Umweltbundesamt CORRECTIV schriftlich mit.“

Das große „ABER“, das dann folgt, will ich der Correctheit zuliebe nicht vorenthalten: das vom Menschen stammende CO2 verweile viel länger in der Atmosphäre als das natürliche! Damit sind wir gezwungen, es als einen völlig anderen Stoff anzusprechen, also faktisch einen ‹Fremdstoff›! Das rückt natürlich unsere ‹Klimakrise› in ein ganz anderes Licht. Es handelt sich bei ihr um weltweite, mutwillige und verantwortungslose Verschmutzung der Atmosphäre; das erklärt auch, warum manche Klimaschützer CO2 in einem Atemzug mit FCKWs nennen. Das muss sofort aufhören… Man muss correctiv sogar vorwerfen, dass sie dies nicht in entsprechender Schärfe betont haben! Sie hätten ihren doch beträchtlichen Einfluss dazu nutzen müssen, auf dieses ungeheure Verbrechen an der Natur hinzuweisen: das von uns produzierte CO2 nennen wir nur so, um damit über die Tatsache hinwegzutäuschen, dass es weder von Pflanzen noch von Wasserkörpern noch von Verwitterungsprozessen in die Natur aufgenommen werden kann. Es kann sich nur heimlich in irgendwelche mikroskopischen Lücken hineindrücken. Das dauert Jahrhunderte.

Das muss sofort aufhören! Aber es gibt Hoffnung (ja, Frau Neubauer!): Erste Schritte in der Richtung werden gerade in Deutschland unternommen. Das weitgehend überflüssige Heizen (die Wärme verfliegt ja sowieso sofort wieder) wird als erstes drastisch eingeschränkt.

Teilen: