Der Signal-to-Noise-Ansatz

Von Stefan Kennedy

ausgehend von diesem Welt-Artikel über Klaus Hasselmann war mein Interesse geweckt, wie man denn mit statistischen Methoden, hier signal_to_noise_ratio, einen menschengemachten Klimawandel beweisen könnte. Ich bin dann tatsächlich auf das Original aus den 70-ern gestoßen und muss zugeben, dass ich nichts verstanden habe: content (mpg.de). Das Dokument aus den 90-ern dagegen ist schon spannend: MPI-Report-168.pdf (mpg.de). Hinzugezogen habe ich noch das hier: A signal-to-noise paradox in climate science | npj Climate and Atmospheric Science (nature.com)

Was ergibt sich daraus? Der Ansatz signal_to_noise_ratio ist wissenschaftstheoretisch sehr herausfordernd. Die Ausgangs-situation wird ja gerne als Erforschung eines chaotischen Systems beschrieben, was dann manchmal zu etwas absurden Aussagen führt, wie dass ein Schmetterling einen Wirbelsturm verursachen könnte. Wollte man das ernst nehmen, wäre es ein erkenntnistheoretischer Offenbarungseid. Ich denke, kein Klimasystem befindet sich so nah am Gleichgewicht, dass nicht die großen Faktoren alles andere überlagern würden.

Die Herausforderung des signal_to_noise Ansatzes besteht nun darin, sich bewusst zu machen, dass man in einem chaotisch erscheinenden System nicht auf einfache Art die wesentlichen Treiber des Systems ermitteln kann. Die angewendeten Verfahren müssen sehr genau begründet werden. Z.B. warum habe ich Daten geglättet und warum habe ich das zu einem bestimmten Zeitpunkt getan. Was habe ich als Faktoren zugelassen und kann ich gut begründen, warum ich welche wegließ.

Man muss bedenken, dass ein beliebiger Zufallsgenerator mit genügend Freiheitsgraden über mehrere Zyklen hinweg ein reales chaotisches System mit hoher Korrelation abbilden kann. Hier kommen statistisch zufällige Häufungen mit der Eigenschaft des beobachteten Systems zusammen, das sich selbst immer wieder reguliert und Extreme abglättet (wie das Klimasystem z.B.). Man würde die signal_to_noise_ratio der selbst eingeführten Faktoren also überschätzen.

Die Arbeit mit diesem Ansatz ist daher per se eine statistische Herausforderung und bedarf fundierten Wissens. Auf der anderen Seite gibt es das signal_to_noise_paradox, dass nämlich Modelle die Realität besser vorhersagen können als ihre eigenen Simulationen. Hier herrschte wohl eine Unterschätzung des Einflusses der zugelassenen Faktoren oder das Weglassen von nicht und nur wenig bekannten Faktoren. Die signal_to_noise_ratio sollte eigentlich höher sein.

Verwunderlich ist dieser Effekt nicht, wenn man bedenkt, dass es sich beim erforschten System um ein selbstregulierendes handelt, das sich zudem höchstwahrscheinlich in einer ruhigen Phase befindet, so dass es sich passend zu den unterschätzten Faktoren verhält. Oder anders ausgedrückt: Die Treiber des Systems können für sich sehr stark sein, sind aber ggf. wechselseitig voneinander abhängig oder addieren sich in bestimmten Zeiten zu kleinen Werten, so dass Vieles unsichtbar bleibt.

Wenn wir die Sache im Kontext des Kalte Sonne Blogs betrachten, geht es um die Anteile von Sonne und Co2 an der Klimaerwärmung seit ca. 1850. Aber auch die Aerosole sind wichtig, wie wir bei Hasselmann sehen können, der eine gute Abbildung der Temperaturveränderungen mit Co2 und Aerosolen erstellen konnte. Des Weiteren spielen bekannte Oszillationen eine große Rolle in den hiesigen Fragestellungen (AMO, NAO, PDO, etc.), sowie die vermuteten Abhängigkeiten derer von der Sonnenaktivität.

Wie kann man das mit dem signal_to_noise Ansatz in Zusammenhang bringen und ist das überhaupt sinnvoll? Es ist zumindest wünschenswert aus zwei Gründen: Auf der einen Seite kapriziert man sich anderswo gerne auf wenige Faktoren, die das Klima antreiben sollen, weil man so auf sicherem wissen-schaftlichen Grund bleibt. Auf der anderen Seite (signal_to_noise_paradox) begibt man sich der Möglichkeit verbesserter Vorhersagen von mittel- oder langfristigen klimatischen Änderungen, die für Millionen von Menschen überlebenswichtig sein können. Niemand will den Beweis sehen, wie die Sonne im nächsten Minimum ihren Einfluss geltend macht!

Ich meine Herr Prof. Vahrenholt, Herr Dr. Lüning, Herr Prof. Lüdecke und sicher viele andere nähern sich durch ihre intensiven Forschungen dem Ideal eines umfassenden Verständnisses des Klimageschehens der Erde an, indem sie genau darauf achten, was denn identifizierbare, belegbare Treiber sind, welche Abhängigkeiten und Überlagerungen zwischen ihnen bestehen und wie man sie quantifizieren kann.

Sie entgehen damit einerseits der statistischen Falle, nur einen oder zu wenige Faktoren in Betracht zu ziehen, aber auch der Beliebigkeitsfalle, die dadurch entsteht, dass man vom Chaos ausgeht, sich der Weitsicht beraubt, oder bestimmte Faktoren sträflich vernachlässigt.

Ich denke, der signal_to_noise Ansatz ist als impliziter Anspruch längst in die Klimaforschung eingegangen. Nehmen wir z.B. die aktuelle Diskussion über den Einfluss der Sonne auf das Klima der Erde: Man kann den Einfluss der Sonne auf die Ozeanzyklen sehen (zumindest mit sehr hoher statistischer Übereinstimmung). Gleichzeitig weiß man aber, dass die Schwankungen der Wärmestrahlung der Sonne für solche Effekte nicht ausreichen.
Geht man jedoch unvoreingenommen an die Sache heran und schaut nach neuen (beweisbaren) Zusammenhängen, sieht man z.B. auf einmal die Schwankungen in der UV-Abstrahlung der Sonne, die, das weiß man heute, großen Einfluss auf die Strömungen in der Atmosphäre haben und so die Meeresströmungen beeinflussen können. Sicher gibt es noch viel mehr…

Auf diese Art kommt man zu einem immer tieferen und komplexeren Verständnis der Zusammenhänge. So ist auch die kommende Arbeit von Lüdecke, Lüning et al., die sich mit den Niederschlagsmustern in Afrika beschäftigt, in diesem Geist des signal_to_noise Ansatzes entstanden.

Teilen: