Sonntag, 1. März 2015

Rund um den Hiatus

Seit 1998 wird es angeblich nicht wärmer, glauben Menschen, die man als Leugner des wissenschaftlichen Standes zum Klimawandel bezeichnen muss. Es gab schon zuvor Phasen, die für einen angeblichen Stopp des Klimawandels herhalten mussten, aber am ergiebigsten war sicher der Zeitraum seit 1998. Es gibt Varianten, etwa kein signifikanter Trend seit 1995, eine Aussage, die um 2010 die Runde machte, oder kein Trend seit 18 Jahren, was in letzter Zeit in Bezug auf die RSS-Satellitenmessungen gerne über die Propagandaseite Wattsupwith... mit einer entsprechenden Graphik verbreitet wird. Nicht selten sind auch Behauptungen der Art, dass  seit 15 Jahren Modelle und Beobachtungen auseinanderlaufen. Hinter den verschiedenen Aussagen stehen verschiedene Formen der Irreführung und Mißverständnisse, aber sie haben auch einiges gemeinsam. Unter anderem eine falsche Auffassung davon, was der Begriff Hiatus eigentlich meint.


Vergleich der globalen Temperaturanomalie aus Beobachtungen (schwarz) mit den Resultaten der verschiedenen Modelle (im Mittel rot und blau, Einzelrealisationen gelb und hellblau) bis 2012 aus dem 5. IPCC-Bericht. Die insignifikante Abweichung ganz am Ende der Zeitreihe ist der "Hiatus" - nicht der erste in der Zeitreihe.

Betrachten wir eine Zeitreihe von Daten, wie etwa die globale Temperaturanomalie, so liegen uns hier zum einen eine Folge von Daten vor und zum anderen die zu den Daten gehörenden Unsicherheiten. Beides gehört zusammen. Läßt man die Informationen über die Unsicherheiten weg, kann man mit den Daten Schindluder betreiben. Zum Beispiel kann man einzelnen Ausschlägen in einer Zeitreihe große Bedeutung zuweisen, obwohl der Ausschlag in Wirklichkeit statistisch gesehen zum Rauschen gehört. Zur Unsicherheit der Temperaturdaten bezüglich des Trends gehört nicht nur die Unsicherheit des einzelnen Datenpunkts, die sich vor allem aus der statistischen Unsicherheit der Verfahren zur Ableitung von Flächenmittel der Temperaturen ergibt. Aus Punktmessungen leitet man durch Interpolation zwischen den Messorten ab, wie die Temperatur sich in der Fläche dazwischen verhält.

Will man aus den Datenpunkten einen Trend ableiten, kommen weitere Unsicherheiten dazu. In erster Näherung könnte man die Abweichungen der einzelnen Datenpunkte vom Trend als zufällig betrachten. Nimmt man jedoch einen begrenzten Ausschnitt aus der Zeitreihe, kann man zufällig mehr Punkte erwischen, die vom Trend in einer bestimmten Richtung abweichen, um ihn zu groß oder zu klein zu machen. Der Trend wird also um so ungenauer bestimmt, je stärker jeder Punkt vom Trend abweicht und je weniger Punkte zur Verfügung stehen. Noch schlimmer wird es, wenn die Abweichungen der einzelnen Punkte vom Trend nicht unabhängig voneinander sind. Man stellt dann fest, dass die Punkte in ihrer Abweichung korrelieren, und da sie mit sich selbst korrelieren, ist es eine Autokorrelation. Diese Autokorrelation kann im harmlosen Fall schnell abfallen oder sie kann weitreichend sein. Im letzteren Fall ist ein über Jahre anhaltender Anstieg der Datenwerte womöglich kein Trend, sondern nur ein anhaltender zufälliger Ausreißer, der irgendwann von einem Ausreißer in die andere Richtung abgelöst werden kann.

Statistiker haben einige Werkzeuge, um Daten auf Trends zu untersuchen, auf Autokorrelationen und womöglich weitreichende Abhängigkeiten. Für jemanden, der von Statistik nur begrenzte Ahnung hat, wird das schnell unübersichtlich. Im einfachsten Fall nimmt man an, dass die Autokorrelation der Daten exponentiell (also schnell) abnimmt. Die Stärke des exponentiellen Abfalls der Autokorrelation kann man mit einem Parameter anpassen udn nennt daher solche Prozesse AR(1)-Prozesse (AR für autoregressive). Allerdings unterschätzt man im Fall der Temperaturanomalien damit den Fehler, den die Autokorrelation der Daten einführt. Daher verschmiert man mit einem laufenden Mittel über die Daten den Abfall der Autokorrelation, verlangsamt ihn dadurch und erhält eine bessere Näherung. Eine Näherung stellen solche Verfahren immer dar, aber der verbleibende Fehler sollte klein genug werden, um den berechneten Wert für den Trend und seinen Fehler nicht mehr zu beeinträchtigen. Der Ansatz wird kurz als ARMA(1,1)-Prozess bezeichnet (für autoregression/moving average, jeweils mit einem Parameter). Der AR(1) oder ARMA(1,1)-Ansatz führen zu einer Erweiterung des Unsicherheitsbereichs beim Trend und somit zu einer erhöhten Zahl erforderlicher Datenpunkte, um zu einem signifikanten Trend zu gelangen.

Da die Autokorrelation im Zeitverlauf abnimmt, kann man erwarten, dass sie bei der Betrachtung von Monatsmitteln einen viel größeren Einfluß auf die Daten nimmt als bei den Jahresmitteln.  Die Autokorrelation sinkt innerhalb von ca. 14 bis 17 Monaten erst mal auf Null (danach wechselt sie auf niedrigerem Niveau wiederholt das Vorzeichen) - das gilt für Temperaturdaten der letzten Jahrzehnte. Deshalb erhöht sich die Unsicherheit berechneter Trends mit einem AR(1) oder ARMA(1,1)-Modell nicht wesentlich, vielleicht um 15% je nach Datensatz. Man braucht also entsprechend mehr Daten.

In Leugnerkreisen kursiert jedoch die Behauptung, dass die globalen Temperaturdaten in erheblichem Maße durch interne Variabilität angetrieben seien - die Umverteilung von Wärme auf der Erde, die sich in ENSO-Zaklen, in der pazifischen dekadischen Oszillation (PDO) oder der atlantischen multidekadischen Oszillation (AMO) äußert. Damit und mit der Änderung der solaren Einstrahlung wollen diese Leute die globale Erwärmung erklären. Und um dies statistisch zu untermauern, behaupten diese Leute, dass aus den Temperaturdaten selbst hervorginge, dass diese weitreichende Korrelationen enthielten, die somit "beweisen" würden, dass die linearen Trends nur scheinbar bestünden, und nicht etwa die Folge der globalen Erwärmung wären. Als Beleg herhalten sollen dafür Arbeiten, in denen mit dem Hurst-Koeffizienten gearbeitet wird. Der Hurst-Koeffizient gibt an, ob in den Daten Abhängigkeiten jenseits des linearen Trends sind, die langsamer abfallen als exponentiell (Hurst-Koeffizient wird groß gegen 0,5 bis gegen 1) oder in eine Antikorrelation umschlagen (Hurst-Koffizient liegt unter 0,5 und geht bis gegen 0). Das Problem ist, dass zwar die globalen Temperaturdaten einen hohen Hurst-Koeffizienten aufweisen, dass man aber diesen Sachverhalt auch anders erklären kann. Mit einem einfachen Modell demonstriert Michael Mann zum Beispiel, dass er einen synthetischen Temperaturdatensatz mit hohem Hurst-Koeffizienten mit den bekannten Klimaantrieben und weißem Rauschen (unkorrelierte Fehler in den Daten bzw. vom Modell nicht aufgelöstes Wetter) erzeugen kann.

Nimmt man nur den Hurst-Koeffizienten, und versucht rein statistisch ohne Verwendung bekannter Fakten über das Klima abzuleiten, wie stark die globalen Temperaturzeitreihen von interner Variabilität verursacht sein können, gerät man in die Falle der "Mathturbation" - statistische oder mathematische Verfahren werden ohne naturwissenschaftliches Verständnis zwar formal korrekt, aber in der Aussage sinnlos umgesetzt. Verschiedene Autoren zeigten schon, dass die globalen Temperaturdaten keine Anzeichen zeigen, dass ihr Trend von interner Variabilität verursacht wurde, also durch weitreichende Autokorrelation zu erklären sind, zum Beispiel Huber und Knutti (2011) https://thingsbreak.files.wordpress.com/2011/12/anthropogeni… oder DelSole, Tipplet und Shukla (2011) http://journals.ametsoc.org/doi/abs/10.1175/2010JCLI3659.1?p… .

Will man die Daten erklären, müssen naturwissenschaftliche Betrachtung und statistische Untersuchung zu konsistenten Ergebnissen kommen. Da wir aus anderen Quellen wissen, dass der globale Temperaturanstieg eine Folge eines entsprechenden Klimaantriebs sein muss, weil wir sonst nicht erklären könnten, wieso gleichzeitig die Wärmemenge der Ozeane recht stetig ansteigt oder warum die Eismenge auf der Erde abnimmt oder warum der Meeresspiegel nach wie vor ansteigt (was zu ca. 2/3 Folge der thermischen Ausdehnung des Meerwassers ist), können wir als Ursache des Temperaturanstiegs der letzten Jahrzehnte eine Umverteilung von Wärme aus den Ozeanen in die Atmosphäre sicher ausschließen und damit aufgrund des naturwissenschaftlichen Hintergrundes der Ansicht widersprechen, dass der Temperaturanstieg als Folge weitreichender Autokorrelation der Temepraturdaten erklärt werden kann. Statistiker, die den naturwissenschaftlichen Hintergrund nicht kennen, oder ausblenden, legen dann vielleicht eine in sich schlüssige statistische Analyse vor, aber verstehen nicht wirklich, was die Daten aussagen. Sobald wir aber aus den anderen Quellen wissen, dass die Temperaturdaten einen Anstieg durch einen äußeren Antrieb enthalten müssen, können wir unplausible statistische Betrachtungen ablehnen.

PS.: Weitere Erläuterungen, warum der "Hiatus" keine reale Erwärmungspause darstellt und interne Variabilität nicht die globale Erwärmung erklärt, wohl aber einen Hinweis auf die Gründe gibt, warum über eine zu kurze Zeitskala Abweichungen vom Trend als "Hiatus" auftreten, gibt Michael Mann in einem Artikel auf realclimate.

Keine Kommentare: