Donnerstag, 30. Juli 2009

ENSO macht keinen Trend, aber Politik

Angenommen, ich möchte zeigen, das der größte Teil der globalen Temperaturänderungen der letzten 100 Jahre von der Südlichen Oszillation (El Nino Southern Oscillation, kurz ENSO), einer wiederkehrenden Schwankung von Luftdruckunterschieden und von Meeresströmungen im Pazifik, verursacht wurde, wie würde ich da vorgehen?

Zunächst einmal müßte ich aus der Temperaturzeitreihe den langjährigen Trend entfernen, denn hier spielen ja die Treibhausgase eine große Rolle. Weiterhin würde ich Schwankungen aus der Zeitreihe entfernen, die kurzfristig erfolgen relativ zu ENSO. Auf jeden Fall würde ich alle Variationen, die schneller als ein Jahr erfolgt, wegfiltern, denn ENSO ereignet sich auf einer Zeitskala von wenigen Jahren.

Was für ein Zufall, daß in dem Artikel von McLean, J. D., C. R. de Freitas, and R. M. Carter, Influence of the Southern Oscillation on tropospheric temperature, J. Geophys. Res., (2009), 114, D14104, doi:10.1029/2008JD011637, genau dieses gemacht wurde. Die Autoren wollten Temperaturen aus Satellitenmessungen (der Datensatz der University of Alabame in Huntville, UAH, aus der mittleren Troposphäre) mit dem Southern Oscillation Index (SOI) vergleichen, der über den Luftdruckunterschied zwischen West- und Ostpazifik die Stärke von El Nino (negativer Wert) bzw. La Nina (positiver Wert) mißt. Erfahrungsgemäß wirkt sich ENSO erheblich auf die regionale und die globale Temperatur aus. Primär findet bei einem El Nino ein Zustrom warmen Oberflächenwassers vor der Westküste Südamerikas statt. Die Zirkulation in die Tiefsee wird geschwächt, der Wärmetransport in die Arktis wird verstärkt und insgesamt wird es an der Oberfläche gegenüber vor oder nach einem El Nino wärmer. Bei einem La Nina passiert genau das Gegenteil. Weil dieser Zusammenhang bekannt ist, wird er auch intensiv diskutiert, wenn es zum Beispiel um die Diskussion von Temperaturänderungen geht, die auf der Zeitskala von wenigen Jahren stattfinden. Insgesamt zähle ich in meinem Blog ENSO unter globales Wetter. Weil es sich bei ENSO um eine Oszillation, eine Schwankung der Temperaturverteilung und der Wärmeflüsse in den Ozeanen handelt, erwarte ich davon keinen langfristigen Trend. Dies wurde auch z.B. von Lean and Rind, How Natural and Anthropogenic Influences Alter Global and Regional Surface Temperatures: 1889 to 2006, Geophysical Research Letters, (2008) 35, L18701, doi:10.1029/2008GL034864 gezeigt, die ENSO, Aerosole aus Vulkanen und Änderungen der Sonneneinstrahlung als Quellen für Variabilität in der Temperaturzeitreihe belegten, aber den Trend der Temperaturentwicklung der letzten Jahrzehnte fast ausschließlich dem Anstieg der Treibhausgase zuordnen konnten.

McLean et al. wollten offensichtlich ein anderes Ergebnis. Deshalb nahmen sie ein gleitendes Mittel über 12 Monate der monatlichen Werte der Temperaturzeitreihe und des SOI. Damit sollten kurzzeitige Schwankungen herausgefiltert werden, die die Korrelation zwischen beiden Datensätzen verringert hätten. Andererseits sind nun beide Datensätze stark autokorreliert. Weiterhin wurden die beiden starken Vulkanausbrüche des El Chichon und des Pinatubo aus den Datenreihen entfernt plus ca. bis zu einem Jahr, das noch von der Vulkanasche beeinflußt sein könnte. Die so verstümmelten Datensätze waren den Autoren aber immer noch nicht genug präpariert. Sie wurden auch noch vom Trend befreit, indem die monatlichen gemittelten Werte von denen 12 Monate später jeweils abgezogen wurden. Das ist im Grunde eine Ableitung der Zeitreihe nach der Zeit, indem nun jeweils die Änderung innerhalb eines Jahres betrachtet wird. Nachdem also alles aus den Datensätzen beseitigt wurde, was eine hohe Korrelation zwischen Temperatur und dem ENSO-Signal hätte beeinträchtigen können, fand man genau das, was man finden wollte – eben diese hohe Korrelation, die schon allen im Felde bekannt war (nicht zuletzt in Lean und Rind, 2008 belegt – siehe oben) und auch in den IPCC-Berichten diskutiert wurde. Neu ist lediglich, daß man die Korrelation zwischen den verstümmelten, gemittelten und nach der Zeit abgeleiteten Datensätzen für Temperatur und SOI noch weiter erhöhen kann, wenn man sie um 7 Monate gegeneinander verschiebt. Wäre es nur darum gegangen, wäre das ein langweiliger, aber wissenschaftlich korrekter Artikel gewesen. Aber mindestens zwei der Autoren sind bekannte Leugner des Klimawandels, die sich schon längst von seriöser Wissenschaft verabschiedet haben und dieser Artikel zeigt genau, warum ich de Freitas und Carter nicht für seriöse, ehrliche Wissenschaftler halte.

Der wichtigste Punkt sind die Schlußfolgerungen. Obwohl die Zeitreihen durch die Subtraktion der Werte voneinander im Jahresabstand, was letztlich eine Ableitung nach der Zeit ist, von ihrem Trend befreit wurden, behaupten die Autoren dort, sie hätten belegt, daß „vielleicht“ ENSO und nicht anthropogene Treibhausgase die globalen Klimaveränderungen bewirkt hätten. Das ist eine platte Lüge, denn wenn man den Trend aus einer Zeitreihe entfernt, kann sich der in einer Analyse auch nicht auswirken und mit nichts korrelieren. Dies wird noch deutlicher in der Presseerklärung, die Carter herausgab, in der er ganz offen davon sprach, daß man belegt habe, daß nicht der Mensch, sondern ENSO den Klimawandel mache. Wenn man den Hintergrund dieser Autoren kennt, ihre Kommentare dazu sieht und sich die Arbeit unter diesem Gesichtspunkt anschaut, kann man zu keinem anderen Schluß kommen, als daß dies eine präzise geplante Arbeit war, die alleine der Propaganda gegen den wissenschaftlichen Sachstand zum Klimawandel dienen sollte. Es war ja vorher bekannt, daß die Variabilität der globalen Temperatur im Bereich weniger Jahre vor allem mit dem ENSO-Signal korreliert, und alle Analyseschritte waren systematisch darauf aufgebaut, diesen Punkt zu betonen. Man hat sogar darauf geachtet, die aus Satellitenmessungen berechnete Temperatur zu nehmen, weil bekannt ist, daß sich hier das ENSO-Signal noch stärker zeigt als in den Bodenmessungen, die zudem die von ENSO weniger betroffenen polaren Gebiete stärker betonen.

In der ganzen Arbeit findet man Stellen, in denen gar nicht mal subtil eine politische Botschaft untergebracht wird. So wird bei der Begründung für die Wahl der Temperaturdaten, die aus Satellitenmessungen berechnet wurden, behauptet, daß diese Daten zuverlässiger seien als die Daten von Bodenmeßstationen. Letztlich wurde damit angedeutet, daß diese Daten nicht korrekt seien – gemeint waren damit Unterstellungen, die Daten seien vom städtischen Wärmeinseleffekt oder gar politisch motivierten Manipulationen verseucht.

An anderer Stelle wurde anerkannt, daß schon in dem 4. IPCC-Bericht der Einfluß von ENSO auf die Variabilität der globalen Temperatur hingewiesen wurde und betont wurde, daß man ENSO-Zyklen nicht über mehr als maximal 12 Monate vorhersagen könne. Daraus wurde die Unterstellung abgeleitet, daß Klimamodelle, die also die wichtigste Quelle für Variabilität in den globalen Temperaturdaten mit Anerkennung durch das IPCC nicht vorhersagen könnten, könnten erst recht keine Aussagen zum Klimawandel bis zum Jahr 2100 machen. Dies ist eine etwas originellere Variante des absichtlichen Verwechseln von Wetter und Klima.

Wettervorhersagen sind Anfangswertprobleme, bei denen ein konkreter Wetterzustand in die Zukunft vorausberechnet wird, wobei sich schnell ein Vorhersagefehler aufschaukelt. Klimaprojektionen sind Randwertprobleme, bei denen man einen typischen, mittleren Zustand der Atmosphäre sich auf die vorgegebenen Randbedingungen einschwingen läßt. ENSO vorherzusagen gelingt über 6 bis maximal 12 Monate. Aber der klimatische Trend ist auch eine Mittelung über viele ENSO-Zustände, daher ist es für eine Klimaprojektion keineswegs erforderlich, einzelne ENSO-Zyklen vorherzusagen. Auch dies ist den Autoren bekannt, die sich politisch zweckmäßig dumm stellen.

In einem weiteren Abschnitt behaupten die Autoren, daß Klimamodelle mit den in ihnen enthaltenen Darstellungen der natürlichen Variabilität der globalen Temperatur diese nicht hätten erklären können und die Abweichung zwischen den bekannten natürlichen Einflüssen und den Beobachtungen hätte man dann dem anthropogenen Treibhauseffekt zugewiesen. Das ist absurd, denn der Effekt der Treibhausgase auf den Strahlungshaushalt wird genauso modelliert wie die übrigen Einflüsse. Wenn dann Diskrepanzen zwischen Modellergebnissen und Beobachtungen verbleiben, ist genau das dann der Modellfehler, den man dann zur Kenntnis nimmt – anders wäre es nicht möglich, die Klimamodelle zu verbessern. Auch diese völlig falsche Zuweisung ist rein politisch kalkuliert.

Letztlich war die ganze Untersuchung zur Korrelation von SOI und Temperatur nur ein Vehikel, um die üblichen Verschwörungstheorien, Vernebelungstaktiken und Diffamierungen des wissenschaftlichen Prozesses unterzubringen, die schon seit gut 20 Jahren im Umlauf sind. Die Fachbegutachter, die diesen Beitrag passieren ließen, haben vielleicht zu sehr darauf geachtet, ob der Beitrag mit dem ENSO-Phänomen richtig umgeht und die darauf bezogenen Aussagen korrekt sind. Das ist weitgehend der Fall. Der politische Unterton ist ihnen aber anscheinend genauso entgangen, wie die inhaltlich gar nicht gedeckten Schlußfolgerungen, Klimamodelle taugten nichts und der klimatische Trend sei „vielleicht“ nur von ENSO, aber nicht von anthropogenen Treibhausgasen erzeugt worden. Zum Teil liegt es daran, daß die Autoren ein bewußtes Vernebelungsspiel mit dem Wort Varianz bzw. Variabilität treiben, das zum einen Veränderungen auf dem Trend bedeuten kann, aber auch Veränderungen unter Einschluß des Trendes (zum einen „variance“, zum anderen „variation“, beide Begriffe werden benutzt, als bedeuteten sie das gleiche). Innerhalb des Artikels kann man gutwillig unterstellen, daß nur die Variabilität auf dem Trend gemeint sei, denn schließlich läßt die Form der Analyse nur dieses zu. Aber mit den Hinweisen in den Schlußfolgerungen und ganz besonders mit der Presseerklärung wird klar gemacht, daß die Leser davon überzeugt werden sollen, daß der Trend selber mit gemeint sei. Genau so wird methodisch eine scheinbar seriöse Fachpublikation in Wahrheit zum trojanischen Pferd, politische Aussagen zu transportieren und die wissenschaftliche Arbeit zu torpedieren. Das der Zweck erreicht wurde, zeigt schon, daß der Titel der wissenschaftlich nicht originellen Arbeit alleine bei google bereits nach einer Woche über 3000 Treffer erbringt, was zeigt, wie begierig Leugnerblogs inzwischen solche trojanischen Pferde aufgreifen, um das politische Kapital daraus zu schlagen.

Was Leugner sicher nicht belasten wird, aber für sie eigentlich ein Problem sein müßte, daß hier der Zoo von sich widersprechenden Anti-IPCC-Thesen weiter erweitert wird. Während die Fachwelt sich weitgehend einig ist, daß die globale Temperatur wesentlich durch anthropogene Treibhausgase ansteigt, kursieren bei Leugnern nun die (in der Fachwelt widerlegten) Thesen:

Vielleicht sollten die Leugner erst mal unter sich ausmachen, was denn nun eigentlich ihre alternative Theorie ist, abgesehen davon, daß sie in der Pflicht stehen, sie genauso sorgfältig zu belegen wie die allgemein akzeptierte Theorie vom menschengemachten Klimawandel mit einer Klimasensitivität im Bereich von 2 – 4,5 Grad je Verdopplung des CO2-Mischungsverhältnisses.


Der Artikel wird außerhalb von Leugnerkreisen wohl kaum zitiert werden, da sein wissenschaftlicher Wert fraglich ist. Aber das war ja auch nicht sein Zweck. Der ist damit erfüllt, daß in einigen Zeitungen mit geringer Expertise der Beitrag genau so kommentiert wurde, wie es beabsichtigt wurde – als Beweis, daß der Klimawandel natürliche Ursachen habe, offiziell publiziert in einer Fachzeitschrift mit recht hohem Ansehen. Wie sich das auswirkt, sieht man dann an so schlampigen Beiträgen wie zum Beispiel hier in der Welt, wo ich schon oft solche Machwerke beobachtet habe und seriösen Wissenschaftsjournalismus nicht mehr erwarte. Was da alles nicht stimmt und offensichtlich kritiklos aus der Presseerklärung von Carter abgeschrieben wurde, kann sich nun jeder Leser selbst denken.

Stellungnahmen zu dem Machwerk findet man in Taminos Blog, der sehr gut erläutert, warum man mit den nach der Zeit differenzierten Zeitreihen keine Korrelationen des Trends finden kann, bei Michael Tobis in seinem Blog Onlyinitforthegold, dem erst nach und nach in Überarbeitungen klar wurde, was an der Arbeit so alles nicht stimmt und mehr die politische Seite betrachtet.

Dienstag, 21. Juli 2009

Angriff der Monsterquallen...


Man schaue sich dieses Bild der Nomura-Qualle an. Sie wird bis fast 2 Meter groß (Durchmesser) und gut 200 Kilogramm schwer. Normalerweise lebt sie vor Chinas und Koreas Küsten. Doch in den letzten Jahren dehnte sich ihr Verbreitungsgebiet nach Japan aus. Zu tausenden taucht sie vor Japans Küsten auf, ca. alle 2 Jahre seit 2005. Auch dieses Jahr verstopft und zerstört sie Fischernetze, vergiftet den Fang und frißt die Fische weg.
Obgleich die Qualle selten Menschen angreift, kann sie einen Menschen mit ihrem Gift töten, und dies soll in Einzelfällen auch schon geschehen sein. Warum die Qualle neuerdings in Massen in japanische Gewässer vordringt, ist nicht klar. Aber zu den möglichen Gründen gehören Überfischung und eine zunehmende Erwärmung des Wassers.
Ähnlich sieht es mit Meldungen von der Küste Kaliforniens aus, wo ein massenhaftes Auftreten von Riesenkalmaren (Humboldt-Tintenfische) gemeldet wird. Mit 45 Kg Lebendgewicht und fast 2 Metern Länge ist auch dieser Tintenfisch ein beeindruckendes Weichtier, das Taucher ängstigt und die Fische vor der Küste dezimiert. Auch hier zählen Überfischung und wärmere Gewässer, die das Vordringen nach Norden erleichtern, zu den plausibelsten Gründen für die Invasion dieser Meeresmonster, obgleich in manchen Nachrichten auch behauptet wird, ein Seebeben hätte die Tiere aufgescheucht.

Und wie es der Zufall will, kommt gerade ein Beitrag in den Proceedings of the National Academy of Sciences heraus, der eine weitere beunruhigende Wirkung der globalen Erwärmung schildert. Es schreiben Martin Daufresne, Lengfellner und Sommer, in Global warming benefits the small in aquatic ecosystems, PNAS 20. Juli 2009, doi: 10.1073/pnas.0902080106: im Rahmen einer Metastudie wurde festgestellt, daß eine Reihe untersuchter Spezies (Plankton, Bakterien und Fische) kleiner wird - im Rahmen der Entwicklung einzelner Exemplare und kollektiv. Dabei werden verschiedene Einflußfaktoren, wie Überfischung berücksichtigt und festgestellt, daß es darüber hinaus eine Verkleinerung gibt, die als plausible Reaktion auf eine zunehmende Erwärmung der Meere interpretiert wird (gemäß der Temperatur-Größen-Regel der Biologie). Diese Verkleinerung von Fischen reduziert unter anderem auch ihre Fähigkeit, Fischereierträge zu erbringen. Wir schädigen also nicht nur durch Überfischung, Versauerung und Überdüngung die Meere, zerstören Korallenriffe und belasten die Kontinentalschelfe als Kinderstuben der Fische und züchten die Freßfeinde wie Quallen und Tintenfische heran, sondern machen durch die globale Erwärmung die Fische an sich kleiner.
Wenn wir schon unsere Nahrungsgrundlagen im Meer sabotieren, dann machen wir es gründlich...


Montag, 20. Juli 2009

Wie man Klimamodelle ganz bestimmt nicht testet...

Ein angeblicher Experte für Vorhersagemodelle will die Prognosefähigkeit der IPCC-Klimamodelle überprüfen.

Was macht er?

Modelliert er eine Periode in der Vergangenheit mit einem Modell, und vergleicht die Ergebnisse mit Proxydaten jener Zeit? Nein.

Prüft er einen Satz von Modellergebnissen auf Konsistenz und physikalische Plausibilität? Nein, nein, auch nicht.

Testet er Ergebnisse einzelner Modellkomponenten gegen Referenzdatensätze? Gott, nein, alles viel zu logisch gedacht.

Was der Mensch macht, ist folgendes: er nimmt einfach irgendeine Zahl für eine globale Temperaturänderung, sagen wir, 3 Grad, weil er das irgendwo in irgendeinem Zusammenhang mal gelesen hat, teilt das durch 100 aus keinem besonderen Grund und stellt fest, daß das IPCC-Modell (huch, welches von 2 Dutzend?) für irgendwann 0,03 Grad globalen Temperaturanstieg vorhersagt.

Und dann (jetzt sollte man besser sitzen...) nimmt er sich vor, die Prognosefähigkeit von IPCC-Modellen mit einer Alternative für die Zeit von 1851 - 2007 zu vergleichen (richtig gelesen, der Mann betrachtet mit den angenommenen IPCC-Projektionen für das 21. Jahrhundert die Vergangenheit). Die Alternative ist, daß die Temperatur konstant bleibt. Natürlich ist die Differenz zwischen realer Temperaturzeitreihe und einem willkürlichen, raschen Temperaturanstieg viel größer, als zwischen konstanter Temperatur und den eher langsamen Änderungen der globalen Temperatur vor dem Anwachsen des Klimaantriebs durch Treibhausgase seit der Nachkriegszeit.

Also, was könnte an so einem Ansatz denn alles falsch sein?

Ein solches Ausmaß gewollter Dummheit macht fassungslos. Die Autoren, Kesten Green, J. Scott Armstrong und Willie Soon, alles bekannte Leugner der anthropogenen Klimaveränderungen, wobei Green und Armstrong sogenannte Experte für Vorhersagemodelle sind (eigentlich Wirtschaftswissenschaftler) und Soon Astrophysiker, fallen nicht zum ersten Mal mit seltsamen Interpretationen von Wissenschaft auf, aber was man hier nachlesen kann, steigert noch einmal das Ausmaß an Ignoranz, das man von diesen Herren kennt.

Sonntag, 19. Juli 2009

Die Rätsel des Urvogels

Kürzlich las ich ein Buch: Paul Chambers, Die Archaeopteryx-Saga (Original: Contention of Bones), Zweitausendeins, 2003. Das Buch war mir zufällig in die Hände gefallen, aber als ich anfing es zu lesen, konnte ich nicht mehr aufhören.

Er erzählt die Geschichte der Entdeckung des Archaeopteryx und der wissenschaftlichen Kämpfe um die Deutung dieses Fossils. Dabei wird deutlich, welche große Rolle Voreingenommenheiten und Egoismen der Wissenschaftler haben. Der Urvogel war zuerst Kampfobjekt im Streit der Evolutionsgegner und Befürworter. Er wurde vom Evolutionsgegner Johann Andreas Wagner, Konservator bei der Bayerischen Staatssammlung, 1862 zuerst beschrieben, und dabei als ein Reptil dargestellt und Griphosaurus genannt. Jede Ähnlichkeit mit Vögeln wurde heruntergespielt aus Angst, man könnte den Evolutionsbefürwortern damit einen schlagenden Beweis in die Hände spielen, nämlich eine Übergangsform zwischen Reptilien und Vögeln. Erworben wurde das erste gefundene Archaeopteryx-Fossil dann vom Britischen Museum in London. Treibende Kraft war ein anderer Evolutionsgegner, Richard Owens. Auch er war peinlich bemüht, den Urvogel nicht als Zwischenform zwischen Reptilien und Vögeln erscheinen zu lassen, damit er kein Argument für einen Wandel der Arten werden könnte. Für ihn war der Archaeopteryx – einfach ein Vogel. Es störte Evolutionsgegner anscheinend nicht, daß ihre Anhänger den selben Fund genau gegensätzlich interpretierten, um nur der unbequemen Schlußfolgerung zu entgehen, daß sich Arten wandeln und nicht einmalig erschaffen wurden.

In einem späteren Abschnitt des Buches wird der Bogen zu modernen Evolutionsgegnern gezogen. Die fanden ihre Zeugen in Fred Hoyle und Chandra Wickramasinghe. Beide waren angesehene Astronomen. Mitte der siebziger Jahre begannen sie jedoch, sich mit biologischen Themen zu beschäftigen. Sie entwickelten die Theorie, daß die Ursache für das wiederholte Auftreten von Virusepidemien auf der Erde eine Befruchtung durch Leben im Weltall sei. Kreuze die Erde bestimmte Kometenschweife mit Viren, käme es auf der Erde zu Epidemien. Ja, sogar Sprünge in der Evolution und gelegentliche Massensterben, wie an der Perm-Trias-Grenze oder an der Kreide-Tertiär-Grenze (Aussterben der Dinosaurier) seien die Folge von kosmischer Aussaat. Diese Theorie ist so absurd, so ohne sachliche Rechtfertigung, so schwierig einzufügen in alles übrige, was wir wissen, daß man sich fragt, wie erwachsene Menschen das plausibel finden können. Hier traten jedoch zwei angesehene Wissenschaftler mit großen Leistungen auf ihrem eigenen Gebiet auf. Das waren die geeigneten Zeugen von Kreationisten, um die Evolutionstheorie in den Schmutz zu ziehen, von Impfgegnern, um das bekannte Wissen der Epidemiologie zu trüben. Wider jeder Vernunft wurden sie von den Medien ernst genommen. Im Rahmen dieser Theorie war für sie auch klar, daß es Vögel erst seit einem Saatereignis vor 65 Millionen Jahren geben konnte. Da paßte ein 150 Millionen Jahre alter Urvogel nicht ins Konzept. Was macht man, wenn einem wissenschaftliche Erkenntnisse nicht ins Konzept passen? Man behauptet eine Verschwörung der Wissenschaftler, die über 100 Jahre lang mit gefälschten Archaeopteryx-Fossilien gearbeitet haben sollen. So behaupteten 1978 Hoyle und Wickramasinghe, die im Solnhofener Kalkstein gefundenen Platten seien manipuliert worden, insbesondere die Federabdrücke gefälscht worden, weil man damals Darwin habe stützen wollen. Eine absurde Verschwörungstheorie, die von Paläonthologen bestritten wurde, und die sich auch schon dadurch widerlegte, als auch hernach Platten mit Urvogelfossilien gefunden wurden, auf denen sich auch die bekannten Abdrücke von Federn zeigten. Liest man diesen Abschnitt im Buch, muß man unweigerlich an den Physiker Freeman Dyson denken und seine Behauptung, daß die Klimaforscher sich irrten oder an den Geologen Plimer und sein Machwerk Heaven and Earth, das jede bekannte Behauptung der Klimaleugner wiederholt. Es paßt ins Bild, daß die Verschwörungstheorie nicht in einer paläonthologischen Fachzeitschrift, sondern im British Journal of Photography publiziert wurde. Ganz unwillkürlich mußte ich an Gerlich und Tscheuschners „Widerlegung“ des Treibhauseffektes denken, die in einer drittklassigen Zeitschrift zur Festkörperphysik untergebracht wurde, weil sie in einer angesehenen Zeitschrift zur Klimatologie oder Meteorologie nie ein Peer Review überstanden hätte.

Die kontroverse Diskussion zwischen vor allem Paläonthologen, die den Archaeopteryx als Indiz werten, daß die Vögel ein Zweig der Dinosaurier sind, und einem Teil der Ornithologen, die zuviele Unterschiede zwischen Dinosauriern und Vögeln sehen und deshalb nach einem Vorfahren der Vögel unter ursprünglicheren Reptilien vor über 200 Millionen Jahren suchen, wird ausführlich beschrieben. Hier wird klar, daß man unterscheiden muß zwischen Tatsachen, die geklärt sind (Evolutionstheorie) und Thesen, die nur vorläufig gelten (Vögel als moderne Dinosaurier). Es wird auch deutlich, daß es in der Wissenschaft genau wie im realen Leben Moden und Glaubenskriege gibt. Nicht immer sind Thesen so sicher geklärt, wie es die Medien glauben machen wollen, aber es herrschen auch nicht immer solche Kontroversen, wie die Medien es für ihr Geschäft brauchen.

Die Botschaft der Paläozan-Eozän Warmzeit

Wir leben derzeit in einer Zwischeneiszeit. Das Klima im Wechsel von Eiszeiten und Zwischeneiszeiten ist im Grunde das Klima, das den Menschen hervorgebracht hat. Bedingung für dieses Klimaregime sind niedrige CO2-Mischungsverhältnisse unter 300 ppm.
Aus verschiedenen Gründen gab es aber in der Erdgeschichte seit der Zeit der Dinosaurier Phasen, in denen die CO2-Mischungsverhältnisse und die Temperatur anstiegen. Während die Eiszeiten eher eine Folge (vereinfacht ausgedrückt) wechselnder Neigungen der Erde zur Sonne waren und die dadurch verursachte wechselnder Stärke der effektiven Einstrahlung, und die CO2-Mischungsverhältnisse sich dann in der Folge als Rückkopplungsgröße mit 800 Jahren Verzögerung änderten, um den Wechsel zwischen Eiszeit und Zwischeneiszeit zu verstärken, gab es Ereignisse, in denen andere Antriebe wirkten, die weniger gut verstanden sind.
Über die relative Warmzeit im Mittelalter ist noch nicht mal bekannt, ob es wirklich ein globales Ereignis war oder zu verschiedenen Zeiten unterschiedliche Teile der Erde warm wurden. Insgesamt kann es kaum wärmer gewesen sein als zum Ende des 20. Jahrhunderts, und wahrscheinlich war es da gerade mal ein halbes Grad wärmer als zu Beginn des 20. Jahrhunderts.

Wesentlich ausgeprägter war eine Erwärmung vor 8.000 Jahren, das Klimaoptimum des Holozäns. Damals könnte es durchaus vorübergehend fast so warm gewesen sein wie heute, vielleicht aber liegen wir in diesem Jahrzehnt sogar über dem Maximum der laufenden Zwischeneiszeit. Doch vor den Eiszeiten gab es weitaus stärkere Warmzeiten. Vor 55 Millionen Jahren (55,5 oder 55,8 Millionen Jahre, je nach Quelle) war das Paläozän-Eozän Temperaturmaximum (PETM), das ca. 100.000-200.000 Jahre anhielt. In einem Artikel in Nature von Jason Head, Bloch, Hastings, Bourque, Cadena, Herrera, Polly und Jaramillo, Giant boid snake from the Paleocene neotropics reveals hotter past equatorial temperatures, Nature 457, 715 (2009) wird über eine Riesenboa, eine 13 Meter lange und über 1 Tonne schwere Riesenschlange berichtet, die vor über 58-60 Millionen Jahren gelebt hatte. Aus ihrer Größe leitet man ab, daß ihre Umgebungstemperatur mit einer Jahresmitteltemperatur über 30 Grad wärmer gewesen sein mußte, als es heute in den Tropen üblich ist. Beim PETM 3-5 Millionen Jahre später muß es noch wärmer gewesen sein. Die Tropen könnten Temperaturen um 38-40 Grad im Jahresmittel erreicht haben – für Menschen und viele andere Lebewesen unerträgliche Temperaturen. Laut einer anderen Studie in Nature lagen die Temperaturen in der Arktis über 20 bis 23 Grad, 5 Grad wärmer als vor dem PETM. (Sluijs et al,, Subtropical Arctic Ocean temperatures during the Paleocene/Eocene thermal maximum, Nature 441, 610 (2006).) Die Arktis war natürlich eisfrei. Es ist nicht klar, was das PETM erzeugt hat, aber es war möglicherweise begleitet von hohen Methan-Konzentrationen, einem besonders potenten Treibhausgas. Quelle für das Methan könnten Sümpfe oder ozeanische Methanhydrate, die aus tiefen Wasserschichten emporgesprudelt sind.

Dieses Ereignis zeigt zum einen, wie hoch Temperaturen auf der Erde steigen können, wenn es einen geeigneten Antrieb gibt. Es gibt, anders als vereinzelte Wissenschaftler behaupten, keinen tropischen „Thermostaten“, der zu starke Temperaturanstiege in den Tropen verhindern würde. Und ein an sich noch nicht katastrophaler Temperaturanstieg kann andere Rückkopplungen auslösen, die über eine Methanfreisetzung Klimaänderungen noch weiter verstärken.

Eine neue Studie verstärkt genau diesen Punkt, und verdeutlicht dabei, daß die vorhandenen Klimamodelle solche positiven Rückkopplungen vermutlich unterschätzen. Kürzlich gab es von Nature Geoscience ein Vorabinformation über Richard Zeebe, Zachos und Dickens, Carbon Dioxide forcing alone insufficient to explain Paleocene-Eocene Thermal Maximum warming, Nature Geoscience, 13. Juli 2009, doi:10.1038/ngeo578. Dort beschreiben die Autoren, daß sie die Klimaentwicklung in der PETM mit einem Modell für den Kohlenstoffkreislauf und gemessenen Daten über gelösten Kohlenstoff in den Ozeanen und Anteile der Kohlenstoffisotope nachvollzogen hatten. Ihr Ergebnis war, daß die freigesetzten Mengen an Kohlenstoff (deren Quellen unklar sind) mit den heute bekannten Klimasensitivitäten für CO2 eine Erwärmung um allenfalls 1 – 3,5 Grad erklären könnten, jedoch nicht von 5-9 Grad, wie man tatsächlich für das PETM annimmt. Daraus schließen die Autoren, daß es weitere positive Rückkopplungen auf größerer Zeitskala gibt, die damals in Gang gesetzt wurden, die uns aber in der Zukunft auch drohen könnten.

Diese Erkenntnisse bestätigen Hinweise von Hansen, die vor ca. einem Jahr sehr skeptisch aufgenommen wurden. Er hatte darauf hingewiesen, daß man die Klimaentwicklung seit der letzten Eiszeit schlüssiger erklären kann, wenn man neben den schnellen Rückkopplungen, die zu einem Temperaturanstieg um 2 – 4,5 Grad je Verdopplung des CO2-Mischungsverhältnisses führen, auch langsamere Rückkopplungsmechanismen berücksichtigt, die die Klimasensitivität auf ca. 6 Grad je Verdopplung von CO2 steigern. In diesem Fall wäre aber selbst die Absicht, das CO2-Mischungsverhältnis auf unter 450 ppm langfristig zu begrenzen nicht ausreichend, um katastrophale Klimaveränderungen zu verhindern. Hansens Ziel wären dann 350 ppm CO2 als langfristige Grenze. Das mag illusorisch erscheinen, da schon jetzt das globale CO2-Mischungsverhältnis bei ca. 387 ppm steht. Aber im Falle einer baldigen Einstellung der CO2-Emissionen würden die Ozeane gewaltige Mengen an CO2 aufnehmen und alleine dadurch die CO2-Konzentration der Atmosphäre wieder sinken. Das PETM ist eine klare Warnung, daß unsere Klimamodelle das langfristige CO2-Problem systematisch unterschätzen und daß es keinen „Erdthermostaten“ gibt, der katastrophale Klimaentwicklungen verhindert.

Freitag, 17. Juli 2009

Pause im Klimawandel durch chaotische Kopplungen?

In der letzten Woche führte eine Beitrag von Kyle Swanson und Anastasios Tsonis in den Geophysical Research Letters mit dem Titel „Has the climate recently shifted?“ zu kontroverser Diskussion. Im Kern wird hier behauptet, daß es verschiedene Zustände des Klimas gibt, die einander ablösen können und einen allgemeinen Trend überlagern können. Das könne dazu führen, daß das Klima in einer bestimmten Phase verharre, bis es durch den äußeren Antrieb in die nächste Phase geschoben würde. Die Folge wäre, daß man beobachten könne, daß die globale Erwärmung zeitweise stagniere, um dann zu gegebener Zeit einen Sprung nach oben zu machen. Im Grunde ist die daraus resultierende Vorhersage für das Klima ähnlich der von Keenlyside et al. 2008, über die ich hier und hier geschrieben hatte, jedoch aus ganz anderen Gründen. Jene hatten eine globale Wettervorhersage versucht. Indem sie Daten über die Meerestemperaturen ihren Modellläufen aufprägten, wollten sie eine belastbare Vorhersage der globalen Temperatur in den nächsten 30 Jahren machen. Dabei sagten sie voraus, daß die globale Erwärmung im laufenden 10-Jahreszeitraum gegenüber dem vorherigen (um 5 Jahre überlappenden) 10-Jahreszeitraum stagnieren würde. Die schlechte Performanz des Modells in der jüngeren Vergangenheit regt zur Skepsis gegenüber diesem Modellversuch an. Stehen Swanson und Tsonis besser da?
Bild aus Swanson und Tsonis, Has the climate recently shifted, GRL 2009: Trend für einen eher willkürlichen Zeitraum in grün, Entwicklung zurück zum Trend in rot und linearisierte Modellvorhersage von Smith et al. 2007 für den Trend in hellblau mit eher willkürlichem Startpunkt.

Ich gebe zu, daß ich mit der Mathematik, die Swanson und Tsonis da bemühen, nicht vertraut bin. Wenn ich ein verständliches Bild dafür suche, dann sollte man sich vielleicht zwei schwingende Pendel vorstellen, die mit einer Feder verbunden sind. Die Feder koppelt die Pendel und ermöglicht, daß von einem Pendel zum anderen Energie übertragen werden kann. Das gesamte System verhält sich chaotisch. Mal schwingt das eine Pendel stark und das andere kaum. Dann überträgt das schwingende Pendel über die Feder immer mehr Energie auf das andere Pendel, das nun auch zu schwingen anfängt, bis nach und nach das erste Pendel zur Ruhe kommt. Und dann geht das Spiel rückwärts von neuem los. Zwar gibt es verschiedene Zustände des Systems, die man beschreiben kann, aber die Übergänge sind nicht geschlossen berechenbar und vorhersagbar. Mit Methoden der Chaostheorie kann man dennoch in allgemeiner Form das System beschreiben.

Für das Klima kann man vergleichbar beschreiben, wie Wärme und andere Energie in den verschiedenen Teilen der Atmosphäre und Meere ausgetauscht werden und dabei Schwingungen auftreten, die chaotisch und daher nicht deterministisch vorhersagbar sind, aber doch auf allgemeiner Ebene beschrieben werden können. Am bekanntesten sind dabei unregelmäßige Zyklen wie der ENSO-Zyklus (El Nino/La Nina), die merklichen Einfluß auf die globale Temperatur nehmen können. Swanson und Tsonis berechnen die Kopplungen zwischen verschiedenen Kompartimenten der Erde und die Synchronisation der unregelmäßig-zyklischen Änderungen. Von Zeit zu Zeit werden die Kopplungen stärker und Änderungen erfolgen stärker in Phase, zu anderen Zeiten sind die Kopplungen schwächer. Das alles, so die Autoren, habe zur Folge, daß gerade um 2001/2002 ein Bruch des globalen Erwärmungstrends erfolgt haben könne, nach dem das Klima sich eine Weile seitwärts bewege, bis der ursprüngliche Erwärmungstrend erneut aufgenommen werden könne.

Nun mag das stimmen oder nicht – über die Mathematik kann ich nicht urteilen. Immerhin äußern sich kundigere Leute skeptisch dazu (zum Beispiel siehe Taminos Blog, außerdem zeigt sich auch James Annan skeptisch). Doch die Probleme tauchen schon auf einem grundsätzlicheren Niveau auf. Um ihre Rechnungen zu machen, müßten Swanson und Tsonis hinreichend genau die ganzen Energieübertragungen im System kennen und berechnen können. Daran melde ich Zweifel an, da die Meßfehler erheblich sind. Die Autoren beziehen sich auf vier große Zyklen (El Nino Southern Oscillation ENSO, Pacific Decadal Oscillation PDO, North Atlantic Oscillation NAO und North Pacific Index NPI), die selbst verschieden definiert werden können und Abstraktionen des tatsächlichen globalen Geschehens bei Luftdruck, Temperatur und Meeresströmungen darstellen. Damit wollen sie wahrgenommene Brüche der globalen Temperaturänderungen beschreiben, von denen wir wissen, daß sie Fehler enthalten. Fragwürdig ist zudem, daß im Grunde Änderungen der globalen Temperatur auf die Chaostheorie zurückgeführt werden sollen, für die wir auch deterministische Erklärungen anführen können, wie Vulkanausbrüche und Änderungen der Sonneneinstrahlung, sowie in neuerer Zeit den Einfluß der Treibhausgase und der menschengemachten Aerosole. Die Erklärung von Swanson und Tsonis könnte stimmen – aber man braucht sie gar nicht. Sie erzeugen erst künstlich ein Problem, für das sie dann eine Lösung anbieten. Das ist in den Naturwissenschaften immer etwa, was gleich skeptisch macht – neue Theorien sollten die Welt einfacher machen, nicht erst neue Probleme erzeugen und dann selbst lösen.
Wird also die globale Temperatur eine Seitwärtsbewegung machen? Ich sehe dafür keine Anzeichen. Im Rahmen des statistischen Fehlers gibt es keine Abweichung vom globalen Erwärmungstrend der letzten 30 oder 40 Jahre. Sollten die nächsten 2 oder 3 Jahre wieder, wie es eigentlich von vielen kundigen Leuten (z.B. Hansen) erwartet wird, ein Anziehen der globalen Erwärmung zeigen, sind Theorien wie die von Swanson und Tsonis oder Modellversuche wie die von Keenlyside et al tot. Und das zeigt eigentlich, wie kurzlebig diese wissenschaftlichen Ansätze sind. Man sollte daher bei solchen Arbeiten daran denken, daß nur wenige originelle Ideen in der Wissenschaft längere Zeit überleben – erst die Bestätigung durch weitere Arbeiten und nicht zuletzt die Vorhersagekraft für Beobachtungen kann aus einzelnen Thesen Theorien machen, die zur Erklärung der Welt herangezogen werden können. Solche (Fehl-)versuche erweitern nichtsdestotrotz unsere wissenschaftlichen Erkenntnisse, denn im welchen Rahmen die Chaostheorie das globale Wetter bzw. Abschnitte in der Klimaentwicklung erklären kann, ist eine spannende und bislang offene Frage.

Weitere Diskussionen dazu gibt es auf RealClimate. Und natürlich, wie nicht anders zu erwarten, wird auch dies von Leugnern aufgegriffen, um zu behaupten, daß auch seriöse Wissenschaftler die These verteidigten, die globale Erwärmung hätte gestoppt. Ohne weiteren Kommentar...

Die Versauerung der Meere

In früheren Beiträgen (etwa hier) habe ich schon darauf hingewiesen, daß der Anstieg der CO2-Mischungsverhältnisse mehr Probleme mit sich bringt als nur die globale Erwärmung. Und die anderen Folgen sind wahrscheinlich sogar schlimmer. Derzeit wird fast die Hälfte des CO2, das wir in die Luft abgeben, durch den steigenden Partialdruck in der Atmosphäre in das Meerwasser gepreßt. Das ist so ähnlich wie die Herstellung von Sprudelwasser aus normalem Leitungswasser und einer CO2-Kartusche. Und da so oft davon geredet wird, daß steigende Temperaturen die Löslichkeit von CO2 in Wasser verringern und daher die Meere zu CO2-Quellen werden könnten: pro Jahr steigt der CO2-Partialdruck in der Atmosphäre um ca. 0,5 %. Die Ausgasung allein durch einen Temperaturanstieg von 0,02 Grad pro Jahr würde den Partialdruck von CO2 über dem Wasser um (sehr grob gerechnet) 0,05 % erhöhen. Der steigende Partialdruck des CO2 hat also einen mindestens zehnmal stärkeren Effekt als die steigende globale Temperatur. Dabei sind Effekte wie etwa durch eine Änderung der Salinität von Meerwasser oder dadurch, daß das gelöste CO2 nicht im chemischen Gleichgewicht ist und biologische Effekte nicht berücksichtigt. Während man sehr grob schätzen kann, welcher Effekt größer ist, ist es sehr schwierig, tatsächlich für die Ozeane zu berechnen, wie viel CO2 zu jeder Zeit in Lösung geht.

Das gelöste CO2 hat vor allem einen Effekt: ein Teil des gelösten CO2 bildet eine starke Säure, die Carbonsäure H2CO3, die zum größeren Teil in Hydrogencarbonat und Hydroniumionen zerfällt:

CO2 + H2O = H2CO3

H2CO3 + H2O <-> HCO3- + H3O+

Letzteres sorgt dafür, daß das an sich alkalische Meer (pH-Wert 8,2 vor Beginn der Industrialisierung) immer weniger alkalisch wird bzw. langsam saurer wird. Ein Anstieg des Mischungsverhältnisses von CO2 um 100 ppm hat innerhalb eines Jahrhunderts bereits den Säuregehalt um 30 % gesteigert bzw. den pH-Wert um 0,1 Punkte fallen lassen. Und genau das ist das Problem. Bestimmte Meereslebewesen haben nur eine geringe Toleranz für Änderungen des pH-Wertes. Kleine Schalentiere leiden unter Schäden an ihren Kalkschalen, wenn das Meer saurer wird. Steigt das CO2-Mischungsverhältnis in der Luft über 450 ppm, könnte der pH-Wert der Meere um mehr als 0,3 Punkte sinken – ein Abfall des pH-Wertes um 0,14-0,35 Punkte wird im aktuellen IPCC-Bericht für wahrscheinlich gehalten. In dem Fall würden viele Meeresorganismen mit Kalkschalen aussterben (darunter Seesterne, Seeigel, viele Muscheln und Kleinstkrebse). Damit fällt der Beginn der Nahrungskette in den Meeren weg. In der Folge würden auch viele Fische aussterben, entweder als Jäger der ausgestorbenen Schalentiere oder als Jäger jener ausgestorbenen Fischarten. Auch die Korallen, ohnehin durch steigende Meerwassertemperaturen belastet, würden durch eine wachsende Hydroniumionenkonzentration weiter geschädigt. Mit dem Absterben der Korallenriffe fiele aber eine wichtige Lebensumwelt von Meereslebewesen und eine ihrer Kinderstuben weg.

Profitieren würden nur wenige Arten, wie zum Beispiel Seegras und bestimmte Arten von Algen, außerdem Quallen. Die Versauerung der Meere würde zum größten Artensterben seit 65 Millionen Jahren auf der Erde führen.

Man könnte zwei Dinge einwenden. Zum einen gab es Zeiten etwa in der Kreidezeit, als die Ozeane saurer waren als heute und trotzdem ähnliche Arten lebten, deren Aussterben man inzwischen befürchten muß, wie Korallen und Kleinstkrebse. Allerdings hatten sich die säureresistenteren Arten über Jahrmillionen entwickeln können. Vielleicht tun sie das in Zukunft auch wieder. Vielleicht aber auch nicht. Jedenfalls werden wir in den nächsten Jahrtausenden sicher nicht beobachten können, daß sich durch die Evolution schnell wieder die gleichen säuretoleranten Arten der Kreidezeit entwickeln – so etwas braucht einfach mehr Zeit. Man könnte auch darauf verweisen, daß der pH-Wert der Ozeane von Ort zu Ort sehr verschieden sein kann. Wie könne da eine pH-Wert-Änderung kritisch sein, die man auch beobachten würde, reiste man aus dem Atlantik ins Mittelmeer vor Italien. Dazu ist zu sagen, daß in jedem Meeresgebiet die Arten vorkommen, die sich an die Verhältnisse dort angepaßt haben. Wenn sich jedoch alle Meere gleichzeitig verändern, werden in allen Meeren die dort angepaßten Arten ausgerottet. Manche werden wandern können und in die Meeresgebiete wandern, die ihren alten Siedlungsgebieten ähnlich werden. Aber für die meisten Arten wird es keine alkalischeren Gebiete mehr geben, in die sie sich zurückziehen könnten.

Im Fall der globalen Erwärmung wird über Geoengineering geredet, um die Erde künstlich zu kühlen. Ungeachtet der geringen Wahrscheinlichkeit, daß diese Methoden umgesetzt werden können, gibt es keine denkbare Möglichkeit, die pH-Wert-Änderung der Meere künstlich abzupuffern. Die einzige Möglichkeit, das Überleben der Meere zu sichern und damit eine wichtigen Nahrungsmittelquelle der Menschheit zu retten ist es, mit der Emission von CO2 aufzuhören.