News und Termine

Arktische wirbellose Tierwelt vom Klimawandel unbeeindruckt: Wenn es keine Eisalgen gibt, essen wir halt Pizza

Manchmal scheint es, dass der Klimwandel hinter jeder Ecke lauert. Liegen die Haare mal etwas wirr auf dem Kopf: Das muss wohl wegen dem Klimawandel sein. Fallen die Haare gar aus, dann ist es garantiert der Klimawandel. Haarige Beine? Ein Produkt des Klimawandels. Muskelkater? Natürlich auch der Klimawandel. Die Webplattform numberwatch.co.uk hat eine vollständige Liste aller Klimawandelfolgen mit gefühlten 1000 Einträgen. Hier eine Kopie der ersten drei Zeilen der Aufstellung:

AIDS, Afghan poppies destroyed, African holocaust, aged deaths, poppies more potent, Africa devastated,  Africa in conflict, African aid threatenedaggressive weeds, Air France crash, air pockets, air pressure changesairport farewells virtual, airport malaria, Agulhas current, Alaskan towns slowly destroyed, Al Qaeda and Taliban Being Helped, allergy increase, allergy season longer, alligators in the Thames, Alps melting, Amazon a desert, American dream endamphibians breeding earlier (or not)anaphylactic reactions to bee stingsancient forests dramatically changed, animals head for the hills, animals shrinkAntarctic grass flourishes, Antarctic ice grows, Antarctic ice

Weiterlesen auf numberwatch.co.uk

——————–

Klimaaktivist John Cook schreibt weiter Papers. Diesmal berichtet er in einem “Fachartikel”, wie man die Gesellschaft gegen Klimaleugnen “impfen” könnte. Cooks Fantasie müsste man haben… Nachzulesen auf vox.com.

——————–

In Namibia geschehen mysteriöse Dinge, wie wetteronline am 23. Mai 2017 meldete:

Überraschung in der Namibwüste: Nebel kommt nicht nur vom Ozean
Der berühmte Nebel der Namibwüste wird vom Ozean gespeist – so die gängige Lehrmeinung. Doch eine Studie enthüllt die wahre Hauptquelle für den lebenswichtigen Nebel in Namibia und eine beunruhigende Veränderung.

Und hier die verrückte Pointe (spoiler alert): Die Nebeltröpfchen stammen aus der Wüste! Ganzen Artikel hier lesen.

——————–

Bleiben wir bei den Überraschungen. Pressetext.com am 15. Mai 2017:

Forscher entdecken viel Wald in Trockengebieten
Stärkere Bewaldung als angenommen könnte gegen Klimawandel helfen.

Eine Analyse eines internationalen Forscherteams hat 467 Mio. Hektar bislang unbekannter Wälder gefunden. Denn die ausgedehnten Trockengebiete dieser Erde sind der Studie zufolge merklich dichter bewaldet als bisher angenommen. Mit dieser Entdeckung steigt die geschätzte globale Waldfläche um zumindest neun Prozent, berichtet das Team in “Science”. Diese Wälder in Trockengebieten könnten sich als Chance im Kampf gegen den Klimawandel erweisen.

————————

Kennen Sie schon die Webseite Schlumpf-Argumente? Hier geht es um den Kimawandel und Energiepolitik. Demnächst sollen regelmäßig neue Artikel dazukommen, vorbeischauen lohnt sich also.

————————

Vor einem Jahr (Juli 2016) machten sich Forscher des AWI große Sorgen über die Eisalgen in der Arktis. Im Zuge der Eisschmelze würden diese weniger werden und fallen damit als Nahrung für die wirbellose marine Tierwelt in der Arktis aus. Kommt es zum Super-GAU, Hunger im Meer? Wie bei so vielen Alarmstories begann man zu forschen und fand dann, dass man wohl ganz umsonst den Teufel an die Wand gemalt hatte. Naja, nicht ganz umsonst, denn man hat ja die vielen Forschungsgelder dazwischen dankbar eingesammelt. Die University of Aberdeen gab am 6. Juni 2017 Entwarnung: Nein, es ist kein Problem wenn die Eisalgen fehlen. Dann ernähren sich die Tiere halt von etwas anderem. Das ist so als wenn die Salamipizza plötzlich im Supermarkt alle ist, dann gibt es halt Eintopf stattdessen. Hier die Pressemitteilung der Uni Aberdeen:

Unfussy bottom feeders show resilience to climate change

A study by scientists at the University of Aberdeen has found that invertebrate life in the deep Arctic Ocean is more resilient to the effects of climate change than previously thought.

The shrinking sea ice cover in the Arctic has led to fears that the associated loss of ice algae – tiny algae growing in large numbers in and under the ice – would pose a serious risk to deep sea invertebrates such as clams, crustaceans and polychaete worms, that rely on them as an important food source. However, research carried out in the Canadian Arctic has found that the creatures will happily feed on phytoplankton as an alternative food source, despite previous research suggesting a preference for ice algae.

The study, which has been published in the Marine Ecology Progress Series (MEPS) journal, was co-authored by Anni Mäkelä and Professor Ursula Witte from the University’s School of Biological Sciences, and Professor Philippe Archambault from Laval University in Quebec. Professor Witte said: “Arctic deep sea seafloor communities rely on ice algae and phytoplankton sinking from the surface waters for food.

“Summer sea ice loss is predicted to increase phytoplankton but reduce ice algal production, but ice algae are a higher quality food source and reach the seafloor communities earlier in the year when other food is scarce. “Previous research has indicated that the animals preferentially eat the high quality ice algae, which would make them very vulnerable if this main food source was lost. “However, by feeding the deep-sea fauna of the Canadian Arctic with both ice algae and phytoplankton, we have been able to show that they will happily feed on both, with no group exclusively preferring ice algae. “Our research shows that Arctic deep sea animals are more resilient to changes in their food supply than previously thought – an unexpected finding that suggests they are adaptable to the challenges imposed by climate change.”

 

Dilbert und der Klimawandel

Teile der CDU wünschen sich einen realistischeren Kurs in der Klimadiskussion und der Klimapolitik, wie heute.de am 3. Juni 2017 meldete:

CDU-Konservative: Klimawandel nicht so negativ
Kurz nach der US-Abkehr vom Pariser Klimaabkommen fordern Konservative in der CDU einen Kurswechsel in der deutschen Klimapolitik. Diese solle eher auf Anpassung an den Klimawandel setzen statt auf Eindämmung. Die Chancen durch das Schmelzen des Polareises seien womöglich größer als die Umweltschäden. In einer Erklärung fordert der konservative “Berliner Kreis” der CDU ein Ende der “moralischen Erpressung” durch die Klimaforschung und den “Abschied von deutschen Sonderzielen” bei der Bekämpfung der Treibhausgase. Die Erklärung wurde heute bei einer internen Veranstaltung des “Berliner Kreises” in den Fraktionsräumen der CDU/CSU im Berliner Reichstag vorgestellt. Darüber hatte zuerst die ARD berichtet.

Weiterlesen auf heute.de. Siehe auch tagesschau.de.

Es war klar, dass sich die Klimahardliner diese Kritik nicht bieten lassen wollten. Sie schlugen hart zurück und sahen sogleich dunkle Mächte am Werke. Der CDU-Bundestagsabgeordnete Philipp Lengsfeld verbat sich wirre Spekulationen und erläuterte die Erklärung auf seiner Webseite:

Richtigstellung zu aktuellen Presseberichten über das Papier des Berliner Kreises zur Klima- und Energiepolitik

Wir wehren uns gegen öffentliche Wahrnehmungen, die – befeuert durch manche Überschriften in großen Artikeln – nicht dem Inhalt des Papiers entsprechen.

  • Wir sind keine Unterstützer von Präsident Trump und dessen Ausstieg aus dem Pariser Klimaabkommen. Das Papier ist völlig unabhängig von Präsident Trumps Äußerungen und Entscheidungen entstanden.
  • Das Papier ist auch kein Angriff auf Kanzlerin Merkel oder die Regierung. Es enthält keine Kritik an Entscheidungen von Kanzlerin Merkel oder der jetzigen Regierung, sondern fordert Überprüfungen und Änderungen für die Zukunft.
  • In dem Papier wird weder bezweifelt, dass es Klimawandel gibt noch, dass der Mensch daran Anteile hat. Und erst Recht nicht fordern wir ein Ende von Klimaschutz. Im Gegenteil, wir sind für Klima- und Umweltschutz und europäische und globale Anstrengungen.

Weiterlesen auf lengsfeld-mitte.de.

Auch international stößt Kanzlerin Merkel auf wenig Gegenliebe mit ihrem Klimakurs. Spiegel.de am 9. Juni 2017:

Merkel’s G-20 Climate Alliance Is Crumbling
The German chancellor had been hoping to isolate Donald Trump on climate issues at the upcoming G-20 summit in Hamburg. But Merkel’s hoped-for alliance is crumbling, underscoring Germany’s relative political weakness globally. Many countries are wary of angering the United States.

————————-

Weshalb müssen Medien so oft dramatisieren, wenn sie über den Klimawandel berichten? Kurt W. Zimmermann kommentierte im Mai 2017 in der Weltwoche:

“In den Medien muss es stets um finale Fragen gehen, um Rettung und Untergang und zumindest um das Schicksal eines Kontinents, wenn nicht der Welt. Es ist leider zum Gesetz des politischen Journalismus geworden, dass er die distanzierte Analyse meist durch den permanenten Alarm ersetzt.”

————————-

Scott Adams zeichnete vor kurzem ein Dilbert-Comic-Strip zum Klimawandel. Firmenmanager laden einen Klimawissenschaftler ein, der Kritiker reflexhaft in die Kategorie Wissenschaftsleugner abschiebt. Hier geht es zum Dilbert-Comic-Strip.

————————-

Kennen Sie schon Uli Webers neues Buch “Klimamord: Der atmosphärische Treibhauseffekt hat ein Alibi“? Aus der Beschreibung:

Die politisch erzwungene Umsetzung eines planwirtschaftlichen Dogmas zur Dekarbonisierung der Welt bis zum Jahre 2100 muss zwangsläufig mit den Grundsätzen von Aufklärung, Demokratie und Wissenschaft kollidieren. Wir leben in einer Zeit, in der vollalimentierte Klimaaktivisten die Meinungsführerschaft in den wohlstandsübersättigten Gesellschaften der westlichen Industrienationen übernommen haben. Diese moralisierende Minderheit hat den Bezug zu der unseren Lebensstandard bestimmenden technischen Nutzung konventioneller Energieträger verloren und skandalisiert fortwährend unsere historischen und wirtschaftlichen Grundlagen. Unter dem Mäntelchen einer vorgeblich vom Menschen verursachten Klimakatastrophe träumt sie von der Großen Transformation zu einer ökologischen Weltgemeinschaft bis zum Jahre 2100. Die Gleichsetzung dieser ökologischen Zwangstransformation mit der kulturellen Entwicklung des Ackerbaus und der technischen Industrialisierung als epochalen Umbrüchen in der Menschheitsgeschichte verkennt aber, dass sich beide im freien Wettbewerb alternativer Möglichkeiten erfolgreich durchgesetzt hatten. Alle planwirtschaftlich gesteuerten Revolutionen hatten dagegen in Unfreiheit, wirtschaftlicher Not und gesellschaftlichem Chaos bis hin zum Massenmord geendet. In diesem Buch hat der Autor eigene Veröffentlichungen und ergänzende Kapitel zu einer schlüssigen Argumentationskette im Sinne einer geowissenschaftlichen Auseinandersetzung mit der von den politisierten Klimawissenschaften prophezeiten menschengemachten Klimakatastrophe zusammengefasst. Insbesondere die wissenschaftliche Widerlegung des atmosphärischen Treibhauseffektes als zentrales Glaubensdogma der Klimareligion steht hierbei im Vordergrund.

Paperback 116 Seiten, Erscheinungsdatum: 19.06.2017, Preis: Euro 5,99

Klimageschichte der USA: Die Jahrtausend-Dürre von 1934

Extremwetter ist ein wiederkehrendes Problem auf der Erde. Keine Region ist dagegen immun. Das hält Klimaaktivisten nicht davon ab, die Ereignisse zu instrumentalisieren. Bei jeder Dürre, Starkregen, Hitzewelle oder Kältewelle stürmen die interessierten Klimaapokalyptiker zu den Mikrofonen und warnen mit besorgter Miene vor einer kommenden Steigerung des Klimaübels. Dagegen kann man wenig machen, denn die Damen und Herren Journalisten dürsten nach Sensationen. Eine fruchtbare Zusammenarbeit. Dazu kommt dann noch die Politik, die mit Hinweis auf die vermeintliche Klimabedrohung unpopuläre Einschnitte durchboxt. Angesichts dieser eng verbandelten Interessensgemeinschaft bleibt uns nichts weiter übrig, uns an dieser Stelle auf die wissenschaftlichen Fakten zu beschränken. Mehr können wir nicht tun.

Heute blicken wir auf das Dürregeschehen in den USA. Was gibt es Neues aus diesem Teil der Welt? Aus dem Februar 2017 stammt eine Arbeit von McCabe et al. im International Journal of Climatology. Fazit: Es gibt große regionale Unterschiede. Insgesamt sind Dürren jedoch seltener geworden:

…for most of the [conterminous United States], drought frequency appears to have decreased during the 1901 through 2014 period.

Zudem konnte über die letzten 100 Jahre ein langfristiger Rückgang bei den sogenannten Flash-Hitzwellen in den USA festgestellt werden, wie Mo & Lettenmaier 2015 berichteten:

Heat wave flash droughts in decline
Flash drought is a term that was popularized during rapidly evolving droughts in the Central U.S. in 2012 that were associated with heat waves. We posit that there are two kinds of flash droughts, and we will focus on heat wave flash droughts, of which the 2012 events were typical. We find, based on an analysis of temperature observations and model-reconstructed soil moisture (SM) and evapotranspiration from 1916 to 2013, that heat wave flash droughts in the conterminous U.S. (CONUS) are most likely to occur over the Midwest and the Pacific Northwest during the growing season. We also find that the number of such events across the CONUS has been decreasing over the last century but rebounded after 2011. The long-term downward trends appear to be associated with generally increasing trends in SM resulting from increasing trends in precipitation over the areas where heat wave flash droughts are most likely to occur.

Richard Seager and Martin Hoerling wiesen bereits im Juni 2014 im Journal of Climate darauf hin, dass ein großer Teil der nordamerikanischen Dürreentwicklung durch Ozeanzyklen gesteuert wird:

Atmosphere and Ocean Origins of North American Drought
The atmospheric and oceanic causes of North American droughts are examined using observations and ensemble climate simulations. The models indicate that oceanic forcing of annual mean precipitation variability accounts for up to 40% of total variance in northeastern Mexico, the southern Great Plains, and the Gulf Coast states but less than 10% in central and eastern Canada. Observations and models indicate robust tropical Pacific and tropical North Atlantic forcing of annual mean precipitation and soil moisture with the most heavily influenced areas being in southwestern North America and the southern Great Plains. In these regions, individual wet and dry years, droughts, and decadal variations are well reproduced in atmosphere models forced by observed SSTs. Oceanic forcing was important in causing multiyear droughts in the 1950s and at the turn of the twenty-first century, although a similar ocean configuration in the 1970s was not associated with drought owing to an overwhelming influence of internal atmospheric variability. Up to half of the soil moisture deficits during severe droughts in the southeast United States in 2000, Texas in 2011, and the central Great Plains in 2012 were related to SST forcing, although SST forcing was an insignificant factor for northern Great Plains drought in 1988. During the early twenty-first century, natural decadal swings in tropical Pacific and North Atlantic SSTs have contributed to a dry regime for the United States. Long-term changes caused by increasing trace gas concentrations are now contributing to a modest signal of soil moisture depletion, mainly over the U.S. Southwest, thereby prolonging the duration and severity of naturally occurring droughts.

Auch Kam et al. 2014 sehen in den Ozeanzyklen einen wichtigen Steuerungmechanismus für die USA:

Changes in drought risk over the contiguous United States (1901–2012): The influence of the Pacific and Atlantic Oceans
We assess uncertainties in the influence of sea surface temperatures on annual meteorological droughts over the contiguous U.S. within a Bayesian approach. Observational data for 1901–2012 indicate that a negative phase of the Pacific Decadal Oscillation (PDO) and the El Niño–Southern Oscillation (ENSO) elevated annual drought risk over the southern U.S., such that the 4 year return period event becomes a 3 year event, while a positive phase of the Atlantic Multidecadal Oscillation has a weak influence. In recent decades, the impacts of the negative phases of the PDO and ENSO on U.S. drought have weakened and shifted toward the southwestern U.S. These changes indicate an increasing of role of atmospheric variability on the U.S. drought overall with implications for long-term changes in drought and the potential for seasonal forecasting.

Abschließend noch ein Paper von Cook et al. 2014 über die schlimmste Dürre Nordamerikas des letzten Jahrtausends. Sie stammt nicht etwas aus den letzten Jahren sondern ereignete sich bereits 1934:

The worst North American drought year of the last millennium: 1934
During the summer of 1934, over 70% of western North America experienced extreme drought, placing this summer far outside the normal range of drought variability and making 1934 the single worst drought year of the last millennium. Strong atmospheric ridging along the West Coast suppressed cold season precipitation across the Northwest, Southwest, and California, a circulation pattern similar to the winters of 1976–1977 and 2013–2014. In the spring and summer, the drying spread to the Midwest and Central Plains, driven by severe precipitation deficits downwind from regions of major dust storm activity, consistent with previous work linking drying during the Dust Bowl to anthropogenic dust aerosol forcing. Despite a moderate La Niña, contributions from sea surface temperature forcing were small, suggesting that the anomalous 1934 drought was primarily a consequence of atmospheric variability, possibly amplified by dust forcing that intensified and spread the drought across nearly all of western North America.

Hier noch die dazugehörige Pressemitteilung der NASA aus dem Oktober 2014:

NASA Study Finds 1934 Had Worst Drought of Last Thousand Years

A new study using a reconstruction of North American drought history over the last 1,000 years found that the drought of 1934 was the driest and most widespread of the last millennium.

Using a tree-ring-based drought record from the years 1000 to 2005 and modern records, scientists from NASA and Lamont-Doherty Earth Observatory found the 1934 drought was 30 percent more severe than the runner-up drought (in 1580) and extended across 71.6 percent of western North America. For comparison, the average extent of the 2012 drought was 59.7 percent. “It was the worst by a large margin, falling pretty far outside the normal range of variability that we see in the record,” said climate scientist Ben Cook at NASA’s Goddard Institute for Space Studies in New York. Cook is lead author of the study, published in Geophysical Research Letters.

Two sets of conditions led to the severity and extent of the 1934 drought. First, a high-pressure system in winter sat over the west coast of the United States and turned away wet weather – a pattern similar to that which occurred in the winter of 2013-14. Second, the spring of 1934 saw dust storms, caused by poor land management practices, suppress rainfall. “In combination then, these two different phenomena managed to bring almost the entire nation into a drought at that time,” said co-author Richard Seager, professor at the Lamont-Doherty Earth Observatory of Columbia University in New York. “The fact that it was the worst of the millennium was probably in part because of the human role.”

According to the recent Fifth Assessment Report of the Intergovernmental Panel on Climate Change, or IPCC, climate change is likely to make droughts in North America worse, and the southwest in particular is expected to become significantly drier as are summers in the central plains. Looking back one thousand years in time is one way to get a handle on the natural variability of droughts so that scientists can tease out anthropogenic effects – such as the dust storms of 1934. “We want to understand droughts of the past to understand to what extent climate change might make it more or less likely that those events occur in the future,” Cook said. The abnormal high-pressure system is one lesson from the past that informs scientists’ understanding of the current severe drought in California and the western United States.

“What you saw during this last winter and during 1934, because of this high pressure in the atmosphere, is that all the wintertime storms that would normally come into places like California instead got steered much, much farther north,” Cook said. “It’s these wintertime storms that provide most of the moisture in California. So without getting that rainfall it led to a pretty severe drought.” This type of high-pressure system is part of normal variation in the atmosphere, and whether or not it will appear in a given year is difficult to predict in computer models of the climate. Models are more attuned to droughts caused by La Niña’s colder sea surface temperatures in the Pacific Ocean, which likely triggered the multi-year Dust Bowl drought throughout the 1930s. In a normal La Niña year, the Pacific Northwest receives more rain than usual and the southwestern states typically dry out.

But a comparison of weather data to models looking at La Niña effects showed that the rain-blocking high-pressure system in the winter of 1933-34 overrode the effects of La Niña for the western states. This dried out areas from northern California to the Rockies that otherwise might have been wetter. As winter ended, the high-pressure system shifted eastward, interfering with spring and summer rains that typically fall on the central plains. The dry conditions were exacerbated and spread even farther east by dust storms. “We found that a lot of the drying that occurred in the spring time occurred downwind from where the dust storms originated,” Cook said, “suggesting that it’s actually the dust in the atmosphere that’s driving at least some of the drying in the spring and really allowing this drought event to spread upwards into the central plains.”

Dust clouds reflect sunlight and block solar energy from reaching the surface. That prevents evaporation that would otherwise help form rain clouds, meaning that the presence of the dust clouds themselves leads to less rain, Cook said. “Previous work and this work offers some evidence that you need this dust feedback to explain the real anomalous nature of the Dust Bowl drought in 1934,” Cook said. Dust storms like the ones in the 1930s aren’t a problem in North America today. The agricultural practices that gave rise to the Dust Bowl were replaced by those that minimize erosion. Still, agricultural producers need to pay attention to the changing climate and adapt accordingly, not forgetting the lessons of the past, said Seager. “The risk of severe mid-continental droughts is expected to go up over time, not down,” he said.

Reference: Cook, B.I., R. Seager, and J.E. Smerdon, 2014: The worst North American drought year of the last millennium: 1934. Geophys. Res. Lett., 41, no. 20, 7298-7305, early on-line, doi:10.1002/2014GL061661.

 


 

Modellversagen: Simulationen bekommen den Indischen Monsun nicht in den Griff

Klimamodelle simulieren die Wirklichkeit. Die Erfolgsquote ist durchwachsen. Während in den Medien oft suggeriert wird, alles wäre bestens unter Kontrolle, sieht die Wirklichkeit leider ander aus. Nehmen wir das Beispiel des Indischen Monsuns, dem lebenswichtigen Regenspender in der Region. Bereits im Oktober 2014 ließen Anamira Saha und Kollegen in den Geophysical Research Letters “eine Bombe platzen”: Der Monsun hat in den letzten 60 Jahren langfristig abgenommen. Jedoch können die Modelle diesen Trend nicht reproduzieren. Schlimmer noch, die Modelle können nicht einmal die generellen Veränderungen der atmopshärischen Zirkulation und Temperaturmuster der Ozeangebiete nachvollziehen. Ein absolutes Debakel, wenn man bedenkt, dass dieselben Modell im großen Maßstab als Begründung für weitreichende gessellschaftsumbildende Maßnahmen herangezogen werden. Hier der Abstract:

Failure of CMIP5 climate models in simulating post-1950 decreasing trend of Indian monsoon
Impacts of climate change on Indian Summer Monsoon Rainfall (ISMR) and the growing population pose a major threat to water and food security in India. Adapting to such changes needs reliable projections of ISMR by general circulation models. Here we find that, majority of new generation climate models from Coupled Model Intercomparison Project phase5 (CMIP5) fail to simulate the post-1950 decreasing trend of ISMR. The weakening of monsoon is associated with the warming of Southern Indian Ocean and strengthening of cyclonic formation in the tropical western Pacific Ocean. We also find that these large-scale changes are not captured by CMIP5 models, with few exceptions, which is the reason of this failure. Proper representation of these highlighted geophysical processes in next generation models may improve the reliability of ISMR projections. Our results also alert the water resource planners to evaluate the CMIP5 models before using them for adaptation strategies.

Zu einem ähnlichen Schluss kam Venkatraman Prasanna im April 2016 im Fachblatt Pure and Applied Geophysics. Die Modelle unterscheiden sich so stark voneinander, dass die Resultate beliebig werden:

Assessment of South Asian Summer Monsoon Simulation in CMIP5-Coupled Climate Models During the Historical Period (1850–2005)
This paper evaluates the performance of 29 state-of-art CMIP5-coupled atmosphere–ocean general circulation models (AOGCM) in their representation of regional characteristics of monsoon simulation over South Asia. The AOGCMs, despite their relatively coarse resolution, have shown some reasonable skill in simulating the mean monsoon and precipitation variability over the South Asian monsoon region. However, considerable biases do exist with reference to the observed precipitation and also inter-model differences. The monsoon rainfall and surface flux bias with respect to the observations from the historical run for the period nominally from 1850 to 2005 are discussed in detail. Our results show that the coupled model simulations over South Asia exhibit large uncertainties from one model to the other. The analysis clearly brings out the presence of large systematic biases in coupled simulation of boreal summer precipitation, evaporation, and sea surface temperature (SST) in the Indian Ocean, often exceeding 50 % of the climatological values. Many of the biases are common to many models. Overall, the coupled models need further improvement in realistically portraying boreal summer monsoon over the South Asian monsoon region.

 

Neue Rückschlüsse aus 2000 Jahren Meeresspiegelgeschichte: PIK-Forscher Stefan Rahmstorf revidiert seine Meeresspiegelprognose drastisch nach unten

Klimaalarm von Joachim Müller-Jung am 23. Februar 2016 in der FAZ:

Rekordanstieg der Meerespiegel: Diese Wogen sind kaum zu glätten
So schnell ging es in den letzten 2800 Jahren nicht aufwärts. Und der Meeresspiegelanstieg ist auch mit dem Pariser Klimaabkommen nicht zu stoppen. Dazu passen schlechte Nachrichten vom Südpol.

Müller-Jung ganz in seinem Element als Überbringer schlechter Nachrichten. Er liebt es, Klimaangst zu schüren. Die Steilvorlage lieferte – wie kann es anders sein – das PIK, wie wir dem Artikel entnehmen:

„Unsere Studie ist für den Meeresspiegel so etwas wie die berühmte ‚Hockeyschläger-Kurve‘ für die globale Temperatur“, sagt etwa Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK).

Realisiert Rahmstorf eigentlich was er hier sagt? Es ist mittlerweile allgemein in der Fachwelt anerkannt, dass der “berühmte Hockeystick” fachlich fehlging. Leitautor Michael Mann hat die Kurve eigenhändig in einer Folgepublikation acht Jahre später nachgebessert, womit sie endgültig aus der Welt war. Wenn Rahmstorf seine neue Meeresspiegel-Studie nun mit der Hockeystick-Kurve vegleicht, schießt er ein klassisches Eigentor. Superpeinlich. Weiter im Text von Joachim Müller-Jung:

Zusammen mit dem Team um Robert Kopp von der Rutgers University in New Brunswick/New Jersey haben sich die Potsdamer Forscher um Rahmstorf nun zunutze gemacht, dass weltweit immer mehr gut rekonstruierbare historische Pegelstände gesammelt werden. 24 Küstenorte haben sie ausgewertet, dazu 66 Pegelstandsreihen, die teilweise bis zum Jahr 1700 zurückreichen. [...] Die Abkühlung, die vor gut tausend Jahren einsetzte, spiegelt sich in den Pegelanalysen ganz gut wider – von heftigen Schwankungen zum Höhepunkt der Kleinen Eiszeit abgesehen. Extrem auffälllig freilich und nahezu parallel zum Temperaturanstieg verläuft der heftige Zuwachs im Verlauf des zurückliegenden Jahrhunderts – daher wieder die Anspielung auf der Kurvenverlauf in der Form eines Hockeyschlägers. „Mit sehr hoher Wahrscheinlichkeit wurde mehr als die Hälfte des Meeresspiegelanstiegs im 20. Jahrhundert vom Menschen verursacht – und möglicherweise sogar der gesamte Anstieg“, so die Gruppe um Rahmstorf.

Abkühlung, die vor 1000 Jahren einsetzte? Damit soll wohl das Ende der Mittelalterlichen Wärmeperiode gemeint sein. Seltsam, dass der Begriff im Artikel einfach nicht fallen will. Nicht einmal der neutralere Begriff “Mittelalterliche Klimaanomalie” wird genannt. An dieser Stelle sollten wir nun in die Originalarbeit von Kopp et al. hineinschauen, die im März 2016 in PNAS erschien:

Temperature-driven global sea-level variability in the Common Era
We assess the relationship between temperature and global sea-level (GSL) variability over the Common Era through a statistical metaanalysis of proxy relative sea-level reconstructions and tide-gauge data. GSL rose at 0.1 ± 0.1 mm/y (2σ) over 0–700 CE. A GSL fall of 0.2 ± 0.2 mm/y over 1000–1400 CE is associated with ∼0.2 °C global mean cooling. A significant GSL acceleration began in the 19th century and yielded a 20th century rise that is extremely likely (probability P≥0.95) faster than during any of the previous 27 centuries. A semiempirical model calibrated against the GSL reconstruction indicates that, in the absence of anthropogenic climate change, it is extremely likely (P=0.95) that 20th century GSL would have risen by less than 51% of the observed 13.8±1.5 cm. The new semiempirical model largely reconciles previous differences between semiempirical 21st century GSL projections and the process model-based projections summarized in the Intergovernmental Panel on Climate Change’s Fifth Assessment Report.

Eine globale Meeresspiegelrekonstruktion auf Basis von Küstenpegeln und geologischen Proxydaten, die 2500 Jahre zurückreicht. Eine spannende Sache. Eine Graphik sagt oft mehr als 1000 Worte. Hier ein Ausschnitt aus der Meeresspiegelrekonstruktion aus der Arbeit (korrigierte Version, September 2016, oben), sowie globale Temperaturrekonstruktionen, darunter die bereits angesprochene Nicht-Hockeystick-Kurve von Mann et al. 2009, orangenfarbige Kurve unten.

 

Abbildung: Rekonstruktion des globalen Meeresspiegels (oben) und Temperatur (unten). Abbildungsauaschnitt aus Kopp et al. 2016. Jahreszahlen sind Jahre n. Chr. (positiv) bzw. v. Chr. (negativ).

 

Ein einziger Blick auf die Kurven deutet an, dass Joachim Müller-Jung hier den Elefanten im Raum unerwähnt lässt, sich einige Alarm-Rosinen herausgepickt hat und der Studie damit einen ganz anderen Spin gibt. Das Hauptergebnis ist in Wirklichkeit, dass der Meeresspiegel in der Zeit zwischen 300-1100 n.Chr. bereits einmal sehr hoch war und dann im Zuge der Abkühlung zur Kleinen Eiszeit dramatisch absackte. Die “Mittelalterliche Wärmeperiode” (MWP) scheint also Teil einer längeren globalen Wärmephase gewesen zu sein, die den Meeresspiegel über viele Jahrhundert nach oben drückte. Was waren die (natürlichen!) Gründe hierfür? Hierüber verliert Müller-Jung kein Wort. Können die Klimamodelle diese Wärmephase im “Hindcast” reproduzieren? Antwort des IPCC im letzten Bericht: Nein!

Es ist zudem seltsam, dass Kopp et al. 2016 die Temperaturkurve von PAGES2k (2013) nicht ausführlicher vergleichen. Dieser Temperaturverlauf sieht nämlich der Meeresspiegelkurve recht ähnlich, vielleicht zu ähnlich? Die Vorverlegung der MWP in der Meeresspiegelkurve ist interessant. Die Antwort könnte in der Antarktis liegen, denn dort ereignete sich die MWP früher als in vielen anderen Teilen der Erde, und die Temperaturen sackten wieder um 1000 n. Chr. ab. Ist es vor allem das verstärkt geschmolzene Eis der Antarktis, das den Meeresspiegelanstieg 300-1100 n. Chr. verursacht hat?

Und noch etwas fehlt im FAZ-Artikel von Joachim Müler-Jung. Die von Kopp, Rahmstorf und Kollegen in PNAS publizierten Beträge für den im 21. Jahrhundert erwarteten Meeresspiegelanstieg liegen weit unter denen, die Rahmstorf früher behauptet hat. Wäre das nicht eine tolle FAZ-Schlagzeile gewesen?

PIK-Forscher Stefan Rahmstorf revidiert Meeresspiegelprognose drastisch nach unten

Das können die FAZ und insbesondere Joachim Müller-Jung natürlich nicht machen. Es würde das falsche politische Signal setzen, die Leute verunsichern. Die New York Times hingegen hat es am 22. Februar 2017 in ihrer Berichterstattung zum Paper geschrieben:

One of the authors of the new paper, Dr. Rahmstorf, had previously published estimates suggesting the sea could rise as much as five or six feet by 2100. But with the improved calculations from the new paper, his latest upper estimate is three to four feet. That means Dr. Rahmstorf’s forecast is now more consistent with calculations issued in 2013 by the Intergovernmental Panel on Climate Change, a United Nations body that periodically reviews and summarizes climate research. That body found that continued high emissions might produce a rise in the sea of 1.7 to 3.2 feet over the 21st century.

Roger Pielke Jr twitterte daraufhin:

Climate scientist known for being wrong admits error, reduces estimate of sea level rise by 50%. IPCC was right

 

Deutsches Institut für Entwicklungspolitik warnt vor Annahme eines Automatismus zwischen Klimawandel und Migration

Elektroautos sollen der Schlüssel zum Klimaproblem sein. Subventionen, kostenlose Parkplätze und freies Auftanken locken. Die Politik erfreut sich an der Rolle des Ökomachers. Ein paar Kleinigkeiten wurden dabei offenbar übersehen. Eine schwedische Studie fand nun nämlich heraus, dass bei der Herstellung der Spezialbatterien eine sehr große Menge an CO2 anfällt, die in den bisherigen Ökobilanzrechnungen offenbar nicht vollständig erfasst wurde. Insofern muss ein Auto wohl erst einige Zehntausend Kilometer fahren, bis der ökologische Break-Even erreicht ist. Die GWPF berichtete ausführlich über die Studie.

In Dänemark ist der Elektrofahrzeugboom erst einmal vorbei. Nachdem großzügige Steuererleichterungen weggefallen sind, brachen die E-Mobil-Verkaufszahlen um 60% ein. Die Elektromobilität rechnet sich offenbar noch nicht ohne staatliche Hilfen. Bloomberg berichtete am 2. Juni 2017:

Denmark Is Killing Tesla (and Other Electric Cars)

Drop in sales suggests market isn’t yet competitive

Sales in Denmark of Electrically Chargeable Vehicles (ECV), which include plug-in hybrids, plunged 60.5 percent in the first quarter of the year, compared with the first three months of 2016, according to latest data from the European Automobile Manufacturers Association (ACEA). That contrasts with an increase of nearly 80 percent in neighboring Sweden and an average rise of 30 percent in the European Union.

Weiterlesen bei Bloomberg.com.

Windkraftwerke steuerten 2015 knapp ein halbes Prozent zum globalen Energiemix bei, wie Matt Ridley am 13. Mai 2017 im Spectator vorrechnete:

Wind turbines are neither clean nor green and they provide zero global energy
[...] Here’s a quiz; no conferring. To the nearest whole number, what percentage of the world’s energy consumption was supplied by wind power in 2014, the last year for which there are reliable figures? Was it 20 per cent, 10 per cent or 5 per cent? None of the above: it was 0 per cent. That is to say, to the nearest whole number, there is still no wind power on Earth. Even put together, wind and photovoltaic solar are supplying less than 1 per cent of global energy demand. From the International Energy Agency’s 2016 Key Renewables Trends, we can see that wind provided 0.46 per cent of global energy consumption in 2014, and solar and tide combined provided 0.35 per cent. Remember this is total energy, not just electricity, which is less than a fifth of all final energy, the rest being the solid, gaseous, and liquid fuels that do the heavy lifting for heat, transport and industry.

Weiterlesen im Spectator

Das Deutsche Institut für Entwicklungspolitik (DIE) hat offenbar genug von den fragwürdigen Bemühungen einzelner Klimaforscher, die Konflikte der Welt simplistisch mit dem Anstieg des CO2 zu erklären. Dabei fallen die wahren Gründe unter den Tisch, was eine realistische Analyse und effektive Hilfsmaßnahmen in der Praxis erschwert. Am 6. Juni 2017 meldete sich Benjamin Schraven in einer DIE-Kolumne mit dem folgenden Beitrag zu Wort:

Klimawandel ist nicht alles – Die Ursachen von Flucht und Migration sind vielfältig

[...] Mit der Frage, welche Rolle der Klimawandel für Migrationsentscheidungen eigentlich spielt, beschäftigen sich die Wissenschaft und verschiedene internationale Organisationen schon länger und tun sich damit bisweilen auch durchaus schwer. Der erst vor kurzem von der Internationalen Organisation für Migration (IOM) mit herausgegebene „Atlas der Umweltmigration“ etwa bemüht sich redlich mit unzähligen, z.T. sehr aufwendig gestalteten Illustrationen, das Phänomen Umwelt- bzw. Klimamigration in seinen unterschiedlichen Facetten zu beleuchten und zu erklären. Allerdings bleibt man nach über 160 Seiten Lektüre auch etwas ratlos zurück. Haften bleibt vor allem der Eindruck, dass dies alles sehr komplex ist.

Komplex ist dieser Zusammenhang in der Tat – ebenso wie die Migrationsentscheidungen selbst. Sie können von ökologischen aber sehr häufig auch von vielen anderen Faktoren und Motiven wirtschaftlicher, politischer, sozialer, kultureller oder demographischer Natur beeinflusst werden. Vieles deutet darauf hin, dass die immer noch weit verbreitete Annahme eines Automatismus zwischen Klimawandel und Migration – getreu einer Formel „weniger Regen oder mehr Dürren führt zu mehr Migration“ – stark angezweifelt werden muss. Ein solch genereller „Ökodeterminismus“ ist empirisch nicht haltbar. Menschen, die besonders unter den Auswirkungen des Klimawandels zu leiden haben, sind vor allem sehr arme Bevölkerungsgruppen in weiten Teilen des globalen Südens. Ihnen fehlen oft die notwendigen Ressourcen um überhaupt migrieren zu können bzw. diese werden durch die Auswirkungen des Klimawandels etwa in Form von Missernten noch zusätzlich erodiert. Nicht selten ist also eine fatale Immobilität statt Mobilität die Folge globaler Erwärmung. Menschliche Migration ist somit nicht unbedingt ein guter Gradmesser dafür, wie stark der Klimawandel und seine Folgen die Menschen in Afrika, Asien oder Lateinamerika treffen.

Ganzen Beitrag auf der Webseite des Deutschen Instituts für Entwicklungspolitik lesen.

 

Sonne macht Meeresspiegel: Forscher entdecken unerwartete Zusammenhänge

Eine Gruppe um Adrian Martinez-Asensio hat den 11-jährigen Schwabe-Sonnenzyklus in der euopäischen Meeresspiegel entdeckt. Die Autoren veröffentlichten ihren Fund am 19. November 2016 in den Geophysical Research Letters:

Decadal variability of European sea level extremes in relation to the solar activity
This study investigates the relationship between decadal changes in solar activity and sea level extremes along the European coasts and derived from tide gauge data. Autumn sea level extremes vary with the 11 year solar cycle at Venice as suggested by previous studies, but a similar link is also found at Trieste. In addition, a solar signal in winter sea level extremes is also found at Venice, Trieste, Marseille, Ceuta, Brest, and Newlyn. The influence of the solar cycle is also evident in the sea level extremes derived from a barotropic model with spatial patterns that are consistent with the correlations obtained at the tide gauges. This agreement indicates that the link to the solar cycle is through modulation of the atmospheric forcing. The only atmospheric regional pattern that showed variability at the 11 year period was the East Atlantic pattern.

Bereits im Mai 2015 hatte eine Gruppe um Daniel Howard im Journal of Geophysical Research Einflüsse der Sonnenaktivität und Ozeanzyklen in der Meeresspiegelentwicklung gefunden, die mindestens 70% der jährlichen Schwankungen ausmachen. Hier der Abstract:

The solar and Southern Oscillation components in the satellite altimetry data
With satellite altimetry data accumulating over the past two decades, the mean sea level (MSL) can now be measured to unprecedented accuracy. We search for physical processes which can explain the sea level variations and find that at least 70% of the variance in the annually smoothed detrended altimetry data can be explained as the combined effect of both the solar forcing and the El Niño–Southern Oscillation (ENSO). The phase of the solar component can be used to derive the different steric and eustatic contributions. We find that the peak to peak radiative forcing associated with the solar cycle is 1.33 ± 0.34 W/m2, contributing a 4.4 ± 0.8 mm variation. The slow eustatic component (describing, for example, the cryosphere and large bodies of surface water) has a somewhat smaller peak to peak amplitude of 2.4 ± 0.6 mm. Its phase implies that warming the oceans increases the ocean water loss rate. Additional much smaller terms include a steric feedback term and a fast eustatic term. The ENSO contributes a peak to peak variation of 5.5 ± 0.8 mm, predominantly through a direct effect on the MSL and significantly less so indirectly through variations in the radiative forcing.

 

Schrumpfendes arktisches Meereis: Welche Rolle spielen die Ozeanzyklen?

Was ist bloß mit dem arktischen Meereis los? In den letzten 2 Jahren ging es nach einem Zwischenhoch steil bergab. Aktivisten rieben sich die Hände: Nur noch 3567 mal schlafen, heißa, dann ist das Arktische Meer eisfrei. Wir wollen uns den Verlauf einmal näher anschauen:

Abbildung 1:Ausdehnung des arktischen (blau) und antarktischen (rot) Meereises während der letzten 35 Jahre. Quelle: Climate4You. Daten: NSIDC. Laufende Mittelwerte für 12 Monate. Stand: Mai 2017. 

 

Die gute Nachricht: Der Eisschwund hat offenbar vorerst aufgehört. Der kleine blaue aufwärtsgerichtete Haken zeigt es an. Im Einzelnen erkennt man die Entwicklung ganz gut in der folgenden Eis-Kurve:

Abbildung 2: Verlauf der Ausdehnung des arktischen Meereises für die Jahre 2017 (hell blau), 2016 (rot), 2012 (grün gestrichelt). Quelle: NSIDC

 

Die aktuelle arktische Meereisbedeckung (Mittel Juni 2017) unterscheidet sich nicht von jener zum gleichen Zeitpunkt 2012 und 2016. Aber natürlich: Im langjährigen Kontext haben wir heute weniger Eis als üblich (graue Kurve gibt den Mittelwert an).  Woran liegts? Im Winter 2015/16 führte die NASA hohe arktische Temperaturen und Stürme als Gründe an. Paul Dorian von Vencore Weather fand zudem einen deutlichen Zusammenhang mit dem El Nino:

Als der El Nino dann überstanden war, wurden auch sogleich enorme Wiedergefrierungsraten gemessen, die höchsten seit Beginn der täglichen Messungen 1987. Den Zusammenhang mit dem El Nino sieht übrigens auch der Direktor des U.S. National Snow and Ice Data Center so, wie CNN im Juni 2016 berichtete:

Mark Serreze, the director of U.S. National Snow and Ice Data Center attributed some of the low levels of ice to El Niño. “The El Niño certainly had something to do with this,” he told Climate Central. “It can have impacts on weather conditions very far away from the tropical Pacific.”

Zudem gibt es im Maßstab von mehreren Jahrzehnten Zusammenhänge mit der Pazifischen Dekadenoszillation (PDO) (Lapointe et al. 2017 , Yu et al. 2017, Screen & Francis 2016) und der Atlantischen Multidekadenoszillation (AMO) (Osborne et al. 2017). Und dann ist da natürlich auch noch die Arktische Oszillation, die ebenfalls ein Wörtchen beim Meereis mitredet, wie Hegyi & Taylor im Mai 2017 in den Geohysical Research Letters beschreiben:

The regional influence of the Arctic Oscillation and Arctic Dipole on the wintertime Arctic surface radiation budget and sea ice growth
An analysis of 2000–2015 monthly Clouds and the Earth’s Radiant Energy System-Energy Balanced and Filled (CERES-EBAF) and Modern-Era Retrospective Analysis for Research and Applications, Version 2 (MERRA2) data reveals statistically significant fall and wintertime relationships between Arctic surface longwave (LW) radiative flux anomalies and the Arctic Oscillation (AO) and Arctic Dipole (AD). Signifying a substantial regional imprint, a negative AD index corresponds with positive downwelling clear-sky LW flux anomalies (>10 W m−2) north of western Eurasia (0°E–120°E) and reduced sea ice growth in the Barents and Kara Seas in November–February. Conversely, a positive AO index coincides with negative clear-sky LW flux anomalies and minimal sea ice growth change in October–November across the Arctic. Increased (decreased) atmospheric temperature and water vapor coincide with the largest positive (negative) clear-sky flux anomalies. Positive surface LW cloud radiative effect anomalies also accompany the negative AD index in December–February. The results highlight a potential pathway by which Arctic atmospheric variability influences the regional surface radiation budget over areas of Arctic sea ice growth.

 

Meeresspiegelentwicklung in Ostsee und Nordsee durch 70-jährigen Ozeanzyklus gepulst

Immer wieder warnen uns einzelne Forscher vor einer ihrer Meinung nach bevorstehenden enormen Steigerung des Meeresspiegelanstiegs. Denn nur wenn sich die Raten steigern, können die vorgeschlagenen Sintflut-Szenarien Wirklichkeit werden. Küstenpegelmessungen werden seit mehr als 100 Jahren durchgeführt. Gibt es hier vielleicht bereits Anzeichen, dass das Meer schneller steigt als zuvor? Phil Watson von der University of New South Wales hat die europäischen Pegeldaten mit einer neuen Software analysiert, die besonders Trends hervorhebt. Das Ergebnis ist deutlich: Bislang ist keine Spur von einer Beschleunigung in den Daten zu erkennen. Es wird wohl noch weitere 20 Jahre brauchen, bis man diese Frage überhaupt klären könnte, erläutert der Autor. Sämtliche Anstiegsraten liegen unterhalb des globalen Satellitendurchschnitts von 3,4 mm /Jahr. Hier der Abstract der Arbeit, die im Januar 2017 im Journal of Coastal Research erschien:

Acceleration in European Mean Sea Level? A New Insight Using Improved Tools
Research into sea-level rise has taken on particular prominence in more recent times owing to the global threat posed by climate change and the fact that mean sea level and temperature remain the key proxies by which we can measure changes to the climate system. Under various climate change scenarios, it has been estimated that the threat posed by the effects of sea-level rise might lead to annual damage costs across Europe on the order of €25 billion by the 2080s. European mean sea-level records are among the best time series data available globally by which to detect the presence of necessary accelerations forecast by physics-based projection models to elevate current rates of global sea-level rise (≈3 mm/y) to anywhere in the vicinity of 10–20 mm/y by 2100. The analysis in this paper is based on a recently developed analytical package titled “msltrend,” specifically designed to enhance estimates of trend, real-time velocity, and acceleration in the relative mean sea-level signal derived from long annual average ocean water level time series. Key findings are that at the 95% confidence level, no consistent or compelling evidence (yet) exists that recent rates of rise are higher or abnormal in the context of the historical records available across Europe, nor is there any evidence that geocentric rates of rise are above the global average. It is likely a further 20 years of data will distinguish whether recent increases are evidence of the onset of climate change–induced acceleration.

Für die Arktis der letzten 60 Jahre präsentierten Svendsen et al. im August 2016 eine Küstenpegelsynthese. Sie fanden einen Anstiegstrend von 1,5 mm pro Jahr.

Stable reconstruction of Arctic sea level for the 1950–2010 period
Reconstruction of historical Arctic sea level is generally difficult due to the limited coverage and quality of both tide gauge and altimetry data in the area. Here a strategy to achieve a stable and plausible reconstruction of Arctic sea level from 1950 to today is presented. This work is based on the combination of tide gauge records and a new 20 year reprocessed satellite altimetry-derived sea level pattern. Hence, the study is limited to the area covered by satellite altimetry (68°N and 82°N). It is found that time step cumulative reconstruction as suggested by Church and White (2011) may yield widely variable results and is difficult to stabilize due to the many gaps in both tide gauge and satellite data. A more robust sea level reconstruction approach is to use datum adjustment of the tide gauges in combination with satellite altimetry, as described by Ray and Douglas (2011). In this approach, a datum-fit of each tide gauges is used and the method takes into account the entirety of each tide gauge record. This makes the Arctic sea level reconstruction much less prone to drifting. From our reconstruction, we found that the Arctic mean sea level trend is around 1.5 mm ± 0.3 mm/yr for the period 1950–2010, between 68°N and 82°N. This value is in good agreement with the global mean trend of 1.8 ± 0.3 mm/yr over the same period as found by Church and White (2004).

Schon gewusst? Teile Dänemarks kämpften in den letzten Jahrausenden mit einem fallenden Meeresspiegel. Hede et al. 2015:

Changes in Holocene relative sea-level and coastal morphology: A study of a raised beach ridge system on Samsø, southwest Scandinavia
[...] After c. 3500 yr BP, the [relative sea level curve] curve shows a gradual decrease at a rate of c. 0.6 mm/yr.

Kuijpers et al. 2012 beschreiben eine Meeresspiegelabsenkung nach der Mittelalterlichen Wärmeperiode in ihrem dänischen Studiengebiet in Seeland. Eine ähnliche Absenkung im Zuge der Kleinen Eiszeit nehmen auch Hansen et al. 2012 für die Nordsee und Ostesee an. Sie dokumentieren zudem eine Zyklizität mit einer Periodendauer von 70 Jahren, was vermutlich den bekannten Ozeanzyklen entspricht. Phasen der Beschleunigung müssen zwingend im Kontext dieser Zyklik gesehen werden. Die natürliche Anstiegsrate Ende des 18. Jahrhunderts am Ende der Kleinen Eiszeit überstieg die heutige sowie alle Prognosen des 21. Jahrhunderts. Hier der Abstract der Arbeit aus Boreas:

Absolute sea levels and isostatic changes of the eastern North Sea to central Baltic region during the last 900 years
Most studies of late Holocene sea-level changes generally assume stable tectonic conditions. However, unrecognized neotectonic ‘noise’, even the small rates of passive continental margins, can severely distort sea-level reconstructions of the late Holocene. The detailed sea-level curve proposed here is reconstructed by identification of an area (Læsø archipelago in the Kattegat Sea) where small neotectonic level changes and other kinds of ‘background noise’ can be precisely quantified by advanced LiDAR techniques. We show that the absolute (‘eustatic’) sea level of Kattegat has risen by 110±14 cm since AD 1300 and that the Little Ice Age lowstand occurred between 1250 and 1750. Thereafter, four oscillations with a cyclicity of ∼70 years peaked around 1790, 1860, 1920–1950 (double peak), and at the present. We discuss the global implications of the curve, for example that the acceleration in the present sea-level rise may be part of this 70-year cyclicity, and that the non-anthropogenic sea-level rise between 1700 and 1790 seems faster than the present and projected sea-level rise for the 21st century. Moreover, the conspicuous sea-level fall at the beginning of the Little Ice Age confirms that ice-cap growth can be faster than ice-cap melting. By comparison with 29 long-term tide gauge measurements of the region we show that the isostatic implications of the sea-level curve are in nearly perfect agreement with Peltier’s global isostatic VM2 model (applied by IPCC and PSMSL) and yield a 3–4 times smaller spread of isostatic rates. Owing to this higher precision it is possible to produce a reliable isostatic map of SW Scandinavia, Denmark, N Germany and NW Poland. This new map identifies an isostatic jump by ∼0.6 mm a−1 at the Ringkøbing-Fyn Basement High, separating the isostatic pattern of the North German Basin from the isostatic pattern of the Danish Basin and the Scandinavian Peninsula.

 

Doch kein Kipppunkt im Amazonas-Regenwald, der stabiler ist als gedacht

Schweizer Tüftler haben einen CO2-Staubsauger erfunden, wie Sputnik am 9. Juni 2017 meldete:

Schweizer kehren Klimawandel um: Anlage filtert CO2 aus der Luft
Das Schweizer Unternehmen Climeworks sammelt nun CO2 aus der Luft, geht damit gegen den Klimawandel vor und beliefert Treibhäuser und alternative Kraftstoffhersteller – die den Stoff ohnehin benötigen.

Weiterlesen bei Sputnik

Auf der TASPO-Webseite kann man sich die Anlage im Video anschauen:

 

Manche Statistiken sind so komplex, dass sie erst mit anderthalb Jahren Verspätung veröffentlicht werden können. Das gilt z.B. für den CO2-Ausstoß der EU. Dieser hat sich 2015 erstmals seit 2010 wieder erhöht, meldeten die Energy Live News am 5. Juni 2017:

EU’s emissions in 2015 rose after five years
The EU’s total greenhouse gas emissions increased in 2015 for the first time since 2010. According to new data published by the European Environment Agency (EEA), the 0.5% increase happened largely due to increasing demand for transport – better fuel efficiency in the sector was not enough to offset this. The report suggests a slightly colder winter across Europe also contributed to increased emissions, due to higher demand for heating.

Weiterlesen bei Energy Live News. Siehe auch Graphik bei der GWPF.

Aus dem Amazonas-Regenwald gibt es gute Nachrichten. Dieser ist wohl stabiler als gedacht, wie die University of Bristol am 30. Mai 2017 per Pressemitteilung bekanntgab:

Amazon rainforest may be more resilient to deforestation than previously thought

Taking a fresh look at evidence from satellite data, and using the latest theories from complexity science, researchers at the University of Bristol have provided new evidence to show that the Amazon rainforest is not as fragile as previously thought. The research is published today in Nature Communications.

The Amazon forest stores about half of the global tropical forest carbon and accounts for about a quarter of carbon absorption from the atmosphere by global forests each year. As a result, large losses of Amazonian forest cover could make global climate change worse.

In the past, researchers have found that a large part of the Amazon forest is susceptible to a tipping point. The tell-tail sign is satellite data showing areas of savannah and rainforest coexisting under the same environmental conditions. Theories from nonlinear dynamics would then suggest that both states are alternative stable outcomes. This so called bistability means that shocks such as forest clearance or drought could lead to a dramatic increase of fire occurrence and tip an area of rainforest into savannah. Areas that have experienced this transition would then remain locked into this savannah state until large enough increases of rainfall and release of human pressures allow forests to regrow faster than they are lost by intermittent fires.

Bert Wuyts, a fourth year PhD student in the Bristol Centre for Complexity Sciences and lead author on the paper, said: “I decided to take a fresh look at the data and a very different picture emerged when I controlled for seasonality and took out all the data points from satellite images that represented locations that had been subjected to human influence.  Suddenly the property of bistability disappeared almost completely.” Bert, who made this discovery in the first year of his PhD, thought it seemed most puzzling, so he teamed up with Professor Alan Champneys, a theorist in the Department of Engineering Mathematics, and Dr Jo House, an expert on land use change from the School of Geographical Sciences. For the past two years they have been examining these findings rigorously. 

Alan Champneys, Professor of Applied Non-linear Mathematics, added: “When I first agreed to co-supervise Bert’s PhD, I was worried that I had no expertise in the mathematics required to study the observed effects in the satellite data. Fortunately Bert is a superbly independent student and Jo was on hand as a field expert. “Little did I realise though that the key to understanding Bert’s observations was the same pattern formation theory I have used extensively before. To me this shows the power of interdisciplinary collaboration and also the ubiquity of mathematics and data science in explaining seemingly unrelated phenomena.”

Previous research appears to have failed to take into account spatial interaction and edge effects between neighbouring zones, typically through naturally occurring forest fires. Taking such terms into account leads to reaction-diffusion theory, used widely in predicting the formation of spatial patterns within physics and chemistry.  According to the theory, there should be a distinct boundary between forest and savannah predictable from climate and soils.

The key was to recognise that proximity to human cultivations acts as a third determining factor. Forests closer to human cultivations are subject to logging and erosion by fires originating from the open cultivated areas. This causes a shift of the forest-savanna boundary towards wetter areas. The good news is that as long as there is some forest left, deforestation will not lock currently forested areas into a savannah state. This means that recovery of the forest in deforested areas should happen as soon as these areas are released from human pressures. Nevertheless, there exists a second mechanism that could lead to bistability of Amazonian forest cover, which was not taken into account in this research. Previous research has shown via simulations that the Amazon forest can have a positive effect on regional rainfall.  Through this mechanism, forest loss may lead to decreased rainfall causing further forest loss.  Whether climate change or deforestation may still permanently transform the Amazon forest into a savannah depends on the importance of this second mechanism and is subject of further research.

Paper: ‘Amazonian forest-savanna bistability and human impact’ by Bert Wuyts, Alan R. Champneys and Joanna I. House in Nature Communications [open access]

 

Gedanken zum Lutherjahr 2017: Was uns heute fehlt, ist Respekt vor der Wahrheit

Von Uli Weber

Vor 500 Jahren hatte sich ein einzelner Mann ganz allein gegen obrigkeitshörige Angstgläubigkeit und religiösen Ablasswahn gestellt und alle waren hinter ihm her. Dieser Mann war nicht etwa mimosenhaft intellektuell und mit einer alternativlos  moralisierenden Korrektheit gesegnet, sondern harsch im verbalen Umgang und in späteren Jahren auch derben Pauschalierungen und rassistischem Populismus nicht abgeneigt. Aber er hatte seine Welt, so wie sie damals eben war, ganz allein in ihren Grundfesten erschüttert und nachhaltig über seine Zeit hinaus verändert…

Wenn man heute einmal diese Welt von ganz weit außen betrachtet, dann haben sich die etablierten und voll alimentierten Meinungsführer diese Welt schon wieder schön kuschelig und mittelalterlich-feudal eingerichtet. Auch im Lutherjahr 2017 gehören die Schlagzeilen der freiwillig gleichgeschalteten Mainstreammedien den selbstkasteienden Auto- und Klimarassisten, die Brot und Wasser predigen und ihre Kaviarhäppchen mit einem Gläschen Champagner herunterspülen. Und in einer wohl inszenierten mittelalterlichen Conquista im Namen der Weltklimareligion sind ihnen die gesamte Weltbevölkerung, die Weltwirtschaft und 195 Nationalstaaten dieser Erde inzwischen zur Beute gefallen.

Aber wenn man sich die wissenschaftlichen Grundlagen dieser globalen Klimareligion einmal näher ansieht, dann löst sich der gesamte Klimaalarmismus in vielen einzelnen Fragezeichen auf. Nichts davon ist wirklich nachgewiesen und überall sind die Widersprüche fundierter als die vorgeblichen Beweise. Und trotzdem wird all das von einer globalen Mehrheit einfach so hingenommen oder sogar geglaubt.

 

Wie hat das mit der Klimareligion nun eigentlich alles angefangen?

Der Club of Rome hatte die Entwicklung dieser globalen Klimareligion maßgeblich vorangetrieben. Zuerst erschien 1972 das Buch „The Limits to Growth“ (Die Grenzen des Wachstums) von Meadows & Meadows, Randers und Behrens. Bereits in diesem Buch wurden Computersimulationen zur Hochrechnung des zukünftigen Zustands unserer Erde benutzt, die allerdings alle nicht eingetreten sind. Als wesentlicher Fehler wird von Kritikern ausgeführt, dass man dort bei den Hochrechnungen den damaligen technischen Kenntnisstand „eingefroren“ habe. Mit einem Startpunkt in der Steinzeit hätte man auf diese Weise beispielsweise eine Entwicklung hochrechnen könnten, dass bei sieben Milliarden Menschen auf der Erde sowohl die Steine für Jagdwerkzeuge, als auch das jagdbare Wild und das Brennholz äußerst knapp werden würden…

1991 folgte dann das Buch „The First Global Revolution“ von Alexander King und Bertrand Schneider, wo es sinngemäß heißt, man müsse die Menschheit unter einer gemeinsamen Bedrohung einigen; diese gemeinsame Bedrohung könne nur das Wachstum der Menschheit und dessen Auswirkungen auf Umwelt und Klima sein. Ganz offen wird dort schließlich ausgesprochen, dass der wahre Feind die Menschheit selbst sei. Zitat:

The real enemy is humanity itself
The First Global Revolution Seite 75.

Erstaunlicherweise wurden bereits in den Jahren 1991 und 1992 die Basisstationen zur Ermittlung der globalen Durchschnittstemperatur von einstmals etwa 3.500 bis auf knapp 500 Stationen reduziert. Diese verbliebenen Stationen konnten in ihrer Mehrheit aber nicht etwa, in weiser wissenschaftlicher Voraussicht, weitestgehend gleichbleibende Umgebungsverhältnisse für die Zukunft garantieren. Im Gegenteil, etwa 80 Prozent dieser Stationen lagen auf Flughäfen und sind damit später durch die  Zunahme des weltweiten Luftverkehrs um etwa 5% pro Jahr zu wärmeren Temperaturen hin beeinflusst worden. Man muss also neidlos feststellen, dass den Religionsstiftern eines globalen Klimaglaubens bereits Anfang der 1990er Jahre ein ganz bedeutender Coup zu einer dauerhaften Stützung eines „menschengemachten“ Klimawandels gelungen war.

Den Adepten dieses globalen Klimaglaubens stehen nahezu unbegrenzte finanzielle und personelle Mittel zur Verfügung, um die Welt in ihrem Sinne zu missionieren. Und fachlich geschulte Hilfstruppen unterstützen sie, diese Botschaft ansprechend und verständlich verpackt zu vermitteln. Die Klimaketzer dagegen haben keinen Missionierungsdrang, üblicherweise weisen sie lediglich auf Fehler, Schwachstellen und Widersprüche des Klimaglaubens hin, meist ohne jede wirtschaftliche Unterstützung.

Das Problem dabei ist, dass eingängig vermittelte Glaubenssätze nur durch längliche wissenschaftliche Argumentationen und Ableitungen zu widerlegen sind – und die kann man nicht einfach so glauben, sondern man muss sie selbst aktiv nachvollziehen. Dazu aber gehören Zeit und fachliche Anstrengung, sodass eine Mehrheit lieber zu glauben beliebt. Beispielsweise wird von Klimapriestern ständig behauptet, das globale CO2-Budget zur Vermeidung eines Temperaturanstiegs unter 2 Grad bis zum Jahre 2100 sei bald aufgebraucht. Richtig ist aber im Gegenteil, dass das anthropogene CO2 in unserer Atmosphäre nur eine Verweildauer von etwa 120 Jahren hat (hier unter dem Stichwort „Kohlendioxid“). Deshalb ist das globale CO2-Budget auch gar nicht beschränkt, sondern fortlaufend  über diese 120 Jahre „erneuerbar“, also jährlich etwa der aktuelle weltweite CO2-Ausstoß – aber das ist natürlich sehr schwer zu glauben, das muss man dann schon mal selbst nachrechnen

Den ominösen 97%-Klimakonsens kann man also nur so verstehen, dass 97% aller Politiker und Meinungsmultiplikatoren die Menschheit ins Unglück stürzen wollen, indem sie mit der globalen Dekarbonisierung eine gemeinsame ökologische Weltregierung auf dem wirtschaftlichen Niveau der 3. Welt anstreben. Eine globale Weltregierung erfordert also die Klammer eines neuen gemeinsamen Aberglaubens im Mäntelchen einer drohenden Klimakatastrophe, wobei der christliche Glaube an die jungfräuliche Geburt des Heilands einfach durch den Glauben an einen gefährlichen menschengemachten Treibhauseffekt ersetzt worden ist.

Denn anstatt nun endlich die tatsächlichen Probleme der Weltbevölkerung, also Armut und stetiges Bevölkerungswachstum, aufzugreifen und einer befriedigenden Lösung zuzuführen, hat sich inzwischen bereits wieder ein neureligiöser Ablasshandel etabliert. Der Reichtum der gesellschaftlich und wirtschaftlich Erfolgreichen soll danach einfach unter denjenigen verteilt werden, die sich ihrer mittelalterlichen Kulturen und korrupten Diktatoren bisher nicht zu entledigen vermocht haben. Ein solch abstruses Vorhaben muss allerdings ein Fass ohne Boden bleiben und ist nur solange möglich, wie es auf unserer Welt überhaupt noch irgendetwas umzuverteilen gibt…

Und dann kommt da plötzlich ein einzelner Mann pauschal populistisch postend daher und stellt die Welt, wie wir sie heute zu kennen und zu retten vorgeben, in ihren Grundfesten in Frage, indem er mit einer einsamen Entscheidung einfach aus dem Pariser Klimaabkommen aussteigt – und jetzt sind sie natürlich alle hinter ihm her…

 

Kollage des Autors mit Bildern von Lukas Cranach (der Ältere) und Gage Skidmore

 

Das seltsame Doppelleben der Energiewende

Der Unternehmens- und Politikberater Björn Peters denkt mit. Auf der Webseite des Deutschen Arbeitgeberverbandes beleuchtete er am 5. Juni 2017 das Pariser Klimaabkommens und den Ausstieg der USA, ohne sich vom medialen Gruppendenken ablenken zu lassen:

Am vergangenen Donnerstag verkündete Donald Trump, dass sich die USA aus dem Pariser Klimaabkommen zurückziehen werden. Nachdem sich Politiker und Journalisten einhellig darin überschlagen haben, den Schritt zu verurteilen, muss hier eine Stimme der Vernunft erhoben werden. Weder ist das Pariser Klimaabkommen ein Fortschritt für Mensch und Planet, noch ist es der beste Weg, um eine Defossilisierung des Energieverbrauchs zu bewirken.  Dass im Jahr 500 von Luthers Reformation auch mit Unterstützung der Kirchen ein wirkungsloser Ablasshandel eingeführt werden soll, nimmt zudem Wunder.

Als Ende 2015 das Pariser Klimaabkommen abgeschlossen wurde, jubelten Politiker und Medienvertreter lautstark, doch warum eigentlich?  Das Klimaabkommen, wenn es komplett erfüllt wird, reduziert auch nach den Daten des Weltklimarats die Erdtemperaturen bis zum Jahr 2100 nur um 0,05°C, wie Bjørn Lomborg vorgerechnet hat.  Es ist also weitgehend wirkungslos.  Gleichzeitig hat Lomborg auch errechnet, dass es zu weltweiten Kosten von ein bis zwei Billionen (!) US-Dollar führen wird – jährlich.  Ein Teil dieser Kosten sind den politischen Maßnahmen der Staaten geschuldet, die hohe Subventionen beschlossen haben für Technologien, die eigentlich schon marktreif sind wie Wind- und Solarenergie.  Oder sie finanzieren den Einsatz von Technologien, die noch Jahrzehnte fern sind von der Marktreife wie beispielsweise Stromspeicher und Elektromobilität, anstatt für einen Bruchteil der Kosten deren Erforschung zu fördern.

Ein anderer Teil dieser Kosten sind für Transferzahlungen an ärmere Staaten vorgesehen, die im Wesentlichen den Lebensstandard der dortigen Regierungsvertreter erhöhen, aber kein einziges der wahren Probleme lösen werden, die diese Staaten drückt:  Wasserverschwendung, massive Umweltverschmutzung, selbstgemachte Dürren durch Überweidung, unzureichende Schutzmaßnahmen vor Naturkatastrophen, unzureichende Gesundheitssysteme, Analphabetismus, Korruption, Rechtlosigkeit, Unfreiheit, Aberglauben.  Dass mit den Transferzahlungen eine Art Ablasshandel eingeführt wird und die Kirchen das auch noch bejubeln, verwundert im Jubiläumsjahr der Lutherschen Reformation. Während mit dem Geld damals aber wenigstens die Sixtinische Kapelle und der Petersdom gebaut wurden, verpuffen die Zahlungen im 21. Jahrhundert in korrupten Taschen der lokalen Eliten ohne Mehrwert für die Bevölkerung.

Weiterlesen auf der Webseite des Deutschen Arbeitgeberverbandes

Ein Blick auf die erhofften Resultate des Pariser Abkommens bringen Ernüchterung:

 

Abbildung: Das Pariser Klimaabkommen könnte bei voller Durchführung eine Erwärmung von 17 hundertstel Grad bewirken. Quelle: Björn Lomborg -Impact of Current Climate Proposals DOI: 10.1111/1758-5899.12295

 

Die Berechnung wurde von Björn Lomborg bereits im November 2015 im Fachblatt Global Policy veröffentlicht:

Impact of Current Climate Proposals
This article investigates the temperature reduction impact of major climate policy proposals implemented by 2030, using the standard MAGICC climate model. Even optimistically assuming that promised emission cuts are maintained throughout the century, the impacts are generally small. The impact of the US Clean Power Plan (USCPP) is a reduction in temperature rise by 0.013°C by 2100. The full US promise for the COP21 climate conference in Paris, its so-called Intended Nationally Determined Contribution (INDC) will reduce temperature rise by 0.031°C. The EU 20-20 policy has an impact of 0.026°C, the EU INDC 0.053°C, and China INDC 0.048°C. All climate policies by the US, China, the EU and the rest of the world, implemented from the early 2000s to 2030 and sustained through the century will likely reduce global temperature rise about 0.17°C in 2100. These impact estimates are robust to different calibrations of climate sensitivity, carbon cycling and different climate scenarios. Current climate policy promises will do little to stabilize the climate and their impact will be undetectable for many decades.

Trump-Rede zum US-Ausstieg aus dem Pariser Abkommen:

 

Polen und die Tschechische Republik wollen dem teuren Klimaaktionismus nicht mehr folgen, wie Climate Change News am 29. Mai 2017 meldete:

EU climate laws undermined by Polish and Czech revolt, documents reveal
East European EU states are mounting a behind-the-scenes revolt against the Paris Agreement, blocking key measures needed to deliver the pledge that they signed up to 18 months ago.

Weiterlesen auf Climate Change News

Nach der Party kommt der Kater. Helmut Pöltelt beschrieb am 23. März 2017 das seltsame Doppelleben der Energiewende: Zur Erfolgsgeschichte hochgejubelt, doch mit nüchternem Blick ein teurer, ineffizienter Fehlschlag:

Seit Jahresbeginn ist eine Informationsschrift des Bundesministeriums für Wirtschaft und Energie mit dem Titel: „Die Energiewende: unsere Erfolgsgeschichte“ im Umlauf. Die Publikation wird auf Anforderung kostenlos verschickt. Sie soll dem Leser suggerieren, wie toll die Energiewende ist. Das Vorwort ist von der Bundesministerin für Wirtschaft und Energie, Brigitte Zypries, Juristin und langjährig erprobte Politikerin, ohne sachlich-inhaltlichen Bezug zu Wirtschaft und Energie unterschrieben. Für den Inhalt zeichnet ihr Staatssekretär Rainer Baake verantwortlich. Er war bis zu seiner Berufung ins Ministerium Direktor der „Denkfabrik“ Agora Energiewende und Autor der „12 Thesen zur Energiewende“ vom November 2012, die seither zur verhängnisvollen Richtschnur der Energiepolitik Deutschlands gemacht worden sind. Unsere Energiewende stellt international einen deutschen Sonderweg in der Energiepolitik dar, dem bisher kein anderes Land gefolgt ist. Lediglich die weitere und ständige Erhöhung der Energieeffizienz war, ist und bleibt auch international gültig und ist unumstritten.

Scharfe Kritik an der Informationsschrift übte der Aufsichtsratsvorsitzende des Chemiekonzerns BASF, Jürgen Hambrecht. Hambrecht war als einziger Wirtschaftsfachmann Mitglied der von der Bundeskanzlerin berufenen Ethikkommission, die die Energiewende moralisch legitimieren sollte. Er bezichtigte „unsere Erfolgsgeschichte“ der Lobhudelei über sinkende Stromkosten und sichere Versorgung. Damit werden die Bürger an der Nase herumgeführt. Tatsächlich sei die Energiewende ein Riesenmurks. Die Kosten steigen immer weiter und die Versorgungssicherheit ist extrem gefährdet, wenn nach der Kernkraft nun auch noch aus Kohle und Gas ausgestiegen werden soll.

Weiterlesen

2. Teil hier

3. Teil hier

Wasserkraft ist grundlastfähig und in Ländern wie Norwegen, Portugal und Ghana eine wichtige Energiequelle. Nun meldeten sich Klimamodellierer zu Wort, dass man wohl die klimatischen Auswirkungen der Stauseen übersehen habe. Die künstlichen Seen fangen nämlich eine große Menge an Kohlenstoff ein, der zum Teil wieder als Methan an die Atmosphäre abgegeben wird. Im Griff hat man die Bilanzen jedoch noch nicht, gab die University of Waterloo am 17. Mai 2017 per Pressemitteilung bekannt:

Dams are major driver of global environmental change

Water reservoirs created by damming rivers could have significant impacts on the world’s carbon cycle and climate system that aren’t being accounted for, a new study concludes.

The study, conducted by researchers at the University of Waterloo and the Université libre de Bruxelles,  appears in Nature Communications. If found that man-made dam reservoirs trap nearly one-fifth of the organic carbon moving from land to ocean via the world’s rivers. While they can act as a significant source or sink for carbon dioxide, reservoirs are poorly represented in current climate change models. “Dams don’t just have local environmental impacts. It’s clear they play a key role in the global carbon cycle and therefore the Earth’s climate,” said Philippe Van Cappellen, a Canada Excellence Research Chair in Ecohydrology at Waterloo and the study’s co-author. “For more accurate climate predictions, we need to better understand the impact of reservoirs.”

There are currently in excess of 70,000 large dams worldwide. With the continuing construction of new dams, more than 90 per cent of the world’s rivers will be fragmented by at least one dam within the next 15 years. The study’s researchers used a novel method to determine what happens to organic carbon traveling down rivers and were able to capture the impact of more than 70 per cent of the world’s man-made reservoirs by volume. Their model links known physical parameters such as water flow and reservoir size with processes that determine the fate of organic carbon in impounded rivers. “With the model used in this study, we can better quantify and predict how dams affect carbon exchanges on a global scale,” said Van Cappellen, a professor in Waterloo’s Department of Earth and Environmental Sciences.

In similar recent studies, the group of researchers also found that ongoing dam construction impedes the transport of nutrients such as phosphorus, nitrogen and silicon through river networks. The changes in nutrient flow have global impacts on the quality of water delivered to wetlands, lakes, floodplains and coastal marine areas downstream. “We’re essentially increasing the number of artificial lakes every time we build a dam,” said Taylor Maavara, lead author and a PhD student at Waterloo. “This changes the flow of water and the materials it carries, including nutrients and carbon.”

 

Batagaika-Krater als Klimawandelschaden? 2:0 für Murton et al. gegen WELT-N24 und das Alfred-Wegener-Institut

Von Uli Weber

Am 3. März 2017 meldete Anna Kröning auf WELT-N24:

„Tor zur Unterwelt“ frisst sich unaufhörlich durch die Taiga
Ein Krater breitet sich in der russischen Taiga aus. Umweltexperten sprechen von einer tickenden Klimabombe, denn der Abgrund wächst und wächst – und verursacht Schäden. Nicht nur in der Landschaft…“

Weiterlesen auf welt.de

Also schaunmerunsmal auf Google Maps die Örtlichkeit näher an:

Screenshot von Google Maps: Satellitenaufnahme vom Batagaika-Krater

 

In dem WELT-N24 Artikel wird immerhin der Hinweis gegeben, Zitat:

„Der kaulquappenförmige Batagaika-Krater tat sich auf, nachdem im gleichnamigen Gebiet zu Beginn der 1960er-Jahre Waldparzellen abgeholzt wurden. Dies setzte einen Prozess in Gang,  […] Geomorphologen bezeichnen diesen Landformungsprozess als Thermokarst.“

Wenn man sich mit diesem Stichwort dann einmal im Internet auf die Suche begibt, findet man sehr schnell die entsprechenden Erklärungen für ein bekanntes geologisches Phänomen in der Arktis, Zitat von GeoDZ.com:

Das jährliche Auftauen des Auftaubodens verursacht keinen Thermokarst. Das Abschmelzen von Bodeneis kann durch Klimawandel, Zerstörung von isolierender Vegetation durch Feuer, Tiere oder anthropogene Eingriffe sowie durch andere Störungen des thermischen Gleichgewichts verursacht werden, z.B. auch durch fließendes Wasser.“

Dort wird auch in einer Prinzipskizze das Entstehen von Thermokarst dargestellt:

Entstehung von Thermokarst, Abbildung von: http://www.geodz.com/deu/d/Thermokarst

 

Bei einer Betrachtung der Umgebung des Megaslumps mit diesen Informationen werden auf dem Google-Satellitenbild einige Merkmale besonders auffällig:

Screenshot von  Google Maps

 

Wenn man nämlich einmal den „Schwanz der Kaulquappe“ auf dem rot markierten Ausschnitt weiterverfolgt (Abbildung unten), endet genau dort ein Fluss. Dieser Fluss war offenbar früher weiter in Richtung auf die Jana geflossen, die trockenen Mäander und ein paar Seen im weiteren Verlauf nach Nordwesten sind noch sichtbar. Und es sieht so aus, als hätte sich dieses Flussende auf der hellen Fläche in der Vergangenheit immer weiter flussaufwärts (also nach Südosten) zurückverlagert (unten ist der rote Ausschnitt von oben dargestellt):

Screenshot von Google Maps

 

Aus der im WELT-N24 Artikel zitierten originären wissenschaftlichen Veröffentlichung „Preliminary paleoenvironmental analysis of permafrost deposits at Batagaika megaslump, Yana Uplands, northeast Siberia“, von Murton et al. geht hervor (Site Description), dass der Megaslump auf einem mit etwa 3 Grad Neigung nach Südwesten einfallenden Hang zur Überflutungsebene des  Batagay Flusses liegt, einem rechtsseitigen Nebenfluss der Yana. Dieser Hang wird von verschiedenen Abflussrinnen zerschnitten, von denen sich eine zum Batagaika-Megaslump entwickelt hat.

Unter Einbeziehung der obigen Prinzipskizze von GeoDZ .com scheint es sich hier um eine menschengemachte Umweltkatastrophe größeren Ausmaßes zu handeln, das „Abholzen von Waldparzellen“ wurde im WELT-Artikel ja auch kurz angerissen. Offenbar hat in Folge einer flussnahen Abholzung im Bereich des trockengefallenen Flussbetts eine nachfolgende Thermokarstbildung dazu geführt, dass dieser Zufluss des Batagay Flusses seinen Lauf in den beschriebenen Thermoslump verlegt hat. Dieser Thermoslump mag vorher nur eine von vielen Abflussrinnen auf diesem Abhang gewesen sein, wie sie Murton et al. in ihrer „Site Description“ erwähnen. Der primäre Verursacher für den Megaslump ist also der Mensch und die ausführende Kraft ist fließendes Wasser. Warum wird dann aber in dem WELT-N24 Artikel eine menschengemachte Umweltkatastrophe als menschengemachter Klimawandel verkauft?

Murton und seine 18 Co-Autoren sind jedenfalls wegen erwiesener Unschuld freizusprechen. Auf mögliche Bezüge zum vorgeblich menschengemachten Klimawandel oder irgendeinen imaginären Klimaalarm ist das Forscherteam um Murton nämlich in ihrer Veröffentlichung gar nicht eingegangen. Murton et al. beschreiben vielmehr in streng wissenschaftlicher Weise die aus diesem Batagaika-Aufschluss ableitbare Klimageschichte der vergangenen Eis- und Warmzeiten. Für den Klimaalarm im WELT-N24 Artikel zu den spektakulären Aufnahmen vom sibirischen Megaslump müssen vielmehr andere Wissenschaftler herhalten, die dort dann auf Kosten von Murton et al. ihre Klimapanik ausleben dürfen, Zitat aus dem WELT-N24 Artikel:

Einige Wissenschaftler glauben, dass die neuzeitlichen Krater auf Klimaveränderungen zurückgehen, die vom Menschen verursacht wurden. Forscher des Alfred-Wegener-Instituts in Potsdam weisen darauf hin, dass sich der Permafrostboden in den vergangenen 20 Jahren in einer Tiefe von 20 Metern um etwa zwei Grad Celsius erwärmt hat.“

Und weiter unten heißt es im WELT-N24 Artikel dann, Zitat:

Davor warnt der Geowissenschaftler Frank Günther vom Alfred-Wegener-Institut in Potsdam, der die Region seit vielen Jahren mit Satellitenbildern erfasst und aufzeichnet. Günther hält die Zukunft des Permafrost in Sibirien für sehr gefährdet, berichtet BBC: ‚Es gibt keinen Hinweis darauf, dass dieser Krater sich irgendwann mal wieder schließen könnte. Er wächst immer weiter. Jahr für Jahr.‘“

Es steht also 2:0 für Murton et al. gegen Anna Kröning@WELT-N24 und das Alfred-Wegener-Institut.

 

Modelle zur Eisentwicklung in der Westantarktis unterscheiden sich um den Faktor 10: Bleibt der Eiskollaps vielleicht sogar aus?

Immer wieder versuchen einzelne Klimaforscher die Westantarktis als Auslöser einer zukünftige Beschleunigung des Meeresspiegelanstiegs darzustellen. Nüchternere Kollegen müssen dann regelmäßig dementieren (siehe z.B. “Unumkehrbare Eisschmelze in der Westantarktis? Geologen widersprechen: Schon immer hat das Eis die Wende hinbekommen“). Was ist faul an den dramatisierenden Modellen? Fakt ist, dass der Schneefall in der Westantarktis sogar zugenommen hat (siehe z.B. hier). Im Januar 2016 wurde der Trend noch einmal in Eos bestätigt und mit der Intensivierung des Tiefdruckgebiets der Amundsensee erklärt:

Climate Change Drives Increasing Snowfall in Western Antarctica
Using ice core records from West Antarctica, researchers look back at the past 300 years of snowfall over the Amundsen Sea. [...] The researchers found that average annual snowfall at Ferrigno and Bryan Coast was relatively constant before 1900. After 1900, snowfall rates began to increase. Between 2000 and 2009, snowfall jumped by 27% at Ferrigno and by 31% at Bryan Coast compared to baseline values calculated from 1712 to 1899. The researchers found that these results correlated with ice core records elsewhere on the continent. The authors also tied the results to the behavior of the Amundsen Sea Low, which is strongly influenced by even bigger climate actors like the Southern Annular Mode and the El Niño–Southern Oscillation. These phenomena influence regional sea surface temperature, atmospheric circulation, and sea level pressure. Changes in sea level pressure generate changes in snowfall and drive meridional winds that bring moist air up onto the Ellsworth coast, causing ocean upwelling and melting of the West Antarctic ice shelves. [...]

Ganzen Artikel in Eos lesen.

Hier die dazugehörige Pressemitteilung der American Geophysical Union vom 4. November 2015:

West Antarctic coastal snow accumulation rose 30 percent during 20th century, new study finds

Annual snow accumulation on West Antarctica’s coastal ice sheet increased dramatically during the 20th century, according to a new study published in the American Geophysical Union journal Geophysical Research Letters.

The research gives scientists new insight into Antarctica’s blanket of ice. Understanding how the ice sheet grows and shrinks over time enhances scientists’ understanding of the processes that impact global sea levels, according to the study’s authors. The new study used ice cores to estimate annual snow accumulation from 1712 to 2010 along West Antarctica’s coast. Until 1899, annual snow accumulation remained steady, averaging 33 and 40 centimeters (13 and 16 inches) of water, or melted snow, each year at two locations.

Annual snow accumulation increased in the early 20th century, rising 30 percent between 1900 and 2010, according to the new study. The study’s authors found that in the last 30 years of the study, the ice sheet gained nearly 5 meters (16 feet) more water than it did during the first 30 years of the studied time period. “Since the record is 300 years long, we can see that the amount of snow that has been accumulating in this region since the 1990s is the highest we have seen in the last 300 years.  The 20th century increases look unusual,” said Elizabeth Thomas, a paleoclimatologist with the British Antarctic Survey in Cambridge, United Kingdom, and lead author of the new study. Thomas attributes the higher annual snow accumulation over the last 30 years in part to an intensification of a regional low pressure system and more storms in the region. The study’s authors said these storms could increase with climate change, possibly leading to further increases in snow accumulation.

Snow accumulation builds up the ice sheet, but the extra flakes have not acted as a life raft for West Antarctica’s ice sheet, which previous research has found is rapidly thinning as the climate warms, Thomas said. The size of the ice sheet depends on how much new snow accumulates and how much of the existing ice melts, she said. Knowledge about how much new snow is laid down in West Antarctica each year could help scientists more accurately predict how the region’s coastal ice sheet could be affected by climate change and its contribution to sea level rise, Thomas said. “In this region, the same [storms] that have driven increased snowfall inland have brought warmer ocean currents into contact with West Antarctic’s ice shelves, resulting in rapid thinning,” said Thomas. “Thus the increased snowfall we report here has not led to thickening of the ice sheet, but is in fact another symptom of the changes that are driving contemporary ice sheet loss.”

Ice on West Antarctica’s coast

Earth has two ice sheets – one in the Arctic, covering Greenland, and one sitting on Antarctica. Ice sheets start their lives as snowflakes. When snowfall builds up year after year, the weight of the snow compresses the bottom layers into ice, creating an ice sheet. Scientists can calculate snow accumulation from satellite data, but satellite records have only existed since 1979. That’s too short a time period to determine whether any changes in snowfall are the result of natural variation or shifts in the climate, Thomas said. “We need to understand whether we are losing ice, at what rate, and what is causing it,” she said. For the new study, researchers collected two ice cores from Ellsworth Land, the strip of land that connects the Antarctic Peninsula to the rest of the continent. The ice cores contain layer upon layer of ice – the remnants of yearly snowfall. By measuring the thickness of the ice laid down each year, the researchers estimated annual snow accumulation for the past 300 years. The recent heavy snow accrual appears to be part of a gradual, long-term rise in annual snow accumulation that started in the early 1900s and accelerated in the 1980s, the study found. The study’s authors found that starting in the early 20th century an additional 1.5 centimeters (0.6 inches) of water, or melted snow, was added to the ice sheet each decade. From 2001 to 2010, the amount of water added to the ice sheet each year was 15 centimeters (6 inches) greater than it was before 1900, according to the study’s authors.

A stormy sea

The study’s authors attribute the rise in snow accumulation in part to increased regional storm activity. The Amundsen Sea, which bounds Ellsworth Land to the west, is prone to storms and low pressure systems that often sit over the region, Thomas said. Meteorological data, which only date back 35 years, show the low pressure system has strengthened during that time, leading to more storms swirling around the Amundsen Sea and potentially greater snow accumulation, according to the paper. The uptick in snow accumulation since the 1920s may suggest an even longer trend of increasing storms, Thomas said. Scientists have not pinpointed the reason for the strengthening of the low pressure system in the Amundsen Sea, but the number and intensity of storms in the region could continue to increase throughout the 21st century as a consequence of greenhouse gas warming, Thomas said. In a warmer climate, air travelling south from the mid-latitudes and tropics can hold more water, leading to more snowfall, Thomas said.

The paper draws a convincing connection between the intensification of the Amundsen Sea low-pressure system and increasing snow accumulation, said David Bromwich, a polar weather and climate scientist with the Byrd Polar and Climate Research Center at Ohio State University in Columbus, who was not an author on the new paper. The low-pressure system is likely one of several factors contributing to the increase in snowfall, he said. Antarctic climate results from a complex mix of oceanic and atmospheric circulation patterns, so there could also be other components affecting the amount of snow accumulation in the region, Bromwich said. As the paper suggests, one could be the evaporation of surface waters that have become exposed because of sea ice loss in the region, he added.

Wie sieht es nun mit der Vorhersagekraft der Modelle zum westantarktischen Eiskollaps aus? Kommen sie alle auf ungefähr das gleiche Ergebnis, bestätigen sich also somit gegenseitig? Leider weit gefehlt. Christina Hulbe offenbarte die Misere Anfang Juni 2017 im angesehenen Fachblatt Science: Die Modellergebnisse unterscheiden sich um den Faktor 10. Bei dieser enormen Unsicherheit ist es schwer, hieraus politische Schlussfolgerungen ziehen zu wollen. Insbesondere ist es problematisch, wenn gewisse Institute die extremen Modelle ausgiebig in der Presse ausbreiten, jedoch dabei verschweigen, dass es sich um extreme Szenarien handelt, die von anderen Modellen nicht bestätigt werden. Hier der Abstract:

Is ice sheet collapse in West Antarctica unstoppable?
Forty years ago, Mercer raised an alarm by connecting climate warming with collapse of the West Antarctic Ice Sheet (WAIS) and substantial sea level rise in both the past and future (1). Since then, observations have proliferated, yielding improved understanding of ice sheet processes and making clear that the WAIS is highly vulnerable to future climate change (2). Yet, despite this progress, projections of the future rate of change can vary by a factor of 10 for the same climate warming scenario, producing different time scales for collapse; whether the model ice sheets collapse depends on the level of warming (3, 4). Better understanding of the different model outcomes can help to inform how we set greenhouse gas emissions goals and plan for future sea level rise.

Falls sich die gemäßigten Modelle bestätigen sollten, wird der Kollaps des westantarktischen Eisschildes möglicherweise sogar ausbleiben, schreibt Christina Hulbe:

Ice sheet models driven by the same future-warming scenario yield different rates of change, depending on how boundary processes are parameterized. Yet, the models agree on one thing: When driven with environmental variables from mid-range and high-end global warming scenarios, all predict collapse of the WAIS. At the higher end, marine ice sectors of the East Antarctic Ice Sheet also retreat. However, when the climate forcing follows a lowerend scenario (11), retreat is limited (3, 4). In this case, once the melting stops, the rate of retreat declines and grounding lines stabilize.

 

 

Die gute Nachricht: Eis der Ostantarktis ist und bleibt stabil

Klimaalarm im März 2015 im Focus:

Klima-Erwärmung
Gigantischer Antarktis-Gletscher schmilzt – Holland in Not: Meeresspiegel droht um drei Meter zu steigen

Vor der Ost-Antarktis haben Forscher zwei unterseeische Täler entdeckt. Sie ermöglichen den Zufluss von warmem Meerwasser unter den größten Gletscher der Ostantarktis. Das könnte dessen ungewöhnlich raschen Eisverlust erklären. Kollabierte der Gletscher endgültig, würde der Meeresspiegel dramatisch ansteigen.

  • Der größte Gletscher der Ost-Antarktis schmilzt extrem rasch.
  • Kollabiert der Gletscher könnte der Meeresspiegel weltweit um 3,3 Meter steigen.
  • Abschwächung der Starkwinde führt zu mehr Hitze-Extremen.

Könnte, würde: Der Konjunktiv ist König. Steht es wirklich so schlimm um den Totten Gletscher? Wir haben uns bereits damals bemüht, den Sachverhalt zu beleuchten (“Antarktischer Totten-Gletscher schrumpft: Ursache könnte die Zunahme des Meereises sein“). Im Mai 2016 kommentierte auch Rud Istvan auf Climate Etc. den besagten Gletscher und ein alarmierendes Nature-Paper von Aitken et al. 2016. Sein Fazit:

The alarming estimates from this new Nature paper, particularly as represented by the media, are grievously wrong both with respect to the amount of and the rate of sea level rise that might be associated with melting of the EIAS Totten glacier. There is unjustified author spin in the press releases and author’s interviews. There are underlying bad assumptions never mentioned except by reference to a previously refuted [here] bad paper by Rignot. A tangled web of deceit, to paraphrase a famous poem.

Vielleicht sollte man auch nicht versuchen, die Welt anhand eines Gletschers erklären zu wollen, so groß die Verlockung auch sein mag. Am 5. Mai 2017 erinnerte die University of Bristol daran, dass das ostantarktische Eis im letzten Jahrzehnt insgesamt gewachsen und nicht etwa geschrumpft ist.  Die Uni verpackt das Ganze natürlich politisch korrekt in die Aussage “nicht so stark gewachsen wie gedacht”. Hier die Pressemitteilung:

New research shows growth of East Antarctic Ice Sheet was less than previously suggested
Scientists have known for over a decade that the West Antarctic Ice Sheet has been losing mass and contributing to sea level rise. Its eastern neighbour is, however, ten times larger and has the potential to raise global sea level by some 50 metres. Despite its huge size and importance, conflicting results have been published on the recent behaviour of the East Antarctic Ice Sheet. A study led by a group of NASA scientists, that was published in 2015, suggested that this part of Antarctica was gaining so much mass that it compensated for the losses in the west. Determining what the largest ice sheet on the planet is doing is vital for our understanding of the factors that are influencing present day, and future, sea level rise.

To address this question, a team of scientists led by the University of Bristol and including the University of Wollongong, Australia have studied the problem by combining different satellite observations within a statistical model that is able to separate the processes related to ice mass changes over the continent. Professor Jonathan Bamber from the Bristol Glaciology Centre which is part of the School of Geographical Sciences, said: “We used similar data sets to the NASA team but added other satellite data from a mission called the Gravity Recovery And Climate Experiment (GRACE) to help solve for mass gains and losses. “We then conducted different experiments, using similar assumptions made in the NASA study but found that in every experiment, mass loss from the west always exceeded gains in the east.” The researchers concluded that over the study period, 2003-2013, Antarctica, as a whole, has been contributing to sea level rise and that the gains in East Antarctica were around three times smaller than suggested in the 2015 study.

Paper: ‘Constraining the mass balance of East Antarctica’ by A. Martin-Espanol, J. Bamber and A. Zammit-Mangion in Geophysical Research Letters. Plain language summary available at: http://www.globalmass.eu/constraining-the-mass-balance-of-east-antarctica/

Weitere Studien aus der Ostantarktis erhärten den Trend zu mehr Eis. Ein Team um Morgane Philippe veröffentlichte 2016 in The Cryosphere eine Arbeit zum Küstenstreifen des Dronning Maud Land. Das Resultat steht bereits im Titel: Eiszuwachs im 20. Jahrhundert:

Ice core evidence for a 20th century increase in surface mass balance in coastal Dronning Maud Land, East Antarctica
Ice cores provide temporal records of surface mass balance (SMB). Coastal areas of Antarctica have relatively high and variable SMB, but are under-represented in records spanning more than 100 years. Here we present SMB reconstruction from a 120 m-long ice core drilled in 2012 on the Derwael Ice Rise, coastal Dronning Maud Land, East Antarctica. Water stable isotope (δ18O and δD) stratigraphy is supplemented by discontinuous major ion profiles and continuous electrical conductivity measurements. The base of the ice core is dated to AD 1759 ± 16, providing a climate proxy for the past  ∼ 250 years. The core’s annual layer thickness history is combined with its gravimetric density profile to reconstruct the site’s SMB history, corrected for the influence of ice deformation. The mean SMB for the core’s entire history is 0.47 ± 0.02 m water equivalent (w.e.) a−1. The time series of reconstructed annual SMB shows high variability, but a general increase beginning in the 20th century. This increase is particularly marked during the last 50 years (1962–2011), which yields mean SMB of 0.61 ± 0.01 m w.e. a−1. This trend is compared with other reported SMB data in Antarctica, generally showing a high spatial variability. Output of the fully coupled Community Earth System Model (CESM) suggests that, although atmospheric circulation is the main factor influencing SMB, variability in sea surface temperatures and sea ice cover in the precipitation source region also explain part of the variability in SMB. Local snow redistribution can also influence interannual variability but is unlikely to influence long-term trends significantly. This is the first record from a coastal ice core in East Antarctica to show an increase in SMB beginning in the early 20th century and particularly marked during the last 50 years.

Die Stabilität des Eises im Dronning Maud Land bekräftigt auch eine Arbeit von Vikram Goel und Kollegen, die Ende Mai 2017 in The Cryosphere als Diskussion erschien:

Glaciological settings and recent mass balance of the Blåskimen Island in Dronning Maud Land, Antarctica
The Dronning Maud Land coast in East Antarctica has numerous ice rises that very likely control the dynamics and mass balance of this region. However, only a few of these ice rises have been investigated in detail. Here, we report field measurements of Blåskimen Island, an isle-type ice rise adjacent to the Fimbul Ice Shelf. Blåskimen Island is largely dome shaped, with a pronounced ridge extending to the southwest from its summit (410 m a.s.l.). Its bed is mostly flat and about 100 m below the current sea level. Shallow radar-detected isochrones dated with a firn core reveal that the surface mass balance is higher on the southeastern slope than the northwestern slope by ~ 37 %, and this pattern has persisted for at least the past decade. Radar stratigraphy shows upward arches underneath the summit, indicating that the summit position has been stable over at least one characteristic time of this ice rise (~ 600 years). Ensemble estimates of the mass balance using the input-output method show that this ice rise has thickened by 0.07–0.35 m ice equivalent per year over the past decade.

Am 16. Juni 2017 kam dann noch eine Publikation von Pittard et al. in den Geophysical Research Letters dazu, die in die gleiche Richtung geht. Die Autoren prognostizieren, dass das Lambert-Amery glacial system in der Ostantarktis auch in den kommenden 500 Jahren stabil bleiben wird und möglicherweise sogar noch an Masse zulegt.

Future sea level change from Antarctica’s Lambert-Amery glacial system
Future global mean sea level (GMSL) change is dependent on the complex response of the Antarctic Ice Sheet to ongoing changes and feedbacks in the climate system. The Lambert-Amery glacial system has been observed to be stable over the recent period yet is potentially at risk of rapid grounding line retreat and ice discharge given a significant volume of its ice is grounded below sea level, making its future contribution to GMSL uncertain. Using a regional ice sheet model of the Lambert-Amery system, we find that under a range of future warming and extreme scenarios, the simulated grounding line remains stable and does not trigger rapid mass loss from grounding line retreat. This allows for increased future accumulation to exceed the mass loss from ice dynamical changes. We suggest the Lambert-Amery glacial system will remain stable, or gain ice mass and mitigate a portion of potential future sea level rise over the next 500 years, with a range of +3.6 to -117.5 mm GMSL-equivalent.

 

Kalte Sonne in der Osnabrücker Zeitung

Interessante Geschichte in der FAZ vom 1. Juni 2017:

Und es vererbt sich doch
Neue Experimente zeigen, dass Tiere epigenetisch gespeicherte Umweltanpassungen vererben. Gilt ähnliches auch für den Menschen, werden wir alle umdenken müssen.

Sie gehört zu den umstrittensten Behauptungen der Biologie: die Aussage, dass Tiere mehr vererben als ihre Gene, dass sie also zusammen mit ihren Ei- und Samenzellen auch solche Umweltanpassungen an folgende Generationen weitergeben, die sie im Laufe des Lebens erworben haben. Übertragen auf uns Menschen, würde das zum Beispiel bedeuten, dass die Art, wie wir uns ernähren, oder die Menge an psychischen Belastungen, die wir aushalten mussten, dazu beitragen, was und wie viel unsere Kinder und womöglich sogar unsere Enkel zeitlebens essen und wie anfällig sie für Stresskrankheiten sind.

Weiterlesen in der FAZ

———————-

Die Entwicklung der Frosttage ist offenbar weniger stark an den anthropogenen Klimawandel gekoppelt als gedacht. Pressemitteilung der University of Utah vom 23. Mai 2017:

Weather patterns’ influence on frost timing

Air circulation affects frost more than global warming — for now

Gardeners know the frustration of a false spring. Coaxed outside by warm weather, some people plant their gardens in the spring only to see a sudden late frost strike at the plants with a killer freezer burn. Grumbling green thumbs, along with farmers and water supply managers, would benefit from more accurate predictions of the first and last frosts of the season. Such timing is in flux, however. The frost-free season in North America is approximately 10 days longer now than it was a century ago. In a new study, published today in Nature Communications, researchers from the University of Utah and the U.S. Geological Survey parse the factors contributing to the timing of frost in the United States. Atmospheric circulation patterns, they found, were the dominant influence on frost timing, although the trend of globally warming temperatures played a part as well. “The frost-free season has been lengthening over the past century, and now we understand the changes in atmospheric circulation that are extremely strong in frost timing, even stronger than global warming,” says University of Utah atmospheric sciences professor Court Strong.

Weather and climate are complex systems, with many factors affecting what the particular weather conditions might be in a certain place at a certain time. Previous research, says Gregory McCabe, of the USGS in Denver has focused on the role of large-scale phenomena like El Niño. “I don’t think anyone has broken it down to look at the circulations patterns specific to the timing of frost,” McCabe says. Strong and McCabe set out to investigate the relative contributions of the global warming trend and local atmospheric circulation patterns to the century-long lengthening of the frost-free season.

“If you ask a U.S. forecaster what determines the first fall frost, they’ll say a cold air mass coming down out of Canada, clearly due to circulation,” Strong says. “There’s a role for warming, but on the other hand forecasters will tell you there’s clearly a role for circulation as well.” To more accurately capture regional, relatively small-scale circulation patterns, Strong and McCabe divided the United States into four regions, and examined separately how frost timing patterns varied in each region over 93 years of weather data.

The researchers found that atmospheric circulation patterns accounted for between 25 and 48 percent of the variation in frost timing. To put that in context, Strong says, remember that the frost-free season has lengthened by an average of 10 days over the past century. Three to five of those days can be accounted for by atmospheric circulation, while three days can be chalked up to global warming. Other factors, such as local cloud cover, may account for the remaining two to four days. Although the results show that atmospheric circulation is the primary driver of frost timing, the warming trend exerts an influence over circulation beyond the general trend of warming temperatures. “We also found evidence that these circulation patterns themselves have been altered by global warming, especially in the Western U.S. and the Northwest,” Strong says. “Warming is an important part of this narrative despite this finding that circulation is a stronger driver historically.”

Next, Strong and McCabe will evaluate how well climate models capture the drivers of frost timing and look for ways the models can be improved. Better modeling of atmospheric patterns leads to more accurate forecast of future frost timing. “The year-to year variability in climate is controlled by these changes in atmospheric circulation,” McCabe says. “On top of that you have the warming trend. If you don’t get these patterns right then the simulations are going to have a lot of uncertainty in them.” This study was partially funded by a grant from the National Science Foundation (the iUTAH project; award EPS-1208732).  Find the full study here.

———————-

Wir verstehen uns hier auch als Diskussionplatform. Ein Leser hat einen Essay zum Treibhauseffekt erstellt, den er zur Diskussion stellen möchte. Titel:

The Greenhouse Effect – Does it even exist?

Sie können das pdf hier anschauen.

———————-

Osnabrücker Zeitung am 1. Juni 2017:

Deutsche Klimawandel-Skeptiker springen Trump zur Seite

Im Artikel werden wir dann wie folgt beschrieben:

Als einer der bekanntesten deutschen Klimaskeptiker gilt Fritz Vahrenholt. Der ehemalige RWE-Manager und SPD-Politiker hat 2012 gemeinsam mit dem Geologen Sebastian Lüning das Buch „Die kalte Sonne – Warum die Klimakatastrophe nicht stattfindet“ veröffentlicht. Die Kernthese des Buchs lautet, dass nicht der Mensch und Kohlenstoffdioxid entscheidend zur globalen Erwärmung geführt hätten, sondern vor allem Änderungen der Meeresströmungen und der Sonnenaktivität. In der Beschreibung des Buchinhalts heißt es auf seiner Homepage: „Selbst bei steigenden CO2-Emissionen wird die Erwärmung in diesem Jahrhundert 2 Grad Celsius nicht überschreiten. Die Erwärmungswirkung von CO2 ist überschätzt worden. Neueste Erkenntnisse zeigen, dass Ozeanzyklen und die Sonne, die kürzlich in eine längerfristige strahlungsarme Phase getreten ist, einen größeren Beitrag zum Klimageschehen leisten als bisher angenommen.“

Volontär Yannick Richter hat zwar verstanden, dass wir die natürlichen Klimatreiber Sonne und Ozean zu wenig beachtet finden. Allerdings hat er offenbar übersehen, dass wir dem CO2 eine Erwärmungswirkung zuordnen, die am unteren Rand der offiziell vom IPCC genannten Spanne liegt. Zitat aus unserem Buch, Seite 32:

Wir sind weit davon entfernt, zu behaupten, dass CO2 keinen Einfluss auf das heutige Klimageschehen hätte. Jedoch können wir zeigen, dass mindestens die Hälfte der Erwärmung der letzten vierzig Jahre dem Einfluss der Sonne sowie zyklischen ozeanischen Oszillationen der Weltmeere geschuldet ist. CO2 könnte für die andere Hälfte der Erwärmung verantwortlich sein, möglicherweise ist der Anteil aber sogar noch geringer.

 

Schnell mal im Selbstversuch die Welt retten

Von Uli Weber

Als ich vor mehr als 35 Jahren noch regelmäßig die „Computerwoche“ las, träumten dort alle von „künstlicher Intelligenz“. Heute haben unsere PCs mehr Rechenkapazität als ein damaliger Supercomputer, aber die einzige real existierende künstliche Intelligenz, die einem im Alltag schon mal begegnen kann, sind Wikipedia und die eigenwillige Sprachführung auf irgendeiner telefonischen Kundenhotline… Und jetzt überschlagen sich Automobilindustrie, Politik und Medien in Schwärmereien über eine schönere neue automobile Zukunft mit einem selbstfahrenden und wieder aufladbaren Elektroauto zur Rettung des „Weltklimas“. Wollen tatsächlich alle Verbraucher ein solches Auto? Nein, ganz bestimmt nicht alle, ich will es jedenfalls nicht!

Foto: Uli Weber

 

Ein moderner Diesel-PKW ohne Zuheizer erreicht heute schon fast den Heizungsstandard eines seligen VW Käfers. Beim E-Auto ist da noch beliebig viel Luft nach unten, denn dort konkurrieren im Winter die Heizung (und im Sommer die Klimaanlage) mit dem Elektroantrieb um die spärlichen Batteriekapazitäten. Vielleicht müssen Sie zur Strafe für winterliche Heizungsexzesse dann ja unterwegs mit Ihrem E-Auto doch mal einen ungeplanten Boxenstop an einer Ladestation einlegen, an der schon eine ganze Schlange von Leidensgenossen wartet. Und dort stellt sich dann ganz nebenbei auch noch die Frage, wie es beim winterlichen Warten auf das Aufladen des Akkus mit klimagerechtem EEG-Strom eigentlich mit der Heizung des Innenraums aussieht. Vielleicht bietet sich dafür ja eine benzinbetriebene Standheizung an – oder ein klimakorrektes Windrad als kostenpflichtiges Fahrzeugzubehör. Sollte der Lagevorgang mit EEG-Strom allerdings während einer winterlichen Dunkelflaute erforderlich werden, dann ist Wintercamping an der Ladestation angesagt; hoffentlich sind die Ladestationen dann entsprechend ausgerüstet. Schnell mal irgendwo hinfahren geht dann jedenfalls gar nicht mehr, Überlandfahrten erfordern vielmehr eine ganz präzise Vorplanung

Wer also nicht selber fahren und sich um gar nichts oder sein Smartphone kümmern möchte, der kann ja immer noch den Bus, die Bahn oder das Taxi nehmen. Bus und Bahn fahren allerdings auf festgelegten Linien und halten nur an bestimmten Haltestellen, und das Taxi ist teuer. Und hier setzt dann der Traum vom selbstfahrenden E-Auto an, denn das ist noch viel teurer.

Was heißt nun eigentlich „selbst fahren“? Naja, das Auto fährt dann von selbst und Sie müssen nur noch aufpassen, dass es alles richtig macht. Sie bleiben nämlich voll für Ihr selbstfahrendes Auto verantwortlich; Sie fahren also nicht mehr selbst, sind aber selbst für das Nichtselbstfahren verantwortlich. Dieses Verantwortlichsein können Sie ja mal ausprobieren, beispielsweise in Bus, Bahn oder Taxi. Dann können Sie dort allerdings auch nicht mehr die Zeitung lesen oder auf Ihrem Smartphone herumspielen, denn Sie müssen ja verantwortlich auf das Selbstfahren aufpassen – und schon ist der ganze schöne „Gefahrenwerden“-Effekt im Eimer.

Beim selbstfahrenden Auto sind Situationserkennung, Entscheidungsfindung und Kommunikation lebenswichtig. Wer bei starkem Regen schon mal durch den Spray eines entgegenkommenden Lastwagens gefahren ist weiß, wie schnell man da orientierungslos werden kann. Die entscheidende Frage ist, ob in einem solchen Fall die Entscheidungsfindung des selbstfahrenden Fahrzeugs funktioniert oder es dann die Verantwortung überstürzt an den gerade anderweitig beschäftigten Fahrer zurückdelegiert. Moderne Autos verfügen je nach Ausstattung bereits heute schon über einige wirklich praktische Helferlein, aber intelligent? Vergessen Sie beispielsweise mal den Abstandstempomaten und biegen Sie, hinter einem LKW fahrend, auf die Autobahnausfahrt ab – es wird beim Abbiegen vollautomatisch genau das Gegenteil von dem passieren, was in dieser Situation angebracht wäre. Bevor das „intelligente“ Helferlein beim Abbiegen wieder „freie Fahrt“ erkennt, muss es also vom Fahrer rechtzeitig abgeschaltet werden…

Es ist also zunächst einmal fraglich, ob wir uns in Zukunft tatsächlich auf selbstfahrende Fahrzeuge verlassen können, die in jeder unübersichtlichen Situation intuitiv vorausschauend Bescheid wissen und insbesondere auch selbständig erkennen können, dass eine Situation überhaupt erst unübersichtlich zu werden droht.
Oder soll hier vielleicht der Kunde einer völlig abgehobenen Automobilindustrie helfen, ein ewiges Beta-Produkt im automobilen Selbst(mord?)versuch permanent an die Wirklichkeit des real existierenden Straßenverkehrs anzupassen, nur um das „Weltklima“ zu retten?  Ach ja, da fällt mir ein, dass die Kommunikation mit Automobilherstellern für den Endkunden ja auch nicht immer ganz barrierefrei ist. Offenbar unterhält man sich dort lieber mit Politikern und Medien, die einen ähnlichen Abstand zu den Lebensrealitäten der Bürgerinnen und Bürgern gewonnen haben und in egoistischer Selbstverwirklichung lieber die ganze Welt retten wollen…

Das selbstfahrende Elektroauto wäre also ein Erlebnis wie ein spannender Hollywood-Thriller: Man sitzt in der ersten Reihe, isst Popcorn und fragt sich in Anlehnung an den Abgasskandal ständig, ob das selbstfahrende Fahrzeug und dessen Programmierer wohl auch wirklich an all das gedacht haben mögen, was da so gerade auf einen zukommt. Und in dieser schönen neuen Auto-nomen Zukunft lässt man sich dann beim buchstäblichen „Gefahrenwerden“ von der Chaostheorie überraschen – ein gewisser Dr. Malcolm aus dem „Jurassic Park“ lässt auch ganz herzlich grüßen.

Ein selbstfahrendes Auto ist also todsicher wahnsinnig spannend, aber ohne spezialisierte Fachkräfte würde ein solcher Selbstversuch wohl nicht so gut ausgehen – dazu müsste man dann zur Sicherheit wohl zusätzlich noch einen eigenen Stuntmen engagieren, der auf das „Gefahrenwerden“ aufpasst. So gesehen könnte die alternative Mobilität also auch noch klimaneutrale Arbeitsplätze schaffen.

Und eine Problemlösung mit einem eigenen Chauffeur dürfte am Ende sicherlich auch sehr erfolgreich funktionieren, man nehme zum Beweis einfach mal ein Taxi. Aber damit können Sie natürlich unser Weltklima nicht retten, denn das hat ja einen Dieselmotor…

 

Konfliktforscherin verwehrt sich gegen simplistische Erklärmuster von Klimawandel und Konflikten

Spannender Artikel von Axel Bojanwoski am 14. Mai 2017 bei Spiegel Online:

Das Geheimnis des roten Sonnenflecks
In Europa scheint die Sonne stärker in den vergangenen Jahren – Messungen der Sonnenstrahlung offenbaren eine rote Zone, die bis nach Deutschland reicht. Was geht vor? [...] Sofort ins Auge springt ein knallroter Fleck über Bayern, Österreich, Nordostitalien und Tschechien [wo die Sonnenstrahlung zugenommen hat]. Doch auch der Großteil des übrigen Europa ist orange oder gelb, nur der Nordosten, Nordwesten und Südosten sind blau – dort ist die Sonnenstrahlung schwächer geworden. Veränderte Bewölkung kann nicht die Ursache sein, denn nur Messdaten unter blauem, wolkenlosem Himmel wurden ausgewertet. Und an der Sonne selbst kann es auch nicht liegen, sie scheint gleichmäßig auf die Erde. [...] Die Zunahme der Sonnenstrahlung sei also Folge geringerer Luftverschmutzung, berichtete Blanka Bartók nun auf der Jahrestagung der European Geosciences Union (EGU) in Wien, wo sie ihre Karte präsentierte.

Ganzen Beitrag auf Spiegel Online lesen.

———————-

Eine Konfliktforscherin der University of Sussex verwehrt sich vehement gegen simplistische Modelle, dass eine Klimaerwärmung automatisch eine Zunahme von Konflikten bedeutet. Die GWPF fasste ihren Vortrag zusammen und zitiert Clionadh Raleigh:

There is a cottage industry that has emerged to promote [the climate conflict relationship] and others very similar to it, and those people and institutions …will find evidence or will…I hesitate to use the word “manipulate”…they will provide evidence as they see fit. There’s plenty of evidence that many of these presumed relationships are nonsense, but they are routinely used by the military or development organisations or by government…”

[...]

…the 150 different militia groups that have emerged in Libya or the 1000 that have emerged within Syria are not doing it because it didn’t rain 10 years ago. That’s not why they’re fighting… It did disturb me, the way [climate] caught on as the main lens through which people wanted to understand violence…especially the narrative about Syria is quite disturbing”

[...]

In very recent years, natural scientists have picked up on [the climate conflict] discussion. I would go so far as to say that their arguments are out and out environmental determinism: temperature goes up, violence goes up. It’s horrific…to imply that about people who are leading very difficult lives…to imply that they are somehow naturally violent is appalling.”

———————-

Alina Schadwinkel wollte am 12. Mai 2017 auf Zeit Online der Klimaskepsis mit Fakten den Boden entziehen. Wir schauen in die Argumente hinein:

Mit Fakten gegen jeden Zweifel
Die globale Erwärmung ist größtenteils menschengemacht, der Klimawandel real. Und das lässt sich auch belegen. Sieben Fakten, die selbst Skeptiker überzeugen sollten.

[...]

Nach derzeitigem Wissen ist aber nur etwa ein Zehntel der heutigen Erderwärmung auf die Sonne zurückzuführen, anderslautende Behauptungen halten einer Prüfung nicht stand (siehe etwa Nature Geoscience: Huber & Knutti, 2011 / Journal of Geophysical Research: Benestad & Schmidt, 2009). Stattdessen sprechen alle Auswertungen dafür: Die aktuelle globale Erwärmung ist zum größten Teil menschengemacht.

Fakt ist aber auch, dass die heutigen Klimamodelle die Warmphasen der letzten 10.000 Jahre nicht korrekt nachvollziehen können. Steht übrigens schwarz auf weiß im letzten IPCC-Bericht. Warum wird dies hier nicht erwähnt? Die Modelle halten eine näheren Prüfung also nicht stand. Was nun?

Bei Punkt 2 geht es um den CO2-Anstieg. Der ist unbestritten. Aber wieviel Erwärmung bringt er? Das Stichwort Klimasensitivität fehlt hier.  Bei Punkt 3 geht es um die Attribution. CO2 steigt an, Temperatur steigt an, also ist der Fall klar: CO2 ist der wichtigste Klimatreiber. Unerwähnt bleibt, dass die Sonne in der zweiten Hälfte des 20. Jahrhunderts eine ihrer stärksten Intensitäten der letzten 10.000 Jahre erreicht hat. Nur Zufall? Wenn die Attribution so einfach wäre… Punkt 4: Die Eismassen schmelzen. Stimmt. Aber geschmolzen sind sie immer wieder, z.B. zur Zeit der Mittelalterlichen Wärmeperiode (MWP) vor 1000 Jahren. Weshalb bleibt dies hier unerwähnt? Dann ein bemerkenswerter Absatz:

Fehler und Manipulationen der Vergangenheit haben die Glaubwürdigkeit der Klimaforschung angekratzt. Zwei Fälle haben für besondere Aufmerksamkeit gesorgt. Erstens die “Hockeyschläger-Kurve”. Die Grafik zeigt eine Rekonstruktion von Temperaturen über die letzten ein- bis zweitausend Jahre. In ihrer ersten Fassung von 1998 hatte sie tatsächlich statistische Schwächen. Doch eine überarbeitete Fassung – und viele andere Berechnungen – bestätigen die Grundaussage: Temperaturdaten lassen darauf schließen, dass es niemals in den vergangenen tausend Jahren so warm war wie heute.

Es ist schön, das die Hockeystick-Fehler endlich eingeräumt werden. Das wurde auch Zeit. Allerdings ist die Schlussfolgerung etwas wackelig. Derzeit ist noch unklar, ob die moderne Wärmeperiode oder MWP die Nase vorne hatte… Eines ist jedoch bereits Konsens: Während des holozänen thermischen Maximums vor 6000 Jahren war es schon einmal für längere Zeit wärmer als heute. Hätte man erwähnen können. Gut dann das Ende:

Sicherlich sind noch zahlreiche Detailfragen zu beantworten. Kein Forscher behauptet, die Klimaveränderungen seien vollkommen verstanden. Im Gegenteil: In der Gedankenwelt der Naturwissenschaft ist eine Erkenntnis nie final, sondern immer ein Zustand in einem Prozess.

 

Klimahysterie gefährdet die Freiheit

Uli Webers Buch “Klimahysterie gefährdet die Freiheit” ist jetzt auch im erschwinglichen schwarz-weiß Paperback-Format erhältlich. Preis: Euro 7,99. ISBN-13: 978-3-7448-3560-2

 

 

Inhalt: 

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern grob vereinfachender wissenschaftlicher Modellrechnungen. Solche Berechnungen ergeben aber keine eindeutigen Lösungen, sondern Lösungswolken, deren Größe dramatisch anwächst, je weiter man sie in die Zukunft hochrechnet. Die mediale Darstellung dieser Ergebnisse bleibt dann auf plakative Katastrophenszenarien beschränkt und positive Auswirkungen eines möglichen globalen Temperaturanstiegs, allein schon durch eine Verlängerung der Vegetationszeiten in höheren geographischen Breiten, gehen in der monokausalen Panikmache um unseren anthropogenen CO2-Ausstoß völlig unter.
Die Weltbevölkerung als Ganzes hat riesige Probleme, die sich nicht auf die griffige Formel reduzieren lassen, wenn wir den Ausstoß von CO2 verhindern, wird alles gut! Die CO2-Vermeidung um jeden Preis ist eine Wette unzureichender Computermodelle gegen Mutter Erde. Eine Beschränkung auf unseren CO2-Ausstoß als alleinige Ursache für den Temperaturanstieg seit 1850 lässt die Weltbevölkerung auch in Zukunft völlig ungeschützt gegen alle natürlichen Klimaschwankungen bleiben!

Daher sollten wir das Aufkommen jeglicher Angstgläubigkeit um die vorgebliche Klimakatastrophe vermeiden und unsere begrenzten wirtschaftlichen Mittel in unserer Verantwortung als der besser verdienende Teil der Weltbevölkerung nicht nur ökologisch, sondern auch ökonomisch sinnvoll und vorausschauend zum Nutzen aller Menschen auf dieser Erde einsetzen.

 

Grafisches Nudging: Glauben Sie ja nicht immer das, was Sie gerade sehen

Von Uli Weber

Wenn Sie mit irgendwelchen Grafiken von angeblichen wissenschaftlichen Tatsachen überzeugt werden sollen, dann ist höchste Vorsicht geboten.

Der versteckte Nullpunkt: Achten Sie einmal auf den Nullpunkt der jeweiligen Grafik. Sollte dieser dort nämlich in einer Ausschnittsvergrößerung gar nicht dargestellt worden sein, könnte es sich bereits um den Versuch einer Einflussnahme handeln, weil Ihnen der absolute Bezugspunkt vorenthalten wird. In diesem Fall überlegen Sie einfach einmal, wo der betreffende Nullpunkt liegen müsste und welche Folgerung sich daraus unter Berücksichtigung des jeweiligen Maßstabs für die dort getroffene Aussage ergibt.

Abbildung: Die globale Durchschnittstemperatur. Autoren: Janacek, Gareth: Practical Time Series, London (Arnold 2001). Von Fernuni Hagen.


Der Autor konnte aktuell kaum noch passende Beispiele für diese Problematik finden, auch die Abbildung oben ist schon älteren Datums. Vielmehr ist man in der Klimaforschung offenbar inzwischen dazu übergegangen, solche Temperaturkurven gleich auf einen relativen Nullpunkt ohne absolute Wertangabe zu beziehen und damit den sehr hilfreichen Bezug des Betrachters auf den tatsächlichen Nullpunkt von O Grad Celsius völlig zu unterbinden:


Abbildung: Globaler Temperaturindex Oberflächentemperaturen Land und See 1880–2016 relativ zum Mittelwert von 1951–1980. Gemeinfrei. By NASA Goddard Institute for Space Studies (http://data.giss.nasa.gov/gistemp/graphs/) [Public domain], via Wikimedia Commons

 

Neben einem imaginären Mittelwert als absoluten „0“-Punkt hilft der Argumentation natürlich auch ein eingeschränkter Betrachtungszeitraum. In beiden Abbildungen wird also ganz eindeutig ein „menschengemachter“ Temperaturanstieg zwischen 1880 und 2016 dargestellt. Wenn man jetzt aber den zeitlichen Kontext auf einen größeren Zeitraum ausweitet, dreht sich das Ergebnis plötzlich diametral um. Aus der Presseerklärung der Justus-Liebig-Universität Gießen Nr. 156 vom 9. Juli 2012:

Klima in Nord-Europa während der letzten 2.000 Jahre rekonstruiert: Abkühlungstrend erstmalig präzise berechnet… Berechnungen beeinflussen auch die Beurteilung des aktuellen Klimawandels – Gießener Wissenschaftler an Veröffentlichung in „Nature Climate Change“ beteiligt…“

Abbildung der Universität Gießen. Das rote Quadrat auf der rechten Seite bezeichnet etwa den Zeitraum, den die beiden obigen Abbildungen darstellen

 

Zitate aus dieser Pressemitteilung:

Römerzeit und Mittelalter waren wärmer als bisher angenommen: Unter Beteiligung der Justus-Liebig-Universität Gießen hat ein internationales Forschungsteam jetzt eine 2.000-jährige Klimarekonstruktion für Nord-Europa anhand von Baumjahrringen vorgestellt…

„…Im Prinzip erscheint diese Zahl nicht sonderlich beeindruckend‘, sagte Prof. Luterbacher, ‚allerdings ist sie im Vergleich zur globalen Erwärmung, die bis heute auch weniger als 1°C beträgt, nicht zu vernachlässigen. Wir konnten nun zeigen, dass die großräumigen Klimarekonstruktionen, die auch vom internationalen Klimarat ‚IPCC‘ verwendet werden, den langfristigen Abkühlungstrend über die letzten Jahrtausende unterschätzen.“

Es wird grafisch also immer wärmer, während es langfristig eigentlich immer kälter wird…

 

Vergleich von Differenzen: Noch erfolgreicher ist die zielgerichtete Darstellung von Differenzen. Der IPCC gibt den anthropogenen Anteil an der Klimagenese (Radiative Forcing) (50) mit 1,6 W/m² an, während der Beitrag der Sonneneinstrahlung dort nur 0,12 W/m² beträgt:

 

Abbildung: Die Komponenten des atmosphärischen Strahlungsantriebs. (Global average radiative forcing estimates and ranges in 2005 for anthropogenic greenhouse gases and other important agents and mechanisms) Attribution-ShareAlike 3.0 Unported (CC BY-SA 3.0). Quelle: Arne Nordmann (norro) – Own drawing, based on Image:600px-Radiative-forcings.svg.png by Leland McInnes. Wikipedia.
All data ist from the IPCC Fourth Assessment Report Summary for Policymakers.…

 

Die Argumentation des IPCC zielt dort auf eine Erklärung für den Temperaturanstieg seit 1750 ab. Der Witz ist nun, dass hier der maximal mögliche menschliche Klimabeitrag durch IR-aktive Gase, die ohne eine Primärquelle gar keinen eigenständigen Temperaturbeitrag liefern können, mit dem Differenzbetrag der vorgeblichen Schwankung der Primärquelle Sonne seit 1750 in Beziehung gesetzt wird, was optisch ein überwältigendes Szenario für einen menschengemachten Klimaeinfluss ergibt.

Wenn man nun aber die tatsächlichen Einflussgrößen auf unser Klima betrachten will, dann muss man hier die tatsächliche Sonneneinstrahlung von 1.367 W/m² in Beziehung setzen, um sich die wirkliche Relation für eine mögliche Klimarelevanz des menschlichen Einflusses vor Augen zu führen. Und da liegt dann der maximal befürchtete (sekundäre) Klimaeinfluss des Menschen bei etwa einem Promille der tatsächlichen Sonneneinstrahlung (nebenstehende Abbildung des Autors).

Der Klimaeinfluss des Menschen ist also gegenüber der Sonneneinstrahlung zu vernachlässigen.

 

Darstellung von Prozentwerten: Es ist in Mode gekommen, bei populärwissenschaftlichen Abbildungen aus der Klimaforschung die Werte der betrachteten Elemente in Prozenten anzugeben. Damit ist es nicht nur möglich geworden, Äpfel und Birnen direkt zu vergleichen, sondern auch spontane Plausibilitätsabschätzungen des Betrachters zu unterbinden. Denn selbst mit der Angabe, auf welche Basis sich die Prozentangabe bezieht, werden die tatsächlichen Zahlenwerte verschleiert und erfordern für das tiefere Verständnis eine Umrechnung, die ein fachfremder Betrachter üblicherweise nicht leisten wird.

 

Abbildung: Energiebillanz der Erde. Gemeinfrei aus Wikipedia. By Christoph S. (original image, freely redrawn by Gissi) [Public domain], via Wikimedia Commons

 

Und hier wird noch nicht einmal angegeben, welcher Strahlungswert in [W/m²] durch 100% eigentlich repräsentiert wird, also kann man’s auch gar nicht erst zurückrechnen. Oder wären Sie vielleicht auf Anhieb darauf gekommen, dass es sich hierbei um ein Viertel der Solarkonstante von 1.367 [W/m²] handelt?

————————-

Hinweis: Die Inhalt des Beitrags spiegelt die Meinung des Autors wieder und repräsentiert nicht unbedingt die Ansicht der Kalte-Sonne-Redaktion. Gastartikel werden inhaltlich ungeprüft als Diskussionsbeiträge ins Blog übernommen. Für Hinweise und Kritik wenden Sie sich bitte an den Autor. Hierfür bitte das Kontaktformular verwenden, wir leiten die Korrespondenz dann weiter an den Autor.