News und Termine

Kann der Ozean aufatmen?

Pressemitteilung des Geomar vom 4. September 2017:

—————————-

Kann der Ozean aufatmen?

Forscherteam misst ungewöhnlich hohe Sauerstoffaufnahme in der Labrador-See

Stürmisch, rau und sehr kalt: Diese Eigenschaften der Labrador-See mögen zunächst ungemütlich wirken, sind für die Sauerstoffverteilung im Ozean aber von besonderer Bedeutung. Ein internationales Forschungsteam unter Beteiligung des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel hat dort an einer Langzeitmessstation kürzlich eine außergewöhnlich hohe Sauerstoffaufnahme bis in Wassertiefen von mehr als 1700 Metern gemessen. Das Ereignis kann auf den besonders kalten Winter 2014/2015 zurückgeführt werden. Trotz der starken Aufnahme kann das Ereignis den Sauerstoffverlust der Weltmeere nicht kompensieren. Die Ergebnisse der Studie sind jetzt in der internationalen Fachzeitschrift Geophysical Research Letters veröffentlicht worden.

Die Labrador-See im nördlichen Atlantik ist eines der wenigen Meeresgebiete weltweit, in dem kaltes, salzhaltiges Meerwasser in große Tiefen absinkt und so Tiefenwasser bildet. Beim Absinken des Wassers wird auch Sauerstoff in die Tiefsee transportiert. Ein Forscherteam der Scripps Institution of Oceanography (La Jolla, Kalifornien, USA), der Dalhousie Universität (Halifax, Kanada) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel veröffentlichen jetzt in der internationalen Fachzeitschrift Geophysical Research Letters die Analyse von Daten der Messstation K1, die zeigen, dass im Winter 2014/2015 ungewöhnlich viel Sauerstoff in dem Gebiet aufgenommen wurde. Die eigentliche Sauerstoffaufnahme an der Meeresoberfläche lässt sich nur sehr schwer direkt ermitteln, aber aus dem im Wasser gemessenen Sauerstoffgehalt konnte das Forscherteam die Sauerstoffaufnahme ableiten. Eine Frage, die die Wissenschaftler und Wissenschaftlerinnen dabei beschäftigte: Kann die starke Sauerstoffaufnahme in der Labrador-See den globalen Sauerstoffverlust des Ozeans aufhalten?

Das Oberflächenwasser der Meere befindet sich in ständigem Gasaustausch mit der Atmosphäre. Dabei reichert sich das Wasser auch mit Sauerstoff an. „Im Ozean sind es insbesondere die Temperatur und der Blaseneintrag durch den Wind, die die Sauerstoffaufnahme beeinflussen“, sagt Dr. Johannes Karstensen, Ozeanograph am GEOMAR und Koautor der Studie. Kühlt das Oberflächenwasser ab, verändert es seine Dichte und wird schwerer. Es sinkt in die Tiefe und nimmt den dabei gelösten Sauerstoff mit. Gleichzeitig steigt Wasser aus tieferen Schichten auf und wird wiederum mit Sauerstoff angereichert. „Auch wenn es manchmal so veranschaulicht wird, man kann sich den Absinkprozess nicht wie einen Wasserfall vorstellen “ sagt Dr. Johannes Karstensen (GEOMAR) „es ist eher ein Umschichten, also Wasser sinkt ab und das darunterliegende leichtere Wasser steigt auf, wird abgekühlt, sinkt wieder ab und so weiter“.

Wie die Daten der Langzeitmessstation K1 zeigen, wurde im besonders kalten und stürmischen Winter 2014/2015 in der Labrador-See ungewöhnlich viel Sauerstoff aufgenommen. Zum einen lag das daran, dass der Umwälzprozess bis in Tiefen von über 1700 Metern reichte. Zum anderen konnten die Wissenschaftler anhand der Messdaten zeigen, dass der beobachtete Sauerstoffanstieg nur unter Berücksichtigung des Blaseneintrags an der Oberfläche erklärbar ist. Dieses Ergebnis ist für die richtige Modellierung der Sauerstoffaufnahme in Tiefenkonvektionsgebieten besonders wichtig und dient auch der Verbesserung von Klimavorhersagen.

Erst kürzlich haben Forschende des GEOMAR eine Studie zur zeitlichen Entwicklung der Sauerstoffkonzentration im Weltozean veröffentlicht. Sie zeigt, dass der Sauerstoffgehalt der Weltmeere in den vergangenen 50 Jahren um mehr als zwei Prozent abgenommen hat. Eine naheliegende Frage ist: Kann die erhöhte Sauerstoffaufnahme in der Labrador-See den beobachteten Sauerstoffverlust der Weltmeere ausgleichen? „Selbst wenn wir annehmen, dass das in 2014/2015 neu gebildete Wasser ohne Verluste aus der Region abtransportiert wird, kann damit nur etwa ein Hundertstel des bisherigen weltweiten Sauerstoffverlustes ausgeglichen werden“, sagt Dr. Johannes Karstensen. „Insbesondere die durch die globale Erwärmung bedingte Abnahme des Sauerstoffgehalts im Oberflächenwasser lässt sich so nicht ausgleichen.“ Die Daten aus der Labrador-See tragen zudem zu einem besseren Verständnis der Umwälzprozesse bei. „Damit lässt sich die zukünftige Entwicklung des Sauerstoffs in den Meeren besser vorhersagen“, betont der Kieler Ozeanograph.

Originalarbeit: Koelling, J., D.W.R Wallace, U. Send, and J. Karstensen, 2017: Intense oceanic uptake of oxygen during 2014-15 winter convection in the Labrador Sea. Geophys. Res. Lett.

http://dx.doi.org/10.1002/2017GL073933

Hinweis: Die Studie wurde auf kanadischer Seite vom Canada Excellence Research Chair in Ocean Science and Technology sowie vom NSERC-geförderten Projekt  VITALS unterstützt. Die Verankerung K1 ist Teil des  OceanSITES-Netzwerkes. Die  Analyse wurde gefördert vom BMBF-Projekt RACE II, vom Projekt AtlantOS im Rahmen des EU-Horizon-2020-Programms und vom Projekt NACLIM im Rahmen des 7. Rahmenprogramms der EU

 

In Zukunft wohl weniger Überschwemmungen in Skandinavien

Die Klimadiskussion dreht sich im Kreise, ja beginnt in einigen Themenfelder bereits sogar zu langweilen. Die Abläufe scheinen sich entlang einem schlechten Filmskript entlangzuhangeln: Pünktlich nach Eintreten eines Extremwetterereignisses ruft der zuständige Redakteur den Aktivisten L oder R an. Jener verkündet dann mit tränenerstickter Stimme, dass der Klimawandel vermutlich schon seine Finger mit im Spiel hatte, es fällt der Begriff “gezinkter Würfel”. Eines stehe fest: In Zukunft wird alles noch viel schlimmer. Dazu noch das Bild eines vom Hurrikan verwüsteten Hauses, eines auf einer Eisscholle sitzenden traurigen Eisbären – fertig ist der neue warnende Artikel zum Klimawandel. Der Leser zeigt sich angesichts der vermeintlich drückenden Faktenlage überzeugt.

Dabei liegen zwei gewaltige Auslassungen vor: Extremwetter hat es in der Vergangenheit stets gegeben. Erstens: Weshalb werden uns keine konkreten Informationen über Häufigkeitstrends gegeben? Wie hat sich die Häufigkeit von Stürmen, Überschwemmungen in den letzten 150, 1000 oder 10.000 Jahren verändert? Ohne diese Information kann man das jeweilige Extremwetterereinis doch gar nicht in den Klimawandel einordnen. Zweitens: Für die gruseligen Zukunftsprognosen werden Klimamodelle herangezogen. Diese sind jedoch nur glaubwürdig, wenn sie auch die Klimageschichte, also die Extremwetterentwicklung der letzten 150, 1000 und 10.000 Jahre sauber reproduzieren können. Weshalb erwähnen die Journalisten nicht, dass die historische Klimakalibrierung in den allermeisten Fällen fehlt bzw. sogar fehlgegangen ist?

Das konsequente Verschweigen dieser wichtigen Kontextinformationen wirft kein gutes Licht auf Redakteure und Klimaaktivisten. Gebraucht wird eine Art “Klimaführerschein” für Journalisten, ein Mindeststandard, der bei der Berichterstattung in diesem politisch sensiblen Feld erfüllt sein muss, bevor ein Zeitungsartikel oder Fernsehbeitrag freigegeben werden kann. Das momentan grassierende Verfahren der spontanen Verquickung jeglichen Extremwetters mit dem anthropogenen Klimawandel ist naiv, ja sogar gefährlich. Wie kann man Redakteuren und Aktivisten L oder R in Zukunft überhaupt noch trauen, wenn sie historische Trends und Modellleistungsfähigkeit mutwillig verschweigen, vielleicht weil sie von der Bevölkerung “falsch aufgenommen” werden könnten?

Hier ein Beispiel für Überflutungen in Skandinavien. Eivind Støren und ØyvindPaasche berichteten im Februar 2014 in Global and Planetary Change, dass in 50-100 Jahren dort mit einer Abnahme der Überschwemmungen zu rechnen sei:

Scandinavian floods: From past observations to future trends
Although most climate models agree on a general increase in future precipitation in the Northern Hemisphere due to higher temperatures, no consensus has yet been reached on how this warming will perturb flooding rates. Here we examine the potential co-variability between winter precipitation (Pw) and floods on millennial time scales. This is accomplished by analyzing reconstructed Pw from five records in Scandinavia, which is, compared to data from two high-resolution flood records from southern Norway. These Holocene records reveal a positive correlation (R2 = 0.41, p > 0.01) between the number of floods and Pw on centennial time scales over the last 6000 years. Future projections for Pw over central Scandinavia for the next 100 years suggest a continued increase in Pw that approximates maximum Holocene precipitation values. Despite an anticipated increase in Pw, the paleodata, nevertheless, suggest that we are likely to witness a decrease in future floods 50–100 years from now because the accompanying warming will cancel that net effect of a wetter regime.

In einer anderen Studie untersuchten Kristina Seftigen und Kollegen Baumringe in Skandinavien und Finnland für die vergangenen 1000 Jahre. Sie fanden eine Phase mit starken Überschwemmungen im 17. Jahrhundert. Dabei konnten sie auch zeigen, dass sich das 20. Jahrhundert in keiner Weise vom Überflutungsgeschehen des letzten Millenniums unterscheidet. Die Arbeit erschien im Juni 2015 in Climate Dynamics. Vielmehr spielte der NAO-Ozeanzyklus eine wichtige Rolle:

A tree-ring field reconstruction of Fennoscandian summer hydroclimate variability for the last millennium
Hydroclimatological extremes, such as droughts and floods, are expected to increase in frequency and intensity with global climate change. An improved knowledge of its natural variability and the underlying physical mechanisms for changes in the hydrological cycle will help understand the response of extreme hydroclimatic events to climate warming. This study presents the first gridded hydroclimatic reconstruction (0.5° × 0.5° grid resolution), as expressed by the warm season Standardized Precipitation Evapotranspiration Index (SPEI), for most of Fennoscandia. A point-by-point regression approach is used to develop the reconstruction from a network of moisture sensitive tree-ring chronologies spanning over the past millennium. The reconstruction gives a unique opportunity to examine the frequency, severity, persistence, and spatial characteristics of Fennoscandian hydroclimatic variability in the context of the last 1,000 years. The full SPEI reconstruction highlights the seventeenth century as a period of frequent severe and widespread hydroclimatic anomalies. Although some severe extremes have occurred locally throughout the domain over the fifteenth and sixteenth centuries, the period is surprisingly free from any spatially extensive anomalies. The twentieth century is not anomalous in terms of the number of severe and spatially extensive hydro climatic extremes in the context of the last millennium. Principle component analysis reveals that there are two dominant modes of spatial moisture variability across Fennoscandia. The same patterns are evident in the observational record and in the reconstructed dataset over the instrumental era and two paleoperiods. The 500 mb pressure patterns associated with the two modes suggests the importance of the summer North Atlantic Oscillation.

 

 

Der Hochsommermonat August wird in Deutschland nicht mehr wärmer

Von Josef Kowatsch

Der Monat August 2017 hatte laut Deutschem Wetterdienst einen Schnitt von 17,9 C. Im Norden war er eher kühl und regnerisch, genauso wie die Nord- und Ostsee. Nur im Süden erfüllte er weitgehend die Sommererwartungen. In der Nähe der Alpen zeigte sich an einigen Tagen sogar mediterranes Klima.

Lange Zeiträume:

Im weiteren Verlauf betrachten wir nur die Temperaturentwicklung dieses Sommermonates über diverse Zeiträume und beginnen mit der Station Berlin-Tempelhof, die seit 1756 zuverlässige Werte liefert. Die 50 Jahre Messungen davor waren noch sehr unregelmäßig und fragwürdig. Die Trendlinie ist zugleich die Durchschnittslinie.

 

Abbildung 1: Augustverlauf seit über 250 Jahren. Der wärmste August in Berlin und wohl überall in Deutschland war der August 1807. Man beachte den letzten Wert 2017 von Tempelhof im Vergleich zu 1807. Weiter sind noch die Augustwerte von 1881 und 1931 eingetragen.

 

Man beachte: Die Werte sind nicht wärmeinselbereinigt, sonst lägen die letzten 130 Jahre tiefer. Tempelhof war 1756 im Geburtsjahr Mozarts noch ein kleiner ländlicher Vorort von Berlin, heute ist Tempelhof ein Stadtteil mit über 60 000 Einwohnern.

Für kürzere Zeiträume kann man auf die Messstationen des Reichswetterdienstes, bzw. Deutschen Wetterdienstes (DWD) zurückgreifen. Wir betrachten im Folgenden den Monat August ab 1942 bis heute:

 

Abbildung 2: Temperaturentwicklung in Deutschland für den Monat August seit 1942, gezeichnet nach den Daten des Deutschen Wetterdienstes.

 

Man kann den Temperaturgang der deutschen Durschnittstemperaturen seit 1942 in vier Abschnitte einteilen:

1) Während der Nazizeit warm.

2) Ab 1942 sanken die Durchschnittstemperaturen und die kühlen Augustmonate hielten an bis 1975.

3) Ab 1975 erfolgte ein Anstieg auf ein neues Temperaturhoch.

4) Seit der Jahrtausendwende haben wir dieses Temperaturhoch überschritten, die Temperaturen des Monates August sinken wieder. Insgesamt liegt das Temperaturniveau aber jetzt höher als zu Beginn der Betrachtung, zumindest zeigt das der Schnitt der  jetzigen DWD-Messstationen, die natürlich nicht dieselben sein können wie 1942.

Um die Entwicklung dramatischer aussehen zu lassen als sie ist, greifen einige Berichterstatter zu einem Trick: Sie lassen die Temperaturbetrachtung inmitten des Kältetales beginnen. Meist beginnt ihre Betrachtungskurve 1961 und im Wellental gestartet kann tatsächlich eine Erwärmung gezeigt werden. Tatsächlich sind aus dem Kältetal der 60er Jahre heraus bis heute die Augusttemperaturen deutlich angestiegen. Der Hochsommermonat August wurde in den letzten 57 Jahren deutlich wärmer. Die Durchschnittstemperaturen lagen damals laut Trendlinie bei 16 Grad, während wir in der Gegenwart laut Trendlinie um 2 Grad höher liegen.

 

Abbildung 3: Temperaturentwicklung in Deutschland für den Monat August seit 1961, gezeichnet nach den Daten des DWD.

 

Kürzere Zeiträume:

Die Trendlinie seit 1961 zeigt keinesfalls den Zukunftstrend, sondern nur den Wärmeverlauf bis 2017. Alle Trendlinien zeigen die Vergangenheit bis heute und nicht die Zukunft. Schon aus Grafik 2 ist erkennbar, dass der Anstieg in den letzten Jahrzehnten nicht mehr weiterging.

Betrachten wir nun die letzten 30 Augustmonate, also 1988 bis 2017, dieser Zeitraum ist die kleinste Klimaeinheit. Die Trendlinie hat nun ein gänzlich anderes Aussehen: Seit 30 Jahren stagnieren die deutschen Augusttemperaturen auf dem Niveau von 1988. Ein Temperaturplateau auf hohem Niveau hat sich herausgebildet

 


Abbildung 4: Temperaturentwicklung in Deutschland für den Monat August seit 1988, gezeichnet nach den Daten des Deutschen Wetterdienstes.

 

Interessant ist jedoch die Betrachtung der letzten 20 Jahre, also die Gegenwart. Der Hochsommermonat August hat seit zwei Jahrzehnten in Deutschland eine leichte Abkühlungstendenz. Der Trend ist nicht signifikant.

 

Abbildung 5: Temperaturentwicklung in Deutschland für den Monat August seit 1997.

 

Es lohnt sich, diese Fakten im Hinterkopf zu behalten, wenn in der Presse wieder einmal die sommerliche „Hitzesau“ durchs Dorf getrieben wird. Hier gilt es, einen kühlen Kopf zu behalten. Einige ländliche Stationen, in deren Umgebung sich weniger baulich verändert hat als in unseren Städten oder an den Flughäfen, zeigen bereits seit 30 Jahren eine leichte Abkühlung. Als Beispiel wählen wir Amtsberg-Dittersdorf im Erzgebirge:

Abbildung 6: Ländliche Stationen mit geringen Wärmeinselwirkungen zeigen bereits seit 30 Jahren eine leichte Augustabkühlung.

 

Fazit: Die Augusttemperaturen verlaufen in Mitteleuropa über mehrere Jahrzehnte betrachtet in Wellen. Momentan befinden wir uns auf einem hohen Niveau. Besonders die wärmeinselarmen Stationen auf dem Lande zeigen jedoch schon wieder eine leichte Abwärtsbewegung an.

 

Forschern dämmert: Atlantische Ozeanzyklen machen Klima

Die Ozeane stellen ein großes Wärmereservoir dar. Im Takte von 60 jährigen Zyklen verschlucken sie drei Jahrzehnte lang Wärme, die sie dann in den folgenden 30 Jahren wieder ausspucken. Im Atlantik läuft dieses Phänomen unter dem Begriff Atlantische Multidekadenoszillation (AMO). Klimamodelle können die Zyklik nicht richtig nachvollziehen, was die daraus abgeleiteten Klimaprognosen zweifelhaft erscheinen lässt. In den letzten Jahren hat sich auf dem Gebiet der Ozeanzyklik kräftig etwas getan. Die systematische Klimabeeinflussung ist jetzt von der Fachwelt endlich akzeptiert. Ein gutes Beispiel ist ein Paper von Dan Seidov und Kollegen im Mai 2017 in den Geophysical Research Letters:

Multidecadal variability and climate shift in the North Atlantic Ocean
Decadal variability of ocean heat content (OHC) and temperature trends over ~60 years in the North Atlantic Ocean were analyzed using a new high-resolution ocean climatology based on quality-controlled historic in situ observations. Тwo ~30 year ocean climates of 1955–1984 and 1985–2012 were compared to evaluate the climate shift in this region. The spatial distribution of the OHC climate shift is highly inhomogeneous, with the climate shift being the strongest southeast of the Gulf Stream Extension. This may be caused by the Atlantic Meridional Overturning Circulation slowdown in conjunction with heaving of warm subtropical water. The 30 year climate shift shows higher OHC gain in the Gulf Stream region than reported in shorter timescale estimates. The OHC change is generally coherent with the Atlantic Multidecadal Oscillation index. This coherence suggests that quasi-cyclicity of the OHC may exist, with a period of 60 to 80 years, superimposed on the slow basin-wide warming trend.

Endlich können auch klimatische Mittelfristprognosen von der Ozeanzyklik profitieren, die vor 5 Jahren – als unser Buch Die kalte Sonne erschien – noch heftig vom peinlich berührten Klimaestablishment abgestritten wurden. Heute ist man klüger. In Irland hängen Temperaturen und Niederschläge zu über 90% an der AMO, wie McCarthy et al. 2015 im Juli 2015 im Fachblatt ‚Weather‘ dokumentierten:

The influence of ocean variations on the climate of Ireland
The influence of the ocean circulation on the climate of Ireland is more subtle than it first appears. Temperatures in Ireland are warmer than similar Pacific maritime climates. It is heat – carried primarily in the Atlantic overturning circulation – released over the Atlantic that provides this additional warmth. We investigate variations in Irish climate using long-term station-based time series. The Atlantic multidecadal oscillation (AMO) explains over 90% of the pronounced decadal temperature and summer precipitation variation. Understanding the impact of these ocean variations when interpreting long climate records, particularly in the context of a changing climate, is crucial.

Die natürliche dekadische Variablität des irischen Klimas ist zwei mal so stark wie der Erwärmungstrend sagt die Arbeit. In den Jahren 1990-2002 trug also die Variabilität zum Anstieg bei. Das wird so nicht gesagt, jedoch vor der anderen “Flanke” des Signals gewarnt:

“Otherwise, decades of cooling can be seen as a contradiction to increased surface temperature trends (in response to continually increasing greenhouse gas emission) when natural ocean variability may be the cause.”

Modelle die die ansteigende Flanke der AMO gut replizieren und allein auf CO2 zurückführen, überschätzen es demnach. Auch wenn die volle Erkenntnis aus verschiedenen Gründen nicht immer vollständig genannt werden kann, setzt sich die überragende Bedeutung der Ozeanzyklen und ihr Beitrag zu den Erwärmungsphasen immer mehr durch. So erschien im Mai 2017 in PNAS eine Arbeit von Bowene und Kollegen. Dort traute man sich nicht ganz an die Heutezeit heran und beschäftigte sich lieber mit einem Zyklus früher. Ihre Botschaft: Die Erwärmung des frühen 20. Jahrhunderts in der Arktis wurde durch die Ozeanzyklen verstärkt. Hier die Pressemiteilung der Kyoto University (via Science Daily):

Scientists uncover a cause for early 20th century Arctic warming

Is a warmer Arctic a canary of global warming?

Since the 1970s the northern polar region has warmed faster than global averages by a factor or two or more, in a process of ‘Arctic amplification’ which is linked to a drastic reduction in sea ice. But then how to explain a similar rapid warming that occurred during the early 20th century, when the effects of greenhouse gases were considerably weaker than today? And what can we prove about the period, given the scarcity of usable data and observations prior to the 1950s? Now scientists from Kyoto University and UC San Diego have discovered that this phenomenon occurred when the warming phase — ‘interdecadal variability mode’ — of both the Pacific and Atlantic Oceans coincided. The team’s findings appeared recently in the journal PNAS.

“We found that early 20th century sea surface temperatures in the tropical Pacific and North Atlantic had warmed much more than previously thought,” explains lead author Hiroki Tokinaga of Kyoto. “Using observations and model simulations, we’ve demonstrated that rising Pacific-Atlantic temperatures were the major driver of rapid Arctic warming in the early 20th century.” Previous explanations for early Arctic warming have including decreased volcanic aerosols and increased solar radiation, but none of these have been able to simulate observed conditions from the period.

Tokinaga’s team found that when the interdecadal rise in sea surface temperatures was included in simulation calculations, the results properly reflected early Arctic conditions. “Coupled ocean-atmosphere simulations also support the intensification of Arctic warming,” continues Shang-Ping Xie of UCSD, “which was caused by a concurrent, cold-to-warm phase shift of Pacific and Atlantic interdecadal modes.” The researchers explain that these new findings can help constrain model climate projections over the Arctic region.

“It is likely that temperatures in the Arctic will continue to rise due to anthropogenic global warming,” concludes Tokinaga. “Our study does not deny this. We are rather suggesting that Arctic warming could accelerate or decelerate due to internal variability of the Pacific and the Atlantic.” “It is a challenge to accurately predict when the next big swing of multidecadal variability will occur. Careful monitoring is essential, given the enormous impact on the Arctic climate.”

Gabriel J. Bowene et al. Early 20th-century Arctic warming intensified by Pacific and Atlantic multidecadal variability. PNAS, May 2017 DOI: 10.1073/pnas.1615880114

Im September 2015 diskutierte Judith Curry eine Nature-Arbeit von McCarthy et al., in der der bevorstehende Umschwung der AMO in die negative, kühlende Phase prognostizert wird:

Ocean impact on decadal Atlantic climate variability revealed by sea-level observations
Decadal variability is a notable feature of the Atlantic Ocean and the climate of the regions it influences. Prominently, this is manifested in the Atlantic Multidecadal Oscillation (AMO) in sea surface temperatures. Positive (negative) phases of the AMO coincide with warmer (colder) North Atlantic sea surface temperatures. The AMO is linked with decadal climate fluctuations, such as Indian and Sahel rainfall1, European summer precipitation2, Atlantic hurricanes3 and variations in global temperatures4. It is widely believed that ocean circulation drives the phase changes of the AMO by controlling ocean heat content5. However, there are no direct observations of ocean circulation of sufficient length to support this, leading to questions about whether the AMO is controlled from another source6. Here we provide observational evidence of the widely hypothesized link between ocean circulation and the AMO. We take a new approach, using sea level along the east coast of the United States to estimate ocean circulation on decadal timescales. We show that ocean circulation responds to the first mode of Atlantic atmospheric forcing, the North Atlantic Oscillation, through circulation changes between the subtropical and subpolar gyres—the intergyre region7. These circulation changes affect the decadal evolution of North Atlantic heat content and, consequently, the phases of the AMO. The Atlantic overturning circulation is declining8 and the AMO is moving to a negative phase. This may offer a brief respite from the persistent rise of global temperatures4, but in the coupled system we describe, there are compensating effects. In this case, the negative AMO is associated with a continued acceleration of sea-level rise along the northeast coast of the United States9, 10.

Schauen wir auf die aktuelle AMO-Kurve der NOAA:

Abb. 1: Verlauf des AMO-Ozeanzyklus. Stand: 1. September 2017. Quelle: NOAA.

 

Naja, wenn man sich die bisherige AMO-Zyklik anschaut, könnte das AMO-Hoch noch mehr als ein Jahrzehnt andauern, so wie wir es auch in unserem Buch ‘Die kalte Sonne’ prognostizert haben. Allerdings befindet sich die PDO (Pazifische Dekadenoszillation) bereits im Sinkflug, was auf globale Sicht in den kommenden Jahren bereits wohl zur Abkühlung führen wird.

Der klimatisch umtriebige Mojib Latif ist übrigens auch Co-Autor einer Studie von Klöwer et al. aus dem Jahr 2014. Dort prognostizieren die Autoren doch in der Tat Ähnliches wie wir in unserem Buch ‘Die kalte Sonne’, nämlich die vorübergehende Fortsetzung des AMO-Plateaus, leicht abknicked, also leicht kühlend.

Abb. 2: AMO-Prognose der Latif-Gruppe (aus: Klöwer et al. 2014)

 

Abb. 3: AMO-Prognose aus unserem Buch “Die kalte Sonne” (2012).

 

Weshalb thematisiert Latif dies nicht einmal bei einem seiner nächsten Sparkassenauftritte? Hier der Abstract:

Atlantic meridional overturning circulation and the prediction of NorthAtlantic sea surface temperature
The Atlantic Meridional Overturning Circulation (AMOC), a major current system in the Atlantic Ocean, is thought to be an important driver of climate variability, both regionally and globally and on a large range of time scales from decadal to centennial and even longer. Measurements to monitor the AMOC strength have only started in 2004, which is too short to investigate its link to long-term climate variability. Here the surface heat flux-driven part of the AMOC during 1900–2010 is reconstructed from the history of the North Atlantic Oscillation, the most energetic mode of internal atmospheric variability in the Atlantic sector. The decadal variations of the AMOC obtained in that way are shown to precede the observed decadal variations in basin-wide North Atlantic sea surface temperature (SST), known as the Atlantic Multidecadal Oscillation (AMO) which strongly impacts societally important quantities such as Atlantic hurricane activity and Sahel rainfall. The future evolution of the AMO is forecast using the AMOC reconstructed up to 2010. The present warm phase of the AMO is predicted to continue until the end of the next decade, but with a negative tendency.

In den Highlights der Studie schreiben die Autoren:

North Atlantic sea surface temperature will stay anomalously warm until about 2030.

Sie hätten aber auch schreiben können:

Ab etwa 2030 wird sich der Nordatlantik spürbar abkühlen

Wie die AMO genau funktioniert inklusive grundsätzlicher Fragen wie Henne oder Ei, ist noch immer ungeklärt. Die Modellierer stehen im Regen, können die Zyklik nicht robust nachbilden. Peinlich. In der Fachwelt ist eine kontroverse Diskussion entbrannt. Beispiel Amy Clement und Kollegen im Oktober 2015 in Science:

The Atlantic Multidecadal Oscillation without a role for ocean circulation
The Atlantic Multidecadal Oscillation (AMO) is a major mode of climate variability with important societal impacts. Most previous explanations identify the driver of the AMO as the ocean circulation, specifically the Atlantic Meridional Overturning Circulation (AMOC). Here we show that the main features of the observed AMO are reproduced in models where the ocean heat transport is prescribed and thus cannot be the driver. Allowing the ocean circulation to interact with the atmosphere does not significantly alter the characteristics of the AMO in the current generation of climate models. These results suggest that the AMO is the response to stochastic forcing from the mid-latitude atmospheric circulation, with thermal coupling playing a role in the tropics. In this view, the AMOC and other ocean circulation changes would be largely a response to, not a cause of, the AMO.

Significance:

Ocean circulation changes not needed
What causes the pattern of sea surface temperature change that is seen in the North Atlantic Ocean? This naturally occurring quasi-cyclical variation, known as the Atlantic Multidecadal Oscillation (AMO), affects weather and climate. Some have suggested that the AMO is a consequence of variable large-scale ocean circulation. Clement et al. suggest otherwise. They find that the pattern of AMO variability can be produced in a model that does not include ocean circulation changes, but only the effects of changes in air temperatures and winds.

Hier die dazugehörige Pressemitteilung der University of Miami Rosenstiel School of Marine & Atmospheric Science vom 15. Oktober 2015:

New Study Questions Long-Held Theories of Climate Variability in the North Atlantic

UM Rosenstiel School researchers suggest atmosphere drives decades-long climate variations.

A University of Miami (UM) Rosenstiel School of Marine and Atmospheric-led study challenges the prevailing wisdom by identifying the atmosphere as the driver of a decades-long climate variation known as the Atlantic Multi-decadal Oscillation (AMO). The findings offer new insight on the causes and predictability of natural climate variations, which are known to cause wide-ranging global weather impacts, including increased rainfall, drought, and greater hurricane frequency in many parts of the Atlantic basin. (weiterlesen …)

Unerwarteter Wirkungsverlust: Staub reduziert solare Energieausbeute in einigen Regionen um mehr als 25%

Kostenlose Energie von der Sonne. Das stimmt, aber nur zur Hälfte. Denn um die kostenlose solare Energie einzufangen, braucht man Solarpanele – und natürlich reichlich Raum um diese aufzustellen. Ungenutzte Dächer bieten sich dazu an. Allerdings werden Solaranlagen zunehmend auf fruchtbarem Ackerland und anderen hochwertigen Flächen aufgestellt. Die Subventionspolitik treibt seltsam Blüten. Es soll sogar einige Solarfarmer geben, die ihre Zellen nachts mit Strom aus der Steckdose bescheinen, um den subventionierten “Solarstrom” auch nachts zu Höchstpreisen einzuspeisen.

Wo viel Geld im Spiel ist, dort gibt es Lobbyisten. Skeptiker werden kurzerhand kaltgestellt, entweder durch persönliche Attacken oder Fördermittelentzug. Das Carolina Journal berichtete am 25. Juli 2017 über einen krassen Fall des SolarLobby-Mobbings:

N.C. State researchers say solar lobby silencing them
Heiniger and Eckerlin removed from government-sponsored forums when they questioned effects of large solar facilities on farmland

Ron Heiniger just wanted to be a farmer. He encouraged research to avoid solar industry encroachment on North Carolina’s prime farmlands. But because of his academic study, the respected crop and soil scientist has become an unwilling poster child for anti-solar activists, vilified by the solar lobby, and chastened by his employer, N.C. State University. “I’ve been called crazy. I’ve been threatened. My job’s been threatened. I really don’t want to advertise my issue very much anymore,” said Heiniger, who works at the Vernon G. James Research and Extension Center in Plymouth.

Weiterlesen im Carolina Journal

Halten die Solarpanele eigentlich ewig? Antwort: Nein! Mittel- bis langfristig droht uns daher eine riesige Solarmüll-Lawine zu erschlagen, wie The Energy Collective am 28. Juni 2017 zu bedenken gab:

Are We Headed for a Solar Waste Crisis?

Last November, Japan’s Environment Ministry issued a stark warning: the amount of solar panel waste Japan produces every year will rise from 10,000 to 800,000 tons by 2040, and the nation has no plan for safely disposing of it. Neither does California, a world leader in deploying solar panels. Only Europe requires solar panel makers to collect and dispose of solar waste at the end of their lives. All of which begs the question: just how big of a problem is solar waste? Environmental Progress investigated the problem to see how the problem compared to the much more high-profile issue of nuclear waste. We found:

  • Solar panels create 300 times more toxic waste per unit of energy than do nuclear power plants.
  • If solar and nuclear produce the same amount of electricity over the next 25 years that nuclear produced in 2016, and the wastes are stacked on football fields, the nuclear waste would reach the height of the Leaning Tower of Pisa (52 meters), while the solar waste would reach the height of two Mt. Everests (16 km).
  • In countries like China, India, and Ghana, communities living near e-waste dumps often burn the waste in order to salvage the valuable copper wires for resale. Since this process requires burning off the plastic, the resulting smoke contains toxic fumes that are carcinogenic and teratogenic (birth defect-causing) when inhaled.

Weiterlesen auf The Energy Collective

Solaranlagen rentieren sich vor allem in warmen, heißen Gebieten, z.B. in Wüsten bzw. wüstenartigen Gegenden. Genau dort gibt es aber auch schlimme Staubstürme. Der Staub lagert sich auch auf den Solaranlagen ab. Duke University konnte nun in einer Studie zeigen, dass die Staubverunreinigungen in manchen Gegenden der Erde die elektrische Ausbeute der Solaranlagen um zum Teil mehr als 25% herabsetzen:

Air Pollution Casts Shadow over Solar Energy Production

First study of its kind shows airborne particles and their accumulation on solar cells is cutting energy output by more than 25 percent in certain parts of the world. Global solar energy production is taking a major hit due to air pollution and dust.

According to a new study, airborne particles and their accumulation on solar cells are cutting energy output by more than 25 percent in certain parts of the world. The regions hardest hit are also those investing the most in solar energy installations: China, India and the Arabian Peninsula. The study appears online June 23 in Environmental Science & Technology Letters. “My colleagues in India were showing off some of their rooftop solar installations, and I was blown away by how dirty the panels were,” said Michael Bergin, professor of civil and environmental engineering at Duke University and lead author of the study. “I thought the dirt had to affect their efficiencies, but there weren’t any studies out there estimating the losses. So we put together a comprehensive model to do just that.”

With colleagues at the Indian Institute of Technology-Gandhinagar and the University of Wisconsin at Madison, Bergin measured the decrease in solar energy gathered by the IITGN’s solar panels as they became dirtier over time. The data showed a 50-percent jump in efficiency each time the panels were cleaned after being left alone for several weeks. The researchers also sampled the grime to analyze its composition, revealing that 92 percent was dust while the remaining fraction was composed of carbon and ion pollutants from human activity. While this may sound like a small amount, light is blocked more efficiently by smaller man-made particles than by natural dust. As a result, the human contributions to energy loss are much greater than those from dust, making the two sources roughly equal antagonists in this case.

“The manmade particles are also small and sticky, making them much more difficult to clean off,” said Bergin. “You might think you could just clean the solar panels more often, but the more you clean them, the higher your risk of damaging them.” Having previously analyzed pollutants discoloring India’s Taj Mahal, Bergin already had a good idea of how these different particles react to sunlight. Using his earlier work as a base, he created an equation that accurately estimates the amount of sunlight blocked by different compositions of solar panel dust and pollution buildup. But grimy buildup on solar panels isn’t the only thing blocking sunlight—the ambient particles in the air also have a screening effect. For that half of the sun-blocking equation, Bergin turned to Drew Shindell, professor of climate sciences at Duke and an expert in using the NASA GISS Global Climate Model.

Because the climate model already accounts for the amount of the sun’s energy blocked by different types of airborne particles, it was not a stretch to estimate the particles’ effects on solar energy. The NASA model also estimates the amount of particulate matter deposited on surfaces worldwide, providing a basis for Bergin’s equation to calculate how much sunlight would be blocked by accumulated dust and pollution. The resulting calculations estimate the total loss of solar energy production in every part of the world. While the United States has relatively little migratory dust, more arid regions such as the Arabian Peninsula, Northern India and Eastern China are looking at heavy losses — 17 to 25 percent or more, assuming monthly cleanings. If cleanings take place every two months, those numbers jump to 25 or 35 percent.

There are, of course, multiple variables that affect solar power production both on a local and regional level. For example, a large construction zone can cause a swift buildup of dust on a nearby solar array. The Arabian Peninsula loses much more solar power to dust than it does manmade pollutants, Bergin said. But the reverse is true for regions of China, and regions of India are not far behind. “China is already looking at tens of billions of dollars being lost each year, with more than 80 percent of that coming from losses due to pollution,” said Bergin. “With the explosion of renewables taking place in China and their recent commitment to expanding their solar power capacity, that number is only going to go up.” “We always knew these pollutants were bad for human health and climate change, but now we’ve shown how bad they are for solar energy as well,” continued Bergin. “It’s yet another reason for policymakers worldwide to adopt emissions controls.” This work was supported by the US Agency for International Development and the Office of the Vice Provost for Research at Duke University.

“Large reductions in solar energy production due to dust and particulate air pollution,” Mike Bergin, Chinmay Ghoroi, Deepa Dixit, Jamie Schauer, Drew Shindell. Environmental Science & Technology Letters, June 26, 2017. DOI: 10.1021/acs.estlett.7b00197

Zum Abschluss wieder eine gute Nachricht. Die FAZ berichtete am 21. Juni 2017 über frische Ideen in der Energiespeicherung:

Friesische Salzkavernen werden zu Batterien
Die Achillesferse der Energiewende sind fehlende Stromspeicher. Doch in Ostfriesland hat man nun eine Lösung gefunden. Dort soll „die größte Batterie der Welt“ entstehen.

Weiterlesen in der FAZ

 

Tank oder Teller? Biotreibstoffe unter Beschuss

Elektoautos sind groß in Mode. Der Fahrer eines solchen wird als ökologisch und moralisch hochstehend behandelt. Ach, könnten wir doch alle so fortschrittlich und weitblickend wie E-Auto-Fahrer sein. Wie so oft klaffen jedoch Wahrnehmung und Wirklichkeit weit auseinander. Wussten Sie, dass das für die Batterien so wichtige Kobalt in kongolesischen Minen unter oft menschenunwürdigen Bedingungen, zum Teil durch Kinderarbeit gewonnen wird? Elektromobilität powered by child labour? Klingt plötzlich gar nicht mehr so gut. Zudem zeigten ökologische Gesamtberechnungen, dass die Gesamt-CO2-Bilanz von Elektroautos gar nicht so beeindruckend aussieht wie lange gedacht. Es dauert viele tausende von Kilometern, bis die E-Kutschen mit den Benzinern gleichziehen. So muss ein Tesla offenbar 8 Jahre fahren, um Emissionvorteile gegenüber herkömmlichen Autos zu erzielen.

Außerdem hängt der CO2-Fussabruck auch stark vom Energiemix des jeweiligen Landes ab. In Deutschland wird noch immer ein großer Teil der Elektrizität von Kohlekraftwerken produziert, die mehr CO2 ausstoßen als die Benzinmotoren. Elektromobilität powered by coal? Nur mit rosaroter Brille und Scheuklappen kann man sich die E-Autos richtig schön reden. Wer alle Faktoren einbezieht, erkennt schnell die dunklen Flecken auf der E-Autoweste, die politisch gerne totgeschwiegen werden.

Bei den Biotriebstoffen ist schon länger bekannt, dass sie keine bedeutenden CO2-Einsparungen bringen. Der Anbau der Energiepflanzen in Monokulturen bringt jedoch große Probleme für Flora und Fauna, wie die Deutsche Wildtierstiftung am 14. August 2017 per Pressemitteilung bekanntgab:

Das Verschwinden der Schmetterlinge

Der Statusbericht “Das Verschwinden der Schmetterlinge” des renommierten Biologen Professor Dr. rer nat. Josef H. Reichholf hat erschreckende Erkenntnisse gebracht: Der Rückgang der Populationen ist bundesweit dramatisch – das stille Sterben schreitet ungebremst voran. Am 21. August, um 10 Uhr, erfahren Sie im Veranstaltungsraum “High End” des Radisson Blue Hotel, Marseiller Str. 2, 20355 Hamburg (gleich neben dem Bahnhof Dammtor) die Ergebnisse der Forschungsarbeit zu Schmetterlingen in Deutschland. Zu dem Thema hat die Deutsche Wildtier Stiftung begleitend bei dem Institut für Demoskopie Allensbach eine repräsentative Umfrage zu Schmetterlingen in Auftrag gegeben. Auf der Pressekonferenz werden die Ergebnisse der Allensbach-Umfrage vorgestellt. Gibt es Rettung für die Schmetterlinge und was ist zu tun? Die Deutsche Wildtier Stiftung stellt zum Abschluss vor, welche Konsequenzen zu ziehen sind und was sich in urbanen und ländlichen Räumen ändern muss.

Siehe auch Artikel in der Zeit. und auf t-online.

Was wir schon immer geahnt haben: Getreide sollte lieber auf dem Teller anstatt im Tank landen. Zu diesem Ergebnis kam jetzt auch die University of Illinois:

Corn better used as food than biofuel, study finds

Corn is grown not only for food, it is also an important renewable energy source. Renewable biofuels can come with hidden economic and environmental issues, and the question of whether corn is better utilized as food or as a biofuel has persisted since ethanol came into use. For the first time, researchers at the University of Illinois have quantified and compared these issues in terms of economics of the entire production system to determine if the benefits of biofuel corn outweigh the costs.

Civil and environmental engineering professor Praveen Kumar and graduate student Meredith Richardson published their findings in the journal Earth’s Future. As part of a National Science Foundation project that is studying the environmental impact of agriculture in the U.S., the Illinois group introduced a comprehensive view of the agricultural system, called critical zone services, to analyze crops’ impacts on the environment in monetary terms. “The critical zone is the permeable layer of the landscape near the surface that stretches from the top of the vegetation down to the groundwater,” Kumar said. “The human energy and resource input involved in agriculture production alters the composition of the critical zone, which we are able to convert into a social cost.”

To compare the energy efficiency and environmental impacts of corn production and processing for food and for biofuel, the researchers inventoried the resources required for corn production and processing, then determined the economic and environmental impact of using these resources – all defined in terms of energy available and expended, and normalized to cost in U.S. dollars. “There are a lot of abstract concepts to contend with when discussing human-induced effects in the critical zone in agricultural areas,” Richardson said. “We want to present it in a way that will show the equivalent dollar value of the human energy expended in agricultural production and how much we gain when corn is used as food versus biofuel.”

Kumar and Richardson accounted for numerous factors in their analysis, including assessing the energy required to prepare and maintain the landscape for agricultural production for corn and its conversion to biofuel. Then, they quantified the environmental benefits and impacts in terms of critical zone services, representing the effects on the atmosphere, water quality and corn’s societal value, both as food and fuel. In monetary terms, their results show that the net social and economic worth of food corn production in the U.S. is $1,492 per hectare, versus a $10 per hectare loss for biofuel corn production.

“One of the key factors lies in the soil,” Richardson said. The assessment considered both short-term and long-term effects, such as nutrients and carbon storage in the soil. “We found that most of the environmental impacts came from soil nutrient fluxes. Soil’s role is often overlooked in this type of assessment, and viewing the landscape as a critical zone forces us to include that,” Richardson said. “Using corn as a fuel source seems to be an easy path to renewable energy,” said Richard Yuretich, the NSF program director for Critical Zone Observatories. “However, this research shows that the environmental costs are much greater, and the benefits fewer, than using corn for food.” The National Science Foundation supported this research through the Grants for Intensively Managed Landscapes Critical Zone Observatory.

 

Dunkelflaute: Deutschlands teurer Energie-Irrweg

Die Energiewende läuft nicht rund. Daniel Wetzel zog Ende Juli 2017 in der Welt eine ernüchternde Zwischenbilanz:

Kurzschluss bei der Energiewende
Die Energiewende verändert Natur und Landschaft, verteilt Milliarden um und verheißt Rettung vor dem Klimawandel. Doch ein Blick auf das bislang Erreichte ernüchtert: Die zentralen Versprechungen der Ökostrom-Revolution wurden noch nicht eingelöst. Die Politik ist ratlos. Eine Zwischenbilanz.

Weiterlesen in der Welt

Bereits Mitte Mai 2017 warnte Otto Schily in der Basler Zeitung, es den Deutschen nachzutun:

«Energiepolitischer Fehler»

Otto Schily, der frühere deutsche Innenminister, warnt vor ökologischen und sozialen Folgen des Energiegesetzes.

Der Mann ist eigentlich ein Grüner. 1980 war Otto Schily einer der Gründer dieser neuen Partei in Deutschland. Später trat er in die SPD über und wurde deutscher Innenminister – und zwar genau dann, als Deutschland den Weg einschlug, über den in der Schweiz am Sonntag abgestimmt wird.

Umso erstaunlicher die Sätze, mit denen Schily nun in einem Brief an Christoph Blocher die deutsche Energiepolitik kritisiert. Die Energiewende hält er «sowohl unter wirtschaftlichen, finanziellen, ökologischen, sozialen und klimapolitischen Vorzeichen für ein Desaster». Er würde es bedauern, wenn die Schweiz am kommenden Sonntag für ein ähnliches Modell entscheiden würde.

Weiterlesen in der Basler Zeitung

Kritik am naiven hemischen Energieaktionismus auch am 26. Juni 2017 in der FAZ von Justus Haucap:

Deutschlands teurer Energie-Irrweg

Die milliardenschwere Förderung „grünen“ Stroms in Deutschland hat praktisch null Klimaschutzwirkung, führt aber zu einem gefährlich steigenden Strompreis.

Deutschland geht international einen energiepolitischen Sonderweg. Neben dem doch sehr abrupten Ausstieg aus der Kernenergie, den die Merkel-Regierung im Juni 2011 beschloss, wird der Ausbau der Stromerzeugung aus erneuerbaren Energien wie Sonne und Wind in einem Ausmaß finanziell gefördert wie in keinem anderen Land der Erde. Das reine Subventionsvolumen über das Erneuerbare-Energien-Gesetz (EEG) beträgt mittlerweile mehr als 25 Milliarden Euro im Jahr, also mehr als 300 Euro je Bürger jährlich.

Weiterlesen in der FAZ

Das Ausland beobachtet das deutsche Energieexperiment zunehmend amüsiert. Die Financial Times nennt das Grundproblem der Erneuerbaren Energien, nämlich die geringe Produktivität. Wenn man tausend Murmeln einen Berg hinaufbringen möchte, kann man sie entweder alle einzeln hinauftragen, oder sie in einem großen Eimer mit dem Auto hochfahren. Man hat stets die Wahl. Hier der FT-Artikel vom 9. Juli 2017:

A green economy is possible, but at what cost?
The problem with renewables lies not in capability, but in low productivity

Some US scientists have recently been conducting a rather heated argument about whether it is possible to have an economy that is powered 100 per cent by renewable (or non-fossil) energy sources. The answer, obviously, is yes. Such economies have previously existed, and not so very long ago. Go back to 17th century Europe, and pretty much all energy production centred on the cultivation of fields, management of woodland and animal husbandry. It meant that a great deal of physical land was needed to support a population a fraction of today’s global billions. The question is not so much whether you could recreate that sort of society. It is really whether you would want to, and that comes down to the issue of acceptable cost.

Weiterlesen in der Financial Times

Im Juni 2017 erschien von Frank Hennig ein neues Buch zur Energiewende: Dunkelflaute: oder Warum Energie sich nicht wenden lässt. Aus der Buchbeschreibung:

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Zunehmend gehen Bezeichnungen der allgemeinen Vergrünung in den Alltagsgebrauch über. Wissen wir immer, wie und worüber wir eigentlich reden? Wissen und Glauben bilden Denken und Meinung. Der Trend geht zum Glauben.

Frank Hennig greift Bezeichnungen auf und kommentiert – in nichtalphabetischer Reihenfolge. Locker lesbar, zuweilen zugespitzt und – zum Verdruss der Anhänger der Energiewendeprosa – angereichert und gut durchgeschüttelt mit Fakten, Daten und Zahlen. Eine kritische Auseinandersetzung mit oberflächlichem Schwarz-Weiß-Denken, unhaltbaren Visionen und Klimapopulismus. Technischphysikalisch fundiert nimmt er die Begriffe beim Wort und deckt auf, dass sie oft mehr verbergen als erklären – denn es geht längst nicht mehr um die Erzeugung alternativer, sanfter Energie, sondern um Wege, an die öffentlichen Subventionstöpfe und schließlich an die Portemonnaies der Verbraucher zu gelangen. Eine Anregung für mündige Bürger zum Mit- und Weiterdenken, für Energieinteressierte, aber auch alle anderen. Mit einem Beitrag des international renommierten Dirigenten und glühenden Umweltschützers Enoch zu Guttenberg.

 

Im Juni 2017 veröffentlichte die Denkfabrik ‚Agora Energiewende’ eine Studie zur Zukunft der Energiewende. Die Studie wurde in der Presse vielfach zitiert.Björn Peters befasste sich in seiner wöchentlichen Kolumne für den Deutschen Arbeitgeberverband mit der Studie. Dabei stellt er fest:

„dass viele grundlegende naturwissenschaftliche und technische Zusammenhänge sowie verfassungsrechtliche Problematiken weder erwähnt noch berücksichtigt werden.  Wir hätten uns von so renommierten Autoren mehr Mut gewünscht, die Voraussetzungen der Energiewende gründlicher zu hinterfragen und zu durchdenken.  Insofern ist die Agora-Studie als politischer Wegweiser gefährlich, kann sie doch trotz zahlreicher korrekter Beobachtungen und zielführender Einzelmaßnahmen insgesamt in die Irre führen.”

Björn Peters kompletten Beitrag können Sie hier lesen.

Peta Credlin holte die Träumer am 17. Juni 2017 in The Daily Telegraph auf den Boden der Wirklichkeit zurück: Erneuerbare Energie ist nicht billig, hier sollte man sich keine Illusionen machen:

Climate change zealots need to get real
WELL, now we know. The biggest deniers in the whole climate change debate are those who think we can have affordable power, lower emissions and a reliable network. We can’t.

Weiterlesen in The Daily Telegraph. Siehe auch Beitrag auf WUWT.

Deutschland spielt eine wichtige Rolle in der Welt. Trotzdem stellen wir nur 1% der Weltbevölkerung und sogar lediglich 2 Promille der Landoberfläche. Insofer ist es gewagt, die Probleme der Erde mit deutschen Alleingängen lösen zu wollen. Beispiel Kohlekraftwerke. Hier wird in Deutschland um jedes einzelne heftig gerungen. Wird der Planet wirklich besser, wenn wir ein weiteres Kraftwerk zuhause einstampfen, unter enormen Anstrengungen? Dazu sollten wir auf den weltweiten Kontext schauen. Derzeit befinden sich weltweit momentan 1600 Kohlekraftwerke im Bau oder in Planung. Die deutsche Kohlediskussion ist somit ein Tropfen auf den heißen Stein. Ein bisschen mehr Realismus und weniger Größenwahn könnten hier nicht schaden.

In den USA ist man sich der Probleme bewusst. Eine Studie der University of California San Diego erinnerte jetzt die Planer daran, dass eine Vollversorgung durch Erneuerbare Energien auf eine Vielzahl von Energieträger verteilt werden muss. Wind, Sonne und Wasser allein werden es nicht schaffen. Hier die Pressemitteilung der Uni vom 19. Juni 2017:

Fighting Global Warming and Climate Change Requires a Broad Energy Portfolio

Can the continental United States make a rapid, reliable and low-cost transition to an energy system that relies almost exclusively on wind, solar and hydroelectric power? While there is growing excitement for this vision, a new study in the Proceedings of the National Academy of Sciences (PNAS) by 21 of the nation’s leading energy experts, including David G. Victor and George R. Tynan from the University of California San Diego, describes a more complicated reality.

These researchers argue that achieving net-zero carbon emissions requires the incorporation of a much broader suite of energy sources and approaches.

The paper published by PNAS the week of June 19, 2017, with Christopher Clack as first author, provides a rigorous analysis that corrects a 2015 research roadmap indicating that the continental U.S. could be reliably powered at low cost, in as little as 35 to 40 years, relying on just solar, wind, and hydroelectric power. The researchers write that the conclusions in the 2015 paper are not supported by adequate and realistic analysis and do not provide a reliable guide to whether and at what cost such a transition might be achieved.

“Wind, solar and hydroelectric power can, and will, be important parts of any moves to decarbonize our energy system and therefore combat climate change, but given today’s technical challenges and infrastructure realities, renewables won’t be the only solution,” said Victor, an energy expert at the UC San Diego School of Global Policy and Strategy. (weiterlesen …)

Klimaspuren der Bäume: Strahlungsschwankungen der Sonne als Impulsgeber

Heute wollen wir Ihnen ein neues, spannendes Buch empfehlen. Burghart Schmidt und Wolfgang Gruhle sind Dendrochronologen, das heißt, sie rekonstruieren das Klima der letzten Jahrhunderte und Jahrtausende anhand von Baumringen. Dabei stießen sie offenbar auf interessante Klimamuster, die sich im Takte der Sonnenaktivität veränderten. Hochspannend. Das Buch “Klimaspuren der Bäume: Strahlungsschwankungen der Sonne als Impulsgeber” erschien im August 2017 im Nünnerich-Asmus Verlag. Einen Flyer zum Buch gibt es auf der Verlagswebseite (pdf). Dort können Sie es auch für € 24,90 online bestellen, oder natürlich bei Amazon. Hier die Buchbeschreibung:

Bäume lügen nicht – Ihre Berichte zum Klimawandel

Jahrringe von Bäumen als historisches Archiv zum Klimawandel

Den Klimawandel in den Jahrringen von Bäumen gelesen, haben die Autoren des Bandes „Klimaspuren der Bäume – Strahlungsschwankungen der Sonne als Impulsgeber“, Burghart  Schmidt und Wolfgang Gruhle.

Da die Jahrringe von Bäumen Ausdruck des lokalen und regionalen Klimageschehens sind, denn ihre Breite wird durch die jährlich unterschiedliche Witterung bestimmt, haben die beiden Autoren die Wuchsmuster von Bäumen in Europa, Amerika, Asien und Neuseeland erfasst und in einer Kurve über 8000 Jahre zurückverfolgt. Diese 8000-jährige Kurve weist ähnlich verlaufende Marker wie die Temperatur- und Niederschlagskurven sowie die Sonnenfleckendaten auf, und kann damit auch klimatisch interpretiert werden. Auf der Suche nach den Ursachen für die zeitlichen Schwankungen zwischen feuchten und trockenen Klimaphasen während der letzten 8000 Jahre fanden die Autoren die Strahlungsschwankungen der Sonne als Taktgeber.

 

 

Die dunkle Seite der Windkraft: Vogel-Massengrab, Rotorenschrott, fragwürdige nationale Alleingänge

Bereits vor einigen Jahrhunderten fingen die Menschen den Wind ein, um anstrengende Arbeitsgänge wie das Mahlen von Getreide oder das Schöpfen von Wasser aus tiefen Brunnen erledigen zu lassen. Später übernahmen vielseitiger einsetzbare Motoren die Arbeit dieser Windmühlen. In den letzten Jahren haben wir den Wind wiederentdeckt. Gerne erinnerten wir uns an die Vorteile dieses vermeintlich kostenlos aus der Luft zu erntenden Energieträgers. Es setzte eine enorme Entwicklung ein, wobei tausende Windkraftanlagen wie Spargel aus dem Boden schossen, mit freundlicher finanzieller Untertützung der Politik. Gerne verdrängte man die Nachteile des Energiesystems, an die man sich nicht mehr erinnerte, vielleicht nicht mehr erinnern wollte? Volatiliät, Flächenfraß, Anwohnerbelästigung, Gefahr für die Flugfauna.

Der VGB hat nun eine wichtige Übersicht zur Windkraft in Deutschland und Europa vorgelegt. Der VGB ist als internationaler Fachverband für die Erzeugung und Speicherung von Strom und Wärme eine non-profit-Organisation und ein freiwilliger Zusammenschluss von Unternehmen der Kraftwerksbetreiber und -hersteller. Thomas Linnemann und Guido Vallana beleuchteten darin Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität, sowie die Entwicklungen in Deutschland seit dem Jahr 2010. Hier die Zusammenfassung von der VGB-Webseite, wo auch das pdf des Komplettberichts abgerufen werden kann:

Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Eine wesentliche physikalische Eigenschaft der Windenergie ist ihre starke raumzeitliche Variation aufgrund der Fluktuationen der Windgeschwindigkeit. Meteorologisch betrachtet wird die aus Windenergieanlagen eingespeiste elektrische Leistung durch Wetterlagen mit typischen Korrelationslängen von mehreren hundert Kilometern bestimmt. Im Ergebnis ist die aufsummierte eingespeiste Leistung der europaweit über mehrere tausend Kilometer sowohl in Nord-Süd-als auch Ost-West-Richtung verteilten Windenergieanlagen hoch volatil, gekennzeichnet durch ein breites Leistungsspektrum.

Die intuitive Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, tritt allerdings nicht ein. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern auch für die große Leistungsspitzen und -minima zeigende Summenzeitreihe der Windstromproduktion 18 europäischer Länder. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der in den betrachteten 18 Ländern insgesamt installierten Nennleistung. Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Im derzeit in der Vorbereitung befindlichen Teil 2 der Studie wird die gesamteuropäische Situation analysiert.

Ein nüchterner Artikel, der die Windkraft in Deutschland in realistischer Weise darstellt: Windenergiekapazität 50 000 MW, gesicherte Leistung 100 MW. 37 mal im Jahr ist Dunkelflaute.

Die Gewinner der Windkraft sind klar: Die Besitzer und Investoren der Anlagen, die sich Bau und Betrieb fürstlich bezahlen lassen. Der Hinweis auf die große Bedeutung in der “ökologischen” Transformation erstickt jegliche Kritik im Keim. Aber wie ökologisch und naturnah ist diese Energiegewinnung wirklich? Einen Hinweis darauf finden wir in einer Pressemitteilung der Deutschen Wildtierstiftung vom 23. Juni 2017:

Neues Bundesnaturschutzgesetz legalisiert Tötung von Wildtieren
Deutsche Wildtier Stiftung kritisiert: Bauvorhaben und Windkraft stehen künftig über Artenschutz

Wenn Windkraftanlagen ohne Rücksicht auf geschützte Arten wie Fledermäuse und Rotmilan errichtet werden, kommen sie unter die Räder. Denn Natur- und Artenschutz stören häufig, wenn es um wirtschaftliche Interessen geht. Mit der gestern am späten Abend beschlossenen Änderung des Bundesnaturschutzgesetzes hat die Bundesregierung kurz vor der parlamentarischen Sommerpause Tatsachen geschaffen: Auf Betreiben des Bundesumweltministeriums wurde eine Neuregelung beschlossen, die bei Baumaßnahmen wie z.B. von Windkraftanlagen geltendes Gesetz zum Schutz von Arten aufweicht. Viele Arten stehen aufgrund der intensiven Landnutzung in Deutschland ohnehin schon enorm unter Druck – nun verschärft sich die Situation weiter. Tote Adler unter Windenergieanlagen, Feldhamster unter Beton eingeschlossen – in Zukunft kaum mehr ein Problem.

“Wie rücksichtlos diese Ziele verfolgt werden, zeigt die Neuregelung im Rahmen des Paragraph 44 des Bundesnaturschutzgesetzes: “Es wurde mit einem Federstrich gegen Natur- und Artenschutz entschieden”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Fakt ist: Es ist jetzt legal, wenn z.B. durch den Betrieb von Windkraftanlagen Wildtiere getötet werden! Besonders der neue Ausdruck der “Signifikanz” ist problematisch. Erst ab dieser undefinierten Schwelle soll das bisherige Tötungsverbot wirken. Doch wer entscheidet, wie viele tote Tiere signifikant sind? Das geltende EU-Recht für geschützte Arten kennt diesen Begriff ebenfalls nicht.

“Im Interesse der Windkraftlobby setzen sich Bundesregierung und Bundestag mit dieser Entscheidung über das Tötungs- und Verletzungsverbot von Wildtieren hinweg”, bedauert Professor Dr. Vahrenholt. Über 25.000 Windenergieanlagen drehen mittlerweile in Deutschland ihre Rotoren. Der Raum wird knapp. Besonders im windarmen Süden Deutschlands werden die Anlagen daher zunehmend auch in Wäldern gebaut, wo der ökologische Schaden oft beträchtlich ist. Der Tod von Schwarzstorch, Wespenbussard und seltenen Fledermäusen wird nun als unvermeidbar dargestellt und damit quasi legalisiert.

“Wir können nur hoffen, dass dieser ungeheuerliche Angriff auf den Naturschutz in der nächsten Legislaturperiode wieder rückgängig gemacht wird und protestieren aufs Schärfste”, sagt Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung.

Die Änderung des Naturschutzgesetzes im Wortlaut

“….Zudem kann auch für Vorhaben privater Träger die Ausnahmevorschrift des § 45 Absatz 7 Satz 1 Nummer 5 in Anspruch genommen werden, wenn zugleich hinreichend gewichtige öffentliche Belange ihre Realisierung erfordern. Zu diesen Belangen gehört der Ausbau der Erneuerbaren Energien.”

Siehe auch Beitrag von Dirk Maxeiner auf achgut.com “Die große Koalition macht Tiere töten leicht” (englisch hier). Im August 2017 veröffentlichte Fritz Vahrenholt dazu auch in der Welt einen Beitrag:

Tierschützer warnt: Bis kein Storch mehr fliegt

Tausende Vögel werden Opfer von Windrädern. Investoren zerstören sogar Nester geschützter Arten, die dem Geschäft im Wege stehen. Dagegen hilft ein Mittel, das schon gegen die Mafia erfolgreich war.

Die Entwicklung der Artenvielfalt in Deutschland hat in den letzten Jahrzehnten gezeigt, dass Tiere, die durch Jagd und industrielle Verschmutzung bedroht waren, zurückkehren. Jagdverbote und der Umweltschutz zeigen Erfolg. Zu diesen Rückkehrern gehören viele prominente Vogelarten: Seeadler, Fischadler, Wanderfalke, Uhu, Schwarzstorch, Kranich.

Jetzt droht diese positive Tendenz bei den Greifvögeln wieder zu kippen. Schuld daran ist das Ausufern der Energiewende in die größte Landschaftsveränderung seit dem Zweiten Weltkrieg. Greifvögel geraten in die Zange von 28.000 Windkraftanlagen, davon mittlerweile 1200 in Wäldern. Mais-Monokulturen wachsen auf 2,5 Millionen Hektar, einer Fläche so groß wie Sizilien.

Weiterlesen in der Welt.

Die Freie Welt griff das Thema am 9. August 2017 auf:

Schattenseite der Ökopolitik: Windkraft wird zunehmend zum Massengrab beliebter Vogelarten

Die Umweltpolitik der Grünen erweist sich als ökonomisches und paradoxerweise auch als ökologisches Desaster

Eine Partei, die in den 80er-Jahren angetreten war, um die Natur zu retten, wandelte sich zur Sachwalterin großflächiger Naturzerstörung“, heißt es zusammenfassend in einem Artikel von Fritz Vahrenholt, der in der ‘Welt’ unter dem Titel: „Bis kein Storch mehr fliegt“ erschienen ist.

Prof. Dr. Fritz Vahrenholt war einst Umweltsenator in Hamburg und hatte mit ‚Seveso ist überall’ eines der wirkmächtigsten Bücher der damals neu aufkommenden Umweltbewegung geschrieben. Nun warnt er eindringlich vor einem massiven Vogelsterben durch einen weiteren Ausbau der Windenergie und berichtet von zunehmendem Widerstand.

Weiterlesen in der Freien Welt

Kenneth Richard besprach auf Notrickszone zwei neue Papers, die das Müllproblem ausgedienter Altanlagen analysieren:

Unsustainable: 43 Million Tonnes Of Wind Turbine Blade Waste By 2050
Despite an explosion in installed wind capacity since 1990, wind power had achieved just 0.39%of the world’s total energy consumption as of 2013. Germany has assumed a leading role in promoting the consumption of renewable energy.  And yet even in Germany the share of energy consumption from wind power reached only 2.1% in 2016. Despite its extremely limited infiltration as a world energy source, it is assumed that a rapid expansion of wind power will ultimately be environmentally advantageous both due to its reputation as a “clean” energy and because of the potential to contribute to reduced CO2 emissions. Recently, however, the austere environmental impacts and health risks associated with expanding wind energy have received more attention. For example, scientists have asserted that wind turbines are now the leading cause of multiple mortality events in bats, with 3 to 5 million bats killed by wind turbines every year.   Migratory bats in North America may face the risk of extinction in the next few decades due to wind turbine-related fatalities.

Zitate aus Ramirez-Tejeda et al. (2017):

“If the industry cannot come up with more sustainable manufacturing and disposal processes, public acceptance of wind energy would decline if the public becomes aware of these issues”

Ganzen Artikel auf Notrickszone lesen.

Die Volatiliät ist ein großes Problem der Windkraft. Nationale Alleingänge machen dabei wenig Sinn, fand eine Studie der ETH Zürich vom 17. Juli 2017 (Pressemitteilung):

Einseitige Planung verschärft Schwankungen

Würden die Länder Europas bei der Windenergie besser zusammenarbeiten, würde die Windstromproduktion weniger stark schwanken. Das sagt eine Gruppe von Energie- und Klimaforschern der ETH Zürich und des Imperial College London, die für Europa erstmals Grosswetterlagen mit Stromproduktionszahlen kombiniert untersuchten.

Der Ausbau erneuerbarer Energien steht wegen der wetterabhängigen Stromproduktion massiv in der Kritik. Eine neue Studie zeigt, dass das weniger am Wetter als an mangelnder Berücksichtigung der gesamteuropäischen Wetterverhältnisse in der Planung liegt. Denn etliche Länder Europas folgen für den Ausbau der Windenergiekapazitäten einseitig ihren nationalen Strategien, ohne über ihren eigenen Gartenzaun zu schauen.

Besser wäre es aber, die Länder würden zusammenarbeiten und auch den Ausbau der Kapazitäten in anderen Regionen Europas fördern, wo Windkraft derzeit kaum genutzt wird. Denn nur so liessen sich die extremen Schwankungen, die heute aufgrund der wechselnden Wetterverhältnisse in der Windstromproduktion auftreten, auf einem vergleichsweise tiefen Niveau halten. Zu diesem Schluss kommt eine Gruppe von Klima- und Energieforschern der ETH Zürich und des Imperial College London in ihrer neusten Studie, die soeben in der Fachzeitschrift «Nature Climate Change» erschienen ist. (weiterlesen …)

Klima gefährdet Schneeleoparden – seit vielen Jahrtausenden

Rührende Tiergeschichte am 27. August 2017 auf heute.de, basierend auf einem von Adriane Lochner (dpa) angelieferten Text:

Konferenz in Kirgistan: Klima gefährdet Schneeleoparden

Der Klimawandel gefährde den Schneeleopard, und die gesamte Menschheit gefährde das Klima. Wir alle sind schuldig. Es gäbe nur eine Lösung aller Probleme: Das Pariser Klimaabkommen:

“Heute sind es nicht mehr einzelne Individuen, die die größte Gefahr für den Schneeleoparden darstellen, sondern die gesamte Menschheit“, sagte Matthias Fiechter vom Snow Leopard Trust (SLT), einer Nichtregierungsorganisation aus den USA. Auf der Liste der Bedrohungen sei die Wilderei nach unten gerückt, oben stehe nun die Zerstörung der Lebensräume durch Überweidung, Umweltverschmutzung, Bergbau und vor allem durch den Klimawandel. Denn Hochgebirge wie etwa Himalaya, Karakorum oder Pamir reagierten besonders empfindlich auf die Erderwärmung, erläutert Ryan Bartlett, Klimaexperte beim World Wide Fund for Nature (WWF). Gletscher ziehen sich rasch zurück, saisonabhängige Niederschlagsmuster verschieben sich. [...] Bartlett zufolge lässt sich das Problem langfristig nur lösen, wenn sich die gesamte Welt an das Klimaabkommen von Paris hält – jenen Vertrag, aus dem die USA gerade ausgestiegen sind.

Ganzen Artikel auf heute.de lesen.

Der Heute/dpa-Beitrag lässt keinen Zweifel daran, dass der Klimawandel Hauptschuldiger an der Misere sei. Es werden Gletscherschwund und Veränderungen in den Niederschlägen angeführt. Es fällt allerdings auf, dass nur Aktivistengruppierungen zitiert werden. Wissenschaftler wurden offenbar nicht befragt, was stutzig macht. Wie robust sind die Fakten in diesem Artikel wirklich? Wir machen uns auf wissenschaftliche Spurensuche. Wichtigste Frage: Wie hat sich das Klima im Verbreitungsgebiet des Schneeleoparden (Kirgisistan, Afghanistan, China, Indien, Nepal, Pakistan, Russland) in den letzten 150 Jahren entwickelt und wie stellt sich dieser moderne Klimawandel im Lichte des vorindustriellen Kontext der letzten Jahrtausende dar?

Kirgisistan liegt im Hochgebirge des Tianshans-Gebirges. Teile Tadschikistans befinden sich im Pamir-Gebirge. Die Gletscher der beiden Gebirge waren dabei stets starken natürlichen Schwankungen ausgesetzt. Diese Schwankungen wurden offenbar von Sonnenaktivitätsänderungen ausgelöst, wie wir bereits im Mai 2012 an dieser Stelle berichteten:

Oasen der chinesischen Taklamakan-Wüste erblühten im Takt der solaren Millenniumszyklen

Die Taklamakan-Wüste ist nach der Rub el-Khali Wüste in Saudi Arabien die zweitgrößte Sandwüste der Erde. Ein chinesisch-australisches Forscherteam um Keliang Zhao von der chinesischen Akademie der Wissenschaften in Peking untersuchte nun ein Bodenprofil einer Oase am Rand der Taklamakan-Wüste, anhand dessen sie auf Basis von Pollen die Klimageschichte der vergangenen 4000 Jahre rekonstruierten. Die Wissenschaftler veröffentlichten ihre Ergebnisse Im März 2012 in der Fachzeitschrift Palaeogeography, Palaeoclimatology, Palaeoecology.

Die Taklamakan-Wüste ist von hohen Gebirgszügen umgeben, darunter der Tienshan, der Pamir und das Kunlun Gebirge. Die Taklamakan-Oasen reagieren äußerst sensibel auf Klimaschwankungen, da sie ihr Wasser aus den umliegenden Bergregionen beziehen, sowohl durch Grundwasser- als auch Oberflächenwasser-Zufluss. Schwankungen in der Wasser-Zufuhr machen sich umgehend in der immer durstigen Oasenvegetation bemerkbar, deren Pollen die Forscher untersuchten.

Für ihre Untersuchung legten Zhao und Kollegen ein 8,50 m tiefes Profil der Sedimentablagerungen in einer Oase frei. Die Sedimente bestanden aus Schmelzwassersanden sowie Windablagerungen. Insgesamt analysierten die Forscher die Pollenzusammensetzung von 105 Proben, die sie im Abstand von 5-10 cm entlang des Bodenprofils nahmen. Anhand der Pollen rekonstruierten sie die Entwicklung der Feuchtigkeit und Vegetationsdichte der letzten 4000 Jahre in der Oase.

Die Forscher fanden drei Zeitabschnitte, in denen die Oase bei feuchteren klimatischen Bedingungen wuchs und gedieh: Diese Zeiten ereigneten sich 4000-2620 Jahre vor heute, 1750–1260 Jahre vor heute und 550-390 Jahre vor heute (Abbildung 1). Diese fallen interessanterweise genau mit Kaltphasen im Nordatlantik zusammen, wie sie von Bond et al. (2001) beschrieben wurden, den sogenannten Bond-Zyklen. Gerard Bond konnte damals zeigen, dass sich die nordatlantischen Kaltphasen zu Zeiten geringerer Sonnenaktivität ereigneten, also durch solar Aktivitätsschwankungen verursacht worden sind. Im chinesischen Untersuchungsgebiet äußerten sich die solaren Schwächephasen jeweils als Feuchtperiode. Die letzte Feuchtphase entspricht dabei der Kleinen Eiszeit. Während eines Großteils der Mittelalterlichen Wärmeperiode hingegen herrschten warme, trockene Bedingungen. 

Das Forscherteam vermutet, dass während der nassen Phasen die feuchtigkeitsbringenden Westwinde nach Süden in Richtung Untersuchungsgebiet verlagert und damit verstärkt hätten. Dies hätte dann zu vermehrten Niederschlägen in Form von Schneefall in den umliegenden Gebirgszügen geführt. Die Gebirgsgletscher haben sich durch die höheren Schneemengen und globale Abkühlung ausgedehnt. Entsprechend hätte sich zu diesen Zeiten auch die sommerliche Schmelzwasserzufuhr in Richtung Taklamakan-Oasen verstärkt, was dann die Feuchtphasen ausgelöst hätte. Die Westwinde in der Region beziehen ihre Feuchtigkeit vor allem aus dem Atlantik, Mittelmeer, Schwarzen Meer und dem Kaspischen Meer.

Die natürliche Klimadynamik ist Adriane Lochner offenbar gar nicht bekannt. Zwischenzeitlich hat auch unser Kartierprojekt zur Mittelalterlichen Wärmeperiode (MWP) gute Fortschritte gemacht. Die Klimageschichte Kirgisistans wurde von einer ganzen Reihe von Studien beackert, die charakteristische natürliche Klimamuster in vorindustrieller Zeit zeigt (Abb. 1).

Abb. 1:Klimarekonstruktionen aus Kirgisistan. Klick auf die Studienpunkte öffnet ein Datenblatt zur jeweiligenm Studie. Rote Punkte zeigen Klimaerwärmung vor 1000 Jahren an, blau=Abkühlung, grün=feuchter, gelb=trockener. Quelle: MWP-Projekt

 

Wir wollen nur einmal eine Studie herausgreifen. Eine Gruppe um Jan Esper untersuchte Baumringe in der Region und fand ein warmes Mittelalter (7501270 n.Chr.), gefolgt von einer kalten Kleinen Eiszeit und der nachfolgenden modernen Wiedererwärmung auf ähnliche Werte wie vor 1000 Jahren (Abb. 2).

Abb. 2: Klimarekonstruktion aus dem Tien Shan (Kirgisistan) und Karakorum (Pakistan) auf Basis von Baumringen. Ausschlag nach oben in blauer Kurve (a) entspricht Erwärmung, Ausschlag nach unten Abkühlung. Quelle: Esper et al. 2007.  

 

Weshalb verschweigen Adriane Lochner und die Schneeleoparden-Aktivisten diesen wichtigen Kontext? Offensichtlich hatte der Schneeleopard stetst mit Klimaschwankungen zu kämpfen. Das heutige Geschehen reiht sich dabei nahtlos in die Klimageschichte der letzten Jahrtausende ein. Der Bereich der Schwankungsbreite der natürlichen Klimavariabilität ist noch immer nicht verlassen. Alarmisische Ansätze sind daher unangebracht, vielmehr werden pragmatische und realistische Ansätze benötigt.

Mit wenigen Google-Klicks findet sich ein Profil von Frau Lochner, die als freie Journalistin durch die Weltgeschichte reist. Angesichts der Nähe zu Aktivistengruppen im besprochenen Artikel wundert es kaum, dass sie als Biologin über Biotreibstoffe promoviert hat. Damit ist sie fest auf der Seite der Energiewendenfürsprecher verankert, die an einer dramatischen Darstellung des Klimawandels höchstes Interesse hat. Eine neutrale und ausgewogene Berichterstattung zum Thema Klima ist daher von Adriane Lochner nicht zu erwarten, da persönliche Interessenskonflikte nicht ausgeschlossen werden können.

 

China: Wärmephase des 20. Jahrhunderts war im Kontext der letzten 2000 Jahre nicht einzigartig

Fast wöchentlich erscheinen neue Arbeiten zur Klimageschichte Chinas. Dabei wird stets klar, dass das Klima der letzten Jahrhunderte und Jahrtausende bedeutenden natürlichen Schwankungen unterworfen war. Am 8. August 2017 gab die Chinesische Akademie der Wissenschaften nun eine bemerkenswerte Pressemitteilung heraus. Die wichtigste Nachricht steckten die Forscher gleich in die Überschrift: Das warme Klima der letzten Jahrzehnte stellt im Kontext der letzten 2000 Jahre in China keinen Einzelfall dar. Bereits in vorindustrieller Zeit konnten die Wissenschaftler ähnlich warme Phasen ausmachen:

Warm Periods in the 20th Century Not Unprecedented during the Last 2000 Years

A great deal of evidence relating to ancient climate variation is preserved in proxy data such as tree rings, lake sediments, ice cores, stalagmites, corals and historical documents, and these sources carry great significance in evaluating the 20th century warming in the context of the last two millennia.

Prof. GE Quansheng and his group from the Institute of Geographic Sciences and Natural Resources Research of the Chinese Academy of Sciences, collected a large number of proxies and reconstructed a 2000-year temperature series in China with a 10-year resolution, enabling them to quantitatively reveal the characteristics of temperature change in China over a common era.

“We found four warm epochs, which were AD 1 to AD 200, AD 550 to AD 760, AD 950 to AD 1300, and the 20th century. Cold periods occurred between AD 210 and AD 350, AD 420 and AD 530, AD 780 and AD 940, and AD 1320 and AD 1900. The temperature amplitude between the warmest and coldest decades was 1.3°C,” said Prof. GE.

The team found that the most rapid warming in China occurred over AD 1870–2000, at a rate of 0.56 ± 0.42°C (100 yr)−1; however, temperatures recorded in the 20th century may not be unprecedented in the last 2000 years, as reconstruction showed records for the period from 981 to 1100, and again from 1201 to 1270, were comparable to those of the present warm period, but with an uncertainty of ±0.28°C to ±0.42°C at the 95% confidence interval. Since 1000 CE—the period covering the Medieval Climate Anomaly, Little Ice Age, and the present warm period—temperature variations over China have typically been in phase with those of the Northern Hemisphere as a whole.

They also detected some interactions between temperature variation and precipitation change. The ensemble means of dryness/wetness spatial patterns in eastern China across all centennial warm periods illustrate a tripole pattern: dry south of 25°N; wet from 25°–30°N; and dry to the north of 30°N. For all cold periods, the ensemble mean drought/flood spatial patterns showed an east to west distribution, with flooding east of 115°E and drought dominant west of 115°E, with the exception of flooding between approximately110°E and 105°E.

The general characteristics of the impacts of climatic change historically were negative in the cold periods and positive in the warm periods. For example, 25 of the 31 most prosperous periods in imperial China during the past 2000 years occurred during periods of warmth or warming. A cooling trend at the centennial scale and social economic decline run hand-in-hand. The rapid development supported by better resources and a better environment in warm periods could lead to an increase in social vulnerability when the climate turns once more to being relatively colder.

“Throughout China’s history,” Prof. GE added, “both rulers and the ruled have adopted strategies and policies to cope with climate change, as permitted by the prevailing geography and circumstances of the time.”

Figure: 2000-year temperature reconstruction in China (Image by GE Quansheng)

 

Schweizer Forscher: Sinkende Sonnenstrahlung könnte die Klimaerwärmung um bis zu 0,5°C abschwächen

Ist die Sonne klimatisch doch potenter als lange angenommen? Laut Werner Schmutz, dem Direktor des Physikalisch-Meteorologischen Observatoriums Davos, könnte sinkende Sonnenstrahlung die Klimaerwärmung um bis zu 0,5 Grad Celsius abschwächen. Schauen Sie selbst den 3SAT-nano-Bericht “Sonne zur Abkühlung”.

———————–

Bereits im November 2015 erschien in Earth Science Reviews ein interessantes Paper von Willie Soon und Kollegen, in dem die wissenschaftliche Kontroverse des solaren Klimaeinflusses diskutiert wird. Dabei erklären die Autoren, dass wichtige solare Datensätze ignoriert wurden, die eine ziemlich gute Übereinstimmung zur Temperaturentwicklung zeigen.

Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19th century

Debate over what influence (if any) solar variability has had on surface air temperature trends since the 19th century has been controversial. In this paper, we consider two factors which may have contributed to this controversy:

1. Several different solar variability datasets exist. While each of these datasets is constructed on plausible grounds, they often imply contradictory estimates for the trends in solar activity since the 19th century.

2. Although attempts have been made to account for non-climatic biases in previous estimates of surface air temperature trends, recent research by two of the authors has shown that current estimates are likely still affected by non-climatic biases, particularly urbanization bias.

With these points in mind, we first review the debate over solar variability. We summarise the points of general agreement between most groups and the aspects which still remain controversial. We discuss possible future research which may help resolve the controversy of these aspects. Then, in order to account for the problem of urbanization bias, we compile a new estimate of Northern Hemisphere surface air temperature trends since 1881, using records from predominantly rural stations in the monthly Global Historical Climatology Network dataset. Like previous weather station-based estimates, our new estimate suggests that surface air temperatures warmed during the 1880s–1940s and 1980s–2000s. However, this new estimate suggests these two warming periods were separated by a pronounced cooling period during the 1950s–1970s and that the relative warmth of the mid-20th century warm period was comparable to the recent warm period.

We then compare our weather station-based temperature trend estimate to several other independent estimates. This new record is found to be consistent with estimates of Northern Hemisphere Sea Surface Temperature (SST) trends, as well as temperature proxy-based estimates derived from glacier length records and from tree ring widths. However, the multi-model means of the recent Coupled Model Intercomparison Project Phase 5 (CMIP5) climate model hindcasts were unable to adequately reproduce the new estimate — although the modelling of certain volcanic eruptions did seem to be reasonably well reproduced.

Finally, we compare our new composite to one of the solar variability datasets not considered by the CMIP5 climate models, i.e., Scafetta and Willson, 2014′s update to the Hoyt and Schatten, 1993 dataset. A strong correlation is found between these two datasets, implying that solar variability has been the dominant influence on Northern Hemisphere temperature trends since at least 1881. We discuss the significance of this apparent correlation, and its implications for previous studies which have instead suggested that increasing atmospheric carbon dioxide has been the dominant influence.

 

Klimaerwärmung durch Tellerleeressen

Renee Hannon berichtete in einem LinkedIn-Artikel eine spannende Geschichte: Der Temperaturverlauf zweier historischer Warmzeiten (Interglaziale) gleicht sich überraschend gut. Vielleicht lässt sich daraus auch etwas für unsere aktuelle holozäne Warmzeit ableiten?

The Predictability of Past Warm Periods

Did you know two of the past Warm periods have nearly identical patterns?

Graphs of the EPICA Dome C isotope ratios and temperature show bimodal patterns for Warm Periods at 129 kyr (Warm II) and 334 kyr (Warm IV) that are strikingly similar (Figure 1).   In fact, I double checked to make sure I wasn’t plotting the same data twice. The main difference is Warm IV’s period is compressed by approximately 6 kyrs as shown in Figure 1.  These warm periods are approximately 200 kyrs apart.

Weiterlesen auf LinkedIn

———————

Am 1. März 2017 erschien im Fachblatt Energy & Environment ein Paper von Harold Blaauw, das die natürlichen Klimafaktoren in den Fokus rückt. Blaauw zitiert darin unter anderem unser Klimaverstärker-Konzept, das wir 2012 im Buch “Die kalte Sonne” eingeführt hatten:

Global warming: Sun and water
This paper demonstrates that global warming can be explained without recourse to the greenhouse theory. This explanation is based on a simple model of the Earth’s climate system consisting of three layers: the surface, a lower and an upper atmospheric layer. The distinction between the atmospheric layers rests on the assumption that the latent heat from the surface is set free in the lower atmospheric layer only. The varying solar irradiation constitutes the sole input driving the changes in the system’s energy transfers. All variations in the energy exchanges can be expressed in terms of the temperature variations of the layers by means of an energy transfer matrix. It turns out that the latent heat transfer as a function of the temperatures of the surface and the lower layer makes this matrix next to singular. The near singularity reveals a considerable negative feedback in the model which can be identified as the ‘Klimaverstärker’ presumed by Vahrenholt and Lüning. By a suitable, yet realistic choice of the parameters appearing in the energy transfer matrix and of the effective heat capacities of the layers, the model reproduces the global warming: the calculated trend in the surface temperature agrees well with the observational data from AD 1750 up to AD 2000.

———————-

Die Band OneRepublic hat einen faktenfreien Song zum Klimawandel gemacht. Das Video zum Stück “Truth to Power” versumpft in klimaalarmistischen Cliché. Darin wird jedes erdenkliche Übel der Welt dem Klimawandel angelastet, die aktuelle Völkerwanderungsproblematik eingeschlossen. Am besten einmal anschauen und dann wieder schnell vergessen:

———————-

Ein bisschen Spaß zum heutigen Abschluss. LZ.de am 19. Juli 2017:

Kabarettist erklärt beim Sommertreff den wahren Grund für den Klimawandel
[...] Die große Zahl adipöser Jugendlicher und den Klimawandel führte er darauf zurück, dass seit Generationen darauf gedrängt wird: Teller leer essen, damit die Sonne scheint. [...]

 

Helfen Weltuntergangs-Szenarien dem Klimaschutz?

Das Klimaestablishment hat sich jahrelang bequem eingerichtet. Mithilfe des Klimaalarms wurde politischer Druck aufgebaut, der eigene Bereich erhöht und Fördermittel abgegriffen. Niemand konnte ein Interesse daran haben, dieses praktische und einträgliche System zu verlassen. Es macht daher Sinn, den klimatischen Status Quo durch unabhängige, unbelastete Forscher prüfen zu lassen. Dies ist ein klassischer “Red Team”-Ansatz, der in großen Firmen gelebt wird. In den USA werden nun die Rufe nach solch einem Climate Red Team lauter. Judith Curry hat den aktuellen Stand in ihrem Blog kürzlich zusammengefasst.

——————

Lustiger Artikel im Handelsblatt vom 6. Juli 2017:

Klimaforscher fordern ernsthaften Umgang mit Fakten
[...] Kritiker betonen gern, dass es über Jahrtausende einen natürlichen Wechsel von Kalt- und Warmzeiten gegeben hat. Das bestreitet auch Latif nicht, sagt aber, dass die derzeit beobachtbare schnelle Erwärmung in nur etwa 150 Jahren eine völlig neue Entwicklung sei. Der Vergleich mit früheren Warmzeiten sei unzulässig. Werde nicht gegengesteuert, drohten schwerwiegende weitverbreitete und irreversible Folgen für Menschen und Ökosysteme. [...]

Falsch. Offenbar hat Mojib Latif seine Hausaufgaben nicht gemacht. Richtig ist vielmehr, dass es auch in der Vergangenheit ähnlich schnelle Klimawechsel wie heute gegeben hat. Beispiel: “Neue Studie der Universität Erlangen-Nürnberg entzaubert Klimawandel-Mythos: Erderwärmung schritt in der Vergangenheit genauso schnell voran wie heute“.

——————

Der kontroverse wissenschaftliche Disput ist für den Fortschritt unabdinglich. In den modernen Klimawissenschaften scheinen die lange etablierten Prinzipien der fachlichen Diskussion jedoch nicht zu gelten. Wer dem Mainstream widerspricht, wird an den Pranger gestellt und karrieretechnisch “kalt” gemacht. In den USA ist nun ein Forscher sogar noch weiter gegangen: Er hat seinen Kritiker einfach verklagt. The Daily Caller berichtete am 18. Juli 2017:

Disgruntled Climate Scientist Threatens Legal Action Against Researchers Who Criticized Him

A Stanford University professor indicated he was ready to take legal action against NOAA researchers who published a recent study critical of his work on green energy.

Emails obtained by National Review’s Robert Bryce show Stanford’s Mark Jacobson hired lawyers “to address the falsification of claims” about his work. Jacobson has not yet filed a lawsuit. Jacobson sent a June email to Chris Clack , a National Oceanic and Atmospheric Administration (NOAA) mathematician who helped debunk his widely-cited 2015 research claimed the U.S. could run on 100 percent green energy. Clack and 20 other researchers published a retort to Jacobson’s study in the Proceedings of the National Academy of Sciences (PNAS), concluding its “work used invalid modeling tools, contained modeling errors, and made implausible and inadequately supported assumptions.” “It’s unprecedented for a scientist to do that,” Chris Clack, told The National Review. “We have not attacked him. All the vitriol has come from his side. We have only talked about the substance of the paper.”

Weiterlesen auf The Daily Caller

——————

Christopher Schrader von der Süddeutschen Zeitung (SZ) kommt offenbar ins Grübeln. Am 20. Juli 2017 diskutierte er in der SZ,  ob extremer Klimaalarm vielleicht doch nicht so wirksam ist, wie lange angenommen. Wie nachhaltig sind Alarmszenarien, die dann nicht eintreten, jedoch die Bevölkerung in Angst und Schrecken versetzt haben? Hier ein Auszug aus dem lesenwerten Artikel:

Helfen Weltuntergangs-Szenarien dem Klimaschutz?

Dürfen Wissenschaftler die Apokalypse ausmalen, um vor der Erderwärmung zu warnen? Kritiker von derlei “Klima-Porno” warnen: Das führt erst recht zu Resignation und Zweifeln.[...] In diese gute Stimmung platzte jedoch in der vergangenen Woche eine Titelgeschichte des US-Magazins New York. “Die unbewohnbare Erde”, hieß sie; der Autor David Wallace-Wells beschrieb darin, welche extremen Folgen des Klimawandels Forscher für möglich – wenn auch für ziemlich unwahrscheinlich – halten. Dafür fütterte er den Drachen auch noch mit Aufputschmitteln. Er setzte nicht nur voraus, dass die Freisetzung von Treibhausgasen ungebremst weitergeht. Sondern der Klimawandel verstärke sich sogar noch, weil die Permafrostregionen der Erde auftauen und große Mengen Methan freisetzen. “Das Ökosystem der Erde wird brodeln”, heißt es im Artikel. Die Erde könne sich um sechs, acht oder gar zwölf Grad Celsius erwärmen; Naturkatastrophen würden alltäglich. Die Ozeane vergifteten sich selbst. Viele Regionen würden unbewohnbar, weil es die Menschen draußen wegen Hitze und Feuchtigkeit nicht mehr aushalten, geschweige denn arbeiten können. Die Produktion von Lebensmitteln bräche ein, die Weltwirtschaft könne auf die Hälfte schrumpfen, permanente Kriege stürzten die Völker weiter ins Elend.

[...]

Ein Forscher nannte den Artikel einen “Klima-Porno”, und meinte damit wohl die ungefilterte und brutale Zurschaustellung von Extremen. Manche kritisierten sachliche Fehler: Die aus dem Permafrost drohende Gefahr sei längst nicht so dramatisch, der Zusammenhang von Klimawandel und Krieg nicht so klar – und sollte es tatsächlich zu einer globalen Rezession kommen, könne man nicht zugleich annehmen, dass die Emissionen weiter ins Unermessliche steigen. “Viel gelesen und wenig verstanden”, urteilt der Max-Planck-Forscher Jochem Marotzke. Die meisten Kritiker aber wenden sich grundsätzlich gegen Wallace-Wells’ Aufrüttelungsansatz: Mit Untergangsszenarien, meinen sie, erreiche man keine Veränderung. “Die Beweise, dass der Klimawandel eine ernsthafte Herausforderung ist, sind sehr klar”, schrieb etwa der prominente Klimaforscher Michael Mann von der Pennsylvania State University in der Washington Post. “Es ist nicht nötig zu übertreiben, besonders wenn das eine lähmende Geschichte von Verderben und Hoffnungslosigkeit nährt.”

Ganzen Artikel hier lesen.

——————

Georg Keckl hat sich den historischen Verlauf der Waldsterben-Diskussion angeschaut und in einem interessanten Bericht zusammengestellt. Das pdf gibt es hier.

 

Extrem sauerstoffarme Wirbel im Atlantik produzieren Treibhausgase

Pressemitteilung des Geomar vom 7. Juli 2017:

—————

Extrem sauerstoffarme Wirbel im Atlantik produzieren Treibhausgase

Internationales Forschungsteam entdeckt bisher unbekannte Prozesse im Atlantik

Im Jahr 2014 hat ein internationales Forschungsteam unter Leitung des Kieler Exzellenzclusters „Ozean der Zukunft“ und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel erstmals nahezu sauerstofffreie Wirbel im Atlantik detailliert untersuchen können. Bei der Auswertung der Daten konnten die Beteiligten Prozesse nachweisen, die aus dem Atlantik bisher nicht bekannt waren. Dazu gehört auch die natürliche Produktion erheblicher Mengen von Treibhausgasen, wie ein Autorenteam jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht.

Sauerstoff ist im Meer nicht nur lebenswichtig für die meisten Organismen. Sein Vorhandensein oder seine Abwesenheit beeinflusst ebenso die Chemie des Ozeans und die der Atmosphäre darüber. Beispielsweise entweichen in Regionen mit sehr wenig Sauerstoff aus dem Meer aufgrund biochemischer Prozesse große Mengen des potenten Treibhausgases Distickstoffmonoxid, auch Lachgas genannt.

Der tropische und subtropische Atlantik war dafür bisher nicht bekannt. Es gibt an seinem Ostrand zwar eine natürliche Sauerstoffminimumzone, sie ist jedoch bei weitem nicht so ausgeprägt wie ähnliche Zonen im Indik oder Pazifik. Dieses Bild muss jetzt allerdings korrigiert werden, wie ein internationales Forschungsteam unter Leitung des Kieler Exzellenzclusters „Ozean der Zukunft“ und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel gestern in der Fachzeitschrift Scientific Reports veröffentlichte.

„Der Grund, warum die extrem sauerstoffarmen Regionen im Atlantik der Forschung bisher entgangen waren, ist einfach: Sie sind im Gegensatz zu den großen, stationären Sauerstoffminimumzonen nur sehr kleinräumig und zusätzlich räumlich sehr variabel“, erklärt Dr. Damian Grundle vom Bermuda Institute of Ocean Sciences, Erstautor der aktuellen Studie und bis vor Kurzem noch Wissenschaftler am GEOMAR. Extreme Sauerstoffarmut entsteht im Atlantik in großen Ozeanwirbeln von bis zu 100 Kilometern Durchmesser, die von der Westafrikanischen Küste westwärts durch den Ozean wandern. Solche Wirbel sind mit konventionellen Beobachtungsmethoden nur schwer zu erkennen, geschweige denn detailliert zu untersuchen.

Doch im Jahr 2010 streifte ein Wirbel das Cape Verde Ocean Observatory, eine vor der kapverdischen Insel São Vicente fest im Meer verankerte Beobachtungsstation. „Damit hatten wir einen ersten Hinweis auf die Existenz dieser speziellen Wirbel, aber noch keine genauen Informationen aus ihrem Inneren“, berichtet der Meereschemiker Dr. Björn Fiedler vom GEOMAR, der das Projekt geleitet hat.

Mit finanzieller Unterstützung des Kieler Exzellenzclusters „Ozean der Zukunft“ legten sich die Meeresforscherinnen und Meeresforscher auf die Lauer. 2014 war es so weit: Mit Hilfe eines Satelliten entdeckten sie einen potentiellen Ozeanwirbel, der sich vor der Küste Mauretaniens bildete und Richtung Kapverden wanderte. Von dort schickte das Team ihm autonome Messdrohnen, sogenannte Gleiter, entgegen. Als sich der Wirbel den Inseln näherte, konnten sie mit dem kapverdischen Forschungsschiff ISLANDIA erstmalig auch Wasserproben direkt aus seinem Zentrum nehmen.

„Auch der Zufall half uns, denn zu dieser Zeit befand sich das deutsche Forschungsschiff METEOR für eine lange geplante Expedition des Kieler Sonderforschungsbereichs 754 vor den Kapverden. So konnten wir die Kollegen rasch überzeugen, auch den Wirbel zu beproben“, sagt Dr. Fiedler und ergänzt: „Ohne die gute Infrastruktur auf den Kapverden und die langjährige Zusammenarbeit mit den dortigen Kolleginnen und Kollegen wäre diese Messkampagne nicht möglich gewesen.“

Die gewonnenen Daten und Wasserproben wurden anschließend physikalisch, biogeochemisch und biologisch ausgewertet. „In einer ganzen Reihe von Publikationen konnten wir spannende neue Erkenntnisse über dieses bisher unbekannte Phänomen im Atlantik gewinnen“ so Dr. Fiedler.

Die jetzt in den Scientific Reports erschienene Studie schließt die Forschungen zu dem 2014er Wirbel in gewisser Weise ab. „Im Kern des Wirbels gab es in nur 100 Meter Wassertiefe die höchsten Lachgaswerte, die jemals im offenen Atlantik gemessen worden waren. Dies ist auf Prozesse zurückzuführen, die dem Ozean den Pflanzennährstoff Stickstoff entziehen können und dabei unter anderem Lachgas in großen Mengen produzieren“, fasst Dr. Grundle die Erkenntnisse zusammen. „Wir müssen unser Verständnis der Stoffkreisläufe im Atlantik jetzt diesbezüglich anpassen“.

Originalarbeiten:
Grundle, D.S., C.R. Löscher, G. Krahmann, M.A. Altabet, H.W. Bange, J. Karstensen, A. Körtzinger, B. Fiedler (2017): Low oxygen eddies in the eastern tropical North Atlantic: 2 Implications for N2O cycling. Scientific Reports, http://dx.doi.org/10.1038/s41598-017-04745-y

 

Der ideale Klimaschützer: Kinderlos, Vegetarier, ohne Auto, ohne Haus, mit ökologischer Flugangst

Ein britischer Universitätsprofessor beklagte sich kürzlich, dass es immer schwieriger werden, kontroverse Themen an der Hochschule anzusprechen. Zu stark sei die Lobby, die den Disput auf den Mainstream eingrenzt.

——————

Wie kann man den Klimawandel effektiv bekämpfen? Weniger fliegen und weniger Kinder kriegen. Wenn dann das letzte hoffentlich kinderlose Paar gestorben ist, wäre der Planet endlich menschenfrei, und das Klima kann sich erholen. Amen.

Der Westen.de am 20. Juli 2017:

Klima-Studie: Warum Babys die größten Klima-Killer sind

Laut einer Studie gelten nicht mehr nur Autos und Fabriken als Klimakiller, sondern auch Kinder. Forscher haben provokative Vorschläge.

Berlin.  Wer es mit dem Klimawandel ernst meint, muss seinen Lebenswandel überdenken: Sollte ich alte Glühbirnen austauschen? Sollte ich lieber mit dem Rad fahren? Sollte ich überhaupt Kinder bekommen? Ja, richtig gelesen. Eine neue Studie zum Klimaschutz empfiehlt, dass Menschen in Europa, Amerika und Australien ein Kind weniger bekommen sollten.

Wer gedacht hatte, dass sich der Appell vor allem an kinderreiche Familien in Afrika wendet würde, sah sich eines anderen belehrt. Nein, es sollen die Kleinfamilien in Europa weiter schrumpfen. Einfach weil der pro-Kopf-Austoß von CO2 dort höher ist. Verrückte Welt. WUWT dazu:

No kids,

no cars,

no meat,

no flying!

Auch der Besitz von Eigentum ist übrigens klimaschädlich und muss daher abgeschafft werden. Willkommen im neuen Klimakommunismus.

——————

Pressemitteilung der Uni Bern vom 11. Juli 2017:

Umfassendste Datenbank zu Klimawandel in der Vergangenheit ist online

Eine neue Online-Datenbank ermöglicht es Klimaforschenden, nun noch genauer die Muster und Ursachen von globalen Klimaschwankungen zu untersuchen. Sie wurde von einem grossen internationalen Forschungsteam zusammengestellt, das von PAGES (Past Global Changes) koordiniert wurde, einer klimawissenschaftlichen Organisation an der Universität Bern.

Die Kenntnis von globalen Temperaturen vor den eigentlichen Wettermessungen beruht auf sogenannten «Proxydaten» aus biologischen oder geologischen Proben, die indirekte Informationen über vergangene Temperaturen enthalten. Baumringe etwa wachsen dicker in wärmeren Jahren und ermöglichen so indirekte Schätzungen über Temperaturschwankungen während der Lebenszeit des Baumes.

Die neue PAGES2k Datenbank enthält Proxydaten aus einer Vielzahl von Quellen wie Baumringe, Eisbohrkerne, Korallen, Meeres- und Seesedimentproben sowie historische Dokumente. Dieses grundlegende Werkzeug für Klimarekonstruktionen und Klimamodelle wurde nun online im «Nature»-Journal «Scientific data» publiziert. Die Datenbank ist die bisher transparenteste und vollständigste Datensammlung zum Klimawandel der letzten 2000 Jahre.

Past Global Changes (PAGES) ist eine internationale Klimawissenschafts-Organisation mit Hauptsitz an der Universität Bern. Die PAGES2k Datenbank wurde mit der Hilfe von Klimatologinnen und Klimatologen aus der ganzen Welt erstellt und von Bern aus koordiniert. Sie enthält 692 Einträge aus 648 Orten und umfasst alle Kontinente und Ozeane. Die Daten wurden gemeinsam vom PAGES2k Konsortium ausgewählt und geprüft und anschliessend nach einheitlichen und transparenten Kriterien zusammengeführt. Als «Open Data» können sie nun von allen Interessierten heruntergeladen und verwendet werden. Die Daten sind so aufbereitet, dass sie für Expertinnen und Experten als auch für «Citizen-scientists» gleichermassen zugänglich sind.

Eine Berner Initiative

Das PAGES2k-Projekt wurde von Berner Forschenden ins Leben gerufen. An der Datenbank sind aktuell sechs Berner Klimatologinnen und Klimatologen beteiligt. Sie haben vor allem Daten von der Südhalbkugel beigetragen: «Da wir zahlreiche Projekte in Südamerika, Australien und im südlichen Afrika haben, stammt der Anteil der Daten aus der südlichen Hemisphäre grösstenteils von der Arbeit, die wir in diesen Regionen leisten», sagt Raphael Neukom, einer der Projektleiter und Ko-Autor der publizierten Datenbank. Die Kontakte, die dabei seit Jahren mit Forschenden in der Südhemisphäre bestehen, waren für diese Arbeit sehr wichtig: «Es braucht viel Vertrauen und langjährige Zusammenarbeit, um die besten Datensätze für ein solches globales Projekt zu erhalten», sagt Neukom – vor allem, weil im Süden viel weniger Daten verfügbar seien als im Norden. «Wichtig an unserem Beitrag ist unter anderem, dass wir die Perspektive des Südens einbringen. Nur so können Resultate erzielt werden, die global aussagekräftig und konsistent sind», betont Neukom. Die Universität Bern war eine der wenigen Institutionen, die in allen Teilen des Projekts involviert war, also beim Zusammentragen, Konsolidieren und Aufbereiten der Daten ebenso wie bei der Auswertung und Koordination der Arbeiten.

Martin Grosjean, Direktor des Oeschger-Zentrums für Klimaforschung an der Universität Bern, sagt, Bern könne stolz auf die Datenbank und den Beitrag zur Paläowissenschaft sein: «Dank PAGES und den Büros des Weltklimarats IPCC, die sich auch hier befanden, hat sich die Universität Bern zu einem international renommierten Klima-Hub entwickelt.»

Eine erste Zusammenfassung der globalen Temperaturgeschichte mit der vollständigen PAGES2k-Datenbank zeigt eine langfristige Abkühlung bis zum 19. Jahrhundert, der dann ein starker Erwärmungstrend folgt. Diese Ergebnisse stehen im Einklang mit einem grossen Teil der aktuellen Klimaforschung. Sie zeigen auch, dass diese Trends mit den regionalen Temperaturmustern übereinstimmen, die aus einer früheren, begrenzten Version der PAGES2k-Datenbank (veröffentlicht 2013) rekonstruiert wurden.

Hier geht es zur Datenbank.

 

Spiel mit der Sonne

Am 3. Juli 2017 gab das Kieler Geomar bekannt, dass es nun eine neue solare Aktivitätskurve gäbe, die in den Klimamodellen als Referenz verwendet werden wird:

Sonnenschwankungen in Klimamodellen besser berücksichtigt

Neuer Referenzdatensatz für Vergleichsstudien veröffentlicht

Bei zukünftigen Vergleichsstudien zur Klimaentwicklung können Forscher nun auf einen neuen, deutlich verbesserten Datensatz der solaren Einstrahlung zurückgreifen. Ein internationales Forscherteam unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und des Instituto de Astrofísica de Andalucía (CSIC) in Granada (Spanien) publizierte jetzt in der Fachzeitschrift Geoscientific Model Development die Details der neuen Rekonstruktion des Referenzdatensatzes. Die Wissenschaftlerinnen und Wissenschaftler erwarten dadurch insbesondere in der Stratosphäre einen deutlich stärkeren Einfluss der solaren Strahlung.

Wieviel Einfluss haben die Schwankungen der solaren Einstrahlung auf unser Klimasystem? Könnten zukünftig die steigenden Erdtemperaturen durch eine abnehmende Sonnenaktivität abgeschwächt werden? Mit solchen Fragen befasst sich die Klimaforschung schon seit längerem. Um unter anderem diese Fragen möglichst genau beantworten zu können, ist es wichtig, die Schwankungen der solaren Einstrahlung mit dem 11-jährigen Sonnenfleckenzyklus möglichst gut zu kennen und diese als Eingangsparameter in Klimamodellsimulationen zu nutzen. Ein internationales Forscherteam unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und des Instituto de Astrofísica de Andalucía (CSIC) in Granada (Spanien)  hat nun einen neuen Datensatz veröffentlicht, der als Basis für zukünftige Modellvergleiche genutzt und in den nächsten Klimazustandsbericht des Weltklimarates (IPCC) einfließen wird.

„Für die solare Einstrahlung haben wir im wesentlichen zwei Datensätzen, einen von unseren amerikanischen Kolleginnen und einen vom Max-Planck Institut für Sonnensystemforschung in Göttingen kombiniert“, erläutert die Erstautorin Prof. Dr. Katja Matthes vom GEOMAR. „In diesem neuen Datensatz ist die Variabilität im kurzwelligen Teil des Sonnenspektrums, dem sogenannten UV-Bereich stärker als bisher. Das führt im Maximum der Sonnenaktivität zu einer Erwärmung der Stratosphäre und erhöhter Ozonproduktion“, so Matthes weiter. Davon versprechen sich die Forscher insbesondere im Bereich der Stratosphäre zwischen 15 und 50 Kilometern Höhe, deutlichere Signale, die über komplizierte Wechselwirkungsmechanismen auch das Klima am Erdboden beeinflussen. Weitere Neuerungen sind ein neuer Referenzwert für die sogenannte “Solarkonstante”, die mittlere Einstrahlung am Außenrand der Atmosphäre, die mit 1361 Watt pro Quadratmeter etwas niedriger ausfällt, sowie die Berücksichtigung von Teilchenstrahlung.

Der neue Datensatz wird in den kommenden Jahren als Referenz für den sechsten Zyklus von international koordinierten Vergleichsrechnungen mit gekoppelten Ozean-Atmosphäre Modellen verwendet. Die sogenannten CMIP (Coupled Model Intercomparison Project)-Experimente gibt es schon seit Jahrzehnten. Sie stellen einen wichtigen Qualitätscheck für Klimamodelle dar und  sind die Grundlage für den Klimazustandsbericht des IPCC.

Was erwarten die Wissenschaftler von dem neuen Datensatz? „In unserem Zukunftsszenario für CMIP6 haben wir eine bessere Abschätzung der zukünftigen Entwicklung der solaren Aktivität nach 2015 gemacht“, erläutert Dr. Bernd Funke, Co-Autor vom CSIC. „Bis 2070 ist demnach eine Abnahme der mittleren Sonnenaktivität zu einem kleineren solaren Minimum zu erwarten. Dies wirkt dem anthropogenen Klimawandel entgegen, wird aber auf die Entwicklung der globalen Temperatur keinen spürbaren Einfluss haben“, erwartet Dr. Funke.  Nicht zu unterschätzen seien allerdings die regionalen Auswirkungen. Außerdem wird es erstmals möglich sein, die solaren Strahlungseffekte und die Effekte von energetischen Teilchen zu quantifizieren.

An der Erstellung des neuen Datensatzes hat ein großes, interdisziplinäres Team von Sonnenphysikern über Teilchenexperten bis hin zu Klimamodellierern mitgearbeitet. Diese Arbeit wurde im Rahmen eines internationalen Modellvergleichsprojektes (http://solarisheppa.geomar.de/) des Weltklimaforschungsprogrammes durchgeführt. Unter der Leitung von Katja Matthes und Bernd Funke konnte so die weltweit vorhandene Expertise zu diesem Thema gebündelt werden, um die bestmögliche Abschätzung der solaren Variabilität der Vergangenheit und Zukunft zu erstellen.

„Der neue Datensatz wird dazu beitragen, unser Verständnis der natürlichen dekadischen Klimavariabilität weiter zu verbessern und von anthropogenen Prozessen klarer abzugrenzen“, so Prof. Matthes abschließend.

Originalarbeit:

Matthes, K, B. Funke, M. E. Andersson, L. Barnard, J. Beer, P. Charbonneau, M. A. Clilverd, T. Dudok de Wit, M. Haberreiter, A. Hendry, C. H. Jackman, M. Kretzschmar, T. Kruschke, M. Kunze, U. Langematz, D. R. Marsh, A. C. Maycock, S. Misios, C. J. Rodger, A. A. Scaife, A. Seppälä, M. Shangguan, M. Sinnhuber, K. Tourpali, I. Usoskin, M. van de Kamp, P. T. Verronen, and S. Versick, 2017: Solar forcing for CMIP6 (v3.2). Geosci. Model Dev., 10, 2247–2302, https://doi.org/10.5194/gmd-10-2247-2017 

Der UV-Ansatz ist gut, die Erwartung regionaler Klimaeffekte durch solare Aktivitätsschwankungen ebenfalls. Aber ist die neue Kurve wirklich realistischer geworden?Das Geomar hat die Kurve als Graphik beigefügt (Abb. 1). Im Gegensatz zur Vorgängerkurve hat man seltsamerweise die Sonnenaktivität in den 1960er Jahren deutlich nach oben gesetzt. Das ist seltsam, denn Rekonstruktionen über die kosmische Strahlung geben dies nicht her. Offenbar wurden hier die Sonnenflecken stärker in den Fokus gerückt, was fragwürdig ist. In der früheren Version erreichte die Sonnenaktivität gegen Ende des 20. Jahrhunderts ein Maximum, was politisch vermutlich schlecht vermittelbar war, da ja auch die globale Erwärmung zeitgleich kulminierte. Ein Schelm, der hier einen Zusammenhang ahnt.

 

Abbildung 1: Rekonstruktionen der solaren Einstrahlung. Bisherige Rekonstruktion: gelb, neue Rekonstruktion: schwarz, Beobachtungen: grau schattiert. Quelle: GEOMAR. 

 

In einer neuen Arbeit von Egeland et al. 2016  ist das Verhältnis genau andersherum:

Abb. 2: Entwicklung der solaren Aktivität während der letzten 100 Jahre. Graphik: Egeland et al. 2016.

 

Bedauernswerterweise beginnt die neue solare Kurve erst bei 1850, also gegen Ende der Kleinen Eiszeit. Wichtig wäre jedoch eine Forschreibung in die Vergangenheit gewesen, so dass auch frühere Wärmephasen wie die Mittelalterliche Wärmeperiode mit der Sonnenkurve verglichen werden können. Im Rahmen des offiziellen Begutachtungsverfahrens zum Papers hat Sebastian Lüning diese Kritik angebracht (siehe hier). Die Leitautorin des Papers antwortete, dass ja auch die Klimamodelle erst um 1850 anfangen. Dies scheint das Hauptproblem zu sein, dass sich die Modellierer bewusst nicht an die Zeit vor der Kleinen Eiszeit heranwagen. Dort würde schnell klar werden, welchen geringen Wert die Modelle haben. Zwar arbeite man auch an längerfristigen solaren Rekonstruktionen, vermeidet hier aber bewusst (!) die Interpretation von Langzeittrends (siehe hier). Weshalb nur?

 

PLOS: Zustand der Meere während der letzten 5 Jahren relativ stabil

Der Deutsche Arbeitgeberverband stellt die richtigen Fragen. Am 3. Juli 2017 schrieb dort Björn Peters:

Welche Erkenntnisse der Klimaforschung sind gesichert?

[...] Die Klimaforscher stehen nicht nur beim Thema Wasserdampf-Verstärkung des Treibhauseffektes vor einem Rätsel.  Ganz offensichtlich werden wesentliche physikalische Prozesse in der Atmosphäre nicht verstanden.  Wenn zu verschiedenen Klimaparametern die Modelle mit dem tatsächlichen Geschehen verglichen werden, gibt es viele weitere Fälle, in denen fast alle Modelle weit neben den Daten liegen.  Im Fünften Sachstandsbericht des IPCC von 2013 sind dies beispielsweise die Erwärmungspause zwischen 1998 und 2012 (S. 771), die Eisbedeckung in der Antarktis (S. 789), Schneebedeckung auf der Nordhalbkugel (S. 790), Aerosol-Belastung der Atmosphäre (S. 794) und das quantitative Verständnis der El Niño-Zyklen (S. 804 ff.). 

Besonders groß sind die Verständnislücken bei der Wolkenbildung.  Wolken haben eine helle Oberfläche und strahlen daher einen Teil der solaren Einstrahlung ins Weltall zurück.  Dieser sog. “Albedo-Effekt” sorgt für eine Kühlung des Planeten.  Andererseits halten Wolken die Wärme, die sich tagsüber auf dem Boden gebildet hat, zurück, und halten die Temperaturen hoch.  Dies ist der Grund, warum über der extrem trockenen arabischen Halbinsel große Temperaturunterschiede zwischen Tag und Nacht gemessen werden, während die Temperaturen in Indien, das ein feuchtwarmes Klima hat, zwischen Tag und Nacht kaum schwanken.  Im Durchschnitt aller Klimamodelle (!) gibt es Regionen auf der Erde, an denen die Klimawissenschaftler die Strahlungswirkung von Wolken um bis zu 40 W/m² über- oder unterschätzen.  Hierzu zählen gerade äquatoriale Regionen und die Gebiete um die Antarktis, also wesentliche Wetterküchen, die das Klima der Erde insgesamt stark beeinflussen (8).  Während sonst unter Klimaforschern über Strahlungsparameter im Bereich von Zehnteln W/m² gestritten wird, sind die systematischen Unsicherheiten in Bezug auf die Klimawirkung von Wolken noch gewaltig.  Ein anerkannter Strahlungsphysiker wie Prof. Michael Wendisch (Leipzig) ließ sich im ‚Spiegel’ jüngst sogar mit den Worten zitieren, dass er die gängigen (Wolken-) Modelle der Klimaforscher für die Arktis für “pure Phantasie” hält, da sie einige der wichtigsten Eigenschaften jener Himmelsgebilde ignorierten, etwa die Größe der Tröpfchen und ihren Gehalt an Eis (9).

Stand des Wissens

Fassen wir zusammen:  Der Anspruch, dass die Klimaphysik heute bereits in der Lage sei, aussagefähige Modelle der Atmosphäre zu erstellen, wird durch die Klimaforscher an vielen einzelnen Stellen im ausführlichen physikalischen Sachstandsbericht widerlegt.  Wesentliche physikalische und chemische Einflussfaktoren auf das Klima sind immer noch so gut wie unbekannt, und dadurch können die Klimamodelle vergangene Witterung nicht reproduzieren, obwohl alle externen Einflussgrößen bekannt sind.  Zu diesen zählen die Sonnenaktivität, Vulkanausbrüche und die Ausrichtung der Erdbahn.  Die Aussage, dass die Klimamodelle geeignet seien, langfristige Klimatrends zu verstehen, auch wenn sie kurzfristigere Trends im Bereich von Jahrzehnten übersehen, kann daher nicht aufrechterhalten werden, auch wenn dies in der Zusammenfassung für Politiker so beschrieben wird.  Wie wird der Planet also auf eine wahrscheinliche Verdoppelung des Kohlendioxid-Gehalts der Atmosphäre im Verhältnis zum “vor-industriellen” Niveau (10) reagieren?  Ich weiß es nicht, aber es gibt auch niemanden sonst, der dies mit den heutigen Mitteln der Atmosphärenphysik seriös voraussagen kann.

Ganzen Artikel beim Deutschen Arbeitgeberverband lesen.

———————–

In den letzten Jahren führten Algenblüten in der kalifornischen Bucht von Monterey immer wieder zu Massensterben. Im August 2015 warnte der Scientific American davor, dass dies mit dem Klimawandel zusammenhängen könnte und sich die Situation in Zukunft daher noch weiter verschlimmern könnte:

Massive Toxic Algae Blooms May Prove a Sign of Climate Change to Come
The blooms off the U.S. West Coast may become more frequen
t

Am 5. Juni 2017 erschien nun in den Geopysical Research Letters eine Arbeit von Ryan und Kollegen, die dem Phänomen gründlich nachgingen. Das Resultat: Nicht der Klimawandel, sondern Prozesse in der Auftriebszone (upwelling zone) waren für die Algenblüte verantwortlich:

Causality of an extreme harmful algal bloom in Monterey Bay, California, during the 2014–2016 northeast Pacific warm anomaly
An ecologically and economically disruptive harmful algal bloom (HAB) affected much of the northeast Pacific margin in 2015, during a prolonged oceanic warm anomaly. Caused by diatoms of the genus Pseudo-nitzschia, this HAB produced the highest particulate concentrations of the biotoxin domoic acid (DA) ever recorded in Monterey Bay, California. Bloom inception followed strong upwelling during the spring transition, which introduced nutrients and eliminated the warm anomaly locally. Subsequently, moderate and intermittent upwelling created favorable conditions for growth and accumulation of HAB biomass, which was dominated by a highly toxigenic species, P. australis. High cellular DA concentrations were associated with available nitrogen for DA synthesis coincident with silicate exhaustion. This nutrient influence resulted from two factors: (1) disproportionate depletion of silicate in upwelling source waters during the warm anomaly, the most severe depletion observed in 24 years, and (2) silicate uptake by the dense diatom bloom.

Die Mercury News brachte eine allgemeinverständliche Zusammenfassung des Artikels:

Cause of 2015 toxic algal bloom in Monterey Bay identified

Upwelling caused the toxic algal bloom that poisoned large numbers of marine animals and led to the closure of commercial fisheries in Monterey Bay in 2015, but a research paper published Monday shows an imbalance between two nutrients may have caused high toxicity levels.

The bloom, considered the most toxic ever observed in the bay, happened in late spring 2015, when scientists from Monterey Bay Aquarium Research Institute, UC Santa Cruz, Moss Landing Marine Laboratories and the National Oceanic and Atmospheric Administration were conducting a large-scale biology experiment in the bay called Ecology and Oceanography of Harmful Algal Blooms.

Weiterlesen in den Mercury News

———————–

Das Weltuntergangsgeschäft ist ein großes. Prediger wandern durchs Land und sagen das Ende des Klimas, der Ozeane und der Menschheit voraus. Verängstigt und beeindruckt kleben die Leute den Predigern an den Lippen. Was muss ich tun, Meister, damit ich diese große Prüfung überlebe? Wem muss ich spenden?

Umso erfrischender ist es, wenn dann seriöse Wissenschaftler den Zustand unserer Ölkosysteme in realistischerer Weise dokumentieren. In PLOS erschien im Juli 2017 eine Studie von Halpern und Kollegen, die den Weltozeanen eine stabile Gesundheit attestierte. Hier die dazugehörige Pressemitteilung (via Science Daily):

Global ocean health relatively stable over past five years

Harvest, fisheries management, protected areas may affect ocean health near some countries

While global ocean health has remained relatively stable over the past five years, individual countries have seen changes, according to a study published July 5, 2017 in the open-access journal PLOS ONE by Benjamin Halpern from University of California Santa Barbara, USA and colleagues.

The Ocean Health Index has been used to assess ocean health on the local and regional scale, measuring factors such as biodiversity, coastal protection, and clean waters to help inform regional policies. In this study, Halpern and colleagues analyzed five years’ worth of Ocean Health Index data for 220 countries, seeking potential drivers and implications for the changes that they observed.

As expected, global ocean health has been fairly stable over the past five years, since the health of the world’s oceans cannot change rapidly over a relatively short time period. However, there were notable changes in individual countries. For example, the authors found declines in overall ocean health in many Arctic and sub-Arctic countries, possibly because the rapid loss of sea ice has resulted in reduced coastal protection. The researchers suggest that improvements in wild-caught fishery management, the creation of marine protected areas, and decreases in harvesting of fish and other natural products may have stabilized ocean health scores in other regions.

While the Ocean Health Index was capable of predicting short term changes in global ocean health, the authors suggest that investment in additional resources for measuring changes on a global scale would greatly help with management and protection of ocean health now and in the future.

“One of the things that’s so powerful about the Ocean Health Index is that it allows you to compare the health of oceans any place on the planet, over time, with a directly comparable measure,” says Benjamin Halpern. “You can ask some of the most basic yet most important questions about the state of our planet: how are the oceans doing, and what factors are driving changes in ocean health. We can finally start answering those questions.”

Paper: Benjamin S. Halpern, Melanie Frazier, Jamie Afflerbach, Casey O’Hara, Steven Katona, Julia S. Stewart Lowndes, Ning Jiang, Erich Pacheco, Courtney Scarborough, Johanna Polsenberg. Drivers and implications of change in global ocean health over the past five years. PLOS ONE, 2017; 12 (7): e0178267 DOI: 10.1371/journal.pone.0178267

 

Der Mai macht was der Atlantik will

Der Deutsche Wetterdienst machte sich kürzlich Sorgen über die Eisheiligen:

Eisheilige machen kaum noch Angst – Ist der Klimawandel schuld?
Spielen die Eisheiligen im Wettergeschehen des Monats Mai eigentlich noch eine Rolle? Jedes Jahr fragt man sich, kommen sie pünktlich, kommen sie überhaupt? Sie heißen Mamertus, Pankratius, Servatius, Bonifatius und Sofia und haben uns früher oft den Frühling verhagelt. Die Eisheiligen, das ist der Zeitraum vom 11. bis 15. Mai, in dem nach Aufzeichnungen des Deutschen Wetterdienstes (DWD) bis Mitte des 19. Jahrhunderts fast regelmäßig Kaltlufteinbrüche beobachtet wurden. [...] In den letzten Jahren sind die Eisheiligen oft ganz ausgeblieben. Manchmal kam es zu Kaltlufteinbrüchen bereits Anfang Mai oder Ende Mai. Fröste traten jedoch auch dann immer seltener auf. Gelegentlich wurden die Eisheiligen bei Tageshöchstwerten von über 25 Grad Celsius sogar zu „Schweißheiligen“. Neuere Untersuchungen des Deutschen Wetterdienstes zeigen, dass die Häufigkeit von Kaltlufteinbrüchen Mitte Mai vor allem im süddeutschen Raum deutlich unter 50 Prozent liegt. Insofern ist die Frage berechtigt, ob man eigentlich noch von einer echten Singularität sprechen kann. Viele Experten führen die Veränderungen u. a. auch auf den Klimawandel zurück, denn mit der stetigen Erwärmung der globalen Atmosphäre fallen auch Kaltlufteinbrüche im Mai immer weniger frostig aus. Die bisherigen und mögliche zukünftige Änderungen der Mitteltemperatur des Monats Mai, der Anzahl der jährlichen Frosttage und vieler anderer Größen zeigt der Deutsche Klimaatlas auf einen Blick.

Ganzen Artikel beim DWD lesen.

Konkrete Graphiken fügt der DWD der Meldung leider nicht bei. Josef Kowatsch brachte auf EIKE die Graphen einiger Einzelstationen, aber auch hier fehlen bundesweite Kurven. Der Verweis des DWD auf den Deutschen Klimaatlas ist interessant. Dort kann man leider nur Monatstemperatur eingeben, nicht die konkreten Daten der Eisheiligen Periode. Hier also die Temperaturentwicklung Deutschlands für den Mai während der vergangenen 130 Jahre:

Abb. 1: Temperaturentwicklung des Monats Mai in Deutschland während der vergangenen 130 Jahre. Graphik: DWD, Deutscher Klimaatlas.

 

Plötzlich wird klar, weshalb der DWD keine Graphiken bringt. Der Mai ist nämlich in den letzten 100 Jahren gar nicht wärmer geworden. Vielmehr ist eine deutliche Zyklik zu erkennen, mit Wärmephasen 1915-1950 und seit 1985. Der Verlauf folgt übrigens recht genau dem NAO-Ozeanzyklus. Da ist es schon kurios, dass der DWD die Eisheiligen zum Klimawandelopfer stilisiert. Ein bisschen mehr Realismus und Transparenz würden wir uns vom DWD schon wünschen.

NACHTRAG, 20.8.2017, 22:07 Uhr: Josef Kowatsch hat dankenswerterweise noch eine Mai-Kurve für ganz Deutschland ab 1917 erstellt, die ein ähnliches Ozeanzyklenmuster zeigt wie die DWD Graphik:

————————

Der Merkur berichtete am 1. Juli 2017 über eine kuriose Aktion:

„Make the planet green again“: EU-Botschafter demonstrieren auf Vulkangletscher gegen Klimawandel
[...] In eisiger Höhe hielten sie am Freitag (Ortszeit) an der Wetterstation des mehr als 5700 Meter hohen Vulkans ein Plakat mit der Aufschrift „Make the Planet green again“ (etwa: Lasst uns den Planeten wieder grün machen) hoch. Ihr „Protest“-Ausflug fand im Rahmen der europäischen Tage zur Klimadiplomatie statt, die international bis Freitag stattfanden.

Ganzen Artikel im Merkur lesen.

Auf dem Gipfel des ecuadorianischen Vulkans gibt es einen derzeit schrumpfenden Gletscher. Wenn dieser schmilzt, kann das Ziel der EU-Botschafter vielleicht erreicht werden, da sich dann die Vegetation auf dem vom Eis freigewordenen Boden ausdehnen und diesen begrünen kann. Haha, sehr lustig. Aber Spaß beiseite. Ob den EU-Botschafter die Klimageschichte der Anden voll bewusst ist? Stansell et al. 2013a untersuchte die Laguna Queshquecocha in der peruanischen Cordillera Blanca und dockumentierte eine bedeutende Warmphase vor 1000 Jahren, während der die Andengletscher stark abgeschmolzen waren. Im entsprechenden Eintrag unserer MWP-Karte heißt es:

RESULTS: Major glacier retreat 1000-1300 AD shrinking the glacier to Holocene record low values due to warm temperatures and reduced precipitation (snowfall). From text: „Proxy climate records from the southern tropical Andes are generally consistent and suggest that conditions were relatively arid and likely warmer during the MCA [Medieval Climate Optimum] compared to the rest of the Holocene. […] glaciers advanced starting at [1400 AD] and retreated in the latter stages of the LIA. The ice core record from the Quelccaya ice cap indicates that there was a cold and wet phase from [1500 AD to 1800 AD]“.

Offenbar haben die Damen und Herren Botschafter nichts aus der Klimageschichte gelernt, interessieren sich vermutlich nicht einmal für den historischen Kontext. Diese Kurzsicht könnte sich irgendwann rächen, wenn das Klima einen ganz anderen Verlauf nimmt, als angenommen.

Ein Update zu unserem MWP-Projekt finden Sie hier.

 

Uni Bergen prognostiziert für die kommenden Jahre Abkühlung und Zunahme des arktischen Meereises

Interessanter Artikel in der Huffington Post vom 29. Juni 2017:

Ein Umweltaktivist erklärt, warum Plastikmüll eine größere Bedrohung als der Klimawandel ist
Weltweit gehen eine Million Plastikflaschen über den Verkaufstresen – jede Minute. Und damit nicht genug: Bis ins Jahr 2021 soll die Zahl um ganze 20 Prozent zunehmen, berichtet die britische Zeitung “The Guardian”. Für jeden Umweltschützer ist das eine Hiobsbotschaft. So auch für Hugo Tagholm. Der Aktivist der Gruppe “Surfers Against Sewage” (Surfer gegen den Müll) erklärt gegenüber der britischen Zeitung, das Plastik-Problem sei für die Umwelt und die Menschheit mittlerweile eine größere Bedrohung als der Klimawandel.

Weiterlesen in der Huffington Post

————————-

Vor 5 Jahren erklärten wir in unserem Buch “Die kalte Sonne“, dass die globalen Temperaturen stark von den Ozeanzyklen abhängen. Das Klimaestablishment strafte uns damals hart für diese Idee, erklärte uns für verrückt. Das Blatt hat sich mittlerweile 180° gewendet, die Bedeutung der Ozeanzyklen ist von der Wissenschaft nun vollständig anerkannt. Jeden Monat erscheint ein Paper zu dieser “Neu-Entdeckung”. Was bleibt ist Schmunzeln, Genugtuung. Unser Fehler: Wir waren unserer Zeit voraus. Dafür möchten wir uns entschuldigen.Wir konnten ja nicht ahnen, dass die Einführung der Ozeanzyklen in die Klimawissenschaften erst für später geplant war.

Die neueste Studie zum Thema stammt aus Norwegen. Die Universität Bergen gab am 21. Juni 2017 per Pressemitteilung bekannt, dass man die Ozeanzyklen in der Arktis für die Klimaprognostik einsetzen kann. Die Forscher rechnen mit einer Abkühlung in den kommenden Jahren. Außerdem soll das arktische Meereis wachsen:

The ocean predicts future Arctic climate

The ocean predicts future northwestern European and Arctic climate, finds a new study in Nature Communications.

A new study in the journal Nature Communications by researchers from Geophysical Institute, University of Bergen and Bjerknes Centre for Climate Research, Norway, and University of Oxford, UK, demonstrates that there is a clear potential for practical and useful predictions of northwestern European and Arctic climate based on the state of the ocean. “We particularly predict that Norwegian air temperature will decrease over the coming years, although staying above the long-term (1981–2010) average. Winter Arctic sea ice extent will remain low but with a general increase toward 2020“, lead author Marius Årthun says.

Time lag of 7-10 years

Time series of observed sea surface temperature along the North Atlantic Current and its poleward extension, the Norwegian Atlantic Current, show that anomalies progress poleward from the subpolar North Atlantic to the Nordic Seas with a time lag of 7-10 years. Higher Nordic Seas temperatures are furthermore associated with higher surface air temperatures and precipitation over Norway, and a reduced Arctic winter sea ice cover. Årthun et al. shows that a significant part of northwestern European and Arctic climate can be predicted by statistically exploiting the predictability arising from the poleward propagation of oceanic anomalies along the Gulf Stream and the strong co-variability between these oceanic anomalies and climate.

The ocean influence the climate 

Climate forecasts are essential for many societal applications and bridges the scientific gap that currently exists between the established fields of weather forecasting and projections of future climate change. It is commonly understood that the ocean, due to its large thermal inertia, is a major source of climate variability and predictability. However, several open questions exist on how and to what extent the ocean influences climate over land. This study detail a key aspect of climate predictability, and offers compelling evidence that oceanic variability exerts a strong influence on climate in the North Atlantic-Arctic region.

Citation: Årthun, M. et al. Skillful prediction of northern climate provided by the ocean. Nat. Commun. 8, 15875 doi: 10.1038/ncomms15875 (2017).

————————-

Die Bestände von Hummern in Australien und Neuseeland schwanken stark im Takte der Ozeanzyklen. Das berichtete nun eine Forschergruppe um Ivan Hinojosa im Fachblatt Fisheries Oceanography. Diese Anpassungsfähigkeit macht die Hummer dann insgesamt auch robust gegen den Klimawandel.

Differing environmental drivers of settlement across the range of southern rock lobster (Jasus edwardsii) suggest resilience of the fishery to climate change
Temporal and spatial trends in settlement of the southern rock lobster, Jasus edwardsii, were examined to identify the influence of environmental variables over different spatial scales. Settlement data were collected from 1994 to 2011 along the Southern Australian and New Zealand coasts. We identified common settlement trends at a regional scale (100–500 km): the magnitude of settlement at sites from South Australia (SA) and Victoria (VIC) were similar, but different to sites in Tasmania (TAS). In New Zealand, three spatial regions were identified: northern (NNZ), middle (MNZ) and southern regions (SNZ). Higher settlement in SA, VIC and MNZ occurred in years with higher rainfall and storms in spring and El Niño conditions. In TAS and SNZ, higher settlement occurred during La Niña conditions. These results suggest that settlement over regional scales is modulated by oceanic processes, but outcomes vary between regions. At a local scale, a higher wave period and wind relaxation were relatively more important than the sea surface temperature (SST) in SA and VIC. In TAS, the current velocity also influenced the strength of settlement. However, much of the local settlement variability was not explained by the models suggesting that settlement in J. edwardsii is a complex process where larval behaviour, biological factors and oceanographic processes interact over different scales. The apparently complex processes affecting settlement showed that environmental conditions that reduced settlement strength in one region of the fishery often increased settlement strength in other regions. This could provide resilience to climate change at the stock level.

————————-

Roger Köppel von der Weltwoche brachte im Juni 2017 ein lesenwertes Editorial:

Der heimlifeisse Pariser ­Hinterzimmer-Klimaschwindel fliegt auf. Gut so.

Die Maya, ein mittelamerikanisches Indianervolk, das in der frühen Neuzeit wegen anhaltender Dürre infolge Temperatur­anstiegs unterging, huldigten mit Fleiss und Akribie dem Sonnengott. Ich habe keine Ahnung, wie die Maya ihre Gottheit nannten, aber sie opferten ihr lebende Tiere und Menschen, weil ihnen ihre Medizinmänner erzählten, nur so sei der Zorn der Sonne zu besänftigen.

Die armen Maya wussten nicht, ob ihre ­Opfer dem Gott gefallen würden, aber sie ­opferten und huldigten ihm bis in den Untergang. Es wäre vermutlich schlauer gewesen, sie hätten ihre Ressourcen in eine Reform der landwirtschaftlichen Anbaumethoden investiert.

Wir sind heute wieder an einem ähnlichen Punkt. Die Sonne ist böse geworden und heizt die Atmosphäre auf. Die Menschen befragen ihre Medizinmänner, die ihnen drohend neue Opfer empfehlen. Keine Tiere oder Menschen diesmal, die Leute sollen Geld und Wohlstand auf die Altäre legen, gefragt sind Selbstkasteiung und Verzicht. Auch die Heutigen wissen nicht, ob ihre Darbringungen den Sonnen­göttern Freude machen, aber, ihren Medizinmännern vertrauend, hoffen sie, dass die Opfer irgendwann, vielleicht in 100 Jahren, Früchte tragen werden.

Klimapolitik ist Voodoo, Sonnenreligion, magisches Denken, auch eine Art Ablasshandel, an dem viele mitverdienen. Die Vorstellung, dass die Menschheit in einer konzertierten Aktion an Kongressen und Konferenzen die Durchschnittstemperaturen auf diesem Planeten steuern kann, ist so verrückt, dass sie schon fast wieder faszinierend ist. Die gleichen Leute, die seit Jahrzehnten erfolglos versuchen, die Staatsschulden zu senken, blühen vor den Mikrofonen auf, wenn sie den Leuten draussen erzählen können, wie sie mit ihren Konzepten den mutmasslichen weltweiten Temperaturanstieg begrenzen werden. Endlich eine Grenze, die sie sichern können.

Weiterlesen in der Weltwoche