News und Termine

Eine unglaubliche Geschichte: Wikipedia und der Hamburger Forsythienstrauch

Von Sebastian Lüning und Josef Kowatsch

An der Hamburger Binnenalster steht nahe der Lombardsbrücke ein Forsythienstrauch. Vor wenigen Tagen, am 24. März 2017, war es wieder soweit: Der Strauch blühte! Na und, wird der eine oder andere sagen. Soll er doch blühen. Nun ist dieser Strauch jedoch nicht irgendein Strauch, sondern auch ein wissenschaftliches Studienobjekt, das seit 1945 ununterbrochen beobachtet wird. Der Blühtermin des Forsythienstrauchs wird penibel festgehalten und in einer Langzeitreihe aufgetragen. Schauen wir zunächst auf die letzten 30 Jahre, ein Zeitraum der kimawissenschaftlich Relevanz besitzt (Abb. 1). Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar). Gut zu erkennen ist der deutliche Verspätungstrend beim Blühen. Der neue Datenpunkt aus diesem Jahr (2017) passt sich bestens in diesen Trend ein. Späteres Blühen ist in der Regel ein Anzeichen für einen kalten Winter (Abb. 2). Insofern will der unbestechliche Hamburger Forsythienstrauch so gar nicht in das Erzählmuster einer katastrophalen Klimaerwärmung passen.

 

Abbildung 1: Verschiebung des Blühtermins von Forsythiensträuchern auf der Hamburger Lombardsbrücke während der letzten 30 Jahre. Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar).

 

Abbildung 2: Entwicklung der Februar-Temperaturen in Deutschland während der vergangenen 30 Jahre. Daten DWD. Graphik: Kowatsch

 

Aufgrund seiner klimaologischen Relevanz besitzt der Hamburger Strauch sogar seine eigene Wikipedia-Seite. Bis zum Februar 2017 war die Seite relativ knapp gehalten und bestand eigentlich nur aus einem Unterkapitel mit dem Titel “Geschichte”. Dort hieß es damals (beim Link ganz nach unten scrollen um die Seitenversion zu begutachten):

Der Hamburger Forsythien-Kalender ist die phänometrische Aufzeichnung der Zeitpunkte des Blühbeginns der Forsythiensträucher an der Lombardsbrücke in Hamburg seit 1945.

Geschichte

Im zerstörten Hamburg, kurz vor Ende des Zweiten Weltkriegs, fielen Carl Wendorf am 27. März 1945 die blühenden Forsythiensträucher inmitten der Trümmer an der Lombardsbrücke auf. Er beschloss jedes Frühjahr den Blühbeginn zu notieren, was zu einer lückenlosen Aufzeichnung ab 1945 führte. Seit dem Tod von Carl Wendorf im Jahr 1984 führt Jens Iska-Holtz diese Liste weiter. Er meldet die Daten als phänologischer Beobachter an den Deutschen Wetterdienst.[1][2]

Die zunehmende Verspätung des Blühens während der letzten 30 Jahre blieb seltsamerweise im Wikipedia-Artikel unerwähnt. Kürzlich kontaktierte uns ein Naturfreund, dem diese Informationslücke auf der Wikipedia-Seite ebenfalls aufgefallen war. Der anonym bleiben wollende Naturfreund erklärte, dass er sich in der Mitte zwischen den Klimalagern verortet sehe, beide Seiten hätten zum Teil gute Argumente. Er hatte vom kruden Vorwurf von Seiten der Skeptiker gelesen, dass Wikipedia angeblich von Klimaktivisten unterwandert wäre. Dies sei schwer nachvollziehbar, dachte er sich.

Daher wagte er ein Experiment. Ganz oben auf der Wikipedia-Seite gibt es die Reiter “Bearbeiten” und “Versionsgeschichte“. Dort kann Jedermann/Jederfrau Ergänzungen oder Korrekturen von Wikipediaartikeln vornehmen. Am 8. Februar 2017 loggte sich der Naturfreund als “Greenway21″ bei Wikipedia ein und schlug eine wichtige Ergänzung auf der Seite des Hamburger Forsythienstrauches vor:

Während der letzten 50 Jahren ist ein generelles Vorrücken der Forsythienblüte im Jahresverlauf zu erkennen. Seit 1988 allerdings verspätet sich der Blüh-Termin der Hamburger Forsythien wieder zunehmend. [3]

Ein wissenschaftlich einwandfreies Statement, beschreibt es doch in fairer Weise zum einen den Langzeittrend und andererseits den hochrelevanten aktuellen Trend der letzten 30 Jahre. Die offizielle Langzeitreihe seit 1945 können Sie auf dieser Webseite des Deutschen Wetterdienstes anschauen (zweite Graphik auf der Seite, gelbe Kurve). Das Experiment hatte begonnen. Würden die Wikipedia-Redakteure die wichtige Ergänzung zulassen und freischalten? Es dauerte keine halbe Stunde, da war die Ergänzung wieder rückgängig gemacht. Ein Seiten-Editor mit dem Codenamen “DeWikiMan” verweigerte die Aufnahme. Grund: Der Trend zum verspäteten Blühen während der letzten 30 Jahre wäre statistisch nicht ausreichend belegt. Schauen Sie sich Abbildung 1 nocheinmal genau an. Ist der Trend wirklich nicht erkennbar?

Ganz offensichtlich wurde hier ein wichtiger Zusatz aus persönlichen Gründen blockiert. Daher lohnt sich ein Blick auf die Person “DeWikiMan”. Wer steckt dahinter? In seinem Wikipedia-Profil outet er sich als ökologisch Interessierter:

Mein Hauptinteresse hier gilt allem, was mit Umweltökonomik, Ökologischer Ökonomik und speziell Klimaökonomik (das Rot schmerzt!) zu tun hat.

Genau so stellt man sich einen Klimaaktivisten vor. Ein klassischer Torwächter, der auf Wikipedia nur Inhalte zulässst, die mit seiner Ideologie übereinstimmen. Auf keinen Fall ein guter Inhalts-Schiedsrichter für diese wichtige Online-Enzyklopädie. Aber DeWikiMan setzte noch einen oben drauf. Er grübelte 11 Tage und schrieb dann selber einen längeren Absatz, den niemand hinterfragte, ja hinterfragen konnte, denn DeWikiMan hatte ja die Änderungsmacht. Am 19. Februar 2017 erschien auf der Wikipedia-Seite ein ganz neues Unterkapitel mit dem kuriosen Titel “Früherer Blühbeginn“, also dem genauen Gegenteil des aktuellen Trends:

Im Jahr 1995 stellte der DWD fest, dass die Lombardsbrücke mit einer Verfrühung um 26 Tage in 50 Jahren von allen Standorten mit einer phänologischen Datenreihe den stärksten Trend aufwies.[3] Auch 2015 konstantierte der DWD für den Zeitraum zwischen 1945 und 2014 einen Trend zu einem immer früheren Blühbeginn.[4] Neben Änderungen des Klimas sind auch andere Änderungen der Umwelteinflüsse an diesem urbanen Standortes als Ursache in Betracht zu ziehen.[2][3] Hinzu kommt, dass die Forsythie, wenn kein ausreichender Kältereiz vorhanden ist, nicht unbedingt der Temperatur folgt. So gab es im Winter 2006/2007 ein Temperaturmaximum an der Lombardsbrücke, dennoch blühte die Forsythie relativ spät, deutlich nach ihrem Rekordwert 2001/2002, weil im warmen Winter 2006/2007 der Kältereiz gefehlt hatte.[4]

Der Wikipedia-Klimaaktivist nutzte seinen Hebel, um die Desinformation auf die Spitze zu treiben. Anstatt im Text in transparenter Weise auch Raum für den unbequemen Trend der letzten 30 Jahre zu schaffen, umtänzelt er ihn und betrachtet lediglich das für ihn passende Zeitfenster von 60 Jahren. Bitterböses Rosinenpicken. Wir danken Naturfreund “Greenway21″ für diesen wichtigen Test, der in eindrucksvoller Art und Weise bestätigt, dass Klimaaktivisten die Wikipedia-Seite gekapert und fest im Griff haben. DeWikiMan ist als Editor schwer haltbar geworden und Wikipedia sollte seine Aktivitäten einmal etwas genauer unter die Lupe nehmen. Schade, dass das ursprünglich ausgezeichnete Konzept einer von Freiwilligen geschriebenen Online-Enzyklopädie von politischen Aktivisten gekapert und in sensiblen Themenbereichen unbrauchbar gemacht wurde.

 

Abbildung 3: Hamburger Forsythiensträucher an der Binnenalster. Foto: NordNordWest, Lizenz: Creative Commons by-sa-3.0 de

 

 

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen

Es hat ein wenig gedauert, aber nun hat man sogar in Berlin realisiert, dass nur gemeinsame internationale Anstrengungen Sinn machen, wenn es um globale Probleme geht. Daniel Wetzel am 11. März 2017 in der Welt:

Bundesregierung gibt Alleingänge im Klimaschutz auf
Deutschland hat im Klimaschutz stets den Vorreiter und Musterschüler gespielt. Doch damit ist jetzt offenbar Schluss. Kanzleramtsminister Peter Altmaier spricht sich gegen nationale Alleingänge aus. [...] Denn der Bundesminister für besondere Aufgaben [Altmaier] stellte den versammelten Unternehmern und Managern die Erfüllung eines lang gehegten Wunsches in Aussicht: Mit den teuren klimapolitischen Alleingängen Deutschlands könnte es nach seinen Worten bald vorbei sein. „Ich bin fest davon überzeugt, dass der Weg nationaler Ziele falsch ist“, erklärte Altmaier vor den Teilnehmern der exklusiven „Klausurtagung Energie- und Umweltpolitik“, zu der der Wirtschaftsrat der CDU eingeladen hatte. Es sei zwar „schwer, bestehende Vereinbarungen zu canceln“, sagte Altmaier. Doch künftig brauche man „europäische und internationale Ziele“.

Ganzen Artikel in der Welt lesen.

Bereits einige Tage zuvor, am 6. März 2017, erläuterte Wetzel in derselben Zeitung die ungeschminkten Fakten des deutschen Energieexperiments:

Teuer und unrealistisch Die Energiewende droht zum ökonomischen Desaster zu werden
Während die Kosten für die Energiewende weiter steigen, sinkt laut einer eine McKinsey-Langzeit-Studie die Zahl der Ökostrom-Jobs. Und auch das wichtigste Ziel der Umstellung verfehlt die Politik. ie Sichtweisen der Bundesregierung und der Berater könnten nicht unterschiedlicher sein. Gerade hat die neue Bundeswirtschaftsministerin Brigitte Zypries (SPD) in hoher Auflage eine Broschüre mit dem Titel „Die Energiewende – unsere Erfolgsgeschichte“ verteilen lassen. Da wird auf 20 Seiten gepriesen, dass Deutschland inzwischen einen Ökostrom-Anteil von 32 Prozent erreicht hat und die Stromversorgung dabei weiterhin die sicherste der Welt ist. Die Strompreise für private Haushalte hätten sich stabilisiert. Insgesamt, so Zypries, sei die Energiewende „nachhaltig und sicher, bezahlbar und planbar, verlässlich und intelligent“. Ganz anders sieht das Bild aus, das die Beratungsgesellschaft McKinsey mit der aktuellen Fortschreibung ihres „Energiewende-Index“ zeichnet. Das Expertenteam um Senior Partner Thomas Vahlenkamp überprüft alle sechs Monate anhand von 15 quantitativ messbaren Kriterien, ob die von der Politik aufgestellten Energiewende-Ziele noch erreichbar sind. Der Titel dieses Papiers: „Die Kosten steigen weiter.“

Ganzen Artikel auf welt.de lesen.

Zu allem Überfluss scheint das vormals so hochgelobte Erneuerbare Energien Gesetz (EEG) das ganze Gegenteil von dem zu bewirken, was versprochen wurde. Pressemitteilung der Universität Hamburg vom 14. Februar 2017:

Wieviel Klimaschutz steckt im EEG?

Laut einer Studie der Universität Hamburg könnten die Treibhausgas-Emissionen trotz des Erneuerbare-Energien-Gesetzes steigen.

2017 ist die Reform des Erneuerbare-Energien-Gesetzes (EEG) in Kraft getreten. Mit dem EEG soll der Ausstoß von Treibhausgasen verringert und damit das Klima geschützt werden. Welchen Effekt das EEG tatsächlich für den Klimaschutz hat, haben Prof. Dr. Grischa Perino und Dr. Johannes Jarke vom Fachbereich Sozialökonomie der Universität Hamburg untersucht. Sie kommen zu dem Schluss, dass angesichts des europäischen Treibhausgas-Handelssystems (EU ETS) die Treibhausgasemissionen durch das EEG sogar steigen können.

Durch das EEG soll laut Bundeswirtschaftsministerium der Anteil erneuerbarer Energien von derzeit rund 32 Prozent auf 40 bis 45 Prozent im Jahr 2025 und auf 55 bis 60 Prozent im Jahr 2035 steigen. In ihrem Klimaschutzplan hat sich die Bundesregierung außerdem verpflichtet, die Treibhausgasemissionen bis 2050 im Vergleich zu 1990 um 80 bis 95 Prozent zu vermindern. Doch durch das europäische Emissionshandelssystem (EU ETS) ist die Obergrenze an Treibhausgasemissionen verbindlich festgelegt. Das EU ETS erfasst europaweit rund 12.000 Anlagen der Energiewirtschaft und der energieintensiven Industrie sowie alle innereuropäischen Flüge. Die Betreiber der Anlagen, die dem EU-ETS unterliegen, müssen für jede ausgestoßene Tonne CO2 ein Zertifikat abgeben. Emissionsrechte, die nicht benötigt werden, werden an andere teilnehmende Unternehmen verkauft oder für die Zukunft gespart. Eine Reduzierung der Emissionen in der deutschen Stromerzeugung verschiebt die Emissionen also lediglich an eine andere Stelle. Das hat auch das Gutachten Anfang Februar 2017 vorgestellte Gutachten des Wissenschaftlichen Beirats des Bundeswirtschaftsministeriums noch einmal betont.

Die Hamburger Forscher zeigen in ihrer gerade im „Journal of Environmental Economics and Management“ erschienenen Studie: Werden die erneuerbaren Energien durch einen Aufschlag auf den Strompreis finanziert, wie dies in Deutschland mit der EEG-Umlage der Fall ist, können die Treibhausgasemissionen insgesamt sogar steigen. Der Grund: Für Verbraucherinnen und Verbraucher ist Strom durch die Energiewende deutlich teurer geworden, so dass sie vermehrt fossile Energieträger in Bereichen nutzen, die nicht dem EU ETS unterliegen, und damit die Gesamtemissionen erhöhen. Eine Finanzierung der Energiewende über das Steuersystem würde diesen Effekt vermeiden.

Professor Perino: „Der Ausbau erneuerbarer Energien im Stromsektor ist ein zentraler Bestandteil der Energiewende und damit der Klimapolitik der Bundesregierung. Intuitiv erscheint das sehr sinnvoll. Auf den zweiten Blick sind die Zusammenhänge aber deutlich komplexer. Insbesondere die Wechselwirkungen mit dem Emissionshandel stellen derzeit so manche Intuition auf den Kopf. Eine regelgebundene Flexibilisierung der Emissionsobergrenze im Emissionshandel, wie auch vom Umweltbundesamt und dem Wissenschaftlichen Beirat des Bundeswirtschaftsministeriums gefordert, ist daher für die Klimawirkung des EEG entscheidend.“

Originalartikel: Do Renewable Energy Policies Reduce Carbon Emissions? On Caps and Inter-Industry Leakage”. Journal of Environmental Economics and Management, DOI: 10.1016/j.jeem.2017.01.004

Schauen Sie hierzu auch ein Video, in dem Prof. Perino seine Ergebnisse weiter erläutert.

Immer deutlicher wird, dass man sich mit der übereilten Energiewende in gefährliches Gelände vorgewagt hat. Dies zeigt auch ein Vorfall vom 24. Januar 2017 als das deutsche Stromnetz erneut am Rande des Zusammenbruchs stand. Der Grund dafür war die klägliche Leistung von Windkraftanlagen und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpft. Lesen Sie hierzu den Beitrag “24. Januar 2017 – Der Tag, an dem Merkels Energie­wende auf der Kippe stand” von Günter Keil auf EIKE.

Weite Teil der deutschen Landschaft sind mittlerweile mit Windkraftanlagen zugespargelt. Möglich gemacht wurde dies durch üppige staatliche Subventionen. Die laufen jedoch in ein paar Jahren aus. Der Rückbau der Stahlkolosse ist daher wohl nur eine Frage der Zeit. Was aufgebaut wurde, kann auch wieder abgebaut werden. Die Leipziger Volkszeitung berichtete am 16. März 2017:

Jedes dritte Windrad in Sachsen hat bald ausgedient
Hunderte Windräder in Sachsen und Thüringen könnten bald aus der Landschaft verschwinden. Ab Ende 2020 wird für Anlagen, die seit 20 Jahren in Betrieb sind, keine Einspeisevergütung mehr gezahlt. Weil ihr Betrieb laut Windenergieverband BWE dann unrentabel werde, droht in den meisten Fällen der Abriss. Gegen die anhaltende Flaute bei der Wind-energienutzung laufen Sachsens Grüne jetzt Sturm. Bundesweit sind rund 6000 Altanlagen betroffen, wie eine Deutsche Windguard-Studie im Auftrag der Naturstrom AG belegt. In den Folgejahren stünden weitere 1600 Rückbauten pro Jahr an.

Weiterlesen in der Leipziger Volkszeitung

Beim Klimaretter macht man sich bereits große Sorgen.  Jörg Staude beklagte am 2. März 2017:

Strompreis legt ab 2020 Windkraft still
Zufall oder Absicht? Am Aschermittwoch wird in Berlin eine Studie vorgestellt, laut der nach 2020 bis zu einem Drittel der Windkraft-Kapazität die Abschaltung droht, falls der Strompreis an der Börse so bleibt und es keine politischen Gegenmaßnahmen gibt.

Weiterlesen auf klimaretter.info.

Björn Peters vom Deutschen Arbeitgeber Verband schaute über die nationale Grenze hinüber und entdeckte in China einen Trend, der Magengrummeln verursacht. Sein Beitrag vom 20. März 2017:

Warum stoppt China den Ausbau von Windkraft?
Eine Meldung Ende Februar auf china.org.cn ließ die Fachwelt aufhorchen:  China hat den weiteren Ausbau der Windkraft in sechs wichtigen Provinzen vorerst gestoppt.  Die Förderung erneuerbarer Energien hat auch in China einen sehr hohen Stellenwert, daher lohnt ein näherer Blick auf die Umstände dieser Entscheidung. [...] Nach den Pressemeldungen war der Ausbaustopp eine Reaktion auf die geringe Nutzbarkeit des Windstroms.  Traurige Rekordhalter waren die Anlagen in Gansu in Zentralchina.  Dort konnten nur 57 % der durch Windenergieanlagen im Jahr 2016 produzierten Energie auch genutzt werden.  In der sehr großen Provinz Xinjiang im Nordwesten Chinas waren es 62 %, in den beiden benachbarten Provinzen Jilin und Heilongjiang im Nordosten Chinas waren es 70 % und 81 %, in der Inneren Mongolei, eine große Provinz im Norden Chinas immerhin 79 %.  Insgesamt blieben im Jahr 2016 fast 50 TWh an Windstrom ungenutzt, im Jahr davor bereits 34 TWh.  Dass so viel Energie quasi weggeworfen werden musste, liegt vordergründig am immer noch nicht ausreichenden Leitungsbau zwischen den entlegenen Provinzen mit hohem Windaufkommen und den industriellen Zentren.  Dahinter verbirgt sich aber ein tieferes Problem der Windenergie, das hier dank der besseren Datenlage anhand der deutschen Windstromproduktion skizziert wird. 

Ganzen Beitrag auf deutscherarbeitgeberverband.de lesen. Zur Meldung auf china.org.cn geht es hier.

Und abschließend wieder eine Nachricht, die hoffnungsfroh stimmt. Kann schon bald im großen Maßstab Treibstoff aus CO2 gewonnen werden, sozusagen Gold aus Stroh? Pressemitteilung der Duke University vom 23. Februar 2017 (via Science Daily):

Light-driven reaction converts carbon dioxide into fuel: Illuminated rhodium nanoparticles catalyze key chemistry

Duke University researchers have developed tiny nanoparticles that help convert carbon dioxide into methane using only ultraviolet light as an energy source.

Having found a catalyst that can do this important chemistry using ultraviolet light, the team now hopes to develop a version that would run on natural sunlight, a potential boon to alternative energy. Chemists have long sought an efficient, light-driven catalyst to power this reaction, which could help reduce the growing levels of carbon dioxide in our atmosphere by converting it into methane, a key building block for many types of fuels. Not only are the rhodium nanoparticles made more efficient when illuminated by light, they have the advantage of strongly favoring the formation of methane rather than an equal mix of methane and undesirable side-products like carbon monoxide. This strong “selectivity” of the light-driven catalysis may also extend to other important chemical reactions, the researchers say. “The fact that you can use light to influence a specific reaction pathway is very exciting,” said Jie Liu, the George B. Geller professor of chemistry at Duke University. “This discovery will really advance the understanding of catalysis.” The paper appears online Feb. 23 in Nature Communications.

Despite being one of the rarest elements on Earth, rhodium plays a surprisingly important role in our everyday lives. Small amounts of the silvery grey metal are used to speed up or “catalyze” a number of key industrial processes, including those that make drugs, detergents and nitrogen fertilizer, and they even play a major role breaking down toxic pollutants in the catalytic converters of our cars. Rhodium accelerates these reactions with an added boost of energy, which usually comes in the form of heat because it is easily produced and absorbed. However, high temperatures also cause problems, like shortened catalyst lifetimes and the unwanted synthesis of undesired products.

In the past two decades, scientists have explored new and useful ways that light can be used to add energy to bits of metal shrunk down to the nanoscale, a field called plasmonics. “Effectively, plasmonic metal nanoparticles act like little antennas that absorb visible or ultraviolet light very efficiently and can do a number of things like generate strong electric fields,” said Henry Everitt, an adjunct professor of physics at Duke and senior research scientist at the Army’s Aviation and Missile RD&E Center at Redstone Arsenal, AL. “For the last few years there has been a recognition that this property might be applied to catalysis.”

Xiao Zhang, a graduate student in Jie Liu’s lab, synthesized rhodium nanocubes that were the optimal size for absorbing near-ultraviolet light. He then placed small amounts of the charcoal-colored nanoparticles into a reaction chamber and passed mixtures of carbon dioxide and hydrogen through the powdery material. When Zhang heated the nanoparticles to 300 degrees Celsius, the reaction generated an equal mix of methane and carbon monoxide, a poisonous gas. When he turned off the heat and instead illuminated them with a high-powered ultraviolet LED lamp, Zhang was not only surprised to find that carbon dioxide and hydrogen reacted at room temperature, but that the reaction almost exclusively produced methane. “We discovered that when we shine light on rhodium nanostructures, we can force the chemical reaction to go in one direction more than another,” Everitt said. “So we get to choose how the reaction goes with light in a way that we can’t do with heat.”

This selectivity — the ability to control the chemical reaction so that it generates the desired product with little or no side-products — is an important factor in determining the cost and feasibility of industrial-scale reactions, Zhang says. “If the reaction has only 50 percent selectivity, then the cost will be double what it would be if the selectively is nearly 100 percent,” Zhang said. “And if the selectivity is very high, you can also save time and energy by not having to purify the product.” Now the team plans to test whether their light-powered technique might drive other reactions that are currently catalyzed with heated rhodium metal. By tweaking the size of the rhodium nanoparticles, they also hope to develop a version of the catalyst that is powered by sunlight, creating a solar-powered reaction that could be integrated into renewable energy systems.

“Our discovery of the unique way light can efficiently, selectively influence catalysis came as a result of an on-going collaboration between experimentalists and theorists,” Liu said. “Professor Weitao Yang’s group in the Duke chemistry department provided critical theoretical insights that helped us understand what was happening. This sort of analysis can be applied to many important chemical reactions, and we have only just begun to explore this exciting new approach to catalysis.”

Paper: Xiao Zhang, Xueqian Li, Du Zhang, Neil Qiang Su, Weitao Yang, Henry O. Everitt, Jie Liu. Product selectivity in plasmonic photocatalysis for carbon dioxide hydrogenation. Nature Communications, 2017; 8: 14542 DOI: 10.1038/NCOMMS14542

 

Großbaustelle Klimamodelle: Probleme mit Pilzen, Bakterien, Boden-CO2 und Regionalmodellierungen

Klimamodelle sollen das Klima der Erde virtuell nachbilden. Dazu müssen alle Prozess in Gleichungen gefasst werden, aus denen der Computer dann den Verlauf in Zeit und Raum berechnet. Die Ergebisse von Klimamodellen bilden die Grundlage für den begonnenen weitreichenden Umbau der Energiesysteme und Gesellschaft. Die Erwärmung der letzten 150 Jahre bekommen die Modelle einigermaßen hin. Der Anstieg des CO2 passt gut zur Erwärmung. Allerdings ist im selben Zeitraum auch die Sonnenaktivität stark angestiegen. Hat sie wirklich nichts mit der Erwärmung zu tun?

Einen Hinweis auf Probleme bei den Klimamodellen gibt die Auswertung von regionalen Entwicklungen. Eigentlich sollten die Modelle die kleinermaßstäblichen Klimaentwicklungen gut bewältigen können, denn die Summe der regionalen Entwicklungen ergibt doch eigentlich die globale Summe. Interessanterweise versagen die Modelle jedoch reihenweise, wenn es um regionale Simulationen geht. Hierauf wies im August 2016 die Penn State University in einer Pressemitteilung noch einmal ausdrücklich hin:

Global climate models do not easily downscale for regional predictions

One size does not always fit all, especially when it comes to global climate models, according to Penn State climate researchers.”The impacts of climate change rightfully concern policy makers and stakeholders who need to make decisions about how to cope with a changing climate,” said Fuqing Zhang, professor of meteorology and director, Center for Advanced Data Assimilation and Predictability Techniques, Penn State. “They often rely upon climate model projections at regional and local scales in their decision making.”

Zhang and Michael Mann, Distinguished professor of atmospheric science and director, Earth System Science Center, were concerned that the direct use of climate model output at local or even regional scales could produce inaccurate information. They focused on two key climate variables, temperature and precipitation.

They found that projections of temperature changes with global climate models became increasingly uncertain at scales below roughly 600 horizontal miles, a distance equivalent to the combined widths of Pennsylvania, Ohio and Indiana. While climate models might provide useful information about the overall warming expected for, say, the Midwest, predicting the difference between the warming of Indianapolis and Pittsburgh might prove futile.

Regional changes in precipitation were even more challenging to predict, with estimates becoming highly uncertain at scales below roughly 1200 miles, equivalent to the combined width of all the states from the Atlantic Ocean through New Jersey across Nebraska. The difference between changing rainfall totals in Philadelphia and Omaha due to global warming, for example, would be difficult to assess. The researchers report the results of their study in the August issue of Advances in Atmospheric Sciences.

“Policy makers and stakeholders use information from these models to inform their decisions,” said Mann. “It is crucial they understand the limitation in the information the model projections can provide at local scales.” Climate models provide useful predictions of the overall warming of the globe and the largest-scale shifts in patterns of rainfall and drought, but are considerably more hard pressed to predict, for example, whether New York City will become wetter or drier, or to deal with the effects of mountain ranges like the Rocky Mountains on regional weather patterns.

“Climate models can meaningfully project the overall global increase in warmth, rises in sea level and very large-scale changes in rainfall patterns,” said Zhang. “But they are uncertain about the potential significant ramifications on society in any specific location.” The researchers believe that further research may lead to a reduction in the uncertainties. They caution users of climate model projections to take into account the increased uncertainties in assessing local climate scenarios. “Uncertainty is hardly a reason for inaction,” said Mann. “Moreover, uncertainty can cut both ways, and we must be cognizant of the possibility that impacts in many regions could be considerably greater and more costly than climate model projections suggest.”

Ein Jahr zuvor hatte bereits die Lund University auf eine große Unsicherheit in den Klimamodellen hingewiesen, die wohl den wenigsten Beobachtern in den Sinn gekommen wäre: Pilze und Bakterien. Diese werden von den gängigen Klimamodellen fundamental falsch dargestellt. Hier die Pressemitteilung vom  28. August 2015:

Future climate models greatly affected by fungi and bacteria
Researchers from Lund University, Sweden, and USA have shown that our understanding of how organic material is decomposed by fungi and bacteria is fundamentally wrong. This means that climate models that include microorganisms to estimate future climate change must be reconsidered.

When a plant dies, its leaves and branches fall to the ground. Decomposition of soil organic matter is then mainly carried out by fungi and bacteria, which convert dead plant materials into carbon dioxide and mineral nutrients. Until now, scientists have thought that high quality organic materials, such as leaves that are rich in soluble sugars, are mainly decomposed by bacteria. Lower quality materials, such as cellulose and lignin that are found in wood, are mainly broken down by fungi. Previous research has also shown that organic material that is broken down by fungi results in a reduced leakage of carbon dioxide and nutrients compared to material decomposed by bacteria. This has consequences for climate models, since more loss of carbon dioxide and mineral nitrogen would have a direct bearing on the soil’s contribution to greenhouse gases and eutrophication.

In a 23-year experiment, researchers from Lund University and USA have examined the relative significance of fungal and bacterial decomposition. “In contrast with expectations, there was no evidence that high quality organic material was mainly broken down by bacteria. In fact, the data strongly suggested the contrary”, says Johannes Rousk, researcher in Microbial Ecology at Lund University in Sweden. “There was also no evidence to suggest that organic material broken down by fungi reduced the leakage of carbon dioxide into the atmosphere, or the leakage of nutrients. Once again, the results tended to suggest the contrary”, says Johannes Rousk. The results could have consequences not only for future climate models, but may also impact current policies on land use intended to promote fungi. This may be based on flawed assumptions regarding the fungal role in reducing negative environmental effects.

Publication: Revisiting the hypothesis that fungal-to-bacterial dominance characterizes turnover of soil organic matter and nutrients

Die großen Unsicherheiten in den Klimamodellen hinsichtlich des CO2-Haushalts im Boden sind auch Thema einer Pressemitteilung der Yale University vom 1. August 2016:

Managing Uncertainty: How Soil Carbon Feedbacks Could Affect Climate Change

A new Yale-led paper makes the case that developing meaningful climate projections depends upon a better understanding of the role of “soil carbon turnover.”

There is more than twice as much carbon in the planet’s soils than there is in its atmosphere, so the loss of even a small proportion of that could have a profound feedback effect on the global climate. Yet in its most recent report, in 2013, the Intergovernmental Panel on Climate Change (IPCC) used models that paid less attention to soil carbon potentially entering the atmosphere than had earlier reports, concluding that there simply wasn’t enough evidence about how warmer global temperatures might impact soil carbon stocks.

A new Yale-led paper makes the case that developing meaningful climate projections will rely on understanding the role of “soil carbon turnover” and how it might potentially trigger climate feedbacks in a warming world. Writing in the journal Nature Climate Change, a team of scientists calls for more collaboration between modelers and soil scientists to improve the scientific understanding of the mechanisms that control the creation, stabilization, and decomposition of carbon in the soil. That in turn will promote the kinds of experiments that will begin to remove uncertainties about the competing mechanisms that drive soil carbon stocks, the researchers write.

While scientists might never eliminate all uncertainty when it comes to evaluating the mechanisms driving changes in soil carbon stocks, new research advances are making it possible to predict the full range of potential outcomes, said Mark Bradford, an Associate Professor of Terrestrial Ecosystem Ecology at the Yale School of Forestry & Environmental Studies (F&ES) and lead author of the study. And that, he says, will increase confidence. “There is so much discussion of uncertainty in the public debate about climate change that the term now seems ambiguous and politically loaded,” Bradford said. “The discussion should not be about how much uncertainty there is, but rather about how much confidence we have that the real planetary response lies somewhere in the range of projected uncertainty.”  “You gain scientific confidence by representing the best — and sometimes polar opposite — ideas about the how the world works in your models. If someone tells you they have high confidence that something will happen, you can then take actions based on the best knowledge available.”

Warming temperatures can trigger two very different changes in soil carbon soil levels. On the one hand, they can stimulate the growth of plants, increasing the amount of carbon storage potential. Conversely, those higher temperatures can also accelerate the activity of organisms that live in the soil and consume decaying plant matter. In that case, there is a net increase in the amount of carbon released from the biosphere into the atmosphere. In other words, one function puts carbon into the soil, keeping it out of the atmosphere, while the other emits it into the atmosphere. The twist, however, is that the processes that emit carbon from the soil also convert a small fraction of the decaying plant matter into stores of carbon that can be locked away over millennial timescales, which would be optimal to minimizing climate impacts.

While scientists have made great advances in understanding how plants will respond, their ability to evaluate how much carbon goes into the soil, and where it ends up, is made difficult because it’s not possible to measure directly. “In the soil, we don’t know how things are working because, if you like, it’s as clear as mud,” Bradford said. “Often we can’t measure what we’re trying to measure because we can’t see the organisms. You have millions of individual microbes — from thousands of cryptic species — in just a handful of soil.” For these reasons, he said, much of the understanding of how soil carbon stocks will respond to warming is based only on the outputs, which is like trying to calculate the balance of a bank account based simply on how much money is being withdrawn.

Another complicating factor is that our knowledge of how soil carbon is created and stabilized is undergoing somewhat of a conceptual revolution, and only one set of ideas is represented in the climate models, the new paper says. For decades scientists assumed that carbon entering the soil through materials that are harder to “digest” by microbes — like, say, wood — would be more likely to remain in the soil longer. In recent years, however, there has emerged a growing consensus that carbon is more likely to remain in the soil if it enters through more digestible plant matter — a cloverleaf, for instance. “The science has flipped,” Bradford said. “The harder it is to digest initially the less of it stays in the soil, whereas the easier it is to be eaten then the more of it stays in the soil.” This is important because it’s the easily digestible plant matter — such as the sugars released from plant roots into the soil — that likely eventually get converted into the long term stores of soil carbon but they are also the hardest inputs to quantify.

This growing awareness shifts the way scientists view ecosystem management, from thinking about the biomass that you can see aboveground to a focus on thinking about the amount of carbon that can be pumped belowground directly through the roots of the plants and to the organisms in the soils. Ultimately, Bradford says, it will be impossible to eliminate all uncertainty. But that, he says, is not such a bad thing. “By increasing our real understanding, we might even end up making our climate projections more uncertain, in terms of a greater range in the extent the planet might warm,” he said. “But we’ll be more confident that the true answer falls within that range.” “Advancing our confidence and taking necessary actions will ultimately require that we embrace uncertainty as a fact of life.”

 

Wird die CO2-Verweildauer in der Atmosphäre überschätzt?

Der CO2-Gehalt der Erdathmosphäre ist mittlerweile auf einen Stand geklettert, der alle Werte der letzten 800.000 Jahre übertrifft (Abb. 1). Während der Eiszeiten sank die CO2-Konzentration bis auf 180 ppm ab, während er in den dazwischenliegenden Warmzeiten (Interglazialen) auf 250-300 ppm hinaufkletterte. Grund für diese CO2-Entwicklung ist vor allem das Ausgasen des CO2 aus dem wärmernen Interglazial-Wasser. Seit Beginn der Industriellen Revolution stieg der CO2-Wert jedoch auf Werte deutlich oberhalb der typischen Warmzeit-Spannweite. Aktuell besitzt die Atmosphäre einen CO2-Anteil von etwas mehr als 400 ppm.

Abbildung 1: CO2-Verlauf der letzten 800.000 Jahre. Quelle: Scripps Institution of Oceanography, via Climate Central.

 

Die große Frage ist nun, wie lange die Natur wohl brauchen würde, bis der antrhopogene CO2-Berg wieder abgebaut ist, sofern die CO2-Emissionen stark zurückgefahren werden könnten. Nehmen wir einmal an, von heute auf morgen würden Kohle, Öl und Gas verboten werden. In wievielen Jahren wäre der CO2-Überschuss vom natürlichen Kreislauf aufgenommen und aus der Atmosphäre verschwunden sein? Der 5. IPCC-Bericht schreibt hier, dass nach 1000 Jahren 85-60% des anthropogenen CO2 aus der Atmosphäre wieder verschwunden wären. Der vollständig Abbau würde aber mehrere hunderttausend Jahre dauern. In Kapitel 6 der Arbeitsgruppe 1 heißt es dazu:

The removal of human-emitted CO2 from the atmosphere by natural processes will take a few hundred thousand years (high confidence). Depending on the RCP scenario considered, about 15 to 40% of emitted CO2 will remain in the atmosphere longer than 1,000 years. This very long time required by sinks to remove anthropogenic CO2 makes climate change caused by elevated CO2 irreversible on human time scale.

Laut Umweltbundesamt (UBA) geht es aber auch schneller. Auf der UBA-Webseite wird angegeben:

Kohlendioxid ist ein geruch- und farbloses Gas, dessen durchschnittliche Verweildauer in der Atmosphäre 120 Jahre beträgt.

Von einem ähnlichen Wert geht auch Mojib Latif aus: Infranken.de berichtete am 13. Januar 2016 über einen Latif-Vortrag im Rahmen einer Lions-Club-Veranstaltung:

“100 Jahre bleibt CO2 in der Luft”
Der Klimaforscher Professor Mojib Latif machte als Gastredner beim Neujahresempfang des Lions-Clubs auf den Klimawandel aufmerksam. [...] “Wenn wir CO2 in die Luft blasen, dann bleibt das da 100 Jahre”, so Latif.

Hermann Harde von der Helmut-Schmidt-University Hamburg beschreibt in einer Arbeit, die im Mai 2017 im Fachblatt Global and Planetary Change erscheint und bereits vorab online verfügbar ist, einen neuen Ansatz, der Hinweise auf eine viel kürzere CO2-Verweildauer in der Atmosphäre liefert. Laut Harde bleibt das überschüssige CO2 im Durchschnitt lediglich 4 Jahre in der Luft:

Scrutinizing the carbon cycle and CO2 residence time in the atmosphere
Climate scientists presume that the carbon cycle has come out of balance due to the increasing anthropogenic emissions from fossil fuel combustion and land use change. This is made responsible for the rapidly increasing atmospheric CO2 concentrations over recent years, and it is estimated that the removal of the additional emissions from the atmosphere will take a few hundred thousand years. Since this goes along with an increasing greenhouse effect and a further global warming, a better understanding of the carbon cycle is of great importance for all future climate change predictions. We have critically scrutinized this cycle and present an alternative concept, for which the uptake of CO2 by natural sinks scales proportional with the CO2 concentration. In addition, we consider temperature dependent natural emission and absorption rates, by which the paleoclimatic CO2 variations and the actual CO2 growth rate can well be explained. The anthropogenic contribution to the actual CO2 concentration is found to be 4.3%, its fraction to the CO2 increase over the Industrial Era is 15% and the average residence time 4 years.

Dieser Wert ist nicht zu verwechseln mit der Verweildauer von einzelnen CO2-Molekülen in der Atmosphäre. Hier herrscht weitgehend Einigkeit, dass die Moleküle selber nur einige Jahre in der Luft bleiben, bevor sie mit CO2 aus dem Meerwasser im Sinne einer Gleichgewichtsreaktion ausgetauscht werden.

 

 

 

Hartmut Heinrich – Ein Pionier der Paläoklimawissenschaften

Die natürliche Klimavariabilität dokumentieren und verstehen, das wäre eine der Hauptaufgaben der modernen Klimawissenschaften. Der deutsche Meeresgeologe und Klimatologe Hartmut Heinrich war seiner Zeit weit voraus. Bereits Ende der 1980er Jahre hat er in Meeressedimenten ein wiederkehrendes Klimasignal entdeckt, die nach ihm benannten sogenannten Heinrich-Ereignisse. Wikipedia beschreibt:

Heinrich-Ereignisse beschreiben Perioden beschleunigter Eisvorstöße (englisch Ice flow surges) und deren Abfluss ins Meer. Die Ereignisse wurden aufgrund von Beobachtungen eines verstärkten Sedimenteintrages kontinentalen Ursprunges in jungpleistozänen Sedimentlagen am Meeresboden postuliert. Diese Sedimentlagen werden auch als Heinrich-Lagen oder IRD (englisch ice rafted debris oder ice rafted deposit) bezeichnet.[1] Aufgrund der groben Sedimentfraktion erscheint ein Transport durch Meeresströmungen unwahrscheinlich, als Transportmedium dürften daher vielmehr Eisberge/-schollen in Frage kommen.

Heinrich-Ereignisse wurden im Jahr 1988 erstmals von Hartmut Heinrich erwähnt und bisher nur für die letzte Kaltzeit nachgewiesen. Bei diesen Ereignissen brachen große Mengen an Eisbergen von den vorrückenden Gletschermassen ab und drifteten über den Nordatlantik. Die Eisberge führten Sedimente mit sich, die durch die Gletschertätigkeit abgetragen und inkorporiert worden waren; durch das Schmelzen der Eisberge fiel dieses von Eisbergen verschleppte Material auf den Meeresboden.

Das Schmelzen der Eisberge führte zu einer erhöhten Süßwasserzufuhr in den Nordatlantik. Dieser Zustrom an kaltem Süßwasser hat wahrscheinlich die dichtegetriebenen thermohalinen Zirkulationsmuster des Ozeans verändert. Die Ereignisse fallen oft mit Hinweisen auf globale Klimaschwankungen zusammen.

Weiterlesen auf Wikipedia.

Hans von Storch und Kay Emeis haben kürzlich ein spannendes Interview mit dem Klimapionier geführt. Absolut lesenswert. Das pdf des Interview finden Sie auf academia.edu. Leider kehrte Hartmut Heinrich der Wissenschaft früh den Rücken. In der von Klimamodellierern dominierten Klimawelt bräuchten wir heute mehr Forscher vom Typus Heinrich.

 

Philipp Blom: Die Kleine Eiszeit

Im Februar 2017 erschien ein neues Buch von Philip Blom zur Kleinen Eiszeit:

Die Welt aus den Angeln: Eine Geschichte der Kleinen Eiszeit von 1570 bis 1700 sowie der Entstehung der modernen Welt, verbunden mit einigen Überlegungen zum Klima der Gegenwart

Eine Rezension des Buches erschien am 10. März 2017 in der Welt von Christoph Arens:

Plötzlicher Klimawandel Vor 330 Jahren war ganz Europa ein eisiges Reich
Lange Winter und kurze, kühle Sommer: Im 17. Jahrhundert änderte sich das Klima in Europa dramatisch. Hungersnöte waren die Folge. Der Historiker Philipp Blom hat erforscht, wie der Kontinent die „Kleine Eiszeit“ überlebte.

Was passiert in einer Gesellschaft, wenn sich das Klima ändert? Wer stirbt, wer überlebt? Was bricht zusammen, und was wächst? „Es wirkt wie ein sadistisches Experiment“, erdacht von einem „böswilligen Dämon oder einem außerirdischen Wissenschaftler, ein Tierversuch mit ganzen Gesellschaften“, schreibt der Historiker Philipp Blom in seinem neuen Buch „Die Welt aus den Angeln.“

Weiterlesen in der Welt

———————-

Peter Heller am 25. Februar 2017 in Tichys Einblick:

Fakten statt Dogmen: Klimakatastrophe in der Krise
Mit einer Podiumsdiskussion wollte die VolkswagenStiftung zu mehr Klimaschutzanstrengungen aufrufen. Das aber scheiterte kläglich. Ein Veranstaltungsbericht.

Nach neunzig Minuten war für Bettina Münch-Epple die Grenze des Erträglichen überschritten. Unübersehbar hatte sich in ihr bis dahin viel verwirrte Verzweiflung aufgestaut, die schließlich in eine nur mühsam kaschierte Publikumsbeschimpfung mündete. Die Verärgerung der Leiterin der Bildungskommunikation des WWF Deutschland entstand, weil der Verlauf des Abends so gar nicht dem Plan des Veranstalters entsprach.

Unter dem Titel „Klimaschutz ade? Wie kann die Gesellschaft mobilisiert werden?“ wollte die von dem gleichnamigen Konzern unabhängige VolkswagenStiftung eigentlich darüber diskutieren lassen, warum denn gegen den „kommenden Klimawandel“ trotz der „düsteren Vorhersagen“ der Wissenschaft nichts getan würde.

Die mit apokalyptischen Bildern gefüllte Ankündigung vermittelte deutlich das Bestreben, über die Gleichsetzung von „Klimawandel“ mit „Klimakatastrophe“ unter dem tarnenden Überbau einer wissenschaftlichen Debatte Volkserziehung zu betreiben. Als aber der offensichtlich zum Zweck der seriösen Untermauerung „dramatischer Befunde“ geladene Klimaforscher Hans von Storch seinen Impulsvortrag mit dem Satz begann, er wäre nicht gekommen, um irgendwen zu mobilisieren, flog ihm die Sympathie der gut einhundertfünfzig Zuhörer spürbar zu. Seine weiteren Ausführungen ließen dann auch der Auffassung Raum, der Stand des Wissens sei wohl doch nicht so besorgniserregend, was viele Gäste, erkennbar am Beifall, mit Genugtuung zur Kenntnis nahmen.

Weiterlesen auf Tichys Einblick

 

Klimamodelle auf dem Prüfstand

Klimamodelle wurden vor zwanzig Jahren als der große Durchbruch gefeiert. Endlich konnte man die Realität im Computer nachvollziehen. Immer größer und schneller wurden die Rechner. Man glaubte fest daran, dass man nur noch i-Tüpfelchen justieren müsste und kurz vor dem Ziel war. Als dann aber die Rechenergebnisse mit der Realität verglichen wurden, ergaben sich riesige unerklärliche Diskrepanzen. Parallel dazu erarbeiteten Paläoklimatologen eine immer robustere Rekonstruktion des realen Klimaverlaufs, was die Probleme sogar noch offensichtlicher machte. Im Monatsabstand erscheinen heute Papers, die auf die schwerwiegenden Probleme der Klimamodellier hinweisen. Tests werden bevorzugt in der Mitte der Kleinen Eiszeit um 1800 begonnen, da dann die Erwärmung der letzten 200 Jahre so schön zum CO2-Anstieg passt. Geht man dann aber auf die letzten 1000 Jahre zurück, versagt die Technik.

Fabius Maximus wies im März 2016 auf das Offensichtliche hin: Die Modelle müssen viel schärfer getestet und kalibriert werden, bevor sie für Zukunftsmodellierungen freigegeben werden:

We can end the climate policy wars: demand a test of the models
[...] The policy debate turns on the reliability of the predictions of climate models. These can be tested to give “good enough” answers for policy decision-makers so that they can either proceed or require more research. I proposed one way to do this in Climate scientists can restart the climate change debate & win: test the models!— with includes a long list of cites (with links) to the literature about this topic. This post shows that such a test is in accord with both the norms of science and the work of climate scientists. [...] Models should be tested vs. out of sample observations to prevent “tuning” the model to match known data (even inadvertently), for the same reason that scientists run double-blind experiments). The future is the ideal out of sample data, since model designers cannot tune their models to it. Unfortunately…

“…if we had observations of the future, we obviously would trust them more than models, but unfortunately observations of the future are not available at this time.”
— Thomas R. Knutson and Robert E. Tuleya, note in Journal of Climate, December 2005.

There is a solution. The models from the first four IPCC assessment reports can be run with observations made after their design (from their future, our past) — a special kind of hindcast.

Ein anderer großer Kritikpunkt an den Kimamodellen ist das sogenannte Tuning. Hier werden die Klimamodelle so justiert, das sie möglichst nah an das gewünschte Ergebnis herankommen. Dies geschieht meist hinter verschlossenen Türen im dunklen Kämmerlein und leidet unter fehlender Transparenz. Hourdin et al. 2016 haben das Problem in einem Übersichtspaper ausführlich beschrieben. Judith Curry empfiehlt die Abhandlung wärmstens.

Two years ago, I did a post on Climate model tuning,  excerpts: “Arguably the most poorly documented aspect of climate models is how they are calibrated, or ‘tuned.’ I have raised a number of concerns in my Uncertainty Monster paper and also in previous blog posts.The existence of this paper highlights the failure of climate modeling groups to adequately document their tuning/calibration and to adequately confront the issues of introducing subjective bias into the models through the tuning process.”

Think about it for a minute. Every climate model manages to accurately reproduce the 20th century global warming, in spite of the fact that that the climate sensitivity to CO2 among these models varies by a factor of two. How is this accomplished? Does model tuning have anything to do with this?

Ganzen Beitrag auf Climate Etc. lesen.

Im November 2016 beschrieb Paul Voosen im angesehenen Fachblatt Science die Notwendigkeit, die Geheimniskrämerei zu beenden und die Black Boxes im Sinne der Transparenz für die Öffentlichkeit zu öffnen:

Climate scientists open up their black boxes to scrutiny
Climate models render as much as they can by applying the laws of physics to imaginary boxes tens of kilometers a side. But some processes, like cloud formation, are too fine-grained for that, and so modelers use “parameterizations”: equations meant to approximate their effects. For years, climate scientists have tuned their parameterizations so that the model overall matches climate records. But fearing criticism by climate skeptics, they have largely kept quiet about how they tune their models, and by how much. That is now changing. By writing up tuning strategies and making them publicly available for the first time, groups hope to learn how to make their predictions more reliable—and more transparent.

 

Sonne macht Klima: Spanien und Portugal

Beeinflusst die Sonne das Klima? Im heutigen Beitrag wollen wir neue Studien aus Spanien und Portugal vorstellen, die hier Licht ins Dunkel bringen. Im Februar 2017 erschien in Climate of the Past eine Baumring-Studie einer Gruppe um Ernesto Tejedor, in der eine Temperaturrekonstruktion für die Iberische Halbinsel für die vergangenen 400 Jahre vorgestellt wird. Die Autoren heben hervor, dass die Temperaturschwankungen recht gut mit den Schwankungen der Sonnenaktivität zusammenpassen. Warme Phasen gehen dabei mit Zeiten erhöhter Sonnenaktivität einher. Insgesamt hat sich das Untersuchungsgebiet in diesen 400 Jahren um fast 3°C erwärmt, was den Übergang von der Kleinen Eiszeit zur Modernen Wärmeperiode widerspiegelt (Abb.). Allerdings gab es bereits um 1625 und 1800 Phasen, als die Temperaturen für kurze Zeit das heutige Niveau erreichten.

Abbildung: Temperaturentwicklung im Gebirgszug Nordspanien während der letzten 400 Jahre und Vergleich mit der Sonnenaktivität. Quelle: Tejedor et al. 2017.

 

Hier der Abstract der Studie:

Temperature variability in the Iberian Range since 1602 inferred from tree-ring records
Tree rings are an important proxy to understand the natural drivers of climate variability in the Mediterranean Basin and hence to improve future climate scenarios in a vulnerable region. Here, we compile 316 tree-ring width series from 11 conifer sites in the western Iberian Range. We apply a new standardization method based on the trunk basal area instead of the tree cambial age to develop a regional chronology which preserves high- to low-frequency variability. A new reconstruction for the 1602–2012 period correlates at −0.78 with observational September temperatures with a cumulative mean of the 21 previous months over the 1945–2012 calibration period. The new IR2Tmax reconstruction is spatially representative for the Iberian Peninsula and captures the full range of past Iberian Range temperature variability. Reconstructed long-term temperature variations match reasonably well with solar irradiance changes since warm and cold phases correspond with high and low solar activity, respectively. In addition, some annual temperature downturns coincide with volcanic eruptions with a 3-year lag.

Weiter gehts in Portugal. Anna Morozova und Tatiana Barlyaeva analysierten den Temperaturverlauf der letzten 100 Jahre in Lissabon, Coimbra und Porto. Dabei stießen sie auf ein schwaches aber statistisch gut abgesichertes Signal der 11- und 22-jährigen Sonnenzyklen in den Temperaturdaten. Im Haupttext ihrer Arbeit heißt es dazu:

Weak but statistically significant (bi-)decadal signals in the temperature series that can be associated with the solar and geomagnetic activity variations were found. These signals are stronger during the spring and autumn seasons. The multiple regression models which include the sunspot numbers or the geomagnetic indices among other regressors have higher predictionquality. The wavelet coherence analysis shows that there are time lags between the temperature variations and the solar activity cycles. These lags are about 1–2 years in case of the 11-yr solar cycle as well as in case of the 22-yr solar magnetic cycle (relatively to the solar polar magnetic field observations). These lags are confirmed by the correlation analysis. The results obtained by these methods as well as comparison to results of other studies allow us to conclude that the found (bi-)decadal temperature variability modes can be associated, at least partly, with the effect of the solar forcing.

Bleiben wir in Portugal, gehen aber auf den weiten Atlantischen Ozean hinaus. Die Inselgruppe der Azoren spielt eine wichtige Rolle im westeuropäsichen Westtergeschehen. Im November 2016 ging eine Gruppe um Roy et al. im Journal of Atmospheric and Solar-Terrestrial Physics der Frage nach, ob bei der Ausprägung des berühmten Azoren-Hoch vielleicht die Sonnenaktivität eine Rolle spielen könnte. Ein solarer Einfluss auf diese wichtige Wettermaschine wäre bedeutsam. Und in der Tat stellten die Autoren eine signifikante Kopplung des Azorenhochs an die Sonnenaktivität fest. Sichtbar wird der Zusammenhang vor allem, wenn man die verschiedenen solaren Akivitätskennziffern berücksichtigt, nicht nur die meist verwendeten Sonnenflecken. Es wird immer klarer, dass das solare Magnetfeld eine mindestens ebenso wichtige Rolle spielt, was auch im Fall der Azoren den Durchbruch brachte. Zudem müssen zeitliche Verzögerungseffekte von 1-2 Jahren eingerechnet werden. Das Klimasystem ist träge und springt nicht gleich über jedes Stöckchen das man ihm hinhält. Manchmal dauert es ein wenig, bis sich das System an den externen Signalgeber orientiert und anpasst. Hier der Abstract der spannenden Studie:

Comparing the influence of sunspot activity and geomagnetic activity on winter surface climate
We compare here the effect of geomagnetic activity (using the aa index) and sunspot activity on surface climate using sea level pressure dataset from Hadley centre during northern winter. Previous studies using the multiple linear regression method have been limited to using sunspots as a solar activity predictor. Sunspots and total solar irradiance indicate a robust positive influence around the Aleutian Low. This is valid up to a lag of one year. However, geomagnetic activity yields a positive NAM pattern at high to polar latitudes and a positive signal around Azores High pressure region. Interestingly, while there is a positive signal around Azores High for a 2-year lag in sunspots, the strongest signal in this region is found for aa index at 1-year lag. There is also a weak but significant negative signature present around central Pacific for both sunspots and aa index. The combined influence of geomagnetic activity and Quasi Biannual Oscillation (QBO 30 hPa) produces a particularly strong response at mid to polar latitudes, much stronger than the combined influence of sunspots and QBO, which was mostly studied in previous studies so far. This signal is robust and insensitive to the selected time period during the last century. Our results provide a useful way for improving the prediction of winter weather at middle to high latitudes of the northern hemisphere.

 

Sonne macht Klima: Elfjähriger Sonnenzyklus beeinflusst das Wetter in Mitteleuropa

Immer wieder heißt es: Die Sonne kann nichts, sie wäre klimatisch nahezu wirkungslos, ein zahnloser Tiger. Diese Behauptung des IPCC steht im krassen Gegensatz zur Mehrheit der Forscher, die dieses Feld beackern. In hunderten von Publikationen und Fallstudien haben sie die Klimawirkung der Sonne eindrucksvoll belegt und stoßen bei den IPCC-Managern auf taube Ohren. Im heutigen Beitrag wollen wir uns neue Studien aus Europa vornehmen.

Im Januar 2017 erschien in Geology ein Artikel von Ludwig Luthardt und Ronny Rößler. Sie untersuchten Baumringe an einem fossilen Stumpf aus der Perm-Zeit (290 Millionen Jahre vor unserer Zeit) in einem Wald bei Chemnitz und fanden ein bemerkenswertes Muster: Die Dicke der Ringe pulsierte im 11-Jahrestakt. Dieser Rhythmus ist allen Paläoklimatologen bestens bekannt. Es ist der Schwabe-Zyklus, der kürzeste aller Sonnenzyklen. Sonne macht Klima! Hier der Abstract der Arbeit:

Fossil forest reveals sunspot activity in the early Permian
Modern-day periodic climate pattern variations related to solar activity are well known. High-resolution records such as varves, ice cores, and tree-ring sequences are commonly used for reconstructing climatic variations in the younger geological history. For the first time we apply dendrochronological methods to Paleozoic trees in order to recognize annual variations. Large woody tree trunks from the early Permian Fossil Forest of Chemnitz, southeast Germany, show a regular cyclicity in tree-ring formation. The mean ring curve reveals a 10.62 yr cyclicity, the duration of which is almost identical to the modern 11 yr solar cycle. Therefore, we speculate and further discuss that, like today, sunspot activity caused fluctuations of cosmic radiation input to the atmosphere, affecting cloud formation and annual rates of precipitation, which are reflected in the tree-ring archive. This is the earliest record of sunspot cyclicity and simultaneously demonstrates its long-term stable periodicity for at least 300 m.y.

Nun könnte man sagen, naja, das war vor 290 Millionen Jahren. Die klimabeeinflussende Fähigkeit hat die Sonne doch mittlerweile sicher verloren. Eine neue Arbeit von Mikhaël Schwander und Kollegen zeigt, dass diese Annahme grundsätzlich falsch ist. Der 11 jährige Sonnenzyklus hat auch in den letzten 250 Jahren das mitteleuropäische Wettergeschehen nachdrücklich mitgeprägt, wie die Auswertung von historischen Wetteraufzeichnungen zeigt. Während solarer Schwächephasen werden Westwinde über Mitteleuropa typischerweise seltener, und es treten vermehrt Winde aus nördlichen und östlichen Richtungen auf. Gleichzeitig gibt es mehr blockierte Wetterlagen im Bereich von Island und Skandinavien. Insgesamt läßt eine schwache Sonne die spätwinterlichen Temperaturen in Europa absinken. Die Autoren verglichen die von ihnen identifizierten Zusammenhänge mit den Ergebnissen von Klimamodellen und stellten fest, dass die Modell die Realität und empirisch belegten klimatischen Einfluss der Sonnenzyklik nicht nachvollziehen können. Die bemerkenswerte Studie erschien im Januar 2017 in Climate of the Past Discussions. Hier der Abstract:

Influence of solar variability on the occurrence of Central European weather types from 1763 to 2009
The impact of solar variability on weather and climate in Central Europe is still not well understood. In this paper we use a new time series of daily weather types to analyse the influence of the 11-year solar cycle on the tropospheric weather of Central Europe. We employ a novel, daily weather type classification over the period 1763–2009 and investigate the occurrence frequency of weather types under low, moderate and high solar activity level. Results show a tendency towards fewer days with westerly and west south-westerly flow over Central Europe under low solar activity. In parallel, the occurrence of northerly and easterly types increases. Changes are consistent across different sub-periods. For the 1958–2009 period, a more detailed view can be gained from reanalysis data. Mean sea level pressure composites under low solar activity also show a reduced zonal flow, with an increase of the mean blocking frequency between Iceland and Scandinavia. Weather types and reanalysis data show that the 11-year solar cycle influences the late winter atmospheric circulation over Central Europe with colder (warmer) conditions under low (high) solar activity. Model simulations used for a comparison do not reproduce the imprint of the 11-year solar cycle found in the reanalyses data.

Einen Monat zuvor war im Dezember 2016 in Climate of the Pasteine weitere Studie zum Thema erschienen. Ein 32-köpfiges Mammutteam um Chantal Camenisch hat die kalten 1430er Jahre in Nordwest- und Mitteleuropa näher analysiert. Die Kältephase ist gut dokumentiert und fällt interessanterweise in eine solare Schwächephase, nämlich das Spörer Minimum. Ob hier vielleicht ein Zusammenhang bestehen könnte? Die Forscher bestätigten zunächst die Kältephase eindrucksvoll mit einem ganzen Strauß an Rekonstruktionsmethoden. Dann jedoch beschritten sie einen Argumentationspfad, der wenig Sinn macht. Sie gaben ihre Daten in Klimamodelle ein und konnten keinen ursächlichen Zusammenhang zwischen Abkühlung und Sonnenabschwächung feststellen. Kunststück, denn die Klimamodelle sind ja genau so programmiert, dass kein Zusammenhang herauskommt. Der Strahlungsantrieb von solaren Schwankungen ist in den Modellen so niedrig angesetzt, dass hier niemals ein Bezug gefunden werden könnte. Damit handelt es sich um einen Pseudobeweis gegen die Sonne, der keinen Wert hat.

Aber eine Erklärung für die Kälte der 1430er Jahre brauchte die Gruppe trotzdem. Man spielte den Joker und behauptete einfach, es wäre eine Laune der Natur, eine kaum vorhersagbare klimasysteminterne Schwankung. Ein schwaches Resultat, das vermutlich ein Kompromiss des riesengroßen Autorenkollektiv war und nicht unbedingt die Meinung jedes einzelnen Teammitglieds widerspiegelt. Ein schönes Beispiel für politisch korrekte Forschung, bei der das Offensichtliche nicht herauskommen darf, weil die Konsequenzen unerwünscht sind. Das wirkliche Resultat: Bei den Klimamodellen ist etwas faul. Albert Einstein: „Das, wobei unsere Berechnungen versagen, nennen wir Zufall“. Hier der Abstract:

The 1430s: a cold period of extraordinary internal climate variability during the early Spörer Minimum with social and economic impacts in north-western and central Europe

Changes in climate affected human societies throughout the last millennium. While European cold periods in the 17th and 18th century have been assessed in detail, earlier cold periods received much less attention due to sparse information available. New evidence from proxy archives, historical documentary sources and climate model simulations permit us to provide an interdisciplinary, systematic assessment of an exceptionally cold period in the 15th century. Our assessment includes the role of internal, unforced climate variability and external forcing in shaping extreme climatic conditions and the impacts on and responses of the medieval society in north-western and central Europe.

Climate reconstructions from a multitude of natural and anthropogenic archives indicate that the 1430s were the coldest decade in north-western and central Europe in the 15th century. This decade is characterised by cold winters and average to warm summers resulting in a strong seasonal cycle in temperature. Results from comprehensive climate models indicate consistently that these conditions occurred by chance due to the partly chaotic internal variability within the climate system. External forcing like volcanic eruptions tends to reduce simulated temperature seasonality and cannot explain the reconstructions. The strong seasonal cycle in temperature reduced food production and led to increasing food prices, a subsistence crisis and a famine in parts of Europe. Societies were not prepared to cope with failing markets and interrupted trade routes. In response to the crisis, authorities implemented numerous measures of supply policy and adaptation such as the installation of grain storage capacities to be prepared for future food production shortfalls.

 

Winterliche Schneebedeckung der Nordhalbkugel hat sich in den letzten 50 Jahren erhöht

Am 10. Februar 2017 erschien im Traunsteiner Tagblatt (TT) ein erfrischendes Interview, in dem sich Günther Aigner gegen die allseits verbreitete Schnee-Endzeit-Stimmung ausspricht:

»Der Klimawandel bedroht den Wintersport derzeit nicht«
Es gibt vielmehr über die Jahrzehnte gesehen ein ständiges Auf und Ab von kälteren und wärmeren Perioden – ohne erkennbare Tendenz. »Der Klimawandel bedroht den Wintersport derzeit nicht«, sagt Günther Aigner, der in Innsbruck Sport und Wirtschaft studiert hat. Niemand könne allerdings voraussagen, wie es in Zukunft aussehe. Prognosen hält er für unseriös.

TT: Wieso haben Sie sich die Mühe gemacht und über Monate Tausende Daten ausgewertet?

Günther Aigner: Mich hat es fasziniert, dass sich alle einig sind, dass der Skisport wegen des Klimas keine Zukunft hat. Also habe ich begonnen, Wintertemperatur- und Schneedaten aus den Alpen auszuwerten. Diese Arbeit war so spannend, dass ich sie nun hauptberuflich mache.

TT: Ihre Untersuchungen haben ergeben, dass die Winter auf den Bergen der Ostalpen sogar kälter wurden, nicht wärmer. Wie kann das sein? Das Abschmelzen der Gletscher ist schließlich eine Tatsache…

Günther Aigner: Die Winter sind auf den Bergen innerhalb der letzten 30 Jahre kälter geworden, weil wir nicht mehr so häufige milde West- und Südwetterlagen wie noch Anfang der 1990er Jahre haben. Es liegt also an der Häufigkeitsverteilung der Großwetterlagen, und nicht am globalen Temperaturregime. Die Gletscher schmelzen, weil die Sommer in den Alpen in den letzten 30 Jahren viel sonniger und heißer wurden. Die Sommerschneefälle auf den Bergen haben sich drastisch reduziert.

TT: Jedes Jahr wieder gibt es die Diskussion um weiße Weihnachten. Ist es nicht ganz normal, dass im Dezember kein oder nur wenig Schnee liegt?

Günther Aigner: Doch, genau so ist es. Es ist normal, dass der Winter rund um Weihnachten erst beginnt. Eine tief verschneite weihnachtliche Landschaft ist somit die absolute Ausnahme und nicht die Regel. Unsere Gesellschaft bewertet den Winter allerdings daran, ob es zu Weihnachten kalt ist und Schnee hat. Das ist absurd.

Weiterlesen im Traunsteiner Tagblatt

Aigners hochinformative Auswertungen können Sie auf der Webplattform Zukunft Skisport finden. Hier geht es direkt zu den Klimadaten. Bereits im Oktober 2016 hatten sich die Betreiber von Seilbahnen gegen die Schnee-Panikmache gewehrt. Beitrag auf ORF Salzburg:

Klimawandel: Seilbahnmanager weiter optimistisch
Milde Winter seien noch über Jahrzehnte kein Problem für den Skitourismus, sagen Pinzgauer Seilbahnmanager. Sie widersprechen damit jüngsten Untersuchungen, wonach Schneesaisonen in den Alpen künftig bis zu 40 Tage kürzer sein könnten.

Wir nutzen die Gelegenheit und schauen in die offiziellen Schneedaten der Rutgers University. Wie hat sich die Schneebedeckung in den letzten Jahrzehnten wirklich verändert? Wir beginnen mit den Winter-Schneetrends für die Nordhalbkugel für die vergangenen 50 Jahre (Abbildung 1). Eine Riesenüberraschung: Die winterliche Schneebedeckung hat sich im letzten halben Jahrhundert erhöht!

Abbildung 1: Schneeausdehnung im Winter auf der Nordhalbkugel während der letzten 50 Jahre. Quelle: Rutgers University

 

Auf der gleichen Webseite kann man auch andere Jahreszeiten wählen. Der Herbstschnee hat ebenfalls zugenommen. Nur im Frühling ist die Schneebedeckung geschrumpft.

Verkleinern wir nun das Betrachtungsgebiet auf Europa und Asien (“Eurasien”). Zunächst wieder der Winterschneetrend (Abbildung 2). Das gleiche Ergebnis wie zuvor: Auch in Eurasien hat sich die winterliche Schneebedeckung in den letzten 50 Jahren erhöht.

Abbildung 2: Schneeausdehnung im Winter in Europa und Asien während der letzten 50 Jahre. Quelle: Rutgers University.

 

Die eurasischen Schneetrends für Herbst und Frühling entsprechen denjenigen der Nordhalbkugel. Auf der selben Webseite gibt es auch die nordamerikanischen Trends, die wiederum den bereits vorgestellten Entwicklungen entsprechen. Auf einer NOAA-Webseite kann man sich die Schneedaten sogar aufgeschlüsselt nach Monaten plotten lassen. In den Monaten September bis Januar ist der Schnee im letzten halben Jahrhundert auf der Nordhalbkugel häufiger, von Februar bis August ist er seltener geworden. Vielleicht sollten die Skifahrer ihren Skiurlaub einfach ein paar Monate vorziehen, anstatt sich im Frühling über Schneemangel zu beschweren?

Nun sind die nördliche Halbkugel und Eurasien riesige Regionen. Aus individueller Sicht interessiert sich jeder für sein eigenes Skigebiet, und dabei können lokale Trends natürlich von den (halb-) globalen Trends abweichen. Beispiel Bayerische Alpen in Deutschland, für die der Bayerische Rundfunk eine Schneestatistik mit sieben Stationen seit 1961 anbietet. Fünf Stationen (Oberstorf, Garmisch-Partenkirchen, Wendelstein, Reit im Winkel, Bad Reichenhall) zeigen einen statistisch signifikanten Rückgang der Schneetage im Winterhalbjahr (hier ist der halbe Herbst und Frühling enthalten) während der vergangenen 55 Jahre. Nur Mittenwald und Zugspitze sind einigermaßen stabil.

Zu beachten ist, dass der Startpunkt der Statistik in den 1960er Jahren in einer natürlichen Kältedelle in der Temperaturkurve liegt. Zwischen 1935 und 1952 lagen die Deutschlandtemperaturen jedoch deutlich über dem Durchschnitt der 1960er und frühen 70er Jahre (Abbildung 3), was vermutlich zu weniger Schneefall führte. Es wäre daher begrüßenswert, wenn die Schneestatistik weiter in die Vergangenheit ausgebaut werden könnte, um ein kompletteres Bild der Trends unnd ihrer natürlichen Schwankungsbreite zu bekommen.

Abb. 3: Temperaturentwicklung in Deutschland während der vergangenen 135 Jahre. Quelle: Quelle: Kaspar, F., H. Mächel (2017): Beobachtung von Klima und Klimawandel in Mitteleuropa und Deutschland, in: Brasseur, G.P., D. Jacob, S. Schuck-Zöller (Hrsg.; 2017): Klimawandel in Deutschland, Entwicklung, Folgen, Risiken und Perspektiven, Berlin Heidelberg, 17-26. Via Wiki Bildungsserver Klimawandel.


                    

Temperaturdaten-Stabilitätspakt dringend benötigt: NASA kühlt die 1930er Jahre nachträglich um zwei ganze Zehntelgrad ab

Mehrere Leser baten uns, die bunte Welt der Temperaturdatensätze und ihre Stolperfallen noch einmal vorzustellen. Die Anregung nehmen wir gerne auf, da es zu Jahresbeginn wieder zu Verwirrung gekommen ist: Während einige Datenlieferanten Stagnation meldeten, überboten sch andere mit neuen Rekorden. Was steckt hinter dieser Konfusion?

Es ist ein bisschen wie beim Boxen: Es gibt nicht nur einen Weltverband der Temperaturstatistik, sondern gleich eine ganze handvoll. Zu unterscheiden sind zwei Gruppen: Temperaturmessungen am Erdboden und Messungen per Satellit. Die drei wichtigsten Bodentemperaturdatensätze stammen von der NASA (GISS), vom britischen Hadley Centre (HadCRUT) sowie von der US-amerikanischen NOAA (NCDC). Bei den Satellitendaten gibt es RSS (Remote Sensing Systems) und UAH (University of Huntsville in Alabama). Die Bodendaten gehen mehr als 100 Jahre zurück, während die Satelliten erst Ende der 1970er Jahre den Betrieb aufnahmen. Zwar zeigen alle Datensätze die Erwärmung der letzten Jahrzehnte, aber Unterschiede gibt es.

Wer ein bisschen mit den Temperaturdaten selber experimentieren möchte, dem sei die benutzerfreundliche Webseite Wood for Trees empfohlen, wo man mit ein paar Klicks tolle Kurven generieren kann. Zu beachten ist, dass alle Datensätze unterschiedliche Referenzperioden haben, daher ist der absolute Temperaturvergleich erst nach einer Korrektur (“Offset”) und Angleichung der Baselines möglich.

Generell ist es so, dass die Satellitendaten weniger Erwärmung zeigen, als die Bodendaten. Weshalb ist das so? Die Bodendaten werden aus einer Vielzahl von Stationen generiert, wobei gewisse Anpassungen zur Vergleichbarkeit notwendig sind. Dies wird in der Fachwelt “Korrekturen” genannt. Fiktives Beispiel: Wenn in der Vergangenheit zum Beispiel Temperaturen in einer schwarzen Hütte gemessen wurde und heute in einer weißen, dann müssen die schwarzen Werte auf weiß umgerechnet werden. Das ist soweit in Ordnung. Trotzdem steckt hier auch das Problem, denn es wurden in der Vergangenheit soviele “Korrekturen” durchgeführt, dass einem fast schwindelig werden konnte. Im Jahresrhythmus wurden vor allem die neueren Temperaturen angehoben, während die älteren Temperaturen abgesenkt wurden. Schwupps, war am Computer eine künstliche Erwärmung herbeigezaubert. Der Kreis derjenigen, die diese nichttransparente Datenverbiegung nachvollziehen und bewerten kann, ist äußerst klein. Für subjektive Entscheidungen stehen Tür und Tor offen, ohne dass es aus dem kleinen Zirkel nach außen dringt.

Schauen wir uns das Beispiel GISS an. Seit vielen Jahren stehen diesem New Yorker NASA-Institut bekennende Klimaaktivisten vor, erst James Hansen, jetzt Gavin Schmidt. Keine gute Ausgangslage für die Betreuung einer als neutral gedachten Temperaturdatenbank. Es wundert daher kaum, dass GISS zu den Datensätze mit der stärksten Erwärmung zählt. Das Wort ‘Betrug’ ist hier sicher falsch, aber man kann sich leicht vorstellen, dass es bei den vielen Entscheidungsmöglichkeiten im Workflow stets zugunsten einer verstärkten Erwärmung geht.

Immer wieder haben Kritiker Aufklärung gefordert und eine Untersuchung der nicht endenwollenden Korrekturwelle des GISS angemahnt. Im März 2015 berichtete der Focus über eine solche Initiative, mit dem offensichtlichen Ziel, die Aktion als Tat von wirren Verschwörungstheoretikern abzutun:

Neuer Klimaskandal: Nasa soll bei Erderwärmung Daten gefälscht haben
[...] Das Nasa Goddard Institute for Space Studies (GISS) habe widersprüchliche Daten veröffentlicht, heißt es dort. Und tatsächlich: Die Daten, die die Nasa veröffentlichte, unterscheiden sich deutlich von den ursprünglich gemessenen Temperaturen. Bedeutet das jetzt, dass der Klimawandel eine Lüge ist? Nein. Der Klimawandel ist echt. Das Wetter wird extremer, die Erde heizt sich auf. Zu dem eindeutigen Ergebnis kommen Experten im Gespräch mit der „Bild“-Zeitung. Diese Experten erklären auch, warum es Abweichungen in den Daten der Nasa gibt. Demnach sei es eine ganz normale wissenschaftliche Methode, die Daten nachträglich anzupassen. Das sei aufgrund einiger Faktoren nötig, die die Messungen ungenau machen. So gibt es zum Beispiel Lücken bei den Messdaten, etwa wegen eines Ausfalls von Beobachtern. Auch kam es zu Stationsverlegungen und zu Zeitunterschieden bei den Messungen (das heißt, einmal wird mittags, dann wieder morgens gemessen), heißt es im Bericht der “Bild”-Zeitung weiter. Beides führt zu Abweichungen bei den Daten. Auch das Ersetzen veralteter durch moderne Technik führte zu veränderten Klimadaten. Dass den Klimaforschern heute oft nur „unsaubere“ Daten vorliegen liege auch daran, dass die Leute früher nicht davon ausgingen, dass ihre Ergebnisse für Langzeit-Analysen zum Klimawandel benutzt werden sollten. Mit verschiedenen Methoden werden die Daten deshalb nachträglich kalibriert. Die Experten sind sich einig, wie die “Bild”-Zeitung berichtet: Der Klimawandel existiert. Kein Grund für Verschwörungstheorien also.

Experten beruhigen: Alles gut. Hier gibt es nichts zu sehen. Gehen Sie bitte zügig weiter. Das würden wir gerne glauben, wollen aber doch nicht ganz auf Belege verzichten. Wir vergleichen eine ältere Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve):

Abbildung: Vergleich einer älteren Version der GISS-Temperaturen (Mai 2015, rote Kurve) mit einem neueren Update von 2016/17 (blaue Kurve). Daten GISS, Graphik: Climate4You.

 

Sehen Sie es auch? In diesem letzten Update, wurden die Temperaturen für die letzten 35 Jahre in aller Stille um ein halbes Zehntelgrad angehoben. Prinzip Salamitaktik: Immer ein bisschen mehr. Wie Sie wissen, geht es bei der Klimaerwärmung insgesamt “lediglich” um acht Zehntelgrad, da macht ein halbes Zehntel schon etwas aus, insbesondere wenn es vorher schon weitere Korrekturen gegeben hat.

Vielleicht auf Druck von außen bietet die NASA nun einen Online-Vergleich der verschiedenen GISS-Versionen an. Machen wir also die Probe aufs Exempel. Wie sieht der Vergleich mit der vorletzten Korrektur aus? Die schwarze Kurve zeigt die aktuelle Version von 2016 an. Die hellgrüne Kurve ist die Version von 2013 (entspricht vermutlich der roten 2015er Kurve der vorherigen Abbildung). Und die violette Kurve ist die Version von 2012. Ganz genau: Salamitaktik, wieder ein halbes Zehntel. Immer schön unter dem Radar fliegen.

 

Abbildung: Vergleich der GISS-Temperaturversionen von 2012, 2013 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Weiterhin sieht man, wie die Temperaturen zwischen 1920 und 1970 künstlich abgekühlt wurden. Das sieht man noch besser, wenn man die Datenversionen von 1987 und 2016 vergleicht:

Abbildung: Vergleich der GISS-Temperaturversionen von 1987 und 2016. Oben: Temperaturkurven. Unten: Ausmaß der Korrektur, bezogen auf die heutige Version (Auschlag nach oben: die Daten wurden wärmer gemacht; Ausschlag nach unten: die Daten wurden kühler gemacht). Quelle: GISS

 

Ziemlich unglaublich: Die globalen Temperaturdaten wurden in den 1930er Jahren um zwei ganze Zehntelgrad künstlich heruntergekühlt. Oder anders ausgedrückt: Die Originalmeswerte der Messstationen waren um genau diese zwei Zehntelgrad (immerhin ein Viertel der globalen Gesamterwärmung in den letzten 150 Jahren) wärmer als von GISS heute dargestellt. Um Gründe für die Korrekturen sind die Datenhüter natürlich nicht verlegen. Aber sind sie glaubhaft?

Auch hier: Spielen Sie doch einmal selber mit dem GISS-Versions-Vergleichstool. Es gibt viel zu entdecken!

 

Nicht neu: Es blubbert Methan aus dem Meeresboden

Gashydrate in der Arktis haben der Fachwelt lange Sorge bereitet. Im Zuge der Erderwärmung glaubte man, dass hier riesige Mengen des Treibhausgases Methan in die Atmosphäre gelangen könnten und die Erwärmung weiter anheizen. Die Wissenschaftler machten sich an die Arbeit und fanden glücklicherweise, dass es wohl doch nicht so schlimm kommen wird, wie befürchtet. Wir haben bereits in der Vergangenheit an dieser Stelle berichtet:

Im Folgenden wollen wir weitere neue Literatur zum Thema vorstellen. Das National Oceanography Centre (NOC) in Southampton gab am 19. Oktober 2015 bekannt, dass aus dem Meeresboden vor Spitzbergen Methan austritt, dieses jedoch nur in geringen Mengen an die Meeresoberfläche gelangt, da es schnell von Bakterien zersetzt bzw. von Strömungen forttransportiert wird. Dieser “Deckel” verhindert letztendlich das Austreten des Methans in die Atmosphäre über Spitzbergen. Hier die Pressemitteilung (via Science Daily):

Methane bubbling off Svalbard is not a source of atmospheric greenhouse gas

Methane seeps from seafloor deposits near Svalbard release less ‘greenhouse gas’ into the atmosphere than other Arctic sites because ocean currents there form an effective barrier. This research, by scientists at the National Oceanography Centre (NOC) and the University of Southampton, was published this week in the Journal of Geophysical Research: Oceans.

Dr Carolyn Graves, the lead author of the study from the NOC, said “Strong ocean bottom currents carry the dissolved methane northwards, while bacteria consume it to produce carbon dioxide. This slows and reduces the volume of methane rising up through the ocean towards the atmosphere.”

The Arctic contains large volumes of methane stored in forms that turn into gas if temperatures rise or the pressure they are subject to decreases. These forms include methane trapped in marine sediment beneath permafrost as hydrate- a form of methane ice. If methane gas escapes from these deposits, as well as from seafloor reservoirs, it could add to atmospheric warming, causing a positive climate forcing feedback.

More than 250 plumes of methane gas were discovered rising from the seafloor near Svalbard in 2008. This gas is likely released from methane hydrate destabilized in seafloor sediments beneath about 400 metres water depth. Very high dissolved methane concentrations were observed near the seafloor, while much less methane was present in the surface waters that are in contact with the atmosphere. Researchers used these observations to set up a simple model of physical and biochemical processes. This model shows that strong ocean bottom currents prevent the direct release of the greenhouse gas into the atmosphere.

Dr Doug Connelly from the NOC, and a co-author of this paper, said “While this research shows that methane coming from the seafloor is not reaching the atmosphere in this particular location near Svalbard, there are areas that have more methane hydrate deposits. These may still pose a high risk of increasing global environmental change if released.”

This research involved scientists from seven institutes in the UK, Germany, and Switzerland and forms part of the NOC’s ongoing investigation into the relationship between processes happening at the sea floor, the ocean and the atmosphere. This study received funding from: The Natural Environment Research Council (NERC), the Graduate School of Ocean and Earth Science (University of Southampton, UK), and a Natural Sciences and Engineering Research Council of Canada Postgraduate Scholarship.

Carolyn A. Graves, Lea Steinle, Gregor Rehder, Helge Niemann, Douglas P. Connelly, David Lowry, Rebecca E. Fisher, Andrew W. Stott, Heiko Sahling, Rachael H. James. Fluxes and fate of dissolved methane released at the seafloor at the landward limit of the gas hydrate stability zone offshore western Svalbard. Journal of Geophysical Research: Oceans, 2015; DOI: 10.1002/2015JC011084

Das norwegische Centre for Arctic Gas Hydrate, Environment and Climate (CAGE) erinnerte im Februar 2015 daran, dass der Austritt von Methan aus dem arktische Meeresboden kein neues Phänomen ist, sondern seit vielen Millionen Jahren fester Bestandteil des Kohlenstoffzyklus in Arktis darstellt:

Methane seepage from Arctic seabed occurring for millions of years

Natural seepage of methane offshore the Arctic archipelago Svalbard has been occurring periodically for at least 2,7 million years. Major events of methane emissions happened at least twice during this period, according to a new study. We worry about greenhouse gas methane. Its lifetime in the atmosphere is much shorter than CO2´s, but the impact of methane on climate change is over 20 times greater than CO2 over a 100-year period.  60 percent of the methane in the atmosphere comes from emissions from human activities. But methane is a natural gas, gigatonnes of it trapped under the ocean floor in the Arctic.

And it is leaking. And it has been leaking for longer time than the humans have roamed the Earth

” Our planet is leaking methane gas all the time. If you go snorkeling in the Caribbean you can see bubbles raising from the ocean floor at 25 meters depth. We studied this type of release, only in a much deeper, colder and darker environment. And found out that it has been going on, periodically, for as far back as 2,7 million years.” says Andreia Plaza Faverola, researcher at CAGE and the primary author behind a new paper in Geophysical Research Letters. She is talking about Vestnesa Ridge in Fram Strait,  a thousand meters under the Arctic Ocean surface offshore West-Svalbard. Here, enormous – 800 meters high – gas flares rise from the seabed today. That’s the size of the tallest manmade structure in the world – Burj Khalifa in Dubai. “Half of Vestnesa Ridge is showing very active seepage of methane. The other half is not. But there are obvious pockmarks on the inactive half, cavities and dents in the ocean floor, that we recognized as old seepage features. So we were wondering what activates, or deactivates, the seepage in this area.,” says Plaza Faverola.

Why 2,7 million years?

She, and a team of marine geophysicists from CAGE, used the P-Cable technology , to figure it out. It is a seismic instrument that is towed behind a research vessel. It recorded the sediments beneath these pockmarks. P-Cable renders images that look like layers of a cake. It also enables scientists to visualize deep sediments in 3D. ” We know from other studies in the region that the sediments we are looking at in our seismic data are at least 2.7 million years old. This is the period of increase of glaciations in the Northern Hemisphere, which influences the sediment..  The P-Cable enabled us to see features in this sediment, associated with gas release in the past.“ “These features can be buried pinnacles or cavities that form what we call gas chimneys in the seismic data. Gas chimneys appear like vertical disturbances in the layers of our sedimentary cake.  This enables us to reconstruct the evolution of gas expulsion from this area for at least 2,7 million years.” says Andreia Plaza Faverola. The seismic signal penetrated into 400 to 500 meters of sediment to map this timescale.

How is the methane released?

By using this method, scientists were able to identify two major events of gas emission throughout this time period: One 1,8 million years ago, the other 200 000 years ago. This means that there is something that activated and deactivated the emissions several times. Plaza Faverola´s paper gives a plausible explanation: It is the movement of the tectonic plates that influences the gas release. Vestnesa is not like California though, riddled with earthquakes because of the moving plates. The ridge is on a so-called passive margin. But as it turns out, it doesn´t take a huge tectonic shift to release the methane stored under the ocean floor. “Even though Vestnesa Ridge is on a passive margin, it is between two oceanic ridges that are slowly spreading. These spreading ridges resulted in separation of Svalbard from Greenland and opening of the Fram Strait. The spreading influences the passive margin of West-Svalbard, and even small mechanical collapse in the sediment can trigger seepage.” says Faverola.

Where does the methane come from?

The methane is stored as gas hydrates, chunks of frozen gas and water, up to hundreds of meters under the ocean floor. Vestnesa hosts a large gas hydrate system. There is some concern that global warming of the oceans may melt this icy gas and release it into the atmosphere. That is not very likely in this area, according to Andreia Plaza Faverola. ” This is a deep water gas hydrate system, which means that it is in permanently cold waters and under a lot of pressure. This pressure keeps the hydrates stable and the whole system is not vulnerable to global temperature changes. But under the stable hydrates there is gas that is not frozen. The amount of this gas may increase if hydrates melt at the base of this stability zone, or if gas from deeper in the sediments arrives into the system.  This could increase the pressure in this part of the system, and the free gas may escape the seafloor through chimneys. Hydrates would still remain stable in this scenario .”

 Historical methane peaks coincide with increase in temperature

Throughout Earth´s history there have been several short periods of significant increase in temperature. And these periods often coincide with peaks of methane in the atmosphere , as recorded by ice cores. Scientists such as Plaza Faverola are still debating about the cause of this methane release in the past. ” One hypotheses is that massive gas release from geological sources, such as volcanos or ocean sediments may have influenced global climate..  What we know is that there is a lot of methane released at present time from the ocean floor. What we need to find out is if it reaches the atmosphere, or if it ever did.” Historical events of methane release, such as the ones in the Vestnesa Ridge, provide crucial information that can be used in future climate modeling. Knowing if these events repeat, and identifying what makes them happen, may help us to better predict the potential influence of methane from the oceans on future climate.

Reference: Role of tectonic stress in seepage evolution along the gas hydrate-charged Vestnesa Ridge, Fram Strait. A.Plaza Faverola, S.Bünz, J.E.Johnson, S. Chand, J. Knies, J. Mienert and P. Franek. Geophysical Research Letters. 2015.

Vier Monate später, im Juni 2015, berichte CAGE über neueste Expeditionsergebnisse zur Methanforschung in der Arktis.

Mithilfe von Tauchrobotern hat man heute eine recht gutes Bild, wie es um die Methanaustrittsstellen herum am Meeresboden aussieht. Fasziniert zeigten sich Forscher der University of Oregon, als sie hier komplexe Lebensgemeinschaften fanden, die das Methan als Antrieb nutzten und damit zum Teil entschärften. Pressemitteilung der Uni vom 31. Mai 2016:

Hydrothermal vents, methane seeps play enormous role in marine life, global climate

The hydrothermal vents and methane seeps on the ocean floor that were once thought to be geologic and biological oddities are now emerging as a major force in ocean ecosystems, marine life and global climate. However, even as researchers learn more about their role in sustaining a healthy Earth, these habitats are being threatened by a wide range of human activities, including deep-sea mining, bottom trawling and energy harvesting, scientists say in a report published in Frontiers in Marine Science.

Researchers from Oregon State University first discovered these strange, isolated worlds on the ocean bottom 40 years ago. These habitats surprised the scientific world with reports of hot oozing gases, sulfide chimneys, bizarre tube worms and giant crabs and mussels – life forms that were later found to eat methane and toxic sulfide. “It was immediately apparent that these hydrothermal vents were incredibly cool,” said Andrew Thurber, an assistant professor in the OSU College of Earth, Ocean and Atmospheric Sciences, and co-author on the new report. “Since then we’ve learned that these vents and seeps are much more than just some weird fauna, unique biology and strange little ecosystems. Rather than being an anomaly, they are prevalent around the world, both in the deep ocean and shallower areas. They provide an estimated 13 percent of the energy entering the deep sea, make a wide range of marine life possible, and are major players in global climate.”

As fountains of marine life, the vents pour out gases and minerals, including sulfide, methane, hydrogen and iron – one of the limiting nutrients in the growth of plankton in large areas of the ocean. In an even more important role, the life forms in these vents and seeps consume 90 percent of the released methane and keep it from entering the atmosphere, where as a greenhouse gas it’s 25 times more potent than carbon dioxide. “We had no idea at first how important this ecological process was to global climate,” Thurber said. “Through methane consumption, these life forms are literally saving the planet. There is more methane on the ocean floor than there are other forms of fossil fuels left in the oceans, and if it were all released it would be a doomsday climatic event.”

In reviewing the status of these marine geological structures and the life that lives around them, a group of researchers from 14 international universities and organizations have outlined what’s been learned in the past four decades and what forces threaten these ecosystems today. The synthesis was supported by the J.M. Kaplan fund. These vents and seeps, and the marine life that lives there, create rocks and habitat, which in some settings can last tens of thousands of years. They release heat and energy, and form biological hot spots of diversity. They host extensive mussel and clam beds, mounds of shrimp and crab, create some prime fishing habitat and literally fertilize the ocean as zooplankton biomass and abundance increases. While the fluid flows from only a small section of the seafloor, the impact on the ocean is global.

Some of the microorganisms found at these sites are being explored for their potential to help degrade oil spills, or act as a biocatalytic agent for industrial scrubbing of carbon dioxide. These systems, however, have already been damaged by human exploitation, and others are being targeted, the scientists said. Efforts are beginning to mine them for copper, zinc, lead, gold and silver. Bottom trawling is a special concern, causing physical disturbance that could interfere with seeps, affect habitat and damage other biologic linkages. Oil, gas or hydrate exploitation may damage seeps. Whaling and logging may interfere with organic matter falling to the ocean floor, which serves as habitat or stepping stones for species reliant on chemosynthetic energy sources. Waste disposal of munitions, sewage and debris may affect seeps.

The range of ecosystem services these vents and seeps provide is just barely beginning to be understood, researchers said in their report. As many of these habitats fall outside of territorial waters, vent and seep conservation will require international collaboration and cooperation if they are going to continue to provide ecosystem benefits. Contributors to this report included researchers from the Scripps Institution of Oceanography, Florida State University, the National Institute of Water and Atmospheric Research in New Zealand, University of the Azores, Temple University, Universidade de Aveiro, the U.S. Geological Survey, University of the West Indies, Dalhousie University, University of Victoria, Duke University, Ghent University and the University of Hawaii at Manoa.

Siehe hierzu auch Artikel in Spiegel Online aus dem Oktober 2016:

Küste der USA: Es blubbert aus dem Meeresboden
Vor den USA strömen gewaltige Mengen Gas aus dem Meeresgrund. Ein Tauchroboter spürte 500 Quellen auf – daneben erstaunliche Lebewesen.

“Es scheint, dass die gesamte Küste vor Washington, Oregon und Kalifornien eine gigantische Methanquelle ist”, sagt der Meeresforscher Robert Ballard. Er und seine Kollegen haben vor der US-Westküste 500 sprudelnde Methanquellen im Meeresboden entdeckt. Das Team um Ballard, der durch die Entdeckung des “Titanic”-Wracks bekannt wurde, hatte den Fund im Sommer vom Forschungsschiff “Nautilus” aus mithilfe zweier ferngesteuerter Unterwasser-Rover gemacht.

Weiterlesen auf Spiegel Online

 

Vor 6000 Jahren lag der größte Süßwasser-See der Erde in der Sahara

Vor 6000 Jahren lag der größte Süßwasser-See der Erde in der Sahara. Lake Mega-Chad erstreckte sich im zentralen Südteil der heutigen Wüste über 360.000 Quadratkilometer und erreichte eine Tiefe von über 170 m. Lake Mega-Chad bildete sich vor etwa 15.000 Jahren und existierte bis vor etwa 5000 Jahren, als er abrupt schrumpfte. Damals verlagerte sich der westafrikanische Monsun-Regen nach Süden und konnte die Sahara nicht mehr erreichen. Vor etwa 3000 Jahren kam der Regen wieder zurück, und der Seespiegel stieg wieder an. Die lebenspendende Phase hielt jedoch nur wenige Jahrhunderte an, und die Gegend wurde schnell wieder zur Wüste. Nachzulesen in einer ausgezeichneten Publikation von Simon Armitage und Kollegen. Hier die dazugehörige Pressemitteilung der University of Royal Holloway London vom 29. Juni 2015 (via Science Daily):

Largest freshwater lake on Earth was reduced to desert dunes in just a few hundred years

Researchers from Royal Holloway, Birkbeck and Kings College, University of London used satellite images to map abandoned shore lines around Palaeolake Mega-Chad, and analysed sediments to calculate the age of these shore lines, producing a lake level history spanning the last 15,000 years. At its peak around 6,000 years ago, Palaeolake Mega-Chad was the largest freshwater lake on Earth, with an area of 360,000 km2. Now today’s Lake Chad is reduced to a fraction of that size, at only 355 km2. The drying of Lake Mega-Chad reveals a story of dramatic climate change in the southern Sahara, with a rapid change from a giant lake to desert dunes and dust, due to changes in rainfall from the West African Monsoon. The research, published in the journal Proceedings of the National Academy of Sciences confirms earlier suggestions that the climate change was abrupt, with the southern Sahara drying in just a few hundred years.

Part of the Palaeolake Mega-Chad basin that has dried completely is the Bodélé depression, which lies in remote northern Chad. The Bodélé depression is the World’s single greatest source of atmospheric dust, with dust being blown across the Atlantic to South America, where it is believed to be helping to maintain the fertility of tropical rainforests. However, the University of London team’s research shows that a small lake persisted in the Bodélé depression until about 1,000 years ago. This lake covered the parts of the Bodélé depression which currently produce most dust, limiting the dust potential until recent times.

“The Amazon tropical forest is like a giant hanging basket,” explains Dr Simon Armitage from the Department of Geography at Royal Holloway. “In a hanging basket, daily watering quickly washes soluble nutrients out of the soil, and these need to be replaced using fertiliser if the plants are to survive. Similarly, heavy washout of soluble minerals from the Amazon basin means that an external source of nutrients must be maintaining soil fertility. As the World’s most vigorous dust source, the Bodélé depression has often been cited as a likely source of these nutrients, but our findings indicate that this can only be true for the last 1,000 years,” he added.

Publikation: Simon J. Armitage, Charlie S. Bristow, and Nick A. Drake. West African Monsoon dynamics inferred from abrupt fluctuations of Lake Mega-Chad. PNAS, June 2015 DOI: 10.1073/pnas.1417655112

 

 

Die Grüne Sahara

Ein Forscherteam der University of Arizona um Jessica Tierney hat die letzte klimatische Feuchtphase in der Sahara anhand von Sedimentkernen vor der Küste Marokkos untersucht und die Regenmengen anhand der Wachszusammensetzung von Pfllanzenresten rekonstruiert. 11.000 bis 5000 Jahre vor unserer Zeit regnete es laut den neuen Ergebnissen 10 mal mehr als heute. Dies erlaubte eine Besiedelung der Sahara, die damals zur Savanne und bewaldeten Graslandschaft wurde. Die Einwohner hielten ihr Leben in eindrucksvollen Felsbildern fest. Vor 8000 Jahren gab es jedoch eine Zeit von einigen Jahrhunderten, in denen der Regen ausblieb, wie Tierney und Kollegen dokumentierten. Die Autoren weisen zudem darauf hin, dass Klimamodelle die rekonstruierte Realität noch immer nicht zufriedenstellend nachbilden können, da offenbar wichtige Verstärkermechanismen im Zusammenhang mit der Vegetation und Staub zu wenig berücksichtigt wurden. Hier die Pressemitteilung der University of Arizona vom 18. Januar 2017:

Green Sahara’s Ancient Rainfall Regime Revealed by Scientists

A UA-led team has identified the climate pattern that generated a “Green Sahara” from 5,000 to 11,000 years ago. The region had 10 times the rainfall it does today.

Rainfall patterns in the Sahara during the 6,000-year “Green Sahara” period have been pinpointed by analyzing marine sediments, according to new research. What is now the Sahara Desert was the home to hunter-gatherers who made their living off the animals and plants that lived in the region’s savannahs and wooded grasslands 5,000 to 11,000 years ago. “It was 10 times as wet as today,” said lead author Jessica Tierney of the University of Arizona. Annual rainfall in the Sahara now ranges from about 4 inches to less than 1 inch (100 to 35 mm).

Although other research had already identified the existence of the Green Sahara period, Tierney and her colleagues are the first to compile a continuous record of the region’s rainfall going 25,000 years into the past. The team’s paper “Rainfall regimes of the Green Sahara,” is scheduled for publication in the journal Science Advances on Jan. 18 [2017]. Archaeological evidence shows humans occupied much of the Sahara during the wet period, but left for about a thousand years around 8,000 years ago — the middle of the Green Sahara period. Other investigators have suggested the Sahara became drier at the time people left, but the evidence was not conclusive, said Tierney, a UA associate professor of geosciences. Her team’s continuous rainfall record shows a thousand-year period about 8,000 years ago when the Sahara became drier. That drier period coincides with when people left, she said. “It looks like this thousand-year dry period caused people to leave,” Tierney said. “What’s interesting is the people who came back after the dry period were different — most raised cattle. That dry period separates two different cultures. Our record provides a climate context for this change in occupation and lifestyle in the western Sahara.”

Tierney and her colleagues also used their rainfall record to suggest ways current climate models can better replicate the Sahara’s ancient climate and therefore improve projections of future climate. Tierney’s co-authors are Francesco Pausata of Stockholm University in Sweden and Peter deMenocal of Columbia University’s Lamont-Doherty Earth Observatory in Palisades, New York. The David and Lucile Packard Foundation, the National Science Foundation and the Swedish Research Council funded the research. Researchers had long known the Sahara was much greener in the past, but how much of the Sahara was wetter and how much wetter was not well understood, Tierney said. Although scientists can learn about past climate by examining ancient lake sediments, in the Sahara the lakes dried up long ago and their sediments have blown away.

Instead of lake sediments, Tierney and her colleagues used cores of marine sediments taken off the coast of West Africa at four different sites. Because the cores were taken over a north-south distance of about 800 miles (1,300 km) — from offshore Cape Ghir, Morocco, to the northwest corner of Mauritania — the cores revealed both the ancient rainfall patterns and the areal extent of the Green Sahara. In terrestrial plants, the chemical composition of a leaf’s wax changes depending on how dry or wet the climate was when the plant was growing. Leaf wax also washes into the ocean and can be preserved in the marine sediments that are laid down year after year. “The waxes record the climate conditions on land,” Tierney said. By analyzing the leaf wax from ancient marine sediments, the team determined the region’s past rainfall patterns and also gathered clues about what types of plants were growing.

The team also wanted to know whether the conditions on land interacted with the atmosphere to affect climate, because most of the current climate models don’t simulate the Green Sahara period well, she said. The amount of solar radiation Earth receives during the Northern Hemisphere summer depends on where Earth’s “wobble,” known as precession, is in its 23,000-year cycle. At the beginning of the Green Sahara, the Northern Hemisphere was closer to the sun during summer. Warmer summers strengthened the West African monsoon and delivered more rain. Toward the end of the Green Sahara, the Northern Hemisphere was farther from the sun and the West African monsoon was weaker. There’s a feedback between vegetation, dust and rainfall, Tierney said. Right now the Sahara Desert is the planet’s biggest source of dust — but a vegetated Sahara would produce much less dust.

Und hier der Abstract der Arbeit in Science Advances:

Rainfall regimes of the Green Sahara
During the “Green Sahara” period (11,000 to 5000 years before the present), the Sahara desert received high amounts of rainfall, supporting diverse vegetation, permanent lakes, and human populations. Our knowledge of rainfall rates and the spatiotemporal extent of wet conditions has suffered from a lack of continuous sedimentary records. We present a quantitative reconstruction of western Saharan precipitation derived from leaf wax isotopes in marine sediments. Our data indicate that the Green Sahara extended to 31°N and likely ended abruptly. We find evidence for a prolonged “pause” in Green Sahara conditions 8000 years ago, coincident with a temporary abandonment of occupational sites by Neolithic humans. The rainfall rates inferred from our data are best explained by strong vegetation and dust feedbacks; without these mechanisms, climate models systematically fail to reproduce the Green Sahara. This study suggests that accurate simulations of future climate change in the Sahara and Sahel will require improvements in our ability to simulate vegetation and dust feedbacks.

Die Felsenbilder sind übrigens auch in einem Schulungsfilm zur geologischen Entwicklung der Sahara enthalten, den Sebastian Lüning im Rahmen mehrerer Expeditionen in Südlibyen drehte:

 

 

Die Sonne im Februar 2017 und das antarktische Meereis

Von Frank Bosse und Fritz Vahrenholt

Der Stern im Mittelpunkt unseres Planetensystems war auch im Vormonat nur sehr gering aktiv. Die festgestellte SSN (SunSpotNumber) von 26,1 reiht sich ein in die Datenreihe, die auf eine nur etwa 50- prozentige Fleckenaktivität des Normalen  über den gesamten Zyklus weist.

Abb. 1: Die mittlere Sonnenaktivität ( blau) im Vergleich zur Aktivität im laufenden Zyklus 24 (rot) und dem in Teilen sehr ähnlichen Zyklus 5 (schwarz).

 

Der Vergleich der Zyklen untereinander:

Abb.2: Die Aktivität der Zyklen 1…24 als Abweichung vom Mittelwert. Der aktuelle Zyklus begann im  Dezember 2008 und ist der drittruhigste seit Beginn der systematischen Beobachtungen im Jahre 1755.

 

Die solaren polaren Felder sind wohl inzwischen „eingeschwungen“, wir hatten Sie ja in den letzten Monaten informiert. Sowohl die Felder des Sonnennordpols als auch die des Südpols weisen auf eine Aktivität des folgenden Zyklus von ca. 2/3 im Vergleich zum aktuellen Zyklus hin. Eine frühe Prognose von uns also hier: Der Zyklus 25 ab ca. 2021 könnte etwa so schwach werden wie der Zyklus 6. Wir würden nach dem jetzigen Stand ein solares Minimum recht ähnlich zum Dalton- Minimum ( Zyklus 5,6,7) 1790…1830 erleben. Die weiter sehr stark entkoppelten polaren Felder – die des Südpols sind schon jahrelang am Stück deutlich stärker als die des Nordpols- tragen jedoch noch Unschärfen ein. Ein solches Phänomen wurde seit Beginn der systematischen Beobachtungen in den 70er Jahren noch nicht verzeichnet. In dieser Zeit waren wir jedoch auch in einem anderen  „Sonnenzeitalter“, die Sonne war damals so aktiv wie noch nie vorher beobachtet.

 

Antarktis: So wenig Eis wie noch nie!

Solche Schlagzeilen gab es im letzten Monat zu Hauf, die ARD relativ sachlich, andere schon reißerischer und durch tätige Mithilfe von Fotoshop mit suggestivem  Klimaalarm. Zunächst einmal die Fakten: Der diesjährige Eisextent (die Ausdehnung) ist tatsächlich auf Rekord-niedrigem Stand, dies referiert der NSIDC in seinem Bericht. Hier die zugehörige Graphik:

 

Abb.3:  die Ausdehnung der Eisfläche rund um Antarktika im Februar (nahe am sommerlichen Minimum dort) im Vergleich zu 1979 (in %). Quelle.

 

Man sieht den steigenden Trend als gestrichelte Linie. Der langjährige Trend ist am Ende das Entscheidende wenn es um das Klima geht, die kürzeren Schwankungen deuten auf Wetter hin. Eine Betrachtung der Temperaturen der gesamten Antarktis zeigt, dass sogar ins Gerede gekommene  GISS- Reihe dort keinen relevanten Trend sieht.

 

Abb.4: Die antarktische Temperaturanomalie am Boden nach GISS

 

Das Schmelzgeschehen auf dem Ozean rund um die Antarktis herum wird damit jedoch kaum erfasst, hier sind die Oberflächentemperaturen der Meere (SST) entscheidend. Und da sehen wir, woher der Eisverlust kommt:

 

 

Abb.5: Die Temperaturanomalie des Ozeans rund um Antarktika

 

Sie erkennen den fallenden Trend seit Mitte der 90er und am Ende den warmen Spike, der sich auf das Meereis auswirkte. Es ist also mit Sicherheit einiges an Wetter dabei am Ende des Jahres 2016, genauer gesagt ab September.  Über die genauen Ursachen herrscht auch in der Literatur keine Gewissheit. Eine naheliegende Vermutung könnte als (Teil)Ursache den sehr kräftigen ElNino 2015/16 sehen. Wie Sie jedoch bemerken hatte der letzte starke ElNino (1997/98) nicht diese Folgen. Hier muss man beachten, dass jeder ElNino im Detail anders ist als seine Vorgänger. Damit beschäftigte sich diese Studie näher. In 2015/16 hatten wir gleichzeitig zwei wirksame Ereignisse: einen zentralpazifischen ( auch ElNino Modoki genannt) plus einen ostpazifischen Wärmeschub mit dem ElNino. Der tropische Pazifik erwärmte sich stark vom südamerikanischen Festland bis hin fast zur Datumsgrenze.  Dies war in der genau beobachteten Zeit eine Premiere und es gibt kaum Vergleichswerte. Es könnte sich eine Wirkungskette entfaltet haben: Die Wärme des ElNino (viel mehr als 1998 über die Fläche verteilt) wird polwärts transportiert durch die Ozeane und die Troposphäre und wird dort zum großen Teil in den Weltraum abgestrahlt. Auf diesem Wege werden die Wässer um Antarktika mit erwärmt. Das nächste Jahr muss zeigen, ob es eine vorübergehende starke Erwärmung (ein Puls entgegen dem Langzeittrend) war oder ob sich der Trend umzukehren beginnt.

Dann werden Sie in den Medien wahrscheinlich lesen, dass die Klimaerwärmung nun auch in der Antarktis das Meereis katastrophal reduziert. Das ist jedoch wilde Spekulation. In einer aktuellen Studie zur AMOC (dies ist der globale ozeanische  Wärmefluss von Süd nach Nord) wird festgestellt, dass ein starker Wärmetransport Richtung Nordpol in der Antarktis ein spezielles Muster entstehen lässt: Es wird an der Oberfläche (SST) kühler und in der Tiefe wärmer. Die tieferen Wässer bis 700m am Rande des Kontinents zeigen einen Warmtrend, die Oberfläche ( vergleiche Abb. 5) einen Kühltrend. Hier ein Blick auf die „untere Etage“ dort:

 

Abb. 6: Die Temperaturanomalien des Ozeans bis in 700m Tiefe rund um Antarktika

 

Die Divergenz zwischen tieferen Schichten des Ozeans und seiner Oberfläche ist klar zu sehen. In  Abb. 5 sehen Sie den plötzlichen positiven Ausschlag der SST, dem kann der Ozean bis 700m Tiefe natürlich nicht folgen durch seine sehr hohe Wärmeträgheit. Im nördlichen Atlantik sehen wir jedoch den Rückgang des Wärmetransports bereits seit etwa 2012:

 

Abb. 7: Die Oberflächentemperaturanomalien  im subpolaren  Nordatlantik seit 1980.

 

Es könnte also sehr gut sein, dass zu dem Pulsverhalten durch den ElNino diese „Schaukelwirkung“ hinzu kommt: Eine starker nordwärts gerichteter Wärmetransport (starke AMOC) kühlt das Wasser an der Oberfläche des Ozeans (das Meereis wächst an) um die Antarktis herum während es in der Tiefe wärmer wird. Eine schwächere AMOC (Abb. 7  spricht für ein Nachlassen im Vergleich zu den Jahren nach 1998) dreht die Verhältnisse im Süden um: es wird an der Oberfläche wärmer (Meereisschwund) und in der Tiefe kälter.

Man wird also gespannt auf die Messungen aus den tieferen Meeresschichten um die Antarktis herum warten um zu erkennen, ob dies so ist. Dies alles sind völlig natürliche Vorgänge  und ob und wenn ja wie viel menschgemachte Erwärmung  da hineinspielt ist völlig unklar. Also bitte nicht auf vorschnelle Erklärungen (à la „Der Mensch schmilzt jetzt auch die Antartkis!!!“)  in den Medien oder von bestimmten Instituten hereinfallen wenn es zukünftig weniger Eis um die Antarktis herum geben sollte. Propaganda und „science at work“ sind Antagonismen. Die interne Variabilität des aktuell abkühlenden Nordatlantiks ist „Nature at work“.

 

Amerikanischer Geologischer Dienst gibt Entwarnung: Methanhydrat im arktischen Polarmeer stellt keine große Klimagefahr dar

Im Jahr 2010 warnte Michael Odenwald im Focus vor einer klimatischen Methanzeitbombe in der Arktis:

Methanhydrat: Kommt die rapide Erderwärmung?
Das Treibhausgas Methan strömt aus dem Schelf des arktischen Polarmeers in viel größeren Mengen in die Atmosphäre als gedacht. Dies ergab eine Studie einer Arbeitsgruppe von russischen, schwedischen und US-Wissenschaftlern, die in der aktuellen Ausgabe des Wissenschaftsjournals „Science“ veröffentlicht wird. Die Forscher hatten in den Jahren 2003 bis 2008 bei Fahrten auf russischen Eisbrechern im Gebiet des ostsibirischen Schelfs Wasserproben genommen, hinzu kamen per Helikopter Probennahmen aus der Luft. Am Ende waren 5100 Messungen zusammengekommen. Sie ergaben ein erschreckendes Bild: Rund 80 Prozent des Tiefenwassers und 50 Prozent des oberflächennahen Seewassers erwiesen sich als mit Methan übersättigt. Offenbar tritt das Gas aus dem Permafrostboden am Meeresgrund aus. Dabei gelangt aus dem relativ kleinen Meeresgebiet ebenso viel davon in die Luft wie aus allen übrigen Ozeanen der Welt zusammen. „Die Freisetzung nur eines kleinen Teils des im Sediment des ostsibirischen Schelfs gebundenen Methans kann eine abrupte globale Erwärmung auslösen“, warnt das Team um die russische Biogeochemikerin Natalia Schachowa, die an der Universität von Alaska in Fairbanks forscht.

Sieben Jahre Forschung später haben sich die Befürchtungen zum Glück nicht bestätigt, wie der US amerikanische Geologische Dienst und die University of Rochester am 9. Februar 2017 in einer Pressemitteilung bekanntgaben:

Gas Hydrate Breakdown Unlikely to Cause Massive Greenhouse Gas Release

A recent interpretive review of scientific literature performed by the U.S. Geological Survey and the University of Rochester sheds light on the interactions of gas hydrates and climate.

The breakdown of methane hydrates due to warming climate is unlikely to lead to massive amounts of methane being released to the atmosphere, according to a recent interpretive review of scientific literature performed by the U.S. Geological Survey and the University of Rochester. Methane hydrate, which is also referred to as gas hydrate, is a naturally-occurring, ice-like form of methane and water that is stable within a narrow range of pressure and temperature conditions.  These conditions are mostly found in undersea sediments at water depths greater than 1000 to 1650 ft and in and beneath permafrost (permanently frozen ground) at high latitudes. Methane hydrates are distinct from conventional natural gas, shale gas, and coalbed methane reservoirs and are not currently exploited for energy production, either in the United States or the rest of the world. On a global scale, gas hydrate deposits store enormous amounts of methane at relatively shallow depths, making them particularly susceptible to the changes in temperature that accompany climate change.  Methane itself is also a potent greenhouse gas, and some researchers have suggested that methane released by the breakdown of gas hydrate during past climate events may have exacerbated global warming.

The new review concludes that current warming of ocean waters is likely causing gas hydrate deposits to break down at some locations. However, not only are the annual emissions of methane to the ocean from degrading gas hydrates far smaller than greenhouse gas emissions to the atmosphere from human activities, but most of the methane released by gas hydrates never reaches the atmosphere. Instead, the methane often remains in the undersea sediments, dissolves in the ocean, or is converted to carbon dioxide by microbes in the sediments or water column. The review pays particular attention to gas hydrates beneath the Arctic Ocean, where some studies have observed elevated rates of methane transfer between the ocean and the atmosphere.  As noted by the authors, the methane being emitted to the atmosphere in the Arctic Ocean has not been directly traced to the breakdown of gas hydrate in response to recent climate change, nor as a consequence of longer-term warming since the end of the last Ice Age. “Our review is the culmination of nearly a decade of original research by the USGS, my coauthor Professor John Kessler at the University of Rochester, and many other groups in the community,” said USGS geophysicist Carolyn Ruppel, who is the paper’s lead author and oversees the USGS Gas Hydrates Project. “After so many years spent determining where gas hydrates are breaking down and measuring methane flux at the sea-air interface, we suggest that conclusive evidence for release of hydrate-related methane to the atmosphere is lacking.” 

Professor Kessler explains that, “Even where we do see slightly elevated emissions of methane at the sea-air interface, our research shows that this methane is rarely attributable to gas hydrate degradation.” The review summarizes how much gas hydrate exists and where it occurs; identifies the technical challenges associated with determining whether atmospheric methane originates with gas hydrate breakdown; and examines the assumptions of the Intergovernmental Panels on Climate Change, which have typically attributed a small amount of annual atmospheric methane emissions to gas hydrate sources. The review also systematically evaluates different environments to assess the susceptibility of gas hydrates at each location to warming climate and addresses the potential environmental impact of an accidental gas release associated with a hypothetical well producing methane from gas hydrate deposits.

Virginia Burkett, USGS Associate Director for Climate and Land Use Change, noted, “This review paper provides a truly comprehensive synthesis of the knowledge on the interaction of gas hydrates and climate during the contemporary period.  The authors’ sober, data-driven analyses and conclusions challenge the popular perception that warming climate will lead to a catastrophic release of methane to the atmosphere as a result of gas hydrate breakdown.”  The paper, “The Interaction of Climate Change and Methane Hydrates,” by C. Ruppel and J. Kessler, is published in Reviews of Geophysics and is available here.   The USGS and University of Rochester research that contributed to the review was largely supported by the U.S. Department of Energy and the National Science Foundation.  More information about the University of Rochester’s Dept. of Earth and Environmental Sciences is available here.

The USGS Gas Hydrates Project has been advancing understanding of U.S. and international gas hydrates science for over two decades. The Project focuses on natural gas hydrates and their potential as an energy resource, interaction with the climate system, and possible association with geohazards such as submarine landslides.  In the last decade, the group has participated in energy resource studies on the Alaskan North Slope and in the Gulf of Mexico, Indian Ocean, and other locations.  Studies of climate-hydrate interactions have been carried out in the Beaufort Sea, on the U.S. Atlantic margin, and at international sites.

 

Geben Planeten der Sonne den Takt vor?

Pressemitteilung des Helmholtz-Zentrums Dresden-Rossendorf vom 20. September 2016:

—–

Geben Planeten der Sonne den Takt vor?

HZDR-Forscher stellen eine Verbindung zwischen dem Sonnenzyklus und der Gezeitenwirkung von Venus, Erde und Jupiter her.

Die Sonnenaktivität wird vom Magnetfeld der Sonne bestimmt. Für dieses sind zwei gekoppelte Effekte verantwortlich: Der Omega-Effekt beruht auf der unterschiedlich schnellen Rotation des heißen und leitfähigen Plasmas, aus dem die Sonne besteht. So bildet sich ein Magnetfeld in Form zweier Ringe nördlich und südlich des Äquators. Aus diesen wiederum erzeugt der Alpha-Effekt ein Magnetfeld, das entlang der Längenkreise der Sonne verläuft. Wo und wie genau der Alpha-Effekt entsteht, gilt als ungeklärt. Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) stellen hierzu nun eine neue Theorie in der Fachzeitschrift „Solar Physics“ vor. Ihre Berechnungen legen nahe, dass die Gezeitenkräfte von Venus, Erde und Jupiter die Sonnenaktivität direkt beeinflussen können.

Viele Fragen zum Magnetfeld der Sonne sind noch offen. „Wie bei der Erde auch, haben wir es mit einem Dynamo zu tun. Durch Selbsterregung entsteht das Magnetfeld quasi aus dem Nichts, wobei die komplexe Bewegung des leitfähigen Plasmas als Energiequelle dient“, so der Physiker Dr. Frank Stefani vom HZDR. Der sogenannte Alpha-Omega-Dynamo der Sonne unterliegt einem regelmäßigen Zyklus. Etwa alle elf Jahre polt das Magnetfeld der Sonne um; mit derselben Periode durchläuft die Sonnenaktivität ein Maximum. Dieses zeigt sich an der Zunahme der Sonnenflecken – dunklen Stellen auf der Sonnenoberfläche, die von stark konzentrierten Magnetfeldern herrühren.

„Interessanterweise stehen alle 11,07 Jahre die Sonne und die Planeten Venus, Erde und Jupiter etwa auf einer Linie. Wir haben uns gefragt: Ist es Zufall, dass der Sonnenzyklus mit dem Zyklus von Konjunktion beziehungsweise Opposition der drei Planeten zusammenfällt?“, führt Stefani aus. Dabei ist die Fragestellung selbst keineswegs neu. Bisher konnten Wissenschaftler jedoch keinen physikalisch plausiblen Mechanismus dafür identifizieren, wie die sehr schwachen Gezeitenwirkungen von Venus, Erde und Jupiter den Sonnendynamo beeinflussen könnten.

Verstärkung durch Resonanz

„Auch wenn man einer Schaukel immer nur einen kleinen Schubs gibt, kommt sie mit der Zeit immer mehr in Schwung“, erläutert Frank Stefani das Prinzip der Resonanz. Er und sein Team fanden in aktuellen Berechnungen heraus, dass der Alpha-Effekt unter bestimmten Bedingungen zu Schwingungen neigt. „Die Anregung dieser Alpha-Oszillationen benötigt fast keine Energie. Dafür könnten die Gezeiten der Planeten als Taktgeber ausreichen.“ Für dieses Mitschwingen des Sonnendynamos spielt die sogenannte Tayler-Instabiltität eine entscheidende Rolle. Sie entsteht immer dann, wenn ein genügend starker Strom durch eine leitfähige Flüssigkeit oder ein Plasma fließt. Ab einer bestimmten Stärke erzeugt die Wechselwirkung des Stroms mit seinem eigenen Magnetfeld eine Strömung – im Falle der riesigen Sonne mit turbulentem Charakter.

Nach allgemeiner Auffassung beruht der Sonnendynamo auf einem Zusammenspiel zweier Induktionsmechanismen. Weitgehend unstrittig ist der Omega-Effekt, der in der Tachokline entsteht. So heißt ein schmales Band zwischen der inneren Strahlungszone der Sonne und den äußeren Bereichen, in denen Konvektion stattfindet, also Wärme über die Bewegung des heißen Plasmas transportiert wird. In der Tachokline treffen unterschiedlich schnell rotierende Bereiche aufeinander. Diese differentielle Rotation generiert das sogenannte toroidale Magnetfeld in Form zweier nördlich und südlich des Sonnenäquators gelegener „Rettungsringe“.

Neues Rezept für den Sonnendynamo

Große Unklarheiten bestehen hinsichtlich der Lage und Ursache des Alpha-Effektes, der aus dem Toroidalfeld ein Poloidalfeld erzeugt – letzteres verläuft entlang der Längengrade der Sonne. Einer weit verbreiteten Theorie zufolge hat der Alpha-Effekt seinen Ursprungsort in der Nähe der Sonnenflecken, also an der Sonnenoberfläche. Die Dresdner Forscher haben einen alternativen Ansatz gewählt, der den Alpha-Effekt mit der Rechts- oder Linkshändigkeit der Tayler-Instabilität in Zusammenhang bringt. Die Tayler-Instabilität wiederum entsteht aufgrund der stark aufgewickelten Toroidalfelder im Gebiet der Tachokline. „Damit können wir im Prinzip auch den Alpha-Effekt in der Tachokline verorten“, sagt Frank Stefani.

Nun haben die HZDR-Forscher erstmals Belege dafür gefunden, dass die Tayler-Instabilität auch zwischen Rechts- und Linkshändigkeit hin- und herpendeln kann. Das Besondere: Der Umschlag erfolgt faktisch ohne Änderung der Strömungsenergie. Dadurch reichen schon sehr kleine Kräfte aus, um eine Schwingung des Alpha-Effekts anzuregen. „Unsere Berechnungen zeigen, dass planetare Gezeitenkräfte hier wie winzige Taktgeber von außen wirken. Die etwa alle elf Jahre angestoßene Oszillation des Alpha-Effekts könnte die Umpolung des Magnetfeldes der Sonne bewirken und letztlich den 22-Jahres-Zyklus des Sonnendynamos bestimmen“, so der Physiker.

Die Wissenschaftler rund um Frank Stefani beschäftigen sich seit vielen Jahren intensiv mit Magnetfeldern im Kosmos und auf der Erde. So ist es ihnen als erster Gruppe weltweit gelungen, sowohl die Tayler- als auch die Magneto-Rotations-Instabilität im Laborexperiment nachzuweisen. Im Jahr 1999 waren die Spezialisten für Magnetohydrodynamik zudem am erstmaligen Nachweis des homogenen Dynamoeffekts in Riga beteiligt.

Tayler-Instabilität begrenzt neuartige Flüssigmetall-Batterien

„Interessanterweise sind wir auf die Tayler-Instabilität im Rahmen unserer Forschung zu neuartigen Flüssigmetall-Batterien gestoßen, die zurzeit als mögliche preiswerte Speicher für die stark fluktuierende Sonnenergie untersucht werden“, erklärt Frank Stefani. Das Grundprinzip einer Flüssigmetall-Batterie ist äußerst einfach. Sie besteht aus zwei unterschiedlich schweren, flüssigen Metallen – den Elektroden –, die nur durch eine dünne Salzschicht getrennt sind. Die Vorteile: ein extrem schneller Ladungsvorgang, eine zumindest theoretisch unendliche Anzahl von Ladungszyklen sowie geringe Kosten, wenn es denn gelingt, eine Batterie in Quadratmetergröße herzustellen. „Für diese Batterien stellt die Tayler-Instabilität eine ernstzunehmende Gefahr dar, weil sie unweigerlich dann auftritt, wenn die Zellen größer und größer werden. Ohne gewisse technologische Tricks, die wir bereits patentiert haben, würde die Tayler-Instabilität die stabile Schichtung der Batterie zerstören“, fügt Stefani hinzu.

Publikation: F. Stefani, A. Giesecke, N. Weber, T. Weier: „Synchronized Helicity Oscillations: A Link Between Planetary Tides and the Solar Cycle?”, in Solar Physics, Online-Veröffentlichung am 01. September 2016 (DOI:10.1007/s11207-016-0968-0)

 

 

Astronomischer Ursprung des solaren Hallstatt-Zyklus

Die University of Wisconsin-Madison hat am 22. Februar 2017 in einer Pressemitteilung den Klimaeinfluss von Gezeiteneffekten des Mars auf die Erde beschrieben. Forscher der Universität untersuchten dabei Gesteine der Kreidezeit, in denen sie bei Resonanz der beiden Planetenbahnen charakteristische Klimaeffekte nachweisen konnten.

From rocks in Colorado, evidence of a ‘chaotic solar system’

Plumbing a 90 million-year-old layer cake of sedimentary rock in Colorado, a team of scientists from the University of Wisconsin–Madison and Northwestern University has found evidence confirming a critical theory of how the planets in our solar system behave in their orbits around the sun. The finding, published Feb. 23, 2017 in the journal Nature, is important because it provides the first hard proof for what scientists call the “chaotic solar system,” a theory proposed in 1989 to account for small variations in the present conditions of the solar system. The variations, playing out over many millions of years, produce big changes in our planet’s climate — changes that can be reflected in the rocks that record Earth’s history. The discovery promises not only a better understanding of the mechanics of the solar system, but also a more precise measuring stick for geologic time. Moreover, it offers a better understanding of the link between orbital variations and climate change over geologic time scales.

Using evidence from alternating layers of limestone and shale laid down over millions of years in a shallow North American seaway at the time dinosaurs held sway on Earth, the team led by UW–Madison Professor of Geoscience Stephen Meyers and Northwestern University Professor of Earth and Planetary Sciences Brad Sageman discovered the 87 million-year-old signature of a “resonance transition” between Mars and Earth. A resonance transition is the consequence of the “butterfly effect” in chaos theory. It plays on the idea that small changes in the initial conditions of a nonlinear system can have large effects over time. In the context of the solar system, the phenomenon occurs when two orbiting bodies periodically tug at one another, as occurs when a planet in its track around the sun passes in relative proximity to another planet in its own orbit. These small but regular ticks in a planet’s orbit can exert big changes on the location and orientation of a planet on its axis relative to the sun and, accordingly, change the amount of solar radiation a planet receives over a given area. Where and how much solar radiation a planet gets is a key driver of climate.“The impact of astronomical cycles on climate can be quite large,” explains Meyers, noting as an example the pacing of the Earth’s ice ages, which have been reliably matched to periodic changes in the shape of Earth’s orbit, and the tilt of our planet on its axis. “Astronomical theory permits a very detailed evaluation of past climate events that may provide an analog for future climate.”

To find the signature of a resonance transition, Meyers, Sageman and UW–Madison graduate student Chao Ma, whose dissertation work this comprises, looked to the geologic record in what is known as the Niobrara Formation in Colorado. The formation was laid down layer by layer over tens of millions of years as sediment was deposited on the bottom of a vast seaway known as the Cretaceous Western Interior Seaway. The shallow ocean stretched from what is now the Arctic Ocean to the Gulf of Mexico, separating the eastern and western portions of North America. “The Niobrara Formation exhibits pronounced rhythmic rock layering due to changes in the relative abundance of clay and calcium carbonate,” notes Meyers, an authority on astrochronology, which utilizes astronomical cycles to measure geologic time. “The source of the clay (laid down as shale) is from weathering of the land surface and the influx of clay to the seaway via rivers. The source of the calcium carbonate (limestone) is the shells of organisms, mostly microscopic, that lived in the water column.”

Meyers explains that while the link between climate change and sedimentation can be complex, the basic idea is simple: “Climate change influences the relative delivery of clay versus calcium carbonate, recording the astronomical signal in the process. For example, imagine a very warm and wet climate state that pumps clay into the seaway via rivers, producing a clay-rich rock or shale, alternating with a drier and cooler climate state which pumps less clay into the seaway and produces a calcium carbonate-rich rock or limestone.” The new study was supported by grants from the National Science Foundation. It builds on a meticulous stratigraphic record and important astrochronologic studies of the Niobrara Formation, the latter conducted in the dissertation work of Robert Locklair, a former student of Sageman’s at Northwestern.

Dating of the Mars-Earth resonance transition found by Ma, Meyers and Sageman was confirmed by radioisotopic dating, a method for dating the absolute ages of rocks using known rates of radioactive decay of elements in the rocks. In recent years, major advances in the accuracy and precision of radioisotopic dating, devised by UW–Madison geoscience Professor Bradley Singer and others, have been introduced and contribute to the dating of the resonance transition. The motions of the planets around the sun has been a subject of deep scientific interest since the advent of the heliocentric theory — the idea that the Earth and planets revolve around the sun — in the 16th century. From the 18th century, the dominant view of the solar system was that the planets orbited the sun like clockwork, having quasiperiodic and highly predictable orbits. In 1988, however, numerical calculations of the outer planets showed Pluto’s orbit to be “chaotic” and the idea of a chaotic solar system was proposed in 1989 by astronomer Jacques Laskar, now at the Paris Observatory. Following Laskar’s proposal of a chaotic solar system, scientists have been looking in earnest for definitive evidence that would support the idea, says Meyers. “Other studies have suggested the presence of chaos based on geologic data,” says Meyers. “But this is the first unambiguous evidence, made possible by the availability of high-quality, radioisotopic dates and the strong astronomical signal preserved in the rocks.”

Bereits im November 2016 erschien in Earth-Science Reviews eine Arbeit einer Gruppe um Nicola Scafetta, in der der Ursprung des solaren Hallstatt-Zyklus (2300 Jahre) in Resonanzen der Bahnparameter von Jupiter, Saturn, Uranus und Neptun interpretiert wird. Je nach Konfiguration der Planeten und deren Gezeitenwirkung wird die Aktivität des Sonnenkraftwerks befördert oder gedämpft. Hier der Abstract:

On the astronomical origin of the Hallstatt oscillation found in radiocarbon and climate records throughout the Holocene
An oscillation with a period of about 2100–2500 years, the Hallstatt cycle, is found in cosmogenic radioisotopes (14C and 10Be) and in paleoclimate records throughout the Holocene. This oscillation is typically associated with solar variations, but its primary physical origin remains uncertain. Herein we show strong evidences for an astronomical origin of this cycle. Namely, this oscillation is coherent to a repeating pattern in the periodic revolution of the planets around the Sun: the major stable resonance involving the four Jovian planets – Jupiter, Saturn, Uranus and Neptune – which has a period of about p = 2318 years. Inspired by the Milanković’s theory of an astronomical origin of the glacial cycles, we test whether the Hallstatt cycle could derive from the rhythmic variation of the circularity of the solar system assuming that this dynamics could eventually modulate the solar wind and, consequently, the incoming cosmic ray flux and/or the interplanetary/cosmic dust concentration around the Earth-Moon system. The orbit of the planetary mass center (PMC) relative to the Sun was used as a proxy. We analyzed how the instantaneous eccentricity vector of this virtual orbit varies from 13,000 BCE to 17,000 CE. We found that it undergoes kind of pulsations as it clearly presents rhythmic contraction and expansion patterns with a 2318 year period together with a number of already known faster oscillations associated to the planetary orbital stable resonances, which are theoretically calculated. These periods include a quasi 20-year oscillation, a quasi 60-year oscillation, the 82-97 year Gleissberg oscillation and the 159-185 year Jose oscillation. There exists a quasi π/2 phase shift between the 2100–2500 year oscillation found in the 14C record and that of the calculated eccentricity function. Namely, at the Hallstatt-cycle time scale, a larger production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more elliptical shapes (e ≈ 0.598) to more circular ones (e ≈ 0.590), that is while the orbital system is slowly imploding or bursting inward; a smaller production of radionucleotide particles occurs while the Sun-PMC orbit evolves from more circular shapes (e ≈ 0.590) to a more elliptical ones (e ≈ 0.598), that is while the orbital system is slowly exploding or bursting outward. Since at this timescale the PMC eccentricity variation is relatively small (e = 0.594 ± 0.004), the physical origin of the astronomical 2318 year cycle is better identified and distinguished from faster orbital oscillations by the times it takes the PMC to make pericycles and apocycles around the Sun and the times it takes to move from minimum to maximum distance from the Sun within those arcs. These particular proxies reveal a macroscopic 2318 year period oscillation, together with other three stable outer planets orbital resonances with periods of 159, 171 and 185 years. This 2318 year oscillation is found to be spectrally coherent with the Δ14C Holocene record with a statistical confidence above 95%, as determined by spectral analysis and cross wavelet and wavelet coherence analysis. At the Hallstatt time scale, maxima of the radionucleotide production occurred when, within each pericycle-apocycle orbital arc, the time required by the PMC to move from the minimum to the maximum distance from the Sun varies from about 8 to 16 years while the time required by the same to move from the maximum to the minimum distance from the Sun varies from about 7 to 14 years, and vice versa. Thus, we found that a fast expansion of the Sun-PMC orbit followed by a slow contraction appears to prevent cosmic rays to enter within the system inner region while a slow expansion followed by a fast contraction favors it. Similarly, the same dynamics could modulate the amount of interplanetary/cosmic dust falling on Earth. Indeed, many other stable orbital resonance frequencies (e.g. at periods of 20 years, 45 years, 60 years, 85 years, 159–171–185 years) are found in radionucleotide, solar, aurora and climate records, as determined in the scientific literature. Thus, the result supports a planetary theory of solar and/or climate variation that has recently received a renewed attention. In our particular case, the rhythmic contraction and expansion of the solar system driven by a major resonance involving the movements of the four Jovian planets appear to work as a gravitational/electromagnetic pump that increases and decreases the cosmic ray and dust densities inside the inner region of the solar system, which then modulate both the radionucleotide production and climate change by means of a cloud/albedo modulation.

—————

Auch Dimitris Poulos publizierte 2016 im Global Journal of Physics zum Thema:

Documentation of the solar activity variations and it’s influence on climate
The four planets that influence the most the solar surface through tidal forcing seem to affect the Earth climate. A simple two cosine model with periods 251 years, of the seasonality of the Earth – Venus syzygies, and 265.4 years, of the combined syzygies of Jupiter and Mercury with Earth when Earth is in synod with Venus, fits well the Northern Hemisphere temperatures of the last 1000 years as reconstructed by Jones et al (1998). The physical mechanism proposed is that planetary gravitational forces drive solar activity that in turn drives temperature variations in earth. The sun is in a boundary balance state at one hand collapsing due to gravity and at the other hand expanding due to fusion, and as such it should be heavily influenced by minimal external forcings such as planetary gravity. Sound waves in the solar mass, created from the planetary movement, are responsible for the formation of solar corona and sun spots. The Earth-Venus 251 year resonance is resonant to a near surface solar layer’s thermal natural frequency that “explodes” to form solar wind. The calculated solar wind properties match the observed.

 

 

 

Nature Editorial kritisiert Unausgewogenheit von sensationsheischenden Studien

Am 7. März 2017 erschien ein Nature-Editorial, das positiv überrascht. Nature geht darin auf ein Ranking der “besten und schlechtesten” Wissenschaftsseiten in der englischsprachigen Presselandschaft ein, die vom American Council on Science and Health angefertigt wurde. Die zwei Achsen des Rankings bestehen aus “evidence-driven” (faktenbasiert) und “compelling” (spannend lesbar). Nature und Science wurden in der absoluten Spitzenecke des Diagramms platziert. Das mag korrekt sein. Allerdings ist man in beiden Häusern stets bemüht, unliebsame und unbequeme Fakten aus den Heften fernzuhalten. Manuskripte von Klimaskeptikern haben bei diesen Journals keine Chance, egal wie hochwertig sie auch sein mögen. Die Türsteher weisen jegliche Einreichungsversuche bereits an der Tür ab. Am unteren Qualitätsende des Rankings finden wir die Daily Mail, die sich immer wieder traut, auch klimaskeptische Aspekte zu behandeln. Das gibt natürlich Punktabzüge.

Umso erfreulicher, dass die Nature-Herausgeber das Ranking äußerst skeptisch bewerten. Ein bestandenes Peer-Review ist noch lange keine Garantie, dass ein Ergebnis auch korrekt ist. Etliche Studien sind medial sensationsheischend und wenig ausgewogen. Nature erklärt, dass den Wissenschaftsblogs hier eine wichtige Rolle zukommt, indem sie Publikationen kritisch besprechen und mögliche Fehlerpunkte im Rahmen eines Post-Publication-Reviews benennen. Damit ist natürlich auch das Kaltesonne-Blog gemeint, in dem wir genau diese Funktion ausüben. Hier ein Auszug aus dem lesenswerten Editorial:

The judges’ criterion of evidence-based news is arguably problematic, as well. Many journalists could reasonably point to the reproducibility crisis in some scientific fields and ask — as funders and critics are increasingly asking — just how reliable some of that evidence truly is. Mainstream science reporters have typically taken peer review as an official stamp of approval from the research community that a published finding is sufficiently robust to share with their readers. Yet this kind of evidence-based reporting is only as reliable as the evidence it reports on. And many scientists would complain (even if only among themselves) that some published studies, especially those that draw press attention, are themselves vulnerable to bias and sensationalism.

This is one reason why the rise of the scientist (and non-scientist) as blogger, along with other forms of post-publication review, has been so valuable. Many scientists know about the problems with some fields of research. Many journalists do, too — articles on questionable practices from statistical fishing to under-powered studies are an increasing presence in most of the publications in the infographic. The relationship between science and media reporting is far from simple, and both sides should remember this.

 

Fische durch Klimawandel immer kleiner? Universität Oslo deckt schwere Berechnugsfehler von IPCC-Autor auf

Im Oktober 2012 berichteten die Medien über ein besorgniserregendes Resultat aus der Klimawandelforschung. Die Welt titelte:

Klimawandel macht Fische im Ozean kleiner

Steigt die Temperatur in der Atmosphäre, werden auch die Meere wärmer. Das macht Fischen zu schaffen: Sie stellen das Wachstum ein. Laut Prognose könnten die Größe um ein Viertel abnehmen.

Die weltweiten Fischbestände sind einer neuen Studie zufolge nicht nur durch massive Überfischung, sondern auch durch den Klimawandel bedroht. Die mit der Erderwärmung steigenden Wassertemperaturen zögen Wachstumsprobleme bei den Fischen nach sich, ergab die in der Zeitschrift „Nature Climate Change“ veröffentlichte Untersuchung. Die Wissenschaftler um Daniel Pauly von der kanadischen University of British Columbia simulierten die Auswirkung des Klimawandels auf die Meere und ihre Bewohner in Computermodellen.

Schockierende Nachrichten, die auch den letzten Zweifler an der Gefährlichkeit des CO2 überzeugen sollten. Der sorglose Umgang mit dem Treibhausgas führt uns direkt nach Lilliputhausen. Da ist der Schritt zum schrumpfenden Menschen als Folge der Klimaerwärmung nicht weit. Schockierend. Dazu muss man allerdings wissen, dass Daniel Pauly auch als Autor des 5. Klimazustandsberichts (AR5) des IPCC tätig war. Kann ausgeschlossen werden, dass Pauly seine Computermodelle etwas nachgeschärft hatte, um möglichst dramatische Ergebnisse zu erzielen, die er dann direkt in den IPCC-Bericht einarbeiten konnte? Eine neutrale Überprüfung wäre hier auf jeden Fall angezeigt.

Genau dies hat zum Glück eine Forschergruppe der Universität Oslo getan. Sjannie Lefevre und Göran Nilsson nahmen Paulys Computermodellierungen unter die Lupe und entdeckten gleich mehrere schwere fehlerhafte Annahmen im Gleichungsgewirr. Sowohl bei geometrischen Zusammenhängen zur Oberfläche von Fischen als auch bei der Sauerstoffaufnahme erlaubten sich Pauly und Kollegen schwere Schnitzer. Das Fazit der Norweger: Die Modelle sind falsch, die medial weit verbreiteten Schlussfolgerungen unbelegt. Den beiden Norwegern gebührt Dank für diese wichtige Aufklärungsarbeit. Es gibt Hoffnung, dass Fehler in der Klimawandeldiskussion über kurz oder lang keinen Bestand haben können. Hier die Pressemitteilung der Universiät Oslo vom 17. Februar 2017:

Some widely publicised papers suggesting that fishes and fish catches will be smaller in the future are based on false assumptions

Some models show that fish will have a smaller size in the future due to climate changes. Three researchers are now pointing out that these models are built on false assumptions.

Two physiologists, Sjannie Lefevre and Göran E. Nilsson, from the Department of Biosciences, the University of Oslo, have together with a colleague, David J. McKenzie at the University of Montpellier, published a paper in Global Change Biology this week showing that some highly cited and publicised modelling studies are based on erroneous physiological principles and facts. These models are suggesting that fishes will become smaller in the warmer climate expected in the future. The authors behind these modelling studies may be prominent fisheries biologists and modellers, but unfortunately some fundamental assumptions made in the models are simply incorrect, says Sjannie Lefevre. For once, they got the geometrical principles guiding the surface area of fish gills completely wrong, and they also make the unfounded assumption that the capacity of fish to take up oxygen from the water limits their ability to grow. It is troublesome that these inaccurate assumptions have been allowed to go unnoticed by fish physiologists, but they are partly hidden in the formulas used and in some obscure statements made in these papers. Lefevre, McKenzie and Nilsson say that they do not deny the possibility that fishes may become smaller in the warmer future, although there is currently not much firm evidence for this, but any such predictions must be based on verified mechanisms and experimental evidence.

Publikation: Lefevre, S., McKenzie, D. J. and Nilsson, G. E. (2017), Models projecting the fate of fish populations under climate change need to be based on valid physiological mechanisms. Glob Change Biol. Accepted Author Manuscript. doi:10.1111/gcb.13652, http://onlinelibrary.wiley.com/doi/10.1111/gcb.13652/full

Bisher griff keine einzige deutschsprachige Zeitung die norwegische Kritik auf. Während die Medien über das spektakuläre Fischschrumpfen damals eifrig berichteten, blieben sie nun stumm. Schweigen im Walde.