News und Termine

Mehr Respekt vor dem Insekt!

Pressemitteilung der Deutschen Wildtierstiftung vom 20. April 2018:

—-

Artenschutz als Produktionsziel

Das Insektensterben ist in der Politik angekommen! “Schmetterlinge, Wildbienen & Co. – Ursachen für ihren Rückgang und Perspektiven für ihren Schutz” lautete das Thema des Parlamentarischen Abends, der gestern gemeinsam mit der Deutschen Wildtier Stiftung in der Landesvertretung Mecklenburg-Vorpommern in Berlin stattfand.

In seinem Vortrag betonte Prof. Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung, die Schlüsselrolle der Agrarpolitik. “Wir müssen endlich weg von Subventionen per Gießkanne. Der Artenschutz muss Produktionsziel werden, das den Landwirten über die Agrarpolitik vergütet wird”, lautete eine seiner Forderungen. Und weiter: “Das Wort Biogas ist eine schlimme Vertuschung: An Biogas ist wirklich nichts bio!” Für den Vorstandsvorsitzenden der Deutschen Wildtier Stiftung müssen jetzt agrarpolitisch die Weichen für die Förderperiode ab 2021 gestellt werden.

Lesen hier die Rede von Prof. Dr. Fritz Vahrenholt, Alleinvorstand Deutsche Wildtier Stiftung:

“Das Insektensterben ist in der Politik angekommen. Zumindest in der Koalitionsvereinbarung. Dort heißt es u.a.: “Wir werden das Insektensterben umfassend bekämpfen. Mit einem “Aktionsprogramm Insektenschutz” wollen wir die Lebensbedingungen für Insekten verbessern.” Und an anderer Stelle schon fast emotional: “Dabei liegt uns der Schutz der Bienen besonders am Herzen. Wir legen diese Strategien bis Mitte der Legislaturperiode vor.”

Dass ein Rückgang von Insekten weitreichende Folgen für ihre Funktion im gesamten Ökosystem hat, liegt auf der Hand. Insekten bestäuben Pflanzen und sind eine wichtige Nahrungsquelle für Vögel und Säugetiere. Noch wissen wir wenig über Art und Ausmaß des Rückgangs, es gibt wenig belastbare Zeitreihen. Die Deutsche Wildtier Stiftung hat eine Studie bei Prof. Reichholf in Auftrag gegeben über den Rückgang der Schmetterlinge. Denn die Situation der Schmetterlinge ist über längere Zeitreihen als bedrohlich belegt. Über 50% der Tagfalterarten stehen heute auf der Roten Liste. Reichholf konnte den Rückgang der Arten als auch der Gesamtzahl der Schmetterlinge am Beispiel einer bayerischen Untersuchungsregion seit den 80er Jahren des letzten Jahrhunderts dokumentieren. Besonders auffällig: Während im Wald und im urbanen Raum die Veränderungen gering sind, ist die Abnahme der Falter in der Feldflur dramatisch.

Bei der Ursachenfindung kam die Studie zu differenzierten Analysen, anders als bei politischen Wunschvorstellungen, wie etwa Insektizide seien vor allem Schuld oder aber der Klimawandel. Aber: der Aufwand an Insektiziden ist seit 20 Jahren nicht gestiegen und eine Erwärmung sollte den wärmeliebenden Schmetterlingen eher helfen.

Unstrittig ist, dass der Landwirtschaft eine Schlüsselrolle zukommt. Fast 50% des Ackerlandes werden heute mit zwei Kulturen bestellt: Winterweizen und Mais, im Jahr 2000 lag dieser Wert noch bei 36%. Eine dominante Rolle auf dem Acker nimmt der Mais ein. Sein Anteil stieg dramatisch mit dem Biogas-Boom. Über 1 Million ha Mais wandert heute in Biogasanlagen. Das Wort Bio-Gas ist eine schlimme Vertuschung. Nichts ist bio an Biogas. Diese Förderung muss beendet werden. Die Deckelung des Einsatz von Mais bei neueren Anlagen reicht nicht. Leider setzt die Koalitionsvereinbarung widersprüchliche Signale: “Den Bestand von Bioenergieanlagen wollen wir im Zuge der Ausschreibungen weiterentwickeln. Die Reststoffverwertung werden wir verstärken und den Einsatz von Blühpflanzen erhöhen”. Die Deutsche Wildtier Stiftung konnte in praktischen Großversuchen zeigen, dass mehrjährige Wildpflanzen sich als Biogassubstrat gut eignen. Schmetterlings- und Wildbienenfreundliche Blühflächen statt Mais. Nur mit Null Mais für Biogas sind solche Anlagen zu verantworten.

Der Hebel, um die Landwirtschaft insektenfreundlicher zu machen, ist die EU-Agrarpolitik. 5% ökologische Vorrangflächen sind heute im Ackerbau Pflicht. 5% Brachen oder Blühflächen wären prima – doch durch gezielte Lobbyarbeit des Bauernverbandes wurden auch Zwischenfrüchte und Leguminosen als ökologische Vorrangflächen zugelassen. Logisch, dass Landwirte auf diese Variante aufgesprungen sind. So ist die Idee der ökologischen Vorrangflächen ins Leere gelaufen. Nur noch rund 200 000 ha, das sind knapp 1,5% der Fläche, sind wirklich ökologische Flächen. Da muss man sich nicht wundern, wenn es Schmetterling und Co. schlechter geht.

Aber auch der Verlust von Grünland schlägt zu Buche. 600 000 ha Grünland sind seit 1990 verlorengegangen. Und durch intensive Nutzung hat eine Verarmung der Gräservielfalt eingesetzt. Verlorengegangen sind die für den Naturschutz so wichtigen Magerrasen und Feuchtwiesen. Deutschland erstickt im Stickstoff, nicht der aus den Auspuffgasen – der geht deutlich zurück. Überdüngung führt immer noch zu einem Stickstoffüberschuss von rd. 90 kg/ ha. 62% trägt der Pflanzenbau, 33% die Tierproduktion und 5% Verkehr, Industrie und Haushalte bei. Schnell wachsendes, intensiv gedüngtes Grünland führt zu einem feuchten und kühlen Mikroklima. Schmetterlinge und Wildbienen bevorzugen aber trockene warme Bedingungen.

Die Agrarpolitik muss endlich weg von Subventionen per Gießkanne. Der Artenschutz muss Produktionsziel werden, das den Landwirten über die Agrarpolitik vergütet wird. Prämien für gesellschaftlich nachgefragte Leistungen statt Subventionen für eine aus Umweltsicht fragwürdige Landwirtschaft. Agrarpolitisch müssen jetzt die Weichen gestellt werden für die Förderperiode ab 2021.

Diese politischen Anstrengungen müssen flankiert werden von Forschung und technischem Fortschritt. Wenn Pestizideinsatz, dann müssen die Wirkstoffe zukünftig selektiver wirken; wenn Stickstoffdüngung, dann muss sie zukünftig gezielt auf Bodentyp und Pflanzenbedarf abgestimmt werden. Und wir brauchen mehr Wissen, über die komplexen Zusammenhänge zwischen Landwirtschaft und Insektenwelt.

Zum Schluss noch ein Wort zum Ökologischen Landbau, den auch wir auf unserem Gut Klepelshagen in Mecklenburg-Vorpommern betreiben. Natürlich hilft der Ökologische Landbau den Insekten: Geringere Düngung, keine Pestizide, weite Fruchtfolgen, der hohe Kleegrasanteil, die Pflicht zur Weidehaltung – all dies erhöht die Qualität ökologisch bewirtschafteter Flächen für Insekten. Doch noch immer hat der ökologische Landbau nur rund 6,5% der landwirtschaftlich genutzten Fläche – das reicht nicht aus, den Artenschwund zu stoppen. 20% würde vielen gefährdeten Arten helfen.

In Klepelshagen bewirtschaften wir rund 1.300 ha Agrarfläche nicht nur nach ökologischen Kriterien, sondern darüber hinaus auch besonders wildtierfreundlich, was sich u.a. in einem späten Mahdtermin auf dem Grünland niederschlägt. 2016 haben wir die Wildbienenfauna in Klepelshagen erfassen lassen. Der Gutachter, Herr Dr. Schmidt-Egger ist hier heute auch unter uns. 109 Wildbienenarten konnte er nachweisen, davon 21 Rote Liste Arten. Für den, wegen seiner naturräumlichen und klimatischen Bedingungen eher artenärmeren Nordosten, ein für uns besonders erfreulicher Befund, der deutlich über Ergebnissen von konventionell bewirtschafteten Betrieben liegt. Sie sehen: die Wildbienen sind uns besonders an Herz gewachsen – nicht nur im ländlichen Raum, sondern auch in den Städten. In Hamburg und nun mit Unterstützung der Senatsverwaltung für Umwelt auch hier in Berlin gestalten und schaffen wir Wildbienenlebensräume. Die Betonung liegt dabei auf WILDbienen, denn sie sind gefährdet, nicht die Honigbiene! Sie ist ein Nutztier des Menschen und kann sogar zur Konkurrenz für ihre wilden Verwandten werden.

Wir brauchen mehr wildtierfreundliche Landwirtschaft, wir brauchen mehr Vielfalt in unseren Landschaften durch Hecken, Raine, Tümpel und Feldgehölze, wir müssen Sonderbiotope wie Heiden, Magerrasen und Feuchtwiesen bewahren und wir brauchen mehr Naturerbeflächen und damit mehr Wildnis in Deutschland – all dies brauchen wir, um der faszinierenden und so bedeutsamen Welt der Insekten eine Zukunft zu geben.

Dass Sie, sehr verehrte Frau Bundesministerin Schulze zu diesem Abend gekommen sind, zeigt uns, dass wir eine Verbündete haben, eine, die den Naturschutz, die wildlebenden Tiere und Pflanzen, bis hin zu Schmetterlingen und Wildbienen, Libellen und Laufkäfern wieder zum Markenkern der Umweltpolitik in Deutschland werden lässt.

————–

Artikel am selben Tag Demo-Online.de:

Till Backhaus: „Mehr Respekt vor dem Insekt!“
Der Minister für Landwirtschaft und Umwelt in Mecklenburg-Vorpommern, Till Backhaus, hat acht Forderungen vorgestellt, um das massive Insektensterben aufzuhalten und umzukehren. Er forderte, ein umfangreiches Monitoring zu etablieren, und Anreize für Landwirte zu schaffen, wobei ökologische Leistungen honoriert werden sollen.

Weiterlesen auf Demo-Online.de

 

Gefahr durch Schwermetalle: Studie warnt vor Umweltrisiken durch Solarmodule

Die Welt am 13. Mai 2018:

Gefahr durch Schwermetalle: Studie warnt vor Umweltrisiken durch Solarmodule
Anders als angenommen, sind die in Solarmodulen enthaltenen Schadstoffe doch wasserlöslich. Das zeigt eine Studie im Auftrag des Wirtschaftsministeriums. Bei der Lösung des Problems ist die EU am Zug.

Weiterlesen in der Welt.

—————–

Michael Krüger am 5. April 2018 im ScienceSkepticalBlog:

Die Solarwende in Deutschland steht vor dem Aus?!
Der Anteil der Photovaltaik an der Bruttostromerzeugung in Deutschland steigt seit 2015 nicht mehr, sondern fällt auf unter 6%. Der Zubau der Photovoltaik hat 2012 seinen Höchststand erreicht mit 7.500 MW neu installierter Anlagenleistung. 2016 ist dieser abgesunken auf 600 MW. Ein Einbruch auf unter 1/12. Die Neuinvestitionen in PV sinken mit der EEG-Förderung. 2010 wurden noch 19,5 Mrd. € in den Neubau von PV-Anlagen investiert. 2016 waren es nur noch 1,58 Mrd. €. Ein Einbruch auf unter 1/12.

Weiterlesen sowie Graphiken hier.

—————–

Die Welt am 14. Mai 2018:

Wirtschaftsweisen-Chef: Der große Konstruktionsfehler der Energiewende
Der Ausstoß von Treibhausgasen muss drastisch sinken. Doch die bisherige Subventionierung des Öko-Stroms ist unermesslich teuer und ineffizient. Es gibt einen Ausweg, schreibt der Chef der Wirtschaftsweisen in einem Gastbeitrag.

Weiterlesen in der Welt.

—————–

Irland installiert nicht genug Erneuerbare Energien und muss jetzt wohl Strafe zahlen. Der irische Independent meldete am 20. Mai 2018:

Ireland faces annual EU energy fines of €600m
Ireland faces fines of €600m a year from the EU for failing to meet renewable energy targets and cutting carbon emissions by 2020. New, more ambitious targets for 2030 do not let Ireland off the hook for the 2020 measures, it has emerged. A report for the Dáil Public Accounts Committee, which calculated the potential fines within two years, said they will be a matter for the European Court of Justice to impose.

Weiterlesen im Independent

 

US-Forscher schlagen Alarm: Klimamodelle versagen kläglich bei der Simulation der Kleinen Eiszeit

Im letzten Jahr (2017) erschien das US-amerikanische Gegenstück zum IPCC-Bericht, das Fourth National Climate Assessment, kurz NCA4. Dieser Bericht fokussiert auf die USA, behandelt aber am Rande auch das Weltklima als Kontextinformation. Zunächst hatte man befürchtet, dass Präsident Trump das Erscheinen des Berichts verhindern könnte. Die Befürchtungen waren letztendlich unbegründet, so dass der Bericht Ende 2017 veröffentlicht werden konnte. Die Arbeit ist im Internet frei einsehbar und die Kapitel als pdf herunterladbar.

Die wenigsten Politiker, Aktivisten und Bürger werden sich die Mühe gemacht haben, und den Bericht gelesen haben, selbst auszugsweise. Wir möchten Sie ermutigen, es trotzdem zu tun. Denn dabei stößt man auf die eine oder andere wichtige Information der Wissenschaftler. Gehen wir z.B. in Kapitel 3. Im Abschnitt  3.2 “Detection and Attribution of Global Temperature Changes” geht es um die Kleine Eiszeit, eine natürliche Kältephase im 15.-19. Jahrhundert. Damals kühlten die Temperaturen so stark ab wie kaum zuvor in den letzten 10.000 Jahren. All dies geschah in vorindustrieller Zeit, als anthropogene Treibhausgase noch keine Rolle spielten. Was hat die Kälte der Kleinen Eiszeit verursacht? Wir lesen im NCA4:

Schurer et al. use detection and attribution fingerprinting methods along with paleoclimate reconstructions and millennial-scale climate model simulations from eight models to explore causes for temperature variations from 850 AD to the present, including the Medieval Climate Anomaly (MCA, around 900 to 1200 AD) and the Little Ice Age (LIA, around 1450 to 1800 AD). They conclude that solar variability and volcanic eruptions were the main causal factors for changes in Northern Hemisphere temperatures from 1400 to 1900, but that greenhouse gas changes of uncertain origin apparently contributed to the cool conditions during 1600–1800. Their study provides further support for previous IPCC report conclusions (e.g., IPCC 2007 ) that internal variability alone was extremely unlikely to have been the cause of the recent observed 50- and 100-year warming trends. Andres and Peltier also inferred from millennial-scale climate model simulations that volcanoes, solar variability, greenhouse gases, and orbital variations all contributed significantly to the transition from the MCA to the LIA.

Man räut ein, dass die schwache Sonne eine Hauptrolle spielt. Dazu gesellt man noch die Vulkanausbrüche, deren Ausbruchsmuster aber gar nicht zum detaillierten Temperaturverlauf passt. Dann schreiben die NCA4-Autoren etwas ganz Sonderbares: Eine Mitursache der Kleinen Eiszeit seien Änderungen bei den Treibhausgasen unbekannter Herkunft. Offenbar bekommen die Modelle das volle Ausmaß der Abkühlung der Kleinen Eiszeit nicht hin, so dass man einfach noch die Treibhausgase in den Simulationen reduzieren muss, um die Kälte zu reproduzieren. Ein ungeheuerlicher Trick, denn aus den Eiskernen wissen wir, dass die CO2-Konzentration in vorindustrieller Zeit während der letzten 10.00 Jahre kaum schwankte. Wenn man die Klimawirkung der Sonne in seiner Bedeutung hochschrauben würde, wäre das Problem vermutlich gelöst. Aber das möchte man nicht, denn dann würde die Sonne auch im 20. Jahrhundert eine viel wichtigere Rolle beim Klimageschehen einnehmen.

Der NCA4-Bericht räumt also unumwunden ein, dass die Modelle die Kleine Eiszeit nur mit unbekannten Zauberfaktoren simulieren können. Das Versagen der Modelle während der letzten Jahrhunderte müsste eigentlich ernste Konsequenzen haben: Sie dürften für Zukunftsmodellierungen gar nicht verwendet werden, da die Rückwärtkalibrierung nicht gelingt. Fahren ohne Führerschein. Wo ist die Klimapolizei?

 

Meerestiere folgen seit Jahrmillionen ihrem bevorzugten Klima

Pressemitteilung der Friedrich-Alexander-Universität Erlangen-Nürnberg vom 8. Mai 2018:

———-

Meerestiere folgen seit Jahrmillionen ihrem bevorzugten Klima

Die gegenwärtige globale Erwärmung hat weitreichende ökologische Auswirkungen, auch auf die Weltmeere. Die Wanderung vieler Meeresorganismen in Richtung der Pole ist eine klare Antwort darauf. Wissenschaftler des Geozentrums Nordbayern der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben nun herausgefunden, dass die Tiere schon seit Jahrmillionen auf Wanderschaft gehen, wenn die Temperatur auf der Erde steigt oder sinkt.

Meerestiere folgen veränderten Temperaturzonen zu Polen oder Äquator

Die meisten Lebewesen auf der Erde haben sich in ökologischen Nischen eingerichtet und bevorzugen daher – neben anderen Faktoren – auch eine bestimmte Temperatur ihres Lebensraums. Meerestiere brauchen für ihren Stoffwechsel entweder wärmeres Wasser, wie tropische Arten, oder kälteres Wasser, wie Tiere, die von einem höheren Sauerstoffgehalt abhängig sind. Sie wandern deshalb in Richtung der Pole oder des Äquators, sobald sich die Temperatur ändert – und das schon seit Millionen von Jahren. „Die Geschwindkeit des Klimawandels war scheinbar noch nie so hoch wie heute, aber auch in der Vergangenheit gab es rapide Klimaveränderungen, auf die Organismen mit Migration reagieren mussten um nicht auszusterben – Anpassung war eher die Ausnahme“, betont Prof. Wolfgang Kießling, Inhaber des Lehrstuhls für Paläoumwelt.

Seine gemeinsamen Forschungen mit Dr. Carl Reddin, ebenfalls am Geozentrum Nordbayern, haben anhand von Fossilien gezeigt, dass zum Beispiel Korallen, Muscheln und Schwämme schon seit einer halben Milliarde Jahre ihrer bevorzugten Wärme- oder Kältelinie folgen. Denn sobald die globale Temperatur steigt oder sinkt, verschieben sich die Isotherme, also die geografische Linien für beispielsweise 20°C, Richtung Pole oder Äquator. In der heutigen Zeit sind die Isotherme wegen der Erderwärmung seit Jahren polwärts in Bewegung.

Tropische Tiere zeigen die Tendenz zur klimabedingten Migration am deutlichsten. Das mag daran liegen, dass viele von ihnen nahe am thermischen Maximum für komplexe Tiere von 35-45°C leben. Aktuelle Erwärmungstendenzen treiben tropische Tiere vermutlich polwärts, vorausgesetzt, es gibt für sie einen passenden Lebensraum, zu dem sie wandern können.

Wandel in der Verbreitung der Arten führt auf die Spur des Klimawandels

Doch wie kamen die Paläobiologen den vorzeitlichen Wanderungsbewegungen auf die Spur? Sie bestimmten zunächst die geografischen Koordinaten des Gebiets, wo die Fossilien damals lebend vorkamen: Mit einem Modell ermittelten sie die Bewegung der tektonischen Platten zurück in die Zeit, in der die Tiere lebten, und kombinierten die Ergebnisse mit den aktuellen Koordinaten des jeweiligen Fundorts der fossilen Proben. Nun konnten sie die Entwicklung der fossilen Artenzusammensetzung im Laufe von langen Zeiträumen nachvollziehen. Dabei griffen die Wissenschaftler auf eine weltweit vernetzte Datenbank mit allen jemals gefundenen Fossilien zurück, die sie selber mit aufgebaut haben.

Die Ergebnisse haben auch eine Bedeutung für die Gegenwart: So erwarten Wolfgang Kießling und Carl Reddin, dass die derzeitigen Verschiebungen vor allem tropische Arten betreffen, wo letztlich ein deutlicher Rückgang von Arten zu erwarten ist. Die bisherigen Beobachtungen sind weitgehend auf mittlere Breiten begrenzt, wo Migrationen bereits allgegenwärtig sind.

Das Paper ist online verfügbar: https://onlinelibrary.wiley.com/doi/full/10.1111/geb.12732

 

Unrühmliche Dieselstudie des Umweltbundesamtes bringt es zur “Unstatistik des Monats”

Deutsche Welle am 24. April 2018:

Klimawandel: Steht die Wasserkraft vor dem Aus?
Wasser ist die größte Quelle für erneuerbare Energie. Starke Dürreperioden sorgen aber immer wieder dafür, dass einigen Wasserkraftwerken das Wasser ausgeht. Welche Rolle spielt dabei der Klimawandel?

Weiterlesen bei der Deutschen Welle

Verdrängt wird offenbar, dass auch das Hydroklima zyklischen natürlichen Schwankungen unterliegt. Nicht jede beobachtete Änderung kann langfristig in die Zukunft extrapoliert werden.

——————-

Die mittlerweile berühmt-berüchtigte Dieselstudie des Umweltbundesamtes hat es am 28. März 2018 zur “Unstatistik des Monats März” gebracht, die vom RWI – Leibniz-Institut für Wirtschaftsforschung herausgegeben wird. Autoren: Der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas K. Bauer:

Diesel, Stickstoff und 6000 Tote
Die Unstatistik März 2018 sind die 6000 angeblichen Stickstofftoten im Jahr 2014 in Deutschland. Eine Studie, die im Auftrag des Umweltbundesamtes erstellt wurde, will herausgefunden haben, dass 5996 Bundesbürger an Herz-Kreislauf-Krankheiten vorzeitig verstorben seien, die sie sich durch NO2-Belastung zugezogen hätten. Die methodischen und konzeptionellen Mängel dieser Studie wurden schon an anderer Stelle kritisiert, unter anderem bei „Spiegel online“ und welt.de, sowie kabarettistisch aufgespießt bei „Nuhr im Ersten“ in der ARD (ab Sendeminute 24:40). Die Zahl 6000 ist das Produkt einer reinen Modellrechnung; es gibt zwar die Vermutung, aber keinen Nachweis, dass NOx zum Tod durch Herz-Kreislauf-Erkrankungen führt. Kaum ein Arzt hat bisher die NOx-Belastung als Todesursache angegeben.

Weiterlesen beim RWI

Hierzu auch ein Interview mit Walter Krämer in der WAZ vom 13. März 2018:

„Es ist Panikmache, von Tausenden Abgas-Toten zu sprechen“
Auch in Essen drohen Diesel-Verbote. Statistik-Professor Walter Krämer über unseriöse Studien, willkürliche Grenzwerte und ideologische Kämpfe.

Der Dortmunder Statistik-Professor Walter Krämer ist seit vielen Jahren ein Streiter gegen die unsachgemäße, ideologisch geprägte Verwendung von Statistiken, wobei er neben Politik, Medien und Lobbygruppen auch interessegeleitete Wissenschaftler angreift. Besonders erbost ihn die derzeitige Debatte über fiktive Tote aufgrund von Diesel-Abgasen, die auch in Essen dazu führt, dass Fahrverbote bald möglich erscheinen.

Weiterlesen in der WAZ

———————

Die Klimarevolution frisst ihre Kinder. Nach Jahren des Alarmschlagens sind einige Klimakämpfer nun nahe am Zusammenbruch. Trauriges Beispiel Eric Holthaus. Er wollte ursprünglich gar keine Kinder, weil er damit dachte, das Klima am besten zu schützen. Dann bekam er doch welche. Dann trennte er sich offenbar von seiner Frau, was natürlich auch nicht gerade gut für das Klima ist, wenn man plötzlich wieder einen doppelten Haushalt führen muss. Jetzt wurde bekannt, dass er nachts wegen schlechter Klimagedanken nicht mehr schlafen könne und ärztliche Hilfe benötigt. Wie konnte es soweit kommen? Vielleicht sollte sich der beklagenswerte Mann einmal gründlich mit der vorindustriellen Klimageschichte beschäftigen. Danach ist er vielleicht geheilt. Jetzt wird sich der eine oder andere fragen, woher wir das alles wissen. Plaudern wir Geheimnisse aus? Nein, kann man heutzutage alles auf Twitter und Co. lesen. Einige können einfach nicht ihre Finger vom Handy lassen. WUWT hat die Tweets aufgefangen, hier und hier.

 

Lake Superior: Quelle oder Puffer von CO2?

Die Welt am 8. Mai 2018:

Es wäre ehrlicher, sich von den Klimazielen völlig zu verabschieden
Energiewende und Klimaschutz gehören nicht zu den Prioritäten der Regierung. Erreichbar sind ihre 2030er-Klimaziele nur, wenn wir sofort gezwungen werden, jeden Kessel, Ofen, Motor stillzulegen. Völlig illusorisch. Es bleibt eine einzige Hoffnung.

Weterlesen in der Welt.

———————

Deutscher Arbeitgeberverband am 24. April 2018:

Klimawissenschaftliche Abstimmung mit den Füßen
In Europa herrscht ein breiter Konsens darüber, dass Kohlekraftwerke so bald wie möglich abgeschaltet werden sollten. Hintergrund ist die Furcht vor sich änderndem Wetter infolge eines Anstiegs an Kohlendioxid in der Atmosphäre. In Asien wird diese Furcht ganz offensichtlich nicht geteilt. 2.000 Kohlekraftwerke sollen in den nächsten Jahren gebaut werden.

Die South China Morning Post berichtete in einem Artikel am 1. April, dass in den nächsten zwanzig Jahren mehr als 1.600 Kohlekraftwerke moderner Bauart in 60 Ländern durch chinesische Firmen gebaut werden sollen. Auch Japan möchte an dem wachsenden Markt für asiatische Kohlekraftwerke teilhaben und nach dem Bericht weitere 400 Kohlekraftwerke bauen und exportieren. In den USA glauben nach einer aktuellen Umfrage 69 Prozent der Republikaner (aber nur 4 Prozent der Demokraten), dass die Furcht vor Klimaveränderungen durch einen Anstieg an Kohlendioxid in der Atmosphäre übertrieben sei, wie eine aktuelle Umfrage des Gallup-Instituts ermittelte.

Weiterlesen beim Deutschen Arbeitgeberverband

———————

Die Welt am 23. April 2018:

Die deutsche Energiewende verliert ihren Risikopuffer
Die Erneuerbaren Energien können sich nicht mehr auf die Absicherung durch konventionelle Kraftwerke verlassen, warnt die Strombranche. Um eine Unterdeckung abzuwenden, müsse die Politik sofort handeln. Ansonsten sei die Netzstabilität nachhaltig gefährdet.

Weiterlesen in der Welt

———————

Großbritannien hat die Anzahl seiner Spezialisten für den Klimawandel im Auswärtigen Amt in den letzten Jahren um ein Viertel reduziert.Offenbar gibt es wichtigere Themen, die es anzugehen gilt.

———————

Der CO2-Kreislauf der Erde wird oft mit bunten Pfeildiagrammen illustriert. Dort stehen dann Werte von CO2-Mengen wie sie von einem System ins andere wechseln. Was die Wenigsten wissen ist, dass das Grundverständnis dieser Prozesse ziemlich mager ist. Die Utah State University veröffentlichte jetzt eine Pressemitteilung (via Science Daily) in der eingeräumt wird, dass man wohl lange nicht einmal das Vorzeichen in gewissen Fällen korrekt verstanden hatte:

Blinded by the light: Climate change, the sun, and Lake Superior

Blinded by the light: How climate change, El Niño, and the sun led us to believe that Lake Superior was a source of CO2 to the atmosphere

Lakes tend to emit carbon dioxide (CO2) to the atmosphere, making them important players in the planet’s natural regulation of its climate. However, the direction of the flow of CO2 between lakes and the atmosphere can be influenced by humans or by natural factors such as rainfall or air temperature. Lake Superior is the largest freshwater lake on the planet, and a number of detailed studies occurring in the late 1990s and early 2000s found that, like most lakes, it was a net source of CO2 to the atmosphere. However, earlier publications described Lake Superior as a sink of atmospheric CO2. Dr. Soren Brothers of the Ecology Center and Watershed Sciences Department at USU analyzed monitoring data of dissolved oxygen concentrations in the lake from the past 50 years. His analysis indicated that in most years the lake absorbs atmospheric CO2 from late May to early October, but then expels CO2 during the winter.

This reanalysis of CO2 fluxes resulted in the publication of Light may have triggered a period of net heterotrophy in Lake Superior in Limnology and Oceanography by Soren Brothers and his co-author Dr. Paul Sibley from the University of Guelph. Their synthesis indicated that a powerful climatic event such as the 1997/98 El Niño, coupled with the effects of climate change, could make Lake Superior a temporary summertime source of CO2 to the atmosphere. Their research demonstrates how the shifting dynamics of CO2 in lakes both contributes to and is affected by climate change. The El Niño of 1997/98 was associated with a strong decline in Lake Superior’s winter ice cover, while climate change had gradually warmed its waters and reduced its cloud cover. A concurrent increase in water clarity resulted in greater light penetration, liberating a portion of the lake’s dissolved organic carbon pool for release into the atmosphere as CO2. Since the early-to-mid 2000s, the lake appears to have returned to a net sink of atmospheric CO2.

As the water characteristics of Lake Superior are in many ways similar to that of some parts of the world’s oceans, Brothers and Sibley suggest that their findings may be relevant to the large global pool of dissolved organic carbon in marine waters. Major implications for potential marine-atmospheric feedbacks exist with future climatic warming.

Paper: Soren Brothers, Paul Sibley. Light may have triggered a period of net heterotrophy in Lake Superior. Limnology and Oceanography, 2018; DOI: 10.1002/lno.10808

 

Bäume verbrauchen zuviel Wasser: Umhauen!

Spiegel Online am 18. April 2018:

Kritik des Bundesrechnungshofs Regierung weiß nicht, was Energiewende kostet
Das Wirtschaftsministerium koordiniert Dutzende Gesetze zur Energiewende. Doch es hat laut Bundesrechnungshof keinen Überblick über deren Kosten. Dabei wird genau das seit mehr als einem Jahr angemahnt.

Weiterlesen auf Spiegel Online

————————–

Die Welt am 17. April 2018:

Altmaier akzeptiert den wahren Zustand der Energiewende
Erstmals hat der neue Bundeswirtschaftsminister zur Energiepolitik gesprochen. Dabei hätte er relativ einfach Applaus einsammeln können. Doch Altmaier verzichtete auf das Erzählen eines alten deutschen Klima-Märchens.

Weiterlesen auf welt.de

————————–

Das Barcelona Institute for Global Health warnte am 25. April 2018 vor Krebsgefahr bei Verwendung von energiesparenden weißen LEDs (via EurekAlert!) :

Study links night exposure to blue light with breast and prostate cancer

Researchers used images taken by astronauts to evaluate outdoor lighting in Madrid and Barcelona

A study performed by an international team led by the Barcelona Institute for Global Health (ISGlobal), a centre supported by the “la Caixa” Foundation, reports a link between exposure to blue light at night and higher risk of developing breast and prostate cancer. Blue light is a range of the visible light spectrum emitted by most white LEDs and many tablet and phone screens. The results have been published in Environmental Health Perspectives.

“WHO’s International Agency for Research on Cancer (IARC) has classified night shift work as probably carcinogenic to humans. There is evidence pointing to an association between exposure to artificial light at night, disruption of the circadian rhythm, and breast and prostate cancers. With this study we sought to determine whether night exposure to light in cities can affect the development of these two types of cancer”, explains Manolis Kogevinas, ISGlobal researcher and coordinator of the study. “We know that depending on its intensity and wave length, artificial light, particularly in the blue spectrum, can decrease melatonin production and secretion”, says Martin Aubé, physics professor at CÉGEP in Sherbrooke, Canada and study co-author.

The study was conducted within the framework of the MCC-Spain project cofunded by the ‘Consorcio de Investigación Biomédica en Red de Epidemiología y Salud Pública’ (CIBERESP), and includes medical and epidemiological data of more than 4,000 people between 20 and 85 years of age in 11 Spanish regions. Indoor exposure to artificial light was determined through personal questionnaires, while outdoor levels of artificial light were evaluated for Madrid and Barcelona, based on nocturnal images taken by astronauts aboard the International Space Station. Results obtained for both cities show that participants exposed to higher levels of blue light had a 1.5 and 2-fold higher risk of developing breast and prostate cancer, respectively, as compared to the less-exposed population.

Ariadna García, ISGlobal researcher and first author of the study, says: “Given the ubiquity of artificial light at night, determining whether it increases or not the risk of cancer is a public health issue”. At this point, further studies should include more individual data using for instance light sensors that allow measuring indoor light levels. It would also be important to do this kind of research in young people that extensively use blue light emitting screens”.

“Currently, the images taken by the astronauts on the Space Station are our only way of determining the colour of outdoor lighting at a large scale, and the spread of blue light-emitting white LEDs in our cities”, comments Alejandro Sánchez de Miguel, scientist at the Astrophysics Institute in Andalucía-CSIC and Exeter University.

Reference: Garcia-Saenz A., Sánchez de Miguel A., Espinosa A., Valentín A., Aragonés N., Llorca J., Amiano P., Martín Sánchez V., Guevara M., Capelo R., Tardón A., Peiró-Pérez R., Jiménez-Moleón JJ., Roca-Barceló A., Pérez-Gómez B., Dierssen-Sotos T., Fernández-Villa T., Moreno-Iribas C., Moreno V., García-Pérez J., Castaño-Vinyals G., Pollán M., Aubé M., Kogevinas M. Evaluating the association between artificial light-at-night exposure and breast and prostate cancer risk in Spain (MCC-Spain study). April 2018. DOI:10.1289/EHP1837. Environmental Health Perspectives

————————–

Kurios: Weil Bäume Wasser brauchen, sollen sie jetzt in einigen Gegenden der Welt umgehauen werden, um die Wasserressourcen zu schonen. Pressemitteilung der US-amerikanischen National Science Foundation (NSF) vom 23. April 2018:

Billions of gallons of water saved by thinning forests

Too many trees in Sierra Nevada forests stress water supplies, scientists say

There are too many trees in Sierra Nevada forests, say scientists affiliated with the National Science Foundation (NSF) Southern Sierra Critical Zone Observatory (CZO). That may come as a surprise to those who see dense, verdant forests as signs of a healthy environment. After all, green is good, right? Not necessarily. When it comes to the number of trees in California forests, bigger isn’t always better. That’s in part because trees use lots of water to carry out basic biological tasks. In addition, they act as forest steam stacks, raking up water stored in the ground and expelling it as vapor into the atmosphere, where it’s accessible to humans and forest ecosystems only when it falls back to Earth as rain and snow.

That process — by which plants emit water through tiny pores in their leaves — is known as evapotranspiration. And according to researchers, excessive evapotranspiration may harm a fragile California water system, especially during prolonged, warm droughts. New research published this week in the journal Ecohydrology shows that water loss from evapotranspiration has decreased significantly over the past three decades. That’s due in large part to wildfire-driven forest thinning — a finding with important implications for forest and water management. A century of forest management had kept wildfires to a minimum. But without fire, Sierra forests grew very dense. In recent decades, new policies have allowed nature to take its course, with wildfires helping to thin out overgrown forests.

“Forest wildfires are often considered disasters,” said Richard Yuretich, director of NSF’s CZO program, which funded the research. “But fire is part of healthy forest ecosystems. By thinning out trees, fires can reduce water stress in forests and ease water shortages during droughts. And by reducing the water used by plants, more rainfall flows into rivers and accumulates in groundwater.” Using data from CZO measurement towers and U.S. Geological Survey satellites, researchers found that over the period 1990 to 2008, fire-thinned forests saved 3.7 billion gallons of water annually in California’s Kings River Basin and a whopping 17 billion gallons of water annually in the American River Basin — water that would otherwise have been lost through evapotranspiration.

Forest thinning has increased in recent decades in an effort to stave off disastrous wildfires fueled by dense forests. This study shows that restoring forests through mechanical thinning or wildfire can also save California billions of gallons of water each year. “The need for forest restoration is being driven largely by the need to lower the risk of high-intensity wildfires and restore forest health,” said University of California Merced scientist Roger Bales, director of the Southern Sierra CZO and study co-author. “Downstream users who benefit from the increased water yield are an important potential revenue stream that can help offset some of the costs of restoration.”

Forested areas needing restoration are large, Bales said, but potential changes in water availability are significant. The total effect of wildfires over a 20-year period suggests that forest thinning could increase water flow from Sierra Nevada watersheds by as much as 10 percent. The U.S. Forest Service says that 6 to 8 of the 21-million acres it manages in California need immediate restoration. Another 58 million acres nationally also require restoration. For California alone, restoration costs are estimated at $5 to $10 billion. But, according to the study authors, the restoration might help pay for itself. “We’ve known for some time that managed forest fires are the only way to restore the majority of overstocked western forests and reduce the risk of catastrophic fires,” said James Roche, a National Park Service hydrologist and lead author of the new study. “We can now add the potential benefit of increased water yield from these watersheds.”

 

2 Jahre globale Abkühlung

Die Website Real Clear Markets behauptete, dass wir soeben Zeuge eine massiven Abkühlung wurden, die sich in den letzten 2 Jahren abgespielt hat:

Did You Know the Greatest Two-Year Global Cooling Event Just Took Place?
Would it surprise you to learn the greatest global two-year cooling event of the last century just occurred? From February 2016 to February 2018 (the latest month available) global average temperatures dropped 0.56°C. You have to go back to 1982-84 for the next biggest two-year drop, 0.47°C—also during the global warming era. All the data in this essay come from GISTEMP Team, 2018: GISS Surface Temperature Analysis (GISTEMP). NASA Goddard Institute for Space Studies (dataset accessed 2018-04-11 at https://data.giss.nasa.gov/gistemp/). This is the standard source used in most journalistic reporting of global average temperatures.

Weiterlesen bei Real Clear Markets

Stimmt das? Haben wor da was verpasst? In der deutschen Zeitung konnte man das jedenfalls nicht lesen. Wir schauen bei Woodfortrees nach:

Abb. 1: Globale Temperaturentwicklung seit 2010 laut GISS-Daten.

 

Potzblitz: Der Artikel hat Recht. Das globale hat sich in den letzten 2 Jahren doch glatt um ein halbes Grad abgekühlt.

————–

Gute Nachrichten aus Amerika. Die Environmental Protection Agency (EPA) wird in Zukunft nur noch Daten verwenden, die öffentlich zur Verfügung gestellt werden. Das bedeutet das Aus für Privatdatensätze, deren Validität unüberprüfbar war. Ein guter Schritt hin zu mehr Transparenz und Reproduzierbarkeit.

————–

Sanne Derks präsentiert am 25. April 2018 auf der Deutschen Welle eine rührende Klimaalarmstory aus Bolivien:

Der Sonne so nah: Starke Frauen in Bolivien begegnen dem Klimawandel
Im Hochland Boliviens sind Frauen für die Landwirtschaft verantwortlich. Ein großes Problem hier ist der Klimawandel, durch den nachhaltiger Anbau schwerer wird. Trotzdem schaffen die Frauen hohe Erträge. [...] Die Frauen in Tiraque bekommen den Klimawandel sehr deutlich mit. Die Durchschnittstemperaturen steigen, sagen sie. Die Regenzeit ist kürzer geworden und dauert nun nur noch zwei anstatt vier Monate. Deshalb kommt es zu Dürreperioden. Das Wetter sei insgesamt weniger gut vorhersehbar, außerdem gebe es nun sogar Hagelstürme und Überschwemmungen. Warum das so ist, erklären sie sich auf ganz unterschiedliche Weise. Eine sagt etwa, dass Pachamama, also Mutter Erde, müde geworden sei, andere glauben, dass die Sonne durch das Ozonloch so stark brenne, dass der Regen verdampfe, bevor er auf die Erde fallen kann. Wieder andere sehen in Autos, Asphalt und Fabriken außerhalb Boliviens die Gründe.

Ganzen Artikel bei der Deutschen Welle lesen.

War das Klima früher stets stabil und heute ist alles anders? Lesetipp für Sanne Derks und alle anderen Interessierten: Kellerhals et al. 2010:

Ammonium concentration in ice cores: A new proxy for regional temperature reconstruction?
We present a reconstruction of tropical South American temperature anomalies over the last ∼1600 years. The reconstruction is based on a highly resolved and carefully dated ammonium record from an ice core that was drilled in 1999 on Nevado Illimani in the eastern Bolivian Andes. Concerning the relevant processes governing the observed correlation between ammonium concentrations and temperature anomalies, we discuss anthropogenic emissions, biomass burning, and precipitation changes but clearly favor a temperature‐dependent source strength of the vegetation in the Amazon Basin. That given, the reconstruction reveals that Medieval Warm Period– and Little Ice Age–type episodes are distinguishable in tropical South America, a region for which until now only very limited temperature proxy data have been available. For the time period from about 1050 to 1300 AD, our reconstruction shows relatively warm conditions that are followed by cooler conditions from the 15th to the 18th century, when temperatures dropped by up to 0.6°C below the 1961–1990 average. The last decades of the past millennium are characterized again by warm temperatures that seem to be unprecedented in the context of the last ∼1600 years.

Ein Jahr später kam dann diese Studie von Neukom et al. 2011 zu den Anden:

Multiproxy summer and winter surface air temperature field reconstructions for southern South America covering the past centuries
We statistically reconstruct austral summer (winter) surface air temperature fields back to ad 900 (1706) using 22 (20) annually resolved predictors from natural and human archives from southern South America (SSA). This represents the first regional-scale climate field reconstruction for parts of the Southern Hemisphere at this high temporal resolution. We apply three different reconstruction techniques: multivariate principal component regression, composite plus scaling, and regularized expectation maximization. There is generally good agreement between the results of the three methods on interannual and decadal timescales. The field reconstructions allow us to describe differences and similarities in the temperature evolution of different sub-regions of SSA. The reconstructed SSA mean summer temperatures between 900 and 1350 are mostly above the 1901–1995 climatology. After 1350, we reconstruct a sharp transition to colder conditions, which last until approximately 1700. The summers in the eighteenth century are relatively warm with a subsequent cold relapse peaking around 1850. In the twentieth century, summer temperatures reach conditions similar to earlier warm periods. The winter temperatures in the eighteenth and nineteenth centuries were mostly below the twentieth century average. The uncertainties of our reconstructions are generally largest in the eastern lowlands of SSA, where the coverage with proxy data is poorest. Verifications with independent summer temperature proxies and instrumental measurements suggest that the interannual and multi-decadal variations of SSA temperatures are well captured by our reconstructions. This new dataset can be used for data/model comparison and data assimilation as well as for detection and attribution studies at sub-continental scales.

 

University College London: Klimawandel ist nicht Ursache von Konflikten und Migration in Ostafrika

Pressemitteilung des University College London (UCL) vom 24. April 2018:

————

Climate change not the key driver of human conflict and displacement in East Africa

Over the last 50 years climate change has not been the key driver of the human displacement or conflict in East Africa, rather it is politics and poverty, according to new research by UCL.

Human displacement refers to the total number of forcibly displaced people, and includes internally displaced people – the largest group represented – and refugees, those forced to across international borders. “Terms such as climate migrants and climate wars have increasingly been used to describe displacement and conflict, however these terms imply that climate change is the main cause. Our research suggests that socio-political factors are the primary cause while climate change is a threat multiplier,” said Professor Mark Maslin (UCL Geography).

The study, published in Palgrave Communications, found that climate variations such as regional drought and global temperature played little part in the causation of conflict and displacement of people in East Africa over the last 50 years. The major driving forces on conflict were rapid population growth, reduced or negative economic growth and instability of political regimes. While the total number of displaced people is linked to rapid population growth and low or stagnating economic growth. However the study found that variations in refugee numbers, people forced to cross international borders, are significantly linked to the incidence of severe regional droughts as well as political instability, rapid population growth and low economic growth.

The UN Refugee Agency report there were over 20 million displaced people in Africa in 2016 – a third of the world’s total. There has been considerable debate as to whether climate change will exacerbate this situation in the future by increasing conflict and triggering displacement of people. This new study suggests that stable effective governance, sustained economic growth and reduced population growth are essential if conflict and forced displacement of people are to be reduced in Africa, which will be severally affected by climate change. A new composite conflict and displacement database was used to identify major episodes of political violence and number of displaced people at country level, for the last 50 years. These were compared to past global temperatures, the Palmer Drought Index, and data for the 10 East African countries represented in the study on population size, population growth, GDP per capita, rate of change of GDP per capita, life expectancy and political stability.

The data were then analysed together using optimisation regression modelling to identify whether climate change between 1963 and 2014 impacted the risk of conflict and displacement of people in East Africa. The findings suggest that about 80% of conflict throughout the period can be explained by population growth that occurred 10 years ago, political stability that occurred three years ago and economic growth within the same year. For total displacement of people, the modelling suggests that 70% can be predicted by population growth and economic growth from 10 years before.

While for refugees, 90% can be explained by severe droughts that occurred one year ago, population growth that occurred 10 years ago, economic growth one year ago, and political stability two years ago. This correlates with an increase in refugees in the 1980s during a period of major droughts across East Africa. “The question remains as to whether drought would have exacerbated the refugee situation in East Africa had there been slower expansion of population, positive economic growth and more stable political regimes in the region,” said Erin Owain, first author of the study. “Our research suggests that the fundamental cause of conflict and displacement of large numbers of people is the failure of political systems to support and protect their people”, concluded Professor Maslin. The research was funded by the Natural Environmental Research Council and the Royal Society.

———-

Siehe auch Bericht zum Paper auf The Conversation.

 

 

GISS-Institut mit anderthalb Millionen US$ an ungenehmigten Ausgaben ertappt

Das GISS-Institut der NASA veöffentlicht eine vielzitierte Temperaturmessreihe. Dabei wurde und wird das Institut von bekennenden Aktivisten geleitet. Viele Fachleute bezweifeln mittlerweile die Stabilität der Daten, da sie ständig verändert werden. Alte Temperaturen werden meist abgesenkt, während neue Messwerte angehoben werden, was zu einer vermeintlichen Beschleunigung der Erwärmung führt. Im Büro nachgeschärfter Klimawandel. Nun fanden Inspektoren zu allem Überfluss noch heraus, dass das GISS-Institut in den letzten Jahren knapp anderthalb Millionen US-Dollar nichtgenehmigter Gelder ausgegeben hat. Daily Caller am 6. April 2018:

AUDIT: Mismanagement At NASA’s Global Warming Arm Resulted In $1.6 Million In ‘Unallowable’ Costs
NASA’s global warming research arm inappropriately spent $1.63 million in the last six years due to poor oversight, according to an Office of Inspector General audit. The IG report identified “multiple instances of unallowable use of NASA-appropriated funds by [Goddard Institute for Space Studies (GISS)] employees, grant recipients, and contractors for salary expenses, sub-contracting, and computer equipment.” Auditors found “$1.47 million in unallowable costs identified in NASA’s GISS-related cooperative agreements” with Columbia University, and $147,138 in unallowable costs billed by IT contractor Trinnovim LLC “for unallowable salaries and immigration fees.” Columbia University, for example, spent “$1,219,491.41 on contract services, financial aid, and salaries for graduate students and short-term employees – all items not included in the cooperative agreement,” including diverting more than $633,000 from research funds to graduate tuition.

Weiterlesen auf Daily Caller. Siehe auch Bericht auf WUWT.

—————————–

Die Klimageschichte als Schlüssel zur Lösung der heutigen Klimadebatte. Das Fachblatt Eos stellte am 30. März 2018 einige ausgefallene Klimarekonstruktionsmethoden vor:

Five Weird Archives That Scientists Use to Study Past Climates
When tree rings, ice cores, and cave formations can’t cut it, try your luck with whale earwax or bat poop.

It’s no secret that Earth scientists are obsessed with the past—what did our planet look like, how did its mountains and valleys evolve, where did it rain or dry up? For that last question, scientists can turn to proxies that reflect whether the climate was hot, cold, dry, or wet. Ratios of heavy and light isotopes, especially those of carbon, nitrogen, and oxygen, often serve as those proxies. Scientists measure these ratios in the layers of many different natural archives, such as ice cores, cave formations, tree rings, corals, and even ocean and lake sediments.

Weiterlesen auf Eos

—————————–

Javier veröffentlichte am 26. April 2018 auf WUWT einen interessanten Artikel zum 60-jährigen Ozeanzyklus.

The 60-year oscillation revisited
It is a well-known feature of climate change that since 1850 multiple climate datasets present a ~ 60-year oscillation. I recently wrote about it in the 7th chapter of my Nature Unbound series. This oscillation is present in the Atlantic Multidecadal Oscillation (AMO), Arctic Oscillation (AO), North Atlantic Oscillation (NAO), Pacific Decadal Oscillation (PDO), Length of Day (LOD), and Global (GST) and Northern Hemisphere (NHT) temperatures, with different lags (figure 1).

Weiterlesen auf WUWT

 

Hurrikane kommen heute wegen atlantischem Ozeanzyklus schneller auf Touren als noch vor 30 Jahren

Eine Forschergruppe des US Department of Energy und des Pacific Northwest National Laboratory machte kürzlich eine spannende Entdeckung: Hurrikane kommen offenbar heute schneller auf volle Touren als noch vor 30 Jahren. Früher dauerte es länger, nun ist die Maximalstärke bereits früher erreicht. Die Wissenschaftler haben auch den Schuldigen ausgemacht. Trommelwirbel. Nein, es ist nicht der Mensch mit seinem frevelhaften Tun, sondern der atlantische AMO-Ozeanzyklus, der mit einer Periode von 60 Jahren schwingt. Im Laufe seines Zyklus verändert er auch die Hurrikane. Leuchtet ein. Hier die Pressemitteilung vom 9. Mai 2018:

Powerful hurricanes strengthen faster now than 30 years ago

The storms intensify more rapidly today due largely to a natural climate phenomenon

Hurricanes that intensify rapidly — a characteristic of almost all powerful hurricanes — do so more strongly and quickly now than they did 30 years ago, according to a studypublished recently in Geophysical Research Letters, a journal of the American Geophysical Union. While many factors are at play, the chief driver is a natural phenomenon that affects the temperature of the waters in the Atlantic where hurricanes are powering up, according to scientists at the U.S. Department of Energy’s Pacific Northwest National Laboratory and the National Oceanic and Atmospheric Administration. They found that a climate cycle known as the Atlantic Multidecadal Oscillation or AMO is central to the increasing intensification of hurricanes, broadly affecting conditions like sea temperature that are known to influence hurricanes.

Stronger hurricanes in a day’s time

Last year’s lineup of powerful storms — Harvey, Irma, Jose and Maria — spurred the scientists to take a close look at the rapid intensification process. This occurs when the maximum wind speed in a hurricane goes up by at least 25 knots (28.8 miles per hour) within a 24-hour period. It’s a rite of passage for nearly all major hurricanes, including the big four of 2017. The team, comprised of Karthik Balaguru and Ruby Leung of PNNL and Greg Foltz of NOAA, analyzed 30 years’ worth of satellite hurricane data encompassing 1986 through 2015. Information came from NOAA’s National Hurricane Center and the U.S. Navy’s Joint Typhoon Warning Center. Consistent with other studies, the scientists did not find that rapid intensification is happening more often nowadays.

But the scientists also looked closely at just how much the storms are strengthening. They found a sizeable jump in the strength of fast-growing storms — the storms are getting more powerful more quickly within a 24-hour period than they were 30 years ago. The team found that the average boost in wind speed during a 24-hour intensification event is about 13 mph more than it was 30 years ago — on average about 3.8 knots (4.3 mph) for each of the three decades studied. Several factors play a role when a hurricane gains more power rapidly, including the temperature of the surface of the ocean, humidity, characteristics of the clouds, the heat content in the ocean, and the direction of the wind at the surface compared to miles above. Among the biggest factors affecting the increase in magnitude in the last 30 years, according to the team’s analysis:

–The amount of heat available in the uppermost layer of the ocean, known as the ocean heat content. The warmer the upper ocean, the more powerful a hurricane can become.
–Wind shear: The less the vertical wind shear — the difference in the direction and force of the winds at the surface compared to several miles into the air — the more powerful the hurricane can become.The influence of the Atlantic Multidecadal Oscillation

The team found that the biggest factor explaining the increasingly rapid intensification is the AMO. The result comes in part from analyses using 16 separate climate models to isolate the impact from global warming. “This was a surprise, that the AMO seems to be a bigger influence in rapid intensification than other factors, including overall warming,” said Balaguru, the first author of the paper.

The AMO governs how the temperature of the waters in the North Atlantic cycles between warmer and cooler, with each period typically lasting a decade or more. The cycling occurs for reasons scientists don’t completely understand, but it has broad effects on the environment. For example, it plays a big part in determining the heat content of the oceans, an important factor powering hurricanes. The AMO has generally been “positive” — causing warmer waters — since the late 1990s.

Balaguru noted that while rapid intensification historically has occurred more often in the western Atlantic, that’s not where the team found the increasing strength of the last 30 years. Rather, the phenomenon is strengthening more in the central and eastern Atlantic, especially to the east of the islands of the Lesser Antilles, which includes the Virgin Islands and Saint Kitts. That’s the same area where the AMO creates warmer waters and boosts ocean heat content, in the central and eastern Atlantic. That’s exactly the alley where hurricanes Irma, Jose and Maria powered up rapidly last year. It’s a proving ground of sorts where many of the most powerful hurricanes strengthen dramatically. Balaguru notes that teasing out the effects of the AMO from broader effects of global warming was beyond the scope of the current study but is a focus for scientists.

Das fand dann sogar der sonst so IPCC-lastige Deutschlandfunk (DLF) berichtenswert. Am 9. Mai 2018 konnte man in der täglichen Radio-Sendung “Forschung Aktuell” doch tatsächlich hören:

1) Hurrikane sind trotz Klimawandel nicht häufiger geworden (was den sonst üblichen Behauptungen in DLF-Sendungen zu diesem Thema völlig widerspricht).

2) Das zur Zeit schnellere Erstarken von Hurrikanen hat nichts mit dem anthropogenen Klimawandel (anthropogenic global warming, AGW) zu tun, sondern hängt von der AMO-Phase ab.

3) Die Ursachen für die AMO-Zyklen sind unbekannt und haben auch nichts mit AGW zu tun.

Schade nur , dass diese, für DLF-Verhältnisse geradezu revolutionär klimarealistischen Aussagen in einer schnellen Kurzmeldung abgewickelt wurden, statt sich mit diesen unbequemen Fakten für einmal ausführlicher zu beschäftigen… Nachzuhören ist diese kleine DLF-Revolution hier (ab Laufzeit 1:33)

 

Überflutet: Landschaftsgeschichte der Doggerbank

Von Dr. Hans-J. Dammschneider
(Inst. f. Hydrographie, Geoökologie und Klimawissenschaften / IFHGK, Schweiz)

Mit Bezug auf den Text „Als das Mittelmeer in der Jungsteinzeit menschliche Siedlungen wegspülte“ (www.kaltesonne.de vom 10. Mai 2018) sei ergänzend angemerkt, dass man parallel zu den Erkenntnissen von HERRLE u.a. (2018) auch auf die altbekannten Wasserspiegelveränderungen der Nordsee blicken kann, um ganz ähnliches wie im Mittelmeer zu sehen. Auch dort, auf der Doggerbank/in der Nordsee, hat der Meeresspiegelanstieg Siedlungsräume vertrieben und zwar während der nahezu gleichen Zeiträume, wie sie von HERRLE u.a. (2018) angegeben werden.

Meint, man sollte immer schauen, ob es nicht auch historisch parallele Ereignisse/Entwicklungen anderswo gab. Ohne hier speziell auf die Ergebnisse, die man im Nordseeraum gewonnen hat, einzugehen, sei nur auf eine zusammenfassende Darstellung verwiesen, welche die Landschaftsgeschichte der Doggerbank in kurzer Form übermittelt (siehe DAMMSCHNEIDER, 2015).

Was man ganz generell anmerken muss: Die subjektive Meeresspiegel-Wahrnehmung der neolithischen Menschheit, die im Bereich der heutigen Nordsee siedelte, war vermutlich gar nicht so viel anders als die Einschätzung mancher der derzeitigen Küstenbewohner … es handelte sich um eine Art „Sintflut“; damals ´von oben´ heraufbeschworen, heute vielleicht durch einen vermeintlich unvernünftigen Umgang mit begrenzten Resourcen (CO2) vom Menschen verursacht. Wie sagt es Prof. Dr. Jens Herrle (Senckenberg Biodiversität und Klima Forschungszentrum der Goethe-Universität Frankfurt) im Pressetext: „Unsere Ergebnisse zeigen, dass ein schwankender Meeresspiegel  bereits in der Vergangenheit einen sehr starken Einfluss auf die Menschheitsgeschichte hatte“.

Das ist so und führte damals zu Mythen, so wie es heute oftmals Ängste auslöst. Problematisch wird es, wenn es im eigentlichen Artikel heisst: „Unsere Ergebnisse werfen ein neues Licht auf den Zusammenhang zwischen dem katastrophalen Anstieg des Meeresspiegels und der Neolithisierung Südosteuropas und stellen ein historisches Beispiel dafür dar, wie die Küstenbevölkerung durch den künftigen raschen Anstieg des Meeresspiegels beeinflusst werden könnte“. Im Pressetext der Universität wird dies ergänzt durch die Aussage „Aufgrund der globalen Klimaerwärmung wird damit gerechnet, dass der Meeresspiegel innerhalb der nächsten 100 Jahre um bis zu einen Meter ansteigt. Millionen von Menschen könnten damit aus küstennahen Regionen vertrieben werden, mit all den damit verbundenen sozialen und ökonomischen Konsequenzen“.

Nun, das ist denkbar, aber eben erdgeschichtlich (wie man sieht) wiederum auch nichts Neues/keine Singularität. Natürliche Prozesse, die den Meeresspiegel schwanken lassen, gibt und gab es zu allen Zeiten … ob Neolithikum oder heute oder morgen. Allein die Annahme, dass „heute“ dafür nur noch der Mensch als Verursacher infrage komme, ist etwas, das hier wohl (wenn auch unausgesprochen) dahinter steht … aber klimawissenschaftlich nicht haltbar ist.

Man kann klar feststellen: Alles schon mal dagewesen. Nur war es zur Jungsteinzeit mit Sicherheit kein Vorgang aufgrund menschlichen Einflusses bzw. anthropogener CO2-Emissionen. Verantwortlich sind eigentlich immer nur Klimazyklen, damals mit einem Anstieg der Temperaturen (und des Meeresspiegels) am Ende der Weichselvereisung. Wenn jedoch Ähnliches heute abläuft bzw. Klimazyklen nachwievor stattfinden, ist es in der öffentlichen Wahrnehmung für viele doch ´ganz anders´ und für/durch Medien wird (zumindest indirekt) suggeriert, die Veränderungen in unserer Ist-Zeit seien primär menschengemacht. Das führt bei vielen Bürgern zu Schwarzseherei und in weiten Bereichen der politischen Meinungsbildung in Folge dessen dazu, dass man alarmistisch Forderungen in Form eines „Stoppt den Klimawandel“ aufbaut. Denn genau dieser menschengemachte Klimawandel wird weit verbreitet verantwortlich dafür gemacht, dass (immer noch!) der Meeresspiegel ansteigt.

Das Thema Meeresspiegelanstieg können und dürfen wir selbstverständlich nicht ignorieren. Man muss nur zugeben, dass im Unterschied zur Jungsteinzeit den Menschen der Ist-Zeit jetzt technische Möglichkeiten zu einer praktikablen Gefahrenabwehr zur Verfügung stehen … Deiche und Sperrwerke, speziell an der niederländischen Küste, zeigen, wie es gehen kann. Damit darf man fragen, ob es in diesem Sinne nicht (auch) eine volkswirtschaftlich sinnvolle Alternative wäre, stärker in konkrete technische Massnahmen zu investieren als eine eher abstrakte Willensanstrengung wie das sogenannte 2-Grad Ziel zu proklamieren. Denn das ist allein politisch gesehen bereits sehr viel schwieriger zu bewerkstelligen und darüber hinaus leider auch noch gänzlich unsicher in seiner effektiven Durchführ- wie Wirksamkeit. Allein das Narrativ „wir steigen aus dem CO2 aus“ schützt keineswegs vor den Wirkungen eines (natürlich) steigenden Meeresspiegels!

Nicht nur im Neolithikum, sondern auch in der Jetztzeit (und nicht nur im Mittelmeer, sondern auch im Bereich der Nordsee) waren und sind es sehr viel mehr natürliche Prozesse, die Meeresspiegelveränderungen verursachen … und, wie weltweite Vergleiche von Pegeltrends zeigen, in allen Fällen mit regional sehr unterschiedlicher Gewichtung. Besser also, man fasst diese Probleme auch mit genau jenen Massnahmen an, die den jeweiligen lokalen Bedingungen entsprechen und nicht nur pauschal mit „wir stoppen den Klimawandel“. Letzteres ist ein ideelles Ziel, aber leider für jene Menschen kein praktikables Vorgehen, die letztlich wirklich an ´ihrer´ Küste vom schwankenden Meeresspiegel (mal örtlich mehr und mal lokal weniger) betroffen sind.

DAMMSCHNEIDER (2015): “Ausser Sicht” … Ozeanographie für Seereisende: Band 1: Nordmeer (Elbe, Nordsee, Nordatlantik, Island, Grönland, Spitzbergen, Norwegen). Norderstedt 2015, ISBN 978-3-732-23772-2. Erhältlich als kindle- oder Taschenbuch-Edition bei AMAZON und im Buchhandel.

————————

Textausschnitt aus DAMMSCHNEIDER (2015):

Am Ende der Weichseleiszeit lag der Meeresspiegel des Ostatlantiks etwa 60m unter dem heutigen Normalnull. Die Westeuropäische Küste verlief immer noch nördlich der Doggerbank. Die südliche Nordsee war Festland, die Britischen Inseln und das europäische Festland bildeten eine zusammenhängende Landmasse.

Abb. 45 : Ausdehnung und Grenzen der Weichselvereisung (weisse Fläche)  (Karte nach ULAMM 2013)

 

In den folgenden Jahrtausenden stieg das Wasser, wobei dieser Anstieg im Laufe der Zeit an Geschwindigkeit abnahm. Vor etwa 9.850 bis 7.100 Jahren wurden Teile des Elbe-Urstromtals überflutet. Der südliche Teil der Nordsee zwischen der Doggerbank und dem Ärmelkanal  war teils ein Binnensee, in den die Flüsse und nordeuropäischen Gletscher entwässerten. Als in der Mittelsteinzeit um etwa 6.500 v. Chr. die Kreidefelsverbindung zwischen Dover (Weald) und Calais (Pas-de-Calais) erodierte, floss das Wasser dieses Süsswassersees durch den Ärmelkanal in den Atlantik ab. Der Meeresspiegel stieg weiter an, so dass Britannien etwa 5.000 v.Chr. zur Insel wurde. Das Wattenmeer entstand ungefähr im selben Zeitraum, und in der darauf folgenden Zeit wechselten Phasen stärkeren Meeresspiegelanstiegs (Transgression) mit Meeresspiegelsenkungen (Regression).

Abb. 46 : Küstenlinien und Doggerland im frühen Holozän (rd. 9000 Jahre vor heute) … England und ein grosser Teil der heutigen Nordsee gehören zum festländischen Kontinentaleuropa (Paläogeografische Darstellung nach C.REID)

 

Ausgelöst hat diese Veränderungen der rasche Abbau des nordamerikanischen Inlandeises, des damals ausgedehntesten Eisschilds auf der Nordhalbkugel. Weite Küstenräume wurden überflutet und es bildeten sich die heutigen Küstenlinien aus (sogenannte „Flandrische Transgression“ bzw. „Dünkirchener Transgression“). Zum anderen wurden einige Nebenbecken des Atlantiks überspült und so zu Nebenmeeren. Um 7.000 v. Chr. (womöglich auch früher) wurden die dänischen Inseln und Grossbritannien vom europäischen Festland getrennt; ein Vorgang, der durch eine Serie von verheerenden Sturmfluten verursacht wurde.

Die University of Birmingham hat im Rahmen des Forschungsprojekts Mapping Doggerland  eine relativ flache Landschaft von rund 23.000 Quadratkilometern in einem Computermodell nachgebildet. Es zeigt sich ein weitverzweigtes Netz von Flussläufen, eine Vielzahl kleiner Seen und ein zentrales Süsswasser-Binnenmeer. Die geophysikalischen Daten für das Projekt bzw. die Kartierung des Meeresbodens lieferte eine norwegische Firma für Erdöl-Geoservice. Unter den zahlreichen Flüssen, die man fand, zeichnete sich 10m unter dem Schlick der Doggerbank auch der Shotton River ab, sowie der grosse Binnensee Outer Silver Pit, der später zu einem riesigen Delta-System mehrerer Flüsse mutierte und noch heute als Tal auf dem Grund der Nordsee erkennbar ist.

Die computergestützt generierten Rekonstruktionen zeigen, dass das Leben am Ende der Eiszeit weit in die heutige Nordsee vorstiess. Archäologen vermuten, dass das Gebiet in gewissem Sinne fast ´paradiesisch´ anmutete: „Auf dem Marschland plätscherten Seen, Flüsse schlängelten sich durch dicht bewachsene Gräser- und Strauchlandschaften. Es gab genügend Nahrung für alle: Die Gewässer wimmelten von Fischen, im Schilf nisteten Vögel, Beerenbüsche säumten die Ufer. Tausende Menschen siedelten bis vor etwa 8000 Jahren dort, wo heute der Grund der Nordsee liegt.“ (A.Bojanowski, 2012).

Doggerland war eine, wie es heisst, blühende Landschaft. Hunderte Funde von Steinwerkzeugen, Harpunen und menschlichen Knochen belegen die Geschichte am Nordseegrund. Erhaltene Blütenpollen im Schlick geben Aufschluss über die damalige Vegetation (B. WENINGER u.a. 2008). Wie schon gesagt, schufen vor allem Daten aus der Erdölexploration die Grundlagen zur Rekonstruktion der damaligen Geographie und der heutigen Unterwasserverhältnisse. Die Vermessung des Meeresbodens mit geophysikalischen Methoden (u.a. Schallwellen, Bohrungen) zeigte nach und nach ein zwar nicht ganz flächendeckendes aber doch ziemlich klares Bild der ehemaligen Landoberfläche. Die Daten der Erdölgeologen wurden mit  Forschungsergebnissen der Klimageschichte und archäologischen Funden verglichen.

Es zeigt sich, dass am Ende der letzten Eiszeit die Gletscher weiter tauten und ihr Schmelzwasser den Meeresspiegel steigen liess. Die „Nordsee“, wie wir sie heute nennen und kennen, drang immer weiter vor. Erst schluckte sie die Sümpfe und Täler, letztlich waren die steinzeitlichen Siedlungen auf stehen gebliebenen Anhöhen isoliert. Aus diesem Grund gelten die heutigen Sandbänke (jetzt „Untiefen“, damals die relativ höchsten Punkte in der Landschaft) in der Nordsee bei Archäologen als Fundgruben für Hinterlassenschaften der Bewohner von Doggerland.

Der endgültige Untergang von Doggerland kam im Übrigen dann doch recht plötzlich: Vor etwa 6000 Jahren rollte ein Tsunami über die Nordsee. Vor der Küste Norwegens waren Schlamm- und Geröllmassen am Meeresgrund einen tausende Meter hohen und steilen Hang hinuntergestürzt und hatten gewaltige Wellen ausgelöst … die Storegga-Rutschung.

Fortsetzung: Siehe DAMMSCHNEIDER (2015)

 

Akuter Forschungsbedarf: Frankfurter Wolkenforscherin möchte solide Fakten für politische Entscheidungen im Bereich Klimawandel schaffen

Pressemitteilung der Goethe-Universität Frankfurt am Main vom 7. Mai 2018:

——————-

Wolken wie ein halbdurchlässiger Sonnenschirm

Klimaforscherin aus den USA kommt im Programm „Make our planet great again“ an die Goethe-Universität

Nach dem Pariser Klimaabkommen haben Deutschland und Frankreich das Programm „Make our planet great again“ vereinbart, um die Forschung zum Klimawandel zu stärken. Eine der 13 von einer Expertenjury des Deutschen Akademischen Austauschdienstes (DAAD) ausgewählten Forscherinnen und Forschern kommt in einigen Monaten aus den USA an die Goethe Universität. Die Klimaforscherin Dr. Anna Possner wechselt von der renommierten Carnegie Institution for Science in Stanford an das Institut für Atmosphäre und Umwelt an der Goethe-Universität. Dank der Förderung von einer Million Euro wird sie in Frankfurt eine eigene Forschergruppe aufbauen. Diese wird mit dem Frankfurt Institute for Advanced Studies (FIAS) kooperieren und dort auch räumlich angesiedelt sein.

Das Forschungsgebiet von Anna Possner sind Schichtwolken im untersten Kilometer der Atmosphäre, die wie halb-durchlässige Sonnenschirme wirken. Sie reflektieren einen beachtlichen Anteil der Sonneneinstrahlung, beeinflussen aber die Wärmeabstrahlung der Erde nur geringfügig. Insofern haben sie einen kühlenden Effekt auf die Erdoberfläche. Schichtwolken können sich über hunderte Kilometer erstrecken und bedecken ein Fünftel der gesamten Meeresoberfläche. Änderungen in ihrer räumlichen Ausbreitung oder ihrer Lichtdurchlässigkeit können zu signifikanten Änderungen der Temperatur an der Erdoberfläche führen.

In manchen Regionen der Erde, den mittleren Breiten und der Arktis, bestehen diese Wolken nicht nur aus Wassertropfen, sondern einer Mischung aus Wassertropfen und Eiskristallen. Das Verhältnis von Wassertropfen zu Eiskristallen beeinflusst die Strahlungseigenschaften der Wolken. „Zwar haben wir Hypothesen darüber wie dieses Verhältnis in einzelnen Wolken entsteht, aber wir wissen wenig darüber, wie die räumliche Ausdehnung und Lichtdurchlässigkeit eines gesamten Wolkenfeldes durch Eiskristalle beeinflusst wird“, erläutert Anna Possner. Dieser Fragestellung wird sie mit Hilfe von Satellitenbeobachtungen und hochaufgelösten numerischen Modellen nachgehen.

Seit ihrer Doktorarbeit an der ETH Zürich untersucht Possner, geboren in Jena, die Einwirkung von Partikeln auf die Strahlungseigenschaften von Wolken. Insbesondere fokussierte sie sich in dieser Zeit auf tiefe Wolken über dem Meer. Hier quantifizierte und evaluierte sie, welchen Einfluss Schiffsabgase auf Wolken haben können. Während ihrer Postdoc Jahre an der ETH Zürich und der Carnegie Institution for Science in Stanford, dehnte sie ihre Analysen auf Mischphasenwolken aus.

Das deutsch-französische Programm „Make Our Planet Great Again“ soll dazu beitragen, solide Fakten für politische Entscheidungen in den Bereichen „Klimawandel“, „Erd-System-Forschung“ und „Energiewende“ zu schaffen.  Von den 13 für Deutschland ausgewählten Wissenschaftlern kommen sieben aus den USA, zwei waren zuletzt in Großbritannien tätig und jeweils einer in der Schweiz, Kanada, Südkorea und Australien. Sie wurden in einem zweistufigen Verfahren aus rund 300 Bewerbungen ausgewählt.

——————-

Siehe auch englischsprachiger Blogartikel auf notrickszone.

 

Als das Mittelmeer in der Jungsteinzeit menschliche Siedlungen wegspülte

Pressemitteilung der Goethe-Universität Frankfurt am Main vom 21. März 2018:

—————–

Als das Mittelmeer menschliche Siedlungen wegspülte

Ein rasanter Meeresspiegelanstieg in der Jungsteinzeit verschleppte den Übergang zum Ackerbau in Südosteuropa

Vor rund 7.600 Jahren wurden das Entstehen bäuerlicher Siedlungen in Südosteuropa und damit der zivilisatorische Fortschritt plötzlich deutlich verzögert. Verantwortlich ist wahrscheinlich ein sprunghafter Meeresspiegelanstieg in der nördlichen Ägäis. Seine Spuren konnten Forscher des Senckenberg Biodiversität und Klima Forschungszentrums, der Goethe-Universität und der University of Toronto jetzt in Kalkalgen nachweisen. Bereits achthundert Jahre zuvor war in der Region ein rasanter Meeresspiegelanstieg aufgetreten. Das Ereignis gibt einen Ausblick auf die ökonomischen und sozialen Konsequenzen eines künftigen klimawandelbedingten Meeresspiegelanstiegs, berichten die Forscher in „Scientific Reports“.

Ausgehend vom Vorderen Orient vollzog sich in der Jungsteinzeit einer der bedeutendsten zivilisatorischen Umbrüche der Menschheitsgeschichte: der Übergang von einer Kultur der Jäger und Sammler hin zum Ackerbau und sesshafter Lebensweise. Im Zuge dieser Neolithischen Revolution begann sich die bäuerliche Lebensweise auch nach Südosteuropa auszubreiten. Wie Ausgrabungen zeigen, entstanden jedoch vor 7.600 Jahren plötzlich deutlich weniger Siedlungen. Frankfurter Forscher haben jetzt eine der mutmaßlichen Ursachen gefunden.

Prof. Dr. Jens Herrle, Senckenberg Biodiversität und Klima Forschungszentrum und Goethe-Universität: „Der Meeresspiegel muss in den an Südosteuropa angrenzenden Gebieten vor circa 7.600 Jahren sprunghaft angestiegen sein. In der nördlichen Ägais, dem Marmara-Meer und dem Schwarzen Meer stieg er um mehr als einen Meter. Ufergebiete und etwaige Siedlungsräume wurden damit überschwemmt.“

Die in der Studie dokumentierte große Überflutung an den Randgebieten des nordöstlichen Mittelmeeres vor 7.600 Jahren ist bereits der zweite Einbruch in der Neolithischen Revolution. Schon achthundert Jahre zuvor, vor circa 8.400 Jahren, war  sie durch einen Meeresspiegelanstieg und die darauffolgenden klimatischen Umbrüche gedrosselt worden. Durch den erneuten Anstieg wurde der Übergang zum Ackerbau wahrscheinlich noch weiter verzögert.

„Unsere Ergebnisse zeigen, dass ein schwankender Meeresspiegel  bereits in der Vergangenheit einen sehr starken Einfluss auf die Menschheitsgeschichte hatte“, sagt Herrle. „Aufgrund der globalen Klimaerwärmung wird damit gerechnet, dass der Meeresspiegel innerhalb der nächsten 100 Jahre um bis zu einen Meter ansteigt. Millionen von Menschen könnten damit aus küstennahen Regionen vertrieben werden, mit all den damit verbundenen sozialen und ökonomischen Konsequenzen.“

Grundlage der Studie ist ein Bohrkern aus dem Meeresboden der Nordägäis, anhand dessen ein Team um Herrle den Salzgehalt in diesem Teil des Mittelmeeres im Zeitraum vor 11.000 bis vor 5.000 Jahren rekonstruierte. Im Meeresboden konserviert sind die Kalkalgen Emiliania huxleyi. Die Betrachtung dieser winzigen Kalkalgen unter dem Rasterelektronenmikroskop erlaubt Rückschlüsse darauf, wie salzig das Oberflächenwasser der Ägäis zu ihrer Lebenszeit war.

„Ein schnelles Absinken des Salzgehalts, wie ihn die Kalkalgen vor 8.400 Jahren und erneut vor 7.600 Jahren belegen, kann nur dadurch erklärt werden, dass mehr salzarmes Oberflächenwasser als zuvor aus dem Schwarzen Meer in die nördliche Ägäis geflossen ist. Voraussetzung dafür wäre ein rapider globaler Meeresspiegelanstieg, der einen Anstieg des Oberflächenwasserabflusses in diese Richtung zur Folge gehabt hätte. Grund dafür könnte der Agassizsee in Nordamerika sein. Dieser prähistorische Schmelzwassersee war durch Eis eingeschlossen, bis ein Dammbruch gewaltige Wassermengen ins Meer abfließen und den Meeresspiegel weltweit steigen ließ“, erklärt Herrle abschließend.

Publikation: Herrle, J.O. et al (2018): Black Sea outflow reponse to Holocene meltwater events. Scientific Reports, doi: 10.1038/s41598-018-22453-z

 

Interesse an Ökostrom deutlich gesunken

Tagesspiegel am 9. April 2018:

Regenwald-Rodungen im Amazonas: Kinder siegen vor Gericht gegen den kolumbianischen Staat
25 Kinder und Jugendliche haben die Regierung Kolumbiens verklagt, da der Staat nichts gegen den Klimawandel unternehme. Das Gericht gab ihnen Recht und forderte einen Stopp der Rodungen im Amazonas

Was verursacht den Flächenfraß?

Das Amazonasbecken ist Schauplatz unzähliger Umweltsünden. Die Agrarflächen fressen sich jedes Jahr ein Stückchen weiter in den Wald hinein, Platz für Plantagen und Viehzucht wird ohne Rücksicht geschaffen.

Plantagen für…Palmöl! Regenwald.org stellt klar:

Palmöl aus „ökologischer Landwirtschaft” steht auf den Bioprodukten von Allos, Alnatura und Rapunzel. Der Lieferant, die Daabon-Gruppe in Kolumbien, befindet sich aufgrund der großen Nachfrage auf Expansionskurs. Die industrielle Biopalmöl-Monokulturen sind weder ökologisch noch sozial verträglich

Während der deutsche Konsument genüßlich vermeintlich “ökologisches” Palmöl konsumiert, fackeln die Erzeuger im Amazonas munter weiter der Urwald ab. Verrückter “Klimaschutz”.

—————-

Verivox am 12. März 2018:

Interesse an Ökostrom deutlich gesunken
Nur noch rund 36 Prozent der Verbraucher, die im letzten Jahr über das Vergleichsportal Verivox ihren Stromanbieter gewechselt haben, entschieden sich für einen Ökostrom-Tarif. Das sind 40 Prozentpunkte weniger als 2012 – dem Jahr nach der Katastrophe von Fukushima. Das Interesse an Ökostrom ist zudem regional höchst unterschiedlich verteilt. In den Stadtstaaten Berlin und Hamburg entscheiden sich Verbraucher sehr häufig für grünen Strom, in Niedersachsen, Saarland und Rheinland-Pfalz hingegen eher selten.

Weiterlesen bei Verivox

—————-

In der Preußischen Allgemeinen Zeitung wagte es Dirk Pelster am 20. April 2018 Kritik am Deutsche Klimapapst Hajo Schellnhuber zu üben:

Seine Augen sind nie ganz geöffnet, und wenn er schweigt, dann formt sich sein Mund stets zu einem spöttelnden Lächeln. Doch Schweigen ist eindeutig nicht das Metier von Hans Joachim Schellnhuber. Der wohl bedeutendste deutsche Klimaforscher und Freund großer Worte hält eigentlich nur inne, wenn es gilt, sich selbst bei einem seiner zahlreichen Termine mit Pressefotografen gekonnt in möglichst intellektuell wirkender Pose zu inszenieren. Vermutlich hatte diese so aufdringlich zur Schau getragene Attitüde des avantgardistischen Querdenkers nicht unwesentlichen Anteil daran, dass die Zeitschrift „Cicero“ Schellnhuber noch vor einigen Jahren unter die 500 einflussreichsten Geistesgrößen im deutschsprachigen Raum einordnete. Jedenfalls hat sich die jahrzehntelang in eigener Sache betriebene Imagepflege für den 1950 im niederbayerischen Ortenburg geborenen Wissenschaftler bezahlt gemacht. Sie katapultierte ihn von einer Stelle als wissenschaftlicher Mitarbeiter für theoretische Physik an der Universität Oldenburg über verschiedenste Stationen ab den 80er Jahren bis in den Olymp der internationalen Klimafolgenforschung.

Weiterlesen auf EIKE.

 

Überhöhte Temperaturen: Bahnveränderungen von Satelliten verfälschen Messwerte

Bionahrung ist gesund. Aber profitiert auch die Umwelt davon? Eine Studie von Eva-Marie Meemken und Matin Qaim im Annual Review of Resource Economics lässt Zweifel aufkommen. Der geringere Ertrag gefährdet die Umwelt durch Flächenfrass und die höheren Kosten führen zu Hunger bei den ärmeren Schichten:

Organic Agriculture, Food Security, and the Environment
Organic agriculture is often perceived as more sustainable than conventional farming. We review the literature on this topic from a global perspective. In terms of environmental and climate change effects, organic farming is less polluting than conventional farming when measured per unit of land but not when measured per unit of output. Organic farming, which currently accounts for only 1% of global agricultural land, is lower yielding on average. Due to higher knowledge requirements, observed yield gaps might further increase if a larger number of farmers would switch to organic practices. Widespread upscaling of organic agriculture would cause additional loss of natural habitats and also entail output price increases, making food less affordable for poor consumers in developing countries. Organic farming is not the paradigm for sustainable agriculture and food security, but smart combinations of organic and conventional methods could contribute toward sustainable productivity increases in global agriculture.

——————

Früher war man bei der Temperaturmessung auf Bodenmessstationen angewiesen, die aber nur lückenhaft die Erde abdeckten. Heute kreisen Satelliten um die Erde, die auf indirektem Wege die Temperatur der unteren Atmosphäre messen. Das ist nicht immer unproblematisch, insbesondere wenn sich im Laufe der Zeit die Bahn der Satelliten verändert. Christy et al. 2018 haben nun errechnet, dass durch Bahn- und Sensorveränderungen die Messergebnisse der Satelliten verfälscht werden, wobei zusätzliche Wärme vorgegaukelt wird, die in der Realität gar nicht existiert. Hier der Abstract der Studie, die am 8. März 2018 im International Journal of Remote Sensing erschien:

Examination of space-based bulk atmospheric temperatures used in climate research
The Intergovernmental Panel on Climate Change Assessment Report 5 (IPCC AR5, 2013) discussed bulk atmospheric temperatures as indicators of climate variability and change. We examine four satellite datasets producing bulk tropospheric temperatures, based on microwave sounding units (MSUs), all updated since IPCC AR5. All datasets produce high correlations of anomalies versus independent observations from radiosondes (balloons), but differ somewhat in the metric of most interest, the linear trend beginning in 1979. The trend is an indicator of the response of the climate system to rising greenhouse gas concentrations and other forcings, and so is critical to understanding the climate. The satellite results indicate a range of near-global (+0.07 to +0.13°C decade−1) and tropical (+0.08 to +0.17°C decade−1) trends (1979–2016), and suggestions are presented to account for these differences. We show evidence that MSUs on National Oceanic and Atmospheric Administration’s satellites (NOAA-12 and −14, 1990–2001+) contain spurious warming, especially noticeable in three of the four satellite datasets. Comparisons with radiosonde datasets independently adjusted for inhomogeneities and Reanalyses suggest the actual tropical (20°S-20°N) trend is +0.10 ± 0.03°C decade−1. This tropical result is over a factor of two less than the trend projected from the average of the IPCC climate model simulations for this same period (+0.27°C decade−1).

Die dazugehörige Pressemitteilung zur Studie finden Sie hier.

 

Wie Aktivisten und IPCC ihr Wissen über den natürlichen Klimawandel geheim hielten

Wer sich ein wenig in der Klimadiskussion auskennt, bekommt beim lesen von Artikeln der folgenden Sorte Bauchgrummeln (hier: Spiegel, 16. April 2018):

Vertrauliche Shell-Studie: Wie ein Ölkonzern sein Wissen über den Klimawandel geheim hielt
Geheimdokumente zeigen: Shell wusste schon vor 30 Jahren im Detail über den Treibhauseffekt Bescheid – und entschied zu schweigen.

Nicht dass einem Shell besonders leid tun müsste, aber man kann schon ahnen, was hier passiert ist. Eine Abteilung hat Publikationen studiert und für das Management zusammengefasst. Darin steht dann natürlich, dass das aus der fossilen Brennstoffnutzung stammende CO2 erwärmend wirkt. What’s new? Wer den Shell-Bericht von 1988 selber lesen möchte, kann dies auf climatefiles.com tun. Climatefiles fasst den Inhalt der Studie wie folgt zusammen:

–A thorough review of climate science literature, including acknowledgement of fossil fuels’ dominant role in driving greenhouse gas emissions. More importantly, Shell quantifies its own products’ contribution to global CO2 emissions.

–A detailed analysis of potential climate impacts, including rising sea levels, ocean acidification, and human migration.

–A discussion of the potential impacts to the fossil fuel sector itself, including legislation, changing public sentiment, and infrastructure vulnerabilities. Shell concludes that active engagement from the energy sector is desirable.

–A cautious response to uncertainty in scientific models, pressing for sincere consideration of solutions even in the face of existing debates.

–A warning to take policy action early, even before major changes are observed to the climate

Das Ganze erschien noch vor dem ersten IPCC-Bericht, also noch bevor der IPCC erste Resultate überhaupt vorlegte. Die Datenbasis von Shell war entsprechend mau, die Schlussfolgerungen kaum belastbar. Die Klimageschichte der letzten 2000 Jahre war nahezu unbekannt. Da wirkt es schon kurios, der Firma Shell vorzuwerfen, sie hätte damals schon alles gewusst, also noch besser als die Klimawissenschaftler damals. Seitdem wurde viel geforscht. Die wichtige Rolle der Ozeanzyklen bei der natürlichen Klimavariabilität wurde erst im 21. Jahrhundert verstanden. Die Mittelalterliche Wärmeperiode ist heute als globales Phänomen bekannt, was die Klimamodelle alt aussehen lässt. Die CO2-Klimasensitivität sackt Jahr für Jahr weiter ab. Der IPCC muss in den kommenden Monaten und Jahren so einige Veränderungen im Klimaverständnis einräumen müssen.

In Wahrheit hatten Shell, Exxon & Co. damals genausowenig Ahnung wie alle. Die Vorwürfe von Aktivistenseite zeigen, wie schwach dort die klimawissenschaftlichen Kenntnisse ausgebildet sind. Über den Stand der Dinge herrscht dort offenbar eine gefährliche Ahnungslosigkeit. Bei all diesen Klimaklagen geht es auch gar nicht so sehr darum, am Ende zu gewinnen. Früher veranstaltete man Demos und besetzte Bahnhöfe, heute hofft man auf breite mediale Aufmerksamkeit, wenn man vermeintliche Klimasünder verklagt. Dies räumen Akltivisten auf einschlägigen Seiten selber ein, hier z.B. Klimafakten am 16. April 2018:

Vor Gericht für mehr Klimaschutz sorgen – und für mehr Öffentlichkeit
Überall auf der Welt kämpfen Aktivisten mit juristischen Mitteln gegen den Klimawandel, Experten zählen bereits rund tausend Verfahren in 24 Ländern. Den Klägerinnen und Klägern geht es dabei nicht nur um Urteile, sondern auch um öffentliches Aufsehen: Die Prozesse sind ein Mittel strategischer Kommunikation

Weiterlesen auf Klimafakten

Genau umgekehrt wird ein Schuh daraus:

Wie Aktivisten und der IPCC ihr Wissen über den natürlichen Klimawandel geheim hielten

 

Wissenschaftliche Basis des Pariser Klimavertrages auf dem Prüfstand

Vor kurzem erschien im International Journal of Climate Change Strategies and Management ein Paper von Antero Ollila (Ollila 2018), in dem die wissenschaftliche Basis des Pariser Klimavertrags diskutiert wird (kostenfreies pdf hier):

Challenging the scientific basis of the Paris climate agreement

Purpose: The purpose of this paper is to analyze the scientific basis of the Paris climate agreement.

Design/methodology/approach: The analyses are based on the IPCC’s own reports, the observed temperatures versus the IPCC model-calculated temperatures and the warming effects of greenhouse gases based on the critical studies of climate sensitivity (CS).

Findings: The future emission and temperature trends are calculated according to a baseline scenario by the IPCC, which is the worst-case scenario RCP8.5. The selection of RCP8.5 can be criticized because the present CO2 growth rate 2.2 ppmy−1 should be 2.8 times greater, meaning a CO2 increase from 402 to 936 ppm. The emission target scenario of COP21 is 40 GtCO2 equivalent, and the results of this study confirm that the temperature increase stays below 2°C by 2100 per the IPCC calculations. The IPCC-calculated temperature for 2016 is 1.27°C, 49 per cent higher than the observed average of 0.85°C in 2000.

Originality/value: Two explanations have been identified for this significant difference in the IPCC’s calculations: The model is too sensitive for CO2 increase, and the positive water feedback does not exist. The CS of 0.6°C found in some critical research studies means that the temperature increase would stay below the 2°C target, even though the emissions would follow the baseline scenario. This is highly unlikely because the estimated conventional oil and gas reserves would be exhausted around the 2060s if the present consumption rate continues.

Auf WUWT erläuterte der Autor sein Paper in einem gesonderten Beitrag. Bereits einige Monate zuvor hatten Sebastian Lüning und Fritz Vahrenholt die Basisannahmen des Pariser Klimavertrages in einem eigenen Paper in Frontiers in Earth Science hinterfragt:

Paleoclimatological Context and Reference Level of the 2°C and 1.5°C Paris Agreement Long-Term Temperature Limits
The Paris Agreement adopted in December 2015 during the COP21 conference stipulates that the increase in the global average temperature is to be kept well below 2°C above “pre-industrial levels” and that efforts are pursued to limit the temperature increase to 1.5°C above “pre-industrial levels.” In order to further increase public acceptance of these limits it is important to transparently place the target levels and their baselines in a paleoclimatic context of the past 150,000 years (Last Interglacial, LIG) and in particular of the last 10,000 years (Holocene; Present Interglacial, PIG). Intense paleoclimatological research of the past decade has firmed up that pre-industrial temperatures have been highly variable which needs to be reflected in the pre-industrial climate baseline definitions. The currently used reference level 1850–1900 represents the end of the Little Ice Age (LIA). The LIA represents the coldest phase of the last 10,000 years when mean temperatures deviated strongly negatively from the Holocene average and which therefore are hard to justify as a representative pre-industrial baseline. The temperature level reached during the interval 1940–1970 may serve as a better reference level as it appears to roughly correspond to the average pre-industrial temperature of the past two millennia. Placing the climate limits in an enlarged paleoclimatic context will help to demonstrate that the chosen climate targets are valid and represent dangerous extremes of the known natural range of Holocene temperature variability.

Das pdf der Arbeit von Lüning & Vahrenholt ist kostenfrei hier herunterladbar.

 

 

Grönland spielt verrückt: Heute genauso warm wie vor 90 Jahren

WUWT fasste am 11. April 2018 den Stand des neuesten Eisbärenstreits zusammen. Mit dabei auf der Alarmseite sind Michael Mann und Stephan Lewandowsky. Ein Trauerspiel.

———————————-

Wie kann man die Emissionsziele einhalten? Indem man die Wälder abholzt und in wood pellets umformt. So wie in Großbritannien jetzt passiert. Herrlich.

———————————-

Grönland wird immer wärmer und wärmer und wärmer? Stimmt das? Hier die Temperaturentwicklung Grönlands der letzten 150 Jahre laut Mikkelsen et al. 2018 (pdf hier) (mit Dank an Kenneth Richard, notrickszone):

 

Wikipedia-Verbot an Institut der TU Dortmund: Abschlussarbeiten dürfen keine Zitate aus Online-Enzyklopädie enthalten

Artikel auf Trends der Zukunft vom 17. April 2018:

Warum erneuerbare Energien nicht einfach so das Klimaproblem lösen können
Dass unser Planet ein Klimaproblem hat, wird zumindest in der Wissenschaft kaum noch angezweifelt. Weltweit wird daher an Lösungen gearbeitet, mit denen man dem fortschreitenden Klimawandel entgegentreten will. Eine große Rolle spielen dabei erneuerbare Energien. Aber bis diese so weit sind, als ernsthafte Alternative zu fossilen Brennstoffen oder Atomenergie aufzutreten, wird sich noch einiges tun müssen.

Weiterlesen auf auf Trends der Zukunft

————————

Die Sonne schickt uns kostenlos Energie auf die Erde, die wir nur noch einfangen müssen. Das ist nur halb richtig. Denn wenn die Sonne nicht scheint, muss zuvor gespeicherte Energie verwendet werden. Die Speicherung mit Batterien ist aber eine ökologisch und auch ökonomisch schlechte Lösung. Die GWPF veröffentlichte am 16. Apil 2018 einen neuen Report, der die Problematik beleuchtet:

Consumers warned to avoid battery storage for rooftop solar systems

Rechargeable batteries are said to be a way to extend the appeal of rooftop solar installations, storing the energy generated during the day for use at night. Home energy storage looks set to become big business: Tesla has already entered the marketplace, looking to apply its expertise in batteries to generate a new source of income. Other big-name motor manufacturers are expected to follow. However, a new paper published by the Global Warming Policy Foundation (GWPF) reveals that consumers are in danger of being fleeced. The paper’s author, power engineer Dr Capell Aris, has examined the economics of battery stores and finds that in the UK their high cost means that they will never pay for themselves. As he explains:

“The price of  batteries is relatively high, but the possible savings from adding them to a rooftop solar installation are quite limited, particularly as a fraction of the typical electricity bill.  When you add up the costs and benefits, it is quite clear that they are a waste of money.”

That could change if the price of batteries were to fall dramatically, but the gap between costs and benefits is currently so wide that this is unlikely in the near term. As Aris explains:

“There is no doubt that battery prices are falling, but even if we make some fairly optimistic assumptions about performance, prices would have to fall by another 50% just to break even. They would need to come down even further than that to give a financial return. It’s hard to see this happening any time soon. Battery storage for rooftop solar is simply not an economic prospect, and will likely remain that way.”

Hier können Sie den Bericht als pdf herunterladen.

————————

Das Wiki-Watch Blog meldet_

Wikipedia-Verbot an der TU Dortmund: Interview mit Statistik-Professor Walter Krämer
Prof. Dr. Krämer ist Inhaber des Instituts für Wirtschafts- und Sozialstatistik an der TU Dortmund. Er sorgte für Aufsehen, weil er als einer der ersten Professoren einer deutschen Universität Zitate aus der deutschsprachigen Wikipedia in akademischen Abschlussarbeiten an seinem Institut verboten hat. Krämer meint, die deutsche Wikipedia werde von Ideologen dominiert. Außerdem stecke sie in vielen Artikeln zu Wirtschaftswissenschaften und Statistik voller Fehler.

Hier können Sie das Interview mit Prof. Krämer lesen.

Auf seiner Institutswebseite warnt Prof. Krämer:

Warnung vor Wikipedia
Zitate aus der deutschen Wikipedia sind ab jetzt in akademischen Abschlussarbeiten an meinem Institut nicht mehr erlaubt. Anders als die englische wird die deutsche Wikipedia von Ideologen dominiert. Außerdem steckt sie in vielen Artikeln zu Wirtschaftswissenschaften und Statistik voller Fehler. Generell ist das Niveau von Artikeln zur Statistik weit unterhalb einer Bachelorarbeit an unserer Fakultät.

Walter Krämer