News und Termine

Frag lieber nicht den Lesch

Harald Lesch ist ein bekannter Fernsehprofessor. Mit seiner ihm eigenen Art will er den Zuschauern die Wissenschaft näherbringen, darunter auch die Klimawissenschaften. In regelmäßigen Abständen erläutert Lesch in TV und Online-Videos die Zusammenhänge und ermahnt seine Gefolgschaft zu einer nachhaltigen Lebensweise, ansonsten würde die Klimakatastrophe über die Welt hereinbrechen und alles zerstören. Rette sich wer kann.

Es ist in Ordnung, dass sich Lesch für das vermeintlich Gute so sehr einsetzt. Er glaubt an seine Sache, ist davon überzeugt, dass das CO2 den Planeten zerstören wird. Was nicht in Ordnung ist, ist dass Lesch im Zuge seiner Kampagne die wissenschaftlichen Fakten verbiegt. Wir hatten bereits mehrere Beispiele an dieser Stelle aufgeführt, sind bis zum ZDF-Fernsehrat gegangen, um Fehler korrigieren zu lassen:

Angesichts dieser Vielzahl von inhaltlichen Probleme stellt sich die Frage, ob es sich überhaupt noch lohnt, auf Lesch-Beiträge einzugehen. Der Mann ist offenbar beratungsresistent, wird von seiner Redaktion sowie dem Fernsehrat geschützt. Er kann sich im Prinzip alles erlauben. Trotzdem wollen wir auch zukünftig seine Thesen nicht ungeprüft lassen, versprochen.

Zunächst einmal wollen wir ein bisschen hinter die Kulissen schauen. Weshalb setzt sich “Harry” Lesch eigentlich so sehr für den Klimaalarm ein? Einen ersten Hinweis liefert sein Engagement bei einer Internationalen Agrarkonferenz, die von den B90/DIE GRÜNEN ausgerichtet wurde:

 

In der Youtube-Beschreibung der Grünen heißt es:

Prof. Dr. Harald Lesch erklärt, wie wir unseren Planeten und sein Klima durch die Art und Weise, wie wir Landwirtschaft betreiben verändern. Dabei stehen die Gier nach abstrakten Dingen wie Geld und Reichtum einer konkreten Natur gegenüber, die sich beschreiben lässt, mit der wir aber nicht verhandeln können. 

Die Verbandelung von Lesch mit den Grünen zeigt an, dass wir es vermutlich nicht mit einem neutral urteilenden Wissenschaftler zu tun haben, sondern einem grünen Aktivisten. Neben den Querverbindungen in die Politik gibt es aber auch noch Verknüpfungen mit dem klimaalarmistisch agierenden Potsdam Institut für Klimafolgenforschung (PIK). Schauen Sie einmal in das Buch “Climate Change, Justice and Sustainability – Linking Climate and Development Policy”, herausgegeben unter anderem vom PIK-Ökonomen Ottmar Edenhofer, unter Beteiligung zwei weiterer PIK-Leute. Und in der Danksagung auf Seite viii finden wir doch tatsächlich einen alten Bekannten:

The editors are very grateful for external support from a scientific advisory board: Hartmut Graßl, Joachim von Braun, Saleemul Huq, Stephan Klasen, Harald Lesch, Dirk Messner and Wilhelm Vossenkuhl

Der Astrophysiker und Naturphilosoph Harald Lesch saß also im wissenschaftlichen Beirat dieses PIK-Buches. Zwei Seiten vorher spinnt sich das Netzwerk weiter fort:

The commissioning parties and project partners are MISEREOR – the German Catholic Bishops’ Organisation for Development Cooperation, and the Munich Re Foundation – a non-profit organization founded by the global risk carrier Munich RE.

Beim gemeinschaftlichen Klimaalarm sind sie alle dabei: Medien (Lesch), Politik (Grüne), Wissenschaft (PIK), Industrie (Munich Re) und Kirche (Misereor). Kein Wunder, dass wissenschaftliche Argumente schon lange nichts mehr zählen. Die gut vernetzte Seilschaft hat einen wirksamen Schutzwall errichtet, den selbst berechtigte Kritik nicht bezwingen kann.

Kehren wir lieber zurück zu den Inhalten. Im November 2016 tauchte auf Youtube das 13-minütige Video “Frag den Lesch – Neues aus der Klima-Küche” auf (auch in der ZDF-Mediathek verfügbar):

 

Zunächst verkauft Lesch den Albedo-Effekt der Gletscher als große Neuigkeit: Dunkles Material auf dem Eis lässt es schneller schmelzen. Alte Kamelle. Hatten wir auch schon hier im Blog. Siehe “Ruß wärmt stärker als gedacht und ließ Alpengletscher im 19. Jahrhundert tauen“. Spannender wäre gewesen, wenn Lesch das rasche Gletscherschmelzen während vorindustrieller Warmphasen einmal thematisiert hätte:

Dann wechselt Lesch das Thema und singt ein Loblied auf die Klimamodelle: Sie hätten die Temperaturen erfolgreich 30 Jahre im voraus prognostiziert. Fanfare, Glückwünsche, Staunen. Aber stimmt das eigentlich? In der unten stehenden Abbildung 1 werden die IPCC-Temperaturprognosen mit der realen Entwicklung verglichen. Überraschenderweise bewegten sich die Temperaturen am unteren Rand des Prognosebereichs. Die Modelle scheinen deutlich zu heiß zu laufen, die Natur hat sich deutlich langsamer erwärmt, als vom IPCC 1990 angenommen. Großartige geändert hat sich an den Modellen seither nichts, die CO2-Klimasensitivität liegt auch im neuesten IPCC-Bericht von 2013 immer noch im weiten Spektrum zwischen 1,5°-4,5°C Erwärmung pro CO2-Verdopplung. Offenbar liegt der wahre Wert der CO2-Klimasensitivität eher am unteren Rand dieses Bereichs. Es ist purer Hohn, wenn Lesch nun seinen Zusehern weismachen will, die Modelle hätten genau ins Schwarze getroffen. Schon fast ein Fall für die neue Fake News Stelle der Bundesregierung.

 

Abbildung 1: Globale Temperaturentwicklung (RSS, schwarze Kurve) im Vergleich zu Prognosen des 1. IPCC-Berichts von 1990 (FAR), die sich zwischen den eingezeichneten Extremfällen (grüne und rote Kurven) liegen.

 

Dann behauptet Lesch, die Wolken hätten sich genau an die Prognosen gehalten, sie wären aufgestiegen. Naja, in Wirklichkeit gibt es bei den Wolken wohl mehr ungelöste als gelöste Probleme. Man kanns ja mal versuchen, wird sich Lesch gedacht haben. Mehr dazu hier:

In wilder Fahrt geht es dann beim Meeresspiegel weiter. Lesch zitiert eine Studie, die angeblich zeigen soll, dass der Meeresspiegelanstieg in den letzten 100 Jahren alles Dagewesene der letzten 3 Jahrtausende übertroffen hat. Stimmt das? Nein. Siehe unseren Blogbeitrag: “Lange bevor der Mensch die Atmosphäre veränderte: Meeresspiegel stieg in den letzten 2000 Jahren zeitweise so schnell wie heute

Am Ende der Klimapredigt dann der Höhepunkt: Lesch erklärt mahnend, dass alle Klimawerte immer nur ansteigen “alle, alle, alle, alle”. Dabei verschweigt er, dass es in den letzten 10.000 Jahren mehrfach ähnliche “Anstiegsphasen” gegeben hat. Während des holozänen thermalen Maximums vor 8000-5000 Jahren war es global sogar wohl 1-2°C wärmer als heute. Lesch schweigt hierzu, was wissenschaftsethisch bedenklich ist. Denn das bewusste Auslassen von unbequemen Fakten ist unwissenschaftlich und lediglich Rechtsänwälten und Politikern erlaubt. Die große abschließende Frage ist, was Lesch in seiner orangen Tasse hatte, die er während der Videoclips durch das Studio trug und aus der er immer wieder mal einen großen Schluck nahm. Horchen Sie mal bei Minute 12:55 rein, da wird es richtig ulkig (-;

 

Die Sonne im Dezember 2016 und eine Vorschau

Von Frank Bosse und Fritz Vahrenholt

Unsere einzig nennenswerte Energiequelle war auch im Dezember ausgesprochen ruhig. Die vermeldete SSN (SunSpotNumber) für den letzten Monat betrug 19,5.  An 6 Tagen konnte man eine völlig fleckenfreie Sonne bewundern, für den laufenden Monat Januar sind es bis dato ( 14.1.) bereits 10. Diese auch für den fortgeschrittenen absteigenden Ast der Aktivitätskurve des Solaren Zyklus (SC) sehr maue Aktivität schlägt sich auch darin nieder, dass dies nur 35% des Üblichen für den Zyklusmonat ist.

Abb.1: Die Aktivität des laufenden Zyklus 24 (rot) im Vergleich zu einem mittleren Zyklus (blau) und dem zeitweise recht ähnlichen Zyklus 5 (schwarz), der von 1798 bis 1810 dauerte.

 

Der Vergleich der Zyklen untereinander bis zum aktuellen 97. Monat seit Beginn des SC24 im Dezember 2008 zeigt mit jedem Monat deutlicher, wie stark er unterhalb der üblichen Aktivität liegt. Er ist der drittschwächste seit Beginn der systematischen Beobachtungen im Jahre 1755.

Abb.2: Der Vergleich der Zyklen untereinander. Die Zahlen entstehen durch das Aufsummieren der monatlichen Anomalien, dies sind die Differenzen zwischen den jeweils ermittelten SSN-Zahlen und dem Mittelwert, blau in Abb.1.

 

In keinem Jahr seit Beginn des Zyklus erreichte die Aktivität ein Normalniveau:

Abb.3: Die relative Sonnenfleckenaktivität der Kalenderjahre des Zyklus 24

 

Im Mittel schaffte unsere Sonne im SC24 bisher nur eine Aktivität von 56% der durchschnittlichen Aktivität seit 1755. Für die Einschätzung dessen was uns im kommenden Zyklus 25 (etwa ab 2020) erwarten könnte ist die Entwicklung der polaren Felder der Sonne von großem Interesse.  Das letzte Mal hatten wir im November 2016 einen Blick darauf geworfen  und erklärt, was es damit auf sich hat. Die Daten sind nun aktualisiert bis Mitte Dezember und wir schauen zunächst auf den arithmetischen Mittelwert der Felder beider Pole:

Abb.4: Die Entwicklung der polaren solaren Felder seit 1977. Die Ähnlichkeit des Auf und Ab zum Sonnenfleckenzyklus (vgl.  Abb.1 in blau) ist offenkundig.

 

Es scheint so, dass sowohl bei den polaren Feldern als auch bei den Sonnenflecken ein zügiger Aufbau bis etwa 3 Jahre nach dem Nulldurchgang erfolgt, ein Maximum erreicht wird und danach ein Abbau über den Rest der Zeit von etwa  11 Jahren bis zum nächsten Nulldurchgang von statten geht. Die 36 Monate seit dem Nulldurchgang sind nun fast vergangen, im aktuellen Zyklus war dieser Nulldurchgang  (er entspricht zeitlich dem  Sonnenfleckenmaximum) im März 2013. Die Höhe des Maximums der Felder bestimmt recht gut, wie stark der nächste Sonnenfleckenzyklus sein wird. Aus Abb.4 folgt: er wird etwa so stark sein wie der gegenwärtige, vielleicht ein wenig schwächer aber nicht wesentlich unterschiedlich. Auf keinen Fall sollte er „Normalstärke“ erreichen wie der Zyklus 20 oder 23. Die gegenwärtige schwache Aktivität ist also kein „einmaliger Ausrutscher“ , auch SC25 ( etwa bis 2031 dauernd) sollte ausgeprägt inaktiv werden und damit unterscheidet sich die Periode nach  2005 wesentlich von der aktivitätsstarken der Zyklen 18…23.

Eine andere Beobachtung im Zusammenhang mit den polaren Feldern ist interessant: Die Feldstärken der beiden Pole sind zwar nicht völlig unabhängig voneinander, es können jedoch zeitweise Asymmetrien bestehen. Wir vergleichen daher die Entwicklung der letzten beiden Zyklen seit dem jeweiligen  Nulldurchgang:

Abb.5: Der Verlauf der beiden polaren Felder im Vergleich. Die geglätteten Felder des Nordpols (blau) und des Südpols (rot) sind als Beträge dargestellt, ebenso wie der Mittelwert (schwarz).

 

Um den Nulldurchgang herum (bis etwa ½ Jahr danach) sind Wechsel in der Stärke der noch gering ausgeprägten Felder durchaus normal. Im SC23 hat sich später alles um den Mittelwert herum eingeschwungen, im aktuellen Zyklus sahen wir noch keinen Wechsel in der Stärke: der Südpol hatte die gesamte Zeit über das deutlich stärkere polare Feld. Dies war noch in keiner seit 1977 beobachteten Phase des Aufbaus der polaren Felder der Fall: mindestens einen „Führungswechsel“ gab es seitdem immer. Die Felder scheinen nun viel mehr entkoppelt zu sein als bisher beobachtet. Seit 2013 ist das Feld des Südpols unserer Sonne zunächst stark angewachsen um sich über das Jahr 2016 hin abzuschwächen und sich nunmehr der deutlich schwächeren Nordpolfeldstärke anzunähern. Was bedeutet diese ungewöhnliche Entkopplung?  Ist das ein weiteres Vorzeichen für den SC25? Wir wissen es noch nicht, denn solch genaue Beobachtungen sind erst seit den 70er Jahren des letzten Jahrhunderts möglich.

Bislang konnten wir die Rückschau über die Entwicklung der polaren Felder nur bis 1976, dem Beginn des Satellitenzeitalters betrachten. Das Ergebnis einer neue Arbeit  gibt uns die Möglichkeit, 100 Jahre zurückzuschauen. Dazu ermittelte das Autorenteam um Kalevi Mursula von der Universität in Oulu in Finnland die Stärke Koronaler Löcher, um daraus Hinweise auf die polaren Felder seit 1910 zu gewinnen. Koronale Löcher  sind ebenso wie Eruptionen aus Sonnenflecken („Flares“)  Quellen von Plasmaaustritten aus der Sonne, die den  Sonnenwind verstärken, der seinerseits das Magnetfeld der Erde beeinflusst. Ein schönes Exemplar dieser Spezies fotografierte ein Raumfahrzeug  im entsprechenden Spektralbereich:

Abb.6: Ein riesiges zentrales Koronales Loch ( dunkler) auf der Sonne, Quelle: NASA

 

Polarlichter in hohen Breiten sind die Folge von entsprechend positionierten Flares und Koronalen Löchern auf der Sonne. Beide kommen im abflauenden Teil des Sonnenfleckenzyklus gehäuft vor. Es gibt schon recht lang zurückreichende Archive und es  gelang den Autoren  damit Rückschlüsse auf die Stärke der polaren koronalen Löcher zu ziehen. Das Ergebnis: sie waren am meisten ausgeprägt im abschwingenden Ast des SC 18, der SC19 mit dem Höhepunkt im Jahre 1957 war folgerichtig  danach der aktivste Zyklus der systematisch beobachteten Sonnengeschichte.

Völlig anders das  Bild im abschwingenden Teil des SC23 ab etwa 2002: hier waren die zentralen Koronalen Löcher (vgl. Abb.6) am stärksten, die polaren koronalen Löcher und damit auch die Felder gering ausgeprägt wie die direkten Messungen bestätigen (vgl. Abb.4). Die Autoren folgern: beide Ereignisse markieren im Beobachtungszeitraum seit 1910 jeweils Rekorde und stehen am Beginn und Ende des Langzeitmaximums der Sonnenaktivität (vgl. Abb.2)  in der zweiten Hälfte des 20. Jahrhunderts.  Die Sonne schaltete in den 50er Jahren hinsichtlich der polaren Felder einen Gang hoch und nach der Jahrtausendwende wieder einen zurück, dies ist durch diese Arbeit wiederum bestätigt worden.

Und die Sonne beeinflusst die Erde auch durch ihre Nicht-Aktivität: Der nachlassende Sonnenwind bringt es mit sich, dass wir mehr von galaktischen kosmischen Strahlen getroffen werden. Ist er stärker hält er diese Strahlung wirkungsvoll fern. In der Hochatmosphäre kommt es zu Reaktionen die am Ende Gamma- und Röngenstrahlung erzeugen, von der wir mehr abbekommen als bei aktiverer Sonne. Über die mögliche Wirkung der galaktischen Strahlung auf Wolken berichteten wir unlängst.Ein umfangreiches Messprogramm ist daher gestartet worden: Welche Dosis von Strahlung bekommt der Mensch wo ab wenn er in unterschiedliche Höhen vordringt und wie verändert sich dies durch geringeren  Sonnenwind? Ein erstes Resultat:

Abb. 7: Die Strahlung in der Stratosphäre im Verlaufe einer Phase nachlassender Sonnenaktivität, Quelle.

 

Der recht solide Trend von 11% Wachstum der Strahlung ist Ausdruck des schwindenden Sonnenwindes. Ein Aufsteigen in die Stratosphäre ist mit einer Strahlungsdosis von etwa dem 80 fachen der auf Meeresspiegelhöhe verbunden, ein Flug in ca. 12.000 m Höhe beaufschlagt den Organismus mit der 50- fachen Dosis. Eine solche Erhöhung würde auf der Erde diverse Notfallprogramme aktivieren, die Auswirkung auf den Körper ist aber natürlich zeitabhängig.  Ein 10-Stunden-Interkontinentalflug hinterlässt so viel Wirkung wie etwa 20 Tage auf dem Erdboden bei normaler Beaufschlagung. Im Laufe des Lebens werden Sie also als Nicht-Super-Oft-Flieger auf Dauer viel mehr von der geringen Strahlung am Boden beeinflusst als von der hoch droben. Keine übertriebene Angst vorm Fliegen also deshalb. Wie weit die allgegenwärtige Röntgen-und Gammastrahlungsbelastung noch ansteigen wird hin zum Minimum der Sonnenaktivität? Wir halten Sie auch hier auf dem Laufenden!

 

Der Rückgang von Emissionen hat auch negative Begleiterscheinungen

Pressemitteilung des Helmholtz Zentrums für Umweltforschung vom 18. November 2016:

Der Rückgang von Emissionen hat auch negative Begleiterscheinungen

Wissenschaftler klären die Ursachen der zunehmenden Braunfärbung des Wassers in Talsperren

In großen Teilen Europas und Nordamerikas hat der Rückgang von industriellen Emissionen zu einer geringeren Schadstoffbelastung der Atmosphäre, und damit von Böden und Gewässern in naturnahen Gebieten geführt. Dass diese positive Entwicklung auch negative Begleiterscheinungen haben kann, haben Wissenschaftler des UFZ nun im Fachmagazin Global Change Biology veröffentlicht. Demnach sind sinkende Nitratwerte in den Auenböden rund um die Zuflüsse von Talsperren dafür verantwortlich, dass gelöster organischer Kohlenstoff (DOC) und Phosphat vermehrt freigesetzt werden und sich die Wasserqualität verschlechtert. Im Falle von Trinkwassertalsperren bringt das erhebliche Probleme für die Wasseraufbereitung mit sich.

Durch die Verbrennung von Biomasse und fossilen Energieträgern sowie vor allem durch die Landwirtschaft gelangt nach wie vor zu viel reaktiver Stickstoff in die Umwelt – mit negativen Auswirkungen auf die biologische Vielfalt, das Klima und die menschliche Gesundheit. Eine differenzierte Betrachtung von Eintragspfaden der verschiedenen Verursacher zeigt jedoch große Unterschiede.
Während Stickstoffeinträge über den Boden – vor allem durch die Landwirtschaft verursacht – zum Beispiel die Nitratwerte im Grundwasser vieler Regionen weiter über den Grenzwert von 50 mg pro Liter steigen lassen, nimmt in großen Teilen Europas und Nordamerikas die atmosphärische Belastung durch emissionsverringernde Maßnahmen ab. Das führt dazu, dass über diesen Pfad auch weniger Stickstoff in Böden und Gewässer gelangt. Langzeitmessungen über die letzten 20 Jahre zeigen das etwa deutlich für Deutschland: Pro Quadratmeter und Jahr wurden durchschnittlich 35 mg weniger atmosphärischer Stickstoff in den Boden eingetragen. Daraus resultieren laut Untersuchungen der UFZ-Wissenschaftler 0,08 mg pro Liter und Jahr weniger Nitrat, das in Flüsse und Trinkwassertalsperren gelangt. “Das klingt erst einmal wenig, aber in einigen naturnahen Landschaften, die nicht oder kaum durch Industrie und Landwirtschaft geprägt sind, stellen sich im Laufe der Zeit vorindustrielle Bedingungen ein”, sagt UFZ-Hydrogeologe Dr. Andreas Musolff. “Hier sind wir mit teilweise weniger als 6 mg Nitrat pro Liter Wasser weit entfernt von den problematischen Nitratkonzentrationen, die in landwirtschaftlich oder industriell stark geprägten Regionen gemessen werden”.

Dass diese positive Entwicklung auch negative Begleiterscheinungen haben kann, wurde deutlich, als Wissenschaftler damit begannen, die Ursachen einer in Deutschland, Nordeuropa und Nordamerika zunehmend zu beobachtenden Braunfärbung des Wassers in Talsperren zu erforschen. Sie ist vor allem für die Trinkwasseraufbereitung problematisch. Bei der Überprüfung verschiedener Hypothesen stellten sie fest, dass die Braunfärbung des Wassers vor allem mit den sinkenden Nitratkonzentrationen in den Auenböden rund um die Zuflüsse der Talsperren in Verbindung zu bringen ist. Denn die Präsenz von Nitrat in den Auen, in denen ein Großteil des Abflusses der Gewässer gebildet wird, sorgt dafür, dass Kohlenstoff, Phosphat und verschiedene Metalle an oxidiertes Eisen gebunden bleiben. Geringere Nitratgehalte ermöglichen die chemische Reduktion der Eisenverbindungen und damit die Mobilisierung bislang adsorbierter Stoffe. Das heißt – bislang stabile Bindungen an Bodenpartikel lösen sich und gelangen mit dem Regenwasser in die Flüsse. Im Falle von Kohlenstoff bedeutet das, dass sich die Konzentration an gelöstem organischen Kohlenstoff (Dissolved Organic Carbon – DOC) erhöht, sichtbar durch die bräunliche Farbe des Wassers. Bei knapp 40 Prozent der 110 untersuchten Zuflüsse von Trinkwassertalsperren stellten die Wissenschaftler mit durchschnittlich 0,12 mg mehr DOC pro Liter und Jahr signifikant steigende DOC-Konzentrationen fest. Der stärkste Anstieg war in naturnahen Einzugsgebieten mit viel Wald zu verzeichnen, wo die Nitratkonzentration im Wasser bei weniger als 6 mg pro Liter liegt.

Neben dem DOC steigt in über 30 Prozent der Zuflüsse auch der Phosphatgehalt signifikant an. Die im Durchschnitt ermittelten 7 µg pro Liter und Jahr mehr begünstigen das Algenwachstum und sind auf lange Sicht ebenso problematisch für die Wasserqualität. Es gibt Hinweise, dass zudem neben DOC und Phosphat adsorbierte Metalle wie Arsen, Vanadium, Zink oder Blei zunehmend mobilisiert werden.
“Man löst ein Problem, indem man die Luft sauberer macht, und kreiert damit an bestimmten Stellen ein anderes Problem”, beschreibt Biologe Dr. Jörg Tittel, der das Projekt am UFZ geleitet hat, den unerwarteten Effekt. “Keiner der gelösten Stoffe ist in dieser geringen Konzentration giftig, zudem werden die Stoffe durch die Wasseraufbereitung weitgehend entfernt. Aber die Aufbereitung des Wassers wird teurer.”

Einen ersten Beleg ihrer Hypothese lieferte die Auswertung der Daten eines 1,7 km2 kleinen Einzugsgebietes im Erzgebirge, rund um die Wilzsch, einem Nebenfluss der Zwickauer Mulde, der in die Talsperre Carlsfeld mündet. Danach wählten die Wissenschaftler einen wesentlich größeren Maßstab, in deren Fokus 110 Flüsse und ihre Einzugsgebiete standen, die in insgesamt 36 Trinkwassertalsperren münden. Trotz der wesentlich größeren Vielfalt hinsichtlich der Größe der Flüsse und ihrer Einzugsgebiete, ihrer Topografie, der Niederschlagsmenge, der Landnutzung und der chemischen Charakteristik bestätigte sich auch hier ihre Vermutung: Der beobachtete Anstieg des DOC hängt eng mit dem abnehmenden Nitratgehalt im Wasser zusammen.

Mittlerweile hat eine Diskussion begonnen, wie die Ergebnisse dieser Meta-Analyse gemeinsam mit den zuständigen Behörden in praktische Maßnahmen umgesetzt werden können, die den DOC-Anstieg stoppen. “Die Studie hilft, zukünftige Forschung auf die relevanten Prozesse zu fokussieren und entsprechende Feldexperimente zu planen, die die Entscheidungsgrundlage im Hinblick auf konkrete Maßnahmen weiter verbessern”, so Andreas Musolff.

Die Forschungsergebnisse wurden im Rahmen des Projekts “Belastung von Trinkwassertalsperren durch gelösten organischen Kohlenstoff: Prognose, Vorsorge, Handlungsoptionen (TALKO)” erbracht, welches bis 2015 vom Bundesministerium für Bildung und Forschung (BMBF) mit mehr als einer Million Euro gefördert wurde. Ziel der Zusammenarbeit von UFZ, Talsperrenverwaltungen, Wasserversorgern, Behörden und einem Ingenieurbüro war es, Möglichkeiten zu finden, wie die Einträge in die Talsperren reduziert, Vorhersagen verbessert und Technologien der Wasseraufbereitung optimiert werden können.

Publikation:
Musolff, A., Selle, B., Büttner, O., Opitz, M. and Tittel, J. (2016), Unexpected release of phosphate and organic carbon to streams linked to declining nitrogen depositions. Glob Change Biol. doi:10.1111/gcb.13498 http://dx.doi.org/10.1111/gcb.13498

 

SRF-Afrika-Korrespondent Wülsner liegt in Ghana voll daneben: Peinliche Verwechslung von Küstenströmungen mit Klimawandel

Björn Lomborg am 21. November 2016 in der Washington Post:

Trump’s climate plan might not be so bad after all
The election of Donald Trump and Republican majorities in both houses have terrified environmentalists and climate campaigners, who have declared that the next four years will be a “disaster.” Fear is understandable. We have much to learn about the new administration’s plans. But perhaps surprisingly, what little we know offers some cause for hope. It should not need to be restated in 2016 that climate change is real and mostly man-made. It is hard to know whether Trump will acknowledge this. He has called global warming a “hoax” perpetrated by the Chinese, but stated that this was a joke; he denied the existence of climate change during the campaign, but supported global warming action as recently as 2009. What really matters is not rhetoric but policy. So far, we know that President Trump will drop the Paris climate change treaty. This is far from the world-ending event that some suggest and offers an opportunity for a smarter approach.

Weiterlesen in der Washington Post

—————-

Im Februar 2017 wird der Film “The uncertainty has settled” von Marijn Poels uraufgeführt. Inhalt:

After eight years of travelling, as a left winged filmmaker/journalist through conflict and poverty zones, Marijn Poels decides to have a time off. In the Austrian mountains. It brings him unexpectedly to the roots of agriculture and its perspective in modern times. Globalization and climate politics are causing the radical changes from farmers to energy supplier. But the green ideology raise questions. … the scientific topic about climate change has now become incontrovertible world politics. Poels is facing a personal conflict. Are we doing the right thing?

Hier der Trailer:

—————-

Patrick (?Patrik) Wülser machte am 7. Dezember 2016 im Radio SRF auf rührseligen Meeresspiegel-Klimaalarm:

Klimawandel in Ghana: Der Ozean verschlingt Totope Stück für Stück
Was Klimaforscher voraussagen, ist in Ghana schon eingetroffen: Das Fischerdorf ist zum Teil bereits im Meer versunken.

Der steigende Meeresspiegel und immer stärkere Flutwellen fressen sich an der Küste Westafrikas immer weiter ins Land und bedrohen die Fischerdörfer. Die Folgen des Klimawandels, der Bau von Tiefseehäfen und Staudämmen haben die Erosion der Küste in den vergangen 20 Jahren beschleunigt. Das Fischerdorf Toto in Ghana ist bereits zum Teil im Meer versunken.

Ein ziemlich billiges Propaganda-Theater, denn schon ein kritischer Blick auf die mitgelieferte Landkarte macht klar, dass diese Siedlung im Volta-Delta auf einer typischen Sand-Nehrungsinsel liegt, welche sich aufgrund von Sanddünen-Wanderungen und Meeres-Erosion auch ohne Meeresspiegel-Anstieg ständig auf natürliche Weise verändern. Die Sediment-Transport-Prozesse in der Region wurden bereits 1998 von Nairn et al. ausführlich beschrieben (pdf hier). Damals wurden Küstenschutzmaßnahmen vorgeschlagen, die aber offenbar nicht umgesetzt wurden.

Hier kommt wohl noch dazu, dass der riesige Volta-Stausees das gesamte flache Volta-Delta etwas nach unten drückt und zudem verhindert dessen Akosombo-Staudamm, dass das Geschiebe des Voltas sein altes Delta-Gebiet erreicht, wodurch die Meeres-Erosion nicht mehr kompensiert werden kann. Somit kann man leicht zeigen, dass die im geschilderte Situation in Totope/Ghana herzlich wenig mit Klimaerwärmung und steigenden Meeresspiegel zu tun hat, dafür aber umso mehr mit veränderter Landnutzung und natürlichen Küsten-Erosionsvorgängen.

 

Übrigens ist dieses neue SRF Propaganda-Stück nur eine Aufwärmung eines älteren Zeit-Artikels von 2012. Wenn man sich den Wikipedia-Eintrag zur Song(h)or-Lagune anschaut, sucht man nach der behaupteten großen Gefahr durch den Klimawandel vergeblich. Vielmehr wird die nichtnachhaltige Nutzung angeprangert, z.B. durch Überfischung, Abholzung der Mangroven und Trockenlegung zur Schaffung von Farmland:

Threats and possible consequences
The main threats to the site exist as varied forms of excessive utilization. Some common cases are over-fishing, extreme harvesting of mangroves, extensive drainage and cultivation for farmland, heavy grazing by cattle and livestock, and an unsustainable level of salt winning. These threats are difficult to neutralize because the human communities surrounding the lagoon are largely poor and over-populated. In effect, the local people are dependent upon their harvesting of the lagoon for survival. Although ecotourism provides an ecologically friendly source of income, the practice is not extensive enough to sustain the local communities. Additional threats originate from the use of pesticides and herbicides, the damming of creeks and channels for the purpose of expanding infrastructure, and rubbish dumping.[16] These threats can and, in some instances, have had dire consequences. The breeding cycles of nesting species, like the several sea turtle species hosted by the lagoon, can be disturbed by exaggerated human activity. Furthermore, the eggs of such species are often trampled by grazing cattle and livestock. Another realized effect of human exploitation is the apparent shrinking of the lagoon, which can be easily observed in the satellite photo comparison shown at the opening of this article. Further disturbance of the lagoon could result in not only the loss of species that inhabit the site, but also the loss of nutritive and moderating benefits provided by the site. Aside from purifying ground water, acting as a reservoir for nutrients, and supporting the local food chain, the lagoon regulates water flow, staggers and lessens the effects of flooding, and disperses the extreme erosive forces exerted on the shore by the Atlantic Ocean.[17]

 

Treffen der Initiative ‘KlimaKontroverse’ am 19.1.2017 in Hannover: Bröckelt der “Klimakonsens”?

Das Hauptthemen des nächsten Treffens:

Bröckelt der „Klimakonsens“? Hunderte kritische Studien allein in 2016

und

Judith Curry – berühmte skeptische Klimaforscherin gibt – fast – auf!

 

Do, 19. Januar, 19:30, Freizeitheim Linden, Windheimstr. 4, 30451 Hannover
www.KlimaKontroverse.de
Kontakt: Achim Fahnenschild

(weiterlesen …)

Die ungeliebte Verlangsamung der Erwärmung: Tricksen bis der Arzt kommt

Mit dem neuen Temperaturrekord hat es 2016 nicht geklappt. Trotzdem wollten Klimaaktivisten und kooperierende Journalisten zu Jahresbeginn der Bevölkerung eine scharfe Klimaermahnung mit auf den Weg geben. Da kam ihnen ein soeben veröffentlichtes Paper gerade recht: Die Erwärmungspause (“der Hiatus”) bzw. die Verlangsamung der Erwärmung (“Slowdown”) der letzten 18 Jahre existiere gar nicht, alles nur Schall und Rauch. In Wahrheit sei es kräftig wärmer geworden, und zwar in den Ozeanen. Ganz vorne bei der Berichterstattung mit dabei ist Spektrum der Wissenschaft, eine Plattform, auf der auch der Potsdamer Klimaaktivist Stefan Rahsmtorf schreibt. Der Redaktionsleiter von spektrum.de, Daniel Lingenhöhl, erklärte den Lesern höchstpersönlich:

Klimawandel: Keine verlangsamte Erwärmung im Ozean
Während der letzten 15 Jahre sollen sich die Weltmeere nur verlangsamt erwärmt haben. Manche sprachen sogar von einer Pause. Doch das wurde erneut widerlegt.

Seit dem Weltklimabericht 2013 wird heftig diskutiert, ob es seit der Jahrtausendwende nur eine verlangsamte Erwärmung in den Ozeanen gegeben habe; manche sprachen sogar von einer regelrechten “Pause”. Diese These wurde nur zwei Jahre später widerlegt. Sie beruhte auf einem technischen Artefakt und wurde auf veränderte Messmethoden zurückgeführt: Die Daten von Sensoren am Kühlwasserzustrom von Schiffen hätten demnach zu niedrige Temperaturen widergegeben. Die Aufheizung der Ozeane hätte anhand der korrigierten Werte tatsächlich bei 0,12 Grad Celsius pro Jahrzehnt gelegen und damit den Anstiegen in der Zeit davor wie danach entsprochen. [...] Eine neuerliche Analyse der Daten durch weitere, von der NOAA unabhängige Klimatologen in “Science Advances” kommt nun jedoch zum gleichen Schluss. Für ihre Arbeit zogen Zeke Hausfather von der University of California in Berkeley und Kollegen die Messdaten von drei verschiedenen Quellen aus den letzten 30 Jahren zusammen: von Satelliten, stationären sowie autonomen Sensorbojen

Weiterlesen auf spektrum.de

Weitere übliche Verdächtige stiegen in die Geschichte ein, z.B. Joachim Müller-Jung von der FAZ (“Klimawandel Eine Verschnaufpause? Die gab es nie!“), der keine Gelegnheit zur Förderung des Klimaalarms auslässt. Die Original-Pressemiteilung der University of California, Berkeley gibt es hier. Schauen Sie sich einmal die dazugehörige Abbildung genau an:

Abbildung 1: Ozeantemperaturen seit 1999 laut Hausfather et al. 2017. Originalbildunterschrift: “A new UC Berkeley analysis of ocean buoy (green) and satellite data (orange) show that ocean temperatures have increased steadily since 1999, as NOAA concluded in 2015 (red) after adjusting for a cold bias in buoy temperature measurements. NOAA’s earlier assessment (blue) underestimated sea surface temperature changes, falsely suggesting a hiatus in global warming. The lines show the general upward trend in ocean temperatures. Credit: Zeke Hausfather, UC Berkeley”.

 

Gut zu erkennen ist der händische Eingriff in die Datenbasis: In blau die alte Temperaturkurve; in rot die neue, künstlich versteilte Kurve. So einfach kann man Erwärmung am Schreibtisch erzeugen. Genial. Uns interessieren hier vor allem die Satellitendaten in orange. Irgendetwas macht uns stutzig. Der aufwärtgerichtete Trend war uns bisher irgendwie entgangen. Zum Glück kann man sich die Originaldaten auf Woodfortrees selber plotten lassen. Wir wählen die globalen Daten, da der größte Teil der Erde sowieso aus Ozeanen besteht und weil es für einen ersten Plausibilitätscheck ausreicht. Hausfather zeigt in seiner Graphik die Werte ab 1999, das machen wir auch:

Abbildung 2: Globale Temperaturentwicklung seit 1999 auf Basis von Satellitendaten (RSS).

 

Ok, hier lässt sich ein ansteigender Trend – also eine Erwärmung – durchaus nachvollziehen. Die in der Hausfather-Graphik gut erkennbaren Abkühlungsjahre 2000, 2008 und 2012 sind auch in der RSS-Kurve sichtbar. Aber weshalb beginnt die Kurve exakt im Jahr 1999? Wir gehen ein weiteres Jahr zurück, lassen die Kurve von El Nino zu El Nino plotten:

 

Abbildung 3: Globale Temperaturentwicklung seit 1998 auf Basis von Satellitendaten (RSS). Trend in grün.

 

Welch Überraschung: Schön zu sehen ist der “Hiatus” bzw die abgebremste Erwärmung zwischen den beiden Mega-El Nino Jahren 1998 und 2015/16. Laut IPCC-Modellen sollten die Temperaturen pro Jahrzehnt um zwei Zehntelgrad ansteigen. Bei fast zwei Jahrzehnten war eine Erwärmung um 0,4°C zu erwarten. In Wahrheit eingetreten sind jedoch weniger als 0,1°C. Nun könnte man sagen, lasst doch mal diese schlimmen El Ninos einfach aus. Was ist zwischen diesen beiden Wärmeereignissen passiert? Wir plotten entsprechend von 1999 bis 2015:

Abbildung 4: Globale Temperaturentwicklung 1999-2015 auf Basis von Satellitendaten (RSS). Trend in grün.

 

Wieder ist die Erwärmung minimal, vielleicht ein zwanzigstel Grad. Da beißt die Maus keinen Faden ab: Der Slowdown ist real und muss ernst genommen werden. Eine Vielzahl von Forschern tut dies bereits und schreibt eifrig Papers zum Thema. Kühlende Ozeanzyklen sind vermutlich die Ursache der ausgebremsten Erwärmung.

Daniel Lingenhöhl, Joachim Müller-Jung, Zeke Hausfather et al. kämpfen unentwegt gegen den unerwarteten Hiatus an – und machen sich dabei gänzlich lächerlich. Was werden sie in zehn Jahren im Rückblick zu ihrem Aktivismus zu sagen haben, wenn die wahre Temperaturentwicklung bekannt sein wird? Jede Wette, dass sie dann gar nicht mehr gerne an ihre wilde Aktivistenzeit erinnert werden wollen…

Siehe auch Besprechung der Arbeit auf GWPF, WUWT, Judith Curry, Blasting News

——————————–

Realistischer ist dieser Ansatz von Yan et al. 2016, zu dem die American Geophysical Union (AGU) am 22. November 2016 die folgende Pressemitteilung herausgab:

Study sheds new insights into global warming ‘hiatus’

A new study of the temporary slowdown in the global average surface temperature warming trend observed between 1998 and 2013 concludes the phenomenon represented a redistribution of energy within the Earth system, with Earth’s ocean absorbing the extra heat. The phenomenon was referred to by some as the “global warming hiatus.” Global average surface temperature, measured by satellites and direct observations, is considered a key indicator of climate change.

In a study published today in Earth’s Future, a journal of the American Geophysical Union, lead author Xiao-Hai Yan of the University of Delaware, Newark, along with scientists from NASA’s Jet Propulsion Laboratory, Pasadena, California, and several other institutions discuss new understanding of the phenomenon. The paper grew out of a special U.S. Climate Variability and Predictability Program (CLIVAR) panel session at the 2015 American Geophysical Union Fall Meeting.

“The hiatus period gives scientists an opportunity to understand uncertainties in how climate systems are measured, as well as to fill in the gap in what scientists know,” Yan said.

“NASA’s examination of ocean observations has provided its own unique contribution to our knowledge of decadal climate trends and global warming,” said Veronica Nieves, a researcher at JPL and the University of California, Los Angeles and co-author of the new study. “Scientists have more confidence now that Earth’s ocean has continued to warm continuously through time. But the rate of global surface warming can fluctuate due to natural variations in the climate system over periods of a decade or so.”

Where’s the missing heat?

While Yan said it’s difficult to reach complete consensus on such a complex topic, a thorough review of the literature and much discussion and debate revealed a number of key points on which these leading scientists concur:

  • From 1998 to 2013, the rate of global mean surface warming slowed, which some call the “global warming hiatus.”
  • Natural variability plays a large role in the rate of global mean surface warming on decadal time scales.
  • Improved understanding of how the ocean distributes and redistributes heat will help the scientific community better monitor Earth’s energy budget. Earth’s energy budget is a complex calculation of how much energy enters our climate system from the sun and what happens to it: how much is stored by the land, ocean or atmosphere.

“To better monitor Earth’s energy budget and its consequences, the ocean is most important to consider because the amount of heat it can store is extremely large when compared to the land or atmospheric capacity,” said Yan.

According to the paper, “arguably, ocean heat content—from the surface to the seafloor—might be a more appropriate measure of how much our planet is warming.”

Charting future research

In the near term, the researchers hope this paper will lay the foundation for future research in the global change field. To begin, they suggest the climate community replace the term “global warming hiatus” with “global surface warming slowdown” to eliminate confusion.

“This terminology more accurately describes the slowdown in global mean surface temperature rise in the late 20th century,” Yan said.

The scientists also called for continued support of current and future technologies for ocean monitoring to reduce observation errors in sea surface temperature and ocean heat content. This includes maintaining Argo, the main system for monitoring ocean heat content, and the development of Deep Argo to monitor the lower half of the ocean; the use of ship-based subsurface ocean temperature monitoring programs; advancements in robotic technologies such as autonomous underwater vehicles to monitor waters adjacent to land (like islands or coastal regions); and further development of real- or near-real-time deep ocean remote sensing methods.

Yan’s research group reported in a 2015 paper that some coastal oceans (e.g., U.S. East Coast, China Coast) responded faster to the recent global surface warming rate change than the global ocean.

“Although these regions represent only a fraction of the ocean volume, the changing rate of ocean heat content is faster here, and real-time data and more research are needed to quantify and understand what is happening,” Yan said.

Variability and heat sequestration over specific regions (e.g., Pacific, Atlantic, Indian, Southern Oceans, etc.) require further investigation, the authors conclude. However, there is broad agreement among the scientists and in the literature that the slowdown in the global mean surface temperature increase from 1998 to 2013 was due to increased uptake of heat energy by the global ocean.

 

Fritz Vahrenholt am 17.1.2017 mit Vortrag zur deutschen Energiewende im Londoner House of Commons

Am 17. Januar 2017 wird Fritz Vahrenholt in London im House of Commons einen Vortrag zur deutschen Energiewende halten. Eingeladen hat die Global Warming Policy Foundation (GWPF). Beginn: 18:00h. House of Commons, Committee Room 9,
London SW1A 0PW. Hier die Ankündigung der GWPF:

The Crisis of Germany’s Energiewende
German consumers and industry pay a hefty price for the green energy transition, the so-called Energiewende. Technical problems with the German power grid are piling up as the government continues its breakneck drive to change the country’s energy mix. Parts of Germany are already over-saturated with wind turbines. Other nations are not following Germany’s expensive experiment. Germany has the second highest electricity price (after Denmark) in Europe. Renewable energy subsidies will rise from 6.35 €ct/kwh to an astounding 7.3 €ct/kwh in 2017. This policy is costing consumers 25 billion euros annually, paid via their power bills. It represents a social transfer from bottom to top of immense dimensions.

The driving force behind this socially unsustainable energy policy is an irrational fear that humans are irreparably damaging the climate as a result of CO2 emissions – despite new scientific findings showing that CO2’s impact on global temperatures has been overstated by the IPCC. Government plans to open up forests to allow the construction of wind parks is a catastrophe for most species of predatory birds and bats and the surrounding ecosystem.

Professor Fritz Vahrenholt 
Fritz Vahrenholt was one of the founders of the environmental movement in Germany. He holds a PhD in chemistry and is Honorary Professor at the Department of Chemistry at the University of Hamburg. Since 1969 he has been a member of the Social Democratic Party (SPD). From 1976 until 1997 he served in several public positions with environmental agencies such as the Federal Environment Agency, the Hessian Ministry of Environment and as Deputy Environment Minister and Senator of the City of Hamburg. In 2001, he founded the wind energy company REpower and was director of RWE’s renewable energy division Innogy, one of Europe’s largest renewable energy companies. His 2012 book The Neglected Sun sparked a broad public discussion in Germany about the dogmatism in climate science. He is the chairman of the German Wildlife Foundation and a member of the GWPF’s Academic Advisory Council.

If you wish to attend this lecture please register by emailing  harry.wilkinson@thegwpf.org

 

Der WWF ruft aktuell zu Spenden für die Eisbären auf, die wegen des Klimawandels angeblich vom Aussterben bedroht sind:

Lieber Herr xxx,

durch den Klimawandel schmilzt den Eisbären das Eis so schnell unter den Tatzen weg, dass ihnen keine Zeit bleibt, sich anzupassen. Weil sie nicht mehr genügend Nahrung finden, suchen sie sich ihre überlebenswichtige Nahrung in nahen Dörfern. Dort ist es dann jeweils nur eine Frage der Zeit, bis es zu unliebsamen Begegnungen mit Menschen kommt.

Das Leid der Eisbären ist genauso das Leid der Menschen. Je länger die Eisbären auf dem Festland auf Eis warten müssen, desto häufiger kommt es zu Konfrontationen.

Wir kämpfen weltweit auf allen Ebenen gegen den Klimawandel, um das Leben und Überleben der Eisbären zu sichern. Parallel dazu arbeiten wir vor Ort mit Menschen am Eisbärenschutz und helfen so konkret, die Konflikte zwischen Menschen und Eisbären zu verringern.

Bitte lassen Sie die Eisbären nicht im Stich. Helfen Sie mit einer Spende.

Herzliche Grüße
Ihr WWF-Team

Das ist schon kurios, denn die Eisbärpopulation geht es laut offiziellen Zählen prächtig. Von einem allgemeinen Schwund ist nichts zu spüren. Im Gegenteil, noch immer dürfen Eisbären offiziell gejagt werden, auch von gut zahlenden Jagdtouristen. Ist es nicht seltsam, dass der WWF gegen die wirkliche und akute Bedrohung durch Gewehrkugeln nicht vorgeht, stattdessen lieber den schön-abstrakten Klimawandel in den Vordergrund schiebt? Macht vielleicht weniger Arbeit als gegen die Eisbärjagd zu kämpfen.

Siehe:

 

 

Kein neuer Rekord: Globale Mitteltemperatur 2016 erreichte lediglich das Niveau von 1998

Das El Nino-Jahr 2016 ist vorüber, Zeit für eine Temperatur-Endabrechnung. Die University of Alabama in Huntsville (UAH) gab hierzu am 4. Januar 2017 bekannt, dass die Temperaturen 2016 ein ähnliches Niveau erreicht haben wie im bisher wärmsten Jahr 1998. Aus statistischer Sicht liegt ein klares Unentschieden vor, erklärt die UAH, gestützt auf eine weltweite Messabdeckung durch Satellitendaten. Rein rechnerisch war 2016 zwar um zwei Hundertstel Grad wärmer, ein Unterschied der sich jedoch im Fehlerbereich des Messverfahrens verliert und als nicht signifikant eingestuft wird. Hier die Pressemitteilung der UAH, via Science Daily (siehe auch Blogbeitrag von Roy Spencer):

2016 Edges 1998 as Warmest Year on Record

Globally, 2016 edged out 1998 by +0.02 C to become the warmest year in the 38-year satellite temperature record, according to Dr. John Christy, director of the Earth System Science Center at The University of Alabama in Huntsville. Because the margin of error is about 0.10 C, this would technically be a statistical tie, with a higher probability that 2016 was warmer than 1998. The main difference was the extra warmth in the Northern Hemisphere in 2016 compared to 1998.

“The question is, does 2016′s record warmth mean anything scientifically?” Christy said. “I suppose the answer is, not really. Both 1998 and 2016 are anomalies, outliers, and in both cases we have an easily identifiable cause for that anomaly: A powerful El Niño Pacific Ocean warming event. While El Niños are natural climatic events, they also are transient. In the study of climate, we are more concerned with accurately identifying long-term temperature trends than we are with short-term spikes and dips, especially when those spikes and dips have easily identified natural causes.

“Some records catch our attention because we usually struggle to cope with rare events. For example, the Sept.-Nov. record heat and dryness in the southeastern U.S. (now a thing of the past) will be remembered more than the probability that 2016 edged 1998 in global temperatures. So, from the long-term perspective, 2016′s record may be less noteworthy than where the month-to-month temperature settles out between warming and cooling events.”

Compared to seasonal norms, the warmest average temperature anomaly on Earth in December was in south central China, near the town of Qamdo. December temperatures there averaged 3.91 C (about 7.04 degrees F) warmer than seasonal norms. Compared to seasonal norms, the coolest average temperature on Earth in December was near the town of Buffalo Narrows in west central Saskatchewan. December temperatures there averaged 4.13 C (about 7.43 degrees F) cooler than seasonal norms.

The December 2016 GTR includes the global temperature anomaly map for the month and the month-by-month graph of global temperature anomalies for the duration of the satellite temperature dataset. It also includes a global map of the 2016 temperature anomalies, and a global map of the regional climate trends from December 1978 through December 2016.

As part of an ongoing joint project between UAH, NOAA and NASA, Dr. John Christy, director of the Earth System Science Center at The University of Alabama in Huntsville, and Dr. Roy Spencer, an ESSC principal scientist, use data gathered by advanced microwave sounding units on NOAA and NASA satellites to get accurate temperature readings for almost all regions of the Earth. This includes remote desert, ocean and rain forest areas where reliable climate data are not otherwise available.

The satellite-based instruments measure the temperature of the atmosphere from the surface up to an altitude of about eight kilometers above sea level. Once the monthly temperature data are collected and processed, they are placed in a “public” computer file for immediate access by atmospheric scientists in the U.S. and abroad.

Neither Christy nor Spencer receives any research support or funding from oil, coal or industrial companies or organizations, or from any private or special interest groups. All of their climate research funding comes from federal and state grants or contracts.

Abbildung: Entwicklung der globalen Monatstemperaturen von Dezember 1978 bis Dezember 2016 basierend auf UAH-Datensatz. Quelle: UAH

 

Ein ähnliches Ergebnis zeigen auch die globalen RSS-Satellitendaten, wie Bob Tisdale auf WUWT berichtete:

Abbildung: Entwicklung der globalen Monatstemperaturen 1979-2016 basierend auf RSS-Datensatz. Quelle: WUWT

 

Auch in Deutschland und Österreich hat es nicht zu einem neuen Rekord gereicht. Bayerischer Rundfunk am 9. Januar 2017:

Deutlich zu warm und dennoch eher durchschnittlich
Das Jahr 2016 war in Deutschland im Durchschnitt wieder deutlich wärmer, brachte aber keine neuen Temperaturrekorde. Was Niederschlag und Sonnenscheindauer angeht, erklärt der Deutsche Wetterdienst (DWD) 2016 zum durchschnittlichen Jahr. Auch in Bayern war es im Schnitt eher kalt und regnerisch.

Weiterlesen beim Bayerischen Rundfunk

Über Österreich berichtete Der Standard am 27. Dezember 2016:

2016 war in Österreich viertwärmstes Jahr seit Messbeginn
Laut Meteorologen gehörte das abgelaufene Jahr auch zu den nassesten

Weiterlesen im Standard

Und natürlich auch keine Rekorde in der Schweiz, wie auf zueriost.ch zu lesen war.

Lediglich der Klimaretter lebt in seiner eigenen Traumwelt und wusste schon mehr als eine Woche vor Jahresende, dass es ganz sicher – bitte, bitte, bitte – neue Temperaturrekorde gibt:

2016: Temperaturen brechen Rekorde
Was die Weltmeteorologieorganisation WMO schon im November verkündete, bestätigt nun auch die US-amerikanische Wetter- und Ozeanografiebehörde NOAA: Die globale Mitteltemperatur erreichte dieses Jahr erneut Rekordwerte. 2016 wird weltweit das heißeste Jahr seit 1880 werden. Dabei überbieten die diesjährigen Temperaturen noch die Rekordwerte aus den Vorjahren 2014 und 2015.

Ein Fall für die neue Fake-News-Stelle der Bundesregierung.

 

Neue Modellierungsstudie gibt Hoffnung: Regenmengen in den subtropischen Landgebieten weniger vom Klimawandel betroffen als vormals angenommen

Ist das die Lösung des CO2-Problems? Eine Fabrik in Indien soll als erste in der Lage sein, das Treibhausgas CO2 aus Abgasen einzufangen und in Backpulver umzuwandeln. Kuchenbäcker reiben sich schon die Hände. Aber braucht die Welt soviel Backpulver?

—————-

Die Hanns Seidel Stiftung veranstaltet vom 17.-19. Februar 2017 am bayerischen Ammersee ein Seminar mit dem Titel “Aktuelles zum Klimawandel”. Kostenpunkt: 70 Euro. Einladung als pdf hier. Als Vortragender mit dabei ist auch Gerd Ganteför.

—————-

Der Standard berichtete am 29. Dezember 2016 über Klimaretter der anderen Art:

Grasende Kämpfer gegen die Erwärmung
Rentiere helfen gegen den Temperaturanstieg in der Arktis, wie eine neue Studie zeigt: Indem sie Sträucher in der Tundra reduzieren, halten sie diese kühler

Weiterlesen im Standard

—————-

Die NASA hat sich mit ihrem New Yorker GISS-Institut in Sachen Klimawandelforschung nicht gerade mit Ruhm bekleckert. Seit vielen Jahren liegt die Leitung des Instituts fest in der Hand bekennender Klimaaktivisten, zunächst James Hansen, nun Gavin Schmidt. Eine Serie von wenig transparenten Datenveränderungen hat den vom GISS verwalteten Boden-Temperaturdatensatz nun so weit entstellt, dass er stark von den Satellitendatensätzen abweicht.

Angesichts dieser Ungereimtheiten erwägt die neue US-amerikanische Regierung nun, der NASA das Mandat für die Klimaforschung zu entziehen, wie Die Zeit am 24. November 2016 berichtete. Die NASA-Forscher sind darüber natürlich alles andere als erfreut und schlagen hochnervös verbal zurück. In Zukunft solle sich die NASA wieder verstärkt um die Weltraumfroschung kümmern, heißt es von Seiten der neuen Regierung. Vielleicht ist diese Atempause ganz gut angesichts der undurchsichtigen NASA-Aktivitäten im Bereich des Klimawandels. Macht es wirklich Sinn, Aktivisten in führender Position zu tolerieren, wo sie nach Lust schalten und walten können?

—————-

Auf WUWT beschäftigte sich Angus McFarlane am 3. Januar 2017 mit unserem Kartierprojekt zur Mittelalterlichen Wärmeperiode. In seinem lesenswerten Beitrag lieferte er u.a. auch eine vorläufige statistische Auswertung der mehr als 900 Datenpunkte. Zwischenzeitlich macht das Projekt weiter gute Fortschritte. Den aktuellen Projektstatus können Sie auf der Researchgate-Projektseite abrufen, wo regelmäßige Updates eingestellt werden.

—————-

Gute Nachrichten für die Subtropen. Früher gab es große Befürchtungen, dass im Zuge des Klimawandel der Regen ausbleiben könnte, mit dem Risiko einer Verschärfung von Dürren. Neue Modellierungsergebnisse zeigen nun, dass es wohl nicht ganz so schlimm kommen wird. Die University of Miami Rosenstiel School of Marine & Atmospheric Science gab am 14. November 2016 via Pressemitteilung bekannt:

Study Finds Less Gloomy Outlook for Subtropical Rainfall

UM Rosenstiel School researchers challenge previous understanding of drying projections for the climatic region

A new study found that rainfall over land in the subtropics – including in the southeastern U.S. – will not decline as much as it does over oceans in response to increased greenhouse gases. The study challenges our previous understanding of the drying that will occur in subtropical regions and suggests its impact on people living in these regions could be less severe than initially thought.

“The lack of rainfall decline over subtropical land is caused by the fact that land will warm much faster than the ocean in the future – a mechanism that has been overlooked in previous studies about the subtropical precipitation change,” said Jie He, a postdoc in Princeton University’s Program in Atmospheric and Oceanic Sciences and former UM Rosenstiel School graduate student who was the lead author of the study.

In the new study, He and UM Rosenstiel School Professor Brian Soden used an ensemble of climate models to show that the rainfall decreases occur faster than global warming, and therefore another mechanism must be at play. They found that direct heating from increasing greenhouse gases is causing the land to warm faster than the ocean and that the associated changes in atmospheric circulation are driving the rainfall decline over the oceans, rather than land.

Subtropical rainfall changes have been previously attributed to two mechanisms related to global warming: greater moisture content in air that is transported away from the subtropics and a pole-ward shift in circulation. While both mechanisms are present, this study shows that neither one is responsible for the rainfall decline.

“It has been long accepted that climate models project a large-scale rainfall decline in the future over the subtropics. Since most of the subtropical regions are already suffering from rainfall scarcity, the possibility of future rainfall decline is of great concern,” said Soden, the co-author of the study. “However, most of this decline occurs over subtropical oceans, not land, due to changes in the atmospheric circulation induced by the more rapid warming of land than ocean.”

Most of the reduction in subtropical rainfall occurs instantaneously with an increase of greenhouse gases, independent of the warming of the earth’s surface, which occurs much more slowly. According to the authors, this indicates that emission reductions would immediately mitigate subtropical rainfall decline, even though the surface will continue to warm for a long time.

The study, titled “A re-examination of the projected subtropical precipitation decline,” was published in the Nov. 14 issue of the journal Nature Climate Change. He is currently at the NOAA Geophysical Fluid Dynamics Laboratory in Princeton, New Jersey.

 

Schlechte Berater: Kleine Anfrage an die Niedersächsische Landesregierung zum Klimawandel

Ende Juni 2016 wandten sich die Abgeordneten Dr. Gero Hocker, Jan-Christoph Oetjen, Sylvia Bruns und Christian Grascha (FDP) mit einer Kleinen Anfrage an die Niedersächsische Landesregierung. Am 27. Juli 2016 antwortete das Niedersächsische Ministerium für Umwelt, Energie und Klimaschutz namens der Landesregierung, gezeichnet von Stefan Wenzel, dem Umweltminister der Grünen. Veröffentlicht wurde das Ganze als Drucksache 17/6056 des Niedersächsischen Landtags (pdf hier). Im Folgenden die sechs Fragen der FDP (“Hocker et al.”) sowie die Antworten des Ministeriums (“Landesregierung”).

1. FRAGE (Hocker et al.):

Der IPCC erklärte in seinem letzten Bericht von 2013, dass  gängige Klimamodelle die empirisch gut belegte Mittelalterliche Wärmephase vor 1000 Jahren nicht reproduzieren können (Kapitel 5.3.5 in „The Physical Science Basis“). Inwieweit können paläoklimatologisch schlecht kalibrierte Modelle nach Auffassung der Landesregierung überhaupt für Zukunftsmodellierungen eingesetzt werden?

ANTWORT (Landesregierung):

Die hier angesprochenen Modelle geben die beobachteten Muster und Trends des Klimas über viele Dekaden der Erdoberflächentemperatur im kontinentalen Maßstab wieder, einschließlich der stärkeren Erwärmung seit Mitte des 20. Jahrhunderts und der unmittelbar auf große Vulkaneruptionen folgenden Abkühlung (laut IPCC AR5, 2013). So wird im AR5 aufgezeigt, dass die heutigen Klimamodelle die aus gemessenen Temperaturen abgeleitete globale Mitteltemperatur seit Mitte des 19. Jahrhunderts (Beginn der Temperaturaufzeichnungen), die sowohl natürlichen als auch anthropogenen Einflüssen unterliegt, gut simulieren können.

Die Klimamodelle werden an dem heutigen Klima und an dem Klima der Vergangenheit geeicht. Man schreibt für das heutige (bzw. historische) Klima die entsprechenden Randwerte wie Sonneneinstrahlung und Konzentration der Treibhausgase vor, berechnet das Klima und vergleicht dieses mit den Beobachtungen. Die Tatsache, dass die Klimamodelle das heutige (bzw. historische Klima) hinreichend genau simulieren, zeigt, dass man sie auch zur Berechnung des zukünftigen Klimas einsetzen kann (Max Planck Institut für Meteorologie, http://www.mpimet.mpg.de/kommunikation/fragen-zu-klima-faq/wie-kann-man-klimaveraenderungen-vorhersagen/).

Zur Simulation der Mittelalterlichen Wärmephase: Für den hier angesprochenen Zeitraum gibt es keine direkten Messwerte. Daher muss das damalige Klima aus Proxy-Daten rekonstruiert werden (z. B. Baumringe oder Sedimentbohrkerne) unter Zuhilfenahme von vielfältigen Informationen aus historischen Aufzeichnungen (z. B. zu Ernteerträ-gen, Deichreparaturkosten, Segelzeiten von Schiffen).

Die Treibhausgase waren bis zu Beginn der Industrialisierung überwiegend natürlichen Ursprungs. Die Sonnenaktivität und der Vulkanismus für diesen Zeitraum werden ebenfalls aus Proxy-Daten hergeleitet. Trotz der bestehenden Unsicherheiten in den Antriebsdaten können die Klimamodelle anhand des Temperaturverlaufs die „Mittelalterliche Warmzeit“ (ca. 950 bis 1250) genau wie die „Kleine Eiszeit“ (1400 bis 1850) und die anthropogene Klimaerwärmung der Neuzeit gut simulieren (Nach Cubasch, „Die Rolle der Sonne im Klimasystem“, Sitzungsbericht der Leibniz-Sozietät der Wissenschaft zu Berlin, 103, 2009, 149-158, http://leibnizsozietaet.de/wp-content/uploads/2012/10/Gesamtband-SB-103-2009.pdf).
Unter diesen Voraussetzungen hält die Landesregierung die gängigen Klimamodelle für ausreichend kalibriert.

KOMMENTAR KALTE SONNE-REDAKTION:

Hier liegt das Ministerium komplett daneben. Im 5. IPCC-Bericht (AR5) wird schwarz auf weiß eingeräumt, dass die aktuellen Klimamodelle die Mittelalterliche Wärmeperiode (MWP) NICHT reproduzieren können. Das hält das Ministerium jedoch nicht davon ab. das glatte Gegenteil zu behaupten. Ein Unding. Verwiesen wird auf eine vermutlich nicht einmal fachlich begutachtete astronomische Festschrift, in der Ulrich Cubasch fälschlicherweise behauptet, im 4. IPCC-Bericht (AR4) von 2007 hätte man die MWP verlässlich reproduzieren können. Ein einziger Blick auf die Graphik auf S. 153 in der Festschrift reicht aus, um den Fehlschluss als solchen zu entlarven. Cubasch macht zur genauen Herkunft der Graphik aus dem voluminösen Bericht keine näheren Angaben. Interessanterweise taucht sie im entsprechenden Kapitel “Climate Models and their Evaluation” überhaupt nicht auf. Mysteriös. Auch erscheint der Begriff “Medieval” im Kapitel mit keiner Silbe. Überhaupt ist es eine verwegene Idee, eine Aussage aus dem AR5 mit dem veralteten AR4 entkräften zu wollen. Die von Cubasch getätigte und von der Landesregierung wiederholte Aussage ist nicht korrekt.

 

2. FRAGE (Hocker et al.):

Der letzte IPCC-Bericht räumt ein, dass bis zu 50 % der Erwärmung der letzten 150 Jahre natürlichen Ursprungs sein könnten (deutschsprachige Berichtszusammenfassung, Abschnitt D.3). In der Tabelle der Klimafaktoren tauchen jedoch lediglich solare Aktivitätsschwankungen mit einer angeblich vernachlässigbaren klimatischen Wirkung auf. Wie passt dies zusammen, und welche Schlüsse zieht die Landesregierung aus dieser offensichtlichen Diskrepanz?

ANTWORT (Landesregierung):

Die Frage 2 impliziert, dass der natürliche Klimaeinfluss ausschließlich auf die Schwankung in der solaren Einstrahlung zurückzuführen sei. Daneben gibt es jedoch noch weitere wichtige natürliche Faktoren, die das Klima beeinflussen, wie z. B. die interne Variabilität des Klimas, die auf ganz unterschiedlich langen Zeitskalen stattfindet (u. a. durch die Wechselwirkung zwischen Atmosphäre und Ozean, z. B. ENSO-Zyklus) oder die natürlich freigesetzten Aerosole aufgrund von Vulkanismus. Das Zusammenwirken der unterschiedlichen anthropogenen Einflüsse und der unterschiedlichen natürlichen Einflüsse führt nach neuestem Stand der Wissenschaft zu den hier angesprochenen Aussagen des IPCC, insofern wird bei dem in Frage 2 dargelegten Sachverhalt keine Diskrepanz gesehen.

KOMMENTAR KALTE SONNE-REDAKTION:

Das Ministerium versucht den natürlichen Teil der Wiedererwärmung seit der Kleinen Eiszeit als nicht-kontrollierbares Klimarauschen abzutun. Das ist wenig überzeugend, insbesondere da es sich um einen deutlichen Langfristzyklus mit Mittelalterlicher Wärme, Kleiner Eiszeit und Moderner Wärmeperiode handelt. Hier hat der Ministeriumsschreiber sicher kräftig geschwitzt, bis ihm eine (schlechte) Lösung eingefallen ist.

 

3. FRAGE (Hocker et al.):

Wie bewertet die Landesregierung Studien, die besagen, dass es eine starke klimatische Wirkung solarer Aktivitätsschwankungen in den letzten 10 000 Jahren gab?

ANTWORT (Landesregierung):

Siehe Antwort zu Frage 4.

KOMMENTAR KALTE SONNE-REDAKTION:

Eine Vielzahl von Studien hat die enge Verknüpfung zwischen Sonne und Klima eindrucksvoll belegt. Die Landesregierung geht nicht darauf ein, verdrängt es lieber. Kein Kommentar. Alles nur Rauschen. Hier gibt es nichts zu sehen, weitergehen.

 

4. FRAGE (Hocker et al.):

Wie schätzt die Landesregierung vor dem Hintergrund dieser Studien die aktuelle klimatische Wirkung solarer Aktivitätsschwankungen ein?

ANTWORT (Landesregierung):

Da nicht bekannt ist, auf welche Studien sich Frage 3 bezieht, werden die Fragen 3 und 4 mit folgenden wissenschaftlichen Ergebnissen zur Wirkungsweise solarer Aktivitätsschwankungen beantwortet:
– Veränderungen der Sonneneinstrahlung waren wahrscheinlich Auslöser für die Abfolge von Eis- und Warmzeiten in einem Zyklus von etwa 100 000 Jahren.
– Schwankungen der solaren Strahlung (elfjähriger Zyklus) beeinflussen nur die obere Atmosphäre stärker, die mittlere und die erdnahe Atmosphäre aber nur unwesentlich.
– Die globale Erwärmung im 20. Jahrhundert ist nur zu einem geringen Anteil von etwa 10 % auf Einwirkungen durch die Sonne zurückzuführen.
(Quelle und nähere Informationen: Klima Konkret: Klimafaktor Sonne – Wie beeinflusst die Sonne das Klima der Erde? (Climate Service Center 05/2014), http://www.climate-service-center.de/053444/index_0053444.html.de.)

KOMMENTAR KALTE SONNE-REDAKTION:

In der Tat, das Ministerium hat keinen blassen Schimmer von den Studien zur solaren Klimabeeinflussung. Hier hätte man sie finden können. Stattdessen redet man sich mit Allgemeingeplaudere zu Milankovic und Schwabezyklus heraus. Interessanterweise gesteht man dann der Sonne einen 10%-Anteil an der Erwärmung des 20. Jahrunderts zu. Ob der geringe IPCC-Strahlungsantrieb der Sonne das wohl leisten kann? Der Link zur Sonnen-Broschüre des Climate Service Center führt dann ins Leere. Kein Anschluss unter dieser Nummer. Lediglich das Buchcover kann man sich anschauen.

 

5. FRAGE (Hocker et al.):

Inwieweit kann die Landesregierung ausschließen, dass der Einfluss der solaren Aktivitätsschwankungen bei der Klimaerwärmung des 20. Jahrhunderts höher liegt als bisher angenommen?

ANTWORT (Landesregierung):

Der aktuelle Stand der Wissenschaft ist im IPCC AR5 veröffentlicht (siehe die zuvor genannten wissenschaftlichen Aussagen).

KOMMENTAR KALTE SONNE-REDAKTION:

Verweis auf den AR5, der jedoch keinen Sinn macht, denn die vielen Fallbeispiele solarer Beeinflussung des vorindustriellen Klimas bleiben weiterhin unerklärt und der im AR5 selbst eingeräumte Modellierungsfehlschlag der MWP wird einfach verdrängt.

 

6. FRAGE (Hocker et al.):

Das Jahr 1850 wird in politischen Diskussionen oftmals als Bezugspunkt von Betrachtungen zum Klimawandel verwendet. Inwiefern hält die Landesregierung diesen Bezugspunkt für geeignet, berücksichtigend, dass es sich um die Schlussphase der sogenannten Kleinen Eiszeit handelt, einer natürlichen Kälteperiode, die eine kalte Extrementwicklung in der Klimageschichte der letzten 10 000 Jahre darstellt?

ANTWORT (Landesregierung):

In der Klimaforschung wird die Temperaturentwicklung bis heute beginnend mit dem Jahr 1850 betrachtet, da ab 1850 die Industrialisierung zu vermehrten Treibhausgasemissionen führte. Die Konzentration von CO2 in der Atmosphäre ist seit 1850 stark angestiegen, von dem für Warmzeiten seit mindestens 700 000 Jahren typischen Wert von 280 ppm auf inzwischen 400 ppm (2013). Jedoch werden die heutigen oder künftigen Temperaturverhältnisse (betrachtet als Mittelwert über eine Periode von z. B. mindestens 30 Jahren) nicht mit der Temperatur eines einzelnen Jahres, z. B. 1850, allein verglichen, sondern stets auch mit einem Mittelwert über eine Periode von min-destens 30 Jahren, je nach Fragestellung (wie z. B. 1881 bis 1980 (im Jahr 1881 begannen die Aufzeichnungen der Beobachtungen) oder 1961 bis 1990 (sogenannte Klimanormalperiode).

KOMMENTAR KALTE SONNE-REDAKTION:

Gleich zu Beginn ein schlimmer Fehler: Die Temperaturreihen beginnen nicht um 1850, weil das CO2 anstieg, sondern einfach weil man damals mit den systematischen Messungen begann. Böse Panne. Der Rest der Antwort ist Larifari, eine Antwort auf die Frage, weshalb man ausgerechnet die kälteste Phase der letzten 10.000 Jahre als Bezugsniveau für die aktuelle Erwärmung verwendet, hat die Landesregierung nicht.

 

FAZIT:

Das Niedersächsische Ministerium für Umwelt, Energie und Klimaschutz hat das Thema Klimawandel in keinster Weise im Griff. Die Antworten weichen den Fragen aus, wichtige Grundlagen scheinen unbekannt zu sein. Eine peinliche Geschichte. Aus der Vorbemerkung des Ministeriums in der Drucksache kann man erraten, dass man sich vermutlich vom ‘Climate Service Center Germany’ (schlecht) beraten ließ:

Bei ihrer Entscheidungsfindung greift die Landesregierung regelmäßig auf den fundierten Sachver-stand anerkannter wissenschaftlicher Institutionen in Deutschland zurück, bei Klimaprojektionen z. B. auf Dienstleistungen des Climate Service Center Germany (GERICS) in Hamburg.

Eben dieses GERICS hat sich soeben mit seinem neuen 346-seitigen Buch “Klimawandel in Deutschland“ kräftig blamiert (siehe “Buchrezension “Klimawandel in Deutschland”: Vor der Kleinen Eiszeit bleibt es zappenduster“).

 

 

Monitoringbericht “Klimawandel in Süddeutschland”: Temperaturen steigen seit 2000 kaum noch an

Im November 2016 wurde der Monitoringbericht “Klimawandel in Süddeutschland – Veränderungen von meteorologischen und hydrologischen Kenngrößen” veröffentlicht. Das pdf kann auf kliwa.de heruntergeladen werden. Das Ministerium für Umwelt, Klima und Energiewirtschaft in Baden-Württemberg gab dazu die folgende Pressemitteilung heraus:

Bericht zu Auswirkungen des Klimawandels in Süddeutschland veröffentlicht

Umweltminister Franz Untersteller: „Der Klimamonitoring-Bericht 2016 belegt, dass wir in Süddeutschland künftig mit zunehmend extremeren Wetterereignissen rechnen müssen.“

„Der Klimawandel schreitet nachweislich auch in Süddeutschland voran. Die Wetterereignisse der vergangenen Jahre passen gut in das erwartete Bild zukünftig häufiger auftretender Extreme.“ Das betonten der Baden-Württembergische Umweltminister Franz Untersteller, die Bayerische Umweltministerin Ulrike Scharf, die Rheinland-Pfälzische Umweltministerin Ulrike Höfken sowie der Vizepräsident des Deutschen Wetterdienstes Dr. Paul Becker heute (11.11.) anlässlich der Veröffentlichung eines neuen Monitoring-Berichts zur Klimaforschung in den drei Ländern.

Umweltminister Franz Untersteller: „Der aktuelle Bericht zeigt, vor welch große Herausforderungen uns der Klimawandel stellt. Nicht zuletzt das Jahrhunderthochwasser 2013, der extreme Trockensommer 2015 und die Starkregenereignisse 2016 haben uns dies mehr als verdeutlicht. Auf diese neuen Herausforderungen müssen wir lokal, national und international reagieren. Die gemeinsame Forschung spielt dabei eine entscheidende Rolle.”

Seit 2001 waren 14 von 15 Jahren in Süddeutschland zu warm

Laut dem aktuellen Klimamonitoringbericht stiegen in Süddeutschland die Temperaturen zwischen 1931 und 2015 bereits um etwa 1,3 Grad Celsius. Seit 2001 lagen insgesamt 14 von 15 Jahren in Süddeutschland, wie auch im gesamten Bundesgebiet, über dem langjährigen Mittel 1961 – 1990.

Die Klimaveränderungen beeinflussen auch den Wasserkreislauf in Baden-Württemberg. Im Winterhalbjahr kommt es zu mehr Niederschlägen, die zu steigenden Hochwasserabflüssen führen. Daneben sind die Sommermonate von steigenden Temperaturen und Trockenperioden gekennzeichnet. Es kommt verstärkt zu Niedrigwasserperioden in Oberflächengewässern und im Grundwasser. Seit 1974 nehmen die sogenannten Niedrigwasserabflüsse tendenziell ab. „Wir müssen daher damit rechnen, dass zukünftig in den Sommermonaten regional geringere Wasservorräte als bisher zur Verfügung stehen werden“, betonte Franz Untersteller.

[...]

Der KLIWA-Monitoring-Bericht 2016 ist ein Ergebnis der Kooperation „Klimaveränderung und Konsequenzen für die Wasserwirtschaft (KLIWA)“ der Länder Baden-Württemberg, Bayern und Rheinland-Pfalz sowie des Deutschen Wetterdienstes (DWD). Er bewertet und dokumentiert Veränderungen des Klimas und des Wasserhaushalts in Baden-Württemberg, Bayern und Rheinland-Pfalz seit 1931 bis zum Jahr 2015. Zusätzlich wurden erstmals außergewöhnliche und extreme Ereignisse des Zeitraums 2011 – 2015 und das Langzeitverhalten der mittleren Abflüsse in den Bericht aufgenommen.

Dem Bericht liegt eine Auswertung der bis ins Jahr 1931 zurückreichenden Wetterbeobachtungen des DWD und Abflussbeobachtungen der beteiligten Bundesländer zu Grunde. Diese Auswertungen werden in mehrjährigen Abständen fortgeschrieben, um ein konkretes Bild des regionalen Klimawandels und belastbare Daten insbesondere für wasserwirtschaftliche Planungen zu erhalten.

Fassen wir zusammen: Seit 2001 waren 14 von 15 Jahren in Süddeutschland zu warm. Im Bereich des Extremwetters werden Sommerdürren und Winter-Hochwasser durch Starkregen genannt, die laut Monitoringbericht angestiegen sein sollen und bei denen auch in Zukunft mit einer weiteren Steigerung in Süddeutschland gerechnet wird. Die Vergleichsdaten reichen bis 1931 zurück, was gut 80 Jahren entspricht. Immerhin ist dies etwas länger als ein 60-Jahres-Ozeanzyklus, der unser Wettergeschehen maßgeblich mitbestimmt. Andererseits ist die Datenreihe natürlich viel zu kurz, um natürliche Klimazyklen im Hundert- und Tausendjahres-Maßstab herausrechnen zu können. Der Zeitraum seit 1931 ist Teil der bekannten Erwärmung des 20. und frühen 21. Jahrhunderts, insofern sind Wärmtrends keine Überraschung.

Da der 60-seitige Bericht dankenswerterweise kostenlos herunterladbar ist, wollen wir diese Punkte prüfen. Was hat es mit der berichteten Wärmeanomalie der letzten 15 Jahre auf sich? Ist das genannte Extremwetter wirklich angestiegen? Wie sieht es bei Betrachtung von Zeiträumen über 1931 hinaus aus? Was sagen andere Studien zum zukünftigen Extremwetter?

Temperaturen

Auf Seite 20 finden wir in Abbildung 6 eine Kurve der Gebietsmiteltemperatur von Mosel-Sieg seit 1931:

 

Abbildung: Gebietsmitteltemperatur von Mosel-Sieg seit 1931. Rote Linie: gleitendes Mittel (auslaufender 10-Jahresfilter). Quelle: KLIWA Monitoringbericht 2016.

 

Gut zu erkennen ist die 60-Jahres-Ozeanzyklik in der Temperaturentwicklung: Abkühlung ab 1950, Erwärmung ab 1980, Beginn des Temperaturplateaus ab 2000. Die KLIWA-Aussage

“Seit 2001 waren 14 von 15 Jahren in Süddeutschland zu warm”

hätte genauso gut heißen können

“Seit 2000 steigen die Temperaturen kaum noch an”.

Die Begriffe “Hiatus”, “Plateau” und “gebremst” sucht man im Bericht übrigens vergeblich. Die Ozeanzyklen hingegen haben es in den Bericht erfreulicherweise geschafft:

Es zeigt sich über den 85-jährigen Zeitraum eine deutliche Zunahme der Lufttemperatur, wobei sich jedoch immer wieder wärmere Perioden mit etwas kälteren ab-wechseln. Diese Schwankungen werden durch großräumige atmosphärische Muster, wie die Nordatlantik-Oszillation (NAO), verursacht.

 

Hydroklima

Bei den Starkniederschlägen zeigt man lieber gar keine Verlaufskurven. In Abbildung 11 des Berichts kann man die Trends stattdessen in einer Karte ablesen, was wenig vertrauenswürdig ist. Wo sind die Kurven? Wie stark ist die Variabilität über die Jahrzehnte?

Bei den Hochwasserabflüssen gibt es über die letzten 85 Jahre mehr steigende als fallende Trends. Die stark heterogenen Ergebnisse stimmen nachdenklich. Hier spielen sicher auch Flussbegradigungen und Betonierung der Ufer eine Rolle, die die Pegel nach oben schnellen lassen.

Und was ist mit den Trockenperioden mit Niedrigwasserabflüssen?

Insgesamt lässt sich daraus schlussfolgern, dass die durchgeführten Auswertungen für das gesamte KLIWA-Gebiet keine eindeutigen Rückschlüsse für das Langzeitverhalten der Niedrigwasserabflüsse erlauben. Insgesamt zeigt sich für NQ(J) und NM7Q(J), dass eine geringe Mehrheit von zunehmenden Trends für den Zeitraum 1951 bis 2015 zu erkennen ist.

[...]

In einem langen Beobachtungszeitraum wechselten sich Nass- und Trockenperioden immer wieder ab, dazwischen lagen Jahre mit mittleren Grundwasserverhältnissen. Diese Perioden lassen sich bei allen Ganglinien erkennen, kommen aber auf Grund des großen erschlossenen Grundwasserspeichers besonders deutlich an der Messstelle Eglfing Lehrer, Haar (Abb. 22a) zur Geltung.

Abbildung: Grundwasserstandsganglinie Messstelle Haar. Abbildungsquelle: Abb 22a in KLIWA Monitoringbericht 2016

 

Von einer Zunahme von Trockenperioden ist in der exemplarischen Grundwasserstandsganglinie Haar keine Spur. Die Basis der Behauptung, die Sommer würden immer trockener werden, bleibt unklar.

Insgesamt fehlen natürlich längerfristige Betrachtungen. Schön wäre eine Erwähnung der Hölloch Höhle in Bayern gewesen, wo über Sauerstoffisotope die Temperaturentwicklung der Region für die vergangenen 14.000 Jahre ermittelt wurde. In der aus Wurth et al. 2004 stammenden Abbildung zeigen die d18O Werte (Kurve c) nach oben Wärme und nach unten Kälte an. Es fällt auf, dass die Temperaturen 7000-5000 Jahre vor heute zur Zeit des holozänen Klimaoptimums mehrfach das heute Wärmeniveau erreichten bzw. sogar übertrafen.

Abbildung: Sauerstoffisotopenkurve in (c) zeigt Temperaturentwicklung in der Bayerischen Hölloch Höhle. Quelle: Wurth et al. 2004.

 

Und auch die Veränderungen im Starkregen sind keine Überraschung. Ähnliche Veränderungen hat es in den letzten Jahrhunderten und Jahrtausenden stets gegeben, wie Untersuchungen von Czymzik et al. 2016 im Ammersee im Bayerischen Alpenvorland zeigten:

Abbildung: Häufigkeit von Überflutungslagen im bayerischen Ammersee während der letzten 5500 Jahre (BP=years before present). Abbildungsquelle: Czymzik et al. 2016.

 

Und genau das ist das Problem: Der langfristige klimahistorische Kontext wird einfach ausgeblendet, so dass die natürliche Schwankungsbreite ignoriert wird. Wenn dann eine Zeitreihe von 85 Jahren vorliegt, werden Veränderungen ohne zu zögern dem Menschen als anthropogene Leistung zugeordnet, ein geistiger Kurzschluss.

Weitere Lesetipps:

 

Greenpeace-Chefin Jennifer Morgan zieht bei IPCC und PIK unbehelligt die Strippen

Die bekannte Klimawissenschaftlerin Judith Curry hat zum 1. Januar 2017 ihren Universitätsjob am Georgia Institute of Technology gekündigt. Sie konnte ihren Studenten nicht mehr ruhigen Gewissens bei der Karriereplanung weiterhelfen, wie sie in ihrem Blog erklärte. Es gäbe nur zwei Extreme: Entweder hält man sich aus dem politisch verseuchten Klimabereich ganz heraus oder man kniet sich voll rein und kämpft für seine wissenschaftliche Integrität. Wer mit den Seilschaften nicht mitzieht begeht “Karriereselbstmord”.

A deciding factor was that I no longer know what to say to students and postdocs regarding how to navigate the CRAZINESS in the field of climate science. Research and other professional activities are professionally rewarded only if they are channeled in certain directions approved by a politicized academic establishment — funding, ease of getting your papers published, getting hired in prestigious positions, appointments to prestigious committees and boards, professional recognition, etc.

How young scientists are to navigate all this is beyond me, and it often becomes a battle of scientific integrity versus career suicide (I have worked through these issues with a number of skeptical young scientists).

Let me relate an interaction that I had with a postdoc about a month ago. She wanted to meet me, as an avid reader of my blog. She works in a field that is certainly relevant to climate science, but she doesn’t identify as a climate scientist. She says she gets questioned all the time about global warming issues, and doesn’t know what to say, since topics like attribution, etc. are not topics that she explores as a scientist. WOW, a scientist that knows the difference! I advised her to keep her head down and keep doing the research that she thinks interesting and important, and to stay out of the climate debate UNLESS she decides to dig in and pursue it intellectually. Personal opinions about the science and political opinions about policies that are sort of related to your research expertise are just that – personal and political opinions.  Selling such opinions as contributing to a scientific consensus is very much worse than a joke.

Vollständigen Text in Judith Curys Blog lesen.

—————-

Dass bei den politisierten Klimawissenschaften etwas Grundsätzliches nicht in Ordnung ist, sieht man auch an der engen Verbandelung von Klimainstituten und Aktivistenvereinigungen. Beispiel: Am 3. Januar 2017 berichtete Deutschlandradio Kultur über die Chefin von Greenpeace:

Die Klimaaktivistin an der Greenpeace-Spitze
Die US-Amerikanerin Jennifer Morgan ist eine der führenden Umweltaktivistinnen weltweit. An der Spitze von Greenpeace International kämpft sie gegen den Klimawandel. Auch der neue amerikanische Präsident könne das Pariser Abkommen nicht zurückdrehen, erklärt sie in “Im Gespräch”. [...] Nach Stationen beim renommierten World Resources Institute und dem WWF steht Jennifer Morgan seit letztem Frühjahr nun zusammen mit ihrer Kollegin Bunny McDiarmid an der Spitze von Greenpeace International.

Weiterlesen bei Deutschlandradio Kultur

Eine Kleinigkeit verschwieg das Deutschlandradio Kultur allerdings: Die Greenpeace-Aktivistin Morgan war beim letzten IPCC-Bericht (AR5) als Review Editor tätig. Klimaaktivismus an zentraler Stelle eines ursprünglich als unabhägig konzipierten Klimaberichts. Ein schlimmer Interessenskonflikt, der den Bericht stark entwertet. Aber es kommt noch besser. Jennifer Morgan sitzt nämlich als aktives Mitglied auch im Wissenschaftlichen Beirat des Potsdam Instituts für Klimafolgenforschung (PIK). Auf der Greenpeace-Webseite lesen wir dazu:

Jennifer has been cited in front-page articles in newspapers around the world on climate change and is regularly interviewed for radio and television programs. She has been Review Editor for the 5th Assessment Report of the Intergovernmental Panel on Climate Change (IPCC). She serves on the Germany Council on Sustainable Development and is a member of the Scientific Advisory Board of the Potsdam Institute for Climate Impact Research. At Germanwatch’s 20th anniversary celebration, Jennifer was named an honorary member of the organisation for her long-term commitment to international climate issues and the empowerment of civil society.

Und die Verquickung ist hier noch lange nicht zuende. Wie bereits zuvor an dieser Stelle berichtet, erhielt das PIK 2014/15 mehr als eine halbe Million Dollar von einem Greenpeace-nahem politischem Thinktank. Die wissenschaftliche Unabhängigkeit des PIK ist damit dahin. Aktivisten im IPCC und beim PIK – ein realer Albtraum. Kritik an diesem krassen Mißstand gibt es nur hinter vorgehaltener Hand, zu groß ist die Macht der verflochtenen klimalarmistischen Seilschaften. Nun wird klar, weshalb eine Topwissenschaftlerin wie Judith Curry das Handtuch wirft. Gegen diesen Filz ist schwer anzukommen.

—————-

Angela Rietdorf am 21. Dezember 2016 auf RP Online:

Früher war ganz sicher nicht alles besser

Autor und Journalist Michael Miersch kritisierte in seinem Vortrag beim Wissenschaftlichen Verein die aktuelle Lust am Weltuntergang. Unter dem Titel “Ökologismus und Irrwege des grünen Denkens” präsentierte er vielmehr Erfolgsstorys.

Wer geglaubt hat, Michael Miersch leugne den Klimawandel oder den menschlichen Einfluss darauf, sieht sich getäuscht. Der erfahrene Journalist und Autor ist zu klug und zu differenziert, um sich vor den Karren derer spannen zu lassen, die den Klimawandel für erfunden und Medien für lügenhaft halten. Was er kritisiert, ist die Lust am Weltuntergang, die Verbreitung von Angst und die Weigerung, positive Effekte und Entwicklungen wahrzunehmen und die eigenen Anschauungen kritisch zu reflektieren.

Weiterlesen auf RP Online

—————-

Das Landgericht Essen wies Anfang Dezember 2016 eine Klimaklage peruanischen Bergführers Saúl Luciano Lliuya gegen RWE ab. Lesen Sie hierzu einen Kommentar von Günter Ederer sowie die Sichtweise der beteiligten Aktivistengruppe Germanwatch, die eine Berufung erwägt.

 

Meeresspiegelexperten des IPCC erteilen Sintflutszenarien von Anders Levermann (PIK) klare Absage

Klimaalarm à la PIK am 18. Dezember 2016 in der Hamburger Morgenpost (MOPO):

Dramatische Folgen des Klimawandels Forscher: „Hamburg gibt es dann nicht mehr“
Hamburg wird absaufen. Und zwar noch in diesem Jahrhundert, wenn der Treibhausgas-Ausstoß nicht gestoppt wird. Davon ist Klimaforscher Anders Levermann (43) überzeugt. In einem Interview mit „Spiegel Online“ sagte er: „Mit jedem Grad Erderwärmung steigt der Meeresspiegel um mehr als zwei Meter.“ Wenn die Zwei-Grad-Grenze der globalen Erwärmung nicht eingehalten wird, „wird es irgendwann die Norddeutsche Tiefebene nicht mehr geben. Hamburg auch nicht“.

Das vollständige Originalinterview kann man bei SPON für 39 cent lesen, sozusagen Gruselsteuer. Auszug aus dem MOPO-Artikel:

“Levermann ist besorgt. Anfang Dezember lagen die Temperaturen am Nordpol 20 Grad über dem Normalwert. Auch am Südpol wird das Eis instabil. „Die Antarktis ist ein schlafender Riese, der gerade aufwacht“, sagt der Klimaforscher. „Ihr Schmelzwasser kann den Meeresspiegel langfristig um viele Meter erhöhen – nur das Tempo ist noch unklar.“ Zeit bleibe nicht mehr. “

So, so… die Antarktis. Wie gestaltet sich dieses “Aufwachen” bzw. angebliche allmähliche Auftauen? Eine Studie von Jay Zwally und Kollegen 2015 im Journal of Glaciology 2015 dokumentierte, dass das antarktische Inlandeis derzeit anwächst, nicht schmilzt. Das Wachstum soll sogar die nächsten 20 Jahre lang andauern. Danach ist die weitere Entwicklung unklar. Es ist nicht ausgeschlossen, dass zunehmender Schneefall den Eis-Wachstumstrend weiter unterstützen wird. Hier die Kurzfassung der Arbeit:

Mass gains of the Antarctic ice sheet exceed losses
Mass changes of the Antarctic ice sheet impact sea-level rise as climate changes, but recent rates have been uncertain. Ice, Cloud and land Elevation Satellite (ICESat) data (2003–08) show mass gains from snow accumulation exceeded discharge losses by 82 ± 25 Gt a–1, reducing global sea-level rise by 0.23 mm a–1. European Remote-sensing Satellite (ERS) data (1992–2001) give a similar gain of 112 ± 61 Gt a–1. Gains of 136 Gt a–1 in East Antarctica (EA) and 72 Gt a–1 in four drainage systems (WA2) in West Antarctic (WA) exceed losses of 97 Gt a–1 from three coastal drainage systems (WA1) and 29 Gt a–1 from the Antarctic Peninsula (AP). EA dynamic thickening of 147 Gt a–1 is a continuing response to increased accumulation (>50%) since the early Holocene. Recent accumulation loss of 11 Gt a–1 in EA indicates thickening is not from contemporaneous snowfall increases. Similarly, the WA2 gain is mainly (60 Gt a–1) dynamic thickening. In WA1 and the AP, increased losses of 66 ± 16 Gt a–1 from increased dynamic thinning from accelerating glaciers are 50% offset by greater WA snowfall. The decadal increase in dynamic thinning in WA1 and the AP is approximately one-third of the long-term dynamic thickening in EA and WA2, which should buffer additional dynamic thinning for decades.

Aus dem Text:

“If dynamic thinning continues to increase at the same rate of 4 Gt a–2 with no offset from further increases in snowfall, the positive balance of the AIS will decrease from the recent 82 Gt a–1 to zero in 20 years. However, compensating increases in snowfall with climate warming may also be expected (Gregory and Huybrechts, 2006;Winkelmann and others, 2012).”

Wie kommt Levermann auf seine abstrusen Thesen? Gelten in Potsdam vielleicht andere naturwissenschaftliche Gesetze, herrscht dort ein geistiges Sonderklima? Die neue Fakenews-Stelle der Bundesregierung wird den Potsdamern in Zukunft etwas genauer auf die Finger schauen müssen.

Konzentrieren wir uns lieber auf die harten Fakten, die Ole Humlum auf Climate4You zusammengetragen hat (siehe auch globale Meeresspiegelkurven auf der NASA-Webseite und AVISO). Laut Satellitenmessungen steigt der Meeresspiegel um 3,4 mm pro Jahr an.

Abbildung: Meeresspiegelanstieg seit 1992 laut Satellitenmessungen. Graphik: Climate4You.

 

Die Auswertung der Küstenpegelmessungen hingegen ergibt lediglich einen Anstieg von 2,1 mm pro Jahr. Der Grund ist ein künstlicher Streckfaktor, mit dem die Satellitenwerte erhöht werden. Die NOAA ermittelt auf Basis von Küstenpegeldaten einen globalen Meeresspiegelanstoeg von 1,7-1,8 mm pro Jahr.

Abbildung: Meeresspiegelanstieg seit 1992 laut Küstenpegelmessungen. Graphik: Climate4You.

 

Eine spürbare Beschleunigung des Meeresspiegelanstiegs ist in den Daten nicht zu erkennen, wenn man von den kurzmaßstäblichen Zyklen einmal absieht. Zum gleichen Ergebnis kommen auch Auswertungen von Albert Parker und Jan Kjetil Andersen. Eine Studie von Ocana et al. 2016 hält es zudem für möglich, dass natürliche interne Klimavariabilität als extern gesteuerter Klimatrend fehlgedeutet wurde.

Ein Forscherteam um Hans Visser ging im Juni 2015 im Journal of Geophysical Research der Frage nach, ob sich der Meeresspiegel in den letzten 100 Jahren nun beschleunigt hat oder nicht. Das Resultat lässt aufhorchen: Die Sichtweise hängt stark von der verwendeten statistischen Methode, Datenunsicherheiten sowie der Behandlung natürlicher Schwankungen ab:

A review of trend models applied to sea level data with reference to the “acceleration-deceleration debate”
Global sea levels have been rising through the past century and are projected to rise at an accelerated rate throughout the 21st century. This has motivated a number of authors to search for already existing accelerations in observations, which would be, if present, vital for coastal protection planning purposes. No scientific consensus has been reached yet as to how a possible acceleration could be separated from intrinsic climate variability in sea level records. This has led to an intensive debate on its existence and, if absent, also on the general validity of current future projections. Here we shed light on the controversial discussion from a methodological point of view. To do so, we provide a comprehensive review of trend methods used in the community so far. This resulted in an overview of 30 methods, each having its individual mathematical formulation, flexibilities, and characteristics. We illustrate that varying trend approaches may lead to contradictory acceleration-deceleration inferences. As for statistics-oriented trend methods, we argue that checks on model assumptions and model selection techniques yield a way out. However, since these selection methods all have implicit assumptions, we show that good modeling practices are of importance too. We conclude at this point that (i) several differently characterized methods should be applied and discussed simultaneously, (ii) uncertainties should be taken into account to prevent biased or wrong conclusions, and (iii) removing internally generated climate variability by incorporating atmospheric or oceanographic information helps to uncover externally forced climate change signals.

Anerkannte Meeresspiegelexperten erteilen den Sintflutszenarien von Anders Levermann eine klare Absage. Eine Forschergruppe um Peter Clark überprüfte im Dezember 2015 die Aussagen des 5. IPCC-Berichts zum Meeresspiegelanstieg. Der Bericht hatte seinerzeit einen Anstieg von etwa einem halben Meter bis 2100 vorhergesagt, mit leichten Unterschieden je nach verwendetem Emissionsszenario. Haben zwei weitere Jahre Forschung die IPCC-Prognose grundlegend verändert? Clark und Kollegen kommen zu einem deutlichen Ergebnis: Nein, die IPCC-Prognose von 2013 gilt weiter unveränderlich. Pech für Levermann und andere klimaaktivistische Kollegen, die der Öffentlichkeit lieber Anstiegsbeträge im Bereich von einem Meter und mehr vorgaukeln. Hier ein Auszug aus der Kurzfassung des Artikels von Clark et al. 2015, der im Fachblatt Current Climate Change Reports erschien:

Recent Progress in Understanding and Projecting Regional and Global Mean Sea Level Change
[...] These new results increase confidence in the AR5 likely range, indicating that there is a greater probability that sea level rise by 2100 will lie in this range with a corresponding decrease in the likelihood of an additional contribution of several tens of centimeters above the likely range. In view of the comparatively limited state of knowledge and understanding of rapid ice sheet dynamics, we continue to think that it is not yet possible to make reliable quantitative estimates of future GMSL rise outside the likely range. Projections of twenty-first century GMSL rise published since the AR5 depend on results from expert elicitation, but we have low confidence in conclusions based on these approaches. New work on regional projections and emergence of the anthropogenic signal suggests that the two commonly predicted features of future regional sea level change (the increasing tilt across the Antarctic Circumpolar Current and the dipole in the North Atlantic) are related to regional changes in wind stress and surface heat flux. Moreover, it is expected that sea level change in response to anthropogenic forcing, particularly in regions of relatively low unforced variability such as the low-latitude Atlantic, will be detectable over most of the ocean by 2040. The east-west contrast of sea level trends in the Pacific observed since the early 1990s cannot be satisfactorily accounted for by climate models, nor yet definitively attributed either to unforced variability or forced climate change.

Eine klare Watsche in Richtung Potsdam und den Versuch, die IPCC-Ergebnisse zu ignorieren und mit eigenfabriziertem Meeresspiegelzauber zu ersetzen. Ein unglaublicher Vorgang, auf den die deutschen Journalisten hereingefallen sind, ja vielleicht hereinfallen wollten.

 

Zwei Super-Christuskinder: El Nino 2015/16 erreichte ähnliche Stärke wie 1997/98

Kennen Sie schon die “Klimastiftung für Bürger“? Auf ihrer Internetseite beschreibt die Stiftung ihre Ziele wie folgt:

Die Stiftung möchte den Bürgern die Themen Klima, Umwelt, Schutz der Ressourcen und Erneuerbare Energien unabhängig von eigenen wirtschaftlichen Interessen näherbringen. Und dabei den Bürgern – Groß und Klein – anschaulich aufzeigen, wie sich diese am Klimaschutz und der Energiewende beteiligen können. Als operative Stiftung wollen wir auch vor Ort in den Kindergärten und in den Schulen lebensnahe, praxisorientierte Lern- und Bildungsangebote machen.

Die Stiftung hat ihre Heimat in der Metropolregion Rhein-Neckar und Technologieregion Karlsruhe. Thematisch orientieren wir uns an den Klimaauswirkungen an Rhein und Neckar. Mit dem Erlebniszentrum werden wir zum Teil über die Metropolregion Rhein-Neckar und Technologieregion Karlsruhe hinaus wirken.

Die Idee zur Einrichtung der Stiftung kam von einem Vertreter der Erneuerbaren Energien. Auf der Webseite heißt es dazu:

Woher kommt die Idee zu einer Klimastiftung?

Kai Zimmermann, der Ideengeber der Klimastiftung für Bürger, engagiert sich bereits seit über zehn Jahren im Bereich „Erneuerbare Energien“. Nach wie vor setzt er sich ehrenamtlich für die Agenda „Erneuerbare Energien“ in Sinsheim ein und ist zugleich Vorstand der BürgerEnergieGenossenschaft Adersbach-Sinsheim-Kraichgau eG.

2014 kontaktiert Kai Zimmermann Dietmar Hopp mit der Idee, eine bürgernahe Stiftung ins Leben zu rufen, welche den Zweck einer nachhaltigen Bewusstseinsbildung zu den Themen Klima, Umwelt, Schutz der Ressourcen und Erneuerbare Energien verfolgen sollte. Eine Stiftung, die all das Wissen über die erneuerbaren Energien, den Umwelt- und Klimaschutz, den schonenden Umgang mit den Ressourcen so praxisnah vermittelt, dass es bei den Menschen – bei Groß und Klein – ankommt.

Auf der FAQ-Seite wird dann auch die ‘Dietmar Hopp Stiftung’ als Hauptförderer der ‘Klimastiftung für Bürger’ angegeben:

Dank der Dietmar Hopp Stiftung, der Urheberin der neuen Klimastiftung für Bürger, sind die Grundkosten für die Stiftung im Allgemeinen sowie für den Bau des künftigen Erlebniszentrums für Klima und Energie gedeckt. Dadurch kommt jede weitere Unterstützung voll und ganz der inhaltlichen Arbeit und dem laufenden Betrieb zugute.

Leider gibt es auf der Webseite der Stiftung keine Sachinformationen zu den fachlichen Grundlagen des Klimawandels. Was genau soll an den Schulen gelehrt werden? Insofern ist relativ unklar, welchen Ansatz die Stiftung verfolgt. Es gilt zu hoffen, dass den Kindern und Jugendlichen Klimaalarm erspart und stattdessen ein ausgewogenes Bild des Klimawandels präsentiert wird.

—————-

Apropos Schüler. Das ‘Klimamanifest von Heiligenroth” veröffentlichte Mitte Dezember 2016 ein Video, in dem das Schulbuch “Seydlitz Geographie” hinsichtlich seiner Aussagen zum Klimawandel analysiert wird:

 

Unter anderem geht der Autor des Videos auch auf eine höchst fragwürdige Darstellung der Globaltemperatur in der ARD am 1. Dezember 2016 ein. Der TV-Wetterfrosch Karsten Schwanke präsentierte dort doch tatsächlich die Kurvenversion von Stefan Rahmstorf, obwohl der El Nino schon längt wieder abgeflaut war und die Monatstemperaturen wieder auf Normalniveau abgesunken waren. Was steckt hinter dieser alarmistischen Darstellung, bei der trickreicherweise ein gleitender 12-Monats-Mittelwert verwendet wird, welcher den El Nino maximal ausschlachtet?

 

 

In Wahrheit hätten die letzten 20 Jahre in der Graphik bei reeller Verwendung von Monatswerten und RSS-Satellitendaten so aussehen müssen:

Abbildung: Globale Temperaturentwicklung seit 1997 (RSS-Satellitendaten). Letzter Datenpunkt: November 2016. Gestrichelte Kurven geben Temperaturprognose von 2012 aus unserem Buch “Die kalte Sonne” wieder.

 

Die enorme Temperaturspitze 1997/98 im Diagramm stellt einen weiteren starken El Nino dar. Die University of New South Wales hat Mitte Dezember 2016 eine Animation zu diesem Ereignis veröffentlicht:

 

Hier die dazugehörige Pressemitteilung:

Extraordinary animation reveals ocean’s role in El Niños

Australian researchers, including from the UNSW-based ARC Centre of Excellence for Climate System Science, have produced a remarkable high-resolution animation of the largest El Niño ever recorded.

Australian researchers from the National Computational Infrastructure (NCI) and the ARC Centre of Excellence for Climate System Science, based at UNSW, have produced a remarkable high-resolution animation of the largest El Niño ever recorded. It is so detailed that it took 30,000 computer hours crunching ocean model data on Australia’s most powerful supercomputer, Raijin, before it could be extracted by the NCI visualisation team to produce. The animation looks beneath the ocean surface to reveal the oceanic processes that led to the 1997/98 El Niño – an event that caused billions of dollars of damage worldwide and was followed by consecutive strong La Niña events. “The animation shows how shifting pools of warmer or cooler than average water 300m below the surface of the ocean can trigger these powerful events,” said UNSW’s Dr Alex Sen Gupta, a member of the visualisation team from the ARC Centre of Excellence for Climate System Science.

“When these pools of water burst through to the surface and link up with the atmosphere they can set off a chain reaction that leads to El Niños or La Niñas,” Dr Sen Gupta said. The animation shows us that a well developed deep ocean observation system can give us advance warning of extreme El Niños and La Niñas. The ocean model that produced the animation used a 30km horizontal grid and split the vertical depth into 50 cells, which allowed the researchers to see the development of the El Niño and La Niñas at a high resolution. “Raijin gives us the capacity to model complex global systems like El Niño that require a high resolution for a better accuracy,” said Associate Professor Andy Hogg, a member of the team from the Australian National University. “It was these huge volumes of data produced by the model that meant we needed the specialist visualisation expertise from NCI to reveal what happened in detail.”

The 97/98 El Niño was a particularly damaging event. It was linked to massive forest fires in Indonesia, catastrophic flooding in Peru and the first “global” coral bleaching event that killed 16% of the world’s corals in a single year. While it is impossible to prevent such events, researchers believe and the model confirms that better observation systems can help us forecast them earlier. “The animation shows us that a well developed deep ocean observation system can give us advance warning of extreme El Niños and La Niñas,” said team member Dr Shayne McGregor from Monash University.

“Preserving and expanding the currently sparse observation system is critical to improving our seasonal prediction capability in the future.” Research over the past few years led by CSIRO and UNSW has indicated that “super” El Niños like the 97/98 event are likely to become more frequent as the climate warms. A member of the visualisation team from UNSW, Dr Agus Santoso found in 2013 that as the climate warms, we are likely to see noticeable changes to El Niños. “As the planet warms it also appears that the swings between the two extremes, from El Niño to La Niña like the 1997 to 1999 sequence, will become more frequent,” said Dr Santoso. “For this reason and many others a reliable early warning of El Niño and La Niña will be vital for farmers, industry groups and societies to be better prepared for the extreme conditions they inevitably bring.”

 

Wie hat der 2015/16 El Nino nun im Vergleich zum “Super-El Nino” 1997/98 abgeschnitten? Dazu schauen wir uns den Oceanic Nino Index (ONI) an:

Abbildung: Entwicklung und Intensitäten von El Nino (rot, oben) und La Nina (blau, unten) während der letzten 70 Jahre. Graphik: Jan Null. Daten: NOAA.

 

Der El Nino 2015/16 stand dem Super-El-Nino 1997/98 in nichts nach. Die ONI-Werte erreichten ein ähnliches Niveau. Eine wichtige Zusatzinformation, die die meisten Zeitungen und Sender der Bevölkerung offenbar nicht zumuten wollten.

 

 

Er schwimmt in Badehose durch die Antarktis – gegen den Klimawandel

Wie schrieb Erhard Horst Bellermann doch so schön in seinem Buch “Dümmer for One“:

Der Untergang der Welt
sich stets in Grenzen hält.

Das hält die Jugend von heute jedoch nicht davon ab, stets vom allerschlimmsten auszugehen. Sie ist den apokalyptischen Klimaszenarien gründlich auf den Leim gegangen und hilft tatkräftig bei ihrer Verbreitung mit, wie im Südkurier kurz vor Weihnachten 2016 zu lesen war:

Sternsinger ziehen von Haus zu Haus und warnen vor Klimawandel

Während die Sternsinger nur von Haus zu Hause ziehen, zieht es andere Klimaaktivisten in den Ozean. Ze.tt berichtete am 22. Dezember 2016:

Er schwimmt in Badehose durch die Antarktis – gegen den Klimawandel
Seit 2013 ist Lewis Pugh der Patron of the Ocean der Vereinten Nationen. Der 47-Jährige hat sich dem Ziel verschrieben, die Mächtigen der Welt zum Zuhören zu bringen. Sie sollen zuhören, wenn Klimaaktivist*innen und Ozeanograph*innen vor Klimawandel, Umweltverschmutzung und Überfischung warnen. Um das zu erreichen, gibt er vollen Körpereinsatz. Wortwörtlich. Denn Lewis Pugh ist Schwimmer. Und er schwimmt – lediglich mit einer Speedo bekleidet – in Gebieten, in denen andere nichtmal den kleinen Zeh ins Wasser halten würden:

Weiterlesen auf Ze.tt

In diese Serie von klimatischen Topnachrichten gehört auch die folgende Pressemitteilung der Universität Köln vom 21. Dezember 2016, in der Tips gegeben werden, wie man kritisch mitdenkende Familienangehörige in den Weihnachtsferien zum klimaalarmistischen Glauben bekehrt:

Das Weihnachtsessen retten und dabei Klimaskeptiker überzeugen

Das Weihnachtsessen retten und dabei Klimaskeptiker überzeugen
Kölner Psychologen beschreiben in renommierter Fachzeitschrift wie man Konservative überzeugt

Weihnachten naht und viele Familien treffen sich zu einem festlichen Mal. Doch was, wenn das Gespräch auf den Klimawandel kommt? Die Einen glauben den wissenschaftlichen Fakten, die anderen halten alles für eine ausgemachte Lüge. Das Weihnachtsfest steht auf der Kippe. Wie kann man die konservativen Familienmitglieder überzeugen? Hilft es, die wissenschaftlichen Fakten herunterzubeten? „Nein, denn die werden ja abgelehnt. Besser wäre es, eine andere Strategie anzuwenden“, sagen Matthew Baldwin und Joris Lammers vom Social Cognition Center der Universität zu Köln: „Berufen Sie sich stattdessen auf die Vergangenheit.“

Der Klimawandel ist eines der wichtigsten politischen Themen des 21. Jahrhunderts. Trotz umfassender Beweise wie steigenden Meeresspiegel, steigender Durchschnittstemperaturen oder neuartiger Wettermuster zweifeln politisch konservativ denkende Menschen weit eher am Klimawandel als Liberale. Wieso ist das so? „Ihr zeitlicher Fokus liegt in der Vergangenheit“, antworten die beiden Wissenschaftler vom Social Cognition Center der Universität zu Köln nun in ihrer neuen Studie in der renommierten Zeitschrift Proceedings of the National Academy of Sciences (PNAS). In sechs Studien haben sie an 1600 Probanden ihre These überprüft. Ihr Vorschlag: Konservative sollten in der Diskussion über den Klimawandel mit Verweisen auf die Vergangenheit und Werte überzeugt werden.

Die Autoren der Studie gingen von der These aus, dass Konservative, anders als Liberale, nicht bereit sind, auf die wissenschaftliche Argumentation bezüglich des Klimawandels einzugehen, weil es einen fundamentalen Unterschied im zeitlichen Bezugspunkt zwischen beiden Gruppen gibt, so Joris Lammers: „Konservative schätzen die Vergangenheit, haben einen größeren Respekt vor Traditionen und fokussieren sich im Allgemeinen stärker auf die Vergangenheit als Liberale es tun. Deswegen reagieren sie nicht so stark auf Botschaften, die sich auf die Zukunft beziehen, z.B. Nachrichten, die den Effekt des Klimawandels auf unsere zukünftige Umwelt beschreiben.“

Um ihre These zu überprüfen, untersuchten Baldwin und Lammers die Reaktionen von 1600 Probanden auf Botschaften, die sich auf den Klimawandel bezogen. Dabei formulierten die Psychologen auch Nachrichten, die den Kampf gegen den Klimawandel als Erhalt der Welt unserer Vorfahren formulierten und insbesondere die Konservativen ansprechen sollten.
Es zeigte sich, dass solche vergangenheitsfokussierte Nachrichten die Kluft zwischen Konservativen und Liberalen schlossen, so Lammers: „Nachdem Konservative eine vergangenheitsfokussierte Nachricht gelesen hatten, zeigten Konservative und Liberale eine ähnliche hohe Bereitschaft, gegen den Klimawandel vorzugehen oder Organisationen Geld zu spenden, die gegen den Klimawandel kämpfen.“ Zwar waren die Konservativen immer noch skeptischer als die Liberalen, aber die relative Stärke ihrer Opposition hatte um 77% abgenommen, ermittelten die Forscher.

Die Studie zeigt, wie psychische Prozesse, z.B. zeitliche Vergleiche, den ideologischen Spalt in der Diskussion über den Klimawandel unterfüttern. Deswegen sei es besser die psychischen Prozesse von Menschen mit konservativen Wertvorstellungen in Betracht zu ziehen, die hinter ihrer ideologischen Ausrichtung stehen, als die frontale Auseinandersetzung mit ihnen zu suchen, so die Forscher. „Die Ergebnisse unserer Studie eröffnen einen vielversprechenden Ansatz, Konservative von der Notwendigkeit zu überzeugen, sich dem Klimawandel entgegenzustellen. Damit könnte man eine Koalition über die Parteigrenzen hinweg schmieden“, so Joris Lammers.

Um nun auch das Weihnachtsessen zu retten und auch die skeptischen Familienmitglieder zu überzeugen, gibt Lammers den folgenden Tipp: „Appellieren Sie an seine nostalgischen Gefühle. Sprechen Sie darüber, wie schön der Schwarzwald, der Bayrische Wald oder die Eifel früher waren und wie die Kinder auf den Straßen spielen konnten, ohne fürchten zu müssen von Autos überfahren zu werden“, empfiehlt er. „Wenn man sich bei Konservativen auf die Vergangenheit beruft, kann man sie überzeugen und es gibt ein harmonisches Weihnachtsessen.“

Link: http://www.pnas.org/content/early/2016/12/07/1610834113.abstract

Eine wirklich geniale Idee, die Vergangenheit als Bezugspunkt zu betonen. Dann wäre beiden Lagern geholfen. Die wichtigste zu klärende Fragen:

Weshalb war es vor 1000 Jahren schon einmal so warm wie heute, obwohl das CO2 vorindustriell niedrig war? Und weshalb können die aktuellen Klimamodelle diese Mittelalterliche Wärmephase nicht reproduzieren? Zusatzfrage: Weshalb werden die im ‘Hindcast’ gescheiterten Modelle trotzdem für Zukunftsprognosen (‘Forecast’) verwendet? Toller Gesprächsstoff für die kommende Familien- und Geburtstagsfeiern.

 

Wichtiger Etappenerfolg: Wolken als Klimaverstärker der atlantischen Ozeanzyklen bestätigt

Im September 2016 erschien in den Geophysical Research Letters eine hochspannende Arbeit eines Teams um Katinka Bellomo, die einen Klima-Verstärker der Atlantischen Multidekadenoszillation (AMO) auf Basis von Wolken beschreibt. Laut dieser Studie geht bis zu einem Drittel der AMO-assoziierten Temperaturveränderungen auf das Konto von Wolkeneffekten. Hier der Abstract:

New observational evidence for a positive cloud feedback that amplifies the Atlantic Multidecadal Oscillation
The Atlantic Multidecadal Oscillation (AMO) affects climate variability in the North Atlantic basin and adjacent continents with potential societal impacts. Previous studies based on model simulations and short-term satellite retrievals hypothesized an important role for cloud radiative forcing in modulating the persistence of the AMO in the tropics, but this mechanism remains to be tested with long-term observational records. Here we analyze data sets that span multiple decades and present new observational evidence for a positive feedback between total cloud amount, sea surface temperature (SST), and atmospheric circulation that can strengthen the persistence and amplitude of the tropical branch of the AMO. In addition, we estimate cloud amount feedback from observations and quantify its impact on SST with idealized modeling experiments. From these experiments we conclude that cloud feedbacks can account for 10% to 31% of the observed SST anomalies associated with the AMO over the tropics.

Bereits im Februar 2016 erschien in der selben Zeitschrift ein Artikel von Tianle Yuan und Kollegen zum gleichen Thema. Die Autoren bemängeln zunächst, dass die gängigen Klimamodelle den AMO-Ozeanzyklus im tropischen Bereich nicht reproduzieren können. Anschließend beschreiben Sie einen Verstärkermechanismus über tiefhängende Wolken, der die AMO in die Modelle bringen könnte. Anbei die Kurzfassung:

Positive low cloud and dust feedbacks amplify tropical North Atlantic Multidecadal Oscillation
The Atlantic Multidecadal Oscillation (AMO) is characterized by a horseshoe pattern of sea surface temperature (SST) anomalies and has a wide range of climatic impacts. While the tropical arm of AMO is responsible for many of these impacts, it is either too weak or completely absent in many climate model simulations. Here we show, using both observational and model evidence, that the radiative effect of positive low cloud and dust feedbacks is strong enough to generate the tropical arm of AMO, with the low cloud feedback more dominant. The feedbacks can be understood in a consistent dynamical framework: weakened tropical trade wind speed in response to a warm middle latitude SST anomaly reduces dust loading and low cloud fraction over the tropical Atlantic, which warms the tropical North Atlantic SST. Together they contribute to the appearance of the tropical arm of AMO. Most current climate models miss both the critical wind speed response and two positive feedbacks though realistic simulations of them may be essential for many climatic studies related to the AMO.

Wo wir gerade beim Thema Wolken sind. Noch bis zum 21. Januar 2017 sind zwei Wolkendokus auf zdf.de anzuschauen:

Operation Cloud Lab: Wolkenjäger
Ein Forscherteam überfliegt die USA in einem der weltweit größten Luftschiffe und unternimmt dabei eine Reihe außergewöhnlicher Experimente zur Klärung von Wetterphänomenen.

Hier geht es zum Video.

Und hier die zweite Doku:

Operation Cloud Lab: Der Himmel lebt
Wissenschaftler untersuchen in ihrem “fliegenden Labor” über den USA das Leben in der Erdatmosphäre in extremer Höhe. Welchen Einfluss hat der Mensch auf die Atmosphäre?

Hier geht es zum Video.

 

Purer Zufall: Solares Minimum soll angeblich nichts mit den Kältewintern der 1430er Jahre zu tun haben

Am 21. Dezember 2016 konnte man bei Radio SRF wieder einmal einen klimawandlerischen Lückentext bestaunen. Durch gezieltes Weglassen wichtiger Informationen wurde der Zuhörer effektiv in die Irre geleitet. Dritter Beitrag vom “Echo der Zeit”:

Klimaforscher in den USA bringen ihre Daten in Sicherheit

In den USA demonstrieren Wissenschaftler auf der Strasse für die Klimaforschung. Einige von ihnen sichern sogar ihre Forschungsdaten auf externen Rechnern, Weil sie befürchten, dass Klimaforschungsdaten unter der Regierung Trump als missliebig gelöscht werden könnten.

Begegnung mit Ray Bradley in Bern.

Welche Mechanismen greifen, wenn Menschen leugnen, worüber in der Wissenschaft Konsens herrscht – dass der Klimawandel vom Menschen gemacht ist? Klaus Oberauer, Professor für Psychologie an der Universität Zürich, hat dazu geforscht. Das Gespräch.

Ray Bradley, einer der Co-Autoren der berühmt-berüchtigten “Hockey-Stick-Kurve” von Michael E. Mann, darf sich im Beitrag als ungerecht verfolgtes Opfer von angeblich durch “Big Oil” gekaufte US-Politiker darstellen. Leider haben die SRF-Journalisten “rein zufällig” vergessen, die andere Seite der Story zu berichten, dass nämlich die “Hockey-Stick-Kurve” wissenschaftlich längst widerlegt ist und deren Autoren völlig zurecht für grobe Verstöße gegen wissenschaftliche Standards kritisiert wurden, siehe z.B. hier.

Gleich im Anschluss darf dann “Klima-Experte” und Psychologie-Prof. Klaus Oberauer die Skeptiker des überzogenen IPCC-Klima-Alarmismus, als “Verschwörungstheorie-Trottel” oder konservativ verbohrte “Wissenschaftsleugner” abkanzeln. Schade, dass die SRF-Zuhörer auch hier nicht die volle Wahrheit über den Hintergrund von Oberauer erfahren dürfen. Er ist nämlich Co-Autor von einschlägig bekannten Aktivistenartikeln zusammen mit seinem Mitstreiter Stephan Lewandowski, in welchen IPCC-Skeptiker unter krasser Verdrehung der realen Datenbasis als irre Verschwörungstheoretiker dargestellt werden (siehe z.B. hier). Ausserdem ist es mehr als fragwürdig, dass sich Oberauer im SRF-Radio-Interview als scheinbar neutraler Beobachter inszenieren darf, obwohl er in Wirklichkeit ein lupenreiner Öko-Aktivist ist.

—————-

Beitrag zur Kleinen Eiszeit auf BBC Radio “Science in Action” am 16. Dezember 2016:

Europe’s Coldest Decade
In the midst of the Little Ice Age, winter temperatures plummeted even lower in the extraordinary decade of 1430-1440. Rivers, lakes and coastlines froze over year after year. Seeds perished, flocks dwindled, famine ensued, and soon minorities and witches were being blamed for the miserable conditions. Historian Chantal Camenisch and Kathrin Keller of Bern University look into what may have been the worst decade in European weather in almost a millennium.

Es geht um eine Arbeit von Chantal Camenisch und Kollegen in Climate of the Past, in der die kalten Winter der 1430er Jahre als zufällige Laune der Natur beschrieben werden, die angeblich nichts mit dem zeitgleichen solaren Spörer-Minimum zu tun haben sollen. Kurios: Unmittelbar nach dem Interview mit den beiden Schweizer Autorinnen wird unter Hinweis auf andere Arbeiten von der BBC eingeräumt, dass kalte Winter sehr wohl mit geringer Sonnenaktivität verbunden wären.

Hier die dazugehörige Pressemitteilung zum Paper, die am 1. Dezember 2016 von der European Geosciences Union herausgegeben wurde:

The Coldest Decade of the Millennium? How the cold 1430s led to famine and disease

While searching through historical archives to find out more about the 15th-century climate of what is now Belgium, northern France, Luxembourg, and the Netherlands, Chantal Camenisch noticed something odd. “I realised that there was something extraordinary going on regarding the climate during the 1430s,” says the historian from the University of Bern in Switzerland.

Compared with other decades of the last millennium, many of the 1430s’ winters and some springs were extremely cold in the Low Countries, as well as in other parts of Europe. In the winter of 1432–33, people in Scotland had to use fire to melt wine in bottles before drinking it. In central Europe, many rivers and lakes froze over. In the usually mild regions of southern France, northern and central Italy, some winters lasted until April, often with late frosts. This affected food production and food prices in many parts of Europe. “For the people, it meant that they were suffering from hunger, they were sick and many of them died,” says Camenisch.

She joined forces with Kathrin Keller, a climate modeller at the Oeschger Centre for Climate Change Research in Bern, and other researchers, to find out more about the 1430s climate and how it impacted societies in northwestern and central Europe. Their results are published today in Climate of the Past, a journal of the European Geosciences Union.

They looked into climate archives, data such as tree rings, ice cores, lake sediments and historical documents, to reconstruct the climate of the time. “The reconstructions show that the climatic conditions during the 1430s were very special. With its very cold winters and normal to warm summers, this decade is a one of a kind in the 400 years of data we were investigating, from 1300 to 1700 CE,” says Keller. “What cannot be answered by the reconstructions alone, however, is its origin – was the anomalous climate forced by external influences, such as volcanism or changes in solar activity, or was it simply the random result of natural variability inherent to the climate system?”

There have been other cold periods in Europe’s history. In 1815, Mount Tambora – a volcano in Indonesia – spewed large quantities of ash and particles into the atmosphere, blocking enough sunlight to significantly reduce temperatures in Europe and other parts of the world. But the 1430s were different, not only in what caused the cooling but also because they hadn’t been studied in detail until now.

The climate simulations ran by Keller and her team showed that, while there were some volcanic eruptions and changes in solar activity around that time, these could not explain the climate pattern of the 1430s. The climate models showed instead that these conditions were due to natural variations in the climate system, a combination of natural factors that occurred by chance and meant Europe had very cold winters and normal to warm summers. [See note]

Regardless of the underlying causes of the odd climate, the 1430s were “a cruel period” for those who lived through those years, says Camenisch. “Due to this cluster of extremely cold winters with low temperatures lasting until April and May, the growing grain was damaged, as well as the vineyards and other agricultural production. Therefore, there were considerable harvest failures in many places in northwestern and central Europe. These harvest failures led to rising food prices and consequently subsistence crisis and famine. Furthermore, epidemic diseases raged in many places. Famine and epidemics led to an increase of the mortality rate.” In the paper, the authors also mention other impacts: “In the context of the crisis, minorities were blamed for harsh climatic conditions, rising food prices, famine and plague.” However, in some cities, such as Basel, Strasbourg, Cologne or London, societies adapted more constructively to the crisis by building communal granaries that made them more resilient to future food shortages.

Keller says another decade of very cold winters could happen again. “However, such temperature variations have to be seen in the context of the state of the climate system. Compared to the 15th century we live in a distinctly warmer world. As a consequence, we are affected by climate extremes in a different way – cold extremes are less cold, hot extremes are even hotter.”

The team says their Climate of the Past study could help people today by showing how societies can be affected by extreme climate conditions, and how they should take precautions to make themselves less vulnerable to them. In the 1430s, people had not been exposed to such extreme conditions before and were unprepared to deal with the consequences.

“Our example of a climate-induced challenge to society shows the need to prepare for extreme climate conditions that might be coming sooner or later,” says Camenisch. “It also shows that, to avoid similar or even larger crises to that of the 1430s, societies today need to take measures to avoid dangerous anthropogenic climate interference.”

Note:
Even without the influence of external factors, the climate can vary naturally because of the way the different components of the climate system (such as atmosphere, oceans or land) interact with each other. El Niño, a warming of the eastern equatorial Pacific Ocean, is an example of natural variability. This phenomenon happens every 2 to 7 years and causes changes in temperature and rainfall also in other parts of the world for months. The type of natural variability responsible for the 1430s climate conditions is another, much less common, example.

 

Hurrikan-Gefahr an der US-Atlantikküste war während der Mittelalterlichen Wärmephase besonders hoch

Bis zum 14. Januar 2017 kann man sich auf zdf.de noch den Dokumentarfilm”Der Hurrikan von Galveston” anschauen, einem Supersturm der vor mehr als hundert Jahren die Küstenregion von Houston zerstörte. Aus der Film-Beschreibung:

Die Insel-Stadt Galveston wird am 8. September 1900 durch einen Hurrikan ausgelöscht. Nachdem die einzige Brücke zum Festland zerstört war, saßen 37 000 Bewohner in einer tödlichen Falle.

Wieder einmal ist der Kontext wichtig. Die American Geophysical Union (AGU) dokumentierte am 11. Februar 2015 die Hurrikangeschichte der letzten 2000 Jahre an der Nordostküste der USA. Unerwartet: In den Zeiten 150-1150 n.Chr. und 1400-1675 n.Chr. ereigneten sich Hurrikan-reiche Phasen, in denen Stürme auftraten, die jene der letzten 150 Jahre bei weitem übertrafen:

Monster hurricanes reached U.S. Northeast during prehistoric periods of ocean warming

Intense hurricanes possibly more powerful than any storms New England has experienced in recorded history frequently pounded the region during the first millennium, from the peak of the Roman Empire into the height of the Middle Ages, according to a new study. The findings could have implications for the intensity and frequency of hurricanes that the U.S. East and Gulf coasts could experience as ocean temperatures increase as a result of climate change, according to the study’s authors.

A new record of sediment deposits from Cape Cod, Mass., show evidence that 23 severe hurricanes hit New England between the years 250 and 1150, the equivalent of a severe storm about once every 40 years on average. Many of these hurricanes were likely more intense than any that have hit the area in recorded history, according to the study. The prehistoric hurricanes were likely category 3 storms – like Hurricane Katrina — or category 4 storms – like Hurricane Hugo — that would be catastrophic if they hit the region today, according to Jeff Donnelly, a scientist at Woods Hole Oceanographic Institution in Massachusetts and lead author of the new paper accepted for publication in Earth’s Future, a journal of the American Geophysical Union.

The study is the first to find evidence of historically unprecedented hurricane activity along the northern East Coast of the United States, Donnelly said. It also extends the hurricane record for the region by hundreds of years, back to the first century, he said. “These records suggest that the pre-historical interval was unlike what we’ve seen in the last few hundred years,” said Donnelly. The most powerful storm to ever hit Cape Cod in recent history was Hurricane Bob in 1991, a category 2 storm that was one of the costliest in New England history. Storms of that intensity have only reached the region three times since the 1600s, according to Donnelly.

The intense prehistoric hurricanes were fueled in part by warmer sea surface temperatures in the Atlantic Ocean during the ancient period investigated than have been the norm off the U.S. East Coast over the last few hundred years, according to the study. However, as oceans temperatures have slowly inched upward in recent decades, the tropical North Atlantic sea surface has surpassed the warmth of prehistoric levels and is expected to warm further over the next century as the climate heats up, Donnelly said. He said the new study could help scientists better predict the frequency and intensity of hurricanes that could hit the U.S. East and Gulf coasts in the future. “We hope this study broadens our sense of what is possible and what we should expect in a warmer climate,” Donnelly said. “We may need to begin planning for a category 3 hurricane landfall every decade or so rather than every 100 or 200 years.” “The risk may be much greater than we anticipated,” he added.

Donnelly and his colleagues examined sediment deposits from Salt Pond near Falmouth on Cape Cod. The pond is separated from the ocean by a 1.3- to 1.8-meter (4.3- to 5.9-foot) high sand barrier. Over hundreds of years, strong hurricanes have deposited sediment over the barrier and into the pond where it has remained undisturbed. The researchers extracted nine-meter (30-foot) deep sediment cores that they then analyzed in a laboratory. Similar to reading a tree ring to tell the age of a tree and the climate conditions that existed in a given year, scientists can read the sediment cores to tell when intense hurricanes occurred. The study’s authors found evidence of 32 prehistoric hurricanes, along with the remains of three documented storms that occurred in 1991, 1675 and 1635.

The prehistoric sediments showed that there were two periods of elevated intense hurricane activity on Cape Cod – from 150 to 1150 and 1400 to 1675. The earlier period of powerful hurricane activity matched previous studies that found evidence of high hurricane activity during the same period in more southerly areas of the western North Atlantic Ocean basin – from the Caribbean to the Gulf Coast. The new study suggests that many powerful storms spawned in the tropical Atlantic Ocean between 250 and 1150 also battered the U.S. East Coast. The deposits revealed that these early storms were more frequent, and in some cases were likely more intense, than the most severe hurricanes Cape Cod has seen in historical times, including Hurricane Bob in 1991 and a 1635 hurricane that generated a 20-foot storm surge, according to Donnelly.

High hurricane activity continued in the Caribbean and Gulf of Mexico until 1400, although there was a lull in hurricane activity during this time in New England, according to the new study. A shift in hurricane activity in the North Atlantic occurred around 1400 when activity picked up from the Bahamas to New England until about 1675. The periods of intense hurricanes uncovered by the new research were driven in part by intervals of warm sea surface temperatures that previous research has shown occurred during these time periods, according to the new study.  Previous research has also shown that warmer ocean surface temperatures fuel more powerful storms.

The sediment coring and analysis by Donnelly and his colleagues “is really nice work because it gives us a much longer period perspective on hurricanes,” said Kerry Emanuel, a professor of atmospheric science at the Massachusetts Institute of Technology in Cambridge. “It gives you something that you otherwise wouldn’t have any knowledge of.” The new research was funded in part by the National Science Foundation’s Division of Ocean Sciences.

Das entsprechende Paper “Climate forcing of unprecedented intense-hurricane activity in the last 2000 years” von Donnelly et al. 2015 kann als pdf kostenlos im Open-Access-Verfahren heruntergeladen werden.

Die Hurrikangeschichte Floridas war Thema einer Studie von Christian Ercolani und Kollegen, die im Oktober 2015 in den Quaternary Science Reviews herauskam. Das Forscherteam fand, dass Hurrikane während der Mittelalterlichen Wärmeperiode häufiger auftraten und in der nachfolgenden Kleinen Eiszeit deutlich weniger wurden. Dies deutet daraufhin, dass das Hurrikangeschehen in Florida an die Oberflächentemperatur des Atlantikwassers gekoppelt ist. Hier der Abstract:

Intense Southwest Florida hurricane landfalls over the past 1000 years
Recent research has proposed that human-induced sea surface temperature (SST) warming has led to an increase in the intensity of hurricanes over the past 30 years. However, this notion has been challenged on the basis that the instrumental record is too short and unreliable to reveal long-term trends in hurricane activity. This study addresses this limitation by investigating hurricane-induced overwash deposits (paleotempestites) behind a barrier island in Naples, FL, USA. Paleotempestologic proxies including grain size, percent calcium carbonate, and fossil shells species were used to distinguish overwash events in two sediment cores spanning the last one thousand years. Two prominent paleotempestites were observed in the top 20 cm of both cores: the first identified as Hurricane Donna in 1960 whereas an older paleotempestite (1900–1930) could represent one of three documented storms in the early 1900s. An active period of hurricane overwash from 1000 to 500 yrs. BP and an inactive period from 500 to 150 yrs. BP correlate with reconstructed SSTs from the Main Development Region (MDR) of the North Atlantic Ocean. We observe an increased number of paleotempestites when MDR SSTs are warmer, coinciding with the Medieval Warm Period, and very few paleotempestites when MDR SSTs are cooler, coinciding with the Little Ice Age. Results from this initial Southwest Florida study indicate that MDR SSTs have been a key long-term climate driver of intense Southwest Florida hurricane strikes.

Highlights:

  • MDR SSTs have been a key long-term climate driver of Southwest Florida hurricanes.

  • We observe an increased number of paleotempestites when MDR SSTs are warmer.

  • An active period of hurricane overwash was observed from 1000 to 500 yrs. BP.

  • An inactive period of hurricane overwash was observed from 500 to 150 yrs. BP.

  • Correlations exist between the Little Ice Age, Medieval Warm Period, and our record.

————–

Wir wünschen allen Lesern ein gesundes, frohes und erfolgreiches 2017!

Bildung von Schwefeldioxid und von kühlenden Wolken über den Ozeanen wird in den bisherigen Klimamodellen offenbar überschätzt

Pressemitteilung des Leibniz-Institut für Troposphärenforschung (TROPOS) in Leipzig vom 3. November 2016:

—–

Wirkung des Meeresgeruchs in Klimamodellen bisher überschätzt

Umfassendste Studie zur atmosphärischen Oxidation des natürlichen Klimagases Dimethylsulfid veröffentlicht

Die Bildung von Schwefeldioxid aus der Oxidation von Dimethylsulfid (DMS) und damit auch von kühlenden Wolken über den Ozeanen wird in den bisherigen Klimamodellen offenbar überschätzt. Das schließen Wissenschaftler des Leibniz-Instituts für Troposphärenforschung (TROPOS) aus einer Modellstudie zu den Auswirkungen von Dimethylsulfid auf die Atmosphärenchemie. Bisher berücksichtigen Modelle mit der Oxidation in der Gasphase lediglich einen Teil des Oxidationsweges und vernachlässigen wichtige Pfade in der flüssigen Phase der Atmosphäre, schreibt das Team im Fachjournal PNAS bei der Veröffentlichung der bisher umfangreichsten mechanistischen Studie zur Multiphasenoxidation dieser Substanz. Die Ergebnisse zeigten, dass mehr Wissen über die Multiphasenoxidation von Dimethylsulfid und der entstehenden Substanzen notwendig sei, um die Atmosphärenchemie und deren Klimawirkungen über den Ozeanen besser zu verstehen und damit folglich auch die Genauigkeit der Klimaprognosen zu erhöhen.

Dimethylsulfid (DMS) wird von Mikroorganismen gebildet und ist beispielsweise auch Teil des Mundgeruches. Angenehmer in Erinnerung bleibt es dagegen als typischer Geruch des Meeres. DMS ist die häufigste natürliche Schwefelverbindung in der Atmosphäre. Vor allem die Ozeane, die rund 70 Prozent der Erdoberfläche ausmachen, tragen dazu bei. DMS wird von Phytoplankton gebildet und gast dann aus dem Meerwasser aus. In der Atmosphäre oxidiert DMS über Dimethylsulfoxid (DMSO) und Schwefeldioxid (SO2) zu Schwefelsäure (H2SO4). Diese kann neue Wolkenkeime bilden, aus denen neue Wolkentröpfchen entstehen können, welche die marinen Wolken optisch aufhellen und damit die Strahlungswirkung von Wolken und folglich das Klima auf der Erde beeinflussen. Daher ist das Verstehen und Quantifizieren dieser chemischen Prozesse in der Atmosphäre von großer Bedeutung für das Wissen zum natürlichen Klimaeffekt.

Der Oxidationsprozess von DMS wurde bereits in verschiedenen Modellstudien untersucht – allerdings ohne die Flüssigphasenchemie ausreichend zu berücksichtigen. Um diese Lücken zu schließen haben Wissenschaftler am TROPOS einen umfangreichen Multiphasenchemie-Mechanismus entwickelt („Chemical Aqueous Phase Radical Mechanism DMS Module 1.0“), welcher mit dem Gasphasenmechanismus (MCMv3.2) und dem Flüssigphasenmechanismus (CAPRAM) im Modell SPACCIM angewendet wurde. Dieses am TROPOS entwickelte Modellsystem eignet sich aufgrund der detaillierten und kombinierten Beschreibung von mikrophysikalischen und chemischen Prozessen in Aerosolen und Wolken besonders für komplexe Studien zu atmosphärischen Mehrphasenprozessen. Als wichtigstes Resultat haben die neuen Modellergebnisse gezeigt, dass: „Die Prozesse in der flüssigen Phase deutlich die Menge an Schwefeldioxid reduzieren und die Menge an Methansulfonsäure (MSA) erhöhen. In den früheren Modellen klaffte daher eine Lücke zwischen den prognostizierten Werten im Modell und in der gemessenen Wirklichkeit. Diesen Widerspruch konnten wir jetzt aufklären und so die Bedeutung der Flüssigphase für die atmosphärische Oxidation von Dimethylsulfid und seine Produkte wie MSA bestätigen“, berichtet Dr. Andreas Tilgner vom TROPOS.

Die Ergebnisse zeigen, dass die Rolle von Dimethylsulfid (DMS) im Klima der Erde immer noch nicht ausreichend verstanden ist – trotz vieler globaler Modellstudien. „Unsere Simulationen deuten darauf, dass die erhöhten DMS-Emissionen zu höheren Aerosolpartikelmassen, aber nicht notwendigerweise zu einer höheren Anzahl an Partikeln bzw. Wolkentröpfchen führt. Die Ergebnisse der Modellierung sind wichtig für das Verständnis der Klimaprozesse zwischen Ozean und Atmosphäre. Dazu kommt, dass immer wieder Geoengineering-Ideen heftig diskutiert werden, die sich durch eine Düngung des Ozeanes mehr kühlende Wolken erhoffen“, erklärt Prof. Hartmut Herrmann vom TROPOS. Die jüngste Studie lässt jedoch vermuten, dass dabei die Schwefeldioxid-Produktion weniger stark ausfällt und die Effekte auf die Rückstrahlwirkung der Wolken geringer wären als erwartet. Entsprechende Geoengineering-Ansätze könnten daher weniger wirksam sein als von den Befürwortern angenommen. Tilo Arnhold

Publikation:
Erik Hans Hoffmann, Andreas Tilgner, Roland Schrödner, Peter Bräuer, Ralf Wolke, and Hartmut Herrmann (2016): An advanced modeling study on the impacts and atmospheric implications of multiphase dimethyl sulfide chemistry. PNAS; 113 (42) 11776-11781, doi: 10.1073/pnas.1606320113
http://dx.doi.org/10.1073/pnas.1606320113 

Kommentar der Kalte-Sone-Redaktion: Weniger kühlende Wolken bedeutet auch, dass die CO2-Erwärmung in den Modellen möglicherweise zu hoch angesetzt wurde, denn insgesamt muss ja die beobachtete Temperatur herauskommen. Trotz der spannenden Pressemitteilung biss keine Zeitung an, Schweigen im Walde. Waren die Resultate zu unbequem, um sie der Bevölkerung zumuten zu können?  

 

Universität Cardiff: Schwankungen der Sonnenaktivität und Vulkanausbrüche waren wichtigste vorindustrielle Klimafaktoren im Nordatlantik

Pressemitteilung der University Cardiff vom 6. Dezember 2016:

————

Longest-living animal gives up ocean secrets

Analysis of the quahog clam reveals how the oceans affected the climate over the past 1000 years

A study of the longest-living animal on Earth, the quahog clam, has provided researchers with an unprecedented insight into the history of the oceans. By studying the chemistry of growth rings in the shells of the quahog clam, experts from the School of Earth and Ocean Sciences have pieced together the history of the North Atlantic Ocean over the past 1000 years and discovered how its role in driving the atmospheric climate has drastically changed.

The research team showed that prior to the industrial period (pre AD 1800), changes in the North Atlantic Ocean, brought about by variations in the Sun’s activity and volcanic eruptions, were driving our climate and led to changes in the atmosphere, which subsequently impacted our weather. However, this has switched during the industrial period (1800-2000) and changes in the North Atlantic are now synchronous with, or lag behind, changes in the atmosphere, which the researchers believe could be due to the influences of greenhouse gases. The results are extremely important in terms of discerning how changes in the North Atlantic Ocean may impact the climate and the weather across the Northern Hemisphere in the future. The findings have been published today in the journal Nature Communications.

The quahog clam, also known as a hard clam or chowder clam, is an edible mollusc native to the continental shelf seas of North America and Europe and can live for over 500 years. The chemistry in the growth rings in the shells of the clam – which occur much like the annual growth rings in the centre of trees – can act as a proxy for the chemical make-up of the oceans, enabling researchers to reconstruct a history of how the oceans have changed over the past 1000 years with unprecedented dating precision. By comparing this record with records of solar variability, volcanic eruptions and atmospheric air temperatures, the researchers have been able to construct a bigger picture and investigate how each of these things have been linked to one another over time.

Lead author of the study Dr David Reynolds, from the School of Earth and Ocean Sciences, said: “Our results show that solar variability and volcanic eruptions play a significant role in driving variability in the oceans over the past 1000 years. Results also showed that marine variability has played an active role in driving changes to Northern Hemisphere air temperatures in the pre-industrial era. “This trend is not seen during the industrial period, where Northern Hemisphere temperature changes, driven by manmade forcings, precede variability in the marine environment.”

Up until now, instrumental observations of the oceans have only spanned the last 100 years or so, whilst reconstructions using marine sediment cores come with significant age uncertainties. This has limited the ability of researchers to look further back in time and examine the role the ocean plays in the wider climate system using such detailed statistical analyses. Co-author of the study Professor Ian Hall, from the School of Earth and Ocean Sciences, said: “Our results highlight the challenge of basing our understanding of the climate system on generally short observational records. “Whilst they likely capture an element of natural variability, the strong anthropogenic trends observed over recent decades likely masks the true natural rhythms of the climate system. These data therefore provides an invaluable archive of the natural state of the ocean system and the expression of anthropogenic change over the last 1000 years.

“If we are to continue to develop the most robust near-term predictions of future climate change we must continue to develop robust reconstructions of past ocean variability.” The Cardiff-led study was funded by NERC and undertaken in collaboration with researchers from the University of Bangor, University of Exeter, Iowa State University, Aarhus University and the University of Iceland.