News und Termine

Judith Curry: Attribution der modernen Erwärmung muss auf den Prüfstand

Marijn Poels im Gesräch mit Judith Curry:


Lesenswerte Analyse von Judith Curry aus dem Januar 2019:

A careful look at the early 20th century global warming, which is almost as large as the warming since 1950.  Until we can explain the early 20th century warming, I have little confidence IPCC and NCA4 attribution statements regarding the cause of the recent warming. [...] 

In order to have any confidence in the IPCC and NCA attribution statements, much greater effort is needed to understand the role multi-decadal to millennial scales of internal climate variability. Much more effort is needed to understand not only the early 20th century warming, but also the ‘grand hiatus’ from 1945-1975.  Attempting to attribute these features to aerosol (stratospheric or pollution) forcing haven’t gotten us  very far.  The approach taken by Xie’s group is providing important insights.

Once we do satisfactorily explain these 20th century features, then we need to tackle the 19th century — overall warming, with global sea level rise initiating ~1860, and NH glacier melt initiating ~1850.   And then we need to tackle the last 800 years – the Little Ice Age and the ‘recovery’. (See my previous post 400 years(?) of global warming).  The mainstream attribution folk are finally waking up to the importance of multidecadal ocean oscillations — we have barely scratched  the surface re understanding century to millennial scale oscillations, as highlighted in the recent Gebbie and Huybers paper discussed on Ocean Heat Content Surprises.

There are too many climate scientists that expect global surface temperature, sea ice, glacier mass loss and sea level  to follow the ‘forcing’ on fairly short time scales.  This is not how the climate system works, as was eloquently shown by Gebbie and Huybers.  The Arctic in particular responds very strongly to multidecadal and longer internal variability, and also to solar forcing. Until all this is sorted out, we do not have a strong basis for attributing anything close to  ~100% of the warming since 1950 to humans, or for making credible projections of 21st century climate change.

Ganzen Beitrag bei Judith Curry lesen.


Terry Etam am 22. Mai 2019 in

When serious climate-change news is funnier than satire, is it the end of the world or the rebirth of common sense?

[...] So, what happened was that I noticed a tweet in the endless stream from one of the sharpest minds I’ve encountered on the web, a fearless jouster known as DawnTJ90. She (I assume, who knows) posted a link to a story about how climate change is making sharks right handed. I marvelled in a quick comment that these parody sites are getting very creative and funny. Then I followed the link, read the story, and realized that it was serious – yet another group of grant-harvesters was “studying” this climate-change consequence and had actually published research on it, with a straight face. [..] This mass hysteria isn’t unprecedented; in fact, mob rule is a common human habit that has popped up through the ages. We are steps away from another mob takeover, a potentially massive one; we have loons gluing themselves to roadways in Europe to protest something or other (despite the sounds coming out of their mouths, they aren’t protesting for what they say they are, or they would never fly or use fossil fuels again). Other vacuous climate-saving tacticians climb over pipeline-facility fences to mindlessly start turning valves, which they apparently believe to be some sort of earth thermostat. [...] While that is going on, the public will reach the crossover point, just as I did, where it can no longer tell the difference between parody and the news. We are very close. At that point, the world will smell a rat with respect to all the climate doom predictions, once people realize that they aren’t dying as quickly as they are supposed to be, that their world has not been turned into a desert or been submerged, and that shark bites feel exactly the same whether the beast throws with its right fin or left. [...]

Ganzen Beitrag hier lesen.


Yale-ProfessorJustin Farrell gibt in einer Pressemitteilung Tips, wie man Kritik am Klimaalarm verhindert. Er empfiehlt, gegen die Person anzugehen, anstatt sich nur auf die Argumente zu konzentrieren. Desweiteren schlägt er Gerichtsverfahren vor und Attacken gegen die Finanzierung von kritischer Forschung. Unglaublich, dass ein solcher Mann so offensichtlich gegen die freie Wissenschaft argumentieren kann, ohne dass seine Universität ihn zurückpfeift. Ein weiterer Schritt hin zur Gleichschaltung der Kimawissenschaften. Farrell hatte bereits früher Untersuchungen durchgeführt, die von Greenpeace mit Kusshand verwendet wurden. Über die mächtige IPCC-nahe Durchreichestiftung “European Climate Foundation” sagt die Pressemitteilung übrigens nichts.


Pressemitteilung der Oregon State University aus dem Januar 2019:

Trout, salamander populations able to quickly bounce back from severe drought conditions

Populations of coastal cutthroat trout and coastal giant salamanders in the Pacific Northwest show the ability to rebound quickly from drought conditions, new research by Oregon State University suggests.

The findings, published in the journal Hydrobiologia, indicate that the fish and salamander populations can get back to predrought form within just a few years. That’s important because climate change is anticipated to make drought years such as the one in this study – 2015 – occur more frequently, and the resilience of these dominant stream predators suggests they will be able to persist as long as the droughts do not occur many years in a row. “What we found buys us time to try to fix climate change as best we can or at least keep it where it is right now,” said study co-author Dana Warren, an OSU faculty member in the College of Agricultural Sciences and the College of Forestry. “If we can do that, the populations in these headwater streams will be fairly resilient, but if not, they’ll clearly be more threatened.”

The drought conditions of 2015 occurred in the study streams because there was limited snowpack in the winter and spring that resulted in low stream flows that started a lot earlier than usual, said corresponding author Matthew Kaylor, a graduate fellow in fisheries and wildlife in the College of Agricultural Sciences. “That led to much lower flows throughout the summer,” Kaylor said. “Assessing impacts to the drought provided an insight into how these populations may react to changing conditions in the future since climate models suggest lower snowpack and lower summer stream flow.”

Trout and salamanders in the nine Cascade Mountain headwater streams from this research – part of a long-term study site – were both negatively affected by the hot, dry summer of 2015, though they responded differently. Adult trout numbers were down in 2015 compared to 2014, which had conditions closer to historic norms. “Stream conditions would suggest that increased mortality was the likely factor leading to lower numbers of fish during the drought,” Kaylor said. “However, we can’t actually say for sure with our data. Disentangling mortality versus movement to other habitats during droughts is a question we would like to tackle in the future.” Salamanders did not show any consistent changes in abundance across the nine sites in 2015, but their body condition declined in all study streams. As with trout abundances, the salamander populations were all back in predrought shape within a year or two.

“The trout and salamanders recovered quickly, which is important as we look into the future,” Kaylor said. “In these cool streams, if drought conditions persist over multiple years, that’s probably bad news for the trout and salamanders, but if they’re more sporadic, then those populations may be resilient.” Interestingly, juvenile trout didn’t appear to be negatively affected by the 2015 drought – they were in fact bigger in all streams during the drought year. “Young fish responded differently than adults, possibly because temperatures were warmer, which led to earlier hatching and faster growth, ” Warren said. “But it also could be because there were fewer adult trout to compete with. Either way, the response of the young fish was likely critical in promoting abundance recovery the following years for most sites.”

Also of note: Contrary to what the researchers had expected, stream temperature was not strongly associated with how trout and salamanders responded to the drought. “All of the streams we sampled were relatively cool and generally remained below the temperatures that would cause stress,” Kaylor said. “Stream pool habitat was important for trout, though. Stream sections with more deep pools showed smaller reductions in trout abundance and biomass.” Added Warren: “We know that habitat features like pools are important when they’re creating areas of flow refuge and areas of terrestrial predator refuge. Those same pools appear to be important in insulating a system against drought as well.”

The one stream where the fish population didn’t return to its predrought status was “an isolated stream near the edge of fish distribution,” he said. “That site is illustrative of the type of system that’s most vulnerable,” Warren said. “At that site salamanders have done well, but the trout haven’t come back, and that gives a hint about the kinds of streams we really do need to be concerned about versus the ones that may be more resilient. Location is important, not just stream size or habitat.” For the next few decades, Warren points out, droughts like 2015’s won’t happen all the time. “We’ll get them periodically, and that periodicity is likely to increase, but it’s not like a switch will flip to a new normal,” he said. “We will get to that new normal, though, if nothing changes.”

The National Science Foundation, the U.S. Department of Agriculture, the U.S. Forest Service, the HJ Andrews Experimental Forest, and Oregon State University supported this research.


Recherche-Panne auf Das fabrizierte spanische Dürre-Drama

Michael Krüger wundert sich im Science Skeptical Blog über seltsam konstruierte Zusammenhänge:

Das Potsdam-Institut für Klimafolgenforschung (PIK) schließt einen Zusammenhang zwischen den aktuellen Schneemassen in den Alpen und dem Klimawandel nicht aus!

hier lesen.


Kait Bolongaroam 23. April 2019 in der Welt:

Klimawandel: „Bald wird das ganze Jahr über Sommer sein“
Spanien, Europas „Obstkorb“ steht vor einem riesigen Problem: Wenn die Vorhersagen der Klimaforscher eintreffen, wird ein großer Teil des fruchtbaren Bodens der Wüste weichen. Die Landwirte versuchen verzweifelt, dagegenzuhalten. La Junquera im Südosten Spaniens erinnert inzwischen an eine Geisterstadt. Viele Bewohner haben das Dorf bereits verlassen. Der Grund ist offensichtlich: Die Wüste kommt immer näher, breitet sich immer weiter aus.

Wieder ein absolutes Alarmpaper. Die Autorin besitzt dramatische Lücken hinsichtlich der spanischen Klimageschichte. Eine naturwissenschaftliche Ausbildung scheint sie nicht zu besitzen. Siehe:

Rästelhafte Dürregeschichte Spaniens während der vergangenen 300 Jahre

Neue Studien geben Entwarnung: Europäische Dürren noch vollständig im Bereich der natürlichen Schwankungsbreite

35-köpfige EU-Forschergruppe: Dürren im Mittelmeerraum stark an Sonnenaktivitätsschwankungen gekoppelt. Aber schade, die Presse interessiert es nicht

Neues Paper in Climatic Change: Heutige Niederschläge im Mittelmeergebiet noch immer im Bereich der natürlichen Schwankungsbreite



Vera Lengsfeld in Die Freie Welt am 11. Januar 2019:

Das Nazi-Klima macht, was es will
Als ich heute morgen mit meinen Hunden spazieren ging, leuchtete ein azurblauer Himmel durch die Baumkronen, umrandet von weißen Wolken, deren Rand die Sonne weißgold glänzen ließ. Der Pulverschnee auf den Zweigen und auf dem Boden verwandelte die winterliche Kahlheit in einen Märchenwald. Ein leichter Frost komplettierte den perfekten Wintermorgen, der mir spontan Paul Gerhardts „Geh aus mein Herz und Suche Freud“ in den Sinn brachte, auch wenn jetzt nicht die liebe Sommerszeit ist.

Und dann komme ich nach Hause und muss die Horrormeldungen der Qualitätsmedien zur Kenntnis nehmen, die sich nicht wieder einholen können, weil es Winter geworden ist. Ach ja, laut unserer Propagandisten der Erderwärmung wie Mojib Latif, soll es Winter gar nicht mehr geben. Der “Klimaexperte“ verkündete im Jahr 2000 auf Relotius-Online: „Winter mit starkem Frost und viel Schnee, wie vor zwanzig Jahren, wird es in unseren Breiten nicht mehr geben.“

Weiterlesen auf Die Freie Welt


Anastasios Tsonis von der University of Wisconsin-Milwaukee ist jetzt pensioniert. JoNova erklärt, weshalb Tsonis den Klimaalarmismus skeptisch sieht.


University of Cambridge am 15. Januar 2019 (via Science Daily):

Climate change during ancient Indus Civilization
Differentiating summer and winter rainfall in South Asia around 4.2 ka climatic ‘event’

Climate change has the potential to have affected ancient civilizations by spurring migrations and changes in cropping strategies, and these questions are increasingly relevant as we look at how modern civilization is coping with climate change today.

An article published today in a special issue of Climate of the Past on the “4.2 ka BP climatic event” provides rich insights into how rainfall in the northwest of South Asia changed over the critical period between 5400 and 3000 years ago.

The marine sediment core known as 63KA was taken close to the mouth of the Indus River delta and holds important and intriguing information about past changes in river discharge and depth of ocean stratification. The discharge of the Indus River is directly linked to the amount of summer rainfall. Ocean mixing depth is related to the strength of winds and evaporation over the Arabian Sea during wintertime that, in turn, correlates with winter precipitation over northwestern India. Three species of planktonic foraminifera with distinct ecological niches have been used to track relevant changes in salinity and temperature by measuring the oxygen isotopes from their calcareous shells, which produce a synchronous record of summer and winter monsoon strength.

Work on samples from this marine core attracted wide interest in 2003 when a summer monsoon mega-drought around 4.2 thousand years ago was related to cultural transformations of the Indus Civilization, which had an urban phase spanning from c.4.5-3.9 thousand years ago.

Prof. Michael Staubwasser from the University of Cologne, who was lead author of the 2003 paper and is co-author on the latest research, safeguarded samples from this core for over 20 years. “We always thought there might be more valuable information left in these samples,” he says, “and we can now see that it is possible to track both summer and winter precipitation from the same core.”

The new results point to a 200-year period of abnormally strong winter precipitation between c.4.5-4.3 thousand years ago, and after this, winter and summer rainfall both decreased to a minimum at c.4.1 thousand years ago.

“Humans are completely dependent on constant access to water. The possibility of a simultaneous decrease in winter precipitation by 4.1 thousand years ago completely changes the picture of year-round water availability in this region. A shift from plentiful winter rain to the totally opposite extreme, in combination with summer monsoon rains that were already declining, will have had a dramatic impact upon the people living in this region,” says Alena Giesche, lead author on the new publication and PhD candidate in Earth Sciences at the University of Cambridge.

Climatic changes during this time period coincide with important cultural changes in the Indus Civilization, which saw the culmination of a process of deurbanisation by c. 3.9 thousand years ago. “This finding has important implications for our understanding of the Indus Civilization, particularly our interpretation of changes in settlement patterns and cropping strategies. There was clear decline in the major urbanized centres, but there was also an increase in the numbers of rural settlements in the summer monsoon-dominated regions in the east, suggesting that populations adapted to changing conditions,” says Dr. Cameron Petrie, co-author and Reader in Archaeology at the University of Cambridge.

The new results are particularly exciting because they track two rainfall regimes in the same exact core. “This is a unique core, because the sediments are laminated and not disturbed by mixing by organisms (bioturbation). It has a detailed radiocarbon chronology and because proxies for both the summer and winter rainfall are recorded in the same samples, the relative timing of the two can be determined with confidence,” says Prof. David Hodell, co-author and Woodwardian Professor of Geology at the University of Cambridge.

This research has been carried out as part of an ongoing collaborative project between Banaras Hindu University, Varanasi, India, and the University of Cambridge, under the scope of the TwoRains project.

Paper: Alena Giesche, Michael Staubwasser, Cameron A. Petrie, David A. Hodell. Indian winter and summer monsoon strength over the 4.2 ka BP event in foraminifer isotope records from the Indus River delta in the Arabian Sea. Climate of the Past, 2019; 15 (1): 73 DOI: 10.5194/cp-15-73-2019


Das Geschäft mit der Katastrophe – wie der Klimawandel instrumentalisiert wird

FASZ am 13. Januar 2019:

Klimawandel : „So retten Sie die Welt nicht“
Bjørn Lomborg versucht im Auftrag des dänischen Staates, die kosteneffizientesten Lösungen für die Probleme der Menschheit zu finden. Er spricht über Geldverschwendung in der Energiewende, unnötigen Fleischverzicht und das tödlichste Umweltproblem der Erde.

FAZ: Herr Lomborg, auf der Welt läuft so vieles schlecht. Wenn wir die Welt retten wollen, wo müssen wir anfangen?

LOMBORG: Oh ja, die Welt steht vor vielen Problemen. Wahrscheinlich sterben jedes Jahr rund 18 Millionen Menschen, weil sie arm sind. In den Meeren schwimmt Plastik, die Erde wird immer wärmer, der Reichtum ungleicher verteilt. Viele Menschen haben keinen Zugang zu guter Bildung, in der Dritten Welt geht wahrscheinlich ein Drittel der Menschen niemals zur Schule oder ist nicht in der Lage, einfache Rechenaufgaben zu lösen. Das Problem ist: Wir haben nicht genug Geld, um alle Probleme zu lösen. Also haben wir ausgerechnet, wo wir mit begrenzten Mitteln am meisten bewirken können.

Weiterlesen in der FASZ (für Abonnenten)


Die Temperaturentwicklung ist stark von 60-jährigen Ozeanzyklen geprägt. Bei der Berechnung des Langzeittrends muss dies berücksichtigt werden, wobei Intervalle zwischen den Zyklenmaxima oder -minima gewäht werden sollten. Bob Tisdale hat dies für Grönland getan. Und Überraschung: Der Erwärmungstrend von 1925-2012 ist nahezu Null, geschuldet der starken Erwärmung der 1930er und 40er Wärme. Details hierzu auf WUWT.

Quelle: WUWT


WNN am 14. Mai 2019:

Polish academics urge end to Germany’s nuclear phaseout
A group of nearly 100 Polish environmentalists and scientists has written an open letter to the leadership and people of Germany asking the country to reconsider its nuclear phaseout plans.

Weiterlesen auf WNN


Im Januar 2019 schlug ein Paper von Cheng und Kollegen in Science große Wellen. Die Ozeane erwärmen sich dramatisch schnell. Judith Curry, Roy Spencer und Nic Lewis (hier, hier und hier) fanden Unstimmigkeiten und Fehler im Paper.


Axel Bojanowski auf Watson am 15. Februar 2019:

Das Geschäft mit der Katastrophe – wie der Klimawandel instrumentalisiert wird
Sturmschäden bei der Bahn? Versicherungen wieder teurer? Konzerne geben gerne dem Klimawandel die Schuld, auch wenn es dafür keine Belege gibt. Leider lassen sich auch Wissenschaftler dafür einspannen.

Die jüngsten Herbst- und Winterstürme führten Zugreisende an ihre Geduldsgrenzen. Der Bahnverkehr hat mit auf Schienen gestürzten Bäumen und Schnee zu kämpfen. Die Kunden nahmen es hin, immerhin ist die Bahn ja Opfer der Wetterkapriolen, die wegen des Klimawandels immer extremer werden. Oder?

Der Deutschen Bahn kommt diese Annahme entgegen. Sie verhindert, dass die Aufmerksamkeit auf die eigentlichen Ursachen für die vielen Behinderungen fällt, die bei der Bahn selbst zu suchen sind. Kein Wunder also, dass das Unternehmen die Interpretation «der Klimawandel ist Schuld» eifrig befeuert.

Weiterlesen auf Watson.


Der Youtube-Kanal Adapt 2030 bringt regelmäßig Videos zum Klimawandel, darunter auch Beiträge zum solaren Minimum.



Wird Kassandra heiser? Die Geschichte falscher Ökoalarme

Herausgegeben von Frank Uekötter und Jens Hohensee

Erscheinungsjahr: 2004

ISBN: 978-3515084840

Erhältlich: Antiquarisch

Info: Google Books, Amazon, hsozkult



Grüne Sahara alle 20.000 Jahre

Pressemitteilung des Massachusetts Institute of Technology vom 2. Januar 2019:


A “pacemaker” for North African climate

Study shows the Sahara swung between lush and desert conditions every 20,000 years, in sync with monsoon activity.

The Sahara desert is one of the harshest, most inhospitable places on the planet, covering much of North Africa in some 3.6 million square miles of rock and windswept dunes. But it wasn’t always so desolate and parched. Primitive rock paintings and fossils excavated from the region suggest that the Sahara was once a relatively verdant oasis, where human settlements and a diversity of plants and animals thrived. Now researchers at MIT have analyzed dust deposited off the coast of west Africa over the the last 240,000 years, and found that the Sahara, and North Africa in general, has swung between wet and dry climates every 20,000 years. They say that this climatic pendulum is mainly driven by changes to the Earth’s axis as the planet orbits the sun, which in turn affect the distribution of sunlight between seasons — every 20,000 years, the Earth swings from more sunlight in summer to less, and back again.

For North Africa, it is likely that, when the Earth is tilted to receive maximum summer sunlight with each orbit around the sun, this increased solar flux intensifies the region’s monsoon activity, which in turn makes for a wetter, “greener” Sahara. When the planet’s axis swings toward an angle that reduces the amount of incoming summer sunlight, monsoon activity weakens, producing a drier climate similar to what we see today. “Our results suggest the story of North African climate is dominantly this 20,000-year beat, going back and forth between a green and dry Sahara,” says David McGee, an associate professor in MIT’s Department of Earth, Atmospheric and Planetary Sciences. “We feel this is a useful time series to examine in order to understand the history of the Sahara desert and what times could have been good for humans to settle the Sahara desert and cross it to disperse out of Africa, versus times that would be inhospitable like today.” McGee and his colleagues have published their results today in Science Advances.

A puzzling pattern

Each year, winds from the northeast sweep up hundreds of millions of tons of Saharan dust, depositing much of this sediment into the Atlantic Ocean, off the coast of West Africa. Layers of this dust, built up over hundreds of thousands of years, can serve as a geologic chronicle of North Africa’s climate history: Layers thick with dust may indicate arid periods, whereas those containing less dust may signal wetter eras.

Scientists have analyzed sediment cores dug up from the ocean bottom off the coast of West Africa, for clues to the Sahara’s climate history. These cores contain layers of ancient sediment deposited over millions of years. Each layer can contain traces of Saharan dust as well as the remains of life forms, such as the tiny shells of plankton.

Past analyses of these sediment cores have unearthed a puzzling pattern: It would appear that the Sahara shifts between wet and dry periods every 100,000 years — a geologic beat that scientists have linked to the Earth’s ice age cycles, which seem to also come and go every 100,000 years. Layers with a larger fraction of dust seem to coincide with periods when the Earth is covered in ice, whereas less dusty layers appear during interglacial periods, such as today, when ice has largely receded.

But McGee says this interpretation of the sediment cores chafes against climate models, which show that Saharan climate should be driven by the region’s monsoon season, the strength of which is determined by the tilt of the Earth’s axis and the amount of sunlight that can fuel monsoons in the summer.

“We were puzzled by the fact that this 20,000-year beat of local summer insolation seems like it should be the dominant thing controlling monsoon strength, and yet in dust records you see ice age cycles of 100,000 years,” McGee says.

Beats in sync

To get to the bottom of this contradiction, the researchers used their own techniques to analyze a sediment core obtained off the coast of West Africa by colleagues from the University of Bordeaux — which was drilled only a few kilometers from cores in which others had previously identified a 100,000-year pattern.

The researchers, led by first author Charlotte Skonieczny, a former MIT postdoc and now a professor at Paris-Sud University, examined layers of sediment deposited over the last 240,000 years. They analyzed each layer for traces of dust and measured the concentrations of a rare isotope of thorium, to determine how rapidly dust was accumulating on the seafloor.

Thorium is produced at a constant rate in the ocean by very small amounts of radioactive uranium dissolved in seawater, and it quickly attaches itself to sinking sediments. As a result, scientists can use the concentration of thorium in the sediments to determine how quickly dust and other sediments were accumulating on the seafloor in the past: During times of slow accumulation, thorium is more concentrated, while at times of rapid accumulation, thorium is diluted. The pattern that emerged was very different from what others had found in the same sediment cores.

“What we found was that some of the peaks of dust in the cores were due to increases in dust deposition in the ocean, but other peaks were simply because of carbonate dissolution and the fact that during ice ages, in this region of the ocean, the ocean was more acidic and corrosive to calcium carbonate,” McGee says. “It might look like there’s more dust deposited in the ocean, when really, there isn’t.”

Once the researchers removed this confounding effect, they found that what emerged was primarily a new “beat,” in which the Sahara vacillated between wet and dry climates every 20,000 years, in sync with the region’s monsoon activity and the periodic tilting of the Earth.

“We can now produce a record that sees through the biases of these older records, and so doing, tells a different story,” McGee says. “We’ve assumed that ice ages have been the key thing in making the Sahara dry versus wet. Now we show that it’s primarily these cyclic changes in Earth’s orbit that have driven wet versus dry periods. It seems like such an impenetrable, inhospitable landscape, and yet it’s come and gone many times, and shifted between grasslands and a much wetter environment, and back to dry climates, even over the last quarter million years.”


Das Paper von Skonieczny et al. 2019 erschien in Science Advances:

Monsoon-driven Saharan dust variability over the past 240,000 years
Reconstructions of past Saharan dust deposition in marine sediments provide foundational records of North African climate over time scales of 103 to 106 years. Previous dust records show primarily glacial-interglacial variability in the Pleistocene, in contrast to other monsoon records showing strong precessional variability. Here, we present the first Saharan dust record spanning multiple glacial cycles obtained using 230Th normalization, an improved method of calculating fluxes. Contrary to previous data, our record from the West African margin demonstrates high correlation with summer insolation and limited glacial-interglacial changes, indicating coherent variability in the African monsoon belt throughout the late Pleistocene. Our results demonstrate that low-latitude Saharan dust emissions do not vary synchronously with high- and mid-latitude dust emissions, and they call into question the use of existing Plio-Pleistocene dust records to investigate links between climate and hominid evolution.


Unangenehme Hitze im Mittelmeer vor 10.000 Jahren

Focus am 3. Januar 2019:

Forscher lösen Rätsel der größten Katastrophe des Mittelalters

Kein Krieg und keine Seuche, die den Kontinent beherrschte – nichts soll so schlimm gewesen sein wie das dunkle, kalte und sonnenlose Jahr 536. Das sagen US-Forscher. Sie haben das Rätsel um zahlreiche schicksalhafte Naturphänomene gelöst und die Hintergründe des Katastrophenjahrs 536 aufgedeckt.

„Die Sonne, ohne Strahlkraft, leuchtete das ganze Jahr hindurch nur wie der Mond und machte den Eindruck, als ob sie fast ganz verfinstert sei.“ So äußerte sich der frühbyzantinische Historiker Prokopius im 6. Jahrhundert nach Christus. Vor rund 1500 Jahren wurden weite Teile Europas, des mittleren Ostens und Teile Asiens über 18 Monate lang von einem mysteriösen Nebel umhüllt. Monatelang bekamen die Menschen in diesen Regionen keine Sonne zu sehen.

Die Abwesenheit der Sonne hatte einen massiven Klimawandel zu Folge, allerdings genau andersherum, als wir ihn heutzutage erleben: Das Jahrzehnt wurde von langen Kälteperioden beherrscht und die Durchschnittstemperaturen lagen auch in den Sommermonaten nur bei 1,5 bis 2,5 Grad Celsius. Missernten, Dürren und damit verbundene Hungersnöte waren die Folge. Insgesamt handelt es sich bei dem Jahrzehnt nach 536 bis heute um das kälteste der vergangenen 2300 Jahre.

Weiterlesen im Focus


Der allergrößte Teil der Klimaaktivisten bezieht seine Informationen aus den Medien. Nur selten wird jemand seine Nase in die Original-Fachliteratur stecken, in der Hoffnung, dass Rahmstorf, Latif und Co. die Öffentlichkeit doch sicher ausgewogen über die wissenschaftlichen Funde informieren wird. Aber ist das wirklich so? Gibt die Presse mit seinen angeschlossenen Beratern einen repräsentativen Überblick über die Ergebnisse der Klimaforschung? Wir machen die Probe aufs Exempel und schauen in eine Arbeit von Martrat et al. 2014 zur Temperaturentwicklung des Alboran Meers im spanischen Teil des Mittelmeers während der vergangenen 25.000 Jahre.

Im Folgenden ein Ausschnitt aus Abbildung 2 des Papers. Schauen Sie oben auf die mit “B” gekennzeichnete Temperaturkurve. Es handelt sich um eine Rekonstruktion der Meeresoberflächentemperatur (sea surface temperature, SST) des Alboran Meeres. Die x-Achse gibt die Jahre vor ‘heute’ wieder, links alt, rechts heute. Von 25.000-12.000 Jahre vor heute war das Meer sehr kalt. Das war während der letzten Eiszeit. Dann schnellten die Temperaturen rapide nach oben. Die wärmste Zeit war vor 10.000 Jahren als Jahresdurchschnittswerte von 20°C erreicht wurden. In der Folge kühlte sich das Meer bis heute nahezu stetig um 2°C ab. Die heutigen Temperaturen liegen bei 18°C. Viel Platz für die Klimakatastrophe mit “noch nie dagewesenen Heißtemperaturen” lässt diese Entwicklung wahrlich nicht. Wir sehen: Es lohnt sich, ab und zu die harten Daten anzuschauen, auch wenn es mühsam ist. Vorschlag für den Erdkundeunterricht: Ein paar Stunden Klimageschichte könnten den Schülern vielleicht gar nicht schaden…


Abbildung: Temperaturentwicklung des Alboran Meeres (südlich von Spanien) während der letzten 25.000 Jahre. Siehe obere Kurve (“B”). Quelle: Martrat et al. 2014


Eine kleine CO2 Horror-Geschichte

Das Umweltbundesamt hat im März 2018 eine Studie mit dem TitelGendergerechtigkeit als Beitrag zu einer erfolgreichen Klimapolitik: Forschungsreview, Analyse internationaler Vereinbarungen, Portfolioanalyse” veröffentlicht. Das pdf kann kostenfrei hier heruntegeladen werden. Dieter Nuhr nahm die Arbeit in seiner Sendung Nuhr im Ersten am 9. Mai 2019 treffend aufs Korn. Nicht versäumen, in der ARD-Mediathek hier anzuschauen, ab Minute 34 im Online-Video.


Leute, schreibt mehr Leserbriefe und Eingaben an die Runfunkräte. Manfred Büchel geht mit gutem Beispiel voran. Im Liechtensteiner Volksblatt erinnerte an seltsam falsche Schneeprognosen (auf Seite 6 im pdf hier).


Positionspapier der Bayerischen Chemiverbände aus dem Februar 2019 (pdf hier):


Auswirkungen der aktuellen Energiepolitik auf die energieintensive chemische Industrie in Bayern

Die chemische Industrie in Bayern mit ihren rund 400Unternehmen beschäftigt ca.90.000 Menschen direkt in sehr gut bezahlten Industriearbeitsplätzen. Davon arbeiten ca.20.000 in rund20Unternehmen im Bayerischen Chemiedreieck. Noch einmal doppelt so viele Arbeitsplätze hängen indirekt im Rahmen von Wertschöpfungs-ketten, Handwerk und Dienstleistungen von derchemischenIndustrie ab. Nicht nur die Entwicklung des Freistaats Bayern vom Agrarstaat zum Industrieland (27% Industrieanteil am BIP) zeigt, dass die sichere und kostengünstige Versorgung mit Energie –insbesondere Strom –eine der wesentlichsten Grundlagenwirtschaftlichen Erfolgs und gesellschaftlichen Wohlstands war und ist. Sprechen wir über sichere und bezahlbare Stromversorgung, dann reden wir an erster Stelle nicht über die 25% des deutschen Stromverbrauchs, der auf die privaten Haushalte entfällt, der aber in der öffentlichen Diskussion meist im Mittelpunkt steht, sondern über einen Anteil von 45%, den die Industrie benötigt.

Allein die rund 20 Chemieunternehmen im Chemiedreieck haben einen Strombedarf von ca. 5TWh/Jahr–das ist fast 1% des gesamten deutschen Stromverbrauchs und rund doppelt soviel, wie die privaten Haushalteder Stadt Münchenim Jahr verbrauchen. Der größte Verbraucher ist hier dieWacker Chemie AG in Burghausen mit ca.3TWh/Jahr–das sind rund 0,6% des gesamten deutschen Stromverbrauchs. Benötigt wird der Strom dort zum überwiegenden Teil zur Herstellung vonpolykristallinem Silizium für die Solarindustrieund hochreinem Silizium für die Halbleiterindustrie (Stichwort: Digitalisierung). Von den rund 8.000 Menschen, die allein bei der Wacker ChemieAG in Burghausen beschäftigt sind, arbeiten rund 2.000 in der Produktion und den indirekten Bereichen des Geschäftsbereichs Polysilicon. Das sind wertvolle Industriearbeitsplätze, die aufgrund der energieintensiven Produktion ganz besonders von einer sicheren und bezahlbaren Stromversorgung abhängen. Wenn es um die chemisch-pharmazeutische Industrie geht, muss uns auch bewusst sein, dass sie diejenige Industrieist, die bereits jetzt und in Zukunft die Lösungen für die sogenannte Energiewende liefern sol l- neben ihrem Lösungsbeitrag zu vielen anderen Herausforderungen der Gegenwart und Zukunft, wie z.B. (Elektro-) Mobilität, Leichtbau, Digitalisierung, Ernährung, Gesundheit, etc. Denken wir nur an Solarenergie (Polysilizium), Windenergie (Kunststoff-Verbundwerkstoffe) oder Speichertechnologie (Batterietechnologie, Power-to-X)! Dabei ist die chemische Industrie aufgrund ihrer Produktionsprozesse auf eine sichere, grundlastfähige Energieversorgungrund um die Uhr an 365 Tagen im Jahr unterbrechungsfrei im Millisekundenbereich angewiesen!

Weiterlesen auf der Webseite der Bayerischen Chemieverbände (pdf hier).

Siehe hierzu auch den folgenden Artikel auf vom 29. April 2019:

“Laufzeitverlängerung nicht ausschließen”
Drohende Engpässe in der Stromversorgung und Preissteigerungen für die Chemiebetriebe der Region mit ihren rund 20 000 Arbeitsplätzen: Die Bayerischen Chemieverbände haben mit einem Positionspapier an die Staatsregierung deutlich auf die Risiken für die Standorte hingewiesen. Dr. Günter von Au, Vorstandsvorsitzender der Bayerischen Chemieverbände, erklärt, warum.

Weiterlesen auf


Eine kleine CO2 Horror-Geschichte:



Werden aus wissenschaftlichen Universitäten nun grüne Universitäten?

Von Bruno Hublitz

Am 4. Mai 2019 erschien im Lokalteil der Erlanger Nachrichten ein Interview mit Professor Dr. Bärbel Kopp, die sich der Friday for Future (FFF)- bzw. Scientists for Future (S4F)-Bewegung angeschlossen hat. Prof. Kopp ist Vizepräsidentin der Friedrich Alexander Universität Erlangen/Nürnberg, die mit 40.000 Studenten die zweitgrößte Universität in Bayern, nach der Ludwig-Maximilians-Universität in München (LMU) ist. Als Professorin für Grundschulpädagogik gehören die Klimawissenschaften aber offenbar nicht wirklich zu Prof. Kopps Spezialgebiet… Hier einige Auszüge aus dem Interview:

EN: Frau Professor Kopp, wie wichtig ist es in Zeiten von Klimawandel-Leugnern und militanten Impfgegnern, dass sich Wissenschaftler in Debatten öffentlich einbringen?

Bärbel Kopp: Das ist natürlich sehr wichtig, weil man bei aller Wissenschaftskritik ja davon ausgehen muss, das man Aussagen evidenzbasiert trifft, also auf der Grundlage von Erkenntnissen und nicht auf der Grundlage von reinen Vermutungen und Glaubenssätzen. Da haben Wissenschaftler einfach etwas zu sagen und wenn sie nicht wirklich sicher sind, werden sie das auch immer einräumen.

EN: Haben ältere Wissenschaftler den Anstoß der jüngeren Generation gebraucht, um sich laut zu Wort zu melden?

Bärbel Kopp: Nein, ich glaube, dass Wissenschaftler sich immer mit ihren Sachen zu Wort gemeldet und auf den entsprechenden Fachtagungen ihre Erkenntnisse publiziert haben. Aber dass es jetzt diese Bewegung Scientists for Future gibt, das ist mit Sicherheit durchaus auch mit angestoßen durch die Initiative der jungen Leute .

EN: Wie wollen Sie an der Friedrich-Alexander-Universität die FFF-Bewegung weiterhin unterstützen ?

Bärbel Kopp: Das werden wir mal sehen, ich finde es sehr schön, dass die Studierenden jetzt den Ball aufgenommen haben und sich an der Bewegung beteiligen. Wir werden jetzt im Dialog bleiben und sehen, was sich daraus entwickelt.

EN: Ist es eine Hoffnung, dass sich die Jungen, die jetzt für mehr Klimaschutz auf die Straße gehen, sich auch später engagieren?  

Bärbel Kopp: Das ist meine prinzipielle Hoffnung generell, wenn ich über Bildung nachdenke, insbesondere auch über Bildung von Studierenden, die nicht nur da sind, um Qualifikationen zu erwerben, sondern die ja sehr wohl auch in all ihren Studiengängen, egal wo, lernen müssen und lernen werden, dass sie Verantwortung für die Gesellschaft übernehmen.

Beendet wird der Artikel mit einem Hinweis zur Erlanger Scientists for Future-Gruppe, zum Link der “Scientists-Bewegung” und dem Hinweis, dass die nächste FFF-Demonstration am 24. Mai 2019 mit einer abschließenden Mahnwache stattfindet. Der Autor hat dem Rat der Erlanger Nachrichten gefolgt und sich die s4f-Seite angeschaut, insbesondere die Rubrik “Fakten”. Insgesamt 24 Punkte werden aufgelistet und da kommt man natürlich ins Grübeln.

1. Weltweit ist die Durchschnittstemperatur bereits um etwa 1 °C angestiegen (relativ zu 1850–1900). Rund die Hälfte des Anstiegs erfolgte in den letzten 30 Jahren.

2. Weltweit waren die Jahre 2015, 2016, 2017 und 2018 die heißesten Jahre seit Beginn der Wetteraufzeichnungen.

3.  Der Temperaturanstieg ist nahezu vollständig auf die von Menschen verursachten Treibhausgas-Emissionen zurückzuführen.

4. Bereits mit der aktuellen Erwärmung sind wir in vielen Regionen mit häufigeren und stärkeren Extremwetterereignissen und deren Folgen wie Hitzewellen, Dürren, Waldbränden und Starkniederschlägen konfrontiert.

5. Die Auswirkungen der globalen Erwärmung sind zudem eine Gefahr für die menschliche Gesundheit. Neben den oben genannten direkten Folgen sind dabei auch indirekte Folgen der globalen Erwärmung wie Ernährungsunsicherheit und die Verbreitung von Krankheitserregern und ‑überträgern zu beachten.


24.  Stark sinkende Kosten und steigende Produktionskapazitäten für bereits einge­führte klimafreundliche Technologien machen eine Abkehr von fossilen Brennstoffen hin zu einem vollständig auf erneuerbaren Energien basierenden Energiesystem be­zahlbar und schaffen neue ökonomische Chancen.

Zu Nr. 1           Das ist unter allen Personen, die sich ernsthaft mit der Thematik beschäftigen, unbestritten. Dass der Mensch eine ebenso schwer zu quantifizierende Rolle mitspielt wird auch nicht in Zweifel gestellt. Aus wissenschaftlicher Sicht liegt es selbstverständlich auf der Hand dieses Naturphänomen mit all den heute zur Verfügung stehenden Methoden und Instrumentarien exakt zu erforschen.

Zu Nr. 2           Betrachtet man den Zeitraum nach der letzten Eiszeit, dem heutigen Holozän, fehlt jeglicher Hinweis, daß es in diesem Zeitraum mehrere Wärme- und darauf folgende Kälteperioden gab.
Bewertung: Die von S4F vermutlich bewusst geführte Einschränkung auf den kurzen Zeitabschnitt der beginnenden umfangreichen instrumentellen Wetteraufzeichnungen ab dem 19. Jahrhundert ist eine wissenschaftliche Halbwahrheit.

Zu Nr. 3           Diese Aussage ist das Resultat der Klima-Computerprogramme und deren Annahmen, wie sie in den IPCC-Sachstandsberichten und sonstigen Sonderberichten veröffentlicht werden. Es ist festzustellen, dass es bei der Betrachtung von Klima-Ereignissen unzählige Diskrepanzen und Unsicherheiten gibt, die in diesem Blog KalteSonne täglich minutiös veröffentlicht und dokumentiert werden. Basis hierfür sind unzählige Publikationen in anerkannten wissenschaftlichen Zeitschriften.
Die Unsicherheit erwähnt der IPCC beispielsweise selbst. Im Kapitel 5.3.5 besagt der IPCC, dass die Computerprogramme die vergangenen Wärme- und Kälteperioden vor dem ominösen CO2-produziereneden Industriezeitalter überhaupt nicht reproduzieren können.

Zu Nr. 4           Auch hier sei auf die IPCC-Sachstandsberichte verwiesen, beispielsweise Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”, sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.” (Dank an Professor Dr. Horst-Joachim Lüdecke für die Zusammenstellung, nachzulesen unter EIKE).

Zu Nr. 5           Wärmeperioden waren immer Blütezeiten menschlicher Kulturen. Kälteperioden waren geprägt von Missernten und Hungersnöten die letztlich zu einem Bevölkerungsschwund geführt haben. Hervorragend aufbereitet vom Historiker Professor Dr. Wolfgang Behringer in seinem Buch ” Kulturgeschichte des Klimas“, erschienen im C. H. Beck-Verlag, immerhin in fünf weiteren Sprachen übersetzt. Da der Alarmismus-Klientel nicht passend, von Herrn Schellnhuber als unwissenschaftlich abqualifiziert (sofern man Wikipedia vertrauen kann).

Punkt Nr. 6 und die weiteren Punkte bis Nr. 23 leiten sich mehr oder weniger von Punkt 3 ab.

Zu Nr. 24          Für die Grundschullehrer von Frau Professor Dr. Kopp wird es ein leichtes sein auszurechnen wie viele Windräder, Photovoltaik-Anlagen, Stromleitungen, Elektrolyse-Anlagen (der Autor selbst arbeitet seit 20 Jahren an dieser Technologie) Wasseraufbereitungs-Anlagen für die Elektrolyse-Anlagen, Wasserstofftanks, Batterien, Methanisierungs-Anlagen, Speicherkavernen für Methan, Brennstoffzellen und Gasturbinen für synthetisches Gas weltweit benötigt werden. Was man mit der Abwärme macht, müssen sie sich noch heftig den Kopf zerbrechen. Stand der Technik heute, Elektrolyseure haben einen Wirkungsgrad von 50%, Methanisierungs-Anlagen 80%, Brennstoffzellen ähnlich den Elektrolyseuren 50% und Gasturbinen 40%.

Der Autor ist kein gelernter oder praktizierender Klima-Wissenschaftler. Die Technische Universität München hat ihm das Diplom eines Ingenieurs für Maschinenbau verliehen. In dieser Sparte gelten wie im Klima beispielsweise die gleichen Naturgesetze der Thermodynamik. Die Komplexität und die Stochastik sind gegenüber dem Klima sicherlich wesentlich einfacher, aber man erlernt ein Gefühl dafür.

“……….. und schaffen neue ökonomische Chancen”. Hand aufs Herz, ist das nicht angesichts aller Unwägbarkeiten ein übertriebener Pathos?

Dazu passend der aktuell erschienene Artikel in der Süddeutschen Zeitung, Rubrik WISSEN(-schaft?), vom 07. Mai 2019: Wetter oder Klima? Schnee-Rekorde im Mai: Weshalb es gerade so kalt ist. Zitat:

“……In diesem Jahr wäre die Kälte lediglich ein paar Tage zu früh dran, wobei auf den traditionellen Kälteeinbruch zu den Eisheiligen in den vergangenen Jahrzehnten nicht mehr viel Verlass war. Allerdings ist auch ein Einfluss des Klimawandels auf Kälteeinbrüche denkbar. Denn sie entstehen durch große Wellen im sogenannten Jetstream, ……….”.

Was täte die Menschheit ohne Konjunktiv?


Lithium-Abbau in Südamerika: Kehrseite der Energiewende

Zwischen dem 11. und 15. Mai 2019 sind die Eisheiligen. Josef Kowatsch hat für uns die Temperaturentwicklung der Eisheiligen am Beispiel der Station Potsdam für die letzten 32 Jahre aufgetragen: Insgesamt sind die Eisheiligen immer kälter geworden. Der Wert für 2019 wird voraussichtlich knapp unter 11°C reinkommen (geschätzt):



Im Himalaya will der Winter gar kein Ende nehmen, wie 20 Minuten am 12. Mai 2019 meldete:

Hunderte von Yaks erfroren und verhungert
Seit Dezember sind in einem von der Umwelt abgeschnittenen Tal im indischen Himalaya mindestens 300 Tiere gestorben. Heftige Schneefälle verhinderten rechtzeitige Hilfe. [...] Nach heftigen Schneefällen hätten im Dezember rund 50 Menschen in dem Tal bei den Behörden Hilfe angefordert, da das Futter für rund 1500 Yaks zur Neige ging. Einsatzkräfte konnten wegen neuer Schneefälle jedoch lange nicht in das Tal vordringen. Wegen des anhaltenden Winterwetters wuchs im Frühling auch kein frisches Gras.

Weiterlesen auf 20 Minuten

Berichte zu späten Kälteextremen im Frühling 2019 gibt es auch auf Youtube:


Zum Glück ist schon bald wieder Sommer. Gibt es wieder einen Hitzesommer wie 2018? Hitzesommer hat es auch schon früher gegeben – wenn sie in den Datenbanken nicht händisch gelöscht werden. Aus den Niederlanden erreichte uns die folgende beunruhigende Leserzuschrift:

Betreff: NL Forscher-Hitzwellen wurden gelöscht um…

Bisher hat wohl nur die NL Presse berichtet. Hier eine Automatische Google-Übersetzung:

Vor drei Jahren löschte KNMI irrtümlich/vorsätzlich einen großen Teil der historischen Hitzewellen (in der Zeit von 1901 bis 1951) aus den Büchern. Zu diesem Schluss kommt ein Team von vier unabhängigen Forschern im Bericht ‘Das Rätsel der verlorenen Hitzewellen’. Die Forscher bezeichnen die extremen Temperaturkorrekturen von 1,9 ° C, die KNMI an heißen bis sehr heißen Tagen (28 ° C oder höher) anwendet, als „unhaltbar“.  […] „Diese Behauptung gilt jedoch erst nach den Temperaturkorrekturen (im Jargon als Homogenisierung bezeichnet), die das KNMI im Jahr 2016 implementiert hat. Vor den Korrekturen fanden 23 Wärmewellen im Zeitraum 1901-1951 statt, im Vergleich zu 19 Wärmewellen im erheblich längeren Zeitraum 1951-2018, so dass in der Vergangenheit häufiger Wärmewellen auftraten. Aufgrund der Temperaturkorrekturen des KNMI verschwanden jedoch 16 der 23 „alten“ Hitzewellen und die Verteilung wurde im Zeitraum 1901-1951 zu 7 Hitzewellen, verglichen mit 19 im Zeitraum seit 1951.“


Deutschlandfunk am 30. April 2019:

Lithium-Abbau in Südamerika: Kehrseite der Energiewende
Im Dreiländereck Bolivien, Chile, Argentinien sollen 70 Prozent der weltweiten Lithium-Vorkommen lagern. Der Rohstoff wird gebraucht, um Elektro-Auto-Batterien herzustellen. In Zeiten der Energiewende wächst der Bedarf nach Lithium rasant. Doch dessen Abbau zerstört die Lebensgrundlage der indigenen Bevölkerung.

[...] „Ich hatte früher 230 Lamas, aber das war, bevor das Bergbauunternehmen hier anfing zu arbeiten. Seitdem sterben die Tiere. Die Kleinen werden geboren und sterben. Das geht schon seit zwei Jahren so. Sie kommen mit Behinderungen und Krankheiten zur Welt, mit krummen Beinen und Zysten. An denen sterben sie dann nach kurzer Zeit.“

Weiterlesen beim Deutschlandfunk


Kleines Klimasymposium am 14. Mai 2019 am Deutschen Bundestag mit Lord Monckton, NASA-Forscher Thomas Wysmüller, Prof. Henrik Svensmark und Prof. Gernot Patzelt. Zum Youtube-Video geht es hier.


Der UN-Weltbiodiversitätsrat: Ein neues Instrument zur Dekarbonisierung unserer Welt?

Von Uli Weber

Anfang Mai 2019 überschlugen sich die Medien mit Meldungen über ein zukünftiges Artensterben von apokalyptischem Ausmaß. Nach einer aktuellen Presseerklärung des „UN-Weltbiodiversitätsrates“ (Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services – IPBES) zur weltweiten Artenvielfalt sind nämlich 1.000.000 (in Worten: Eine Million) Arten auf unserer Erde vom Aussterben bedroht. Der zugrunde liegende IPBES-Bericht basiert nach eigenen Angaben auf der Auswertung von 15.000 wissenschaftlichen und staatlichen Quellen.

Nach mehr als 50 Jahren Umweltschutz in den westlichen Industrienationen, erheblichen Ausweitungen und Vernetzungen von Schutzgebieten sowie dem seit vielen Jahrzehnten geltenden Washingtoner Artenschutzübereinkommen (CITES) erzählt man uns jetzt also, dass von angeblich 8 Millionen Arten plötzlich 1 Million Arten vom Aussterben bedroht sein sollen; das wären also 12,5 Prozent aller Arten auf unserer Erde. Aus diesem Widerspruch lässt sich zunächst einmal die nachfolgende Frage zum UN-Weltbiodiversitätsrat IPBES ableitet:

Wie viel seriöser als die politisch gesteuerte UN-IPCC-Klimawissenschaft ist denn die UN-IPBES-Artenschutzwissenschaft?

Schaunmeralsomalganzgenauhin und rechnenmereinfachmalnach: Pro ausgewertete Quelle (15.000) wird vom UN-Weltbiodiversitätsrat IPBES das Aussterben von durchschnittlich etwa 65 Arten behauptet. Da aber für eine qualifizierte wissenschaftliche Aussage über eine konkrete Art mindestens ein definierter Ist-Zustand und dessen zeitliche Entwicklung zu einem späteren Zeitpunkt erforderlich sind, benötigen wir schon jeweils mindestens zwei Berichte pro Aussage und Art, also eigentlich 2 Millionen Berichte. Für die Aussage von 1 Million vom Aussterben bedrohten Arten wäre also gegenüber der Angabe des UN-Weltbiodiversitätsrat IPBES von 15.000 Quellen ein Berichtsverhältnis von 1:130 erforderlich, soweit es sich bei diesen Berichten nicht bereits um entsprechende Metastudien handelt.

Gehen wir wohlmeinend einmal von solchen Metastudien aus, wobei der UN-Weltbiodiversitätsrat IPBES mit solchen Metastudien seinem wissenschaftlichen Ansprüchen nicht vollends gerecht werden würde, weil dann ja im IPBES-Bericht auch noch deren Quellen hätten ausgewertet und angegeben werden müssen, und rechnen wir damit einfach einmal weiter.

Je nach Spezies kann man von einem Untersuchungsgebiet von 1×1 Meter bis 100×100 Kilometern ausgehen; dabei beträgt die Gesamtfläche der Erde 510 Millionen Quadratkilometer. Das ergibt überschlägig mindestens 50.000 Untersuchungsgebiete á 10.000 Quadratkilometer, wobei dort jeweils mehrere Arten gleichzeitig untersucht werden können und nicht alle Arten in allen Untersuchungsgebieten vorkommen.

Für eine einzelne Art benötigt man mindestens die Beobachtungsdauer von einem vollen Jahreszyklus, für eine konkrete Aussage über eine zahlenmäßige Entwicklung also mindestens zwei Untersuchungsperioden mit mehreren Jahrzehnten Abstand –plus die Überprüfung der Wanderwege von nicht ortsfesten Arten. Das ergibt dann insgesamt mindestens zwei Millionen Beobachtungsjahre mal 50.000 Untersuchungsgebiete, also 100 Milliarden Untersuchungsgebietsjahre á 10.000 Quadratkilometer, wobei ein einzelner Beobachter wiederum eine Anzahl von Flächen und Arten gleichzeitig untersuchen kann.

Damit repräsentiert jede einzelne der 15.000 UN-IPBES-Quellen also durchschnittlich etwa 6.500.000 Untersuchungsgebietsjahre mit jeweils etwa 65 vom Aussterben bedrohten Arten.

Diese unglaubliche wissenschaftliche Leistung ist zudem in aller Stille erbracht worden. Gleichfalls sind sowohl das Timing von UN-IPBES als auch die Kommunikationsdisziplin der Beteiligten zu würdigen, denn sie alle hatten bis zur Erreichung dieses absoluten High-Score von 1.000.000 gefährdeten Arten stillgehalten und diese erschreckende Information nicht vorzeitig bei einem Zählerstand von 1.000, 10.000 oder 100.000 vom Aussterben bedrohten Arten an die Öffentlichkeit „geleakt“.

Klar ist damit umgekehrt aber auch, dass die meisten dieser wissenschaftlichen Beobachtungen längst in Arbeit gewesen sind, während unser gemeinsames natürliches Erbe durch chaotische und unkoordinierte Maßnahmen für einen „globalen Klimaschutz“ schwer geschädigt worden ist – und alle beteiligten Wissenschaftler und staatlichen Institutionen hatten dazu bisher geschwiegen. Daraus leitet sich die unmittelbare Frage ab, wo dieser „Weltbiodiversitätsrat“ eigentlich war, als große Urwaldflächen für Palmölplantagen abgeholzt worden und natürliche Landschaften durch Wind- & Solarparks sowie Monokulturen von Energiepflanzen „nachhaltig“ verwüstet worden sind.

Stellen wir mit diesem Zwischenstand noch einmal einen Bezug zu den politisierten UN-Klimawissenschaften her:

“The Intergovernmental Panel on Climate Change” (IPCC) ist eine Körperschaft der Vereinten Nationen zur Beurteilung der Wissenschaft zum Klimawandel (“The Intergovernmental Panel on Climate Change is the United Nations body for assessing the science related to climate change”). Die IPCC-Berichte für Entscheidungsträger (Summary for Policymakers) werden aber üblicherweise politisch abgestimmt und widersprechen daher oftmals der in den zugehörigen Assessment Reports veröffentlichten korrekten wissenschaftlichen Datengrundlage.

Wie glaubwürdig ist der UN-Weltbiodiversitätsrat IPBES und bestehen auch seine Kernaussagen aus politisch ausgehandelten Schreckensbotschaften?

Die obige Abschätzung für den zugrunde liegenden Arbeitsumfang der 15.000 UN-IPBES-Quellen stellt lediglich eine Rückrechnung für die von ihm behauptete 1 Million bedrohte Arten dar. Ein globales Monitoring für alle dort behaupteten 8 Millionen Arten auf unserer Erde müsste demnach also den 8-fachen Untersuchungsaufwand erfordern, also knapp 1 Billion Untersuchungsgebietsjahre á 10.000 Quadratkilometer – da gibt es also noch gehörig Luft nach oben. Schauen wir jetzt einmal nach, ob wenigstens die Gesamtanzahl der Arten von 8 Millionen korrekt ist. Bei Wikipedia heißt es unter dem Stichwort „Artenvielfalt“, Zitat mit Hervorhebungen:

Im Global Biodiversity Assessment, im Auftrag der UNEP (United Nations Environment Programme) 1995 erstellt, wurde für die Erde insgesamt eine Zahl von rund 1,75 Millionen beschriebenen Arten angegeben. Diese Zahl ist nur ein Schätzwert. Eine genaue Aufstellung existiert nicht. Heute rechnet man mit insgesamt über 2 Millionen beschriebenen Arten.“

Und weiter heißt es dort bei Wikipedia, Zitat mit Hervorhebungen:

Die globale Gesamtzahl aller Arten wurde in den vergangenen zwei Jahrzehnten sehr stark unterschiedlich zwischen 3,6 Millionen bis zu 112 Millionen geschätzt. Die Schätzgrößen wurden extrapoliert auf der Basis der Mitte der 1990er Jahre beschriebenen rund 1,75 Millionen Arten. Einen differenzierten Überblick über den damaligen Schätzstand gibt wiederum das Global Biodiversity Assessment von 1995, zu welchem in den letzten Jahren für viele Teilgruppen aktuellere Schätzwerte erarbeitet worden sind. Ein aktuellerer Gesamtüberblick wurde nicht mehr erarbeitet.“

Anscheinend handelt es sich bei den 1.000.000 laut UN-Weltbiodiversitätsrat IPBES vorgeblich vom Aussterben bedrohten Arten also um die Hälfte der bisher beschriebenen Arten von etwa 2 Millionen. Und offenbar ist auch die Angabe von 8 Millionen Arten auf unserer Erde eine willkürliche Aussage, die eher einen zweistelligen Prozentsatz von vorgeblich bedrohten Arten spiegelt als die tatsächliche Artenvielfalt auf unserer Erde, die vielmehr auf bis zu 112 Millionen Arten geschätzt wird. Aber schauen wir weiter: Der UN-Weltbiodiversitätsrat IPBES stellt in seinem „Summary for policymakers of the global assessment report on biodiversity and ecosystem services of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem ServicesADVANCE UNEDITED VERSION – 6 May 2019” auf Seite 14 die nachfolgende Abbildung zum Artensterben dar:

Abbildung: IPBES SPM 2019 Figure 3 auf Seite 14

Bildunterschrift: A substantial proportion of assessed species are threatened with extinction and overall trends are deteriorating, with extinction rates increasing sharply in the past century.

(A) Percentage of species threatened with extinction in taxonomic groups that have been assessed comprehensively, or through a ‘sampled’ approach, or for which selected subsets have been assessed, by the International Union for Conservation of Nature (IUCN) Red List of Threatened Species. Groups are ordered according to the best estimate for the percentage of extant species considered threatened (shown by the vertical blue lines), assuming that data deficient species are as threatened as non-data deficient species.

(B) Extinctions since 1500 for vertebrate groups. Rates for Reptiles and Fishes have not been assessed for all species.

(C) Red List Index of species survival for taxonomic groups that have been assessed for the IUCN Red List at least twice. A value of 1 is equivalent to all species being categorized as Least Concern; a value of zero is equivalent to all species being classified as Extinct. Data for all panels derive from (see Chapter 3 Figure 3.4 and Chapter 2 Figure 2.7).


Der Gefährdungsgrad für die vom UN-Weltbiodiversitätsrat IPBES in Abbildung 3A aufgelisteten Arten basiert offenbar allein auf Roten Listen und zusammenfassend erhoben/aus Teilmengen ermittelten Aussagen über deren Gefährdung. Tatsächlich weist die Abbildung 3A aus dem „Summary for Policymakers“ lediglich eine Gesamtzahl von knapp 40.000 untersuchten Arten (“Total number of extant assessed species”) aus, die dort in mehrere Unterkategorien von „ausgestorben“ bis „ungefährdet“  unterteilt werden – und die Mehrzahl dieser knapp 40.000 Arten ist offenbar gar nicht gefährdet (grüne Balken). Der dazugehörige Text ist im IPBES-SPM unter dem Punkt A5 auf Seite 3 unter “Human actions threaten more species with global extinction now than ever before” zu finden, Zitat mit Hervorhebungen:

An average of around 25 per cent of species in assessed animal and plant groups are threatened (figure SPM.3), suggesting that around 1 million species already face extinction, many within decades, unless action is taken to reduce the intensity of drivers of biodiversity loss. Without such action there will be a further acceleration in the global rate of species extinction, which is already at least tens to hundreds of times higher than it has averaged over the past 10 million years. {Fig SPM4, BG 6}

Sie lesen richtig, dort steht tatsächlich, dass lediglich 25 Prozent der in Abbildung 3 bewerteten 38.679 Arten gefährdet sind. Und damit erlaubt sich der UN-Weltbiodiversitätsrat IPBES dann „nahzulegen“, also ausdrücklich nicht „zu bewiesen“, dass insgesamt etwa 1 Million Arten auf unserer Erde vom Aussterben bedroht sind.

Aus dem unter Punkt A5 auf Seite 3 angegebene Gesamtgefährdungsgrad von durchschnittlich 25 Prozent errechnen sich knapp 10.000 hoch gefährdete Arten, also lediglich etwa 1 Prozent der alarmierenden IPBES-Aussage von 1 Million. Daraus ergibt sich eine deutliche zahlenmäßige Diskrepanz zwischen der erschreckenden Verlautbarung von 1 Million vom Aussterben bedrohten Arten in der IPBES-Presseerklärung und einer zugrunde liegenden Angabe von knapp 10.000 gefährdeten Arten im IPBES-SMP Abbildung 3; hier stehen also allein schon Datengrundlage und Aussage zahlenmäßig völlig auf dem Kopf. Wenn man einmal die Angabe des UN-IPBES über die Gesamtzahl aller Arten auf unserer Erde von 8 Millionen zugrunde legt, dann schließt man dort also aus einer Teilmenge von etwa 1 Promille mit einem Faktor von etwa 100, dass 12,5 Prozent aller Arten vom Aussterben betroffen sein sollen. Und daraus leitet sich dann unmittelbar die rhetorische Frage ab, ob das, was ein UN-Weltbiodiversitätsrat IPBES hier der interessierten Öffentlichkeit präsentiert, eigentlich noch Wissenschaft ist oder ein ganz grober Fall für die Faktenfinderindustrie…

Der UN-Weltbiodiversitätsrat IPBES stellt sich damit also als ein ganz neues Instrument für die öffentliche Verbreitung von alarmistischen Schreckensszenarien dar.

Was ist dieser „UN-Weltbiodiversitätsrat IPBES“ nun eigentlich genau und was ist seine Aufgabe? Der UN-Weltbiodiversitätsrat IPBES wurde im Jahre 2012 von „Mitgliedsstaaten“ gegründet; unter „Establishment of IPBES“ findet man den genauen zeitlichen Ablauf dieser UN-Neugründung. Und auf der IPBES-Homepage erfahren wir dann unter „About“ auch dessen Aufgaben,  Zitat mit Hervorhebungen:

What is IPBES?

The Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services (IPBES) is an independent intergovernmental body, established by member States in 2012. The objective of IPBES is to strengthen the science-policy interface for biodiversity and ecosystem services for the conservation and sustainable use of biodiversity, long-term human well-being and sustainable development.”

Interessant ist insbesondere die Zusammenarbeit von UN-IPBES mit anderen internationalen Verbänden, für die es bereits eine ganze Anzahl von Verträgen gibt. So gibt es beispielsweise ein Memorandum für die Zusammenarbeit von UN-IPBES mit FutureEarth. Das englische Wikipedia sagt zu FutureEarth, Zitat mit Hervorhebungen:

Future Earth is a 10-year international research program which aims to build knowledge about the environmental and human aspects of Global change, and to find solutions for sustainable development. It aims to increase the impact of scientific research on sustainable development. Future Earth is an interdisciplinary research programme bringing together natural and social sciences, as well as the humanities, engineering and law, and focused on designing and producing research together with stakeholders from outside the scientific community. ”

Die Eingangsformel des Memorandums für die Zusammenarbeit von UN-IPBES mit FutureEarth ist nachstehend mit Hervorhebungen abgebildet:

Der UN-Weltbiodiversitätsrat PBES hat also die Aufgabe, die Schnittstelle zwischen Politik und Wissenschaft zu stärken, während sich UN-Environment als amtlicher Anwalt der globalen Umwelt bezeichnet. Und FutureEarth stellt Kenntnisse und Unterstützung bereit, um die Transformation zu einer nachhaltigen Welt zu beschleunigen. Eine solche Transformation zu einer dekarbonisierten Weltgemeinschaft hatte uns übrigens der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) bereits im Jahre 2011 in seinem Hauptgutachten „Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation“ geweissagt.

Und heute, wo unter dem dröhnenden Schweigen von Wissenschaft, Politik und Medien im Ergebnis einer globalen Energiewende Millionen von Vögeln und Fledermäusen und Milliarden von Insekten von Windkraftanlagen geschreddert werden, sowie weiterhin Urwaldflächen abgeholzt und natürliche Landschaften durch Wind- & Solarparks und Monokulturen von Energiepflanzen verwüstet werden, erscheint plötzlich ein UN-Weltbiodiversitätsrat IPBES wie Kai aus der Kiste und soll die Schnittstelle zwischen Politik und Wissenschaft stärken, um die Transformation zu einer nachhaltigen Welt zu beschleunigen.

Wenn jetzt also ein „UN-Weltbiodiversitätsrat“ als „Schnittstelle zwischen Politik und Wissenschaft“ davor warnt, dass die weltweite Artenvielfalt bedroht ist, dann ist das vielleicht gar kein Zufall, sondern möglicherweise ein „UN-Rettungsschirm“ zum Schutz einer völlig verfehlten globalen „Energiewende“ gegen ihre eigenen negativen Auswirkungen auf unsere natürliche Umwelt. Denn erst die panischen Maßnahmen dieser „Energiewende“ zur Verhinderung eines „menschengemachten Klimawandels“ haben ja ganz entscheidend zu einer solchen angespannten Situation für unsere natürliche Umwelt beigetragen.

Und was ist nun die Schnittstelle zwischen Politik und Wissenschaft?

Politik hat immer genug (Steuer-)Geld und reines Wissen ist eine brotlose Kunst; dafür ist die Wissenschaft frei und die Politik kann nichts zu ihren Erkenntnissen beitragen. Eigentlich war die Schnittstelle zwischen Politik und Wissenschaft in einer lebendigen Demokratie bisher also lediglich die Einbahnstraße einer vorbehaltlosen Finanzierung von freier Wissenschaft zum Nutzen der Allgemeinheit durch die Politik im Rahmen der verfassungsmäßigen Rechte und Pflichten beider Seiten.

Wenn nun aber die Politik zielgerichtete wissenschaftliche Argumente für eine globale Transformation zu einer nachhaltigen Welt benötigen würde, und die freie Wissenschaft wäre wiederum an einer besseren finanziellen Ausstattung interessiert, dann könnte sich aus einer solchen Schnittstelle auch eine Tauschbörse entwickeln. Und damit dürfte eine Schnittstelle zwischen Politik und Wissenschaft vielleicht ganz zwanglos in der wirtschaftlich sehr erfolgreichen Symbiose „wes Brot ich ess, des Lied ich sing“ konvergieren; oder modern ausgedrückt, hier könnten sich „rent seeking“ und „noble cause corruption“ zum beiderseitigen Nutzen auf Kosten der fehlzuleitenden Steuerzahler zusammenfinden.

Das jetzt vom UN-Weltbiodiversitätsrat IPBES gemeldete globale Artensterben ist also möglicherweise nur ein neuer Mosaikstein für die politisch beabsichtigte „Große Transformation“ in ein ökologisches Mittelalter.

Eine völlig aus dem Ruder gelaufene UN-Wissenschaftsideologie könnte in ihrer Hybris also durchaus versuchen, uns im Sinne ihrer transformatorischen Globalisierungsphantasien auch noch die von ihr selbst verursachten Exzesse des Klimawahns als eine Erbschuld der Industrienationen verkaufen zu wollen. Und da die westlichen Industriegesellschaften auf jegliche Katastrophenmeldung wie Pawlowsche Hunde mit Selbstbezichtigungen und Selbstkasteiungen zu reagieren pflegen, wie deren unverhältnismäßige Reaktionen auf die Vermüllung der Ozeane trotz langjähriger eigener Mülltrennung und auf eine drohende Überbevölkerung trotz zunehmender Überalterung der Industrienationen beweisen, ist ein neuerlicher Erfolg gar nicht auszuschließen.

Es wird also zunehmend enger für unsere fossil befeuerte industrielle Kultur. Denn der UN-Weltbiodiversitätsrat IPBES wird wohl eher kein wissenschaftliches Gegengewicht zur Zerstörung unserer natürlichen Umwelt durch den Ausbau einer alternativen Energieerzeugung bilden, sondern er könnte uns sogar noch für deren Auswirkungen auf die natürliche Umwelt verantwortlich machen. Hier bahnt sich offenbar ein globales Hase-und-Igel Drama an, in dem zwei vollalimentierte UN-Kraken die Igel und wir die zu deindustrialisierenden Hasen sein könnten…


Political-Correctness-Bewegung: Wahrheit steht in Form der Doktrin bereits fest, weshalb sich Debatten im Grunde erübrigen

Großartiger Kommentar von Milosz Matuschek am 29. April 2019 in der Neuen Zürcher Zeitung, den Sie nicht verpassen sollten:

Die folgsame Schar der Moralisten

Das Geschäft der Tugendwächter ist dasjenige des Schafs, das sich im Schutz der Herde zu blöken traut. Wie werden wir den Ungeist der politischen Korrektheit wieder los?


Wer heute keine guten Argumente hat, kann mit Verweis auf Identität, Gefühl und das persönliche Erleben dank dem Schutz einer folgsamen Schar von Moralisten leicht «recht bekommen». Fakten sucht man sich wie Rosinen: Wer auf der vermeintlich richtigen Seite steht, für den gibt es nur einen Grund für den Klimawandel, aber dafür 60 verschiedene Geschlechter. All das ist alarmierend, denn die freie Rede ist die Lunge der Demokratie. Aus der Krankheit der einen folgt unweigerlich ein Siechtum der anderen. Der Ungeist der politischen Korrektheit metastasiert sich gerade durch Universitäten, den Kulturbetrieb, Redaktionsstuben bis hin in die Politik. Was ist dem entgegenzusetzen?


Die freie Debatte über alle Themen dient der Wahrheitsfindung, sie schützt den Prozess der Kollision unterschiedlichster Perspektiven (also von Meinungen, basierend auf Fakten), gleichgültig ob diese provokant, verletzend oder wertlos daherkommen. Da es seit je unpraktikabel war, die Wahrheitsfindung top-down zu organisieren, verständigte man sich auf einen Prozess der Erkenntnisgewinnung durch alle in einem Verfahren, welches seit Aristoteles massgeblich vom Logos, also von Rationalität bestimmt ist. Praktisch umgekehrt ist der Prozess aus Sicht der Political- Correctness-Bewegung. Hier steht die Wahrheit in Form der Doktrin bereits fest, weshalb sich Debatten im Grunde erübrigen. Der Debattenraum wird im Namen einer Ideologie somit erst teilprivatisiert und dann schrittweise universalisiert, bis der Privatstandard der Doktrin als einzig neuer zulässiger Meinungskorridor erscheint.

Ganzen Beitrag in der NZZ lesen.


Björn Peters am 25. April 2019 auf der Webseite des Deutschen Arbeitgeberverbandes:

Das Ende der Energiewende und der neue Ökologische Realismus

In Berlin glaubt kein Fachpolitiker mehr an den Erfolg der Energiewende. Wen man auch immer befragt, jeder sagt dies nur hinter vorgehaltener Hand und meint, würde er damit an die Presse gehen, könne er gegen den ‚grünen‘ Medien-Mainstream nur verlieren. Das Problem sei, dass es kein Gegenmodell gäbe. Wir machen einen Aufschlag für eine Energiestrategie, die alle Energieformen einschließt, sagt, warum wir sie benötigen, und wie mit Rohstoffen umzugehen ist. Weil das Thema neu ist, werden wir es nicht in der gewohnten Kürze abhandeln können.

Warum wir einen Neustart in der Energiepolitik benötigen

Chemische Energie aus Kohle, Öl und Gas liefert weltweit und auch in Deutschland etwa vier Fünftel der Primärenergie und stellt damit die Gegenwart der Energieversorgung dar. Irgendwann werden die Vorräte aufgebraucht sein, Öl voraussichtlich zum Ende dieses Jahrhunderts, Kohle und Gas bis zur Mitte des angebrochenen Jahrtausends. Daher ist es seit langem politischer Konsens, sich um Alternativen zu bemühen. Chemische Energieträger sind einstweilen noch unersetzbar und werden es noch einige Jahrzehnte bleiben. Zu groß sind deren Vorteile. Bei Kohle sind es die kostengünstige, massenhafte Verfügbarkeit und die relativ saubere Verbrennung, zumindest in modernen Kraftwerken. Dennoch ist die Kohleverbrennung die für den Menschen „tödlichste“ Energieerzeugungsform.

Gas ist demgegenüber viel sauberer in der Verbrennung, und es zeichnet sich ab, dass es überwiegend nicht fossilen Ursprungs ist, sondern in sehr großer Tiefe im Erdinneren erzeugt wird und dann langsam nach oben steigt und sich in günstigen Fällen in Blasen unter dichterem Deckgestein sammelt[i]. Erdgas trägt seinen Namen also zurecht und eignet sich noch für viele Jahrzehnte als Übergangstechnologie.

Weiterlesen auf der Webseite des Deutschen Arbeitgeberverbandes


Vor kurzem wiesen wir hier im Blog auf die Doku “Der Klimaschwindel” von 2007 hin. Irgendjemand hatte sie dort vor 2 Jahren hochgeladen. Kurz nach unserem Hinweis wurde die Doku auf Youtube gelöscht. Ein Zufall? Ein Leser teilte uns mit, dass es sich lohnen würde, auf Youtube auch nach den Begriffen “Der große Erderwärmungs-Schwindel” und “Die globale Erwärmung – Wahrheit oder Schwindel?” zu suchen… Besser: Auf Amazon gibt es auch die DVD zu kaufen, sehr empfehlenswert für alle, die die Doku noch nicht kennen: The Great Global Warming Swindle



Kachelmann über Dürre-Warnungen der Medien: “Über 90 Prozent aller Geschichten zu Wetter und Klima sind falsch oder erfunden”

Am 26. April 2019 erschien auf ein ausgezeichnetes Interview mit Jörg Kachelmann:

Kachelmann über Dürre-Warnungen der Medien: “Über 90 Prozent aller Geschichten zu Wetter und Klima sind falsch oder erfunden”

MMEDIA: Wenn man Medien wie Bild, FAZ und “Tagesschau” diese Woche verfolgt hat, steht uns ein weiterer Dürre-Sommer wie im vergangenen Jahr bevor … müssen wir jetzt alle Angst haben?

KACHELMANN: Nein, alle diese Meldungen sind frei erfunden.

MMEDIA: Die genannten Medien berufen sich auf den Deutschen Wetterdienst – ist der denn nicht seriös?

KACHELMANN: Das ist eine Lüge. Der Deutsche Wetterdienst hat nie behauptet, dass es einen Dürresommer gäbe. Er schrieb nur, dass es einen geben könnte, wenn es nicht regnet, was nicht weiter überrascht. Daraus hat dpa dann einfach mal zugedichtet, dass der DWD vor einem Dürresommer warne. Das wurde dann kurz darauf korrigiert, aber die unbändige Lust der deutschen Medien an klickbarem Horror lässt sich durch eine solche Korrektur nicht mehr aufhalten.

Weiterlesen auf Meedia.


Peter Heller am 6. Mai 2019 auf Achgut:

Klimapolitik: Die große Simulation

Der gegenwärtigen Klimaschutzpolitik fehlt jede naturwissenschaftliche Legitimation. Auch die oft als Beleg des Gegenteils herangezogenen Sachstandsberichte des IPCC bieten keine solche. Tauchen in diesen doch Begriffe wie „Klimakatastrophe“ oder „Klimakrise“ nicht auf – und das aus guten Gründen. Zielmarken wie „zwei Grad“ werden zwar behandelt, aber nicht eingefordert. Wer anderes behauptet, betreibt Desinformation. Oder hat die IPCC-Berichte nie selbst gelesen und ist politisch gefärbten Interpretationen Dritter aufgesessen.

Denn die zukünftige Entwicklung komplexer, rückgekoppelter und von zahlreichen inneren und äußeren Faktoren beeinflusster Systeme ist nicht vorhersehbar. Allein schon, weil man niemals die Anfangsbedingungen in ausreichendem Umfang und mit ausreichender Güte kennen kann, um einen Ist-Zustand in einer Genauigkeit zu definieren, die es wenigstens gestattet, bestimmte Tendenzen auszuschließen. Da hilft auch kein noch so mächtiger Computer, dessen diskrete Arbeitsweise zudem immer das Abschätzen von Vorgängen erfordert, die sich auf Skalen unterhalb der rechentechnisch möglichen Auflösung abspielen.

Manche Prozesse, beispielsweise den so wichtigen Vorgang der Wolkenbildung, hat man ohnehin noch nicht gut genug verstanden. Klimamodelle sind geeignete Werkzeuge für Laborexperimente. Sie unterstützen die Entschlüsselung von Zusammenhängen. Sie gestatten, die Reaktion eines virtuell konstruierten Klimasystems auf die Variation von Einflüssen und Mechanismen zu beobachten und diese mit der Realität zu vergleichen, um neue Hypothesen zu formulieren und zu prüfen. Auf diese Weise gelingt es beispielsweise, die anthropogenen Emissionen als wahrscheinliche Ursache des Temperaturanstiegs der letzten Jahrzehnte zu identifizieren. Aber Glaskugeln, die einen Blick in die Zukunft erlauben, sind Klimamodelle genau nicht.

Weiterlesen auf auf Achgut


Sie kennen den Jetstream? Der verlagert sich im Laufe des Tages in spektakulärer Weise. Auf finden Sie die aktuelle Position des Jetstreams sowie die Positionen der vergangenen Stunden und Tage. Klicken Sie hier und fahren mit der Maus am linken Rand der Karte auf die vergangenen Stunden, spannend.


Tagesanzeiger am 2. Mai 2019:

3000 Milliarden für die Energiewende
Klimapolitik: Eine neue Studie aus Deutschland legt dar, warum die Reduktion des Ausstosses von Treibhausgas teurer wird als bisher angenommen. Schweizer Politiker fordern eine ähnliche Untersuchung.

Artikel auf lesen (nur für Abonnenten).


Es ist in den letzten 100 Jahren wärmer geworden. Alles CO2, sagen die Klimawarner. Aber weshalb hat auch die Sonnenscheindauer zugenommen? Hat das CO2 die Wolken vertrieben? Lesen Sie hierzu in Alfred Brandenbergers Vademecum:

METOZURICH: Klimawandel bringt Sonne an den Tag

Deutschland 2018 mit Sonnenscheinrekord: Hat das CO2 die Wolken vertrieben?

Klimawandel in Österreich: Immer sonnenreicher

Juli 2018 in Deutschland – kein neuer Rekordmonat


Golfstrom vom arktischen Schmelzwasser weitgehend unbeeindruckt

Stefan Rahmstorf wird nicht müde zu folgern, dass das Golfstromsystem (AMOC, Atlantic Meridional Overturning Circulation) durch den Süsswassereintrag des schmelzenden Grönlandeises stark geschwächt wird. In seinem Klimalounge-Blog schrieb er Ende Januar 2019:

 ”Die Physik dahinter ist verstanden, wie die globale Erwärmung und Eisschmelze (beide zweifellos vom Menschen verursacht) die AMOC abbremsen…”

Am 26. April 2019 erschien von Dukhovskoy und Kollegen eine neue Arbeit in JGR Oceans, die zu dem Ergebnis kommt, dass das Schmelzwasser Grönlands die AMOC kaum beeinflusst:

Role of Greenland Freshwater Anomaly in the Recent Freshening of the Subpolar North Atlantic
The cumulative Greenland freshwater flux anomaly has exceeded 5000 km3 since the 1990s. The volume of this surplus fresh water is expected to cause substantial freshening in the North Atlantic. Analysis of hydrographic observations in the subpolar seas reveal freshening signals in the 2010s. The sources of this freshening are yet to be determined. In this study, the relationship between the surplus Greenland freshwater flux and this freshening is tested by analyzing the propagation of the Greenland freshwater anomaly and its impact on salinity in the subpolar North Atlantic based on observational data and numerical experiments with and without the Greenland runoff. A passive tracer is continuously released during the simulations at freshwater sources along the coast of Greenland to track the Greenland freshwater anomaly. Tracer budget analysis shows that 44% of the volume of the Greenland freshwater anomaly is retained in the subpolar North Atlantic by the end of the simulation. This volume is sufficient to cause strong freshening in the subpolar seas if it stays in the upper 50–100 m. However, in the model the anomaly is mixed down to several hundred meters of the water column resulting in smaller magnitudes of freshening compared to the observations. Therefore, the simulations suggest that the accelerated Greenland melting would not be sufficient to cause the observed freshening in the subpolar seas and other sources of fresh water have contributed to the freshening. Impacts on salinity in the subpolar seas of the freshwater transport through Fram Strait and precipitation are discussed.

Im Haupttext heißt es unter anderem:

“This result agrees with the previous study of Saenko et al. (2017), who also show that the GFWA of similar magnitude (and even double of this magnitude) has negligibly small impact on the SPNA thermohaline fields, barely impacting AMOC.”

GFWA bedeutet die Schmelzwasseranomalie von Grönland und SPNA subpolarer Nordatlantik. Eine Studie aus 2017 findet Ähnliches, sie wird von Rahmstorf im Januar 2019 selbstverständlich nicht erwähnt. Das Süßwasser aus Grönland wird bis in Tiefen von 1000 m hinab gemischt und damit ist die Menge praktisch bedeutungslos für die AMOC, findet die Arbeit. Was nun?

Seit Jahren hören wir aus bestimmten Kreisen der Klimaforschung, dass wir das Grönlandeis schmelzen und damit ein “Day after tomorrow”-Szenario heraufbeschwören und eine ganz aktuelle Arbeit findet, dass das nicht so ist. Wenn wir darüber berichten: Stellen wir damit die “Glaubwürdigkeit der Klimawissenschaft in Frage”? Oder bilden wir die Fortschritte in der Klimaforschung korrekt ab, denn es gibt ja die zitierte Arbeit? Klimawarner versuchen verzweifelt, das falsche Bild einer monolithischen “Klimawissenschaft” zu vermitteln, die es aber in Wirklichkeit gar nicht gibt.


Siehe auch unsere früheren Beiträge zum Golfstrom hier.

Nudging for Future

Von Uli Weber

Politik und Medien belehren uns zwar immer wieder, man könne vom Einzelnen nicht aufs Ganze schließen und Angst sei ein schlechter Ratgeber. Aber beim Klima ist das alles plötzlich ganz anders, da will uns Greta in Panik versetzen und wird dafür freitags von verängstigt schwänzenden Schülern gefeiert  – und alle zusammen werden dafür dann von Politik, Medien und Kirche hofiert. Und ein einzelner besonders heißer und trockener Sommer beweist wiederum letzteren bereits einen „menschengemachten“ Klimawandel und zwingt uns angeblich zu sofortigem Handeln.

Eine Suche nach dem Begriff „Klimaanpassungskonzept“ ergibt ungefähr 16.600 Ergebnisse in 0,26 Sekunden, beispielsweise das Klimaanpassungskonzept der Stadt Kaiserslautern. In der betreffenden Pressemitteilung heißt es, Zitate mit Hervorhebungen:

Die Anpassung an den Klimawandel ist eine gesamtgesellschaftliche Aufgabe und eine der zentralen Zukunftsaufgaben, der wir uns heute bereits stellen müssen“, so Umweltdezernent Peter Kiefer, der die Veranstaltung eröffnete und auch mit einem Schlusswort beendete. Aufhalten lasse sich, so der Beigeordnete, der Klimawandel nicht mehr. „Dazu ist es längst zu spät. Die Jahresmitteltemperaturen steigen an, das Wettergeschehen ändert sich. Hitzetage nehmen zu, Starkregen wird häufiger auftreten. Kostproben von dem, was kommen könnte, durften wir ja in den vergangenen Jahren bereits erleben.“

Kiefer: „Es ist schlimm genug, dass wir unseren Kindern den Planeten in diesem Zustand übergeben werden. Was aber noch viel schlimmer wäre, wäre, wenn wir nicht heute schon etwas dagegen unternehmen würden!“…

Wie Löbig anhand von lokalen Wetterdaten aufzeigte, ist der Klimawandel auch für Kaiserslautern kein abstraktes Zukunftsthema, sondern ein eindeutig fassbarer Prozess, der längst begonnen hat. Benden erläuterte sodann die vier Kernziele („Hitze mindern – Grün schaffen!“; „Schäden bei Starkregen minimieren!“;  „Klimaanpassung organisieren!“; Bürger und Unternehmen aktiv einbinden!“) sowie die damit verbundenen Einzelmaßnahmen.

Ideologien gehen ja üblicherweise ziemlich alternativlos mit den bürgerlichen Rechten um, aber heute gibt es sehr fortschrittliche Instrumente, mit denen man unschöne Bilder vermeiden kann. Man kann nämlich die betroffenen Menschen durch eine zielgerichtete psychomediale Hilfestellung in die erwünschte Denkrichtung „schubsen“.

Es ist Ihnen vielleicht auch schon aufgefallen, dass die täglichen Nachrichten, selbst in den regionalen Programmen, vermehrt über Extremwetterereignisse aus aller Welt berichten? Siehe z.B. NDR-Beitrag zum Zykon “Fani“ in Indien auf NDR Aktuell „=Nachrichten und Informationen aus dem ganzen Norden“ vom 3. Mai 2019 um 21:45 Uhr ab Minute 13:45. Es mag ja durchaus sein, dass Bhubaneshwar infolge der Globalisierung inzwischen dem „ganzen Norden“ zuzurechnen ist, auch wenn bislang offenbar noch nicht ganz klar ist, ob es sich der Freien und Hansestadt Hamburg, Mecklenburg-Vorpommern, Niedersachsen oder Schleswig-Holstein zugehörig fühlt.

Nun ist das Klima aber als der „Durchschnitt von 30 Jahren Wetter“ definiert und zu Beginn dieses Jahrzehntes hatte selbst das IPCC noch keinerlei Häufung solcher Ereignisse feststellen können (Zitate hier), aber plötzlich herrscht jetzt überall medialer Extremwetteralarm. Solche vermehrten Katastrophenmeldungen mögen dem wohlbetreuten Nachrichtenkonsumenten also durchaus eine Häufung von extremen Wetterereignissen nahelegen, wenn es schon keine überprüfbaren Beweise dafür gibt. Diese mediale Häufung lässt sich aber auch ganz einfach dadurch erklären, dass lediglich die politische Priorität für eine Verbreitung solcher Meldungen und deren geographischer Beobachtungsradius angestiegen sein könnten, und solche Meldungen deshalb vermehrt in regionale Nachrichtenformate implementiert werden, obwohl sie dort gar nicht hineingehören.

Und in einem modernen Problemlösungsworkshop könnte man Ihnen dann sogar noch die Fiktion vermitteln, einen beliebigen und vorher bereits festgelegten Entscheidungsprozess selber aktiv mitgestaltet zu haben. Nehmen wir einfach einmal ein ganz unverfängliches Beispiel aus dem kommunalen Klimaschutzprogramm des Umweltbundesamtes:




Dabei wird üblicherweise zunächst von Fachleuten ein konkretes Handlungskonzept ausgearbeitet. In einer moderierten Veranstaltung wird zuletzt die Zielgruppe zu einem „Brainstorming“ für Lösungsansätze zu diesem Thema aufgefordert, wie die nachfolgende Abbildung ohne jede Unterstellung lediglich beispielhaft zeigen soll:

Abbildung aus einem Vortrag von Hans-Joachim Ritter, Stadtverwaltung Speyer: Integriertes Konzept und innovative Strategie zur Klimaanpassung (Quelle UBA)


In einer Kaffeepause könnte ein solches Brainstorming-Ergebnis dann auch systematisch dahingehend geordnet werden, dass sich rein zufällig das vorher ausgearbeitete Handlungsschema abbildet. Danach würde man schließlich die einzelnen Handlungsfelder wiederum nach demselben Schema in Kleingruppen gezielt ausarbeiten und so am Ende das bereits vorher festgelegte Handlungskonzept bestätigen.

Den ersten Vorgang nennt man übrigens „Nudging“, den zweiten könnte man als „zielgeführte Meinungsbildung“ bezeichnen.

Nach dem Ausstieg der USA aus dem Pariser Klimaabkommen sollen sich die Anstrengungen im „Klimaschutz“ jetzt von der (inter-)nationalen Bühne verstärkt auf die regionale und lokale Ebene verlagert haben. Es handelt sich hierbei im Wesentlichen darum, den CO2-Ausstoß zu minimieren oder ganz zu vermeiden. Und wenn wir dann noch ein ganz kleines Stückchen weiter „geschubst“ werden, kommt man ganz von selbst auf die Notwendigkeit einer globalen CO2-Steuer, für die wir hier in Deutschland natürlich wieder einmal die internationale Vorreiterrolle übernehmen müssen, „weil das Klima keine Grenzen kennt“.

Für eine sinnvolle Anpassung an den natürlichen Klimawandel, wie beispielsweise an eine neue „Warmzeit“ oder eine neue „Kleine Eiszeit“, bleibt dann allerdings nicht mehr viel Geld übrig. Und obwohl „das Klima keine Grenzen kennt“, wird sich bei solchen natürlichen Klimaschwankungen in den Tropen und Subtropen relativ wenig tun. Die Klimawissenschaft behauptet beispielsweise immer noch, dass es sich bei der „Mittelalterlichen Warmzeit“ und der „Kleinen Eiszeit“ lediglich um regionale Ereignisse gehandelt haben soll. Allerdings hatten sich diese „regionalen Ereignisse“ demnach ausgerechnet hier bei uns in mittleren geographischen Breiten abgespielt. Das Geld für eine Anpassung an den natürlichen Klimawandel würde also auch ganz regional hier bei uns benötigt werden, und wir sollten es dann als neuerlicher „Vorreiter“ nicht einfach wahllos global zum Fenster hinaus schmeißen…

Schauen Sie einfach einmal im Internet ganz konkret unter „Klimaanpassungskonzept“ für Ihre Stadt/ Ihren Landkreis nach, was Ihnen dort für die örtliche Weltklimarettung so alles angeboten wird. Vielleicht erfahren Sie dann ja auch, dass dort bei Ihnen längst der „Klimanotstand“ ausgerufen worden ist. Man muss sich jetzt allerdings fragen, was die offizielle Ausrufung eines solchen „Klimanotstands“ praktisch-juristisch bedeuten mag, denn der Begriff „Notstand“ weist ja üblicherweise auf katastrophale Verhältnisse hin. Also schauen wir einmal bei Wikipedia nach, Zitat:

Notstand ist der Zustand gegenwärtiger Gefahr für rechtlich geschützte Interessen, dessen Abwendung nur auf Kosten fremder Interessen möglich ist.

Also, einem „Klimanotstand“ ist nur auf Kosten fremder Interessen abzuhelfen. Der Autor wird hier nicht darüber spekulieren, wessen Interessen das sein mögen und auf welche Weise einer solchen Gefahr für das Klima abgeholfen werden soll. Aber klar ist schon einmal, dass hier auf kommunaler Ebene  eine Priorisierung des Klimaschutzes gegenüber anderen schutzwürdigen Interessen erfolgen soll. Auf der Internetpräsens des Deutschen Bundestages findet man dann die nachfolgende Meldung, die ein solches Bild sinngebend abrundet, Zitat:

Um einer „Klimakatastrophe“ entgegenzuwirken, wollen Bündnis 90/Die Grünen den Klimaschutz im Grundgesetz verankern. Über einen entsprechenden Antrag der Fraktion (19/4522) hat der Bundestag am Donnerstag, 27. September 2018, erstmals eine Stunde lang debattiert und ihn dann zur Beratung in den Ausschuss für Inneres und Heimat überwiesen. Unterstützung bekam das Vorhaben nur von der Fraktion Die Linke.“

Und mit einer solchen Verankerung des Klimaschutzes im Grundgesetz würde dann ein „Klimanotstand“ unmittelbar mit den bürgerlichen Rechten und Freiheiten kollidieren.

Der mündige Bürger möge also sehr gut aufpassen, in wieweit er sich für eine „gute Sache“ im Mäntelchen des Klimaschutzes instrumentalisieren lässt. Der politisch gesteuerte Prozess, unsere Industriegesellschaft durch diverse Kehrtwenden (Energie-, Verkehr- und Agrar-) ins ökologische Mittelalter zurück zu transformieren, hat nämlich schon längst begonnen. Und vom Jahre 2020 an belieben die westlichen Industrienationen dann auch noch jährlich 100 Milliarden US-Dollar über einen „Green Climate Fund“ an den Rest der Welt auszuschütten – als Dank für deren Unterschrift unter den Pariser Klimavertrag zur globalen Dekarbonisierung bis zum Jahre 2100. Allein zur Erfüllung unserer pekuniären Klimaverpflichtungen aus diesem „Green Climate Fund“ kommen wir bei sinkenden Steuereinnahmen also um eine CO2-Steuer gar nicht mehr herum. Und der nächste weltumspannende UN-Krake steht bereits in den Startlöchern, um auch noch den letzten Rest unserer wirtschaftlichen Ressourcen zwecks vorgeblicher Rettung der Artenvielfalt über den gesamten Globus zu verteilen.

Zeitnah nach der Europawahl 2019 werden uns die Vasallen der Raute also freudig verkünden müssen, die CO2-Steuer sei nun eben da, aber niemandem werde etwas weggenommen…


Jean Jaques Rousseau: “Das Individuum bemerkt nur schwer die Vorteile, die es aus den ständigen Einschränkungen ziehen soll”

Wie hoch ist der CO2-Ausstoß batterieelektrischer Autos? Diese Frage wird derzeit heiß diskutiert. Hier im Blog hatten wir bereits über die Sichtweisen und Argumente des ifo-Instituts sowie von Stephan Witt berichtet (hier und hier). Im Folgenden eine weitere Leserzuschrift zum Thema:

Zu der abgedruckten Kritik “Herr Prof Sinn hat das e- Fahrzeug schlecht geredet”.

1. Es ist völlig egal nach welcher Norm verglichen wird, es muss nur die gleiche sein, um Fahrzeuge untereinander vergleichen zu können. Nefz ist nicht falsch, sie gibt nur weniger real den Praxisbetrieb wieder als wltp. Fazit: Augenwischerei des Kritikübenden.

2. Sehr wohl ist es erheblich, wenn man den Tank eines Diesel Fahrzeugs halbiert. Der Gewichtsunterschied macht sich deutlich messbar im Verbrauch bemerkbar. Gilt bei allen Fahrzeugen. Die Energiedichte von kohlenwasserstoffbasierenden Flüssigkeitstreibstoffen ist 20 mal höher als bei Akkulumatoren. Allein diese physikalische Tatsache macht e- Mobilität faktisch obsolet. Da schliesse ich mich der Aussage von Herrn Lüdecke an. Zudem: man wende den Ultra-leichtbau der bei e-Fahrzeugen notwendig ist, bei einem Dieselfahrzeug an. Dies würde die Verbräuche des Diesels noch weiter reduzieren.

3. Ich denke es läuft auf eine Patt-Situation zwischen Diesel und e- Fahrzeug hinaus, was den CO2 Ausstoß angeht. Wenn man nun jedoch alle anderen erheblichen Nachteile der e-Mobilität betrachtet, wird der Wunsch nach dieser absurd.

4. Die verhaltensabhängige reale Reichweite und Lebensdauer der Akkus ist tatsächlich schwer kalkulierbar. Allerdings will niemand im Winter frieren und sich im Sommer zu Tode schwitzen. Und Akkumanagement…fein…was die Lebensdauer angeht, wird die Praxis zeigen wie es tatsächlich aussieht.

5. Second Life der Akkus in Powerstations zur Stromspeichrung: mal bitte Fachartikel von Brandschutzexperten dazu lesen. Die Brandlast in solchen Stationen, macht erhebliche Sicherheitsmaßnahmen, neue Löschverfahren und viele weitere Massnahmen nötig. Der Aufwand ist gewaltig. Das muss man auch mal rechnen ob 2. Life dann im grossen Stil noch sinnvoll wäre. Vielleicht auch mal was für Herrn Sinn.

Gesamtfazit: Detailkritik ist in Teilen gut und richtig. Herr Sinn ist sehr sorgfältig und wird sicher nachbessern. Dennoch ändert die Kritik kaum etwas an der physikalischen Tatsache, dass e- Mobilität nur in ganz bestimmten engen Grenzen bei Klein- und Kleinstfahrzeugen Vorteile bringt. Die grosse Lösung ist es aber eben bei weitem nicht. Und die Anmerkungen im Zusammenhang mit der Energiewende,  was denn e-Mobilität damit zu tun hätte: beide Narrarive sind unmittelbar miteinander verknüpft und damit ist die Kritik auch diesbezüglich obsolet.

Noch ein Gedanke: der Löwenanteil des Welthandels wird über den Seeweg transportiert. Ein grosser Containerfrachter verbraucht rund 50 Tonnen Schweröl Ifo 380, und noch weiter katalytisch gecrackte Destilate, pro Tag. Wie gedenkt man denn also diese wirklich dicken Bretter zu bohren?!


Und hier noch eine Leserzuschrift zum Beitrag von Uli Weber “Der Niedergang der seriösen Wissenschaft bedeutet auch das Ende unserer Industriegesellschaft“:

Uli Weber hat da einen sehr interessanten und gut geschriebenen Beitrag heute gebracht. Ich möchte darauf hinweisen, dass das Drehbuch der Großen Transformation der Contrat Social des Jean Jaques Rousseau ist (1762). Das steht ja im WBGU 2011: Wir benötigen eine neuen Contrat Social, um den fossil/nuklearen Metabolismus (Das ist übrigens wörtlich gemeint) zu überwinden. Was hat das mit dem Text von Herrn Weber zu tun?

Dort, im C.S. ist zu lesen: “Um wirklich die Aussage des Gemeinwillens zu bekommen, ist es wichtig, dass es im Staat keine Teilgesellschaft gibt. … Wenn es aber solche gibt, dann ist ihre Zahl zu vervielfachen und ihrer Ungleichheit vorzubeugen.” Das erklärt dieses Copernicus-Phänomen genauso wie die Vielzahl an NGOs. Global Governance zielt auf die Vereinheitlichung der Meinung ab. Wer der Souverän über diese Meinung jedenfalls nicht ist, dürfte klar sein: Sie nicht! Und ich auch nicht. Wer ist es nur?

J.J. Rousseau bleibt da im Unklaren, z.B mit diesem Satz: “Man muss dem Volk die Dinge zeigen wie sie sind, manchmal wie sie ihm erscheinen müssen, ihm den richtigen Weg zeigen, den er sucht, ihn schützen vor der Verführung durch die Sonderwillen der Einzelnen, ….” Und auch sehr schön: “Das Individuum bemerkt nur schwer, die Vorteile, die es aus den ständigen Einschränkungen ziehen soll,….”. Wer diesen ganzen Wahnsinn – ob Klimawandel, Global Compact för Migration oder Pariser Verträge oder Global Governance – verstehen will, der muss sich mit Ökosystemtheorie und mit der Theorie sozialer Systeme beschäftigen. Das fängt spätestens bei J.J. Rousseau an.


Und schließlich noch ein Beitrag zu “Um Antwort wird gebeten”:

Von: Ulrich Berger
An: Karsten Schwanke

Datum: 2. Mai 2019

Sehr geehrter Herr Schwanke,

heute früh haben Sie im MoMa eine Grafik gezeigt, die Millionen Jahre Klima-Entwicklung zeigte. Dann haben Sie – ohne die parallele CO2-Entwicklung zu zeigen, dargelegt, dass “immer dann”, wenn CO2 hoch war, auch das Klima warm war. Der unbedarfte TV-Zuseher sollte natürlich (und hat er wohl zumeist auch) schließen, dass CO2 die Ursache für Wämeperioden ist. Sie haben also nichts anderes getan, als “uns” das Glaubensbekenntnis der hl. Klimakirche einzuhämmern.

Allerdings zu Unrecht (zumindest mit dem, was Sie an Daten darstellten). Denn: Wie Sie wohl wissen dürften, ist die zeitliche (also auch kausale!) Reihenfolge bzgl. Temperatur und CO2 exakt umgekehrt, als Sie und die ganze übrige Klimakirche uns einreden wollen: Das CO2 stieg in jenen Millionen Jahren immer erst hunderte Jahre NACH dem Beginn natürlicher(!) Erwärmungsphasen an – indem es nämlich aus sich erwärmenden Böden, Ozeanen etc. freigesetzt wurde.

Mit Sicherheit wissen Sie das alles – Fachmann der Sie sind. Umso schlimmer. Pfui! Ich nehme Ihnen (wie dem gesamten öffentlich-”rechtlichen” Rundfunk) diese verlogene volkserzieherische Demagogie persönlich übel! Und ich werde mich in meinem Umfeld entsprechend äußern.

Grimmige Grüße,

Ulrich Berger


Diskussion: Wie hoch ist der CO2-Ausstoß batterieelektrischer Autos?

Am 21. April 2019 berichteten wir hier im Blog über eine Studie über die Umweltverträglichkeit von Batterien in E-Autos (“Ifo-Institut München: CO2-Ausstoß batterieelektrischer Autos liegt über dem von Dieselmotoren“). Da uns die offene wissenschaftliche Diskussion wichtig ist, wollen wir im Folgenden Raum für Kritik an der Studie geben, die uns Leser Stephan Witt zukommen ließ:

Sie sind leider auf einen reißerischen Titel hereingefallen. In diesem Fall gibt es zu der zitierten Studie diverse Anmerkungen zu machen:

- Das ganze beginnt ja sehr schön differenziert, aber wenn es dann an die echten Inhalte geht, wird es leider genauso falsch, wie die Behauptung der Klimawandel wäre ausschliesslich vom Menschen verursacht.

- Für Diesel wurde der Best case gerechnet. Die Autoren verwenden den veralteten NEFZ zur Bewertung des Fahrzeugverbrauchs. Der wurde inzwischen abgeschafft, weil er völlig falsche Werte liefert. Reale Werte von ICE’s liegen typischerweise um die 30-40% höher als die Herstellerangaben, die die Autoren verwenden.

- Die Autoren rechnen auf den Verbrauch noch eine Angabe WTT hinzu, die angeblich bei 23% liegt. Dabei beziehen sie sich auf eine EU Studie als Quelle. Ich habe in die Quelle hereingeschaut und sie versucht nachzuvollziehen, da ich selbst Bereich ähnliche Rechnungen in Projekten durchgeführt habe. Wir waren allerdings bei wesentlich höheren Zahlen herausgekommen, die eher im Bereich von 40% lagen. Ursache war die Art des Rohöltransports, ob per Schiff oder per Pipeline und wenn per Pipeline, dann über welche Strecke. Außerdem ignorieren sehr viele WTW oder WTT Studien den Energieaufwand der notwendig ist, um das Öl überhaupt an die Oberfläche zu bekommen. Je nach Ölquelle gibt es dabei massive Unterschiede. Damit ist der Manipulation im Rahmen von Studien Tür und Tor geöffnet, je nach dem welche Annahmen getroffen wurden.

- die Autoren ignorieren beim Elektroauto komplett die Rekuperation. (S.44 “Man könnte noch berücksichtigen, dass einerseits ein Teil der Bremsenergie zurückgewonnen werden kann… Wir gehen darauf nicht ein, weil uns verlässliche Messergebnisse fehlen.”) Das ist doch die gleiche Argumentation, wie die, über die Sie sich bei den Klimawandelpropheten und dem Einfluss der Sonne auf das Klima so aufregen. “Oh sorry, wir können den  Einfluss der Sonne nicht messen, also ignorieren wir ihn mal eben…” Nach meinen eigenen Erfahrungen aus dem Praxisfahrbetrieb mit den Prototypen von Elektrogolf und E-Mini, die ich beide über 6 Monate jeweils gefahren bin, kann ich bestätigen, dass dieser Einfluss bei ca. 25% Reichweite liegt. So einen kleinen Fehler lässt man doch gerne mal weg.

- Die CO2 Menge pro kwh Batteriekapazität: Die Autoren beziehen ihre Angabe auf eine einzige Quelle. Schaut man diese genauer an stellt man fest, dass dort die Spanne der Emissionen kräftig nach oben massiert wurde. Der Best case in der Originalstudie liegt bei 80kg CO2/kWh. Die Autoren dieser Originalstudie geben dann aber eine eigene Spanne an, die wesentlich höher beginnt. Sinn haben dann diese wesentlich höher Spanne verwendet.

- Lebenserwartung der Batterie bei Sinn et al. wird ohne weitere Begründung auf 10 Jahre zu 15.000 km begrenzt. Bei einer Reichweite von 500km sind das gerade mal 30 Vollzyklen p.a. also 300 Zyklen insgesamt. Die tatsächlich mögliche Vollzyklenzahl einer gut gemanagten Batterie liegt inzwischen deutlich über 2000 Vollzyklen. Und das Batterie Management von Tesla ist sehr aufwändig und sehr gut. Den von Sinn et al verwendeten Wert der CO2 Emission müsste man also durch den Faktor 7 teilen, um eine echte CO2 Kennziffer für den Vergleich mit dem Mercedes Diesel zu erhalten. Dann löst sich aber leider die gesamte Argumentation des Vergleichs in Wohlgefallen auf…

- ein paar weiter Argumente finden sich noch in dem folgenden Artikel der WiWo

- Ansonsten beschäftigt sich der Löwenanteil des Artikels von Sinn gar nicht mit dem Vergleich zwischen den beiden Fahrzeugen sondern mit dem Sinn und eher Unsinn der deutschen Energiewende.

Kritik an der ifo-Studie äußerte auch Spiegel Online am 23. April 2019:

Ifo-Studie zur Klimabilanz Wie das Elektroauto schlechtgerechnet wird
Laut dem Ifo-Institut hat ein Elektroauto in Deutschland eine miesere CO2-Bilanz als ein Diesel. Doch wer ein paar fragwürdige Annahmen in der Kalkulation ändert, bekommt ein ganz anderes Ergebnis.

Weiterlesen auf

Studienmitautoren Hans-Werner Sinn und Christoph Buchal verteidigten die Ergebnisse in einer Stellungnahme in der FAZ am 26. April 2019:

Debatte um Abgasausstöße : Was zeigt die CO2-Bilanz?
Große Aufruhr gab es um die veröffentlichte Studie zum CO2-Ausstoß der Elektroautos. Falsche Annahmen und Rechnungen waren der Vorwurf. Warum Elektroautos nicht absichtlich schlechter dargestellt wurden. Eine kurze Stellungnahme. nsere zusammen mit Hans-Dieter Karl im Ifo-Schnelldienst veröffentlichte Studie zum CO2-Ausstoß der Elektroautos hat viel Wirbel verursacht. Beim Vergleich zweier typischer Autos gleicher Größenklasse (Tesla Model 3 mit 75 kWh Batterie und Mercedes C 220 d) kamen wir zu dem Schluss, dass das E-Auto beim deutschen Strommix einen um 11 bis 28 Prozent größeren CO2-Ausstoß je Kilometer mit sich bringt. Hier reagieren wir in aller Kürze auf die uns entgegengebrachte Kritik, weil sie zum Teil auf einer falschen Wahrnehmung unsere Annahmen und Rechnungen basiert. Man warf uns vor, wir hätten den CO2-Ausstoß des Diesel bewusst untertrieben, indem wir die Autos auf der Basis des Fahrzyklus NEFZ verglichen haben, der der Realität bekanntlich nicht gerecht wird und inzwischen durch den WLTP-Zyklus ersetzt wurde. So ist es aber nicht, denn wir haben auch für den Tesla die offiziellen NEFZ-Daten verwendet. Sie sind gegenüber einer realen Fahrsituation in gleicher Weise verzerrt wie die Diesel-Daten.

Weiterlesen in der FAZ. Auch der Focus berichtete über die Stellungnahme der beiden Autoren.

Wir baten Stephan Witt um eine Einschätzung der Stellungnahme. Hier seine Analyse:

Fangen wir mit dem Ende an: Die Motivation für die Studie war lt. den Autoren kein Auftrag, sondern “die Irritation darüber, dass die EU bei ihrer Flottenregulierung die Elektroautos rechnerisch mit einem Ausstoß von null ansetzt“. Fein, dieser Punkt ist ohne jeden Zweifel richtig, denn er gilt einzig und allein nur für die Emissionen des E-Autos unmittelbar im Fahrbetrieb am Fahrzeug. Nur schade, dass dieser durchaus richtige Punkt so sehr durch die Angreifbarkeit der getroffenen Annahmen in der Studie verwässert wurde.

Also was ist denn jetzt mit den Stellungnahmen zu den Kritikpunkten? 

1. NEFZ Fahrzyklus vs. WLTP Fahrzyklus 

Antwort: Tesla hätte zum Zeitpunkt der Erstellung die Zahlen zum WLTP schlicht noch nicht veröffentlicht. Außerdem würden die höheren Geschwindigkeiten im WLTP ja einen zusätzlichen Nachteil für E-Fahrzeuge darstellen, so dass man bei Verwendung des alten Zyklus dem Tesla sogar noch einen Gefallen getan hat. Das ist kein Gegenargument für den Vorwurf, dass der NEFZ Zyklus bekanntermassen falsch ist und das die Fahrzyklen tendenziell Verbrenner-Fahrzeuge bevorteilen. Fahrzyklenmessungen kennen grundsätzlich keine Rekuperation, sondern messen Strecken zu unterschiedlichen Geschwindigkeiten.

Fazit: Auch in der Replik sind die Autoren nicht auf die Kritikpunkte inhaltlich ernsthaft eingegangen. Mein ursprünglicher Punkt zur Rekuperation ist unverändert gültig.


2. CO2 Menge je KWh Batteriekapazität 

Antwort: Die Autoren hätten mit 145kg/kWh gerechnet als Best case und nicht mit dem von den Medien aufgegriffenen Wert von 170kg/kWh. Soweit ok. Ferner würden andere Studien (Agora Energiewende) auch auf Werte von 100-200kg/kWh kommen… 

Momentmal! Also ist der Best case nicht 145kg/kWh, sondern 100kg/kWh. Das sind dann ja geschlagene 32% weniger als der von den Autoren gerechnete „Best Case“. Statt 73g CO2/km also nur 50g CO2/km. Der „best Case“ war also gar keiner, sondern ein angenommener “Mittelwert“. Man kann gerne einen Mittelwert ansetzen. Dann sollte man diesen doch aber bitte auch so benennen. (Das ich in der zitierten Quelle sogar einen noch niedrigeren Wert als „Best case” gefunden habe, wie in meiner ersten Antwort geschrieben hatte, lassen wir mal weg)

Fazit: Die Autoren liefern in ihrer Replik selbst den Beweis für die angebrachte Kritik, gehen aber nicht auf die Konsequenzen daraus ein. Bemerkenswert!


3. Lebensdauer und Zyklenzahl 

Antwort: Laut einer Studie in „Nature Energy“ aus 2018 hätten die Hersteller inzwischen akzeptiert, das sie die angestrebten 1.300 bis 2.000 Zyklen in der Praxis nicht erreichen würden. VW gebe 200.000km an, andere Hersteller 300.000km. Grund: Insbesondere häufiges Schnellladen würde die Zyklenzahl reduzieren.

Analyse: Die Hersteller Angaben in Kombination mit dem Verweis auf diese Studie sollen wohl suggerieren, das die eigene Rechnung mit 150.000km für den Tesla doch durchaus richtig sei. Diesen Punkt hatte ich selbst in meiner ersten Antwort bereits aufgegriffen und dort bezogen auf 2.000 Vollzyklen die von den Autoren ermittelte CO2-Emission der Batterie durch einen Faktoren 7 teilen müsse. Statt den von Sinn ermittelten 73g CO2/km wären es dann 10g CO2/km Die in der Replik von den Autoren zitierte Kilometerzahl von VW bezieht sich auf eine Batterie, die nur halb so groß ist, wie die des in der Studie betrachteten Tesla. Bei gleicher Zyklenzahl würde die doppelt so große Batterie also auch die doppelte Reichweite von 400.000km statt 150.000 ermöglichen. Außerdem werden die Zyklen von Batterien in Autos immer auf ein Absinken der Batteriekapazität auf 80% berechnet. Danach können die Batterien noch völlig problemlos als stationäre Batterien weiter betrieben werden. Die bei der Produktion erzeugte Menge CO2 müsste also eigentlich auf sogar noch mehr Zyklen verteilt werden.

Fazit: Man kann es drehen und wenden wie man will, die von Sinn auf den km ermittelte CO2 Emission aus der Produktion der Batterie ist von den Autoren viel zu hoch angesetzt worden. Wo sie recht haben ist lediglich der Punkt, dass diese Zahl nicht „0“ ist.


4. Energieeinsatz für Motoren und Getriebeproduktion: Dieser Kritikpunkt sei ungerechtfertigt, das hätte man betrachtet und würde sich gegenseitig aufheben. 

Fazit: Fein, Danke für die Klarstellung.


5. CO2 Gehalt im Strommix

Die Autoren erläutern in Ihrer Replik, wie sie auf die höhere Zahl als das Umweltbundesamt bei der CO2 Menge je kWh im deutschen Strommix gekommen sind. Die Klarstellung macht es nachvollziehbar. Mein ursprünglicher Punkt, dass die Angabe für den Diesel eher zu niedrig angesetzt wurde, wurde in anderen Kritiken aber nicht aufgegriffen und daher von den Autoren nicht adressiert. Da bleibe ich bei meinen Einwendungen, dass der Wert für den Diesel eher noch zu niedrig ist.


6. Sonstige Effekte

Die Autoren argumentieren, sie hätten die E-Fahrzeuge nicht absichtlich schlecht gerechnet, denn sie hätten weitere Effekte, wie die doppelte Reichweite eines Diesels gegenüber dem Tesla nicht angesetzt, was einen größeren CO2-Effekt als die Verdoppelung der Reichweite (Zyklen) hätte. Außerdem hätte man Ladeverluste beim Schnellladen von Strom von 10% und den Bedarf für die Wärmeerzeugung im Auto nicht berücksichtigt. 

Analyse: Die Argumentation mit den nicht betrachteten zusätzlichen Nachteilen von Elektrofahrzeugen aus Ladeverlusten und dem Energieverbrauch für Nebenaggregate, die in den Fahrzyklen nicht berücksichtigt werden, ist durchaus richtig. Diese Effekte können je nach Verhalten der Nutzer wesentlich sein oder eben auch nicht.  Aber genau darin liegt die Krux.   Diese Effekte sind massiv verhaltensabhängig. Hätte man sie mit hereingenommen, hätte man der Kritik noch viel mehr Angriffsfläche geboten. Sich für das Weglassen auf die Schulter zu klopfen, erscheint mir da wenig angemessen, wenn man sich wissenschaftlich mit der Frage des „echten“ CO2 Footprints beschäftigen möchte. 

Bleibt das Reichweitenargument… Was bitte hat die Reichweite mit dem CO2 Verbrauch zu tun? Wer sagt denn, dass über 1000 km Reichweite notwendig sind? Nach 2h Autobahnfahrt sollte man sowieso eine Pause einlegen (Die meisten tun es allerdings nicht). Soll das heißen die Batterie müsste doppelt so groß sein? Das würde überhaupt nichts am CO2 Verbrauch je km ändern (abgesehen von dem durch die Gegend gefahrenen Gewicht), denn die Gesamtlebenserwartung würde sich von 150.000 km auf 300.000km verdoppeln. Andersherum betrachtet: Wenn ich den Tank im Dieselfahrzeug halbiere ändert das schliesslich auch nichts am Verbrauch des Verbrennungsmotors.

Fazit: Die Zusatzargumente nicht berücksichtigter sonstiger Effekte in der Replik sind z.T. pure Augenwischerei für jemanden, der nicht über die dabei implizit versteckten Annahmen nachdenkt. Die Ladeverluste in Form von Wärme beim Laden der Batterie je nach Ladegeschwindigkeit sind jedoch ein echter und auch nicht unwichtiger Effekt von Elektroautos. Etwas vergleichbares gibt es beim Tanken von Dieselfahrzeugen nicht bis auf den Stromverbrauch für die Pumpen an der Tankstelle und verschüttete Dieselmengen. Wenn man über einen korrekten Vergleich nachdenken will, sollte man diesen Punkt tatsächlich betrachten. Schade, dass die Autoren es nicht getan haben.



Was ist denn nun das Gesamtergebnis der Aufregung? Es ist im Prinzip genau das Gleiche wie beim Klima, wo die Tatsache einfach ist: Ja, es gibt einen anthropogenen Einfluss, aber die Höhe ist ganz sicher nicht so hoch wie vom IPCC behauptet. 

Analog gilt für den CO2 Footprint von Elektroautos: Ja, die den Elektroautos zurechenbaren CO2 Emissionen sind nicht „0“. Aber alle Argumente von Prof. Sinn und seinen Mitautoren hin und her gewendet, gilt auch hier: Die tatsächlichen CO2 Emissionen sind bei weitem nicht so hoch, wie von den Autoren behauptet.


Wir danken Stephan Witt für die Argumentation. Strittige Themen benötigen Raum zur fachlichen Diskussion, die wir uneingeschränkt unterstützen und fördern.


Welchen Einfluss hat die Arktis auf das Wetter in mittleren Breiten?

Anfang Mai 2019 berichtet der Deutschlandfunk über das Erscheinen einer Studie in Nature Communications von 2018. Darin beschreiben Autoren des Potsdam Institutes für Klimafolgenforschung (PIK) (Pressemitteilung hier) und weiterer internationaler Institutionen den möglichen Einfluss der überproportionalen arktischen Erwärmung auf die Sommerzirkulation mittlerer Breiten (D. Coumou et al. 2018). Die Auswirkungen eines schwächelnden troposphärischen Strahlstromes auf das Wetter werden darin im Konjunktiv beschrieben, die arktische Erwärmung völlig selbstverständlich den anthropogenen CO2-Emissionen angelastet.

Die Ergebnisse der Analyse verweisen auf die Möglichkeit, dass sich Hitzewellen und andere sommerliche Wetterextreme, wie sie in den letzten ein bis zwei Jahrzehnten gehäuft auftraten, auf eine Abschwächung des Strahlstromes zurückführen lassen. Letzterer soll wiederum Folge der Erwärmung der Arktis bzw. der Abnahme der Meereisflächen sein. Die vom arktischen Ozean verstärkt aufgenommene Wärme wird im Winter an die untere Troposphäre abgegeben und beeinflusst Zirkulationsmuster weiter südlich in den mittleren Breiten.

Dabei kommt es zu einer Konkurrenzsituation, die in der Fachliteratur als „Tug-of-War“, also als das Tauziehen zwischen Prozessen in der oberen Troposphäre und in der unteren Troposphäre bekannt ist: Durch die globale Erwärmung – sei es durch CO2 bzw. Wasserdampf oder freilich durch den Einfluss solarer Prozesse – nimmt der Temperaturunterschied zwischen Äquator und Pol in der unteren Troposphäre ab. Dadurch kann weniger kinetische Energie generiert werden und so genannte synoptische Störungen, also an Wetterfronten gebundene Zyklone (Stürme) werden vor allem in den Sommermonaten schwächer. In der oberen Troposphäre führt jedoch der Eintrag von mehr latenter Wärme durch ein größeres Verdampfungspotenzial in den Tropen zu einer Zunahme des Temperaturgradienten zwischen Äquator und den mittleren Breiten, welches wiederum die synoptischen Störungen dort verstärkt.

Der „Tug-of-War“ ist bisher mindestens für den Winter unentschieden und für den Sommer zugunsten schwächerer Sturmverläufe. CO2-dominierte Modelle sehen hingegen den Einfluss der Tropenprozesse langfristig zunehmen mit entsprechend zunehmenden Sturmenergien in den mittleren Breiten, allerdings mit großer Unsicherheit. Denn kleinste Modellparameteränderungen bedingen größte Effekte in die eine oder andere Richtung (Zhao et al. 2016, Voosen 2016).

Für die Sommerzirkulation wird davon ausgegangen, dass die Meereisverteilung und die arktischen Temperaturen einen Einfluss auf die Festigkeit und Breitenlage des Strahlstromes haben. Meridionale Auslenkungen des Strahlstromes führen dabei zu einer blockierenden Wetterlage, die zu langanhaltenden Hitzewellen oder aber zu Regenfluten führen können. Resonanzen können die Amplitude dieser Wellen – bestehend aus Trog (polare kalte Luft im Tiefdruckgebiet) und Schwelle (tropische warme Luftmasse im Hochdruckgebiet) – vergrößern und so die stagnierende Wetterlage über weite Bereiche ausdehnen. Solche Verstärkungen der quasi-stationären Wellen werden ebenfalls der arktischen Erwärmung zugerechnet.

Allerdings handelt es sich mehr um Theorien und Modellergebnisse als um tatsächliche Zusammenhänge, was aber bei den Medienberichten über diese doch sehr apokalyptischen Studien nicht durchdringt. Insbesondere der Faktor der natürlichen dekadischen Zyklizität wird zwar in der Studie genannt aber nicht weiter diskutiert, obwohl dieser einen wesentlichen Diskussionspunkt in der entsprechenden Literatur bildet. Weiterhin vertraut die Studie auf Modelle, aus denen entgegen anderer Berichte resultiert, dass der Strahlstrom der Nordhemisphäre im Sommer unter antarktischer Verstärkung in Richtung Nordpol wandert, was die tropische Beeinflussung hervorhebt. Insgesamt stehen alle Ergebnisse unter Vorbehalt, alles wird im Konjunktiv beschrieben. Zum Beispiel auf S. 9 der Studie:

„However, substantial uncertainty remains in how such quasi-stationary waves will change under global warming including the role of arctic amplification therein. … their relative importance compared to other drivers is poorly understood.”

Oder hinsichtlich der Wetterbeeinflussung durch arktische Verstärkung:

“There is still substantial uncertainty in what implications this weakening [of storm tracks] will have for summer weather conditions.” “…processes are largely unquantified.”

Die Studie ist voll davon! Nun ist es keinem Wissenschaftler vorzuwerfen, dass Forschungsergebnisse noch nicht robust genug sind und diese noch weitergeführt werden müssen. Aber bei so viel Unsicherheit gibt es doch wohl kaum einen Grund, einen apokalyptischen Tonfall anzunehmen und Menschen mit solch schwachen Studienergebnissen regelrecht – und hier sind dann die Medien im Visier – zu tyrannisieren. Ich gehe dabei schon lange nicht mehr davon aus, dass es Zufall ist, dass diese Art von Angststudien und/oder deren Berichterstattung immer dann erfolgen, wenn gerade wichtige Wahlen anstehen oder aber irgendwelche alljährlichen Klimagroßevents mit gigantischen CO2-Fußabdrücken. In diesem speziellen Fall ist es halt die Europawahl 2019.

In einer weiteren wissenschaftlichen Studie von 2017, von E. A. Barnes und I. R. Simpson im Journal of Climate ergeben die Modellierungsergebnisse, dass der Strahlstrom der nördlichen Hemisphäre in den meisten Monaten unter Einfluss der arktischen Verstärkung in Richtung auf den Äquator wandert (also genau entgegengesetzt zur Studie von Coumou et al. 2018) und dabei gefestigt wird, anstatt meridional auszulenken. Allerdings trägt die arktische Erwärmung nur zu 3 bis 5 % in den Modellen zur Lageänderung, Geschwindigkeit und zonalen Windstärken bei. Insbesondere die Jahreszeit hat einen Einfluss auf die Sensitivität der Prozesse. Diese geringe Beeinflussung ist nicht abwegig.

Die Ausdehnung des zirkumarktischen Meereises zwischen Winter und Sommer variiert um gut 14 Millionen km2. Die Abnahme des arktischen Meereises in Folge der Erwärmung in den letzten 7 Jahren liegt bei ungefähr 0,5 Millionen km2, also 3 bis 4 % der jährlichen Variation (JAXA 2019). Bereits 2019 sind die Verluste im Winter deutlich zurückgegangen und die maximale Ausdehnung befindet sich schon wieder auf dem Niveau von 2013. Die Meereisausdehnung im Sommer hingegen ist seit den herben Schmelzraten im Jahr 2007 einigermaßen stabil, mit Ausnahme des Jahres 2012. Insgesamt liegt die Variation der minimalen Ausdehnung im Sommer für das 21. Jahrhundert bei 1 bis 2 Millionen km2, also ca. 7 bis 14 % der jährlichen Schwankungen.

Natürlich ist mit Änderungen der atmosphärischen Zirkulation zu rechnen, wenn das arktische Meereis schmilzt. Aber bei diesen Beträgen ist keine apokalyptische Zukunftsaussage notwendig, eher handelt es sich dann um Glaskugelleserei. Ein Blick auf die Schneebedeckung der nördlichen Hemisphäre, die ebenfalls eine bedeutende Rolle in der Änderung der atmosphärischen Zirkulation spielen soll, lässt den Betrachter verstört zurück. Der Trend und die Variationen sind seit 1972 jährlich betrachtet horizontal bzw. gleichbleibend (Rutgers University Global Snow Laboratory 2019). Für die Sommermonate ist wie zu erwarten ein abnehmender Trend zu erkennen und natürlich gibt es unterschiedliche Entwicklungen in unterschiedlichen Regionen (siehe climate4you). Aber über die gesamte Halbkugel bleiben die Schneemengen gleich. Noch spannender sind die Ergebnisse einer Wissenschaftsstudie von T. Woolings et al. (2018), die auf S. 1312 der Studie zu folgender Aussage kommen:

„As discussed in the introduction, there is a rapidly growing body of literature suggesting that recent extreme events have occurred partly because of emerging anthropogenic effects such as amplified Arctic warming. Our results show that the variability of Atlantic Jet position itself varies on decadal timescales. For example, the variability of wintertime jet latitude has increased over the last two decades, as the mean jet speed has weakened. However, this reflects the jet reverting to a normal state after being unusually strong and steady around the 1980s and 1990s. In no season, according to our diagnostics, was the jet more variable in recent decades than in any earlier period. This highlights the importance of a long-time-scale perspective when analyzing recent events.” Und in der Zusammenfassung ist der Satz zu lesen: “These modulations [of the jet] are also related to variations in the basinwide occurrence of high impact blocking events. A picture emerges of complex multidecadal jet variability in which recent decades do not appear unusual.”

Sirpa Häkkinen und Kollegen schreiben 2011, dass Winter mit häufigen Blocking-Situationen zwischen Grönland und den Britischen Inseln über mehrere Dekaden hinweg auftreten können und mit einem warmen Nordatlantik korrelieren, in Phase mit der atlantischen Multidekaden Oszillation. Zwar gelten diese Aussagen nicht für den Sommer und nicht für die in Coumou et al. (2018) betrachteten Regionen, aber offensichtlich spielen zeitliche Zyklen eine wichtige Rolle in den angesprochenen Prozessen. E. A. Barnes & J. A. Screen bezweifeln in einer sehr lesenswerten Stellungnahme in Wire’s Climeate Change 2015 einen wesentlichen Einfluss der arktischen Verstärkung auf das Wetter in mittleren Breiten, auch wenn dies grundsätzlich möglich ist. Begründet wird dies mit einer deutlich stärkeren internen atmosphärischen Variabilität und anderen Faktoren, die den Einfluss abnehmenden Meereises auf die Wettersituationen überlagern.

Es gibt diesen ominösen Klimawandelkonsens, von den die Medien, Politiker und bestimmte Wissenschaftsgruppierungen immer sprechen, einfach nicht! In keinem Fachbereich und bei keiner wissenschaftlichen Fragestellung. Der Konsens ist und bleibt ein Konjunktiv und ist darüber hinaus politisch motiviert.


Siehe auch den früheren Beitrag zum Thema: "Ein Sommermärchen".



Mai-Schnee in Weimar, erstmals seit über 30 Jahren

Mai-Schnee in Weimar 2019, erstmals seit über 30 Jahren. Foto: Stefan Kämpfe


Die Sonne im April 2019 und der € 4500 Milliarden Flop

Von Fritz Vahrenholt und Frank Bosse

Unsere einzig nennenswerte Energiequelle im Zentrum des Planetensystems war auch im letzten Monat unterdurchschnittlich aktiv, wenn man in den Monaten des Minimums von einem Durchschnitt der letzten 23 Zyklen sprechen kann. Die festgestellte SSN (für SunSpotNumber) betrug 9,1 und die Fleckenaktivität betrug damit nur 42% des Mittelwertes der in diesem Zyklusmonat Nr. 125 noch anhaltenden Zyklen. Einige Zyklen ( Nr. 21, 18, 16, 15, 8 ) waren in diesem bereits beendet.

Abb.1: Der monatlich aufgelöste Verlauf der Fleckenaktivität des aktuellen Solaren Zyklus (SC) seit Dezember 2008 (rot) im Vergleich zum Mittelwert aller bisher systematisch beobachteten Zyklen seit dem Beginn des SC1 im März 1755 (blau) und dem über lange Zeiträume recht ähnlichen SC5 (schwarz).


In Abb.1 ist gut zu sehen, dass der Zyklus besonders zu Beginn und nach dem zweiten Peak mit einer SSN von über 140 zum Ende hin recht unternormal ablief. Seit dem Februar 2014 (dem Maximum des gesamten Zyklus 24 mit SSN=146 im Zyklusmonat 63)  brachte er es nur auf 2/3 der durchschnittlichen Aktivität. Welche Auswirkungen hat das? Die Gesamtstrahlung (TSI für Total Solar Irradiance) wird nur sehr mäßig beeinflusst:


Abb. 2: Die Gesamtstrahlung der Sonne im Erdabstand seit Ende 2003, dem Missionsbeginn der Sonde. Quelle


Seit dem Maximum sehen wir einen Rückgang von ca. 1,5 W/m². Am Boden geht dieser Hub auf 25% zurück, da die Erde keine Fläche, senkrecht ausgerichtet zur Sonne ist (wie der Sensor des Satelliten) und sich dreht. Es bleibt damit nur ein Hub von 0,38W/m² in der wirksamen Strahlungsleistung oder 0,1%, vergleichsweise recht wenig. Eine andere Größe mag mehr Einfluss haben: Die Sonne hält bei hoher Aktivität die galaktische kosmische Strahlung  (genau genommen weniger elektromagnetische Strahlung, dafür mehr Partikel) vom Inneren des Sonnensystems fern. Das schafft sie bei verringerter Aktivität weniger wirksam:


Abb.3: Die Variation der galaktischen Strahlung seit Anfang der 60er Jahre, hier gemessen in Moskau. Quelle. Hinweis: Ausschläge nach oben kennzeichnen stärkere kosmische Strahlung.


Seit Beginn der 2000er erkennt man den Rückgang im Vergleich zu den 90ern um bis zu 16% gegenwärtig. Auch im Maximum des SC24 um 2014 war die kosmische Strahlung  ca. 8% stärker als in den Maxima seit 1980. Wir hatten über die Zusammenhänge, die Hendrik Svensmark  postuliert, im Buch und auch im Blog (zuletzt hier) mehrfach berichtet. Nun der Vergleich der Zyklen untereinander:

Abb.4: Die Fleckenaktivität der Zyklen im Vergleich. Die Zahlen im Diagramm entstehen, wenn man die monatlichen Differenzen zwischen der beobachteten SSN  und dem Mittel (blau in Abb.1) aufsummiert bis zum aktuellen Zyklusmonat 125.


Auch der kommende Zyklus 25 mit wahrscheinlichem Start im August 2020 (hier zeigten wir, wie wir zu dieser Ansicht kamen) wird mit hoher Sicherheit wieder unterdurchschnittlich. Die Hochphase der Sonnenaktivität von 1935 bis etwa 2005 (SC 17…SC23) ist nachhaltig vorüber.


Der 4500 Milliarden Flop der Energiewende

Die Forderungen nach dem Ausstieg aus Kohle, Kraftstoff und Erdgas werden immer schriller: Es fing schon mit dem waghalsigen Vorschlag der Kohlekommission an, die vom Bundeskanzleramt zur Hälfte mit grünen Aktivisten besetzt wurde – Ausstieg aus der Kohle bis 2038. Dann folgte die Forderung Robert Habecks und seiner grünen Freunde nach dem Aus für den Verbrennungsmotor im Jahre 2030. Und als es vier Wochen im April sehr trocken war (sehr schlimm, hat es noch nie gegeben) rief  Annalena Baerbock  die Klimakrise aus: Verdopplung des CO2-Preises und ein starkes Ordnungsrecht! Nun fordern die Freitagskinder von Lummerland  eine CO2-Steuer von 180 € noch in diesem Jahr, bis 2035 „Treibhausemissionen auf Netto- Null“, 100 % Erneuerbare Energien.

Da lohnt es sich ja doch einmal, in die Studie des Akademieprojektes „Energiesysteme der Zukunft“ der „Union der Deutschen Akademien der Wissenschaften“, die Ende letzten Jahres unter dem Titel „Sektorkopplung- Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems veröffentlicht wurde, zu schauen. Es soll an dieser Stelle nicht hinterfragt werden, wieso der gesammelte technische Sachverstand unserer deutschen Akademien die Zukunft unserer Energieversorgung im Wesentlichen  auf allein zwei Technologien stützen will: Windenergie und Photovoltaik. Warum geben die Wissenschaftler der Kernfusion, der inhärent sicheren Kernenergie ohne langlebige Rückstände (dual fluid reactor) oder der CO2-freien Kohlenutzung (Carbon capture and sequestration) nicht den Hauch einer Chance ? Weil Wissenschaft in Deutschland nur noch  in der Bandbreite des Mainstreams denken darf, etwa von CDU-Parteitagsbeschluss bis Greenpeace-Resolution.

Es lohnt sich trotzdem reinzuschauen, um zu erahnen, was uns bevorsteht. Es werden alle Sektoren, Strom, Verkehr und Wärme zusammen betrachtet. Und siehe da: 80% der Energie werden fossil erzeugt, 7,5 % durch Kernenergie und 13 % durch Erneuerbare Energien. Wenn man bei den Erneuerbaren Energien die Biomasse (einschl. Biogas und Biosprit) abzieht, bleiben übrig: 1,5 % der Primärenergie wird durch Windkraft erzeugt und 1% durch Photovoltaik. (S.10 der Studie). Das ist ein langer Weg bis zu 100%. Die Studie kommt zum Schluss, wenn man den Weg einer  Dekarbonisierung um 90% bis 2050 gehen will, dann „wird mit rund 1150  Terawattstunden sogar fast doppelt so viel Strom benötigt wie heute“ (S.10), weil Verkehr und Wärme ebenfalls aus Strom erzeugt werden soll.

Da man sich nur auf Photovoltaik und Windkraft verkrampft hat, kommt die Studie zum Schluss:

Die installierte Leistung an Windkraft und Photovoltaik müsste in diesem Fall (bei gleichbleibendem Energieverbrauch) gegenüber heute versiebenfacht werden.“

Wir haben heute etwa 28 000 Windkraftanlagen mit einer Kapazität von 57 000 Megawatt und 46 000 Megawatt Photovoltaik. Eine Versiebenfachung der Photovoltaikfläche würde fast alle in Deutschland möglichen Dach-Fassaden- und andere Siedlungsflächen erfassen. Eine Versiebenfachung der Kapazität der Windenergieanlagen würde selbst bei Verdopplung der Kapazität der einzelnen Anlagen Deutschland verändern. Alle 1,5 Kilometer würde eine 200 m hohe 3-5 MW- Anlage stehen.

Die Studie lässt auch den Abgrund erahnen, auf den wir auf diesem Weg zugehen.

„Die Dominanz der fluktierenden Erneuerbaren Energien erfordert eine hohe Flexibilität auf der Stromerzeugungsseite und der Verbrauchsseite“

(!!) Das heißt mit anderen Worten, wenn die Natur nicht genügend Wind und Sonnenstrom liefert, muss man auch zeitweise ohne Strom auskommen. Interessant ist das Ergebnis, dass es auch in der schönen neuen Welt der dezentralen Energieerzeugung nicht ohne zentrale Grosskraftwerke gehen wird. Die Studie schätzt, das etwa 60- 100 000 Megawatt Großkraftwerke, die natürlich auf Biogasbasis oder synthetischem Methan oder Wasserstoff  gefahren werden, kurzfristige Zusammenbrüche verhindern helfen. Zum Vergleich: heutige Großkraftwerkskapazität  90 000 MW.

Wohltuend ist die Aussage, dass Batterien nur eine Lösung als Kurzzeitspeicher haben können. Voraussetzung für Langzeitspeicher ist die erfolgreiche Entwicklung von power-to -gas, also Windstrom per Elektrolyse in Wasserstoff oder gar Methan zu verwandeln. Das ist zwar heute noch absurd teuer, aber das schaffen wir schon. Allerdings warnen die Autoren, dass es in Tagen der kalten Dunkelflaute (keine Sonne und kein Wind im Winter) zu Konflikten zwischen power to heat (also der Wärme auf Windstrombasis) und dem Strombedarf bei knappem Angebot geben kann. Will sagen: Licht oder warme Heizung, das ist dann die Frage. Das Auto bleibt dann sowieso stehen.

Die Autoren korrigieren auch die weithin verbreitete Fehleinschätzung des Autos als Stromspeicher.

„Die Pufferkapazität der Elektroflotte, liegt im Bereich von einigen Stunden“

( S.57). Sie hängt zudem davon ab, ob die „Autobesitzer bereit sein werden, ihre Batterien dem System zur Verfügung zu stellen. Sind sie größtenteils nicht bereit, die Souveränität über Ladung und Entladung zeitweise abzugeben, ist der Betrag gering. Schlimmstenfalls könnte zeitgleiches Laden vieler Autos zu bestimmten Tageszeiten zu einer zusätzlichen Belastung für das Stromnetz werden. Wie undankbar diese Autofahrer sind. Da hat man jede Straße in den Städten für sie aufgerissen, um dem „Ausbau der Verteilnetze“ Rechnung zu tragen und nun wollen sie auch noch bestimmen, wann sie fahren wollen und wann nicht.

Aber die schöne neue Welt von Gretl, Annalena und Robert hat einen Preis. Die Autoren setzten 60% CO2 Minderung, die ja bis 2030 erreicht werden soll, voraus. Bis dahin kostet das 4000 Milliarden in gut 10 Jahren. Das heutige Energieversorgungssystem kostet pro Jahr 250 Milliarden €. Das wird schon mal 1500 Milliarden teurer. Bei 60 auf 75 % CO2 Minderung rechnen die Autoren mit weiteren 800 Milliarden. Von 75 auf 85 % mit weiteren 1000 Milliarden. Von 85 auf 90 % CO2 Minderung noch einmal weitere 1300 Milliarden. Also bis 60 % 1500 Milliarden, bis 90 % 3100 Milliarden, machen zusammen 4600 Milliarden. 4600 Milliarden € geben die deutschen Haushalte aus, um 800 Millionen t CO2 zu vermeiden. Dies ist eine Menge an CO2, die jedes Jahr China zusätzlich ausstößt.

Damit die Eltern von Fridays for future die 4600 Milliarden richtig verstehen: das sind im Jahr 153 Milliarden,  bei 40 Millionen Haushalten in Deutschland bezahlt jeder Haushalt monatlich 319 € im Monat – netto. Und wenn es nach Gretl und ihren Followern geht, nämlich in 15 Jahren 100% Erneuerbare Energien zu erreichen, dann wären das 628 € im Monat – wenn es denn nicht vorher zu einem Zusammenbruch der deutschen Energieversorgung kommen wird, was sehr wahrscheinlich ist. 628 € sind bei einem monatlichen Durchschnittsverdienst in Deutschland von netto 1890€ 33%. Damit fallen diese Haushalte dann unter die Armutsgrenze (60 % des Durchschnittsnettoeinkommens). Schöne neue Welt.

Wir kommen nicht einmal klar mit dem Umbau der Stromversorgung (siehe hierzu die Warnung der Bundesnetzagentur zum Aufbau von Reservekraftwerkskapazität in 2022 in Höhe von 10 000 Megawatt (10 Kernkraftwerke) . Da erweitern wir das Problem auf Wärme und Mobilität. Alle drei Sektoren, die bislang von unterschiedlichen Energieträgern (Kohle, Erdgas, Erdöl) geprägt waren, sollen von einem einzigen abhängig gemacht werden: Strom, gespeist aus Wind und Sonne. Wind und Sonne entscheiden, wann wir unser Auto bewegen können, wieviel Wärme wir im Winter nutzen dürfen und wann  das Licht angeschaltet werden kann.

Das nennt man einen nachhaltigen Kurzschluss. Und warum das alles? Natürlich wegen der anfangs erwähnten Klimakrise. Und deswegen sind solche Blogs wie dieser notwendig, um allen Entscheidern klarzumachen: Ja, wir müssen am Ende dieses Jahrhunderts die fossile Ära hinter uns gelassen haben. Aber diese Zeit haben wir auch, denn die Klimasensitivität des CO2 ist deutlich kleiner als uns die Panikmacher und Systemveränderer erzählen wollen.


US-Forscher dokumentieren Mittelalterliche Wärmeperiode und 60-Jahreszyklus in Neuengland

Für Greta und ihre Aktivistenhelfer läuft alles nach Drehbuch. Sie trifft den Papst, wie Zaro News am 15. April 2019 meldete:

Die Heilige Greta trifft den Papst – Wann trifft sie Gott?
[...] Ihren großen Auftritt jedoch in der ewigen Stadt hat Klima-Greta am Karfreitag, der im Gegensatz zu protestantischen Ländern in Italien kein Feiertag, sondern ein „Trauertag“ ist. Thunbergs Auftritt am Kreuzigungstag Christi in der Stadt des gottgleichen Stellvertreters ist also an Symbolik eigentlich nicht mehr zu überbieten. An diesem symbolschwangeren Karfreitag wird die Schwedin mit den italienischen Umweltaktivisten von „Fridays for Future Roma“ an einer Protestinitiative für Klimaschutz in Rom teilnehmen. Mehr geht nicht. Doch. Sie könnte noch ein Kreuz tragen. Natürlich eins aus nachhaltig angebautem zertifiziertem Holze. Ach ja, vielleicht könnte sie noch mit einem Esel in Rom einreiten. [...]


Interessante ntv-Dokumentation von 2007:




US-Forscher dokumentieren Mittelalterliche Wärmeperiode und 60-Jahreszyklus in Neuengland. Pressemitteilung der University of Massachusetts Amherst vom 9. Januar 2019 (via

Geoscientists reconstruct ‘eye-opening’ 900-year Northeast climate record

Deploying a new technique for the first time in the region, geoscientists at the University of Massachusetts Amherst have reconstructed the longest and highest-resolution climate record for the Northeastern United States, which reveals previously undetected past temperature cycles and extends the record 900 years into the past, well beyond the previous early date of 1850.

First author Daniel Miller, with Helen Habicht and Benjamin Keisling, conducted this study as part of their doctoral programs with advisors geosciences professors Raymond Bradley and Isla Castañeda. As Miller explains, they used a relatively new quantitative method based on the presence of chemical compounds known as branched glycerol dialkyl glycerol tetra ethers (branched GDGTs) found in lakes, soils, rivers and peat bogs around the world. The compounds can provide an independent terrestrial paleo-thermometer that accurately assesses past variability.

Miller says, “This is the first effort using these compounds to reconstruct temperature in the Northeast, and the first one at this resolution.” He and colleagues were able to collect a total of 136 samples spanning the 900-year time span, many more than would be available with more traditional methods and from other locations that typically yield just one sample per 30-100 years.

In their results, Miller says, “We see essentially cooling throughout most of the record until the 1900s, which matches other paleo-records for North America. We see the Medieval Warm Period in the early part and the Little Ice Age in the 1800s.” An unexpected observation was 10, 50-to-60-year temperature cycles not seen before in records from Northeast U.S., he adds, “a new finding and surprising. We’re trying to figure out what causes that. It may be caused by changes in the North Atlantic Oscillation or some other atmospheric patterns. We’ll be looking further into it.”

He adds, “We’re very excited about this. I think it’s a great story of how grad students who come up with a promising idea, if they have enough support from their advisors, can produce a study with really eye-opening results.” Details appear in a recent issue of the European Geophysical Union’s open-access online journal, Climate of the Past.

The authors point out that paleo-temperature reconstructions are essential for distinguishing human-made climate change from natural variability, but historical temperature records are not long enough to capture pre-human-impact variability. Further, using conventional pollen- and land-based sediment samples as climate proxies can reflect confounding parameters rather than temperature, such as precipitation, humidity, evapo-transpiration and vegetation changes.

Therefore, additional quantitative paleo-temperature records are needed to accurately assess past temperature variability in the Northeast United States, the researchers point out. An independent terrestrial paleo-thermometer that relies on measuring two byproducts of processes carried out in branched GDGTs in lake sediment, a method first introduced two decades ago by researchers in The Netherlands, offered a promising alternative, Miller says.

Source organisms are not known for branch GDGTs, he points out, but they are thought to be produced in part by Acidobacteria. “These are compounds likely produced by different algae and bacteria communities in the membrane, or skin,” he notes. “Just like for humans, the skin regulates the organism’s body temperature and these compounds change in response to temperature. So if they grow in summer, they reflect that and the compounds are different than if they were produced in winter. We record the compounds to get the temperature curves. We found there seems to be a huge bloom of these organisms in the fall. After they die, they settle into the lake bottom. We think it’s mainly a fall temperature that we’re detecting.”

For this work, Miller and colleagues constructed large plastic sediment traps and deployed them about ten feet below the surface of a small, 106-foot-deep lake in central Maine in May, 2014. They then dove under to collect a catchment bottle from the bottom of each trap every month in June, July, August and September, and the following May 2015.

Miller says, “This lake is very deep for its small area, with very steep sides. It doesn’t seem to have much mixing of water layers by surface winds. We think that has helped to preserve a bottom water layer with no oxygen year-round, known as anoxia, which helps in the preservation of annual layers in the sediments at the bottom of the lake. It’s rare for a lake to have such fine, thin lines that represent annual deposition, so all you have to do is count the lines to count the years. We double-checked our results with radiocarbon dating and other methods, and it turns out that reconstructing the temperature record this way was successful.”

Miller and colleagues say this project enjoyed notable support from many quarters, including the UMass Amherst Alumni Association supporting student field work and data collection in Maine; the geology department at Bates College; funding from the U.S. Geological Survey; and at UMass Amherst, sophisticated biogeochemistry laboratory equipment and the Joe Hartshorn Memorial Award from the geosciences department, and other assistance from the Northeast Climate Adaptation Science Center.

The researchers conclude that this first paleo-temperature reconstruction coupled with site-specific knowledge from Basin Pond “informs our understanding of climatic variability in the Northeast U.S. beyond the era of human influence” and “contributes to our understanding of the production and fate of brGDGTs” in lake systems.

Paper: Daniel R. Miller et al, A 900-year New England temperature reconstruction from in situ seasonally produced branched glycerol dialkyl glycerol tetraethers (brGDGTs), Climate of the Past (2018). DOI: 10.5194/cp-14-1653-2018


Frühe Arktis-Wärme unerklärt: In Franz Josef Land war es in den frühen 1930er Jahren mehrere Grad wärmer als heute

Im Januar 2019 erschien im Fachblatt Theoretical and Applied Climatology eine Arbeit von Andrzej Araźny und Kollegen, in der die Forscher die Wetterdaten von vier wissenschaftlichen Expeditionen in das arktische Franz Josef Land auswerteten. Dabei stieß das Araźny-Team auch auf eine ungewöhnliche Wärme, die während einer Fahrt 1930/31 registriert wurde als es 4,6 °C wärmer war als der moderne Durchschnitt 1981–2010. Die Autoren erläutern, dass es in der Arktis in den letzten 140 Jahren zwei Wärmephasen gegeben hat. Die erste reichte von 1920-1938 die zweite begann in den 1980er oder 90er Jahren. Beide Wärmphasen weisen einen ähnlichen Verlauf auf, so dass der Anteil natürlicher gegenüber anthropogener Klimaantriebe ungeklärt ist. Araźny und Kollegen fordern, das die Klimamodelle sich dieser Frage verstärkt annehmen, um die großen Verständnislücken im arktischen Klimasystem – auch hinsichtlich der Attribution – endlich zu schließen. Hier der Abstract der Studie, deren pdf kostenfrei heruntergeladen werden kann:

A comparison of bioclimatic conditions on Franz Josef Land (the Arctic) between the turn of the nineteenth to twentieth century and present day
The paper presents the variability of meteorological conditions: air temperature, wind speed and relative air humidity; and biometeorological indices: wind chill temperature, predicted clothing insulation and accepted level of physical activity on Franz Josef Land (in Teplitz Bay and Calm Bay) in the years 1899–1931. It employs meteorological measurements taken during four scientific expeditions to the study area. The analysis mainly covered the period October–April, for which the most complete data set is available. For that period of the year, which includes the part of the year with the Franz Josef Land’s coldest air temperatures, the range and nature of changes in meteorological and biometeorological conditions between historical periods and the modern period (1981–2010) were studied. The data analysis revealed that during the three oldest expeditions (which took place in the years 1899–1914), the biometeorological conditions in the study area were more harsh to humans than in the modern period (1981–2010) or similarly harsh. In contrast, during the 1930/1931 expedition, which represents the Early Twentieth Century Warming (ETCW), conditions were clearly more favourable (including predicted clothing insulation being 0.3 clo lower and 4.0 °C higher wind chill temperature than conditions observed nowadays).

In der Diskussion gehen die Autoren detailliert auf das arktische Wärmephänomen der 1930er Jahre ein:

In approximately the last 140 years, there have been two periods of significant temperature increases in the Arctic. The first began in around 1918–1920 and lasted until 1938 and has been called the ‘1930s warming’ (Bengtsson et al. 2004). Other works have referred to this period as the ‘Early Twentieth Century Warming’ (ETCW, Brönnimann 2009) or the ‘Early Twentieth Century Arctic Warming’ (ETCAW, Wegmann et al. 2017, 2018). Our results confirm the observations for the last expedition from the historical study period in 1930/1931. These years covered the warmest part of the ETCW (Table 3, Fig. 4). In turn, the second increased warming of the Arctic began around 1980 (Johannessen et al. 2004) or according to Przybylak (2007) in about the mid-1990s. Changes in overall atmospheric circulation have long been believed to have been the cause of the ETCW (e.g. Scherhag 1937). As the modern climate warming (since 1975) has progressed in a largely similar manner to the progression of the ETCW (Wood and Overland 2010; Semenov and Latif 2012), there has been renewed interest in the insufficiently well-explained causes of the ETCW using the latest research methods, including, primarily, climate models. An analysis of the literature shows that the cause of such a significant warming in the present period is still not clear. There is even controversy over whether the main factors in the process are natural or anthropogenic, although the decided majority of researchers assign a greater role to natural factors (Bengtsson et al. 2004; Semenov and Latif 2012). It would appear that the greatest differences of opinion on the causes of the ETCW are to be found in works presenting climate models (see, e.g. Shiogama et al. 2006; Suo et al. 2013), which is an excellent illustration of the still insufficient knowledge of the mechanisms governing the Arctic Climate System.

In den Conclusions vergleichen die Autoren die Wärme der 1930er Jahre mit den heutigen Werten:

…during the 1930/31 expedition it was 4.6 °C warmer than the years 1981–2010.