Klimamodelle sind so ungenau wie vor 40 Jahren

In den Siebzigern entstanden die ersten Klima-Computermodelle, aber trotz der heutigen Supercomputer mit der x-millionenfachen Rechenleistung von damals, sind die Vorhersagen der globalen Erwärmung so unpräzise wie eh und je!

Der Spiegel schreibt dazu, gestützt auf Bjorn Stevens:

Schon in den Siebzigerjahren wurde sie [Anm.: die Klimaerwärmung] mithilfe primitiver Computermodelle ermittelt.
Die Forscher kamen zu dem Schluss, dass ihr Wert vermutlich irgendwo zwischen 1,5 und 4,5 Grad liegen dürfte. An diesem Ergebnis hat sich bis heute, rund 40 Jahre später, nichts geändert. Und genau darin liegt das Problem. Bjorn Stevens vom Hamburger Max-Planck-Institut für Meteorologie meint dazu: „Es ist zutiefst frustrierend.“
(Der ausführliche Artikel ist ab Seite 98 im Spiegel vom 22. März 2019 zu lesen. )

Der Fluch liegt in den Wolken

Stevens forscht schon über 20 Jahre auf dem Feld der Klimamodellierung. Er meint, dass der Fluch aller Klimaforscher in den Wolken liegt.
Stevens sagt wörtlich, dass ihre Modelle nicht mit Sicherheit voraussagen können, ob die Gletscher der Alpen in Zukunft zunehmen oder abnehmen würden! Stevens meint, die Probleme lägen in den kleinräumigen Details. Beispielsweise Luftturbulenzen über der Meeresoberfläche oder so genannte Wirbelschleppen, die von Gebirgen in den vorbeiziehenden Fronten geschaffen werden. In erster Linie seien es aber die Wolken selbst. (Stevens versucht die Kumulonimbus-Wolken in seine Modelle einzubringen.)
Die Forscher sind trotz der gigantischen Rechenleistung ihrer Supercomputer nicht in der Lage, für die Modelle die nötigen Parameter für verdunstendes, aufsteigendes oder kondensierendes Wasser zu bestimmen, was ja Wolken in der Realität tun. Die Klimamodell-Forscher müssten mit mehr oder weniger plausiblen Faustregeln arbeiten.
So geht es in der Programmierung von Klimamodellen erst einmal um die Parametrisierung, dem Festlegen von Parametern, nach wissenschaftlichen Erkenntnissen, aber auch nach Vermutungen (wie CO2 als Klima-Erwärmer) oder, wie erwähnt, auch nur mit Faustregeln (im Grunde eine wissenschaftliche Bankrotterklärung). Diese Parametrisierung nennt der Klimamodell-Forscher Stevens eine chronische Krankheit, von der all ihre Klimamodelle befallen sind.
Denn abhängig von den verwendeten Parametern, liefern die Supercomputer krass voneinander abweichende Ergebnisse.
Stevens erwähnt hierzu die prognostizierten Temperaturen in der Arktis (Nordpol), wo verschiedene Modelle teilweise mehr als zehn Grad (10°C!) voneinander abweichen. Das lässt, laut Stevens, jede Prognose zur Eisbedeckung der Arktis wie Kaffeesatzleserei erscheinen.

Sind das geeignete „Prognosen“ für politisches Handeln?

Kann so etwas für Politiker eine Entscheidungshilfe sein?

Zu beachten ist auch, dass einer der vielen Parameter in der Vermutung liegt, CO2 sei der Hauptverursacher der derzeitigen Klimaerwärmung. Und das, obschon man weiß, dass die vorletzte Eiszeit (vor 450 Millionen Jahren) einen CO2-Anteil von mindestens 2500 ppm aufwies (der tiefste mögliche Gehalt an CO2, wenn man die Messungenauigkeiten berücksichtigt).
Doch das Warmklima sackte damals von 25°C für die Dauer von rund zwölf Millionen Jahren auf durchschnittlich 10°C runter!
Trotzdem füttern wir unsere Modelle mit dem vergleichsweisen armseligen CO2-Anteil des Menschen, obschon die Geschichte der Erde zeigt, wie unbedeutend der Einfluss von CO2 auf die Temperatur einwirkt.

Meines Erachtens sind das völlig falsche Parameter, die aus der CO2-Mücke einen CO2-Elefanten machen, und nun in die verschiedenen Modelle einfließen, deren Resultate Stevens selbst als Kaffeesatz-Leserei bezeichnet (vermutlich, weil es zusätzlich auch noch zu einer plausiblen Faustregel geworden ist, die zyklische Klimageschichte der Erde und ihre Ursachen zu ignorieren oder erst gar nicht grundlegend zu erforschen).

Ein anderer Klimaforscher, ein Deutscher in den USA, namens Schneider
und seine Mitstreiter versuchen ein neues Computermodell zu erschaffen, welches die tückischste aller Wolkengattungen ins Visier nimmt: die Stratokumulus-Wolken.
Diese Wolkengattung ist so turbulent und wild, dass sie rechnerisch noch schwieriger zu erfassen sind als die Kumulonimbus-Wolken, die von Stevens erforscht werden.
Das wiegt umso mehr, da neue Wolken dieses Typs die Temperatur senken, ihre Auflösung hingegen die Temperatur bis zu 8°C steigen lassen könnten.

Stevens selbst gesteht, dass ihre Modelle (Anm.: die teilweise mit sehr spekulativen Daten gefüttert wurden) nicht dazu taugen, politische Entscheidungshilfen für beispielsweise Deichbau, Abwasserkanäle usw. anzubieten. Zu ungenau sind die Ergebnisse, welche immer noch zwischen einer Erwärmung von 1,5° bis 4,5°C schwanken. Modelle, die wohlgemerkt auf der falschen CO2-These beruhen.

Auffallend in diesem Zusammenhang: Die Panikmacher greifen immer auf die 4,5°C, ohne die 1,5°C derselben Forscher zu erwähnen.
Genauso wenig erwähnen sie frühere Eiszeiten mit 10°C Durchschnittstemperaturen, welche durchgehend ein Mehrfaches an CO2 als heute in der Atmosphäre aufwiesen.

Kann man ernsthaft auf solch lückenhaften Daten an realistische Ergebnisse glauben?

Klimaforscher Hans von Storch



Das Interview wurde 2013 gegeben. Mehr als 5 Jahre sind inzwischen vorbei und an der Pause hat sich nichts geändert. In den Modellen steckt also offensichtlich ein fundamentaler Fehler – und die Vorhersagen müssten jetzt dringend korrigiert werden! Einer der Hauptfehler liegt an der Gewichtung des Einflusses von CO2 und dem Kleinreden des Einflusses durch die Sonne und andere offenbar noch unbekannte Faktoren. Der übertrieben dargestellte Effekt des CO2 wird aber vermutlich noch lange nicht korrigiert werden. Zu viel Geld sprudelt bereits durch diverse Maßnahmen, wie Steuern auf CO2 in Kassen der Regierungen und anderer Gewinner dieser These. Und so lange die zukünftigen Steuerzahler sogar auf der Strasse entsprechende Maßnahmen fordern, besteht wohl kein dringender Bedarf, diesen fundamentalen Fehler in den Modellen zu korrigieren. Lest den Artikel! Hans von Storch’s Antworten sind sehr interessant und erstaunlich offen. Ebenso interessant ist zu sehen, dass er, obschon er die Fehlerhaftigkeit der Modelle erkennt, persönlich immer noch daran glaubt, dass bis zum Jahr 2100 ein Temperaturanstieg von 2-3°C zu erwarten sei.
Sein Glaube widerspricht seinen eigenen wissenschaftlichen Einsichten über die Untauglichkeit der Modelle.

Storch:
„Bislang kann niemand eine überzeugende Antwort liefern, warum der Klimawandel eine Pause eingelegt hat. Wir stehen vor einem Rätsel. Die CO²-Emissionen sind jüngst sogar noch stärker angestiegen als befürchtet. Als Folge davon hätte es nach den meisten Klimamodellen in den letzten zehn Jahren rund 0,25 Grad wärmer werden müssen. Doch das ist nicht geschehen. Tatsächlich waren es in den letzten 15 Jahren gerade mal 0,06 Grad – also ein Wert nahe null. Diesem ernsten wissenschaftlichen Problem wird sich auch der Weltklimarat IPCC stellen müssen, wenn er Ende des Jahres seinen nächsten Sachstandsbericht präsentiert.“ „Ein Erwärmungsstopp, der 20 Jahre andauert, kommt in keinem einzigen Szenario vor. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

20 Jahre sind vorbei!

ZAMG – Zentralanstalt für Meteorologie und Geodynamik in Wien

Das ZAMG schreibt auf ihrer Website:

Seit rund 5.000 Jahren ist jedoch der langfristige Klimatrend wieder auf leichte Abkühlung eingestellt. Diese Entwicklung ist allerdings durch Episoden kürzerer, Jahrzehnte bis Jahrhunderte langer Phasen überlagert wie zuletzt dem mittelalterlichen Optimum oder der Kleinen Eiszeit.

Generell kann das Holozän als äußerst ruhige und für eine Zwischeneiszeit bereits sehr lang andauernde Warmphase innerhalb des quartären Eiszeitalters angesehen werden.

Halten wir fest

  • Klimaforscher betrachten ihre eigenen Modelle für unpräzise und vergleichen sie teils mit Kaffeesatzleserei.
  • Die Modelle sind u.a. mit der falschen Annahme gefüttert, der winzige menschengemachte CO2-Anteil sei der Hauptverursacher der gegenwärtigen Erwärmung.
    Dabei wird nicht berücksichtigt, dass eine Erwärmung nach der kältesten Phase des Holozäns (Kleine Eiszeit) zu erwarten war und nichts mit einer angeblichen Klimaerwärmung zu tun hat.
  • Stark beeinflussende Faktoren wie Wolken sind rechnerisch – trotz Supercomputern – nicht zu erfassen.
  • Die natürlichen Zyklen der Klimageschichte werden nicht beachtet und teils sogar kleingeredet.
  • Die österreichische ZAMG (Zentralanstalt für Meteorologie und Geodynamik) stellt im Verlauf des Holozäns eine Tendenz zur Abkühlung fest.
  • Politiker werden gedrängt, mit solchen unzuverlässigen Szenarien Entscheidungen von unabsehbarer Tragweite zu fällen.
  • Der Tatendrang junger Menschen wird für völlig unwissenschaftliche Angst- und Panikpropaganda missbraucht und so von den tatsächlich akuten Umweltproblemen abgelenkt.

Schreibe einen Kommentar