Zur Beantwortung dieser Frage kann auf die Antwort der Bundesregierung vom Januar 2019 auf eine Kleine Anfrage (BT-Drucksache 19/6899 zurückgegriffen werden:
„Als historischer Referenzrahmen zur Berechnung für einen sogenannten vorindustriellen Wert der globalen Mitteltemperatur wird in der Klimawissenschaft meist der Zeitraum von 1850 bis 1900 verwendet (In einer Vereinfachung erscheint z. T. auch 1880 als Bezugsjahr, an anderen Stellen wird der Zeitraum von 1880 bis 1910 gewählt.).
Korrekterweise müsste sich der Begriff ‚vorindustriell‘ auf den Zeitraum vor Beginn der Industrialisierung beziehen, d. h. vor der infolge von Verbrennung fossiler Energieträger in industriellem Maßstab einsetzenden Emission des Treibhausgases CO₂. Da es zu diesem Zeitpunkt aber noch keine globale, flächendeckende und systematische Erfassung der oberflächennahen Lufttemperatur gab und geben konnte, musste man sich auf später erfolgte Temperaturmessungen beziehen. Die großräumige und systematische Erfassung von Lufttemperaturen im Sinne meteorologischer Messreihen begann erst in der zweiten Hälfte des 19. Jahrhunderts.“
Also der meist verwendete Zeitraum ist falsch gewählt bzw. wird falsch bezeichnet. Außerdem wird er nicht einheitlich verwendet. Irgendwie scheint jeder machen zu können, was er will. Und dass man irgendwann mit irgend etwas beginnt, bedeutet nicht zwangsläufig, dass das dann auch bereits optimal funktioniert. Folgerichtig fährt die Bundesregierung in ihrer Antwort fort:
„Zur Bestimmung der globalen Erwärmung wird auch im IPCC-Sonderbericht über 1,5 °C Globale Erwärmung (IPCC-SR1.5) wie schon im Fünften Sachstandsbericht (IPCC-AR5) der Bezugszeitraum 1850 bis 1900 als (klimatologisch) vorindustriell definiert. Dies ist der früheste Zeitraum, für den ausreichend viele Beobachtungen der Temperatur global verteilt vorliegen, um Näherungswerte für eine globale, mittlere Temperatur oberflächennaher Luftschichten zu berechnen. Die Anzahl der damaligen Messstationen ist aber viel geringer, als die in den letzten 70 Jahren. Insbesondere die Fernerkundung mit Hilfe von Flugzeugen und Satelliten hat in den letzten Jahrzehnten zu erheblichen Verbesserungen der Datenabdeckung geführt.“
Im willkürlich vom IPCC als „vorindustrielle Referenz“ gewählten Zeitraum von 1850 bis 1900 gab es also zwar bereits Daten, diese waren aber weder was die Flächenabdeckung, noch was die Messgenauigkeit angeht, mit den Daten der letzten 70 Jahre vergleichbar. Zur Verdeutlichung dieser Aussage: Gerne wird behauptet, dass die von argentinischen Forschern am 22. Februar 1904 gegründete Orcadas-Station die älteste ständig bewohnte Station in der Antarktis sei. Allerdings befindet sich diese nicht auf dem antarktischen Kontinent selbst, sondern auf Laurie Island, einer Insel der Südlichen Orkneyinseln. Die Station selbst befindet sich auf etwa 60° 45' südlicher Breite, also noch nicht einmal jeseits des südlichen Polarkreises (ca. 66° 33'). Sie liegt stattdessen vom geografischen Südpol (90° südlicher Breite) fast so weit entfernt wie Helsinki oder Oslo vom geografischen Nordpol (90° nördlicher Breite). Die tatsächlich früheste Station auf dem antarktischen Festland (und südlich des südlichen Polarkreises) wurde erst 1951 gegründet und ist die argentinische Station „San Martín“, die sich auf etwa 68° 08' südlicher Breite befindet und damit noch nicht einmal so nah am geografischen Südpol liegt wie Utqiagvik (bis 2016: Barrow) – also die nördlichste Stadt der USA – am geografischen Nordpol.
Das vom Bundestag erwähnte Jahr 1880 bezieht sich vermutlich auf den Bezugszeitraum, der vom Goddard Institute for Space Studies (GISS) der National Aeronautics and Space Administration (NASA) genutzt wird. Auf deren Frage-und-Antwort-Seite zur „schwer fassbaren absoluten Oberflächenlufttemperatur“ kann man unter anderem folgende Aussage lesen:
„Frage: Warum zeigt GISS keine Daten vor 1880?
Antwort: Die Analyse ist auf den Zeitraum seit 1880 begrenzt, wegen schlechter räumlicher Abdeckung der Stationen und abnehmender Datenqualität vor dieser Zeit. Meteorologische Stationsdaten liefern eine nützliche Abschätzung der Temperaturänderung in den außertropischen Regionen der Nordhalbkugel für einige Jahrzehnte vor 1880, und es gibt eine kleine Anzahl von Stationsaufzeichnungen, die bis in frühere Jahrhunderte zurückreichen. Wir glauben jedoch, dass Analysen für diese früheren Jahre stationenweise durchgeführt werden müssen, mit dem Versuch, Methode und Zuverlässigkeit jeder Messung zu beurteilen – eine Aufgabe, die über den Umfang unserer Analyse hinausgeht. Globale Studien für noch frühere Zeiten müssen auf Proxydaten zurückgreifen, wie Baumringe, Eisbohrkerne usw.“
Original
„Q.Why does GISS show no data from before 1880?
A. The analysis is limited to the period since 1880 because of poor spatial coverage of stations and decreasing data quality prior to that time. Meteorological station data provide a useful indication of temperature change in the Northern Hemisphere extratropics for a few decades prior to 1880, and there are a small number of station records that extend back to previous centuries. However, we believe that analyses for these earlier years need to be carried out on a station by station basis with an attempt to discern the method and reliability of measurements at each station, a task beyond the scope of our analysis. Global studies of still earlier times depend upon incorporation of proxy measures of temperature change like tree rings, ice core data, etc.“
Die Antwort der Bundesregierung führt folgerichtig im direkten Anschluss zu obigem Zitat aus:
„Um diese Unterschiede der Datenabdeckung im Vergleich zwischen den Jahren 1850 bis 1900 und Zeiträumen in den letzten 70 Jahren bei der Berechnung globaler Mittelwerte ausreichend berücksichtigen zu können, ist der Einsatz aufwendiger globaler Wetter- und Klimamodelle für diese Wetter- und Klima-Reanalysen („Rückrechnungen“) notwendig.“
Dieses „die letzten 70 Jahre“ umfasst im Januar 2019 allerdings lediglich den Zeitraum 1949 bis 2018. Daraus folgt, dass die hier gemachte Feststellung nicht nur für den angesprochenen Zeitraum 1850 bis 1900 gilt, sondern für den Zeitraum 1850 bis 1948. Aber es wird noch besser:
„Für die physikalische Konsistenz der Datenfelder und Zeitreihen sind numerische Klima- und Wetter-Modelle mit einer geeigneten Modellgitter-Struktur notwendig. Würde man, ohne ein solches Modell zu nutzen, allein aus Messungen einen globalen Mittelwert bestimmen wollen, so bräuchte man ein Netz von Sensoren (jeweils im Abstand weniger hundert Meter zueinander), das sich um den gesamten Planeten legte, inklusive der Meere und Ozeane, und zwar konstant in zwei Metern Höhe über der jeweiligen Erdoberfläche.“
Hier steht also nicht weniger als das Eingeständnis, dass nicht nur das Wetter für jeden einzelnen Tag der 99 Jahre von 1850 bis 1948 rückwirkend berechnet wurde, sondern dass dies auch für die Daten von 1949 bis 2018 gilt. Denn das Messnetz, das hier als Voraussetzung für eine Berechnung der mittleren Temperatur der oberflächennahen Luftschicht ohne Verwendung eines Modells gefordert wird, lag auch Anfang 2019 nicht vor – und liegt auch im Jahr 2026 noch immer nicht vor. Das Messnetz des Jahres 2023 wird vom Scientific Visualization Studio der NASA auf der Webseite „2023 Temperature Measurements“ gezeigt (oben als Video, darunter als interaktive 3D-Animation, so dass man hier auch die Situation an den Polen betrachten kann).
Die Verwendung von Modellen zur Berechnung der notwendigen aber fehlenden Daten bedeutet selbstverständlich auch, dass man die heutigen Annahmen über die Entwicklung des Klimas in diesem Zeitraum zum Bestandteil der so gewonnenen Daten macht. Man berechnet also letztlich die Werte, die man bereits bei der Erstellung der Modelle indirekt vorgibt. Also insbesondere eine Abhängigkeit der Temperatur vom CO₂-Gehalt ergibt sich nicht aus Messungen, sondern wird automatisch in die angeblich gemessenen Werte mit hineingerechnet. Auch das wird in der Antwort des Deutschen Bundestages offen zugegeben:
„Ein Nebeneffekt dieser Verfahren ist jedoch, dass die Angabe einer einzelnen absoluten Zahl für die globale, mittlere Temperatur oberflächennaher Luftschichten in einem bestimmten Zeitraum abhängig ist von der jeweiligen Datenassimilation, der genauen numerischen Implementierung des jeweiligen Klimamodelles und den Algorithmen, mit denen bestimmte, unterschiedlich definierte Mittelwerte (räumliche und zeitliche) berechnet werden. So kann es sein, dass ein ganz bestimmtes Klimamodell für den Zeitraum 1850 bis 1900 eine Mitteltemperatur von 13,6 °C berechnet, ein anderes Modell jedoch 13,8 °C. Ein von der WMO für anschauliche Vergleiche verwendeter absoluter Wert für die mittlere Temperatur oberflächennaher Luftschichten in dem Zeitraum 1850 bis 1900 liegt bei ca. 13,7 °C.“
Auf der oben bereits erwähnten Frage-und-Antwort-Seite zur „schwer fassbaren absoluten Oberflächenlufttemperatur“ beim GISS kann man unter anderem folgende Aussage lesen:
„Frage: Ich habe alte Artikel und Medienberichte gefunden, die die jährliche mittlere absolute Temperatur auf zwei Dezimalstellen genau angeben – warum können Sie das heute nicht tun?
Antwort: Es gibt tatsächlich viele historische Berichte, die die Ergebnisse der jährlichen Mitteltemperatur in Bezug auf die absolute Temperatur diskutieren. Vor 2000 nahmen diese Berichte im Allgemeinen die Anomalien und addierten sie zu einer Basislinie von 15 °C, die als gängiger Durchschnittswert verwendet wurde. Nach 2000 wurde oft eine Basislinie von etwa 14 °C verwendet (gemäß Jones et al., 1999). Diese Basislinien waren jedoch nur ungefähr, was daran ersichtlich ist, dass sie nach weiteren Untersuchungen um ein Grad Celsius verändert wurden! Vergleiche zwischen pre-2000- und post-2000-Berichten über die absolute Temperatur können dann den irreführenden Eindruck vermitteln, dass die Temperaturen dramatisch gesunken seien, obwohl klare Belege zeigen, dass sie sich erwärmt haben. Diese Situation hätte vermieden werden können, wenn man mehr darauf geachtet hätte, wie Zahlen mit unterschiedlichen Fehlerabschätzungen kombiniert werden. Wenn man zwei Zahlen mit unterschiedlichen Fehlern addiert, wird der Fehler der Summe vom größten der beiden Fehler dominiert. Wenn also die Unsicherheit der absoluten globalen Basislinie etwa 0,5 °C beträgt und die Unsicherheit der jährlichen Anomalie näher bei 0,06 °C liegt, beträgt der Fehler der Summe immer noch 0,5 °C! In den letzten Jahren haben wir das Bewusstsein für dieses Problem geschärft, und es ist heute weitaus seltener als früher. Um es noch einmal zu betonen: Wenn Sie wissen müssen, wie ein Jahr oder Zeitraum im Vergleich zu einem anderen steht, verwenden Sie die Anomalien.“
Original
„Q. I’ve found old articles and media reports that give the annual mean absolute temperature to two decimal places, why can’t you do that now?
A. There are indeed many historical reports that discuss the annual mean temperature results in terms of the absolute temperature. Pre-2000, these reports generally took the anomalies and added them to a baseline temperature of 15°C, which was a commonly used average. After 2000, they often used a baseline of about 14°C (following Jones et al, 1999). However, these baselines were only approximate, as evidenced by the fact that they were changed by a degree Celsius after further research! Comparisons of pre-2000 and post-2000 reports of the absolute temperature can then give the misleading impression that temperatures had cooled dramatically, as opposed to the clear evidence that they have warmed. This situation would have been avoided if people had paid more attention to how they combined numbers with different error estimates. If you add two numbers with different errors, the error in the sum will be dominated by the largest one. Thus, if the uncertainty in the absolute baseline global temperature is around 0.5°C, and the uncertainty in the annual anomaly closer to 0.06°C, the error in the sum is still 0.5°C! In recent years, we have raised awareness of this issue, and this is much less common than previously. To reiterate, if you need to know how one year or period compares to another, use the anomalies.“
Auch wenn das GISS indirekt das Gegenteil behauptet: Es existiert kein Messgerät, mit dem man Annomalien – also Abweichungen vom Basiswert – direkt messen kann. Direkt messen kann man lediglich Temperaturen, nicht Temperaturänderungen. Annomalien werden also berechnet, indem man vom Messwert den Ausgangswert abzieht. Wenn der Ausgangswert im Laufe der Zeit immer niedriger angesetzt wird, steigt somit automatisch der Wert der Annomalie.
Welche Folgen sich daraus konkret ergeben, lässt sich am verständlichsten anhand eines praktischen Beispiels erklären: Im Januar 2025 meldeten die Qualitätsmedien, beispielsweise die Tagesschau: „2024 war das wärmste Jahr seit 1850. Erstmals lag die globale Durchschnittstemperatur 1,6 Grad über dem vorindustriellen Niveau.“ Grundlage dieser Meldung waren aber nicht die Daten der üblicherweise in diesem Zusammenhang genannten Organisationen (NASA, NOAA, HadCRUT, Berkeley usw.), sondern des (europäischen) Copernicus-Klimawandeldienstes (Copernicus Climate Change Service – C3S). Zur Erläuterung wird erklärt:
„2024 war zudem das erste Kalenderjahr, welches global 1,6 Grad wärmer war als das vorindustrielle Niveau von 1850 bis 1900. Der Copernicus Klimawandeldienst rechnet für seine Untersuchungen mit ‚maps without gaps‘. Das heißt, er rechnet für die Orte zwischen Messstationen Zahlen.“
Dieser C3S verwendet für den „vorindustriellen Zeitraum“ zwar die übliche Zeitspanne von 1850 bis 1900 und berechnet wie üblich die fehlenden Messwerte einfach selbst, hat mit seinen Computermodellen für diesen Zeitraum aber eine mittlere Temperatur von 13,5 °C simuliert. Die mittlere Temperatur der oberflächennahen Luftschicht im Jahr 2024 betrug somit also 15,1 °C. Zu diesem Ergebnis kommt auch die Tagesschau (allerdings mit deutlich höherer Präzision):
„Mit einer durchschnittlichen Lufttemperatur unseres Planeten in rund zwei Meter Höhe von 15,10 Grad Celsius war 2024 noch mal 0,12 Grad wärmer als der vorherige Rekordhalter 2023.“
Verwendet man stattdessen die 13,7 °C als Basis, welche laut Deutschem Bundestag die NASA für den selben Zeitraum angibt, dann beträgt die Annomalie nur noch 1,4 °C. Kurz nach dem Jahr 2000 lag der Basiswert noch bei 14 °C und somit hätte der selbe Jahresmittelwert noch eine Annomalie von 1,1 °C bedeutet. Vor dem Jahr 2000 (und somit z. B. auch schon für Svante Arrhenius) hätten die selben 15,1 °C dagegen noch eine Erwärmung seit dem „vorindustriellen Zeitraum“ von lediglich 0,1 °C ergeben. Also obwohl man keine neuen Messwerte für die Zeit bis 1900 hat, wird diesem Zeitraum im Laufe der Zeit ein immer kälterer Wert zugewiesen und damit steigt ganz automatisch im Verhältnis dazu auch die Anomalie.
In der Meldung der Tagesschau liest man stattdessen:
„Die Weltorganisation für Meteorologie (WMO) verwendet ausschließlich Messwerte und bestätigt 2024 ebenfalls als wärmstes Jahr der Geschichte mit etwa 1,55 Grad über dem vorindustriellen Niveau (mit einer Unsicherheitsspanne von ±0,13 Grad). Ein von der WMO eingesetztes internationales Expertenteam hat einen ersten Hinweis darauf gegeben, dass die langfristige globale Erwärmung im Jahr 2024 im Vergleich zum Basiszeitraum 1850-1900 derzeit etwa 1,3 Grad beträgt.“
Dazu ein paar Bemerkungen:
Auch die WMO verwendet nicht ausschließlich Messwerte – weder für den „vorindustriellen Zeitraum“ noch für aktuelle Daten.
Da man weder die exakte mittlere Temperatur des „vorindustriellen Zeitraums“ noch die exakte mittlere Temperatur des Jahres 2024 kennen kann, ist die Angabe einer Differenz dieser beiden Werte auf hundertstel Grad genau schlichtweg unsinng. Das hatte bereits das GISS im oben stehenden Zitat erläutert.
Das GISS hatte in diesem Zusammenhang auch erklärt, warum es unsinnig ist, für diese Differenz eine Ungenauigkeit von ±0,13 Grad zu behaupten. Denn diese Ungenauigkeit ergibt sich durch quadratische Addition der Ungenauigkeit des Ausgangswertes und der Ungenauigkeit des Endwertes, also:
Eine Gesamtungenauigkeit von ±0,13 Grad wäre somit beispielsweise möglich, wenn die Ungenauigkeit der Temperatur für den Zeitraum 1850 bis 1900 ±0,13 Grad und die Ungenauigkeit für die Temperatur des Jahres 2024 ±0,00 Grad beträgt – oder umgekehrt. Alternativ könnten z. B. auch beide Werte mit der identischen Ungenauigkeit von ±0,09 Grad ermittelt worden sein. Alle diese Varianten sind aber nicht plausibel, denn wie oben bereits zitiert geht das GISS davon aus, dass man die Unsicherheit der absoluten globalen Basislinie nur mit einer Genauigkeit von ±0,5 Grad ermitteln kann.
Aus dieser Berechnungsformel geht zudem hervor, dass die Unsicherheit einer Annomalie immer mindestens so groß ist wie die größte Unsicherheit der beiden genutzten Ausgangswerte. Die von Klimawissenschaftlern immer wieder geäußerte Behauptung, dass Annomalien exakter sind als absolute Temperaturen, ist also bereits rein mathematsich Unfug.
Auf der NASA-eigenen Webseite vom 10. Januar 2025 wird eine Annomalie von 2,65 °F (1,47 °C) genannt und als Bezugszeitraum das „agency’s mid-19th century average (1850-1900)“ angegeben. Legt man die in der oben zitierten Antwort des Bundestages für diesen Zeitraum genannte mittlere Temperatur von 13,7 °C zu Grunde, ergibt sich eine mittlere Temperatur des Jahres 2024 von sogar 15,17 °C. Dieser Wert wird auf der Webseite der NASA allerdings nicht genannt.
Wie die NASA die mittlere Temperatur für den Zeitraum 1850 bis 1900 ermittelt, kann man auf der Frage-und-Antwort-Seite zum GISS Surface Temperature Analysis (GISTEMP) erfahren:
„Frage: Wie kann ich die Anomalie in Bezug auf die ‚vorindustrielle‘ Periode (1850–1900) schätzen?
Antwort: Während die GISTEMP-Analyse nur bis 1880 zurückreicht, gibt es andere Schätzungen, die weiter zurückreichen (insbesondere die Analysen von HadCRUT, NOAA und Berkeley Earth), und unter Verwendung des Durchschnitts dieser Daten können wir die Korrektur von unseren Werten aus dem späten 19. Jahrhundert (1880–1899) zur früheren Basislinie abschätzen. Dies ist eine sehr kleine Anpassung von etwa 0,038 °C. Daher können wir, um die GISTEMP-Anomalie in Bezug auf 1850–1900 zu berechnen, auf 1880–1899 von 1951–1980 ausgehend anpassen und dann diese Anpassung vornehmen. Dies entspricht (Stand Januar 2025) etwa dem Addieren von ~0,19 °C. Beachte, dass sich diese Zahlen in Zukunft leicht ändern können, wenn mehr Daten digitalisiert werden oder wenn sich die Methodologien ändern. Beachte ebenfalls, dass Anomalien mit Bezug auf die vorindustrielle Zeit unsicherer sind als Anomalien mit Bezug auf eine moderne Basislinie.“
Original
„Q.How can I estimate the anomaly with respect to the ‘pre-industrial’ (1850-1900) period?
A. While the GISTEMP analysis only goes back to 1880, there are other estimates that go back further (notably the HadCRUT, NOAA and Berkeley Earth analyses), and using the average of those data, we can estimate the correction from our late 19th Century values (1880-1899), to the earlier baseline. This is a very small adjustment of about 0.038ºC. Therefore, to calculate the GISTEMP anomaly with respect to 1850-1900, we can adjust to 1880-1899 from 1951-1980, and then make that adjustment. This is equivalent (as of Jan 2025), of adding ~0.19ºC. Note that these numbers may change slightly in the future as more data is digitized or if the methodologies change. Note also, that anomalies with respect to the pre-industrial are more uncertain than anomalies w.r.t. a modern baseline.“
Eigentlich wäre es also sinnvoller, den Unfug mit den Annomalien ganz sein zu lassen und stattdessen die absolute Temperatur anzugeben, also beispielweise: „2024 betrug die mittlere globale Temperatur der oberflächennahen Luftschicht 15,1 °C.“ Mit diesen Informationen könnte anschließend auch jeder für sich selbst ausrechnen, wie viel wärmer es somit seit wann geworden ist.
Tatsächlich vermeidet die Klimawissenschaft aber seit Jahrzehnten die Angabe von absoluten Temperaturen wie der Teufel das Weihwasser.
Dies ist ein privat genutzter Internetauftritt, der sich ausschließlich an Verwandte und Freunde richtet.
Dieser Internetauftritt nutzt keine Cookies, keine Analysetools, keine Tracker, keine Werbung, keine Plug-Ins von Social Media, keine Kontaktformulare und keine von fremden Domains eingebundene Daten (Bilder, Videos, Schriften, Programme, Werbeanzeigen etc. pp.).