Een nieuwe temperatuurgrafiek van de aarde

Data: BerkeleyGISS NASA, Hadcrut4

Hierboven ziet u  het verloop van de jaarlijkse globale temperatuur-anomalie vanaf 1850 t/m 2019 volgens Berkeley, GISS en Hadcrut. Die anomalieën zijn de afwijkingen van de berekende temperaturen ten opzichte van het gemeenschappelijke nulpunt 1920. De drie grafieken lijken sterk op elkaar maar zijn niet identiek.  Dat is raar, want ze maken gebruik van de meetgegevens van ongeveer dezelfde verzameling weerstations. Dat ze onderling afwijken heeft onder andere te maken met de manier waarop elke organisatie die gemiddelde temperatuur berekent.

In dit bericht gaat het over de vraag hoe betrouwbaar die grafieken zijn. Ik ga hier gemakshalve maar even voorbij aan het feit dat alle drie organisaties zich ook het recht toe hebben geëigend om meetgegevens van een meetstation te ‘corrigeren’, te homogeniseren. Daar wil ik een andere keer weer eens naar kijken.

Bron: John McLean

Het is een bekend gegeven dat er pakweg 100 jaar geleden veel minder weerstations actief waren dan momenteel. En zelfs momenteel is het landoppervlak niet geheel gedekt door een netwerk van weerstations. Met temperatuurmetingen op zee (70% van het aardoppervlak) is het helemaal erg, die worden pas sinds 2004 min of meer systematisch gemeten met de introductie van de ARGO boeien (zie bovenstaande grafiek van de SST metingen).

Bron: John McLean 2018

Bovenstaande grafiek betreft de ruimtelijke dekkingsgraad van de globale Hadcrut4 dataset. De grafiek laat zien dat de dekkingsgraad van de aarde als geheel tot 1950 veelal ver onder de 50% lag. Maar ook momenteel is de ruimtelijke dekking verre van compleet. Het zuidelijk halfrond komt net boven de 75% uit.

Bron: Hadcrut

Wat voor gevolgen dat heeft in het Noordpoolgebied is op bovenstaand plaatje te zien. Omdat deze regio grotendeels uit oceaan bestaat reiken de weerstations niet verder dan de noordelijke kust van Noord-Amerika en Eurazië. Metingen op zee zijn vrijwel uitgesloten vanwege het drijfijs.

Op het kaartje hieronder is de situatie te zien op het zuidelijk halfrond. De licht- en donkergrijze cellen hebben een of meer meetstations. Antarctica kent slechts een handjevol stations, veelal langs de rand gelegen.

Bron: Hadcrut

Hoe dat gebrek aan meetgegevens opgelost wordt verschilt van organisatie tot organisatie:

Bron:  GISS

Het bovenste kaartje toont de dekking door GISS, het onderste door Hadcrut4. De laatste laat de cellen die geen weerstation hebben grijs, die worden niet meegerekend. GISS vult de ontbrekende gegevens van grijze cellen in met meetgegevens van nabijgelegen cellen. Zo’n ‘nabijgelegen’ weerstation kan overigens wel 1200 km (Amsterdam – Barcelona) verwijderd zijn van de lege cel. Zo verkrijgt GISS temperatuurkaartjes die vrijwel de gehele aarde bedekken.

Bron: REDD

Op dit moment zijn er dus nog steeds grote gebieden op aarde waar weinig tot geen meetgegevens van beschikbaar zijn. Denk daarbij aan Antarctica, maar ook aan delen van Afrika en het Saoedisch schiereiland en grote delen van Oost-Azië. Zie de kaart hierboven.

Vóór 1950 was de situatie nog veel slechter dan momenteel, en hoe verder men terug gaat in de tijd des te groter worden de ‘gaten’  in de ruimtelijke dekking. Zo’n 100 jaar geleden was het gros van de weerstations te vinden in de USA en West Europa, in de rest van de wereld werd nauwelijks gemeten. In de grafiek hieronder is te zien dat bijna de helft van alle stations waarvan de gegevens zich uitstrekken over de hele 20e eeuw zich in de USA bevinden.

Bron: Longhurst 2015

De vraag is dan ook gerechtvaardigd of het wel mogelijk is om met zo weinig meetgegevens in de periode vóór 1950 een gemiddelde aardse temperatuur te berekenen. Desondanks beginnen de grafieken van Berkeley en Hadcrut4 in 1850 en die van GISS in 1880. Het kan niet anders dan dat in het eerste deel van deze grafieken de data van de USA en in minder mate van West-Europa domineren.

De Amerikaanse blogger Zoe Phin  heeft onlangs een opmerkelijke poging gedaan om de kwaliteit van de data van voor 1950 te verbeteren. Ze schrijft: “Could it possibly be that the “global” warming reported by Berkeley Earth and similar outfits is actually a statistical artifact due to increased coverage and incompatible comparison? In other words, is it the whole globe that’s warming or is it just the shifting and increasing subset of the globe that’s warming?”

Zoe is geen klimatoloog (oei oei) maar financieel expert en kan jaloersmakend goed omgaan met dataverwerkingssoftware. Ze gaat uit van de dataset van Berkeley Earth, degene die zowel land als water dekt. Dit is de bijbehorende grafiek:

Bron:  Zoe

Samengevat komt het er op neer dat ze de dataset van Berkeley heeft gecorrigeerd voor twee kenmerken, namelijk de invloed van de afstand tot de evenaar (breedteligging) op de temperatuur en de invloed van de hoogteligging op de temperatuur. Als referentie gebruikte ze de data uit de periode 1950-1980.  Voor de breedteligging komt ze uit op een afname van 0,133 °C per breedtegraad ten opzichte van de evenaar.  De gemiddelde lapse rate wordt berekend op -5,7  °C/km en de gemiddelde hoogteligging is 232 m.

Op basis daarvan corrigeert Zoe de door Berkeley gebruikte datareeks, wat tot de volgende globale temperatuurgrafiek leidt:

Bron: Zoe

Als we deze grafiek vergelijken met de grafiek er boven dan is het verschil onmiddellijk duidelijk. Zoe schijft: “The so-called “global warming” is primarily due to incompleteness of data, and the average latitude drifting south towards equator in the data we do have. ” en voegt ter verduidelijking deze grafieken toe:

Bron: Zoe

Interessant lijkt me. De reconstructie van de globale temperatuur van vóór 1950 is als het leggen van een puzzel van 10.000 stukjes waarvan de meeste stukjes zoek zijn geraakt.

Natuurlijk heb ik vraagtekens bij de exercitie van Zoe Phil. Het model gebaseerd op breedteligging en hoogteligging is eenvoudig en regionale verschillen in klimaatontwikkeling worden niet meegenomen, er zijn vast  nog meer bedenkingen naar voren te brengen. Maar een essentiële vraag is: zijn de methodes die Berkeley e.a. hanteren beter?

Is het überhaupt wel mogelijk om een gemiddelde wereldtemperatuur te berekenen op basis van de ter beschikking staande gegevens? John McLean analyseerde voor zijn dissertatie de dataset van Hadcrut en concludeerde:  “The overall conclusion …  is that the data is not fit for global studies. Data prior to 1950 suffers from poor coverage and very likely multiple incorrect adjustments of station data. Data since that year has better coverage but still has the problem of data adjustments and a host of other issues mentioned in the audit.”

Alan Longhurst zoekt in hst. 4 van zijn zeer lezenswaardige boek  “ Doubt and certainty in climate science” (hier te downloaden) het antwoord op de vraag: “  Can a global mean temperature be measured?” .  De zoektocht naar het antwoord is complex, maar het antwoord van Longhurst eenduidig nee.

Desondanks is het fenomeen van de gemiddelde wereldtemperatuur niet meer weg te denken uit de discussies rond klimaatveranderingen. Het is goed als men voortdurend kritisch blijft over de manier waarop die verkregen wordt. Het blog van Zoe Phil is daar een opmerkelijke bijdrage toe.

Volgende keer nog wat meer over Zoe’s grafiek.