Categoriearchief: Geen categorie

BTW over benzine

Een opvallend bericht gisteren op de zender RTL-Z. Het betrof de hoge benzineprijzen. De ‘onderzoeksredactie’ bekeek onder andere de gestegen BTW-inkomsten voor de staat door de hoge benzineprijzen. Wat kunnen we volgens de RTZ-Z redactie het beste doen met die extra BTW ? Drie dingen: meer subsidie op elektrische auto’s, meer laadpalen en meer technici opleiden om die laadpalen te plaatsen. De redenering hierachter: “….want op langere termijn gaat dát het beste zijn voor onze portemonnee. En voor onze onafhankelijkheid van Putins olie”.

Weet de ‘onderzoeksredactie’ van RTL-Z wel hoe elektriciteit gemaakt wordt? Dan red je het niet met windmolens en zonnepanelen, zie hier. Alleen al de verzwaring van het elektriciteitsnetwerk gaat in ons land vele vele tientallen miljarden euro’s kosten. En zonder subsidie zouden er weinig mensen in een elektrische auto rijden. Die subsidie is nodig omdat de aanschaf van een elektrische auto slecht is voor je portemonnee. Misschien dat de ‘onderzoeksredactie’ uitgebreid kan worden met wat mensen die verstand van energie hebben. Of spelen hier zakelijke belangen een rol?

https://www.rtlnieuws.nl/economie/tv/video/5293654/brandstofprijs-benzine-diesel-gestegen-accijnsverlaging

 

Presentatie klimaatverandering

Vriend en collega Jan Ruis maakte een prachtige presentatie over klimaatverandering met de titel “Is present climate change really a big problem?” . Gebruik makend van grafieken die veelal afkomstig zijn van recente wetenschappelijke publicaties geeft de presentatie antwoord op de belangrijkste vragen over dit onderwerp.

Voor diegene die de presentatie willen downloaden voor eigen gebruik verwijs ik naar de downloadpagina.

Klik op de figuur:

De luchtcirculatie in Nederland

Het komt regelmatig voor: binnen 24 uur daalt of stijgt de temperatuur in ons land zomaar 10 graden of meer. De windrichting is dan veranderd en daarmee ook het weer. Dan wordt er kou of juist warmte van elders aangevoerd. Die temperatuurschommelingen kunnen in West-Europa erg groot zijn. Dat heeft te maken met het feit dat we in het westen de Atlantische Oceaan hebben en in het Oosten een enorm continent. De lucht vanaf de oceaan is vaak zacht en vochtig, oostenwind (uit Rusland) soms ijskoud (in de winter) of bloedheet (n de zomer). En door de ligging op gematigde breedte is ons land bereikbaar voor lucht uit het noordpoolgebied (zeer koud) maar ook uit de subtropen (erg warm).

Fig.1    Bron: KNMI

De eigenschappen van het brongebied, het gebied waar de lucht vandaan komt, bepalen in eerste instantie de eigenschappen van de luchtmassa erboven. Op zijn weg naar Nederland veranderen die eigenschappen in zekere mate doordat de eigenschappen van de ondergrond de daarboven bewegende lucht beïnvloedt. Is het brongebied bijvoorbeeld de omgeving van IJsland dan zal de lucht op zijn weg naar Nederland vrijwel altijd opwarmen omdat het oceaanwater op die weg warmer is dan nabij IJsland. Behalve de temperatuur worden ook andere eigenschappen van de luchtmassa bepaald door de ligging en andere eigenschappen van brongebied en bewegingsroute. Denk bijvoorbeeld aan luchtvochtigheid en bewolking als de lucht over de oceaan wordt aangevoerd. Of stralende zon  en koude nachten als de lucht vanuit Rusland wordt aangevoerd. Zie figuur 1:  een hogedrukgebied boven Zuid Zweden stuwde op zaterdag 5 maart 2022  koude en droge lucht vanuit centraal Rusland onze richting op. Met de rode pijl heb ik de windrichting aangegeven.

Overigens kennen we natuurlijk allemaal nóg een mechanisme met soms enorme temperatuurschommelingen: dag en nacht. Verschillen van meer dan 10 graden of meer zijn doodnormaal als bewolking ontbreekt. Dan is het voor warmtestraling makkelijk om naar boven te ontsnappen, en ’s nachts wordt die afkoeling niet gecompenseerd door binnenvallende zonnestraling. Merkwaardig overigens dat mensen dergelijke grote schommelingen binnen zeer korte tijd normaal vinden maar sommigen van ons van slag raken als men leest of hoort dat de gemiddelde temperatuur op aarde vanaf 1850 1 °C  hoger geworden is.

Fig. 2    Bron: Meteo Maarsen

In dit artikel ga ik op zoek naar veranderende windpatronen die van invloed zijn op de temperatuur in Nederland.  Figuur 2 toont de indeling die Scherrlag in 1949 gemaakt heeft aan de hand van luchtsoorten en brongebieden. Die indeling van 12 luchtsoorten is sinds eind 19e eeuw door Duitse meteorologen verder verfijnd in 29 zogenaamde Grosswetterlagen. Ik heb daar een aantal jaren geleden al het een en andere over geschreven (zie hier), maar hernieuwde aandacht is op zijn plaats denk ik. Niet alleen omdat de Grosswetterlagen een bron van informatie zijn voor luchtcirculatieveranderingen in de loop van de tijd, maar ook omdat we nu weer 5 jaren aan de dagelijkse data kunnen toevoegen.

Fig. 3    Bron: DWD

Elke Grosswetterlage (GWL) beschrijft voor elk etmaal sinds begin 1881 waar en via welke weg de binnenstromende lucht vandaan komt. Zo ontstond een schat aan informatie die zeer nuttig bij het bestuderen van klimaatveranderingen. Figuur 4 toont de situatie voor de GWL “WZ” op 8 november 1991. Lucht uit westelijke richting wordt door een lagedrukgebied voor de kust van Noorwegen en hogedrukgebieden boven Zuid Europa onze richting op ‘gezogen’ (rode pijl).


Fig. 4    Bron: PIK Report 100

Op dergelijke wijze kan men van dag tot dag de weersituatie in Noord-Duitsland (en Nederland) analyseren. Aan de hand van gegevens over het brongebied van de luchtsoort, de weg die de lucht aflegt, de datum en de temperatuur van het zeewater kan men zo tamelijk nauwkeurig berekenen wat de effecten waren op het weer.

Omdat die indeling in 29 GWL soms te fijnmazig is voor bepaalde verwerkingsdoeleinden zijn ze ingedeeld in 10 zogenaamde Grosswettertypen (GWT), zie figuur 3. De afkortingen van deze GWT geven de  globale ligging van het brongebied weer van de onderliggende GWL.

Fig. 5    Naar Meteo Julianadorp

Op de kaart van figuur 5 zijn de brongebieden  van 8 GWT met rode letters aangegeven.  In blauw zijn de bijbehorende afkortingen van de luchtsoorten aangegeven.  “m” betekent maritieme oorsprong, “c” continentale oorsprong, terwijl de ligging van het brongebied wordt aangeduid met  “A”  voor arctisch, “P”  voor polair (nabij poolcirkel) en “T” voor tropisch (nabij subtropen). Voor de GWT hi en lo kunnen geen brongebieden weergegeven worden.


Fig. 6    Data: DWD

Figuur 6 toont het aantal dagen dat de GWT “W” (westcirculatie) per jaar voorkwam van 1881 t/m 2020. Daarbij vallen twee dingen op. In de eerste plaats is de variatie van jaar tot jaar erg sterk, het ene jaar kan wel 2x zoveel dagen met westcirculatie hebben alsn het jaar erop. Dat heeft uiteraard grote gevolgen voor het weer: het ene jaar is het andere niet weten we. In de tweede plaats is er rond het jaar 1990 duidelijk sprake van een trendbreuk. Het niveau van gemiddeld 100 dagen per jaar W, zoals dat van 1881 tot rond 1990 heerste, wordt dan een niveau van gemiddeld 80 dagen per jaar W.

Omdat een grafiek met een totaaloverzicht van alle GWT onleesbaar wordt heb ik elk GWT signaal ‘gesmoothed’ met een Loess α=0.2. Dan worden nog meer trendbreuken zichtbaar:


Fig. 6    Data DWD

De lijn van “W” blijkt al eind van de jaren 1980 een duik naar beneden te maken. Ook “hi”, “S” en “SW” vertonen rond datzelfde moment een knik. “S” begint overigens al vanaf 1881 langzaam maar zeker met een beweging omhoog, terwijl juist “NE”  vanaf ongeveer 1900 gestaag afneemt. En het is juist die “NE”  die we ’s winters nodig hebben voor goed schaatsweer. Zie het recente artikel over de Elfstedentocht.

Kortom, er zijn diverse momenten in de periode 1881-2020 aanwijsbaar waarop de GWT  trendbreuken vertonen. Die trendbreuken eind van de jaren 1980 zijn wel opvallend. De winter NAO-index , Noord Atlantische Oscillatie, laat rond eind jaren ’80 een opmerkelijke sprong zien van hoog naar laag. De NAO is een indicator op basis van de luchtdrukverdeling tussen (Azoren/Lissabon) Gibraltar en IJsland. Een hoge index betekent een groter luchtdrukverschil tussen beide plekken met als gevolg een sterkere aanvoer van lucht uit het westen. Anderen zien in de veranderende luchtcirculatie een teken van klimaatverandering door de mens. Dat past dan weer ‘wonderwel’ in het narratief van de mens – CO2 – klimaat.

Het klimaat is een chaotisch systeem. De omstandigheden die de windrichting bepalen (met name luchtdrukverdeling) zijn niet gekoppeld aan bekende  en berekenbare factoren. Als we de grafiek van de NAO index bezien kunnen we alleen maar vaststellen dat het luchtdrukverschil tussen Gibraltar en IJsland van jaar tot jaar verschilt, het achterliggende mechanisme is vooralsnog onbekend.

Het klimaatsysteem bestaat uit de subsystemen atmosfeer, hydrosfeer, cryosfeer en biosfeer. Elk subsysteem kent zijn eigen tijd- en ruimteschaal waarbinnen de processen zich afspelen. Gezien dit niveau van complexiteit is het niet raar dat het klimaatsysteem een ​​grote variabiliteit vertoont op tijdschalen die variëren van het dagelijkse tot miljoenen jaren. Ik ben daarom benieuwd of we ooit de veranderingen in luchtcirculatie zoals hiervoor beschreven zullen kunnen duiden.

Energiegebruikers staan op

Eerst Urgenda en nu Milieudefensie: Urgenda stelde de democratie onder curatele en dwong de staat tot nog verregaander klimaatbeleid. Milieudefensie nam via de rechter de bedrijfsvoering over van Shell en wil nu met een nieuw initiatief (het stuurde een open brief aan 29 grote bedrijven) het gehele Nederlandse bedrijfsleven op de knieën dwingen. Beide milieuorganisaties voerden hun rechtszaken zogenaamd vanuit het ‘algemeen belang’.

Maar dienen zij het algemeen belang wel? En voelen burgers zich wel gehoord bij deze zaken? En wat zijn de gevolgen voor de energieprijzen en het landschap? Heeft de rechter wel oog gehad voor deze vragen? Een groep Bezorgde Energie Gebruikers (BEG) – denkt van niet en zegt nu: genoeg is genoeg. Het is tijd dat burgers en ondernemers die zich niet vertegenwoordigd voelen door Urgenda en Milieudefensie ook van zich gaan laten horen. Bij de rechter wel te verstaan.

Dus het plan is simpel: de BEG-groep gaat zich mengen in de rechtszaak tussen Milieudefensie en Shell. Dat kan in het Nederlandse recht en heet ‘tussenkomen’. BEG gaat dat doen met eigen vorderingen en eigen argumenten. Want, hoewel de meeste stukken van Shell en Milieudefensie niet openbaar zijn, blijkt uit het vonnis al dat een heleboel relevante argumenten door deze partijen niet zijn ingebracht. Dus gaat BEG dat alsnog doen.

Want er is meer dan klimaat. Natuurlijk is ook BEG een voorstander van een schoon milieu en koesteren wij natuur. Maar als de energierekening niet meer betaald kan worden, dan rest straks niets anders meer dan energie-armoede, wat neerkomt op in de kou zitten. Dat kan en mag niet de bedoeling zijn van het klimaatbeleid. De rechter heeft zich totaal niet over dergelijke gevolgen hoeven buigen.

U kunt meedoen door te tekenen, en eventueel door te doneren om deze rechtsgang mogelijk te maken. Klik hier en ga naar de website van BEG voor meer informatie.

Waarom klimaatmodellen geen voorspellende waarde hebben

Willis Eschenbach publiceerde onlangs op de bekende klimaatwebsite WhatsUpWithThat een opzienbarend kijkje achter de schermen van klimaatmodellen. Op liever gezegd: vóór de schermen. Want hij beschouwde de extreem complexe modellen simpelweg als black box, met een input en een output, bekend van systeemdenken. Hij extrapoleerde die input en output en liet zien dat de output van elk klimaatmodel te ‘vangen’  is door een simpele formule. Kijk s.v.p. daar eerst naar voordat u verder leest.

Nu komt de Nederlander Dr. Ad Huijser, met wie ik regelmatig correspondeer,  met een vervolg op het artikel van Eschenbach dat gisteren gepubliceerd is op WUWT onder de titel Outside the black box. De bevindingen van Huijser zijn minstens even spectaculair en de uitkomst is te lezen in de titel van zijn stuk. Het is een technisch verhaal maar zeer de moeite waard. Lees onderstaande Nederlandse bewerking van zij verhaal in WUWT:

Waarom klimaatmodellen geen voorspellende waarde hebben

Een van de belangrijkste argumenten die het IPCC met haar Antropogene Global Warming (AGW) hypothese hanteert om ons te overtuigen van de voorspellende waarde van klimaatmodellen, is de claim dat die modellen uitstekend in staat zijn om het temperatuurverloop sinds het pre-industriële tijdperk te berekenen.

Er zijn heel wat discussies al gevoerd over dit onderwerp, maar voor de geïnteresseerde leek zijn en blijven dit soort uiterst complexe klimaatmodellen niet meer dan de bekende “Black Box” waarvan je maar moet geloven dat de uitkomst op basis van wat men erin stopt, ook daadwerkelijk klopt.

Op basis van een bijdrage van Willis Eschenbach op de bekende website WattsUpWithThat, waarin hij via een simpele recurrente betrekking tussen temperatuurverandering en forcing liet zien dat hij daarmee uitstekende dekking kon krijgen van het temperatuurverloop van de afgelopen 1½ eeuw en datgene wat uit dit soort met supercomputers gegeneerde uitkomsten van dit soort complexe klimaatmodellen (Global Circulation Models) kwam, kreeg ik het idee die betrekking niet te gebruiken voor curve-fitting, maar als CMC: Climate Model Checker. De achtergrond van die recurrente betrekking is namelijk de fundamentele behoudswet van energie voor het Aardse klimaatsysteem uitgedrukt als:

C∂T/∂t = Straling “in” – Straling “out”                                                                            (1)

Hierin is T de gemiddelde oppervlaktetemperatuur, t de tijd, C de warmtecapaciteit van het klimaatsysteem, Straling “in” de binnenkomende zonnestraling en Straling “out” de langgolvige infraroodstraling die de opgewarmde Aarde uiteindelijk de ruimte in straalt. De AGW-hypothese volgt simpel uit deze vergelijking: meer CO2 verminderd de Straling “out” waardoor de ontstane stralingsonbalans in de rechter term van (1) hersteld kan worden door een verhoging van de temperatuur. Zo’n onbalans, in dit geval veroorzaakt door een broeikasgas als CO2 heet “forcing” en wordt uitgedrukt in W/m2. Voor de verdubbeling van de CO2 concentratie is dat zo’n 3 W/m2, en u moet dat vergelijken de 240 W/m2 (de Straling “in”) die we gemiddeld aan zonnestraling ontvangen. Dat is dus niet meer dan een hele kleine verstoring en dan kan je vergelijking (1) op basis van zo’n verstoring ook schrijven als een recurrente betrekking waarin we kijken naar de tijdsafhankelijke relatie tussen temperatuur T(t) en de forcing F(t) op de, op eenheidsafstand van elkaar liggende tijdsmomenten …. n-1, n, n+1, n+2 …n+m. Dat levert dan het volgende, eenvoudig algoritme:

Tn+1 = Tn + λ (Fn+1 – Fn)(1 – exp (-1/τ)) + (Tn – Tn-1) exp(-1/τ)                                    (2)

Hierin is τ een specifieke tijd gekoppeld o.a. aan de capaciteit C en λ een factor die de klimaatgevoeligheid voor forcings aanduidt. Voor die tijdseenheid nemen we in de rest van dit verhaal 1 jaar. Als je het verloop van de forcings op jaarbasis kent, een maat voor λ en τ hebt, kan je hiermee zowel voorspellen als in de tijd terugkijken wat de jaarlijkse, gemiddelde Aardse temperatuur zal doen, dan wel in het verleden gedaan heeft. Wat Eschenbach nu deed was een waarde voor λ en τ vinden waarmee de GCM berekeningen met deze formule (2) maximaal dekkend te krijgen was. Dat lukte hem uitstekend en dat was kennelijk zijn doel van die exercitie.

Maar de kracht van deze recurrente betrekking reikt veel verder dan “curve-fitting”. Ik noem dat het “Climate Model Cheking (CMC) vermogen. Klimaatmodellen als GCM’s werken niet met forcings, maar fysieke verandering als bv. concentratie variaties van broeikasgassen in de atmosfeer en berekenen vervolgens allerlei vervolg-effecten, 3-dimensionaal en in de tijd, zoals temperatuur, druk, luchtvochtigheid, wolkenvorming etc., via o.a. de Navier-Stokes vergelijkingen, analoog aan weerprogramma’s. Die gevolgen worden vervolgens weer omgerekend in “forcings” door stapsgewijze veranderingen aan te brengen van individuele parameters of combinaties daarvan. Dat is heel veel werk en kost veel computerpower. Maar die “forcings” die zij dus zo berekenen moeten natuurlijk wel voldoen aan vgl. (2), want ook GCM’s moeten voldoen aan basale fysische wetten als behoud van energie.

Nu is er in de loop der jaren een aantal opvolgende generaties GCM ontwikkeld door een groot aantal klimaatgroepen, steeds gecompliceerder en “dus” perfecter (althans dat zou je verwachten). Al die klimaatmodellen, veel meer dan 100 inmiddels, zijn in de loop der jaren onderling in een internationaal consortium, steeds vergeleken middels het Climate Model Intercomparison Project (CMIP) en vandaar dat we de generatie CMIP3, CMIP5 en CMIP6 kennen. De laatste generatie staat aan de basis van het meest recente IPCC-rapport en voorspelt weer een grotere opwarming dan de CMIP5 modellen die weer “warmer” waren dan de CMIP3 generatie.

Op de website van de klimaatgroep van NASA/GISS kan je de tijdsafhankelijke forcings behorende bij hun CMIP5 en CMIP6 modellen vinden voor de periode sinds 1850-1860 en bij CMIP6 zelfs ook de projecties voor de periode tot 2100. Dat geeft middels vergelijking (2) de mogelijkheid de redelijkheid daarvan te checken, niet alleen onderling, maar ook met atmosferische gegevens uit het recente verleden en de daarop gebaseerde forcings die ons klimaat tot nu toe beïnvloed hebben.

Maar voor zo’n vergelijking hebben we natuurlijk wel waardes voor λ en τ nodig, waarvan die voor τ, de relaxatietijd van ons klimaatsysteem de makkelijkste is. Ieder klimaatwetenschappelijk tekstboek laat zien dat die op basis van de diepte van de zgn. “ocean mixed layer”, ergens tussen de 3 en 5 jaar moet zijn. Ik heb 4 jaar als standaard genomen, waarbij overigens (niet verwonderlijk) een variatie tussen 3 en 5 nauwelijks van invloed bleek te zijn op de resultaten.

Voor λ ben ik gestart met de inverse van de zgn. Planck feedback parameter die automatisch volgt uit vgl. (1) voor stralingsevenwicht en in absolute grootte gelijk is aan 4(1-a)Φ0/TS0 . Daarin is de gemiddelde Aardse albedo a = 0.3, de gemiddelde zonne-intensiteit Φ0 = 340 W/m2 en de gemiddelde oppervlaktetemperatuur TS0 = 288 K. Dat maakt λ = 0,3 K/W/m2 een prima keuze. Dat is echter onder evenwicht, en bij forcings hebben we ook te maken met de dynamische opwarming waarbij m.n. de waterdampconcentratie toeneemt. En als belangrijkste broeikasgas heeft dat wel degelijk invloed op die klimaatgevoeligheidsfactor λ. Om daarvoor te corrigeren heb ik het online beschikbare MODTRAN-klimaatmodel van de universiteit van Chicago gebruikt waarin je bv. de gassamenstelling, het verticale temperatuurprofiel van de atmosfeer, wel of geen bewolking kunt variëren, en je de daaraan gekoppelde forcing en/of oppervlaktetemperatuur kunt berekenen. MODTRAN heeft als basis een uitgebreide bibliotheek van de spectrale eigenschappen van gassen en rekent dat op lijn-voor-lijn-basis en met alle noodzakelijk lijnverbredingen etc., fysisch correct door. Het is internationaal veel gebruikt, ook in klimaatmodellen en geeft reproduceerbare/betrouwbare resultaten.

Als je daarin voor de US Standaard Atmosphere (een goed globaal gemiddelde voor onze atmosfeer inclusief verticaal temperatuurprofiel), met een gemiddeld bewolkte hemel en bij een constante relatieve vochtigheid, een verdubbeling van de CO2 in voert, krijg je een λ = 0,34 K/W/m2. Die laatste is weer wat anders als de relatieve vochtigheid verandert, maar altijd blijkt die waarde net iets hoger te liggen dan de theoretische inverse van de Planck feedback en heb om praktische reden gekozen om mijn berekeningen verder te doen met λ = 0,345 K/W/m2 m.n. om niet beticht te kunnen worden van een te kleine klimaatgevoeligheid en om consistent te zijn met andere waarden uit MODTRAN die ik later gebruik. Voor de conclusies maakt het evenwel niets uit.

In fig. 1 heb ik de temperatuurberekeningen m.b.v. vgl. (2) gedurende het tijdvak 1850-2020 op basis CMIP5 en CMIP6 forcing reeksen van NASA/GISS uitgezet met als referentie de laatste globale temperatuurreeks HadCrut v5 van het Britse MetOffice als mondiale standaard. Let op, dit zijn de anomalieën t.o.v. de temperatuur 1860-1880.

Fig. 1 CMC berekening op basis van CMIP5 & 6 forcings, i.v.m. HadCrut v5 temperatuur reeks

Fig. 2 CMIP5 and CMIP6 forcings, zowel “total forcings” als de forcing door de well-mixed greenhouse gassen (WMGHG)

De grote “dips” die u ziet zijn een gevolg van bekende vulkaanuitbarstingen waarbij veel aerosolen vrijkomen die een koelende werking hebben op het klimaat. De bijbehorend forcings zijn grafisch zichtbaar in fig.2. als scherpe pieken die door de relaxatietijd τ in fig. 1, aanzienlijk zijn afgevlakt. Waar CMIP5 forcings nog een redelijk goede overeenkomst opleveren, zijn de forcings uit CMIP6 niet in staat om de bestaande metingen adequaat te volgen.

Dat er tussen de forcings van verschillende generaties verschillen optreden kan je verwachten als gevolg van voortschrijdend inzicht. M.n. in de “natuurlijke” forcings, maar eigenlijk niet in die van de broeikasgassen waarvan we de historische concentraties redelijk goed kennen, evenals het effect van de bijbehorende forcings. Nu bevatten die verschillende generaties modellen natuurlijk de nodige wijzigingen/verbeteringen die verschillend uitwerken op de diverse forcings. Maar als je dat constateert, kan je niet zonder daar een gefundeerd oordeel over te vellen, een dergelijk verschil klakkeloos accepteren. Je kan niet het model veranderen/verbeteren, het geheel vervolgens door “tuning” kloppend maken met de historische meetreeks en dan de forcings maar als “toevallige” uitkomst accepteren. Immers, die forcings moeten, zoals eerder uitgelegd, ook voldoen binnen het CMC-model. En als dat laatste geen overeenkomst oplevert met de gemeten reeks, is dus per definitie het model fout, hoe mooi en ingewikkeld het ook is. Als je dat soort fysisch wetenschappelijke grondbeginselen aan je laars lapt, kan je “van alles” bewijzen.

Maar om een verschil zoals in fig. 2 van 1 W/m2 op een gemiddelde van 2,5 W/m2 te kunnen accepteren lijkt hoe dan ook een redelijke verklaring dan wel discussie daarvan, op z’n plaats. Daar heb ik helaas in de bijgaande artikelen ter verantwoording van die klimaatmodellen door het NASA/GISS team, niets van kunnen vinden, terwijl toch alle alarmbellen hadden moeten afgaan.

Fig. 3 CMIP6 forcings (rode curve) vs alternatieven en geconstrueerde bijdragen (andere kleuren, zie tekst )

En dan is een eigen analyse van de achterliggende data de enige weg om enig inzicht te krijgen. Omdat CMIP6 de meest recente is, heb ik die nader geanalyseerd en wel voor het deel dat de forcing door broeikassen (WMGHGs) bestrijkt (zie fig. 3). Daarin nogmaals de grote, onverklaarbare verschillen tussen CMIP5 en CMIP6 forcings, maar ook de CMIP6 forcings (dikke rode lijn) zijn op zich al tamelijk vreemd. M.n. de plotselinge sterke stijging rond 1970 waarvan niet duidelijk is welk broeikasgas dat veroorzaakt, omdat ze in hun database daarin geen opsplitsing maken. NASA/NOAA heeft echter ook een website waar je die opdeling wel kunt vinden middels de zgn. Annual Greenhouse Gas Index (AGGI). Helaas is die er slechts voor de jaren na 1980, precies waar de vreemde bult begint, maar ze geven wel enig inzicht in de verdeling daarna (dunne rode lijnen), “doorgetrokken” voor de CO2 component, “gestreept” voor de CH4 bijdrage en “gestippeld” voor “de rest”, bestaande uit NO2 en CFK’s. De CO2 en CH4 bijdrages zijn goed in lijn met hun respectievelijke concentratie verloop sinds 1850 en een broeikassterkte op basis van de algemeen gebruikte waardes volgens Myhre et al spectrale berekeningen uit 1998 (dikke groene lijn voor CO2, en groene streepjeslijn voor extra CH4). Voor die broeikassterkte van F2xCO2 = 3,7 W/m2 is inmiddels door o.a. Happer en VanWijngaarden een aanzienlijk lagere waarde van 3,0 W/m2 berekend op basis van een grondige spectrale analyse. Hun uitkomst is nagenoeg identiek aan de MODTRAN-simulatie onder nagenoeg gelijke condities van een heldere hemel. In geval van bewolking, die deels het effect van broeikasgassen afschermt, is dat effect met ongeveer 2,4 W/m2, nog aanzienlijk kleiner. Kijk je met dat getal naar het verloop van de CO2 concentratie dan ligt die forcing (oranje lijn) aanzienlijk beneden het CMIP6 niveau. Simuleer ik met MODTRAN het verloop sinds 1850 van CO2 en CH4, van 280 ppm en 800 ppb respectievelijk tot 414 ppm en 1880 ppb in 2020, dan kom ik integraal tot een forcing van “slechts” 1,85 W/m2 (aangegeven met de blauwe pijl in fig. 3).

Volgens de AGGI-data is de bijdrage van NO2 maar maximaal 0,2 W/m2 in 2020 en voor de CFK’s kom ik in MODTRAN zeker niet hoger dan 0,1 W/m2, dus al met al een totale forcing sinds 1850 van ruim geschat 2,3 W/m2. Ik heb die waarde gebruikt om een reconstructie van de totale WMGHG-bijdrage te maken middels een exponentieel verlopende curve met een tijdsconstante van 70 jaar (zwarte streepjeslijn). Hoger is de antropogene forcing in deze afgelopen 1½ eeuw m.i. niet geweest.


Fig. 4  De  CMC-berekende temperatuurreeks op basis van de ReFo total forcings set zoals gereconstrueerd van a.o. het CMIP6 “natural” deel en  MODTRAN  simulaties (zie tekst), i.v.m. HadCrut v5 en de anomalieën uit de totaleCMIP6 forcings.

Tellen we daar nu de natuurlijke forcings van de CMIP6 serie bij op, dan kunnen we nu op basis van deze ReFo (Reconstructed Forcings) de CMC-berekening nog een keer doen en die vindt u in fig. 4. Waar de CMIP6 reeks nog enigszins de sterke stijging na 1970 kon volgen, is dat voor de ReFo set pas rond 2000 zichtbaar, maar in absolute zin loopt die temperatuur toch altijd nog zo’n 0,6-0,7 oC achter de feiten aan. De grote steilheid daar is niet helemaal verwonderlijk gezien de keuze van die exponentiele benadering van de WMGHG- component, maar hoe dan ook is wel duidelijk dat de CMIP6 modellen forcings opleveren die ver buiten de werkelijkheid staan. Maar ook de ReFo forcings kunnen de gemeten waarden totaal niet benaderen en dat duidt m.i. op een geheel andere oorzaak voor de temperatuurstijging. Ik heb al eens een essay over de belangrijke rol van bewolkingsveranderingen geschreven die dit probleem wel oplost, maar er zijn misschien ook andere mogelijkheden.

De klimaatmodelleurs lossen dat echter heel anders op, nml. door het realiseren van een veel hogere klimaatgevoeligheid middels zg. “feedbacks”, extra temperatuurverhogingen door het effect van GHG’s zoals Water-Vapor-Feedback (WVF), Cloud feedback, Albedo feedback en dergelijke constructen die het gehele klimaatsysteem steeds dichter bij de rand van instabiliteit brengen. Het is evident uit fig. 4 dat ze dat hebben moeten doen om m.n. de steile temperatuurstijging na 1970 te kunnen verklaren en dat verklaart misschien ook wel de plotselinge, en m.i. niet goed te verklaren groei in de WMGHG forcing vanaf 1970 (fig. 3)

Ik zou zo’n grote klimaatgevoeligheid ook in de CMC-berekening kunnen meenemen, maar daar is fysisch gezien geen enkele zinnige reden voor te bedenken in de energiebalans anders dan a.g.v. WVF. En daarvoor is al gecorrigeerd in de iets hogere waarde voor de gebruikte λ. Bovendien komen we dan in het gebied van een waarde voor λ van tenminste 1K/W/m2. Dat is exorbitant i.v.m. de MODTRAN-simulaties en dan begint de reactie van ons klimaat ook dicht tegen zgn. “run-away” scenario’s te komen: natuurlijke fluctuaties met vergelijkbare forcings zouden dan constant enorme temperatuurverhogingen veroorzaken.

Samenvattend: ik heb getracht op transparante wijze antwoord te krijgen op de vraag of de claim van het IPCC dat klimaatmodellen het recente, redelijk goed bekende verleden, uitstekend kunnen repliceren, terecht is. Die claim is de basis van de AGW-hypothese en voedt tevens hun overtuiging dat die klimaatmodellen geschikt zijn om lange termijn voorspellingen te doen.

Mijn analyse toont aan dat als klimaatmodellen de temperatuurreeksen van de afgelopen 1½ eeuw best goed kunnen reproduceren, het bewijs daarvan neem ik aan als gegeven, dat helaas de daaruit afgeleide forcings verre van passen bij wat je zou mogen verwachten op basis van bestaande kennis. Bovendien zijn die forcings niet in staat om via het gebruikte CMC-algoritme op basis van de energiebalans voor het klimaatsysteem, de gemeten temperatuurreeks te repliceren. Dat laatste doet CMIP5 voor de temperatuurreeks misschien een beetje, maar de bijhorende forcings zijn veel te hoog t.o.v. de bekende feiten. De CMIP6 modellen resulteren in lagere forcings, maar zijn nog altijd flink te hoog. Zij voldoen echter bij lange na niet aan het criterium van het repliceren van de temperatuurreeks. Zoals eerder gesteld, moeten klimaatmodellen aan beide eisen voldoen. Noch CMIP5-, noch CMIP6 modellen voldoen aan die criteria en dus zijn hun uitkomsten wetenschappelijk bezien onverantwoord. In gewoon Nederlands: simpelweg fout. Ze zijn dan ook per definitie ongeschikt om voorspellingen voor de lange termijn te doen, laat staan om maatschappelijk ingrijpende beleidsbeslissingen op te baseren.

Ad Huijser, 21 februari 2022.

Meer details en de benodigde referenties zie: Outside The Black Box WUWT (21-02-2022)

 

Energie in Nederland

Het internet levert een schat aan informatie over het energiegebruik in vrijwel alle landen op aarde. Een van die bronnen is het IEA, het Internationaal Energie Agentschap.

Fig.1    Bron: IEA

Figuur 1 toont de grootte en samenstelling van de Nederlandse energiestroom (total energy supply) van 1990 t/m 2020. Wat opvalt is de afname van steenkool vanaf 2017, vooral als gevolg van het sluiten van enkele kolencentrales. Nucleaire energie levert maar een heel klein deel (1,5% in 2020) van het totale energiepakket, wind en zon doen het niet veel beter met 3,2%. Het aandeel van biomassa en afvalverbranding was in 2020 7,2% , terwijl aardgas in 2020 nog steeds de belangrijkste energiebron was, gevolgd door olie. Aardgas is vooral van belang voor verwarming en elektriciteitsproductie, olie is de belangrijkste grondstof voor de zware chemie en petrochemische industrie.

Fig.2    Bron: IEA

Figuur 2 toont ter vergelijking de ‘total energy supply’ van Duitsland. Duitsland wordt over het algemeen als gidsland beschouwd voor wind- en zonne-energie. Toch leverde die sector in 2020 niet veel meer dan 5,8% van de totale energiestroom. De groengekleurde nucleaire stroom wordt allengs smaller en zal eind volgend jaar opgedroogd zijn als gevolg van het rigoureuze besluit om versneld alle kerncentrales te sluiten. En dat terwijl de EU kort geleden kernenergie en aardgas als ‘groen’  bestempeld heeft. Kolengebruik neemt de afgelopen jaren wat af, maar de Duitse regering heeft vorig jaar het besluit genomen om de reusachtige bruinkoolmijnen nog tot 2038 open te laten. Samen met de toekomstige ingebruikname van de aardgaspijpleiding Nordstream2 moet dit de toekomstige energievoorziening van Duitsland veilig stellen.

Fig.3    Bron IEA

Vergelijkbare beelden in het Verenigd Koninkrijk, met dien verstande dat het gebruik van steenkool de afgelopen jaren tot vrijwel 0 is gedecimeerd.

Fig.4    Bron: IEA

De energiestromen van Zweden tonen en geheel ander beeld. Zweden heeft nooit veel steelkool en aardgas gebruikt, maar heeft een hele grote kernenergiesector. Ook ‘biofuels & waste’ is opvallend groot, waarbij het aandeel van hout (schier oneindige bossen) uiteraard veel groter is dan van afvalverbranding.

Fig.5    Bron: IEA

In de grafiek van Frankrijk is het meest in het oog springend de dominante positie  van kernenergie. De huidige 23 kerncentrales worden –zo is het plan- uitgebreid met 6 nieuwe centrales. Nucleaire energie zorgt dan ook in Frankrijk voor 2/3 van de totale elektriciteitsproductie, met waterkracht als tweede energiebron.

De zogenaamde energietransitie in de EU heeft as doel de inzet van fossiele energiebronnen te verminderen door die van ‘duurzame’ of ‘groene’ energiebronnen te vergroten. Daarbij speelt een toename van de elektriciteitsproductie een belangrijke rol. Daarom wil ik de Total energy supply (TES) by source van Nederland in 2020 vergelijken met de Electricity generation by source. Omdat de TES uitgedrukt wordt in TJ (terrajoule) en de elektriciteitsopwekking in GWh heb ik de laatste omgezet in TJ, zodat beide grafieken goed vergelijkbaar zijn.

Fig.6    Data: IEA

Links in de figuur is de TES  per energiebron te zien zoals die in 2020 was (zie figuur 1), rechts het aandeel per energiebron in de elektriciteitsproductie. De energie die nodig is voor het opwekken van elektriciteit komt uit de TES links. ‘Wind & solar’ is een buitenbeentje omdat beide energiebronnen direct elektriciteit leveren. In tegenstelling tot de andere primaire energiebronnen hoeft er bij wind en zon dus geen conversie plaats te vinden. Dat is belangrijk omdat bij de omzetting van primaire energiebronnen naar elektriciteit vaak sprake is van aanzienlijke verliezen.

Het elektrisch rendement van een klassiek thermische elektriciteitscentrale (fossiele brandstoffen) of kerncentrale (splijtstoffen) bedraagt ongeveer 33 à 40 %. STEG-centrales (stoom- en gascentrales) halen een hoger elektrisch rendement van 50 à 60 % (bron Wikipedia). Een kerncentrale heeft een elektrisch rendement van ongeveer 35%.

De papieren werkelijkheid van de EU, die het stoken van hout groen en duurzaam acht, is al een poosje achterhaald door de werkelijkheid. In plaats van ‘snoeiafval’ worden er vooral boomstammen (bossen) verstookt in biomassacentrales. Die laatste zijn populair omdat de EU subsidies verleend voor het stoken van hout. Slecht voor de bossen, slecht voor het milieu en slecht voor de CO2-emissies die groter zijn dan bij een kolengestookte centrale. En om die CO2 emissies gaat het allemaal in de energietransitie, want CO2 = klimaatverandering = gevaarlijk volgens het IPCC. Het elektrisch rendement van houtgestookte installaties is laag, in de orde van grootte van 20%. Om al deze redenen is de categorie ‘Biofuels & waste’ zeker niet tot de groene energiebronnen te rekenen.

Figuur 6 laat zien dat de energiestroom ten behoeve van de elektriciteitsproductie klein is in vergelijking tot de totale energiestroom in Nederland, namelijk 15,2% in 2020. Van de totale elektriciteitsproductie is 18,9% van de energie-input afkomstig van wind en zon en 68% van fossiele energiebronnen. Het opladen in Nederland van de accu’s van een elektrische auto is dus maar voor 1/5 een ‘groene’ zaak. En zelfs die 1/5 is niet van smetten vrij, zoals het artikel over mineralengebruik in zijn algemeenheid en rare earth mineralen in het bijzonder aangetoond heeft.

Conclusies: in vergelijking met de totale energiestromen in Nederland nemen die van de elektriciteitsproductie slechts een bescheiden plaats in: 15,2%. Dat aandeel zal de komende jaren wel wat toenemen, maar de grenzen van wat ons elektriciteitsnet aan kan lijken bereikt. Vernieuwen van het net kost enorm veel geld, en uiteindelijk zal de burger dat betalen door een afname van de welvaart. Bovendien is het rendement bij het maken van stroom laag, gemiddeld zo’n 40%. De rest gaat in warmte op, en die warmte kan maar ten dele benut worden.

Een groot deel van de primaire energiestromen is niet of moeilijk vervangbaar door elektriciteit. Te denken valt aan grondstoffen voor de zware chemie (olie en gas) en steenkool (staalproductie). Naast transformatieverliezen en eigen energiegebruik in de elektriciteitscentrales gaat er bij de producenten van stroom (en warmte) bovendien ook nog energie verloren tijdens het transport en de distributie naar de eindgebruikers.

De EU heeft  bedacht dat kernenergie en aardgas ‘groen’ verklaard worden: ze worden net als wind en zon opgenomen in een Europese taxonomie. Aardgas telt alleen als ‘groen’ als het in de plaats komt van een kolengestookte centrale. Nederland bevindt zich wat dat betreft in een vreemde en uitzonderlijke situatie. De Nederlandse overheid heeft besloten dat ‘we’  van het gas af moeten. En nu is dat gas door de EU plotseling  ‘groen’ verklaard. Fijn voor al die landen die nu massaal inzetten op aardgas. Maar waarom moeten wij dan van het gas af?

De onzin van dagrecords

Storm Eunice is net gepasseerd en heeft voor behoorlijk wat schade gezorgd, en helaas ook een paar mensen het leven gekost. Dat levert begrijpelijk veel nieuws op voor kranten, radio en tv. Maar de laatste jaren gaan journalisten bij opvallende weerssituaties vaak op zoek naar het antwoord op de vraag of die weerssituatie ‘uniek’ is. Dat geldt voor stormen, maar nog veel vaker voor de temperatuur. Dagrecords heten die, en de belangstelling daarvoor heeft denk ik te maken met het feit dat klimaatverandering een ‘hot topic’ geworden is. Sommigen beweren zelfs dat vanwege de recente klimaatverandering het ‘einde der tijden’ nabij is.

Dat is een ernstige misvatting lijkt me, maar als dat uit de mond komt van jonge mensen vervult me dat wel met medelijden. En ook met boosheid, omdat die angst de afgelopen jaren gevoed wordt door een lawine aan eenzijdige berichtgeving over weer en klimaat. De jacht op dagrecords is daar een voorbeeld van.


Fig.1     Bron: KNMI

Zijn dagrecords zinvol? Het antwoord is: nee. Een poos geleden is het KNMI opgehouden met het vermelden van dagrecords. Een van de argumenten om dat te doen is het grillige karakter van het weer in ons land, waardoor de temperatuur op iedere datum enorm kan variëren. De kans dat de temperatuur hoger of lager is dan de ruim honderd eerder opgetreden waardes op een bepaalde datum is daarom aanzienlijk. In het KNMI bericht (link hierboven) wordt goed omschreven waarom het bijhouden van dagrecords onzin is.

De bekende Vlaamse weerman Frank de Boosere heeft op zijn website ook aandacht gewijd aan die onzinnige dagrecords. Hij legt in zijn artikel in begrijpelijke woorden uit waarom die dagrecords onzin zijn. Als u op de link klikt kunt u zijn hele verhaal lezen.

Fig.2    Bron:  Frank de Boosere

De vraag is uiteraard waarom kranten, radio en televisie ondanks het feit dat deskundigen zeggen dat dagrecords onzin zijn, toch doorgaan met het berichten hierover? Ik denk dat een antwoord is dat men op deze manier aandacht krijgt (lees: abonnees en kijkers). Of zouden journalisten –in tegenstelling tot wat deskundigen beweren- denken dat dagrecords er wél toe doen (in het licht van klimaatverandering)?  Dan is er sprake van domheid, en tegen domheid strijden zelfs goden tevergeefs.

De onstuitbare honger naar rare earth en andere mineralen

Fig.1    Bron: International Energy Agency

Bovenstaande grafiek spreekt boekdelen. Hij is afkomstig uit een recent rapport van het Internationaal Energie Agentschap (IEA) dat de rol van kritieke mineralen in de overgang naar schonere energie beschrijft. Zonnepanelen, windmolens en elektrische auto’s vereisen over het algemeen meer mineralen dan hun op fossiele brandstoffen gebaseerde tegenhangers. Een elektrische auto vereist 6x meer mineralen dan een conventionele auto en een windmolenpark op het vasteland heeft 9x meer mineralen nodig dan een gasgestookte centrale. Sinds 2010 is de gemiddelde hoeveelheid mineralen die nodig is voor een nieuwe elektriciteits-unit met 50% toegenomen als gevolg van de toename van hernieuwbare energiebronnen. (Bron: IEA)

Niet alleen de bij de nieuwe technologieën benodigde hoeveelheden mineralen zijn sterk toegenomen, maar ook de vraag naar het type mineralen is afwijkend. De soorten minerale hulpbronnen die worden gebruikt verschillen per technologie. De vraag naar mineralen als lithium, kobalt en mangaan groeit sterk, en zogenaamde rare earth elements (REE’s) zijn onmisbaar voor windturbines en elektromotoren. Bovendien hebben elektriciteitsnetwerken  enorme hoeveelheid koper en aluminium nodig.

Fig.2    Bron: International Energy Agency

Figuur 2 toont de verwachte groei van de winning van een aantal nieuwe technologie-gerelateerde delfstoffen tussen 2020 en 2040. De grafiek is duidelijk: alleen al voor wat betreft de rare earth mineralen zal de vraag (en daarmee de productie) tot 2040 7x groter worden dan de huidige. Lithiumwinning moet dan ruim 40x zo groot zijn als nu, en de winning van kobalt ruim 20x zo groot.

Ik beperk me in dit artikel tot de zogenaamde rare earth elements (REE’s). Chinese bedrijven domineren momenteel de REE-winning op aarde en waren in 2016 goed voor 85 % van het wereldwijde aanbod. Australië is de op een na grootste producent met een marktaandeel van 10%.  Echter, slechts 35% van ’s werelds REE-reserves bevindt zich in China, wat de vraag oproept hoe het mogelijk is dat het land de sector zo heeft kunnen monopoliseren. Het zal te maken hebben met de bekende Chinese lange termijn visies denk ik.


Fig.3    Bron: ScienceDirect

REE’s zijn, anders dan hun naam doet vermoeden, overvloedig aanwezig in de aardkorst. Het addertje onder het gras is dat ze in lage concentraties voorkomen te midden van andere mineralen. Ze zijn bij de winning moeilijk te scheiden van die andere mineralen, wat ze “zeldzaam” maakt. We zagen hiervoor al dat de vraag naar deze REE’s de komende jaren naar verwachting sterk zal toenemen omdat overheden, organisaties en burgers steeds meer investeren in ‘schone’ energie. De vraag naar dysprosium en neodymium zal de komende 25 jaar naar schatting 7x tot 26x zo groot worden als gevolg van elektrische voertuigen en windturbines. Dat gaat echter grote problemen opleveren, want de manier waarop bedrijven REE’s winnen brengt grote schade toe aan lokale gemeenschappen en vervuilt omliggende gebieden. (bron: Harvard International Review)

Er zijn twee primaire methoden voor de winning van REE’s , waarbij in beide gevallen giftige chemicaliën vrij kunnen komen in het milieu. Bij de eerste methode (dagbouw) wordt de bovengrond verwijderd en wordt een loogbassins aangelegd waar chemicaliën aan de delfstof wordt toegevoegd om de metalen te scheiden van de rest. Loogbassins, die vol zitten met giftige chemicaliën, kunnen echter naar het grondwater lekken wanneer zij niet goed zijn beveiligd en kunnen soms hele hydrologische systemen aantasten.

Fig.4    Bron: Trouw

Bij de tweede methode worden gaten in de grond geboord om met behulp van pvc-buizen en rubberslangen chemicaliën in de ondergrond te pompen, waardoor vergelijkbare problemen ontstaat als in de open mijnbouw. Bovendien worden pvc-buizen soms achtergelaten nadat het gebied door de mijnbouwcompany verlaten wordt.

Beide methoden produceren veel giftig afval met een hoog risico op milieu- en gezondheidsschade. Voor elke ton geproduceerde REE’s levert het winningsproces 13 kg stof, 9.600 tot 12.000 m3 afvalgas, 75 m3 afvalwater en maar liefst 1 ton radioactief residu op. Dat laatste is het gevolg van het feit  dat bij de winning van REE’s radioactief thorium en uranium vrijkomt, wat bijzonder schadelijke gevolgen kan hebben voor de gezondheid van werknemers en omwonenden. In totaal wordt voor elke ton REE’s  2000 ton giftig afval geproduceerd (bron: Harvard International Review). Onderstaande tabel geeft een overzicht van de mogelijke gezondheidseffecten bij het winnen en verwerken van REE.

Bron: EURARE

Conclusie: nieuwe technologieën zoals elektrisch auto’s, windmolens en zonnepanelen gebruiken relatief gezien veel meer rare earth elementen en andere zeldzame mineralen dan conventionele technieken. De winning en verwerking van REE’s veroorzaakt niet alleen milieuproblemen op de winningsplek, maar is ook schadelijk voor de gezondheid van werknemers en omwonenden. Verwacht wordt dat groei van die nieuwe technologieën de komende jaren in versneld tempo zal toenemen, en daarmee impact op mens en milieu.

Ondanks rapporten dat er maatregelen genomen dienen te worden om die negatieve effecten te verminderen lijkt er zich in werkelijkheid een ramp aan het voltrekken. Maar liefst 85% van de winning van REE’s op aarde is in handen van Chinese bedrijven. Gezien de grote economische belangen voor China die gemoeid zijn met de winning van REE’s is het niet te verwachten dat op korte termijn maatregelen genomen zullen worden. Bovendien levert het feit dat de winning van veel mineralen in handen is van Chinese bedrijven nog een ander gevaar op, namelijk economische afhankelijkheid. Het uitrollen van nieuwe technologieën is onlosmakelijk verbonden met de beschikbaarheid van bepaalde mineralen. Door China’s dominantie in de markt zijn de meeste andere landen afhankelijk geworden van China. China heeft dit ‘wapen’  overigens al enkele malen ingezet bij conflicten met andere landen.

Het is bekend dat vanuit energetisch oogpunt de inzet van elektrische auto’s, windmolens en zonnepanelen slechts in beperkte mate kan bijdragen aan het terugdringen van fossiele brandstoffen. Desondanks is er bij veel politici nog veel geloof in de nuttige inzetbaarheid van die technologieën, gestimuleerd door de grote financiële belangen van lobbyende industrieën en diensten die actief zijn in dit speelveld.

Bovenbeschreven negatieve aspecten van de REE’s en andere zeldzame mineralen werpen echter een schaduw over het gebruik en de groei van die nieuwe technologieën. Hier gaat het niet om de vraag of windmolens of zonnepanelen rendabel in te zetten zijn (dat zijn ze niet), maar om de alsmaar toenemende negatieve effecten van winning op de omgeving van de winplaatsen en de gezondheid van steeds meer mensen.  Daar moet eens goed over nagedacht worden lijkt me.

De homogenisatie van GHCN in Europa

Men kan een waarnemingsreeks, zoals een temperatuurreeks, homogeniseren als er veranderingen in waarneemomstandigheden hebben plaatsgevonden die een sprong of trendbreuk veroorzaken die niet klimatologisch van aard is. Te denken valt aan verplaatsingen van de stations en/of instrumenten, langzaam of abrupte veranderingen in de omgeving en veranderingen in instrumenten, meethutten en meetmethoden. Die zogenaamde inhomogeniteiten kunnen dan zo groot worden dat een meetreeks zonder verdere correcties ongeschikt is voor klimaatonderzoek.

Voor onderzoek naar klimaatverandering is het dan belangrijk is om deze inhomogeniteiten te corrigeren.  In de praktijk betekent dit dat men dat deel van de meetreeks dat inhomogeniteiten bevat homogeniseert. Die homogenisatie komt meestal neer op een wijziging van de meetgegevens met behulp van statistische technieken.

De temperatuurreeksen van GHCN worden regelmatig gehomogeniseerd. De maandelijkse station temperatuurgegevens van het Global Historical Climatology Network (GHCN) worden beschikbaar gesteld door NOAA. GHCN is een van de meest gebruikte bronnen ter wereld. De databank bevat gegevens van meer dan 100.000 stations in 180 landen. Momenteel is versie 4 actueel.

De GHCN datasets zijn beschikbaar in twee formaten: niet-gehomogeniseerd en gehomogeniseerd. Sinds 2011 wordt de gehomogeniseerde dataset buiten de USA bijna dagelijks bijgewerkt door toepassing van het “Pairwise Homogenization Algorithm” (PHA) toe te passen op de niet-gehomogeniseerde datasets. Eerdere studies hebben aangetoond dat de PHA goed kan presteren bij het corrigeren van synthetische tijdreeksen wanneer bepaalde kunstmatige vertekeningen worden geïntroduceerd. De prestaties met reële gegevens zijn minder goed bestudeerd. Maar daar is nu verandering in gekomen.

O’Neill et al (2021) hebben onlangs een publicatie het daglicht laten zien met als centrale vraag hoe goed die PHA zijn werk doet bij het homogeniseren van Europese temperatuurreeksen. Ik heb aan dat onderzoek ook een bescheiden bijdrage mogen leveren.

Fig. 1     Bron: O’Neill et al 2021

Eerdere studies hebben aangetoond dat de PHA goed kan presteren bij het corrigeren van synthetische tijdreeksen wanneer bepaalde kunstmatige sprongen werden geïntroduceerd. De prestaties met reële gegevens zijn minder goed bestudeerd. Daarom zijn de gehomogeniseerde GHCN datasets (versie 3 en 4) bijna dagelijks gedownload over een periode van 10 jaar (2011-2021), wat resulteerde in 3689 verschillende updates van de datasets. De verschillende geïdentificeerde breekpunten werden geanalyseerd voor een set van stations uit 24 Europese landen waarvoor metagegevens over de stationsgeschiedenis beschikbaar waren. Figuur 1 links toont in rood de 259 Europese stations in versie 3 waarvoor metadata beschikbaar waren. Figuur 1 rechts in rood de 847 stations met metadata in versie 4.

De onderzoekers vergeleken de breekpunten zoals die door het algoritme waren geïdentificeerd met de breekpunten in de aangeleverde metadata. Een opmerkelijke inconsistentie in de geïdentificeerde breekpunten (en dus toegepaste aanpassingen) kwam hierbij aan het licht. Slechts 19% van de breekpunten (18% voor versie 3) werd in verband gebracht met een gedocumenteerde gebeurtenis binnen 1 jaar, en 67% (69% voor versie 3) werd niet in verband gebracht met een gedocumenteerde gebeurtenis (zie figuur 2).

Fig.2    Bron: O’Neill et al 2021

Hoewel het PHA dus een nuttig instrument blijft in de homogenisatie-gereedschapskist van de klimaatgemeenschap, zijn veel van de PHA-aanpassingen die zijn toegepast op de gehomogeniseerde GHCN-datasets van Europa mogelijk dus niet correct geweest. Na onze publicatie over de homogenisatie van de 5 hoofdstations van het KNMI Is dit alweer een bewijs dat homogenisaties – als men ze al nodig acht- alleen met de grootst mogelijke voorzichtigheid moeten worden toegepast.