Auteursarchief: Rob de Vos

Waarom klimaatmodellen geen voorspellende waarde hebben

Willis Eschenbach publiceerde onlangs op de bekende klimaatwebsite WhatsUpWithThat een opzienbarend kijkje achter de schermen van klimaatmodellen. Op liever gezegd: vóór de schermen. Want hij beschouwde de extreem complexe modellen simpelweg als black box, met een input en een output, bekend van systeemdenken. Hij extrapoleerde die input en output en liet zien dat de output van elk klimaatmodel te ‘vangen’  is door een simpele formule. Kijk s.v.p. daar eerst naar voordat u verder leest.

Nu komt de Nederlander Dr. Ad Huijser, met wie ik regelmatig correspondeer,  met een vervolg op het artikel van Eschenbach dat gisteren gepubliceerd is op WUWT onder de titel Outside the black box. De bevindingen van Huijser zijn minstens even spectaculair en de uitkomst is te lezen in de titel van zijn stuk. Het is een technisch verhaal maar zeer de moeite waard. Lees onderstaande Nederlandse bewerking van zij verhaal in WUWT:

Waarom klimaatmodellen geen voorspellende waarde hebben

Een van de belangrijkste argumenten die het IPCC met haar Antropogene Global Warming (AGW) hypothese hanteert om ons te overtuigen van de voorspellende waarde van klimaatmodellen, is de claim dat die modellen uitstekend in staat zijn om het temperatuurverloop sinds het pre-industriële tijdperk te berekenen.

Er zijn heel wat discussies al gevoerd over dit onderwerp, maar voor de geïnteresseerde leek zijn en blijven dit soort uiterst complexe klimaatmodellen niet meer dan de bekende “Black Box” waarvan je maar moet geloven dat de uitkomst op basis van wat men erin stopt, ook daadwerkelijk klopt.

Op basis van een bijdrage van Willis Eschenbach op de bekende website WattsUpWithThat, waarin hij via een simpele recurrente betrekking tussen temperatuurverandering en forcing liet zien dat hij daarmee uitstekende dekking kon krijgen van het temperatuurverloop van de afgelopen 1½ eeuw en datgene wat uit dit soort met supercomputers gegeneerde uitkomsten van dit soort complexe klimaatmodellen (Global Circulation Models) kwam, kreeg ik het idee die betrekking niet te gebruiken voor curve-fitting, maar als CMC: Climate Model Checker. De achtergrond van die recurrente betrekking is namelijk de fundamentele behoudswet van energie voor het Aardse klimaatsysteem uitgedrukt als:

C∂T/∂t = Straling “in” – Straling “out”                                                                            (1)

Hierin is T de gemiddelde oppervlaktetemperatuur, t de tijd, C de warmtecapaciteit van het klimaatsysteem, Straling “in” de binnenkomende zonnestraling en Straling “out” de langgolvige infraroodstraling die de opgewarmde Aarde uiteindelijk de ruimte in straalt. De AGW-hypothese volgt simpel uit deze vergelijking: meer CO2 verminderd de Straling “out” waardoor de ontstane stralingsonbalans in de rechter term van (1) hersteld kan worden door een verhoging van de temperatuur. Zo’n onbalans, in dit geval veroorzaakt door een broeikasgas als CO2 heet “forcing” en wordt uitgedrukt in W/m2. Voor de verdubbeling van de CO2 concentratie is dat zo’n 3 W/m2, en u moet dat vergelijken de 240 W/m2 (de Straling “in”) die we gemiddeld aan zonnestraling ontvangen. Dat is dus niet meer dan een hele kleine verstoring en dan kan je vergelijking (1) op basis van zo’n verstoring ook schrijven als een recurrente betrekking waarin we kijken naar de tijdsafhankelijke relatie tussen temperatuur T(t) en de forcing F(t) op de, op eenheidsafstand van elkaar liggende tijdsmomenten …. n-1, n, n+1, n+2 …n+m. Dat levert dan het volgende, eenvoudig algoritme:

Tn+1 = Tn + λ (Fn+1 – Fn)(1 – exp (-1/τ)) + (Tn – Tn-1) exp(-1/τ)                                    (2)

Hierin is τ een specifieke tijd gekoppeld o.a. aan de capaciteit C en λ een factor die de klimaatgevoeligheid voor forcings aanduidt. Voor die tijdseenheid nemen we in de rest van dit verhaal 1 jaar. Als je het verloop van de forcings op jaarbasis kent, een maat voor λ en τ hebt, kan je hiermee zowel voorspellen als in de tijd terugkijken wat de jaarlijkse, gemiddelde Aardse temperatuur zal doen, dan wel in het verleden gedaan heeft. Wat Eschenbach nu deed was een waarde voor λ en τ vinden waarmee de GCM berekeningen met deze formule (2) maximaal dekkend te krijgen was. Dat lukte hem uitstekend en dat was kennelijk zijn doel van die exercitie.

Maar de kracht van deze recurrente betrekking reikt veel verder dan “curve-fitting”. Ik noem dat het “Climate Model Cheking (CMC) vermogen. Klimaatmodellen als GCM’s werken niet met forcings, maar fysieke verandering als bv. concentratie variaties van broeikasgassen in de atmosfeer en berekenen vervolgens allerlei vervolg-effecten, 3-dimensionaal en in de tijd, zoals temperatuur, druk, luchtvochtigheid, wolkenvorming etc., via o.a. de Navier-Stokes vergelijkingen, analoog aan weerprogramma’s. Die gevolgen worden vervolgens weer omgerekend in “forcings” door stapsgewijze veranderingen aan te brengen van individuele parameters of combinaties daarvan. Dat is heel veel werk en kost veel computerpower. Maar die “forcings” die zij dus zo berekenen moeten natuurlijk wel voldoen aan vgl. (2), want ook GCM’s moeten voldoen aan basale fysische wetten als behoud van energie.

Nu is er in de loop der jaren een aantal opvolgende generaties GCM ontwikkeld door een groot aantal klimaatgroepen, steeds gecompliceerder en “dus” perfecter (althans dat zou je verwachten). Al die klimaatmodellen, veel meer dan 100 inmiddels, zijn in de loop der jaren onderling in een internationaal consortium, steeds vergeleken middels het Climate Model Intercomparison Project (CMIP) en vandaar dat we de generatie CMIP3, CMIP5 en CMIP6 kennen. De laatste generatie staat aan de basis van het meest recente IPCC-rapport en voorspelt weer een grotere opwarming dan de CMIP5 modellen die weer “warmer” waren dan de CMIP3 generatie.

Op de website van de klimaatgroep van NASA/GISS kan je de tijdsafhankelijke forcings behorende bij hun CMIP5 en CMIP6 modellen vinden voor de periode sinds 1850-1860 en bij CMIP6 zelfs ook de projecties voor de periode tot 2100. Dat geeft middels vergelijking (2) de mogelijkheid de redelijkheid daarvan te checken, niet alleen onderling, maar ook met atmosferische gegevens uit het recente verleden en de daarop gebaseerde forcings die ons klimaat tot nu toe beïnvloed hebben.

Maar voor zo’n vergelijking hebben we natuurlijk wel waardes voor λ en τ nodig, waarvan die voor τ, de relaxatietijd van ons klimaatsysteem de makkelijkste is. Ieder klimaatwetenschappelijk tekstboek laat zien dat die op basis van de diepte van de zgn. “ocean mixed layer”, ergens tussen de 3 en 5 jaar moet zijn. Ik heb 4 jaar als standaard genomen, waarbij overigens (niet verwonderlijk) een variatie tussen 3 en 5 nauwelijks van invloed bleek te zijn op de resultaten.

Voor λ ben ik gestart met de inverse van de zgn. Planck feedback parameter die automatisch volgt uit vgl. (1) voor stralingsevenwicht en in absolute grootte gelijk is aan 4(1-a)Φ0/TS0 . Daarin is de gemiddelde Aardse albedo a = 0.3, de gemiddelde zonne-intensiteit Φ0 = 340 W/m2 en de gemiddelde oppervlaktetemperatuur TS0 = 288 K. Dat maakt λ = 0,3 K/W/m2 een prima keuze. Dat is echter onder evenwicht, en bij forcings hebben we ook te maken met de dynamische opwarming waarbij m.n. de waterdampconcentratie toeneemt. En als belangrijkste broeikasgas heeft dat wel degelijk invloed op die klimaatgevoeligheidsfactor λ. Om daarvoor te corrigeren heb ik het online beschikbare MODTRAN-klimaatmodel van de universiteit van Chicago gebruikt waarin je bv. de gassamenstelling, het verticale temperatuurprofiel van de atmosfeer, wel of geen bewolking kunt variëren, en je de daaraan gekoppelde forcing en/of oppervlaktetemperatuur kunt berekenen. MODTRAN heeft als basis een uitgebreide bibliotheek van de spectrale eigenschappen van gassen en rekent dat op lijn-voor-lijn-basis en met alle noodzakelijk lijnverbredingen etc., fysisch correct door. Het is internationaal veel gebruikt, ook in klimaatmodellen en geeft reproduceerbare/betrouwbare resultaten.

Als je daarin voor de US Standaard Atmosphere (een goed globaal gemiddelde voor onze atmosfeer inclusief verticaal temperatuurprofiel), met een gemiddeld bewolkte hemel en bij een constante relatieve vochtigheid, een verdubbeling van de CO2 in voert, krijg je een λ = 0,34 K/W/m2. Die laatste is weer wat anders als de relatieve vochtigheid verandert, maar altijd blijkt die waarde net iets hoger te liggen dan de theoretische inverse van de Planck feedback en heb om praktische reden gekozen om mijn berekeningen verder te doen met λ = 0,345 K/W/m2 m.n. om niet beticht te kunnen worden van een te kleine klimaatgevoeligheid en om consistent te zijn met andere waarden uit MODTRAN die ik later gebruik. Voor de conclusies maakt het evenwel niets uit.

In fig. 1 heb ik de temperatuurberekeningen m.b.v. vgl. (2) gedurende het tijdvak 1850-2020 op basis CMIP5 en CMIP6 forcing reeksen van NASA/GISS uitgezet met als referentie de laatste globale temperatuurreeks HadCrut v5 van het Britse MetOffice als mondiale standaard. Let op, dit zijn de anomalieën t.o.v. de temperatuur 1860-1880.

Fig. 1 CMC berekening op basis van CMIP5 & 6 forcings, i.v.m. HadCrut v5 temperatuur reeks

Fig. 2 CMIP5 and CMIP6 forcings, zowel “total forcings” als de forcing door de well-mixed greenhouse gassen (WMGHG)

De grote “dips” die u ziet zijn een gevolg van bekende vulkaanuitbarstingen waarbij veel aerosolen vrijkomen die een koelende werking hebben op het klimaat. De bijbehorend forcings zijn grafisch zichtbaar in fig.2. als scherpe pieken die door de relaxatietijd τ in fig. 1, aanzienlijk zijn afgevlakt. Waar CMIP5 forcings nog een redelijk goede overeenkomst opleveren, zijn de forcings uit CMIP6 niet in staat om de bestaande metingen adequaat te volgen.

Dat er tussen de forcings van verschillende generaties verschillen optreden kan je verwachten als gevolg van voortschrijdend inzicht. M.n. in de “natuurlijke” forcings, maar eigenlijk niet in die van de broeikasgassen waarvan we de historische concentraties redelijk goed kennen, evenals het effect van de bijbehorende forcings. Nu bevatten die verschillende generaties modellen natuurlijk de nodige wijzigingen/verbeteringen die verschillend uitwerken op de diverse forcings. Maar als je dat constateert, kan je niet zonder daar een gefundeerd oordeel over te vellen, een dergelijk verschil klakkeloos accepteren. Je kan niet het model veranderen/verbeteren, het geheel vervolgens door “tuning” kloppend maken met de historische meetreeks en dan de forcings maar als “toevallige” uitkomst accepteren. Immers, die forcings moeten, zoals eerder uitgelegd, ook voldoen binnen het CMC-model. En als dat laatste geen overeenkomst oplevert met de gemeten reeks, is dus per definitie het model fout, hoe mooi en ingewikkeld het ook is. Als je dat soort fysisch wetenschappelijke grondbeginselen aan je laars lapt, kan je “van alles” bewijzen.

Maar om een verschil zoals in fig. 2 van 1 W/m2 op een gemiddelde van 2,5 W/m2 te kunnen accepteren lijkt hoe dan ook een redelijke verklaring dan wel discussie daarvan, op z’n plaats. Daar heb ik helaas in de bijgaande artikelen ter verantwoording van die klimaatmodellen door het NASA/GISS team, niets van kunnen vinden, terwijl toch alle alarmbellen hadden moeten afgaan.

Fig. 3 CMIP6 forcings (rode curve) vs alternatieven en geconstrueerde bijdragen (andere kleuren, zie tekst )

En dan is een eigen analyse van de achterliggende data de enige weg om enig inzicht te krijgen. Omdat CMIP6 de meest recente is, heb ik die nader geanalyseerd en wel voor het deel dat de forcing door broeikassen (WMGHGs) bestrijkt (zie fig. 3). Daarin nogmaals de grote, onverklaarbare verschillen tussen CMIP5 en CMIP6 forcings, maar ook de CMIP6 forcings (dikke rode lijn) zijn op zich al tamelijk vreemd. M.n. de plotselinge sterke stijging rond 1970 waarvan niet duidelijk is welk broeikasgas dat veroorzaakt, omdat ze in hun database daarin geen opsplitsing maken. NASA/NOAA heeft echter ook een website waar je die opdeling wel kunt vinden middels de zgn. Annual Greenhouse Gas Index (AGGI). Helaas is die er slechts voor de jaren na 1980, precies waar de vreemde bult begint, maar ze geven wel enig inzicht in de verdeling daarna (dunne rode lijnen), “doorgetrokken” voor de CO2 component, “gestreept” voor de CH4 bijdrage en “gestippeld” voor “de rest”, bestaande uit NO2 en CFK’s. De CO2 en CH4 bijdrages zijn goed in lijn met hun respectievelijke concentratie verloop sinds 1850 en een broeikassterkte op basis van de algemeen gebruikte waardes volgens Myhre et al spectrale berekeningen uit 1998 (dikke groene lijn voor CO2, en groene streepjeslijn voor extra CH4). Voor die broeikassterkte van F2xCO2 = 3,7 W/m2 is inmiddels door o.a. Happer en VanWijngaarden een aanzienlijk lagere waarde van 3,0 W/m2 berekend op basis van een grondige spectrale analyse. Hun uitkomst is nagenoeg identiek aan de MODTRAN-simulatie onder nagenoeg gelijke condities van een heldere hemel. In geval van bewolking, die deels het effect van broeikasgassen afschermt, is dat effect met ongeveer 2,4 W/m2, nog aanzienlijk kleiner. Kijk je met dat getal naar het verloop van de CO2 concentratie dan ligt die forcing (oranje lijn) aanzienlijk beneden het CMIP6 niveau. Simuleer ik met MODTRAN het verloop sinds 1850 van CO2 en CH4, van 280 ppm en 800 ppb respectievelijk tot 414 ppm en 1880 ppb in 2020, dan kom ik integraal tot een forcing van “slechts” 1,85 W/m2 (aangegeven met de blauwe pijl in fig. 3).

Volgens de AGGI-data is de bijdrage van NO2 maar maximaal 0,2 W/m2 in 2020 en voor de CFK’s kom ik in MODTRAN zeker niet hoger dan 0,1 W/m2, dus al met al een totale forcing sinds 1850 van ruim geschat 2,3 W/m2. Ik heb die waarde gebruikt om een reconstructie van de totale WMGHG-bijdrage te maken middels een exponentieel verlopende curve met een tijdsconstante van 70 jaar (zwarte streepjeslijn). Hoger is de antropogene forcing in deze afgelopen 1½ eeuw m.i. niet geweest.


Fig. 4  De  CMC-berekende temperatuurreeks op basis van de ReFo total forcings set zoals gereconstrueerd van a.o. het CMIP6 “natural” deel en  MODTRAN  simulaties (zie tekst), i.v.m. HadCrut v5 en de anomalieën uit de totaleCMIP6 forcings.

Tellen we daar nu de natuurlijke forcings van de CMIP6 serie bij op, dan kunnen we nu op basis van deze ReFo (Reconstructed Forcings) de CMC-berekening nog een keer doen en die vindt u in fig. 4. Waar de CMIP6 reeks nog enigszins de sterke stijging na 1970 kon volgen, is dat voor de ReFo set pas rond 2000 zichtbaar, maar in absolute zin loopt die temperatuur toch altijd nog zo’n 0,6-0,7 oC achter de feiten aan. De grote steilheid daar is niet helemaal verwonderlijk gezien de keuze van die exponentiele benadering van de WMGHG- component, maar hoe dan ook is wel duidelijk dat de CMIP6 modellen forcings opleveren die ver buiten de werkelijkheid staan. Maar ook de ReFo forcings kunnen de gemeten waarden totaal niet benaderen en dat duidt m.i. op een geheel andere oorzaak voor de temperatuurstijging. Ik heb al eens een essay over de belangrijke rol van bewolkingsveranderingen geschreven die dit probleem wel oplost, maar er zijn misschien ook andere mogelijkheden.

De klimaatmodelleurs lossen dat echter heel anders op, nml. door het realiseren van een veel hogere klimaatgevoeligheid middels zg. “feedbacks”, extra temperatuurverhogingen door het effect van GHG’s zoals Water-Vapor-Feedback (WVF), Cloud feedback, Albedo feedback en dergelijke constructen die het gehele klimaatsysteem steeds dichter bij de rand van instabiliteit brengen. Het is evident uit fig. 4 dat ze dat hebben moeten doen om m.n. de steile temperatuurstijging na 1970 te kunnen verklaren en dat verklaart misschien ook wel de plotselinge, en m.i. niet goed te verklaren groei in de WMGHG forcing vanaf 1970 (fig. 3)

Ik zou zo’n grote klimaatgevoeligheid ook in de CMC-berekening kunnen meenemen, maar daar is fysisch gezien geen enkele zinnige reden voor te bedenken in de energiebalans anders dan a.g.v. WVF. En daarvoor is al gecorrigeerd in de iets hogere waarde voor de gebruikte λ. Bovendien komen we dan in het gebied van een waarde voor λ van tenminste 1K/W/m2. Dat is exorbitant i.v.m. de MODTRAN-simulaties en dan begint de reactie van ons klimaat ook dicht tegen zgn. “run-away” scenario’s te komen: natuurlijke fluctuaties met vergelijkbare forcings zouden dan constant enorme temperatuurverhogingen veroorzaken.

Samenvattend: ik heb getracht op transparante wijze antwoord te krijgen op de vraag of de claim van het IPCC dat klimaatmodellen het recente, redelijk goed bekende verleden, uitstekend kunnen repliceren, terecht is. Die claim is de basis van de AGW-hypothese en voedt tevens hun overtuiging dat die klimaatmodellen geschikt zijn om lange termijn voorspellingen te doen.

Mijn analyse toont aan dat als klimaatmodellen de temperatuurreeksen van de afgelopen 1½ eeuw best goed kunnen reproduceren, het bewijs daarvan neem ik aan als gegeven, dat helaas de daaruit afgeleide forcings verre van passen bij wat je zou mogen verwachten op basis van bestaande kennis. Bovendien zijn die forcings niet in staat om via het gebruikte CMC-algoritme op basis van de energiebalans voor het klimaatsysteem, de gemeten temperatuurreeks te repliceren. Dat laatste doet CMIP5 voor de temperatuurreeks misschien een beetje, maar de bijhorende forcings zijn veel te hoog t.o.v. de bekende feiten. De CMIP6 modellen resulteren in lagere forcings, maar zijn nog altijd flink te hoog. Zij voldoen echter bij lange na niet aan het criterium van het repliceren van de temperatuurreeks. Zoals eerder gesteld, moeten klimaatmodellen aan beide eisen voldoen. Noch CMIP5-, noch CMIP6 modellen voldoen aan die criteria en dus zijn hun uitkomsten wetenschappelijk bezien onverantwoord. In gewoon Nederlands: simpelweg fout. Ze zijn dan ook per definitie ongeschikt om voorspellingen voor de lange termijn te doen, laat staan om maatschappelijk ingrijpende beleidsbeslissingen op te baseren.

Ad Huijser, 21 februari 2022.

Meer details en de benodigde referenties zie: Outside The Black Box WUWT (21-02-2022)

 

Energie in Nederland

Het internet levert een schat aan informatie over het energiegebruik in vrijwel alle landen op aarde. Een van die bronnen is het IEA, het Internationaal Energie Agentschap.

Fig.1    Bron: IEA

Figuur 1 toont de grootte en samenstelling van de Nederlandse energiestroom (total energy supply) van 1990 t/m 2020. Wat opvalt is de afname van steenkool vanaf 2017, vooral als gevolg van het sluiten van enkele kolencentrales. Nucleaire energie levert maar een heel klein deel (1,5% in 2020) van het totale energiepakket, wind en zon doen het niet veel beter met 3,2%. Het aandeel van biomassa en afvalverbranding was in 2020 7,2% , terwijl aardgas in 2020 nog steeds de belangrijkste energiebron was, gevolgd door olie. Aardgas is vooral van belang voor verwarming en elektriciteitsproductie, olie is de belangrijkste grondstof voor de zware chemie en petrochemische industrie.

Fig.2    Bron: IEA

Figuur 2 toont ter vergelijking de ‘total energy supply’ van Duitsland. Duitsland wordt over het algemeen als gidsland beschouwd voor wind- en zonne-energie. Toch leverde die sector in 2020 niet veel meer dan 5,8% van de totale energiestroom. De groengekleurde nucleaire stroom wordt allengs smaller en zal eind volgend jaar opgedroogd zijn als gevolg van het rigoureuze besluit om versneld alle kerncentrales te sluiten. En dat terwijl de EU kort geleden kernenergie en aardgas als ‘groen’  bestempeld heeft. Kolengebruik neemt de afgelopen jaren wat af, maar de Duitse regering heeft vorig jaar het besluit genomen om de reusachtige bruinkoolmijnen nog tot 2038 open te laten. Samen met de toekomstige ingebruikname van de aardgaspijpleiding Nordstream2 moet dit de toekomstige energievoorziening van Duitsland veilig stellen.

Fig.3    Bron IEA

Vergelijkbare beelden in het Verenigd Koninkrijk, met dien verstande dat het gebruik van steenkool de afgelopen jaren tot vrijwel 0 is gedecimeerd.

Fig.4    Bron: IEA

De energiestromen van Zweden tonen en geheel ander beeld. Zweden heeft nooit veel steelkool en aardgas gebruikt, maar heeft een hele grote kernenergiesector. Ook ‘biofuels & waste’ is opvallend groot, waarbij het aandeel van hout (schier oneindige bossen) uiteraard veel groter is dan van afvalverbranding.

Fig.5    Bron: IEA

In de grafiek van Frankrijk is het meest in het oog springend de dominante positie  van kernenergie. De huidige 23 kerncentrales worden –zo is het plan- uitgebreid met 6 nieuwe centrales. Nucleaire energie zorgt dan ook in Frankrijk voor 2/3 van de totale elektriciteitsproductie, met waterkracht als tweede energiebron.

De zogenaamde energietransitie in de EU heeft as doel de inzet van fossiele energiebronnen te verminderen door die van ‘duurzame’ of ‘groene’ energiebronnen te vergroten. Daarbij speelt een toename van de elektriciteitsproductie een belangrijke rol. Daarom wil ik de Total energy supply (TES) by source van Nederland in 2020 vergelijken met de Electricity generation by source. Omdat de TES uitgedrukt wordt in TJ (terrajoule) en de elektriciteitsopwekking in GWh heb ik de laatste omgezet in TJ, zodat beide grafieken goed vergelijkbaar zijn.

Fig.6    Data: IEA

Links in de figuur is de TES  per energiebron te zien zoals die in 2020 was (zie figuur 1), rechts het aandeel per energiebron in de elektriciteitsproductie. De energie die nodig is voor het opwekken van elektriciteit komt uit de TES links. ‘Wind & solar’ is een buitenbeentje omdat beide energiebronnen direct elektriciteit leveren. In tegenstelling tot de andere primaire energiebronnen hoeft er bij wind en zon dus geen conversie plaats te vinden. Dat is belangrijk omdat bij de omzetting van primaire energiebronnen naar elektriciteit vaak sprake is van aanzienlijke verliezen.

Het elektrisch rendement van een klassiek thermische elektriciteitscentrale (fossiele brandstoffen) of kerncentrale (splijtstoffen) bedraagt ongeveer 33 à 40 %. STEG-centrales (stoom- en gascentrales) halen een hoger elektrisch rendement van 50 à 60 % (bron Wikipedia). Een kerncentrale heeft een elektrisch rendement van ongeveer 35%.

De papieren werkelijkheid van de EU, die het stoken van hout groen en duurzaam acht, is al een poosje achterhaald door de werkelijkheid. In plaats van ‘snoeiafval’ worden er vooral boomstammen (bossen) verstookt in biomassacentrales. Die laatste zijn populair omdat de EU subsidies verleend voor het stoken van hout. Slecht voor de bossen, slecht voor het milieu en slecht voor de CO2-emissies die groter zijn dan bij een kolengestookte centrale. En om die CO2 emissies gaat het allemaal in de energietransitie, want CO2 = klimaatverandering = gevaarlijk volgens het IPCC. Het elektrisch rendement van houtgestookte installaties is laag, in de orde van grootte van 20%. Om al deze redenen is de categorie ‘Biofuels & waste’ zeker niet tot de groene energiebronnen te rekenen.

Figuur 6 laat zien dat de energiestroom ten behoeve van de elektriciteitsproductie klein is in vergelijking tot de totale energiestroom in Nederland, namelijk 15,2% in 2020. Van de totale elektriciteitsproductie is 18,9% van de energie-input afkomstig van wind en zon en 68% van fossiele energiebronnen. Het opladen in Nederland van de accu’s van een elektrische auto is dus maar voor 1/5 een ‘groene’ zaak. En zelfs die 1/5 is niet van smetten vrij, zoals het artikel over mineralengebruik in zijn algemeenheid en rare earth mineralen in het bijzonder aangetoond heeft.

Conclusies: in vergelijking met de totale energiestromen in Nederland nemen die van de elektriciteitsproductie slechts een bescheiden plaats in: 15,2%. Dat aandeel zal de komende jaren wel wat toenemen, maar de grenzen van wat ons elektriciteitsnet aan kan lijken bereikt. Vernieuwen van het net kost enorm veel geld, en uiteindelijk zal de burger dat betalen door een afname van de welvaart. Bovendien is het rendement bij het maken van stroom laag, gemiddeld zo’n 40%. De rest gaat in warmte op, en die warmte kan maar ten dele benut worden.

Een groot deel van de primaire energiestromen is niet of moeilijk vervangbaar door elektriciteit. Te denken valt aan grondstoffen voor de zware chemie (olie en gas) en steenkool (staalproductie). Naast transformatieverliezen en eigen energiegebruik in de elektriciteitscentrales gaat er bij de producenten van stroom (en warmte) bovendien ook nog energie verloren tijdens het transport en de distributie naar de eindgebruikers.

De EU heeft  bedacht dat kernenergie en aardgas ‘groen’ verklaard worden: ze worden net als wind en zon opgenomen in een Europese taxonomie. Aardgas telt alleen als ‘groen’ als het in de plaats komt van een kolengestookte centrale. Nederland bevindt zich wat dat betreft in een vreemde en uitzonderlijke situatie. De Nederlandse overheid heeft besloten dat ‘we’  van het gas af moeten. En nu is dat gas door de EU plotseling  ‘groen’ verklaard. Fijn voor al die landen die nu massaal inzetten op aardgas. Maar waarom moeten wij dan van het gas af?

De onzin van dagrecords

Storm Eunice is net gepasseerd en heeft voor behoorlijk wat schade gezorgd, en helaas ook een paar mensen het leven gekost. Dat levert begrijpelijk veel nieuws op voor kranten, radio en tv. Maar de laatste jaren gaan journalisten bij opvallende weerssituaties vaak op zoek naar het antwoord op de vraag of die weerssituatie ‘uniek’ is. Dat geldt voor stormen, maar nog veel vaker voor de temperatuur. Dagrecords heten die, en de belangstelling daarvoor heeft denk ik te maken met het feit dat klimaatverandering een ‘hot topic’ geworden is. Sommigen beweren zelfs dat vanwege de recente klimaatverandering het ‘einde der tijden’ nabij is.

Dat is een ernstige misvatting lijkt me, maar als dat uit de mond komt van jonge mensen vervult me dat wel met medelijden. En ook met boosheid, omdat die angst de afgelopen jaren gevoed wordt door een lawine aan eenzijdige berichtgeving over weer en klimaat. De jacht op dagrecords is daar een voorbeeld van.


Fig.1     Bron: KNMI

Zijn dagrecords zinvol? Het antwoord is: nee. Een poos geleden is het KNMI opgehouden met het vermelden van dagrecords. Een van de argumenten om dat te doen is het grillige karakter van het weer in ons land, waardoor de temperatuur op iedere datum enorm kan variëren. De kans dat de temperatuur hoger of lager is dan de ruim honderd eerder opgetreden waardes op een bepaalde datum is daarom aanzienlijk. In het KNMI bericht (link hierboven) wordt goed omschreven waarom het bijhouden van dagrecords onzin is.

De bekende Vlaamse weerman Frank de Boosere heeft op zijn website ook aandacht gewijd aan die onzinnige dagrecords. Hij legt in zijn artikel in begrijpelijke woorden uit waarom die dagrecords onzin zijn. Als u op de link klikt kunt u zijn hele verhaal lezen.

Fig.2    Bron:  Frank de Boosere

De vraag is uiteraard waarom kranten, radio en televisie ondanks het feit dat deskundigen zeggen dat dagrecords onzin zijn, toch doorgaan met het berichten hierover? Ik denk dat een antwoord is dat men op deze manier aandacht krijgt (lees: abonnees en kijkers). Of zouden journalisten –in tegenstelling tot wat deskundigen beweren- denken dat dagrecords er wél toe doen (in het licht van klimaatverandering)?  Dan is er sprake van domheid, en tegen domheid strijden zelfs goden tevergeefs.

De onstuitbare honger naar rare earth en andere mineralen

Fig.1    Bron: International Energy Agency

Bovenstaande grafiek spreekt boekdelen. Hij is afkomstig uit een recent rapport van het Internationaal Energie Agentschap (IEA) dat de rol van kritieke mineralen in de overgang naar schonere energie beschrijft. Zonnepanelen, windmolens en elektrische auto’s vereisen over het algemeen meer mineralen dan hun op fossiele brandstoffen gebaseerde tegenhangers. Een elektrische auto vereist 6x meer mineralen dan een conventionele auto en een windmolenpark op het vasteland heeft 9x meer mineralen nodig dan een gasgestookte centrale. Sinds 2010 is de gemiddelde hoeveelheid mineralen die nodig is voor een nieuwe elektriciteits-unit met 50% toegenomen als gevolg van de toename van hernieuwbare energiebronnen. (Bron: IEA)

Niet alleen de bij de nieuwe technologieën benodigde hoeveelheden mineralen zijn sterk toegenomen, maar ook de vraag naar het type mineralen is afwijkend. De soorten minerale hulpbronnen die worden gebruikt verschillen per technologie. De vraag naar mineralen als lithium, kobalt en mangaan groeit sterk, en zogenaamde rare earth elements (REE’s) zijn onmisbaar voor windturbines en elektromotoren. Bovendien hebben elektriciteitsnetwerken  enorme hoeveelheid koper en aluminium nodig.

Fig.2    Bron: International Energy Agency

Figuur 2 toont de verwachte groei van de winning van een aantal nieuwe technologie-gerelateerde delfstoffen tussen 2020 en 2040. De grafiek is duidelijk: alleen al voor wat betreft de rare earth mineralen zal de vraag (en daarmee de productie) tot 2040 7x groter worden dan de huidige. Lithiumwinning moet dan ruim 40x zo groot zijn als nu, en de winning van kobalt ruim 20x zo groot.

Ik beperk me in dit artikel tot de zogenaamde rare earth elements (REE’s). Chinese bedrijven domineren momenteel de REE-winning op aarde en waren in 2016 goed voor 85 % van het wereldwijde aanbod. Australië is de op een na grootste producent met een marktaandeel van 10%.  Echter, slechts 35% van ’s werelds REE-reserves bevindt zich in China, wat de vraag oproept hoe het mogelijk is dat het land de sector zo heeft kunnen monopoliseren. Het zal te maken hebben met de bekende Chinese lange termijn visies denk ik.


Fig.3    Bron: ScienceDirect

REE’s zijn, anders dan hun naam doet vermoeden, overvloedig aanwezig in de aardkorst. Het addertje onder het gras is dat ze in lage concentraties voorkomen te midden van andere mineralen. Ze zijn bij de winning moeilijk te scheiden van die andere mineralen, wat ze “zeldzaam” maakt. We zagen hiervoor al dat de vraag naar deze REE’s de komende jaren naar verwachting sterk zal toenemen omdat overheden, organisaties en burgers steeds meer investeren in ‘schone’ energie. De vraag naar dysprosium en neodymium zal de komende 25 jaar naar schatting 7x tot 26x zo groot worden als gevolg van elektrische voertuigen en windturbines. Dat gaat echter grote problemen opleveren, want de manier waarop bedrijven REE’s winnen brengt grote schade toe aan lokale gemeenschappen en vervuilt omliggende gebieden. (bron: Harvard International Review)

Er zijn twee primaire methoden voor de winning van REE’s , waarbij in beide gevallen giftige chemicaliën vrij kunnen komen in het milieu. Bij de eerste methode (dagbouw) wordt de bovengrond verwijderd en wordt een loogbassins aangelegd waar chemicaliën aan de delfstof wordt toegevoegd om de metalen te scheiden van de rest. Loogbassins, die vol zitten met giftige chemicaliën, kunnen echter naar het grondwater lekken wanneer zij niet goed zijn beveiligd en kunnen soms hele hydrologische systemen aantasten.

Fig.4    Bron: Trouw

Bij de tweede methode worden gaten in de grond geboord om met behulp van pvc-buizen en rubberslangen chemicaliën in de ondergrond te pompen, waardoor vergelijkbare problemen ontstaat als in de open mijnbouw. Bovendien worden pvc-buizen soms achtergelaten nadat het gebied door de mijnbouwcompany verlaten wordt.

Beide methoden produceren veel giftig afval met een hoog risico op milieu- en gezondheidsschade. Voor elke ton geproduceerde REE’s levert het winningsproces 13 kg stof, 9.600 tot 12.000 m3 afvalgas, 75 m3 afvalwater en maar liefst 1 ton radioactief residu op. Dat laatste is het gevolg van het feit  dat bij de winning van REE’s radioactief thorium en uranium vrijkomt, wat bijzonder schadelijke gevolgen kan hebben voor de gezondheid van werknemers en omwonenden. In totaal wordt voor elke ton REE’s  2000 ton giftig afval geproduceerd (bron: Harvard International Review). Onderstaande tabel geeft een overzicht van de mogelijke gezondheidseffecten bij het winnen en verwerken van REE.

Bron: EURARE

Conclusie: nieuwe technologieën zoals elektrisch auto’s, windmolens en zonnepanelen gebruiken relatief gezien veel meer rare earth elementen en andere zeldzame mineralen dan conventionele technieken. De winning en verwerking van REE’s veroorzaakt niet alleen milieuproblemen op de winningsplek, maar is ook schadelijk voor de gezondheid van werknemers en omwonenden. Verwacht wordt dat groei van die nieuwe technologieën de komende jaren in versneld tempo zal toenemen, en daarmee impact op mens en milieu.

Ondanks rapporten dat er maatregelen genomen dienen te worden om die negatieve effecten te verminderen lijkt er zich in werkelijkheid een ramp aan het voltrekken. Maar liefst 85% van de winning van REE’s op aarde is in handen van Chinese bedrijven. Gezien de grote economische belangen voor China die gemoeid zijn met de winning van REE’s is het niet te verwachten dat op korte termijn maatregelen genomen zullen worden. Bovendien levert het feit dat de winning van veel mineralen in handen is van Chinese bedrijven nog een ander gevaar op, namelijk economische afhankelijkheid. Het uitrollen van nieuwe technologieën is onlosmakelijk verbonden met de beschikbaarheid van bepaalde mineralen. Door China’s dominantie in de markt zijn de meeste andere landen afhankelijk geworden van China. China heeft dit ‘wapen’  overigens al enkele malen ingezet bij conflicten met andere landen.

Het is bekend dat vanuit energetisch oogpunt de inzet van elektrische auto’s, windmolens en zonnepanelen slechts in beperkte mate kan bijdragen aan het terugdringen van fossiele brandstoffen. Desondanks is er bij veel politici nog veel geloof in de nuttige inzetbaarheid van die technologieën, gestimuleerd door de grote financiële belangen van lobbyende industrieën en diensten die actief zijn in dit speelveld.

Bovenbeschreven negatieve aspecten van de REE’s en andere zeldzame mineralen werpen echter een schaduw over het gebruik en de groei van die nieuwe technologieën. Hier gaat het niet om de vraag of windmolens of zonnepanelen rendabel in te zetten zijn (dat zijn ze niet), maar om de alsmaar toenemende negatieve effecten van winning op de omgeving van de winplaatsen en de gezondheid van steeds meer mensen.  Daar moet eens goed over nagedacht worden lijkt me.

De homogenisatie van GHCN in Europa

Men kan een waarnemingsreeks, zoals een temperatuurreeks, homogeniseren als er veranderingen in waarneemomstandigheden hebben plaatsgevonden die een sprong of trendbreuk veroorzaken die niet klimatologisch van aard is. Te denken valt aan verplaatsingen van de stations en/of instrumenten, langzaam of abrupte veranderingen in de omgeving en veranderingen in instrumenten, meethutten en meetmethoden. Die zogenaamde inhomogeniteiten kunnen dan zo groot worden dat een meetreeks zonder verdere correcties ongeschikt is voor klimaatonderzoek.

Voor onderzoek naar klimaatverandering is het dan belangrijk is om deze inhomogeniteiten te corrigeren.  In de praktijk betekent dit dat men dat deel van de meetreeks dat inhomogeniteiten bevat homogeniseert. Die homogenisatie komt meestal neer op een wijziging van de meetgegevens met behulp van statistische technieken.

De temperatuurreeksen van GHCN worden regelmatig gehomogeniseerd. De maandelijkse station temperatuurgegevens van het Global Historical Climatology Network (GHCN) worden beschikbaar gesteld door NOAA. GHCN is een van de meest gebruikte bronnen ter wereld. De databank bevat gegevens van meer dan 100.000 stations in 180 landen. Momenteel is versie 4 actueel.

De GHCN datasets zijn beschikbaar in twee formaten: niet-gehomogeniseerd en gehomogeniseerd. Sinds 2011 wordt de gehomogeniseerde dataset buiten de USA bijna dagelijks bijgewerkt door toepassing van het “Pairwise Homogenization Algorithm” (PHA) toe te passen op de niet-gehomogeniseerde datasets. Eerdere studies hebben aangetoond dat de PHA goed kan presteren bij het corrigeren van synthetische tijdreeksen wanneer bepaalde kunstmatige vertekeningen worden geïntroduceerd. De prestaties met reële gegevens zijn minder goed bestudeerd. Maar daar is nu verandering in gekomen.

O’Neill et al (2021) hebben onlangs een publicatie het daglicht laten zien met als centrale vraag hoe goed die PHA zijn werk doet bij het homogeniseren van Europese temperatuurreeksen. Ik heb aan dat onderzoek ook een bescheiden bijdrage mogen leveren.

Fig. 1     Bron: O’Neill et al 2021

Eerdere studies hebben aangetoond dat de PHA goed kan presteren bij het corrigeren van synthetische tijdreeksen wanneer bepaalde kunstmatige sprongen werden geïntroduceerd. De prestaties met reële gegevens zijn minder goed bestudeerd. Daarom zijn de gehomogeniseerde GHCN datasets (versie 3 en 4) bijna dagelijks gedownload over een periode van 10 jaar (2011-2021), wat resulteerde in 3689 verschillende updates van de datasets. De verschillende geïdentificeerde breekpunten werden geanalyseerd voor een set van stations uit 24 Europese landen waarvoor metagegevens over de stationsgeschiedenis beschikbaar waren. Figuur 1 links toont in rood de 259 Europese stations in versie 3 waarvoor metadata beschikbaar waren. Figuur 1 rechts in rood de 847 stations met metadata in versie 4.

De onderzoekers vergeleken de breekpunten zoals die door het algoritme waren geïdentificeerd met de breekpunten in de aangeleverde metadata. Een opmerkelijke inconsistentie in de geïdentificeerde breekpunten (en dus toegepaste aanpassingen) kwam hierbij aan het licht. Slechts 19% van de breekpunten (18% voor versie 3) werd in verband gebracht met een gedocumenteerde gebeurtenis binnen 1 jaar, en 67% (69% voor versie 3) werd niet in verband gebracht met een gedocumenteerde gebeurtenis (zie figuur 2).

Fig.2    Bron: O’Neill et al 2021

Hoewel het PHA dus een nuttig instrument blijft in de homogenisatie-gereedschapskist van de klimaatgemeenschap, zijn veel van de PHA-aanpassingen die zijn toegepast op de gehomogeniseerde GHCN-datasets van Europa mogelijk dus niet correct geweest. Na onze publicatie over de homogenisatie van de 5 hoofdstations van het KNMI Is dit alweer een bewijs dat homogenisaties – als men ze al nodig acht- alleen met de grootst mogelijke voorzichtigheid moeten worden toegepast.

Recordhoge koraalbedekking Great Barrier Reef


Fig.1    Bron: Libertyfest

Hans Wolkers dook in de publicaties over het Great Barrier Reef in Australië en ontdekte dat er veel tegenstrijdige geluiden te horen zijn over het rif. Hij interviewde daarom Peter Ridd. Marien onderzoeker Ridd verloor onlangs zijn beroep bij het Hooggerechtshof tegen de James Cook University in Australië. Hij was ontslagen wegens overtreding van de gedragscode van de universiteit met betrekking tot openbaar commentaar over het Groot Barrièrerif dat volgens de universiteit denigrerend was voor een collega. Tegengeluid over de conditie van het Great Barrier Reef werd en wordt niet op prijs gesteld. Hier het verslag van Hans Wolkers:

Onlangs berichtte de NOS over de plannen van de Australische regering om het Great Barrier Reef extra te beschermen door het verbeteren van de waterkwaliteit, het verminderen van erosie en het bestrijden van de illegale visserij. Critici vinden deze maatregelen zinloos omdat klimaatverandering -volgens hen de grootste bedreiging voor het rif- niet wordt aangepakt. Tien jaar geleden voorspelden een aantal wetenschappers al een massale sterfte van het rif door klimaatverandering. Maar harde getallen uit 2021 laten een ander beeld zien: het rif is in een geweldige conditie.

Rond het Great Barrier Reef (GBR) doen al jaren doemscenario’s de ronde. Volgens Unesco is het rif in zo’n slechte staat dat dit prachtige natuurgebied daarom op de lijst van bedreigd natuur werelderfgoed geplaatst moet worden. In 2012 berichtte ook het gezaghebbende wetenschappelijke tijdschrift PNAS dat het er slecht uitzag voor het GBR. Onderzoekers stelden dat het rif in continue verval is (onder andere door klimaatverandering) en voorspelden dat als er niets zou gebeuren het koraal binnen tien jaar zou afnemen tot slechts 5-10% van de oorspronkelijke bedekking.

Fig.2    Bron: Wikimedia

Maar is dit doemscenario uitgekomen en kloppen de statements van de milieubeweging en sommige wetenschappers wel dat klimaatverandering een grote bedreiging vormt voor het GBR? Nee, stel de marien geofysicus Peter Ridd, die het GBR al meer dan 35 jaar lang bestudeert. Volgens hem verkeert het GBR op dit moment in een absoluut geweldige conditie. ‘Ondanks de claim van sommige koraalwetenschappers dat er de afgelopen vijf jaar maar liefst drie keer catastrofale rifschade is geweest, zien we nu een recordhoge koraalbedekking’, zegt hij. ‘Die schade kan nooit zo dramatisch zijn geweest als ze claimden. Er is door sommigen flink overdrijven, want dramatische schade en dan nu al zo’n spectaculair herstel, dat kán gewoon niet.’


Fig.3    Bron: Australian Institute of Marine Science

Ridd beroept zich hierbij op harde cijfers. Een langetermijn monitoring van het rif, uitgevoerd door het Australian Institute of Marine Science, laat namelijk zien dat het rif in 2020-2021 in topconditie verkeert. De schade van voorgaande jaren door cyclonen en de beruchte koraal-etende doornenkroon zeester is grotendeels is hersteld. Volgens het instituut is de koraalbedekking met 25% tot bijna 40% toegenomen tot een recordhoogte in 2021. (fig.3).

Fig. 3   Data: Australian Institute of Marine Science

Ridd wijst erop dat ook het in PNAS geschetste doemscenario van 2012, toen de koraalbedekking een duidelijke dip vertoonde, niet is uitgekomen. Integendeel: het rif heeft juist een sterk herstel laten zien. De alarmistische geluiden uit de hoek van sommige wetenschappers, milieubeweging en media blijken ongegrond: het rif blijkt een robuust ecosysteem te zijn dat zich snel kan herstellen van schade. Als mogelijke reden voor die doemscenario’s noemt Ridd het feit dat af en toe massale hoeveelheden koraal sterven door cyclonen of een uitbraak van de doornenkroon zeester. Dit wordt dan breed uitgemeten in de media en voor onderzoekers kan dat extra onderzoeksgeld betekenen. Herstel van het rif haalt de kranten echter meestal niet. ‘Ik denk niet dat dit opzettelijke leugens zijn’, zegt Ridd. ‘Ik denk dat er een extreme vorm van groepsdenken heerst, waarbij iedereen elkaar napraat, en tegenstand niet wordt geduld, terwijl in de wetenschap juist het omgekeerde zou moeten gebeuren.

Ridd ontkent niet dat de wateren van het GBR langzaam warmer worden. Wetenschappers voorspellen dat de watertemperatuur de komende decennia met 1-1,5 graad zal toenemen. Sommigen beweren dat dit het einde zal beteken van het GBR en dat 98 procent van het koraal zal afsterven. Maar volgens Ridd is deze kleine temperatuurtoename van het water geen enkel probleem. ‘Het GBR ligt in het zuidelijke deel van de koraaldriehoek. Hier komen dezelfde koraalsoorten voor als in de noordelijke delen rond Papoea en Indonesië, maar daar is het water wel zo’n 1,5 -2 graden Celsius warmer’, legt hij uit. ‘Ik verwacht daarom dat verreweg de meeste soorten dit gemakkelijk aan kunnen.

En zelfs als de temperaturen te hoog blijken te worden denkt Ridd dat het koraal zich kan aanpassen. Koralen leven samen met kleurige algen, zoöxanthellen, die zuurstof en koolhydraten voor de poliep produceren. Bij te hoge temperaturen, stoten de koraalpoliepen echter de zoöxanthellen uit. Dit doen ze waarschijnlijk omdat hun kleurige gasten dan giftige stoffen gaan vormen. Dit zorgt voor bleek, maar vooralsnog geen dood koraal. Het blijkt dat de poliep en de zoöxanthellen zich onder deze omstandigheden na verloop van tijd toch kunnen aanpassen, waardoor het gebleekte koraal weer een algensoort vindt om mee samen te leven, waardoor ze kan herstellen. ‘Door dit aanpassingsmechanisme van bleken en weer nieuwe algen opnemen overleeft het koraal al millennia lang wisselende omstandigheden’, stelt Ridd. ‘Vooralsnog is er absoluut geen wetenschappelijk bewijs dat het rif een kleine opwarming van het zeewater niet zal overleven. Integendeel: Ik zie het GBR als een robuust natuurgebied dat uiterst veerkrachtig is en goed bestand is tegen wisselende omstandigheden, inclusief klimaatverandering.’

Modellen (zucht)

De Volkskrant analyseerde de beslissing van de Nederlandse regering om voor de Kerst in lockdown te gaan. Die beslissing was gebaseerd op modellen van het RIVM die torenhoge opnames voorzagen vanwege de Omikronvariant (zie figuur 1).

Fig.1    Bron: Volkskrant

Het artikel geeft een goed overzicht van de hectische dagen voorafgaande aan de lockdownbeslissing. Maar verbazing overviel me toen ik las:  “Het is verleidelijk om, zoals Kuzu of Levi, achteraf naar de grafiek te wijzen en te zeggen: zie je, het model zat te hoog. Maar modellen zijn geen voorspellingen die pas ‘geslaagd’ zijn als ze uitkomen, een diep misverstand. Het zijn verkenningen, van mogelijke toekomsten – waarvan je sommige vooral moet zien te vermijden.”

Dat vind ik een vreemde conclusie. Als een model volstrekt niet uitkomt is het gewoon een slecht model, dat model deugt dan niet. Daar kun je nog zulke ‘verzachtende’ omstandigheden bij bedenken zoals ‘de werkelijkheid achterhaalde het model’ of iets dergelijks, maar dat is alleen maar semantische gladstrijkerij voor modellen die niet uitkomen. Wat heb je aan een model dat als je het toetst aan de werkelijkheid niet blijkt te kloppen? Nobelprijswinnaar fysicus Richard Feynman legt dat zo uit:

Natuurlijk is het maken van modellen om de invloed van een virus op de gezondheid van mensen te voorspellen heel lastig, zeker als je te maken hebt met nieuwe varianten waar nog relatief weinig over bekend is. Ik zie parallellen met modellen in de klimatologie. Klimaatmodellen, global circulation models (GCMs),  zijn uiterst complexe nabootsingen van het nog veel complexere aardse klimaatsysteem. Die klimaatmodellen trachten de gemiddelde mondiale temperatuur te voorspellen over een x aantal jaren. Maar ondanks het gebruik van computers met een formidabele hoeveelheid rekenkracht lukt het klimaatmodellen niet om de temperatuur goed te voorspellen. De laatste generatie modellen, CMIP6, doet het zelfs nog wat slechter dan de voorlaatste generatie.

Fig.2     Bron: Scafetta et al 2021

Scafetta (2021) vergeleek de prestaties van 38 CMIP6-modellen bij het reproduceren van de veranderingen in de oppervlaktetemperatuur van 1980-1990 tot 2011-2021 met  onder andere de door satellieten gemeten temperaturen (UAH MSU V6 TLT). Figuur 2 toont die vergelijking in anomalieën ten opzichte van de periode 1980-1990.

Te zien is dat vrijwel alle klimaatmodellen de aardse temperatuur (veel) te hoog inschatten als je de uitkomsten van hun runs vergelijkt met de gemeten temperaturen (groene lijn). Prof. William Happer legt uit hoe dat komt:

Conclusie: met virusmodellen moet je minstens zo voorzichtig omgaan als met klimaatmodellen. Blijkbaar is er voor wat betreft de RIVM-grafieken van december j.l. gewaarschuwd voor de grote onzekerheden daarin. De vraag is natuurlijk of de dienstdoende ministers in staat waren om dat te vertalen in adequaat gedrag. Het is nu wel duidelijk dat dat niet het geval was. ‘Prognose zeer onzeker!!’, had Van Dissel er met dubbele uitroeptekens in grote letters boven gezet toen hij de grafieken naar Den Haag stuurde. Dat heeft niet geholpen. Voor wetenschappers een goede waarschuwing: stuur alleen maar modeluitkomsten naar buiten als die te vertrouwen zijn.

In de klimatologie zie je pas achteraf dat de meeste modellen niet deugen. Dat is logisch: de gemeten temperatuur is de enige toetssteen waaraan de waarde van een model kan worden afgemeten. Dat geldt m.m. ook voor virusmodellen. Als die modellen onbetrouwbaar zijn mag je hopen op bestuurders met voldoende gezond verstand. Wat zal ik zeggen? 😉

Interview met William Happer

De bekende Amerikaanse fysicus William Happer werd onlangs geïnterviewd door wetenschapsjournalist Marcel Crok. Happer was lange tijd hoogleraar aan de Princeton University en houdt zich al decennialang bezig met klimatologische vraagstukken als de gevoeligheid van het klimaatsysteem voor toename van CO2.

Het interview wordt naar het einde toe steeds interessanter, dus zeker uitkijken, die 1 uur,  17 minuten en 21 seconden!

Is de Elfstedentocht echt verleden tijd?


Fig.1   Bron: wikimedia

Het is 25 jaar geleden dat de laatste Elfstedentocht werd verreden. Kersverse winnaar van de Machiavelliprijs en weerman Gerrit Hiemstra werd daarom geïnterviewd, ook door De Stem.

Daarin kwam ook de Elfstedentocht ter sprake, want Gerrit is tenslotte behalve weerman ook Fries, en niet te vergeten aanhanger van de hypothese dat er sprake is van een klimaatcrisis. Ik werd getriggerd door het antwoord van Hiemstra op de vraag of hij verwacht nog een Elfstedentocht mee te maken:  ,,Als Fries hoop ik natuurlijk van wel, maar ik denk het niet. De Elfstedentocht is verleden tijd. Het is een feit dat we steeds minder dagen vorst hebben. Dat maakt de kans op een Elfstedentocht statistisch heel klein, véél kleiner dan vroeger.’’


Fig.2    Data: KNMI

Dat er tegenwoordig minder vorstdagen zijn dan pakweg 50 jaar geleden klopt, zoals u op figuur 2 kunt zien. De grafiek toont het aantal vorstdagen (etmaal met minimum temperatuur Tn < 0 °C ) in de winter per jaar in De Bilt vanaf 1902 t/m 2021. De jaren met een Elfstedentocht zijn in rood afgebeeld. Een winter bestaat uit de maand december van het voorafgaande jaar plus de maanden januari en februari van het daaropvolgende jaar. Dus de winter van 1934 bestaat uit december 1933 plus januari en februari 1934. 1933 was het jaar met de enige Elfstedentocht in de maand december, maar wordt hier dus gerekend tot de winter 1934 (rode stip).

Te zien is dat alle Elfstedentochten tenminste 47 vorstdagen (1954) kenden, met als outlier de Elfstedentocht in de winter van 1912, die slechts 29 vorstdagen telde. Vanaf ongeveer 1980 neemt het aantal vorstdagen geleidelijk af, zoals goed te zien is aan de oranjebruine stippellijn van de Loess smoothing in de grafiek. Vanaf 1987 zijn er nog maar 3 jaren met een aantal vorstdagen van meer dan 50, en vanaf 2012 is er geen enkele winter meer met meer dan 47 vorstdagen.

Rijst de vraag wat de oorzaak is van die afname van het aantal vorstdagen. Opwarming, zal het automatische antwoord van velen zijn, als gevolg van de uitstoot van CO2 door menselijke activiteiten. De boodschap van het IPCC (een afdeling van de UNO) is dat CO2 de spil is in het proces van opwarming van de aarde. Dat CO2 een broeikasgas is, is juist. Maar dat het de spil is van een proces dat ons in een klimaatcrisis stort is zeker wel betwistbaar.

Fig.3    Data: KNMI

Wat bepaalt de temperatuur op enig moment in ons land? Dat zijn de omstandigheden ter plekke (met name instraling van de zon, neerwaartse IR straling (broeikaseffect), opwaartse IR straling, bewolking, albedo, verdamping, convectie, bebouwing) en advectie (aanvoer van warmte en koude van elders). Omdat het fenomeen Elfstedentocht een winterse aangelegenheid is heb ik in figuur 3 de gemiddelde winter-Tn (minimum dagtemperatuur) per jaar weergegeven en met rode stippen de Elfstedentochten. De meeste Elfstedentochten vonden plaats in winters met een opvallend lage gemiddelde Tn, wat natuurlijk niet verwonderlijk is. Voor dik ijs heb je een langere periode met koude nachten nodig.

De oranje-bruine lijn is de Loess smoothing waarmee je de springerige Tn-lijn kunt gladstrijken. Zo is makkelijker visueel vast te stellen of er sprake is van een trend. De lineaire trendlijn vertelt dat de winterse Tn in De Bilt tussen 1901 en 2021 gestegen is met 1,78 °C. Goed is te zien dat de Loesslijn gedurende meer dan 80 jaar vrijwel geen trend laat zien en in de jaren ’80 van de vorige eeuw gaat stijgen. Mogelijke oorzaken van die stijging zijn met name een toename van de neerwaartse IR als gevolg van een versterkt broeikaseffect,  een toename van de instraling als gevolg van afnemende bewolking en aerosolen, toegenomen verstedelijking en een veranderend windpatroon. Over al deze onderwerpen heb ik al vaker geschreven, gebruik het zoekvenstertje of het verticale menu.

Bovengenoemde factoren spelen ongetwijfeld alle mee bij de stijging van Tn-winter vanaf de jaren ’80 van de vorige eeuw. In welke mate elk van de factoren een bijdrage geleverd hebben aan die stijging is heel moeilijk vast te stellen. Fervente klimaatalarmisten zullen vooral wijzen op het toegenomen broeikaseffect, ik denk dat een veranderend windpatroon dominant zou kunnen zijn. Immers, het ijs in Nederland kan onmogelijk dik worden zonder dat er gedurende langere tijd lucht vanuit Rusland wordt aangevoerd.

Fig.4    Data: KNMI

Om te bezien welk verband er is tussen de windrichting (hoek waaruit de wind waait) en het aantal vorstdagen heb ik in figuur 4 beide factoren afgezet voor het jaar 2021. De donkere lijn geeft de windhoek per dag weer van 1 december 2020 t/m 28 februari 2021. De bijbehorende graden lopen tussen 0 en 360 graden als in onderstaande windroos:


Fig.5

Uit ervaring weet ik dat in de winter zeer koude lucht Nederland binnenvalt als de windrichting NO tot O is. Het brongebied van die lucht is dan vaak het NW van Europees Rusland. Dat is het geval als de windhoek in de grafiek van figuur 4 naar beneden buigt. Zo op het oog bezien is er een sterke correlatie tussen de windhoek en Tn, met name als de windhoek onder de 100 graden duikt. Alleen begin januari 2021 is dat niet het geval. Van 3 t/m 6 januari waait de wind uit het NO maart blijft de Tn desondanks boven 0 °C. Figuur 6 laat zien hoe dat kwam.

Fig.6    Bron: https://earth.nullschool.net

De wind (hier op 250 hPa niveau) komt weliswaar in Nederland uit het NO, maar het brongebied van die lucht was nu niet afkomstig van NW Rusland maar van Zuid-Frankrijk. Relatief zachte lucht werd door een lagedrukgebied boven ZW Frankrijk onze kant opgeblazen.

Ik was benieuwd naar windrichting en Tn in de winters van de 15 Elfstedentochten en heb voor al die winters de windhoek en Tn bepaald. Om de windhoek van de zeer koude continentaal arctisch/polaire lucht vanuit Rusland te bepalen  ga ik er van uit dat die tussen 0 en 120 graden ligt. Die grenzen zijn arbitrair zodat ik wellicht af en toe geen continentaal arctische/polaire lucht ‘vang’, maar voor dit onderzoekje denk ik dat dat wel voldoet.

Fig.7    Data: KNMI

Voor alle 15 Elstedentocht-winters geldt dat er een sterke correlatie zichtbaar is tussen de aanvoer van continentaal arctische/polaire lucht en lage minimum temperaturen. Alle Elfstedentochten worden vooraf gegaan door een koude periode waarbij minimum temperaturen lager dan -10 °C geen uitzonderingen zijn. De ‘outlier’  uit figuur 2, winter 1912, telde slechts 29 vorstdagen vanwege een versnipperde aanvoer van continentaal polaire lucht, maar de tocht volgde op een koudeperiode van 12 vorstdagen, waarvan de laatste dagen vóór de tocht tot zelfs beneden de -20 °C reikten (in De Bilt op 3 februari 2012 werd het maar liefst -20,1 °C). Blijkbaar voldoende kou om het ijs op dikte te krijgen, zodat op 7 februari 1912 de tocht gereden werd bij dooi (Tn = 4,1 °C):


Fig.8    Data: KNMI

Als we de grafiek van 1963 in figuur 7 bezien dan kwam de planning van de legendarische tocht van dat jaar niet zo nauw. Van 19 december 1962 t/m 28 februari 1963 was er sprake van een constante reeks van vorstdagen, slechts 2 maal onderbroken door een dag met Tn boven nul. Oorzaak: een volhardend blokkerend hogedrukgebied boven Zuid Zweden, waardoor vrijwel voortdurend koude tot zeer koude lucht uit Noord-Rusland naar Nederland stroomde. Op de dag van de tocht, 18 januari, werd in De Bilt een minimum temperatuur van -18,2 °C gemeten!

De bovenstaande grafieken maken duidelijk dat de juiste weersomstandigheden  voor een Elfstedentocht worden bepaald door een wat langere periode met lage tot zeer lage temperaturen, en dat de aanvoer van die zeer koude lucht wordt bepaald door de richting waaruit de wind waait. Het brongebied van die zeer koude lucht ligt in het NW van Rusland. Die zeer koude lucht komt dan meestal als NO- tot O-wind Nederland binnen.


Fig.9

Omdat het mogelijk kan zijn dat de aangevoerde koude lucht vanuit het NW Russisch brongebied in de loop van de jaren minder koud geworden is, heb ik de data van Russische stations in dat gebied bekeken. Stations met lange tijdreeksen in die regio zijn schaars, en van de reeksen die beschikbaar zijn ontbreken de data van een aantal achtereenvolgende jaren vanaf 1989. De nabijgelegen Barentszzee is tot laat in het jaar nog grotendeels ijsvrij en relatief warm water wordt door de Noord-Atlantische Drift aangevoerd. Dat relatief warme water beïnvloedt vaak tot diep in december ook de temperaturen op het land. Het is daarom niet verwonderlijk dan van de 15 Elfstedentochten er slechts 1 in december gereden is.


Fig.10    Data: GHCN/ClimateExplorer

Om die reden heb ik van de drie Russische stations alleen de gemiddelde minimumtemperaturen van de maanden januari en februari gebruikt en niet die van december. De grafieken van figuur 10 laten zien dat er van een opwarmende trend geen sprake is.

Het uitblijven van Elfstedentochten na 1997 kan in feite alleen nog maar verklaard worden aan de hand van de luchtcirculatie. Waaide het soms wat minder vaak uit NO-hoek? We kunnen daarvoor kijken naar de cijfers van de windrichting van het KNMI (DDVEC = Vectorgemiddelde windrichting in graden).  Maar lucht stroomt heel vaak via een bocht ons land binnen. Beter is het daarom om naar de ligging van het brongebied te kijken. Het brongebied is het gebied waar de aangevoerde lucht oorspronkelijk vandaan komt.


Fig.11    Bron: klimaatgek

Trouwe lezers weten dat ik vorig jaar tweemaal geschreven heb over het monnikenwerk dat een jonge student wiskunde heeft geleverd door een model te maken waarmee  het temperatuurverloop sinds 1836 in Nederland kan worden verklaard. Daarbij heeft hij voor de periode 1836-2020 per etmaal geanalyseerd hoe vaak de binnenkomende lucht uit welk brongebied afkomstig was. Figuur 11 toont de gebruikte namen en brongebieden.

De resultaten ziet u in figuur 12. De data aan de hand waarvan ik de grafiek van figuur 12 heb gemaakt zijn afkomstig van het model van Jippe Hoogeveen. Ik ben zo vrij geweest om me te richten op de periode vanaf 1901, conform de etmaaldata van het KNMI. Omdat de reeksen sterk schommelen zijn trends lastig af te lezen. Daarom zijn de datareeksen gesmoothed met behulp van een Loessfilter met span 0.2 . De grafiek toont voor de periode 1901-2020 het aantal (gesmoothde) winterdagen per jaar dat de binnenkomende lucht afkomstig is uit een bepaald brongebied.


Fig.12    Data: Jippe Hoogeveen

Te zien is dat de NO-circulatie (brongebied NW van Rusland) tot midden jaren ’80 al laag is maar daarna vrijwel wegzakt. Dat laatste geldt ook voor de O-circulatie dat zijn brongebied wat zuidelijker heeft en in mindere mate voor de N-circulatie. Sterke stijgers zijn de ZW- en W-circulatie die relatieve zachte lucht vanaf de Atlantische Oceaan meebrengen.

Hier ziet men dus in één oogopslag wat de oorzaak is van die zachtere winters in Nederland van de afgelopen decennia.

Overigens concludeerde Jippe Hoogeveen op basis van het model dat de luchtcirculatie de belangrijkste kracht is achter de temperatuurstijging in Nederland. Hij schrijft: “When we extended the model with a factor representing the sea, and with factors for the TSI, AMO, and CO2, then we find an R2 value of 0.85. Interestingly enough, CO2 does not seem to play a role.” Daar kom ik graag later op terug!

Conclusies

Weerman Gerrit Hiemstra gelooft niet dat we ooit nog een Elfstedentocht krijgen. Dat doet hij op basis van het feit dat we tegenwoordig veel minder vorstdagen hebben dan vroeger. Wat hij zich blijkbaar niet afvraagt is waardóór we tegenwoordig minder vorstdagen tellen. Want alleen dán kun je wat zinnigs zeggen over mogelijk toekomstige Elfstedentochten. De recente temperatuurstijging in Nederland (die door menigeen m.i. ten onrechte vooral of uitsluitend wordt toegeschreven aan antropogene CO2-emissies) speelt hier waarschijnlijk een ondergeschikte rol. Al of geen Elfstedentocht hangt vooral af van de vraag hoe lang de periode is waarin continentaal arctische/polaire lucht ons land binnenstroomt.

Ik heb laten zien dat winterse aanvoer van zeer koude continentale lucht de afgelopen decennia gedecimeerd is. Er is sprake van een duidelijke verandering in de luchtcirculatie boven Europa die als gevolg heeft dat de winters in ons land aanmerkelijk zachter zijn dan vroeger. Interessante vraag is dan welk mechanisme verantwoordelijk is voor die verandering in de atmosferische circulatie. Is CO2 verantwoordelijk voor deze verandering? Of is het te wijten aan natuurlijke oorzaken?

Mauri et al  schreven in 2014:    “The atmospheric circulation is a key area of uncertainty in climate model simulations of future climate change, especially in mid-latitude regions such as Europe where atmospheric dynamics have a significant role in climate variability.”

Voor de Elfstedentocht is het luchtcirculatiepatroon van doorslaggevend belang. Het winters patroon van méér maritieme en minder continentale lucht zoals we dat de afgelopen jaren kennen is niet gunstig voor een Elfstedentocht. Maar dat patroon is niet statisch maar dynamisch, zoals we in figuur 12 zagen, het is in constante beweging. Mauri et al wezen al op de onzekerheden in de luchtcirculatie: “models underestimate the role of atmospheric circulation
in recent climate change“. We weten er gewoon te weinig van. De voorspelling van Hiemstra dat de Elfstedentocht ‘verleden tijd’ is impliceert dat Hiemstra (als enige) wél weet hoe de luchtcirculatie zich de komende jaren gaat ontwikkelen. Maar stiekem denk ik dat hij last heeft van die hardnekkige CO2- tunnelvisie:  mensen >>> CO2 >>> opwarming >>> minder ijs >>> geen Elfstedentocht.