De presentatie door Hessel Voortman dd. 18 juni 2024 van ‘ons’ zeespiegelonderzoek.
Categoriearchief: Geen categorie
Het bijna-dagrecord van 12 juli 2024
Fig.1
Nederland maakte op 12 juli 2024 een zeer kille en natte dag mee. In De Bilt kwam de temperatuur op vrijdag 12 juli 2024 niet hoger dan 15,4 °C. Daarmee is het de koudste 12 juli sinds 1956 en de vier na koudste sinds het begin van de meetreeks in 1901. Alleen 1906 (15,2 °C), 1944 (15,3 °C) 1954 (15 °C) en 1956 (13,9 °C) waren kouder. Nu ben ik uit principe geen liefhebber van dagrecords, en zeker niet van bijna-dagrecords, maar voor het rotweer van 12 juli 2024 maak ik een uitzondering.
De oorzaak daarvan is niet ‘klimaatverandering als gevolg van menselijke CO2-emissies’, zoals vaak beweerd wordt als het weer afwijkt van wat men gewend is (altijd raak), maar kunnen we vinden op de weerkaart. De weerkaart van 12 juli 2024 zag er om 12 uur zo uit:
Fig.2 Bron: KNMI
Een samenklontering van fronten en lagedrukgebieden bepaalde een groot deel van de dag het weer in Nederland. Dat betekende grote hoeveelheden neerslag en de zon die zich nauwelijks liet zien. Een hogedrukgebied ten ZW van Ierland en lagedrukgebieden nabij IJsland sleurden bovendien koude luchtmassa’s vanuit het noorden van de Atlantische Oceaan onze kant op.
Fig.3 Data: KNMI
In de grafiek van figuur 3 zijn de maximale dagtemperaturen van alle 12 julidagen 1901-2024 weergegeven. Voor de Tx van januari 1901 tot september 1951 heb ik de niet-gehomogeniseerde temperaturen gebruikt. Trouwe lezers weten intussen wel waarom, zie onder andere hier (populaire versie) en hier (peer reviewde publicatie). Wat opvalt is dat de lineaire trendlijn (rode streepjes) een licht neerwaartse trend vertoont van -1,85 °C over de gehele periode. Deze trend is echter statistisch niet significant (met P= 0,17765) vanwege de sterke spreiding van de punten rond de trendlijn.
Fig.4 Data: KNMI
De grafiek van figuur 4 toont de gemiddelde maximum temperaturen voor de hele maand juli van 1901-2023. De trend is nu positief met + 1,46 °C en statistisch wel significant met P=0,017449. Dat laatste komt omdat de gemiddelde maximum etmaaltemperaturen van de julimaanden veel dichter bij de trendlijn liggen dan die van de dagwaarden van figuur 3.
Statistische significantie betekent dat het gevonden resultaat (waarschijnlijk) niet op toeval berust. Dagwaarden zijn dus veel gevoeliger voor ‘toeval’ en daarom kunnen dagrecords beter gemeden worden. Dat geldt overigens ook voor bijna-dagrecords .
Explosie extreem weer is schijn
Onder de titel “Explosie extreem weer is schijn” legt fysicus Arnout Jaspers in een nieuw artikel op https://www.wyniasweek.nl/explosie-extreem-weer-is-schijn/ op heldere wijze uit dat die ‘explosie’ van extreem weer -die tegenwoordig als schrikbeeld door klimaatalarmisten wordt opgevoerd- in feite niet bestaat. Dat doet Jaspers aan de hand van een boekje van Martijn van Calmthout dat veelzeggend “Niet Normaal” heet.
Jaspers haalt in zijn artikel de voorbeelden van extreem weer zoals die door Martijn van Calmthout worden beschreven met speels gemak onderuit. Een mooi voorbeeld daarvan is de rol die kansverdeling speelt in klimaatverandering, waarbij Jaspers duidelijk maakt dat meer extreem weer vaak niets te maken heeft met ‘klimaatontwrichting’ maar met de vorm van de grafische voorstelling van kansverdeling en onze definitie van ‘extreem’.
Verstandige (en onverstandige) mensen doen er mijns inziens goed aan om in plaats van Martijn van Calmthouts boekje dat van Jaspers (De Klimaatoptimist) aan te schaffen.
Bron grafiek: https://www.worldweatherattribution.org/wp-content/uploads/ENG_WWA-Reporting-extreme-weather-and-climate-change.pdf
Nul procent CO2
Fig.1
Een paar dagen geleden zag ik dit bestelwagentje aan de ‘stekker’ liggen. Met niet te missen lettergrootte was erop aangegeven dat deze auto 0 % CO2 uitstoot. Omdat dat heel bijzonder is heb ik er snel een foto van gemaakt en thuis op de website van het CBS opgezocht hoe de elektriciteitsbalans van Nederland eruit ziet.
We maken het vandaag niet te moeilijk en negeren het feit dat het produceren van de auto en het onderhoud natuurlijk ook CO2 uitstoot oproept. Dat geldt natuurlijk ook voor het opwekken van stroom, ook bij het gebruik van kernenergie en wind en zon. Maar omdat we het overzichtelijk willen houden doe ik net alsof de CO2-uitstoot van kernenergie, wind en zon nul is.
Fig.2 Bron: CBS
Figuur 2 laat zien dat bij het opwekken van elektriciteit in ons land in 2023 gemiddeld nog steeds meer dan 50% van de stroom afkomstig is van fossiele energiedragers. Die stroom van alle energiedragers wordt in het netwerk gepompt (gaat nog nét) en kan dan gebruikt worden om bijvoorbeeld het accupakket van die bestelwagen op te laden.
Nu is het vervelende van door de wind en de zon opgewekte stroom dat die niet vraaggestuurd maar aanbodgestuurd is. Ik heb daar wel een vaker over geschreven. Dat betekent dat bij veel zon en harde wind het aanbod van die stroom groter kan zijn dan die gemiddelde 41,6% uit de grafiek. Maar anderzijds kan ’s nachts bij weinig wind het aandeel van wind- en zonnestroom dalen tot bijna 0%. Die 0% CO2-uitstoot van het bestelwagentje is dus onzin. Misschien dat de eigenaar denkt dat hij met een 100% groene stroomcontract toch echt wel 0% CO2 uitstoot, maar het elektriciteitsnet veegt alle stroom bij elkaar. Die 100% groene stroom is puur administratief.
Dat wind- en zonnestroom aanbodgestuurd zijn zorgt ervoor dat het elektriciteitsnet in Nederland zo goed als vol zit. Met behulp van af- en aanschakelen van gasgestookte centrales proberen we voortdurend de balans te behouden tussen vraag en aanbod. Kerncentrales en kolencentrales kun je overigens niet zomaar eventjes af- en aanschakelen. Hoe groter het aandeel van zon en wind in het stroompakket, des te moeilijker wordt het om die balans te bewaren. Soms lukt dat niet, bij veel wind en zon, en dan gaat de stroom voor prijzen (ver) onder € 0,- de deur uit. En altijd moet je voor 100% backup (standby) hebben, voor als wind en/of zon het laten afweten.
Dat gemiddelde aandeel van zon en wind in de elektriciteitsbalans in Nederland van 41,6% is relatief hoog voor een land met weinig reliëf. Maar bedenk dat minder dan 1/4 van wat we in Nederland aan energie gebruiken elektriciteit is.
Fig.3 Bron: CBS
Figuur 3 toont het gebruik (‘verbruik’) van alle vormen van energie per sector in 2023, uitgedrukt in PJ (petajoule). Ons bestelwagentje zit uiteraard in de sector ‘vervoer’. Die sector wordt dan weer onderverdeeld in binnenlandse luchtvaart, wegverkeer, railverkeer en binnenlandse scheepvaart. Van de 401,6 PJ voor vervoer wordt het overgrote deel (382,8 PJ) gebruikt door het wegverkeer.
Van die 382,8 PJ voor het wegverkeer is slechts 22,9 PJ afkomstig van hernieuwbare energie. Dat is 6%. De rest is afkomstig van fossiele energiedragers (en een beetje kernenergie). En dan te bedenken dat een deel van die 6% hernieuwbare energie afkomstig is van biomassa. Veelal gekapte bomen, door Frans Timmermans in zijn tijd als EU-commissaris bestempeld als ‘hernieuwbare energiedrager’. Maar ik geloof dat hij inmiddels afstand van dat standpunt genomen heeft.
Les: geloof niet alles, ook al staat het met koeienletters achterop een bestelwagentje.
Hockeysticks maken
Willis Eschenbach verrast mij en veel anderen keer op keer met uitstekende artikelen op WhatsUpWithThat over allerlei klimatologische kwesties. Hier de vertaling van een recent artikel over de beruchte hockeystickgrafiek, die in diverse varianten steeds maar weer opduikt. Willis laat zien waarom dat logisch is. Niet omdat dat hockeystickachtige verloop van de temperatuur van de afgelopen 2000 jaar ‘settled science’ is, maar door de statistische methodiek die gehanteerd wordt.
Gastartikel door Willis Eschenbach (@weschenbach op Ex-Twitter)
De iconische “hockeystick” weigert gewoon te sterven. Hij werd voor het eerst gemaakt door Mann, Bradley en Hughes in hun artikel ‘Global-scale temperature patterns and climate forcing over the past six centuries’ (hierna “MBH98”) uit 1998.
Figuur 1. Originele hockeystickgrafiek
MBH98 beweerde aan te tonen dat na een lange periode met weinig verandering, de wereld plotseling begon op te warmen, en snel ook.
Een paar decennia geleden heeft Steve McIntyre op zijn website Climate Audit een heleboel fouten in MBH98 ontdekt. En ergens in die tijd merkte iemand (waarschijnlijk Steve maar misschien ook niet) op dat de merkwaardige (en wiskundig onjuiste) procedure die in MBH98 werd gebruikt, actief hockeysticks uit rode ruis kon halen.
[UPDATE]: De niet te stoppen Rud Istvan merkte in de comments op dat McIntyre en McKitrick in 2005 ‘Hockey sticks, principal components, and spurious significance’ publiceerden. Ik vind ook Mann, Bradley en Hughes antwoord op die studie, ‘Reply to McIntyre and McKitrick: Proxy-based temperature reconstructions are robust, waarin staat:
“McIntyre and McKitrick’s claim dat de gebruikelijke procedure (6 van het screenen van proxy data (gebruikt in sommige van onze reconstructies) “hockey sticks” genereert is niet onderbouwd in peer-reviewed literatuur en weerspiegelt een onbekendheid met het concept van screening regressie/validatie.”
Dit artikel zal aantonen dat de uitspraak van MBH niet juist is.
Ondanks dat alles werd MBH opgevolgd door verschillende, wat ik noem “hockalikes”, studies die beweerden onafhankelijk een hockeystick te vinden in de historische gegevens en waarvan dus werd beweerd dat ze de originele hockeystick van MBH98 ondersteunden en valideerden.
Natuurlijk werden in deze studies veel van dezelfde fouten herhaald die door McIntyre en anderen aan het licht waren gebracht. Hier is de geldgrafiek uit mijn post Kill It With Fire, waarin de poging van Mann uit 2008 om de hockeystick te rehabiliteren (M2008) werd geanalyseerd.
Figuur 2. Cluster dendrogram met vergelijkbare groepen in de proxies van de M2008 hockalike
Merk op dat de hockeystick-vorm afhankelijk is van slechts een paar groepen proxies.
Wat ik me een paar dagen geleden realiseerde was dat, hoewel ik geloofde dat de MBH98 onjuiste wiskunde hockeysticks uit rode ruis kon halen, ik het zelf nooit had uitgeprobeerd. En belangrijker nog, ik had het nooit geprobeerd met eenvoudiger wiskunde, gewone gemiddelden in plaats van de ongecentreerde principale-componentenmethode van MBH98. Dit artikel is dus eigenlijk mijn laboratoriumnotitieboek van dat onderzoek.
De meest uitgebreide van deze hockalikes hebben betrekking op de PAGES-dataset, die drie incarnaties heeft gehad – PAGES2017, PAGES2019 en PAGES2K. PAGES2K begint in het jaar 1AD en bevat meer dan 600 proxy-records. Hier zijn verschillende temperatuurreconstructies met PAGES2K-gegevens, gedaan door verschillende onderzoeksgroepen, uit een Nature-artikel waarin de bewering wordt gepromoot dat er “Consistente multidecadale variabiliteit is in mondiale temperatuurreconstructies en -simulaties over onze jaartelling“.
Figuur 3. Verschillende historische reconstructies met behulp van de PAGES2K dataset.
Zoals figuur 3 laat zien, is het waar dat verschillende onderzoeken door verschillende teams zeer vergelijkbare hockeystick-vormen hebben opgeleverd. Hoewel dit veel indruk lijkt te maken op wetenschappers, zal dit artikel laten zien waarom dat zowel waar als betekenisloos is.
Om dat te kunnen doen, moeten we eerst de stappen in het proces van het maken van historische temperatuurreconstructies op basis van proxy’s begrijpen. Een “proxy” is een meting van verschillen in een meetbare variabele die verandert met de temperatuur. Over het algemeen geldt bijvoorbeeld dat wanneer het warmer is, zowel bomen als koralen sneller groeien. We kunnen dus de breedte van hun jaarringen analyseren als een proxy voor de omgevingstemperatuur. Andere proxy’s voor de temperatuur zijn isotopen in ijskernen, sedimentsnelheden in meren, speleothems, magnesium/calcium verhoudingen in zeeschelpen en dergelijke.
Het maken van een historische dataset op basis van proxy’s gaat als volgt:
- Verzamel een heleboel proxy’s.
- Verwijder de proxy’s die niet “temperatuurgevoelig” zijn. Temperatuurgevoelige proxy’s kunnen geïdentificeerd worden door te kijken of ze over het algemeen gelijk (of tegen gelijk) lopen met historische temperatuurwaarnemingen (hoge correlatie).
- Ze kunnen positief gecorreleerd zijn (zowel de temperatuur als de proxy stijgen/dalen samen) of negatief gecorreleerd (als de een stijgt, daalt de ander). Beide zijn gevoelig voor de temperatuur en dus nuttig. Dus moeten we de proxy’s met een negatieve correlatie gewoon omdraaien.
- Gebruik een wiskundige methode, eenvoudig of ingewikkeld, om het gemiddelde te nemen van alle of een deelverzameling van de individuele proxy’s.
- Succes verzekerd.
Lijkt een redelijk idee. Zoek temperatuurgevoelige proxy’s en bereken het gemiddelde ervan om het verleden te reconstrueren. Dus … wat is er niet leuk aan? Om te beginnen is hier de beschrijving uit het artikel waarin de PAGES2K dataset wordt aangekondigd, getiteldA global multiproxy database for temperature reconstructions of the Common Era.
“Reproduceerbare klimaatreconstructies van het Gemeenschappelijk Tijdperk (1 CE tot heden) zijn essentieel om de opwarming van het industriële tijdperk in de context van natuurlijke klimaatvariabiliteit te plaatsen.
Hier presenteren we een database van temperatuurgevoelige proxygegevens uit het PAGES2k initiatief. De database verzamelt 692 gegevens van 648 locaties, waaronder alle continentale regio’s en grote oceaanbekkens. De gegevens zijn afkomstig van bomen, ijs, sediment, koralen, speleothems, documentair bewijsmateriaal en andere archieven. Ze variëren in lengte van 50 tot 2000 jaar, met een mediaan van 547 jaar, terwijl de temporele resolutie varieert van tweewekelijks tot honderdjarig. Bijna de helft van de proxy-tijdreeksen is significant gecorreleerd met de HadCRUT4.2 oppervlaktetemperatuur over de periode 1850-2014.”
PAGES2K heeft dus de eerste stap gezet in het maken van een op proxy’s gebaseerde temperatuurreconstructie. Ze hebben een groot aantal proxy’s verzameld en vastgesteld dat ongeveer de helft daarvan “temperatuurgevoelig” is op basis van hun overeenkomst met de HadCRUT oppervlaktetemperatuur.
Om te laten zien wat er niet goed is, heb ik groepen van 692 “pseudoproxy’s” gemaakt die overeenkomen met de grootte van de PAGES2K dataset. Dit zijn willekeurig gegenereerde imitatie “tijdreeksen” die beginnen in jaar 1, vergelijkbaar met de lengte van het PAGES2K. Ik heb ze zo gemaakt dat hun autocorrelatie ongeveer overeenkomt met de autocorrelatie van de temperatuurrecords, die vrij hoog is. Op die manier zijn ze “levensecht” en komen ze goed overeen met de echte temperatuurmetingen. Hier zijn de eerste tien van een willekeurige serie.
Figuur 4. Willekeurig gegenereerde pseudoproxy’s met hoge autocorrelatie, ook wel “rode ruis” genoemd.
Zoals je kunt zien, kunnen ze allemaal redelijkerwijs de temperatuurgeschiedenis van twee millennia van een denkbeeldige planeet weergeven. Hoe goed is hun correlatie met temperatuurwaarnemingen na 1850? Figuur 4 toont die gegevens.
Figuur 5. Correlaties van 692 willekeurige pseudoproxy’s met de Berkeley Earth moderne temperatuurwaarnemingen.
Dit is ongeveer wat we zouden verwachten: ongeveer de helft van de pseudoproxy’s toont een positieve correlatie met de waargenomen temperatuurgegevens, de andere helft heeft een negatieve correlatie en de meeste proxy’s hebben geen sterke correlatie met de temperatuur.
En hier is het gemiddelde van alle pseudoproxy’s:
Figuur 6. Gemiddelde, 692 pseudoproxy’s. De rode lijn toont het begin van de instrumentele gegevens van Berkeley Earth. Merk op dat er geen hockeystick is – integendeel, in dit geval heb ik, om vertekening van mijn resultaten te voorkomen, een reeks pseudoproxy’s gekozen waarvan het gemiddelde daalt aan het recente einde. Er is ook geen significante trend in de totale gegevens.
OK, dus we hebben de proxy’s en we hebben de correlatie berekend van elke proxy met het instrumentele record. Vervolgens heb ik, volgens stap 3 in de hierboven beschreven procedure, de proxy’s met een negatieve correlatie met de instrumentele gegevens omgedraaid (omgekeerd). Dat betekende dat alle proxy’s positief gecorreleerd waren met de gegevens van Berkeley Earth.
Op dit punt was ik van plan om te kijken hoe een gemiddelde eruit zou zien als ik alleen de pseudoproxy’s zou selecteren met een hoge correlatie met het instrumentele record, zeg 0,5 of meer … maar eerst dacht ik, zonder speciale reden, om te kijken naar een simpel gemiddelde van de hele dataset nadat ik de negatief gecorreleerde pseudoproxy’s had omgekeerd. Ik was stomverbaasd.
Figuur 7. Gemiddelde van alle pseudoproxy’s na simpelweg omkeren (inverteren) van degenen met een negatieve correlatie met de instrumentele gegevens.
Hier zien we waarom alle verschillende middelingsmethoden hetzelfde “historisch record” opleveren … omdat de hierboven genoemde procedure actief zoekt naar hockeysticks in willekeurige rode ruis.
Merk op dat het niet nodig is om de pseudoproxy’s die een negatieve correlatie met de temperatuur hebben om te draaien (inverteren). We kunnen hetzelfde hockeystick-resultaat krijgen door simpelweg alle negatief gecorreleerde proxy’s weg te gooien.
Een interessant detail van figuur 7 is dat er een scherpe daling is in het gemiddelde voor het begin van de periode die gebruikt wordt voor de correlatie. Ik neem aan dat dit komt doordat je voor zo’n grote stijging eerst naar een laag punt moet gaan.
En deze daling in het gemiddelde vanaf 1775 is interessant omdat je die kunt zien in zowel Paneel A als Paneel B van de PAGES2K reconstructies in Figuur 3 hierboven. Dezelfde daling na 1775 is ook zichtbaar in de MBH hockeystick in Figuur 1, hoewel deze horizontaal wordt uitgerekt door de verschillende tijdschalen van de MBH en PAGES2K grafieken.
Een ander punt van aandacht is dat de procedure een licht dalende trend heeft geïntroduceerd vanaf het begin tot een scherpe daling rond 1775. Ik wijt dat aan het feit dat de procedure de voorkeur geeft aan “U”-vormige datasets, maar dat ben ik maar.
In elk geval is de licht neerwaartse trend een echt effect van de procedure. Dat weten we omdat er geen neerwaartse trend is in de volledige dataset. We weten ook dat het een echt effect is om een tweede reden: we zien dezelfde licht neerwaartse trend in de originele MBH Hockeystick in Fig.1, en ook in Panel “a” van Figuur 2.
Tot slot, waarom is er zo weinig variatie in het “handvat” van de hockeystick? Zijn de temperaturen in het verleden echt zo stabiel?
Nee. Het is een ander artefact. Het handvat van de hockeystick is gewoon een gemiddelde van een vermoedelijk groot aantal willekeurige datasets met rode ruis. Als je het gemiddelde neemt van een aantal willekeurige datasets met rode ruis, krijg je een rechte lijn.
Mijn volgende gedachte was: hoeveel moet ik de pseudoproxies verstoren om een zichtbare hockeystick te krijgen?
Om dat te onderzoeken nam ik dezelfde originele dataset. In dit geval heb ik echter slechts 40 proxy’s omgekeerd, de proxy’s met de grootste negatieve correlatie. Ik heb dus alleen de sterkste negatieve signalen omgedraaid en de rest van de proxy’s met negatieve correlatie als onaangeroerde rode ruis achtergelaten. Dit is het resultaat.
Figuur 8. Gemiddelde van alle pseudoproxy’s na het omdraaien van de pseudoproxy’s met de top veertig van negatieve correlatie met de instrumentele data.
Merk op dat minder dan zes procent (veertig) van de pseudoproxy’s werden omgedraaid, en dat alle vier hockeystick-kenmerken al zichtbaar zijn: een recht handvat, een licht dalende trend tot 1775, een scherpe daling tot 1850, en een bijna verticale hockeystick “blade” vanaf 1850.
Hoe zit het aan de andere kant, waar we alleen die met de sterkste correlatie selecteren? Hier is het gemiddelde van alleen het bovenste kwart van de gegevens (176 pseudoproxy’s) zoals gemeten aan de hand van hun correlatie met de waargenomen temperatuur.
Figuur 9. Gemiddelde van alleen het bovenste kwart van de gegevens, die met de beste correlatie met de gegevens van Berkeley Earth.
Hetzelfde. Rechte handgreep op de hockeystick. Langzame daling tot 1775. Scherpe daling. Verticaal hockeystickblad daarna.
Uiteindelijk, na er een nachtje over te hebben geslapen, realiseerde ik me dat ik naar de best-case scenario’s had gekeken … maar hoe zit het met de worst-case? Dus hier is de helft van de pseudoproxy’s met de slechtste correlatie met de waargenomen temperatuur.
Figuur 10. Gemiddelde van alleen de onderste helft van de gegevens, die met de slechtste correlatie met Berkeley Earth gegevens.
Ondanks het gebruik van alleen de helft van de pseudoproxy’s met de slechtste correlatie met temperaturen, die met een correlatie van 0,22 of minder, krijgen we hetzelfde verhaal als eerder – dezelfde rechte hockeystickgreep, dezelfde lichte daling tot 1775, dezelfde scherpe daling tot 1850, en hetzelfde verticale hockeystickblad na 1850.
Nu is er een interessant en gemakkelijk te missen punt in de bovenstaande grafieken. Terwijl de vorm hetzelfde blijft: hoe groter de correlatie, hoe hoger het blad van de hockeystick. De verschillende procedures veranderden de punt van het blad van ~0,1 met slechts 40 omgedraaid, tot ~1,5 met de slechtst gecorreleerde pseudoproxies, tot ~0,3 met alle pseudoproxies omgedraaid, tot ongeveer ~0,7 met alleen de best gecorreleerde. Ze vertoonden dus allemaal dezelfde “hockeystick” vorm, en ze verschilden alleen in de grootte van het blad. Merkwaardig.
Ik heb hierboven gezegd dat deze post zou laten zien waarom het zowel waar als betekenisloos is dat verschillende studies allemaal hockeysticks opleveren. En ik zei hierboven dat ik zou laten zien dat de bewering van MBH fout was, waar ze zeiden dat het idee dat de procedure “hockeysticks genereert” “ongefundeerd” is.
De reden is heel duidelijk in de figuren hierboven te zien. Het maakt niet uit wat de onderzoekers doen, aangezien ze allemaal een variatie gebruiken van de standaardprocedure die ik bovenaan de post heb opgesomd, krijgen ze gegarandeerd een hockeystick. Daar ontkom je niet aan. Die procedure haalt absoluut en zeer effectief hockeysticks uit willekeurige rode ruis.
AMOC en kwaliteit
Fig.1
Zou u de kwaliteit van bovenstaande sleutel vertrouwen? Ik niet, en u ziet (hopelijk) wel waarom. Iets dergelijks overkwam me toen ik een artikel in de Volkskrant las over het stilvallen van de AMOC. De AMOC, Atlantic Meridional Overturning Circulation, is een systeem van oceaanstromingen dat water in de Atlantische Oceaan laat circuleren en warm water naar het noorden en koud water naar het zuiden brengt.
Fig.2 Bron: Johns et al 2023
Bovenstaande figuur is afkomstig van een recente publicatie over de AMOC en geeft op een juiste wijze (een deel van) de AMOC weer. Warmte wordt vanuit de Golf van Mexico richting Europa getransporteerd, en zakt voor de oostkust van Groenland als gevolg van temperatuur- en zoutverschillen naar de diepte. Daarna stroomt het afgekoelde water op grotere diepte naar het zuiden, richting zuidelijke Atlantische Oceaan, Indische Oceaan en Pacific. Op diverse plaatsen komt dat water weer aan de oppervlakte en stroomt terug richting Golf van Mexico, In de tropen wordt die stroom weer opgewarmd. De AMOC vormt zo ons grootste circulatiesysteem en verdeelt warmte (en koude) op aarde .
Maar wat heeft dat alles nu te maken met die sleutel van figuur 1? Een stukje van die AMOC, namelijk het warme deel voor de kust van Florida, heet Golfstroom of Gulf Stream. Zodra die de Mid Atlantische Rug gepasseerd is heet diezelfde zeestroom Noord-Atlantische Drift. ‘Een golfstroom’ in de zin van zeestroom bestaat dus niet. Maar in het Volkskrantartikel wemelt het van die ‘golfstromen’. Onzin dus. Maar er is nog meer onzin te zien:
Fig.3 Bron: Volkskrant
Figuur 3 is afkomstig uit het artikel in de Volkskrant. Ik vergelijk het noordelijk deel van de Atlantische Oceaan op dit kaartje met figuur 2. De rode (warme) zeestroom stroomt volgens de Volkskrant in het oostelijk deel van de Atlantische Oceaan, volstrekte onzin. En kijk eens naar die namen: Warme golfstroom en Koude golfstroom. Verschrikkelijk.
Fig.4 Bron: KNMI
Het KNMI doet het op haar website beter dan de Volkskrant: de kaartjes kloppen en Golfstroom wordt met een hoofdletter geschreven. Maar ook het KNMI gaat in de fout door regelmatig de ‘Warme Golfstroom’ van stal te halen (figuur 4).
Fig.5 Bron: Volkskrant
Maar nu naar de inhoud. De kop van het Volkskrant is alarmerend (let op die kleine letter ‘g’). Is dat terecht, moeten we ons zorgen maken? Het Volkskrantverhaal is gebaseerd op een recente paper van Stefan Rahmstorf (2024).
Rahmstorf heeft al vaker over het stilvallen van de AMOC geschreven, en baseerde zich daarbij o.a. op het werk van zijn collega Niklas Boers. Rahmstorf is mijns inziens een klimaatalarmist, en in zijn recente paper is hij weer goed op dreef. Centraal in zijn narratief is het bestaan van tipping points, waarna de AMOC zou instorten. Maar die tipping points zijn het resultaat van modellen, die evenzovele verschillende tipping points produceren.
Rahmstorf: “This brings us to an important question: Can we trust climate models on this? Generally, climate models have done a great job in predicting global mean temperatures.” Dat laatste is opmerkelijk, want peer reviewed publicaties in het recente verleden hebben aangetoond dat klimaatmodellen er vrijwel altijd weinig van bakken. Zie onder andere hier, hier en hier.
Rahmstorf verwijst naar gereconstrueerde fasen van AMOC instortingen, vooral tijdens “Heinrich Events” in de laatste ijstijd. In die tijd trokken grote hoeveelheden ijsbergen ver naar het zuiden, waar ze smolten en zo wellicht de AMOC tot stilstand brachten door verzoeting.
Alhoewel Rahmstorf zeker medestanders kent met betrekking tot zijn toekomstbeelden, worden die niet algemeen gedeeld door klimatologen en oceanografen:
In een recente paper van Zhou et al (mei 2024) in Science concluderen de onderzoekers dat de Groenlandse ijskap zich door het smelten terugtrekt van de kust, en de ijsbergafvoer niet lang genoeg aanhoudt om op zichzelf een grote verstoring van de AMOC te veroorzaken.
Worthington et al (2021) concluderen na onderzoek: “ … de tijdreeks laat geen algehele AMOC-afname zien zoals aangegeven door andere proxy’s en klimaatmodellen met hoge resolutie. Onze resultaten benadrukken dat het adequaat vastleggen van veranderingen in de diepe circulatie essentieel is voor het detecteren van antropogene klimaatverandering gerelateerde AMOC-afname.”
Fu et al (2020) concluderen: “De bestaande AMOC-waarnemingen op basis van arrays zijn echter niet lang genoeg om multidecadale veranderingen vast te leggen. Hier gebruiken we herhaalde hydrografische secties in de subtropische en subpolaire Noord-Atlantische Oceaan, gecombineerd met een invers model dat is gebaseerd op satelliethoogtemetingen, om gezamenlijk de AMOC en hydrografische veranderingen van de afgelopen drie decennia te analyseren. We laten zien dat de AMOC-status in het afgelopen decennium niet duidelijk verschilt van die in de jaren 1990 in de Noord-Atlantische Oceaan, met een opmerkelijk stabiele verdeling van de subpolaire omwenteling die zich vooral voordoet in de oostelijke bekkens in plaats van in de Labradorzee.”
Amy Browser, oceanograaf aan het Woods Hole Oceanographic Institution, tekende in 2021 naar aanleiding van een recente AMOC paper van Niklas Boers, collega van Rahmstorf:
“While Boers’ study is interesting, it is one man’s opinion. We don’t have direct observations (of temperature, salinity and other environmental conditions) that are long enough to corroborate his conclusions”.
Boers himself acknowledged this in his paper, expressing concern about only two decades of direct observations and the concern that long-term natural cycles and other causes could be affecting the data. He said that they were insufficient on their own to “infer climatological AMOC weakening and a contribution by anthropogenic (human) climate change.” But he thinks that using computer modeling and other data using ice and sediment coring revealed the “fingerprints of a weakening AMOC over the last 150 years.”
While Bower appreciated the effort to use modeling and other proxies to reach his conclusions, she thinks the uncertainty was too high to say the AMOC was nearing shutdown. The AMOC is a complicated system and answers don’t come easy, Bower said.”
MetOffice in GB noteert: “Oceanographers have been measuring the AMOC continuously since 2004. The measurements have shown that the AMOC varies from year to year, and it is likely that these variations have an impact on the weather in the UK. However it is too early to say for sure whether there are any long term trends. Before 2004 the AMOC was only measured a few times..”
Fig.6 Bron: KNMI
De korte periode dat de AMOC gemeten wordt op 26,5 NB (2004 tot heden) levert de grafiek van figuur 6 op. Tussen 2004-2010 is er inderdaad sprake van een daling, maar vanaf 2010 niet meer. De data zijn afkomstig van het project RAPID, waarbij boeien op 26,5 NB rechtstreeks de verschillende stromingen meten die samen de AMOC vormen. De stromingen worden gemeten in de Golfstroom, een ander deel is het Ekman transport (wind aangedreven), en tot slot de zuidwaartse retourstroom van verschillende lagen koud water. Deze drie componenten vormen samen de AMOC, zie de rode tijdreeks in de figuur hieronder.
Fig.7 Bron: RAPID
Alleen de aanvoer van warm water door de Gulf Stream is in de loop van de meetperiode iets afgenomen, alle andere stromen zijn stabiel. Rood met zwarte lijn is de AMOC.
Fig.8 Bron: Johns et al 2023
De alarmistische visies op de AMOC vinden hun oorsprong in modellen die t.b.v. het IPCC zijn gemaakt. Figuur 8 is afkomstig van de paper van Johns et al, maar stamt van origine uit het AR6 rapport van het IPCC.
Voor de duidelijkheid heb ik met een groen blok aangegeven in welke periode er systematisch aan de AMOC gemeten is (vanaf 2004 tot heden). De lijn vóór 2004 en alle lijnen na 2022 zijn de resultaten van modellen die ingezet zijn.
Fig.9 Bron: KNMI
Op de website van het KNMI (figuur 9) is te lezen dat er een enorme inspanning verricht is om de sterkte van de AMOC te meten. Wij weten nu dat dat meten pas in 2004 gestart is. De hindcast van vóór 2004 en alle forecast van ná 2022 is het werk van modellen. Bovendien is ook de tekst op de AMOC pagina’s van het KNMI te alarmistisch. Het KNMI gaat daarmee voorbij aan de grote onzekerheden die in de wetenschappelijke wereld leven met betrekking tot het mogelijk instorten van de AMOC.
Conclusie: de meetgegevens van de AMOC laten zien dat die stabiel is, er is geen sprake van ‘instorting’. Sommige wetenschappers lijken er plezier in te hebben om gewone burgers angst aan te jagen. En helaas werken sommige journalisten daar graag aan mee. Die wetenschappers zouden zich meer moeten verlaten op meetgegevens en wat minder vertrouwen moet hebben in modellen. Zijn er onvoldoende meetdata? Dan zijn harde conclusies onmogelijk. Van het KNMI zou ik mogen verwachten dat er 100% objectief bericht wordt. Dat lukt helaas niet altijd.
Klimaatstreepjescode
Fig.1 Bron: KNMI
“Visualisatie van data is een krachtige manier om informatie over te brengen. ‘Warming stripes’, een klimaatstreepjescode, laat zowel de jaar-op-jaar variaties als de opwarming van het klimaat goed zien.” Zo begint de uitleg van het KNMI bij de eerste klimaatstreepjescode die werd toegepast. Figuur 1 toont die code voor De Bilt voor 1901-2023, waarbij het koudste jaar 1963 zeer donkerblauw is (gemiddelde temperatuur 7,8 °C) en 2023 zeer donkerrood (11,8 °C).
Fig.2 Bron: WUWT
Die van-blauw-naar rood streepjes zijn bedacht door prof Ed Hawkins van de University of Reading. Figuur 2 toont de streepjescode volgens Hawking voor de aardse temperatuur van 1850-2023. Deze grafiek is gebaseerd op Hadcrut5 data (anomalieën), waarbij het temperatuurverschil tussen het koudste jaar (1904) en het warmste jaar (2023) ongeveer 1,5 °C. is. Identieke kleuren in de figuren 1 en 2 betekenen dus niet identieke temperaturen. Het is een soort elastische schaal, waarbij het donkerste blauw het koudste jaar vertegenwoordigt en het donkerste rood het warmste jaar.
Zo’n klimaatstreepjescode is dus vooral een visueel ‘hulpmiddel’ en geeft geen exacte informatie. Maar is dat erg? Anthony Watts en Charles Rotter schreven vandaag een mooi artikel op de populaire klimaatsite WhatsUpWithThat over die klimaatstreepjescode. Ze schrijven: “Ziet er onheilspellend uit, toch? Dat is precies wat ze willen dat je denkt. Dit is geen klimaatwetenschap, dit is visuele propaganda voor leunstoelklimatologen aka klimaatactivisten.” Door die elastische schaal van donkerblauw naar donkerrood is er nauwelijks sprake van informatie-overdracht en veel meer van beeldvorming.
Deze visuele campagne van professor Ed Hawkins heeft als doel om “gesprekken op gang te brengen over onze opwarmende wereld en de risico’s van klimaatverandering“. Dat heeft hij gedaan, maar zoals veel klimaatalarmisten laat hij slechts een piepklein deel van de temperatuurgeschiedenis van de aarde zien. Dat laatste doen Watts en Rotter wel:
Fig.3 Bron: WUWT
Figuur 3 toont de klimaatstreepjescode voor een periode met een geologische tijdschaal, het Cenozoïcum. Dat omvat het Tertiair (66 – 2,6 mln jaar BP) en het Kwartair (2,6 mln jaar BP – heden). Het aardige van figuur 3 is dat als je die periode van 66 mln jaar vergelijkt met de grafieken 1 en 2 (met een lengte van respectievelijk 123 en 174 jaren) het beeld omgekeerd is. Het laat zien dat het in het geologische verleden veel warmer was en we ons nu in een koele periode bevinden (op weg naar een nieuwe ijstijd).
Fig.4 Bron: WUWT
Figuur 4 toont dezelfde Cenozoïsche klimaatstrepen, maar nu met δ18O-waarde als temperatuurproxy (reconstructies van temperatuur) erop geplot, afkomstig van Hansen et al., 2008. Met behulp van de data van Hansen is nu af te lezen dat het temperatuurverschil in de afgelopen 66 mln jaar meer dan 18 °C was, van het warmste streepje zo’n 51 mln jaar geleden tot het –meest recente- koudste streepje.
Men zou kunnen tegenwerpen dat die aan de mens toegeschreven opwarming van de laatste decennia in de grafieken van figuur 3 en 4 niet te zien is/zou zijn vanwege het verschil in horizontale schaal. Dat klopt, de horizontale as van het Cenozoïcum heeft noodzakelijkerwijs een veel lagere resolutie. Maar bedenk dat dat resolutieverschil geldt voor alle 66 miljoen jaren. Hadcrut5 non infilled geeft voor de periode 1850-2023 een globale temperatuurstijging van ruim 1 °C. Hoeveel van die relatief korte (174 jaren) periodes met een temperatuurstijging van 1 °C zijn er dus niet te zien in de grafiek van figuur 4 vanwege die lage resolutie?
Clintel congres
Gisteren was ik op het congres van de stichting Clintel. Een prima dag, en zoals dat dan gaat veel mensen ontmoet. Goede sprekers ook, vooral (wat mij betreft) met name Hessel Voortman over de zeespiegel en Willie Soon over merkwaardige homogenisatietechnieken en de ondergewaardeerde zon.
Na afloop interviewde Jim Ferguson de hoofdrolspelers van het congres. Willie Soon op 5:00 en Hessel Voortman op 14:20. Een mooie dag!
https://x.com/JimFergusonUK/status/1803403052067504560
Urban Heat Island effect in Nederland
Het UHI effect zorgt in stedelijke omgevingen voor een (geleidelijk toenemende) verhoging van de temperatuur als gevolg van bebouwing en menselijke activiteiten. Moet daar voor gecorrigeerd worden in de temperatuurdata? Ik denk van niet, officiële temperatuurmetingen tonen immers de luchttemperatuur ter plekke, ongeacht de processen die daaraan ten grondslag liggen. Sommigen vinden echter dat de enige goede metingen die zijn die in een rurale omgeving gedaan worden. Maar dat is onjuist. In de eerste plaats omdat behalve rurale ook urbane omgevingen tot de leefwereld behoren, ze ‘horen erbij’. In de tweede plaats om dat ook urbane gebieden beïnvloed worden door allerlei menselijke activiteiten zoals veranderend bodemgebruik.
Fig.1 Bron: RIVM
Twee jaren gelden heb ik een artikel geschreven over het UHI effect. Alles wijst er op dat vanwege de sterke verstedelijking van Nederland en de ruimtelijke versnippering van die verstedelijking veel gebieden in Nederland beïnvloed zijn door het UHI. Dat toont ook de interessant interactieve kaart “Stedelijk hitte-eiland effect (UHI) in Nederland” uit 2017 die het RIVM en VITO (Vlaams Instituut voor Technologisch Onderzoek) gezamenlijk hebben uitgegeven (figuur 1). De kaart kunt u vinden in de Atlas Natuurlijk Kapitaal.
De RIVM kaart met cellen van 10x10m geeft het stedelijk hitte-eiland effect (UHI) weer, het gemiddelde luchttemperatuurverschil tussen de stedelijke en omliggende landelijke gebieden in °C Uit onderzoek blijkt dat het UHI-effect op stadsniveau op basis van twee variabelen goed te voorspellen is: bevolkingsdichtheid in de stad en binnen een straal van 10 km rondom de stad, en de windsnelheid op 10 meter hoogte. Op basis van deze twee variabelen werd een vernuftig model gemaakt om de maximale UHI in een stad te bepalen. Wie wil weten hoe men dat gedaan heeft verwijs ik naar het artikel uit 2022.
Toch kan het UHI effect ongewenste invloed hebben op temperatuurdata. Dat gebeurt als men de gemiddelde temperatuur van een groter gebied wil weten, bijvoorbeeld de gemiddelde temperatuur van Nederland. Dan is de ruimtelijke spreiding van de meetstations bepalend voor de uitkomst wat de gemiddelde temperatuur is. In extremis: als alle KNMI meetstations zich in steden zouden bevinden zou de gemiddelde temperatuur in Nederland te hoog zijn, omdat je dan alle niet-verstedelijkte gebieden veronachtzaamt.
Fig.2 Data: RIVM
Hoe zit dat in Nederland? Ik heb eerst voor de 34 automatische KNMI stations de exacte ligging bepaald en daarna aan de hand van de RIVM kaart bepaald hoe groot het UHI effect in elk station was. Ik vergeleek dat met de aantallen gridcellen (10x10m) per UHI-klasse, die ik via het RIVM kreeg.
Fig.3 Data: RIVM
Figuur 3 links laat zien dat 9,8 % van het Nederlandse landoppervlak sterk door het stedelijk hitte-eilandeffect verwarmd wordt, van 0,6 °C tot meer dan 2 °C op jaarbasis. Die cellen bevinden zich alle in de centra van de grotere steden in ons land, waar zich geen meetstations (meer) bevinden. Bekijken we de percentuele verdeling van de 3 laagste klassen (tot 0,6 °C) in figuur 3links en vergelijken we die met de percentuele verdeling van de stations in figuur 3 rechts, dan is te zien dat de weerstations oververtegenwoordigd zijn in de gebieden met 0,2 – 0,4 °C en 0,4 – 0,6 °C stedelijke opwarming, ondervertegenwoordigd zijn in de gebieden met geen tot weinig UHI-effect en afwezig zijn in gebieden met het sterkte UHI-effect. Dat wijst er op dat de berekende gemiddelde temperatuur van Nederland waarschijnlijk te hoog is. Correctie is vereist lijkt me.
Ik begon dit artikel met te stellen dat temperatuurmetingen de luchttemperatuur ter plekke weergeven, ongeacht de processen die daaraan ten grondslag liggen (er natuurlijk van uitgaande dat de meetapparatuur deugt). Daarom zou homogenisatie van een temperatuurreeks onnodig en dus ongewenst zijn. Toch doen organisaties zoals het KNMI dat graag, dat homogeniseren. Niet omdat de meetdata van een locatie ‘onjuist’ zouden zijn, maar om van twee verschillende meetreeksen één reeks te maken. Lange reeksen, daar houden ze van. En dan verdwijnen plotseling veel oude hittegolven, maar daar is al veel over geschreven en te weinig (niets) mee gedaan.
Lente 2024 ontleed
Het KNMI schrijft: “Deze lente was de warmste sinds het begin van de metingen. Met een gemiddelde temperatuur van 11,8 °C was deze lente bijna 2 graden warmer dan normaal. Het was ook zeer nat, de op één na natste lente sinds het begin van de metingen. Alleen maart was droog en mei was juist recordnat.” Tijd voor een paar bespiegelingen over de afgelopen lente in Nederland.
Fig.1 Data: KNMI
De grafiek van figuur 1 laat het verloop zien van de gemiddelde lentetemperatuur sinds 1901 in De Bilt. Waardoor de lente van 2024 de warmste werd is – zoals de meeste klimatologische vragen- niet met enkele zinnen te beantwoorden. Een tip van de sluier kunnen we oplichten door niet alleen naar de gemiddelde temperatuur te kijken maar ook naar de gemiddelde dagelijkse minimumtemperatuur en de gemiddelde dagelijkse maximumtemperatuur gedurende de lente.
Fig.2 Bron: KNMI
Figuur 2 laat zien dat met name de minimumtemperatuur (TN) in 2024 veel hoger was dan normaal. De maximumtemperatuur was weliswaar hoog maar niet opvallend vergeleken met de afgelopen jaren. Die opvallend hoge minimum temperatuur zorgde er voor dat de gemiddelde temperatuur (TG) zo hoog uitvalt. Zoals men in de grafiek kan zien vertonen de lentetemperaturen van 1901 tot eind jaren ’80 geen trend. Rond 1989 vindt er een opvallend grote sprong plaats. Die sprong heeft alles te maken met een verandering in de luchtcirculatie boven West Europa, waardoor meer zachte lucht ons land bereikt. Zie o.a. hier. Over die luchtcirculatie verderop meer.
De minimumtemperatuur gedurende een etmaal wordt meestal aan het einde van de nacht bereikt: ’s nachts is er wel sprake van uitstraling (=afkoeling) maar ontbreekt de input van zonne-energie. Die uitstraling van warmte richting de ruimte wordt gehinderd door broeikasgassen en wolken, die de uitgestraalde warmte grotendeels absorberen en meteen weer naar alle kanten uitstralen, dus ook naar beneden.
Fig.3 Data: KNMI
In de grafiek van figuur 3 is goed te zien hoe een en ander in zijn werk gaat. Het betreft de stralingssituatie gedurende 5 zomerse dagen in 2008. Ik heb de grafiek gemaakt op basis van de 10-minuten metingen van station Cabauw Mast, waar voortdurend straling wordt gemeten.
De grijze lijn is de inkomende zonnestraling die tot maximaal 750 W/m2 groot is (juli!). De oranje lijn is de LWU, warmtestraling omhoog, de blauwe lijn de warmtestraling die door broeikasgassen en wolken naar beneden gezonden wordt (LWD). Op 4 juli is de LWU maximaal 470 W/m2 (opwarmend aardoppervlak zendt veel warmtestraling uit) en de LWD ongeveer 370 W/m2. De afkoeling door langgolvige straling is het verschil tussen LWU en LWD, ongeveer 100 W/m2. Aan het verloop van de grijze lijn is te zien dat het op die dag onbewolkt is.
En kijk nu eens wat er de dagen daarop gebeurt. De grijze lijn laat zien dat er steeds meer wolken voor de zon schuiven. Op 8 juli is het zwaar bewolkt, op die dag zijn LWU en LWD ongeveer even groot, 400 W/m2. Dat laatste betekent dat vanwege het dichte wolkendek afkoeling door straling onmogelijk geworden is. Dat kennen we wel uit de praktijk: bewolkte nachten koelen nauwelijks af.
Fig.4 Data: KNMI
Die sterke bewolking is mijns inziens een belangrijke oorzaak van het feit dat de gemiddelde minimumtemperatuur van de afgelopen lentemaanden zo hoog was. Heel veel dagen met regen en alsmaar regen betekent ook heel veel dagen met veel bewolking. De broeikasgassen spelen natuurlijk in het algemeen wel een rol, maar zijn geen verklaring voor die opvallende hoge minimum temperaturen in de lente van 2024. Broeikasgasconcentraties veranderen maar langzaam en niet abrupt.
Fig.5 Data: KNMI
Een andere aanwijzing voor de relatief hoge bewolkingsgraad is het beperkt aantal zonuren dat we tijdens de lentemaanden van 2024 gemeten hebben. Die zonuren worden vooral bepaald door bewolking. Sinds 2000 is er maar 1 jaar geweest met zo weinig zonuren in de lente als 2024. Het aantal zonuren in de lente van 2024 ligt zelfs iets lager dan het gemiddelde van 497 zonuren over de gehele periode 1901-2024 (rode lijn in figuur 5).
Fig.6 Data KNMI
Figuur 6 laat heel duidelijk zien dat er met de bewolking in de lente 2024 wat bijzonders aan de hand was. De bewolkingsgraad wordt aangegeven in achtsten. De reeks van De Bilt begint in 1951. Van de 74 lentes die sinds 1951 verstreken zijn was die van 2024 verreweg het sterkst bewolkt!
Een andere factor van betekenis is de luchtcirculatie. Hoogeveen en Hoogeveen toonden door het toepassen van lineaire regressie in 2022 aan dat de opwarming van Nederland vanaf 1961 voor 85% verklaarbaar is door een veranderende luchtcirculatie. Daarvoor maakten ze gebruik van een slim systeem waarbij voor elke dag niet alleen het brongebied van de luchtmassa werd bepaald, maar ook de door de lucht gevolgde route naar Nederland en de duur van de tocht.
Omdat ik niet in staat ben om hun methodiek zomaar eventjes toe te passen op de afgelopen lentes heb ik (second best) gebruik gemaakt van de vectorgemiddelde windrichting in De Bilt. Vanaf 2000 ziet dat er zo uit:
Fig.7 Data: KNMI
De lente van 2024 valt onmiddellijk op: er waren bijna geen dagen met wind uit het NO en veel dagen met wind uit het ZW. Dat heeft uiteraard gevolgen gehad, niet alleen voor de temperatuur, maar ook voor de neerslag, bewolkingsgraad en aantal zonne-uren. Alles hangt met alles samen. Als we de maritieme en continentale windrichtingen uit de grafiek van figuur 7 halen is het duidelijk: de lente van 2024 heeft veel maritieme dagen en weinig continentale:
Fig.8 Data: KNMI
Tot slot: het weer van de afgelopen maanden heeft in de media gezorgd voor allerlei, soms exotische speculaties. Ik heb me in dit artikel gehouden bij wat we hebben gemeten. Dat wil natuurlijk niet zeggen dat dit een volledige verklaring is van de opvallende weersituatie van de laatste tijd, maar het helpt denk ik de zaak duidelijk te krijgen.
Dat doet me denken aan Occam’s razor. Occam’s razor (het scheermes van Occam), ook bekend als de ‘wet van de spaarzaamheid’, is een filosofisch hulpmiddel om onwaarschijnlijke verklaringen ‘af te schaven’. Het komt erop neer dat wanneer er concurrerende verklaringen zijn voor hetzelfde fenomeen, de eenvoudigste waarschijnlijk de juiste is.