Willis Eschenbach publiceerde onlangs op de bekende klimaatwebsite WhatsUpWithThat een opzienbarend kijkje achter de schermen van klimaatmodellen. Op liever gezegd: vóór de schermen. Want hij beschouwde de extreem complexe modellen simpelweg als black box, met een input en een output, bekend van systeemdenken. Hij extrapoleerde die input en output en liet zien dat de output van elk klimaatmodel te ‘vangen’ is door een simpele formule. Kijk s.v.p. daar eerst naar voordat u verder leest.
Nu komt de Nederlander Dr. Ad Huijser, met wie ik regelmatig correspondeer, met een vervolg op het artikel van Eschenbach dat gisteren gepubliceerd is op WUWT onder de titel Outside the black box. De bevindingen van Huijser zijn minstens even spectaculair en de uitkomst is te lezen in de titel van zijn stuk. Het is een technisch verhaal maar zeer de moeite waard. Lees onderstaande Nederlandse bewerking van zij verhaal in WUWT:
Waarom klimaatmodellen geen voorspellende waarde hebben
Een van de belangrijkste argumenten die het IPCC met haar Antropogene Global Warming (AGW) hypothese hanteert om ons te overtuigen van de voorspellende waarde van klimaatmodellen, is de claim dat die modellen uitstekend in staat zijn om het temperatuurverloop sinds het pre-industriële tijdperk te berekenen.
Er zijn heel wat discussies al gevoerd over dit onderwerp, maar voor de geïnteresseerde leek zijn en blijven dit soort uiterst complexe klimaatmodellen niet meer dan de bekende “Black Box” waarvan je maar moet geloven dat de uitkomst op basis van wat men erin stopt, ook daadwerkelijk klopt.
Op basis van een bijdrage van Willis Eschenbach op de bekende website WattsUpWithThat, waarin hij via een simpele recurrente betrekking tussen temperatuurverandering en forcing liet zien dat hij daarmee uitstekende dekking kon krijgen van het temperatuurverloop van de afgelopen 1½ eeuw en datgene wat uit dit soort met supercomputers gegeneerde uitkomsten van dit soort complexe klimaatmodellen (Global Circulation Models) kwam, kreeg ik het idee die betrekking niet te gebruiken voor curve-fitting, maar als CMC: Climate Model Checker. De achtergrond van die recurrente betrekking is namelijk de fundamentele behoudswet van energie voor het Aardse klimaatsysteem uitgedrukt als:
C∂T/∂t = Straling “in” – Straling “out” (1)
Hierin is T de gemiddelde oppervlaktetemperatuur, t de tijd, C de warmtecapaciteit van het klimaatsysteem, Straling “in” de binnenkomende zonnestraling en Straling “out” de langgolvige infraroodstraling die de opgewarmde Aarde uiteindelijk de ruimte in straalt. De AGW-hypothese volgt simpel uit deze vergelijking: meer CO2 verminderd de Straling “out” waardoor de ontstane stralingsonbalans in de rechter term van (1) hersteld kan worden door een verhoging van de temperatuur. Zo’n onbalans, in dit geval veroorzaakt door een broeikasgas als CO2 heet “forcing” en wordt uitgedrukt in W/m2. Voor de verdubbeling van de CO2 concentratie is dat zo’n 3 W/m2, en u moet dat vergelijken de 240 W/m2 (de Straling “in”) die we gemiddeld aan zonnestraling ontvangen. Dat is dus niet meer dan een hele kleine verstoring en dan kan je vergelijking (1) op basis van zo’n verstoring ook schrijven als een recurrente betrekking waarin we kijken naar de tijdsafhankelijke relatie tussen temperatuur T(t) en de forcing F(t) op de, op eenheidsafstand van elkaar liggende tijdsmomenten …. n-1, n, n+1, n+2 …n+m. Dat levert dan het volgende, eenvoudig algoritme:
Tn+1 = Tn + λ (Fn+1 – Fn)(1 – exp (-1/τ)) + (Tn – Tn-1) exp(-1/τ) (2)
Hierin is τ een specifieke tijd gekoppeld o.a. aan de capaciteit C en λ een factor die de klimaatgevoeligheid voor forcings aanduidt. Voor die tijdseenheid nemen we in de rest van dit verhaal 1 jaar. Als je het verloop van de forcings op jaarbasis kent, een maat voor λ en τ hebt, kan je hiermee zowel voorspellen als in de tijd terugkijken wat de jaarlijkse, gemiddelde Aardse temperatuur zal doen, dan wel in het verleden gedaan heeft. Wat Eschenbach nu deed was een waarde voor λ en τ vinden waarmee de GCM berekeningen met deze formule (2) maximaal dekkend te krijgen was. Dat lukte hem uitstekend en dat was kennelijk zijn doel van die exercitie.
Maar de kracht van deze recurrente betrekking reikt veel verder dan “curve-fitting”. Ik noem dat het “Climate Model Cheking (CMC) vermogen. Klimaatmodellen als GCM’s werken niet met forcings, maar fysieke verandering als bv. concentratie variaties van broeikasgassen in de atmosfeer en berekenen vervolgens allerlei vervolg-effecten, 3-dimensionaal en in de tijd, zoals temperatuur, druk, luchtvochtigheid, wolkenvorming etc., via o.a. de Navier-Stokes vergelijkingen, analoog aan weerprogramma’s. Die gevolgen worden vervolgens weer omgerekend in “forcings” door stapsgewijze veranderingen aan te brengen van individuele parameters of combinaties daarvan. Dat is heel veel werk en kost veel computerpower. Maar die “forcings” die zij dus zo berekenen moeten natuurlijk wel voldoen aan vgl. (2), want ook GCM’s moeten voldoen aan basale fysische wetten als behoud van energie.
Nu is er in de loop der jaren een aantal opvolgende generaties GCM ontwikkeld door een groot aantal klimaatgroepen, steeds gecompliceerder en “dus” perfecter (althans dat zou je verwachten). Al die klimaatmodellen, veel meer dan 100 inmiddels, zijn in de loop der jaren onderling in een internationaal consortium, steeds vergeleken middels het Climate Model Intercomparison Project (CMIP) en vandaar dat we de generatie CMIP3, CMIP5 en CMIP6 kennen. De laatste generatie staat aan de basis van het meest recente IPCC-rapport en voorspelt weer een grotere opwarming dan de CMIP5 modellen die weer “warmer” waren dan de CMIP3 generatie.
Op de website van de klimaatgroep van NASA/GISS kan je de tijdsafhankelijke forcings behorende bij hun CMIP5 en CMIP6 modellen vinden voor de periode sinds 1850-1860 en bij CMIP6 zelfs ook de projecties voor de periode tot 2100. Dat geeft middels vergelijking (2) de mogelijkheid de redelijkheid daarvan te checken, niet alleen onderling, maar ook met atmosferische gegevens uit het recente verleden en de daarop gebaseerde forcings die ons klimaat tot nu toe beïnvloed hebben.
Maar voor zo’n vergelijking hebben we natuurlijk wel waardes voor λ en τ nodig, waarvan die voor τ, de relaxatietijd van ons klimaatsysteem de makkelijkste is. Ieder klimaatwetenschappelijk tekstboek laat zien dat die op basis van de diepte van de zgn. “ocean mixed layer”, ergens tussen de 3 en 5 jaar moet zijn. Ik heb 4 jaar als standaard genomen, waarbij overigens (niet verwonderlijk) een variatie tussen 3 en 5 nauwelijks van invloed bleek te zijn op de resultaten.
Voor λ ben ik gestart met de inverse van de zgn. Planck feedback parameter die automatisch volgt uit vgl. (1) voor stralingsevenwicht en in absolute grootte gelijk is aan 4(1-a)Φ0/TS0 . Daarin is de gemiddelde Aardse albedo a = 0.3, de gemiddelde zonne-intensiteit Φ0 = 340 W/m2 en de gemiddelde oppervlaktetemperatuur TS0 = 288 K. Dat maakt λ = 0,3 K/W/m2 een prima keuze. Dat is echter onder evenwicht, en bij forcings hebben we ook te maken met de dynamische opwarming waarbij m.n. de waterdampconcentratie toeneemt. En als belangrijkste broeikasgas heeft dat wel degelijk invloed op die klimaatgevoeligheidsfactor λ. Om daarvoor te corrigeren heb ik het online beschikbare MODTRAN-klimaatmodel van de universiteit van Chicago gebruikt waarin je bv. de gassamenstelling, het verticale temperatuurprofiel van de atmosfeer, wel of geen bewolking kunt variëren, en je de daaraan gekoppelde forcing en/of oppervlaktetemperatuur kunt berekenen. MODTRAN heeft als basis een uitgebreide bibliotheek van de spectrale eigenschappen van gassen en rekent dat op lijn-voor-lijn-basis en met alle noodzakelijk lijnverbredingen etc., fysisch correct door. Het is internationaal veel gebruikt, ook in klimaatmodellen en geeft reproduceerbare/betrouwbare resultaten.
Als je daarin voor de US Standaard Atmosphere (een goed globaal gemiddelde voor onze atmosfeer inclusief verticaal temperatuurprofiel), met een gemiddeld bewolkte hemel en bij een constante relatieve vochtigheid, een verdubbeling van de CO2 in voert, krijg je een λ = 0,34 K/W/m2. Die laatste is weer wat anders als de relatieve vochtigheid verandert, maar altijd blijkt die waarde net iets hoger te liggen dan de theoretische inverse van de Planck feedback en heb om praktische reden gekozen om mijn berekeningen verder te doen met λ = 0,345 K/W/m2 m.n. om niet beticht te kunnen worden van een te kleine klimaatgevoeligheid en om consistent te zijn met andere waarden uit MODTRAN die ik later gebruik. Voor de conclusies maakt het evenwel niets uit.
In fig. 1 heb ik de temperatuurberekeningen m.b.v. vgl. (2) gedurende het tijdvak 1850-2020 op basis CMIP5 en CMIP6 forcing reeksen van NASA/GISS uitgezet met als referentie de laatste globale temperatuurreeks HadCrut v5 van het Britse MetOffice als mondiale standaard. Let op, dit zijn de anomalieën t.o.v. de temperatuur 1860-1880.
Fig. 1 CMC berekening op basis van CMIP5 & 6 forcings, i.v.m. HadCrut v5 temperatuur reeks
Fig. 2 CMIP5 and CMIP6 forcings, zowel “total forcings” als de forcing door de well-mixed greenhouse gassen (WMGHG)
De grote “dips” die u ziet zijn een gevolg van bekende vulkaanuitbarstingen waarbij veel aerosolen vrijkomen die een koelende werking hebben op het klimaat. De bijbehorend forcings zijn grafisch zichtbaar in fig.2. als scherpe pieken die door de relaxatietijd τ in fig. 1, aanzienlijk zijn afgevlakt. Waar CMIP5 forcings nog een redelijk goede overeenkomst opleveren, zijn de forcings uit CMIP6 niet in staat om de bestaande metingen adequaat te volgen.
Dat er tussen de forcings van verschillende generaties verschillen optreden kan je verwachten als gevolg van voortschrijdend inzicht. M.n. in de “natuurlijke” forcings, maar eigenlijk niet in die van de broeikasgassen waarvan we de historische concentraties redelijk goed kennen, evenals het effect van de bijbehorende forcings. Nu bevatten die verschillende generaties modellen natuurlijk de nodige wijzigingen/verbeteringen die verschillend uitwerken op de diverse forcings. Maar als je dat constateert, kan je niet zonder daar een gefundeerd oordeel over te vellen, een dergelijk verschil klakkeloos accepteren. Je kan niet het model veranderen/verbeteren, het geheel vervolgens door “tuning” kloppend maken met de historische meetreeks en dan de forcings maar als “toevallige” uitkomst accepteren. Immers, die forcings moeten, zoals eerder uitgelegd, ook voldoen binnen het CMC-model. En als dat laatste geen overeenkomst oplevert met de gemeten reeks, is dus per definitie het model fout, hoe mooi en ingewikkeld het ook is. Als je dat soort fysisch wetenschappelijke grondbeginselen aan je laars lapt, kan je “van alles” bewijzen.
Maar om een verschil zoals in fig. 2 van 1 W/m2 op een gemiddelde van 2,5 W/m2 te kunnen accepteren lijkt hoe dan ook een redelijke verklaring dan wel discussie daarvan, op z’n plaats. Daar heb ik helaas in de bijgaande artikelen ter verantwoording van die klimaatmodellen door het NASA/GISS team, niets van kunnen vinden, terwijl toch alle alarmbellen hadden moeten afgaan.
Fig. 3 CMIP6 forcings (rode curve) vs alternatieven en geconstrueerde bijdragen (andere kleuren, zie tekst )
En dan is een eigen analyse van de achterliggende data de enige weg om enig inzicht te krijgen. Omdat CMIP6 de meest recente is, heb ik die nader geanalyseerd en wel voor het deel dat de forcing door broeikassen (WMGHGs) bestrijkt (zie fig. 3). Daarin nogmaals de grote, onverklaarbare verschillen tussen CMIP5 en CMIP6 forcings, maar ook de CMIP6 forcings (dikke rode lijn) zijn op zich al tamelijk vreemd. M.n. de plotselinge sterke stijging rond 1970 waarvan niet duidelijk is welk broeikasgas dat veroorzaakt, omdat ze in hun database daarin geen opsplitsing maken. NASA/NOAA heeft echter ook een website waar je die opdeling wel kunt vinden middels de zgn. Annual Greenhouse Gas Index (AGGI). Helaas is die er slechts voor de jaren na 1980, precies waar de vreemde bult begint, maar ze geven wel enig inzicht in de verdeling daarna (dunne rode lijnen), “doorgetrokken” voor de CO2 component, “gestreept” voor de CH4 bijdrage en “gestippeld” voor “de rest”, bestaande uit NO2 en CFK’s. De CO2 en CH4 bijdrages zijn goed in lijn met hun respectievelijke concentratie verloop sinds 1850 en een broeikassterkte op basis van de algemeen gebruikte waardes volgens Myhre et al spectrale berekeningen uit 1998 (dikke groene lijn voor CO2, en groene streepjeslijn voor extra CH4). Voor die broeikassterkte van F2xCO2 = 3,7 W/m2 is inmiddels door o.a. Happer en VanWijngaarden een aanzienlijk lagere waarde van 3,0 W/m2 berekend op basis van een grondige spectrale analyse. Hun uitkomst is nagenoeg identiek aan de MODTRAN-simulatie onder nagenoeg gelijke condities van een heldere hemel. In geval van bewolking, die deels het effect van broeikasgassen afschermt, is dat effect met ongeveer 2,4 W/m2, nog aanzienlijk kleiner. Kijk je met dat getal naar het verloop van de CO2 concentratie dan ligt die forcing (oranje lijn) aanzienlijk beneden het CMIP6 niveau. Simuleer ik met MODTRAN het verloop sinds 1850 van CO2 en CH4, van 280 ppm en 800 ppb respectievelijk tot 414 ppm en 1880 ppb in 2020, dan kom ik integraal tot een forcing van “slechts” 1,85 W/m2 (aangegeven met de blauwe pijl in fig. 3).
Volgens de AGGI-data is de bijdrage van NO2 maar maximaal 0,2 W/m2 in 2020 en voor de CFK’s kom ik in MODTRAN zeker niet hoger dan 0,1 W/m2, dus al met al een totale forcing sinds 1850 van ruim geschat 2,3 W/m2. Ik heb die waarde gebruikt om een reconstructie van de totale WMGHG-bijdrage te maken middels een exponentieel verlopende curve met een tijdsconstante van 70 jaar (zwarte streepjeslijn). Hoger is de antropogene forcing in deze afgelopen 1½ eeuw m.i. niet geweest.
Fig. 4 De CMC-berekende temperatuurreeks op basis van de ReFo total forcings set zoals gereconstrueerd van a.o. het CMIP6 “natural” deel en MODTRAN simulaties (zie tekst), i.v.m. HadCrut v5 en de anomalieën uit de totaleCMIP6 forcings.
Tellen we daar nu de natuurlijke forcings van de CMIP6 serie bij op, dan kunnen we nu op basis van deze ReFo (Reconstructed Forcings) de CMC-berekening nog een keer doen en die vindt u in fig. 4. Waar de CMIP6 reeks nog enigszins de sterke stijging na 1970 kon volgen, is dat voor de ReFo set pas rond 2000 zichtbaar, maar in absolute zin loopt die temperatuur toch altijd nog zo’n 0,6-0,7 oC achter de feiten aan. De grote steilheid daar is niet helemaal verwonderlijk gezien de keuze van die exponentiele benadering van de WMGHG- component, maar hoe dan ook is wel duidelijk dat de CMIP6 modellen forcings opleveren die ver buiten de werkelijkheid staan. Maar ook de ReFo forcings kunnen de gemeten waarden totaal niet benaderen en dat duidt m.i. op een geheel andere oorzaak voor de temperatuurstijging. Ik heb al eens een essay over de belangrijke rol van bewolkingsveranderingen geschreven die dit probleem wel oplost, maar er zijn misschien ook andere mogelijkheden.
De klimaatmodelleurs lossen dat echter heel anders op, nml. door het realiseren van een veel hogere klimaatgevoeligheid middels zg. “feedbacks”, extra temperatuurverhogingen door het effect van GHG’s zoals Water-Vapor-Feedback (WVF), Cloud feedback, Albedo feedback en dergelijke constructen die het gehele klimaatsysteem steeds dichter bij de rand van instabiliteit brengen. Het is evident uit fig. 4 dat ze dat hebben moeten doen om m.n. de steile temperatuurstijging na 1970 te kunnen verklaren en dat verklaart misschien ook wel de plotselinge, en m.i. niet goed te verklaren groei in de WMGHG forcing vanaf 1970 (fig. 3)
Ik zou zo’n grote klimaatgevoeligheid ook in de CMC-berekening kunnen meenemen, maar daar is fysisch gezien geen enkele zinnige reden voor te bedenken in de energiebalans anders dan a.g.v. WVF. En daarvoor is al gecorrigeerd in de iets hogere waarde voor de gebruikte λ. Bovendien komen we dan in het gebied van een waarde voor λ van tenminste 1K/W/m2. Dat is exorbitant i.v.m. de MODTRAN-simulaties en dan begint de reactie van ons klimaat ook dicht tegen zgn. “run-away” scenario’s te komen: natuurlijke fluctuaties met vergelijkbare forcings zouden dan constant enorme temperatuurverhogingen veroorzaken.
Samenvattend: ik heb getracht op transparante wijze antwoord te krijgen op de vraag of de claim van het IPCC dat klimaatmodellen het recente, redelijk goed bekende verleden, uitstekend kunnen repliceren, terecht is. Die claim is de basis van de AGW-hypothese en voedt tevens hun overtuiging dat die klimaatmodellen geschikt zijn om lange termijn voorspellingen te doen.
Mijn analyse toont aan dat als klimaatmodellen de temperatuurreeksen van de afgelopen 1½ eeuw best goed kunnen reproduceren, het bewijs daarvan neem ik aan als gegeven, dat helaas de daaruit afgeleide forcings verre van passen bij wat je zou mogen verwachten op basis van bestaande kennis. Bovendien zijn die forcings niet in staat om via het gebruikte CMC-algoritme op basis van de energiebalans voor het klimaatsysteem, de gemeten temperatuurreeks te repliceren. Dat laatste doet CMIP5 voor de temperatuurreeks misschien een beetje, maar de bijhorende forcings zijn veel te hoog t.o.v. de bekende feiten. De CMIP6 modellen resulteren in lagere forcings, maar zijn nog altijd flink te hoog. Zij voldoen echter bij lange na niet aan het criterium van het repliceren van de temperatuurreeks. Zoals eerder gesteld, moeten klimaatmodellen aan beide eisen voldoen. Noch CMIP5-, noch CMIP6 modellen voldoen aan die criteria en dus zijn hun uitkomsten wetenschappelijk bezien onverantwoord. In gewoon Nederlands: simpelweg fout. Ze zijn dan ook per definitie ongeschikt om voorspellingen voor de lange termijn te doen, laat staan om maatschappelijk ingrijpende beleidsbeslissingen op te baseren.
Ad Huijser, 21 februari 2022.
Meer details en de benodigde referenties zie: Outside The Black Box WUWT (21-02-2022)