De Volkskrant analyseerde de beslissing van de Nederlandse regering om voor de Kerst in lockdown te gaan. Die beslissing was gebaseerd op modellen van het RIVM die torenhoge opnames voorzagen vanwege de Omikronvariant (zie figuur 1).
Fig.1 Bron: Volkskrant
Het artikel geeft een goed overzicht van de hectische dagen voorafgaande aan de lockdownbeslissing. Maar verbazing overviel me toen ik las: “Het is verleidelijk om, zoals Kuzu of Levi, achteraf naar de grafiek te wijzen en te zeggen: zie je, het model zat te hoog. Maar modellen zijn geen voorspellingen die pas ‘geslaagd’ zijn als ze uitkomen, een diep misverstand. Het zijn verkenningen, van mogelijke toekomsten – waarvan je sommige vooral moet zien te vermijden.”
Dat vind ik een vreemde conclusie. Als een model volstrekt niet uitkomt is het gewoon een slecht model, dat model deugt dan niet. Daar kun je nog zulke ‘verzachtende’ omstandigheden bij bedenken zoals ‘de werkelijkheid achterhaalde het model’ of iets dergelijks, maar dat is alleen maar semantische gladstrijkerij voor modellen die niet uitkomen. Wat heb je aan een model dat als je het toetst aan de werkelijkheid niet blijkt te kloppen? Nobelprijswinnaar fysicus Richard Feynman legt dat zo uit:
Natuurlijk is het maken van modellen om de invloed van een virus op de gezondheid van mensen te voorspellen heel lastig, zeker als je te maken hebt met nieuwe varianten waar nog relatief weinig over bekend is. Ik zie parallellen met modellen in de klimatologie. Klimaatmodellen, global circulation models (GCMs), zijn uiterst complexe nabootsingen van het nog veel complexere aardse klimaatsysteem. Die klimaatmodellen trachten de gemiddelde mondiale temperatuur te voorspellen over een x aantal jaren. Maar ondanks het gebruik van computers met een formidabele hoeveelheid rekenkracht lukt het klimaatmodellen niet om de temperatuur goed te voorspellen. De laatste generatie modellen, CMIP6, doet het zelfs nog wat slechter dan de voorlaatste generatie.
Fig.2 Bron: Scafetta et al 2021
Scafetta (2021) vergeleek de prestaties van 38 CMIP6-modellen bij het reproduceren van de veranderingen in de oppervlaktetemperatuur van 1980-1990 tot 2011-2021 met onder andere de door satellieten gemeten temperaturen (UAH MSU V6 TLT). Figuur 2 toont die vergelijking in anomalieën ten opzichte van de periode 1980-1990.
Te zien is dat vrijwel alle klimaatmodellen de aardse temperatuur (veel) te hoog inschatten als je de uitkomsten van hun runs vergelijkt met de gemeten temperaturen (groene lijn). Prof. William Happer legt uit hoe dat komt:
Conclusie: met virusmodellen moet je minstens zo voorzichtig omgaan als met klimaatmodellen. Blijkbaar is er voor wat betreft de RIVM-grafieken van december j.l. gewaarschuwd voor de grote onzekerheden daarin. De vraag is natuurlijk of de dienstdoende ministers in staat waren om dat te vertalen in adequaat gedrag. Het is nu wel duidelijk dat dat niet het geval was. ‘Prognose zeer onzeker!!’, had Van Dissel er met dubbele uitroeptekens in grote letters boven gezet toen hij de grafieken naar Den Haag stuurde. Dat heeft niet geholpen. Voor wetenschappers een goede waarschuwing: stuur alleen maar modeluitkomsten naar buiten als die te vertrouwen zijn.
In de klimatologie zie je pas achteraf dat de meeste modellen niet deugen. Dat is logisch: de gemeten temperatuur is de enige toetssteen waaraan de waarde van een model kan worden afgemeten. Dat geldt m.m. ook voor virusmodellen. Als die modellen onbetrouwbaar zijn mag je hopen op bestuurders met voldoende gezond verstand. Wat zal ik zeggen? 😉