Modellen

Klimaatmodellen zijn mathematische modellen die het klimaat simuleren. Ze zijn er in allerlei soorten en maten, van een simpel model dat de stralingsbalans simuleert en de aarde + atmosfeer als black box beschouwen, tot zeer complexe modellen die de atmosferische en oceanische processen koppelen, de zogenaamde gekoppelde atmosfeer-oceaan modellen, Global Climate Models genaamd. Het zijn deze laatste modellen die momenteel een belangrijke rol spelen in CO2 – temperatuurdiscussie en de voorspellingen van de gemiddelde wereldtemperatuur in onder andere de rapporten van het IPCC.

Een eenvoudig model: de stralingsbalans

Het eenvoudigste model is de stralingsbalans van de aarde, voorgesteld als:

(1 − a)Sπr2 = 4πr2εσT4

Links van het = teken staat de binnenkomende zonne-energie, rechts de door de aarde uitgezonden energie. S is de zogenaamde zonneconstante, de hoeveelheid binnenkomende energie per m2 aan de buitenzijde van de atmosfeer. Deze is ongeveer 1368 W/m2. Verder is a de albedo van de aarde en r de straal van de aarde. . De uitgaande energie rechts is gebaseerd op de wet van Stefan-Bolzmann. Hier is ε de emissiviteit , het vermogen van een object om geabsorbeerde energie uit te stralen, σ is de Stefan-Bolzmann constante en T de stralingstemperatuur van de aarde (inclusief de atmosfeer). Het is eenvoudig te zien dat een verandering van de albedo, van de zonneconstante of van de emissiviteit in de formule een verandering van T veroorzaken.

Een probleem is de emissiviteit van wolken. Niet alleen is slechts een deel van de aarde bedekt met wolken, maar die bedekking is niet constant in de tijd. Bovendien is de bovenkant van wolken aanzienlijk kouder dan de gemiddelde temperatuur van het aardoppervlak. Als men hier rekening mee houdt is de gemiddelde temperatuur van de aarde 12 °C. Overigens is de rol van wolken niet alleen in de stralingsbalans een probleem: ook in de geavanceerde GCM’s is dit een van de zwakke punten, waarover later meer.

De meest geavanceerde modellen: Global Climate Models

De meest geavanceerde klimaatmodellen zijn een koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest complexe modellen die gebruikt worden en zijn voortdurend “under construction”. Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn
HadAM3 van het Hadley Center in Groot Brittannië en GFDL CM2.X van NOAA Geophysical Fluid Dynamics Laboratory in de USA.

model

De meeste Global Climate Models maken gebruik van een zogenaamd raster, waarin de atmosfeer is opgedeeld in een aantal cellen waarbinnen een aantal parameters worden vastgesteld. Gebruikelijk zijn, luchtdruk, temperatuur, vochtigheid en windsnelheid.

De meeste Global Climate Models hanteren een raster dat tussen 1° en 5° breedte- en lengtegraden groot is. Een van de bekendste Global Climate Models, het HadAM3, gebruikt cellen met een grootte van 2,5° breedtegraden en 3,75° lengtegraden. Elke cel heeft bovendien 19 verticale niveaus. De resolutie is dus ongeveer 300 km. De vierde dimensie in het model is de tijd. In het HadAM3 model wordt het systeem doorlopen met tijdstappen van 30 minuten. Het GFDL CM2.X model gebruikt een raster met cellen van 2° breedtegraden en 2,5° lengtegraden. Broeikasgassen vormen een externe input in de modellen.

hadcm3Gemiddelde temperatuur in juni-juli-augustus (boven) en december-januari-februari (onder). Hoogte in hP, breedtes van -90 (zuidpool) tot +90 (noordpool). Aardoppervlak op 1000 hP, dus niet gecorrigeerd voor hoogteligging. Bron HadCM3 

De zwakke kanten van de Global Climate Models

Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn, kennen ze een aantal tekortkomingen. De 6 belangrijkste zijn:

• Bij koppeling van het atmosferische model aan het oceanische model moeten in sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige vulkaanuitbarstingen.
• Alle modellen schieten ernstig tekort in het voorspellen van de temperatuur in de stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze. Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.

Met name de 4 laatste tekortkomingen hebben grote implicaties voor de betrouwbaarheid van de huidige klimaatmodellen. De door het IPCC in haar vierde rapport gebruikte klimaatmodellen vertoenen daardoor grote verschillen voor wat betreft de invloed van CO2-verdubbeling op de gemiddelde temperatuur. Die varieert van 1,5° C tot maar liefst 6° C !

Siebesma  ( Siebesma et al., Cloud controlling factors (2009), in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies  )  merkt daarover op:

 Processes that impact clouds span scales from the molecular to the planetary level, a fact that makes their description in a single reference model unimaginable. This implies that large-scale models will continue to hinge on parametric (or statistical) representations of cloud processes on at least some scale for the foreseeable future. As we endeavor to represent present-day and perturbed climates, we must recognize that this introduces a source of uncertainty at best, and likely bias. The origins of uncertainty in our representation of clouds in present-day GCMs are:

1. a fundamental lack of knowledge of some key cloud processes (e.g., upper tropospheric ice supersaturation and role of ice nucleating particles in mixed-phase and cold ice clouds),
2. a lack of knowledge about how to represent the aggregate properties (statistics) of processes that are well understood at their native scale,
3. a lack of interaction among subgrid processes,
4. a breakdown of quasi-equilibrium assumptions at the intermediate scales.

While some of these issues may play less of a role when increasing the resolution of GCMs (category 2 and 3), others (category 1) remain or might even play a larger role (category 4).”

De befaamde theoretisch fysicus en wiskundige Freeman J Dyson zegt over klimaatmodellen:

The real world is muddy and messy and full of things that we do not yet understand. It is much easier for a scientist to sit in an air-conditioned building and run computer models, than to put on winter clothes and measure what is really happening outside in the swamps and the clouds. That is why the climate model experts end up believing in their own models.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?

noor1
Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

noor2

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .


Hoe goed zijn klimaatmodellen in het voorspellen van de SST?

Bob Tisdale heeft op de site Whatsupwiththat een vergelijking gemaakt tussen klimaatmodellen en gemeten temperaturen van oceaanwater (SST), en komt daarbij tot opmerkelijke conclusies. Hij gebruikt daarvoor een aantal door het IPCC gebruikte klimaatmodellen die hij voedt met een tweetal scenario’s. De ene is 20C3M dat gebruikt wordt om zogenaamde hindcast (= ‘achteruit voorspellen’) toe te passen. De tweede,SRES A1B , is een scenario om voorspellingen in de toekomst te kunnen doen. Hij zet de uitkomsten van de klimaatmodellen af tegen gemeten waarden van de SST (Sea Surface Temperature) op basis van Reynolds OI.v2 dataset, satellietmetingen. De verschillen zijn opmerkelijk.

tisdale1Bron: KNMI
Bovenstaande figuur vergelijkt voor de gehele aarde de gemeten data vanaf 1982 (start satellietmetingen) met de gemiddelde uitkomsten van klimaatmodellen. Het verschil is opvallend. Niet alleen verdwijnen El Niño/La Niña variaties, maar ook de trend van de modellen ligt zo’n 50% hoger dan de gemeten trend.

tisdale2Bron: KNMI

Deze afwijkingen blijven ook aanwezig als Tisdale de Grote Oceaan in vieren knipt: noord, zuid oost en west. Bovenstaande figuur betreft de situatie voor het noordelijk deel van de Pacific. De lineaire trend van de modellen is bijna 2x zo groot als die van de meetgegevens. Alleen voor het westelijk deel van de Grote Oceaan geldt dat de modellen heel aardig de gemeten trend volgen.

tisdale5

Bron: KNMI

Maar in het oostelijk deel van de Grote Oceaan zijn de verschillen tussen modellen en de gemeten waarden zeer groot: de lineaire trend van de modellen is daar meer dan 6x hoger dan die van de gemeten data.

tisdale3Bron: KNMI
Tisdale kijkt ook naar de zonale verschillen die de modellen weergeven. De zones hebben een breedte van 5 breedtegraden, dus bijvoorbeeld van 45 °NB tot 50 °NB, en lopen van Noordpool tot Zuidpool. Voor elke zone worden dan de lineaire trend weergegeven volgens de klimaatmodellen . De periode loopt van januari 1982 tot februari 2011. De zones zijn per oceaanbekken weergegeven, waarbij de Indische Oceaan en de Grote Oceaan gesplitst zijn in een westelijk en een oostelijk deel.
tisdale6Bron: KNMI
Opvallend is dat de afwijkingen van de modellen het grootst zijn op lage breedten en afneemt tot vrijwel 0 in Arctische en Antarctische wateren , dat deze afwijkingen over het gehele traject positief zijn, en dat dit voor alle oceanen geldt.
Als we bovenstaande zonale data per oceaan samenvoegen, en vergelijken met de gemeten data, dan wordt het beeld heel anders.

tisdale10Bron: KNMI
De modellen missen de afkoeling van de SST ten Z van 50 °ZB , de opwarming van het oceaanwater nabij 62 °NB, terwijl de afwijking tussen 30 °ZB en 30 °NB ook erg groot zijn. Kortom, de modellen elke link met het werkelijke verloop van de SST.
Als men de zonale data van het westelijke bekken van de Grote Oceaan vergelijkt met die van het oostelijk deel, dan krijgt men het volgende beeld. Hieronder eerst het westelijk deel van de Pacific:

tisdale8Bron: KNMI
In het westelijk deel missen de modellen de gemeten afwijkingen op 67 °ZB, 50 °ZB, 40 °NB en 62 °NB, maar overigens doen de modellen het in dit deel van de Pacific niet erg slecht. Dat komt overeen met datgene wat we ook al zagen in de derde figuur. Maar als men dan de data van het oostelijk deel van de Grote Oceaan bekijkt dan slaan de klimaatmodellen de plank volledig mis:

tisdale7Bron: KNMI
Tot slot kwam Tisdale nog met een update van zijn bevindingen, omdat de figuren gevoelig zijn voor de keuze van begin- en eindpunt van de gemeten periode. Dat is op onderstaande grafiek duidelijk te zien.

tisdale11Bron: KNMI
Om het El Niño/La Niña-effect op het verloop van de grafieken te elimineren kiest Tisdale als beginpunt januari 1986 en als eindpunt december 2005, beide El Niño/La Niña-neutrale data. Voor alle oceanen samen levert dat het volgende effect op:

tisdale9Bron: KNMI
Als men dat vergelijkt met de figuur die het tijdvak 1982-2011 bestrijkt dan zien we dat de afwijkingen weliswaar op sommige breedten iets kleiner zijn geworden, maar dat blijft staan dat de klimaatmodellen extreem afwijken van de gemeten waarden. De oceanen maken ongeveer 2/3 van het totale oppervlak van onze planeet uit en zijn vanwege hun enorme buffercapaciteit voor wamte, vanwege de zeestromen en vanwege verdamping van zeer grote invloed op het klimaatsysteem. Men dient dan ook mijns inziens de uitkomsten van die modellen met grote voorzichtigheid te benaderen.

Met dank aan Bob Tisdale en het KNMI voor de data.


Klimaatmodellen en onzekerheid

komen

 

Prof. Dr. Gerbrand Komen, voormalig Hoofd Klimaat Onderzoek en Seismologie van het KNMI, heeft op 25 november j.l. een bijdrage geleverd op de site Wetenschappelijke modellen getiteld Klimaatmodellen, onzekerheid en vertrouwen. In het hoofdstuk De Feiten (zie menu) is daar in de paragraaf Klimaatmodellen al het een en ander geschreven.

Hier volgt het belangrijkste stuk uit de bijdrage:

* Veel in het kader van de verschillende CMIP projecten uitgevoerde testen hebben al het karakter van een severe test.
* Je moet je wel steeds bewust zijn van de pretenties van een model. Voorbeeld: je kunt niet verwachten dat een mondiaal model de convectieve neerslag in Nederland beschrijft. Daar moet je dan ook niet op testen. Het is op voorhand evident dat zo’n test niet succesvol kan zijn.
* Wat je ook test, modellen van complexe systemen zijn niet te ‘bewijzen’.

Vooral dat laatste wordt niet door iedereen geapprecieerd. Fysicus Richard Feynman (geciteerd door Judith Curry) zei het zo: “Scientific knowledge is a body of statements of varying degrees of certainty — some most unsure, some nearly sure, but none absolutely certain.” Dit geldt voor alle wetenschappelijk kennis, en zeker ook voor onze kennis van complexe systemen.

Vertrouwen in klimaatmodellen is deels subjectief

Als je de modellen niet kunt bewijzen waarom zou je hun resultaten dan gebruiken? Antwoord: omdat je op een of andere manier vertrouwen hebt in het nut. Als het KNMI regen voorspelt kun je daar nuttig gebruik van maken als je moet besluiten of je wel of niet een paraplu mee wilt nemen.  Je hebt (enig) vertrouwen in die verwachtingen, omdat het KNMI in het verleden bewezen heeft kwaliteit te leveren.

Bij klimaatmodellen ligt dat wat ingewikkelder. Er zijn twee belangrijke toepassingen van het klimaatonderzoek die grote maatschappelijke implicaties hebben, nl de attributie van waargenomen veranderingen aan menselijk handelen, en verkenningen van mogelijke toekomstige ontwikkelingen. In beide gevallen is het gebruik van klimaatmodellen essentieel. Waarom zou je de resultaten van die modellen vertrouwen? Het maatschappelijk debat bewijst wel dat dit geen academische vraag is. Het IPCC spreekt van considerable confidence, terwijl anderen juist weinig vertrouwen hebben. Kennelijk heeft het vertrouwen in modellen een subjectief element, al dan niet cultureel bepaald.

Het onzekerheidsmonster

Om te begrijpen wat er aan de hand is, is het goed om te kijken naar de wijze waarop men modelonzekerheden probeert te beschrijven. Klimaatonderzoekers ontlenen vertrouwen aan het vermogen van hun modellen om waarnemingen te simuleren. Dit vermogen kan goed gekwantificeerd worden met behulp van statistische technieken, en levert dus harde getallen. En die worden dan ook vaak gecommuniceerd. Daarbij mag men echter niet vergeten dat er ook sprake is van onderliggende subjectieve keuzes: de keuze van de te vergelijken grootheden, de gewichten die men daaraan toekent, en kwaliteitscontrole bij de selectie van data.

Onzekerheden in modelverwachtingen kan men kwantificeren door modellen onderling te vergelijken of door te kijken naar het effect van parameter-perturbaties. De verschillen die daarbij naar voren komen zijn een maat voor de onzekerheid. Grote verschillen impliceren grote onzekerheid. Omdraaien mag natuurlijk niet: je kunt niet zeggen dat de onzekerheid klein is als de resultaten van verschillende modellen goed overeenstemmen, of ongevoelig zijn voor parameterwaarden. Het is immers denkbaar dat alle beschouwde modellen een structurele imperfectie hebben.

Monsterbezwering

Jeroen van der Sluijs heeft in dit verband het begrip onzekerheidsmonster ingevoerd (geïnspireerd door Martijntje Smits, en inmiddels overgenomen door bv Judith Curry). In zijn artikel uit 2005 onderscheidt van der Sluijs verschillende manieren waarop met dit monster omgegaan wordt, zoals ontkenning, vereenvoudiging en ‘assimilatie’.

Het IPCC heeft geprobeerd, en probeert nog steeds, om het monster te temmen door het hanteren van strakke en verstandige richtlijnen voor de communicatie van onzekerheden. Prijzenswaardig, maar lastig in de praktijk. Zo noemt het recente IPCC Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation het ‘zeer waarschijnlijk [90‑100 % kans] dat hittegolven in lengte, aantal en intensiteit op de meeste plaatsen (boven land) zullen toenemen’. Het percentage suggereert een mate van exactheid die er m.i. niet is, omdat het niet expliciet maakt dat de bewering gebaseerd is op het vertrouwen dat de auteurs in klimaatmodellen hebben.

Hoe nu verder? Van der Sluijs heeft, bouwend op eerder werk van Funtowicz en Ravetz, al in 2005 een mogelijke weg aangegeven onder de noemer ‘assimilatie’: eerlijk, open en transparant zijn over onzekerheid en onwetendheid, en ruimte geven voor wat wel extended peer review genoemd wordt, dat is een proces waarbij voor de bepaling van de kwaliteit van onderzoek belanghebbende individuen en groepen worden ingeschakeld die niet zelf bij het onderzoek betrokken zijn. Dat eerste lijkt me van evident belang. Over het tweede valt nog heel wat te zeggen (zie bv Hanekamp, 2010; en de discussie op Watts Up With That?). Hier ontbreekt de ruimte om daar verder op in te gaan. Maar misschien is het iets voor later?

Vertrouwen in de wetenschap

Waardering van klimaatmodellen is een ding, waardering voor de wetenschap is nog iets anders. Die waardering is een kostbaar goed. Von Storch spreekt in dit verband van ‘kapitaal’ dat je kunt vergroten, maar ook vernietigen. Helaas is het vertrouwen in de klimaatwetenschap niet meer vanzelfsprekend, getuige de reacties op bijvoorbeeld climategate.nl. Het is daarom belangrijk dat we nagaan wat er moet gebeuren om dat vertrouwen te verbeteren. Betere communicatie over onzekerheden hoort daar zeker bij.

 

2013: Modellen zitten er flink naast

De geavanceerde klimaatmodellen die voorspellen wat de ontwikkeling van de temperatuur op aarde zal worden de komende decennia zitten er flink naast. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres en heeft de meest recente cijfers eens voor de parlementariërs op een rijtje gezet. Hieronder ziet u wat dat opgeleverd heeft.

christy6
Christy gebruikt voor de vergelijking 38 klimaatmodellen uit de CMIP5 dataset. Meer hierover is te vinden in de Climate Explorer van het KNMI.

Hij zette vervolgens de datareeksen op basis van metingen ook in de grafiek. Dat zijn de reeksen van NCDC, NASA, HadCRUT4, RSSLT en UAHLT. De laatste  zijn datasets verkregen door satellieten. De referentieperiode is 1979-1983. Conclusie: vrijwel alle modellen schatten de temperatuurontwikkeling op aarde veel te hoog in.

De temperatuurstijging in het Arctische gebied is zoals bekend sterker dan de gemiddelde aardse temperatuur. De recente afname in het oppervlak van het zomerse drijfijs wordt vaak door alarmisten gebruikt om de ‘catastrofale gevolgen van de antropogene opwarming’ te duiden. Weliswaar doen de modelmatige voorspellingen het in het gebied tussen 70 °NB en 90 ° NB het wat beter dan voor de aarde als geheel, maar ook hier schatten de meeste modellen de temperatuurontwikkeling veel hoger in dan wat in werkelijkheid gemeten is.

christy7

Bekijken we dezelfde cijfers voor de regio met drijfijs rond Antarctica ( 60 ° ZB tot 75 ° ZB), dan is ook hier hetzelfde beeld als voor de aarde als geheel: de modellen voorspelen een flinke stijging van de temperatuur in het gebied, terwijl de gemeten waarden zelfs een lichte daling vertonen.

christy8

Modellen zijn dus tot nu toe slecht in het voorspellen van de temperatuurontwikkeling op aarde. Desondanks zijn ze zonder terughoudendheid gebruikt door het IPCC en andere instanties om ons er van te doordringen dat een grote opwarming gaande was met mogelijk desastreuze gevolgen.

Hawkins en Sutton hebben in 2009 onderzoek gedaan naar de onzekerheid in klimaatmodellen. Onderstaande figuur stamt uit de publicatie. De oranje kleur betreft de interne variabiliteit.

hawkins1
Mojib Latif van de universiteit van Kiel voegt aan de onzekerheid in het gebruik van modellen om de temperatuur te voorspellen nog een extra factor toe: de onvoorspelbare externe invloeden op het klimaatsysteem. Over wellicht de belangrijkste, de zon, is hier al vaker geschreven.

 

Klimaatmodellen en betrouwbaarheid

Ik heb hier al vaker laten zien dat klimaatmodellen hun beperkingen hebben, met name als ze gebruikt worden om op langere termijnvoorspellingen te doen. Mark Maslin en Patrick Austin van het University College in Londen hebben daarover  in juni 2012 geschreven in Nature onder de titel ‘Climate models at their limit?

De huidige generatie modellen is weliswaar beter dan ooit in het nabootsen van het complexe klimaatsysteem, maar merkwaardig genoeg produceren deze geavanceerde modellen eerder méér dan minder onzekerheden in hun voorspellingen. Volgens Maslin en Austin hebben klimaatmodellen hun limiet bereikt voor wat betreft predictie.

maslin1

De oorzaken van deze paradox zijn divers. De meest voor de hand liggende is het feit dat modellen de werkelijkheid niet zijn. Modellen zijn per definitie niet in staat om het zeer complexe systeem  van het aardse klimaat betrouwbaar na te bootsen. Oreskes et al van de University of California hebben aangetoond dat het daarom onmogelijk is om de deugdelijkheid van klimaatmodellen vast te stellen en te valideren.

De tweede factor is dat de opzet van modellen sterk uitleen loopt, en dus ook de parameterisatie van belangrijke klimaatprocessen zoals wolkvorming. Met name de grote ruimtelijke variatie van de neerslag zorgt er al voor dat regionale voorspelling hoogst onzeker zijn. Zo levert een van de bekendste modellen, HadCM3 van Metoffice, een onnauwkeurigheid van de jaarlijkse afvoer van het stroomgebied van de Mekong Rivier   van een afname van 5,4% tot een toename van 4,5%.  De maandelijkse afvoer schommelt zelfs van -16% tot +55%. Waarden waar geen enkele beleidsmaker iets mee kan.

maslin2

De derde oorzaak is dat de verwachte hoeveelheden broeikasgassen en aerosolen aan het einde van deze eeuw gebaseerd zijn op economische modellen die zonder twijfel maar een slag slaan naar het gebruik van fossiele energiedragers over 90 jaar. De energiemarkt is heftig in beweging: aan de ene kant zien we een toename van ‘groene’  energiebronnen, aan de andere kant worden steenkool en aardgas steeds goedkoper dankzij nieuwe wintechnieken. Er is niemand die kan overzien wat dat betekent voor de situatie over 10 jaar, laat staan over 90 jaar.  Er is aan toe te voegen dat de invloed op het aardse klimaat van verandering van broeikasgassen en aerosolen nog lang niet duidelijk is.

De huidige generatie klimaatmodellen zijn goed in staat de onzekerheden van complexe factoren te kwantificeren. De chemie van de atmosfeer en de ruimtelijke resolutie van de nieuwe modellen zijn beter dan ooit. Maar tegelijkertijd betekent het incorporeren van complexe processen tevens het toevoegen van meer onbekenden. Analyse van deze nieuwste modellen toont bijvoorbeeld een grotere spreiding van de voorspelde globale temperatuur dan voorheen.

Een beetje vreemd is het als na het benoemen van al deze toenemende onzekerheden in de nieuwe generatie modellen Maslin en Austin toch blijk geven van een groot vertrouwen in diezelfde modellen. Ze maken zich zorgen over de toegenomen scepsis ten aanzien van klimaatmodellen en geven zelfs aan op welke manier het vertrouwen van het ‘publiek’  in de betrouwbaarheid van modellen vergroot kan worden. Dat doet me denken aan de grote schrijver Gerard Reve, die, toen hij werd aangevallen door vakbroeders vanwege zijn commerciële houding, de kritiek pareerde door simpelweg te verklaren dat hij het inderdaad allemaal voor de publiciteit en het geld deed, want “ik heb een winkel.”. Zo openlijk heb ik wetenschappers echter nog nooit horen spreken.

 

 

Henry Masson: voorspellingen doen in chaotische systemen

De lezing van Henry Masson op de klimaatconferentie in Rijsoord op 8 december 2012  was bijzonder, maar voor mij soms erg moeilijk te volgen.  Dat had niet zozeer te maken met het onderwerp , hoe betrouwbaar kun je tijdreeksen doortrekken in de toekomst, als wel  omdat zijn benadering niet klimatologisch (natuurkundig) maar statistisch is.

masson1

Hij bekijkt de problematiek vanuit wiskundig/statistisch oogpunt, en komt tot opmerkelijke conclusies. In de figuur hierboven is dat weergegeven: voor de wiskundige benadering is het klimaatsysteem een black box.

Het uitgangspunt is dat het klimaatsysteem  een chaotisch systeem is. Een dergelijk systeem heeft bepaalde eigenschappen die niet af te leiden zijn uit die van de samenstellende delen. Een van de gevolgen daarvan is dat ze niet-lineair zijn: kleine afwijkingen in het systeem kunnen tot  zeer diverse gevolgen leiden. Een ander kenmerk is dat het gedrag van een complex systeem op een bepaald moment vooral bepaald wordt door de daaraan voorafgaande gebeurtenissen.  De combinatie van deze eigenschappen zorgt er voor dat het nauwelijks mogelijk is om aan de hand van tijdreeksen voorspellingen te doen voor de toekomst. Een aanwijzing daarvoor zijn de diverse temperatuurpredicties in het 4e rapport van het IPCC en het werkelijke verloop van de globale temp vanaf 2000 ( grafieken hieronder).

christy6

masson2

Het klimaatsysteem is vooral daarom chaotisch omdat we nog steeds geen volledig zicht hebben op de afzonderlijke onderdelen van het systeem, met hun specifieke werking. Een eigentijds voorbeeld is het gedrag van wolken in de energiebalans van de aarde. Masson stelt dat vanwege het chaotisch karakter van het klimaat het in feite onmogelijk is om voorspellingen te doen over de temperatuur. Complexe systemen zijn sterk non-lineair, waardoor ze niet geschikt zijn voor ‘klassieke’  regressie-analyse e.d. De gebruikelijke methoden om ruis uit een meetreeks te verwijderen zijn gebaseerd op de vooronderstelling dat de data Gausiaans verdeeld zijn rond een trendlijn. Volgens Masson levert een dergelijke techniek vaak een zogenaamd hockey-stickeffect op zoals we dat ook kennen van de publicaties van Mann et al.

mann1

Tijdreeksen worden vaak beïnvloed door een zekere mate van random noise, bijvoorbeeld door externe factoren of vanwege beperkingen in het modelleren. In een aantal gevallen wordt het systeem dan chaotisch: de indicatoren bewegen dan rond een of meer ‘strange attractors’. In de bovenste grafiek links  is er nog sprake van een voorspelbaar signaal met enige ruis, in de onderste is het signaal niet voorspelbaar en chaotisch.

masson8    masson9

De rechter grafiek toont een voorbeeld van een dergelijk signaal rond attractors.  Het is de tijdreeks van de temperatuur van de bekende Vostok ijsboring op Antarctica.

Masson liet tijdens de lezing zien dat de functie   chaotisch kan worden afhankelijk van de grootte van de variabele α. De functie kan dan van stabiel…..

masson5

licht chaotisch worden…….

masson4

en dan steeds chaotischer worden:

masson6
Bij een hele lichte wijziging van de variabele α verandert zelfs de positieve trend in de vorige grafiek in bijna geen trend:

masson7

Het is daarom van het grootst belang om in tijdreeksen een methode toe te passen om eventueel chaotisch gedrag te ontdekken.  Masson maakt daarbij gebruik van een aantal statistische technieken, waarvan de zogenaamde recurrence plots mij het best bij zijn gebleven, al was het alleen al vanwege de wonderlijke patronen die daarbij kunnen ontstaan.  Recurrence plots vormen krachtig  kwalitatief visueel gereedschap om   patronen in tijdreeksen te ontdekken.

Onderstaande plot betreft de temperatuurreeks van Ukkel sinds 1830. Volgens Masson toont de plot dat er geen trend te ontdekken is in het signaal.

masson10

Masson concludeert :

masson11