Dagelijks archief: 13 januari 2013

Zeespiegel

De mondiale zeespiegelstijging, een inleiding  (met dank aan Bert Amesz)

De huidige trend in de zeespiegelstijging vindt zijn oorsprong halverwege de negentiende eeuw. Ook is er gedurende de twintigste eeuw geen significante versnelling waarneembaar. Bovendien blijkt dat de zeespiegelstijging in Noord West Europa, door regionale factoren, achterblijft bij het wereldgemiddelde.

zeespiegel1
Aan het einde van de laatste grote ijstijd, zo’n 20.000 jaar geleden, stond de zeespiegel 120 meter lager dan nu. Vanaf die periode is hij in een soort ’S-curve’ omhoog gekomen tot ongeveer het huidige niveau. Zie figuur. Bij de aanvang van de huidige interglaciale periode (Holoceen) stond de zeespiegel nog 60 meter lager en steeg toen met 15 mm/jaar. Ongeveer 8.000 jaar geleden begon de stijging nadrukkelijk af te vlakken; het relatief warmere ‘atlanticum’ ging over in een iets koeler neoglaciaal tijdperk. Aan het begin van onze jaartelling stond de spiegel nog 1,5-2,5 meter lager dan nu.

zeespiegel2
Het huidige subatlantische tijdperk heeft overigens nog een aantal ‘recente rimpelingen’ gekend: een warme Middeleeuwse periode tussen de 10e en 14e eeuw, gevolgd door de ‘kleine ijstijd’ tussen de 15e en 19e eeuw. Gedurende deze periodes schommelde de zeespiegel mee.

zeespiegel3

Peilwaarnemingen (Ref: IPCC, PSMSL, etc) geven aan dat er gedurende de twintigste eeuw sprake was van een gemiddelde stijging van 1,5 tot 2,0 mm/jaar (Nederlandse kust: 1,7 mm/jaar). Echter, satellietmetingen vanaf 1993 (Topex/Poseidon, Jason) laten een veel snellere stijging zien: bijna 3,3 mm/jaar. Zie figuur.

Hoe is die ogenschijnlijke versnelling te verklaren? IPCC wijst op het effect van de mondiale opwarming vanaf de jaren ’70 (zie temperatuurgrafiekje) en de gevolgen daarvan zoals thermische uitzetting, massaverlies Groenland, Antarctica, etc. Maar is dat wel zo?

zeespiegel4

Want er is ook een andere verklaring denkbaar. Het grote voordeel van satellietwaarnemingen is immers dat ook regionale trends midden op de oceanen in beeld gebracht kunnen worden, bijvoorbeeld de sterke zeespiegelstijging (tot meer dan 10 mm/jaar) in het westelijke deel van de equatoriale Pacific. Zie kaartje. Dat deel van de oceaan wordt gekenmerkt door sterke periodieke fluctuaties als gevolg van de El Nino Southern Oscillation (ENSO).

zeespiegel5

Vanwege de schaalvervorming is de oranje/rode vlek in werkelijkheid veel groter dan het kaartje doet vermoeden. Duidelijk is dat dergelijke fenomenen niet worden waargenomen in de meetstations welke voor het overgrote deel gesitueerd zijn op het noordelijk halfrond (zie kaartje met PSMSL-meetstations met minstens 40 jaar waarnemingen).

De geconstateerde ‘versnelling’ vanaf ’90 zou dus veroorzaakt kunnen worden door het verschil in meetmethode (satelliet versus peilschalen). Uit deze constatering kunnen twee conclusies getrokken worden: (i) de wereldgemiddelde zeespiegelstijging gedurende de twintigste eeuw is groter dan tot nu toe gedacht werd en (ii) de zeespiegelstijging bij NW Europa is lager dan het wereldgemiddelde. Er is dus géén sprake van een versnelling als gevolg van de opwarming van de 70-er jaren zoals IPCC suggereert; die versnelling is overigens ook niet terug te vinden in de PSMSL-stations.

zeespiegel6

Vervolgens is het interessant te weten waar de door de kuststations gemeten stijging zijn oorsprong vindt. Uit de linkerfiguur (Ref: PSMSL) blijkt dat dat omstreeks 1850 was. Oude peilwaarnemingen bij Amsterdam (vanaf 1700!) en elders laten hetzelfde beeld zien. Ook reconstructies van o.a. CSIRO bevestigen dat. Het moment valt samen met de afloop van de Kleine IJstijd en het begin van de terugtrekking van de gletsjers (zie figuur rechts, IPCC), een terugtrekking die tot nu toe overigens vrijwel lineair verloopt. Opmerkelijk is dat in de meetstations gedurende de twintigste eeuw géén trendversnelling is waar te nemen; hetzelfde is van toepassing op de zeespiegelstijging bij de Nederlandse kust (zes meetstations, RIKZ) en diverse andere stations aan de Noordzee en de Atlantische kust van Europa. De mondiale opwarming gedurende de twintigste eeuw is niet of nauwelijks zichtbaar in de zeespiegelstanden.

Dat zou betekenen dat – ook indien de opwarming niet doorzet – de zeespiegel blijft stijgen. Dat lijkt reeds het geval te zijn vanaf het jaar 2000. Kennelijk trekt de ‘deep ocean thermal expansion’ zich op korte termijn weinig aan van temperatuurvariaties aan het oppervlak. Ook de bijdrage van gletsjers en kleine ijskappen lijkt redelijk constant in de tijd. Jaarlijkse schommelingen zullen ontstaan door de ‘near surface thermal expansion’ in de bovenste honderden meters, boven de thermocline: de laag waarboven uitwisseling met de atmosfeer en opwarming door de zon plaatsvindt.

zeespiegel7

Voor de Noordzee zijn enkele bijzondere effecten van kracht. Als gevolg van de afnemende zelfgravitatie bij Groenland en vanwege postglaciale elastische effecten verdeelt het smeltwater zich niet gelijkmatig over de oceanen. Voor de Noordzee bedraagt de stijging door de afsmelt van Groenland slechts 20-30% van het wereldgemiddelde; voor de gletsjers bedraagt dat percentage ongeveer 60-70%. Bovendien is er in NW Europa mogelijk sprake van een significant regionaal effect als gevolg van variaties in de Noord Atlantische Oscillatie (NAO) en de intensiteit van de Golfstroom (AMO-index).

Conclusies:
* De ogenschijnlijke versnelling (verdubbeling) van de zeespiegelstijging vanaf de jaren ’90 is voor een (belangrijk) deel toe te schrijven aan het verschil in meetmethode (satelliet versus peilschalen). Satellieten meten immers ook grootschalige regionale fenomenen die buiten het bereik van de kuststations vallen;
* Deze conclusie wordt bevestigd door het feit dat in de peilwaarnemingen een dergelijke versnelling vanaf de jaren ’90 niet waarneembaar is;
* Satellietwaarnemingen geven een representatiever beeld dan de traditionele kuststations;
* Waarschijnlijk was de wereldgemiddelde zeespiegelstijging gedurende de twintigste eeuw groter dan tot nu toe werd aangenomen;
* Echter, vanwege regionale factoren blijft de zeespiegelstijging op de Noordzee en langs de Atlantische kust van Europa achter bij het wereldgemiddelde;
* De ‘huidige’ trend van circa 1,5-2,0 mm/jaar (Noordzee, Europese Atlantische kust) vindt zijn oorsprong in 1850 en valt samen met de afloop van de Kleine IJstijd en het begin van de terugtrekking van gletsjers;
* Deze trend is kennelijk niet of nauwelijks beïnvloed door de opwarming gedurende de laatste eeuw;
* Mede vanwege de trage respons van de diepe oceaan zal de zeespiegel deze eeuw door blijven stijgen, zelfs in een situatie waarin de atmosfeer niet verder opwarmt of zelfs afkoelt.

 

De zeespiegel en Nederland

anp

Het ‘klimaatbestendig’ maken van Nederland vergt deze eeuw een bedrag dat op kan lopen tot €140 miljard. Althans, dat concludeerde de Deltacommissie in 2008.

Hun advies is gebaseerd op klimaatscenario’s van KNMI (2006), de bevindingen van IPCC (2007) alsmede een aanvullend onderzoek naar bovengrensscenario’s (2008). De commissie adviseert rekening te houden met een (absolute) zeespiegelstijging van 0,55 tot 1,20 meter in het jaar 2100.

De maximumwaarde is daarmee aanzienlijk (factor twee!) hoger dan de door IPCC gehanteerde maximum bovengrens van 0,59 meter. Ook houdt de commissie rekening met een toenemende winterneerslag, resulterend in een hogere piekafvoer van Rijn en Maas. De zomerneerslag daarentegen zou juist afnemen, hetgeen consequenties heeft voor de zoetwatervoorziening in droge zomers. De commissie verwacht overigens geen verzwaring van de stormcondities voor de Nederlandse kust. De voorgestelde maatregelen betreffen o.a. dijkverzwaring, zandsuppletie voor de kust, rivierwerken en peilverhoging van het IJsselmeer, en zijn door V&W overgenomen in het Nationaal Waterplan. Het plan is inmiddels vastgesteld door het Kabinet en zal dit voorjaar in de Tweede Kamer behandeld worden.

Oorzaak en tempo van de zeespiegelstijging is voor Nederland van cruciaal belang

Zeespiegelstijging kan door verschillende factoren veroorzaakt worden. Direct aan de atmosferische opwarming gerelateerd zijn: de thermische uitzetting als gevolg van warmteopname in de oceanen en de massatoename als gevolg van smeltwater (minus aangroei) van ijskappen en gletsjers. Lokale verschillen kunnen optreden door variaties in oceaanstroming, dichtheidsverschillen, veranderend getij, verandering van het zwaartekrachtsveld op aarde, etc. Bovendien kan er lokaal sprake zijn van een (relatieve) zeespiegelstijging door bodemdaling. Dit laatste speelt bij de Nederlandse kust een belangrijke rol.

Eerst enkele gerapporteerde feiten en conclusies. IPCC constateert een mondiale zeespiegelstijging van ongeveer 18 cm gedurende de afgelopen 130 jaar, hetgeen overeenkomt met gemiddeld 1,4 mm/jaar. In de periode 1961-2003 zou de stijging 1,8 mm/jaar hebben bedragen. Ook suggereert IPCC dat er, op basis van satellietmetingen, sinds 1993 een versnelling is opgetreden tot 3,8 mm/jaar en stelt voorts dat de stijging ‘consistent is met de wereldwijde opwarming’. Deze stijging zou voor 57% veroorzaakt worden door thermische expansie en voor 28% door het afsmelten van ijskappen. De gemeten stijging bij de Nederlandse kust bedraagt sinds begin 20e eeuw ongeveer 17 cm (NB: volgens Deltacommissie en Planbureau voor de Leefomgeving 20 cm) oftewel 1,7 mm/jaar. Op het eerste gezicht lijkt dit in lijn te liggen met de wereldgemiddelde stijging die IPCC rapporteert. Deze getallen zinken overigens in het niet bij de natuurlijke variaties die we vroeger hebben gekend: zo stond de zeespiegel tegen het einde van de laatste grote ijstijd (20 duizend jaar geleden) zo’n 120 meter lager. Maar dat terzijde. Voor het jaar 2100 gaat IPCC in het – relatief ongunstige – emissiescenario A1F1 uit van een mondiale temperatuurstijging in 2100 van 4,0 °C (‘best estimate’) en een zeespiegelstijging van 0,26 tot 0,59 m. De bovengrens wordt voor ongeveer 70% (0,41 m) veroorzaakt door thermische uitzetting; 30% (0,18 m) is het saldo van afkalving en aangroei van gletsjers en de ijskappen op Groenland en Antarctica.

Bij de hierboven gerapporteerde feiten en conclusies kan onmiddellijk een aantal kanttekeningen geplaatst worden. In de eerste plaats worden de waterstanden in Nederland gemeten t.o.v. het referentievlak NAP. Maar dat referentievlak – gerelateerd aan de bovenkant Pleistocene zandlaag – daalt als gevolg van ‘postglaciale rebound’, tektoniek en compressie van diepe lagen. In west en noord Nederland bedraagt de daling van het referentievlak ongeveer 4 – 8 cm/eeuw. Niet duidelijk is of de metingen navenant zijn gecorrigeerd. Zo niet, dan zou de absolute zeespiegelstijging in de afgelopen eeuw maximaal slechts 9 – 13 cm hebben bedragen. Ook is het bekend dat de waterstanden langs de Nederlandse kust beïnvloed zijn door grote waterbouwkundige werken zoals de Afsluitdijk en Deltawerken. Om die reden maakt de Deltacommissie ook gebruik van metingen bij Norderney. Die laten overigens een stijging zien in dezelfde orde van grootte. Niet duidelijk is in hoeverre deze peilwaarnemingen (en de peilwaarnemingen waarop IPCC zich in algemene zin baseert) gecorrigeerd zijn voor een eventuele lokale daling van het betreffende referentievlak. Het is aannemelijk te stellen dat de gemeten (relatieve) zeespiegelstijging voor de Nederlandse kust voor een belangrijk deel veroorzaakt wordt door bodemdaling, daling van het referentievlak en verandering van het getij (hogere hoogwaters) en in mindere mate door de opwarming. Het is op zijn zachts gezegd merkwaardig dat op dit punt de Deltacommissie in zijn hoofdrapport voorbij gaat aan de conclusies van het in hun opdracht opgestelde ‘special report’.

Ten tweede is het opmerkelijk is dat in de trends bij de Nederlandse kust en bij Norderney géén sprake is van enige versnelling van de zeespiegelstijging zoals IPCC suggereert. Ook andere bronnen (o.a. University of Colorado) spreken dat tegen – die constateren juist een afvlakking gedurende de afgelopen vijf jaar. Dat beeld wordt bevestigd door de sinds 2005 gemeten vermindering van de warmteopname van de oceanen.

Ten derde moet onderkend worden dat de oceanen (ongeveer 70% van het aardoppervlak en een gemiddelde diepte van 3.800 meter) een immense warmtebuffer vormen en uitermate traag reageren op fluctuaties van de atmosferische temperatuur. Recente modelstudies laten zien dat atmosferische temperatuurstijging zeer langzaam doordringt in het diepere temperatuurprofiel van de oceanen. Bij thermische uitzetting is sprake van een ‘snelle’ (50 jaar) component die zich in de bovenste 300 meter afspeelt en een trage component (‘enkele honderden tot duizend jaar of meer’) op dieptes beneden 700 meter. De modelsimulatie laat zien dat de atmosferische temperatuurstijging van 0,8 °C  sinds begin vorige eeuw een thermische uitzetting van slechts 4 cm teweeg zou hebben gebracht, aanzienlijk minder dan de conclusie van IPCC. Mogelijk hebben we ook nog te maken hebben met een naijleffect vanuit een ver verleden, bijvoorbeeld uit de kleine ijstijd . De ‘keerzijde’ is dat, indien de atmosferische temperatuur vanaf heden niet meer zou stijgen, de thermische uitzetting nog een tijdje doorgaat met nog eens 1,5 cm in 2100. Satellietmetingen over de periode 1993 – 2003 laten zien dat de zeespiegelvariatie grote regionale verschillen vertoont: in het oostelijke deel van de Pacific en het westelijke deel van de Indische Oceaan is sprake van een dalende trend; op het noordelijk deel van de Atlantic en de westelijke Pacific is juist sprake van een stijging (thermisch én totaal). De regionale verschillen worden mede veroorzaakt door ‘tijdelijke’ fenomenen zoals de 1997-1998 El Niňo.

Naast thermische uitzetting is er sprake van zeespiegelverandering als gevolg van het gedrag van gletsjers en ijskappen. Sinds de jaren ’40 is er bij de gletsjers sprake van een afname in de omvang die overeenkomt met een zeespiegelstijging van 2 tot 3 cm gedurende de periode 1940 tot 2000. De relatief snelle afname sinds de jaren ’70 lijkt consistent met de wereldwijde opwarming. In het laatste decennium van vorige eeuw is de afnamesnelheid  verdubbeld tot een zeespiegelequivalent van 0,7 mm/jaar en lijkt daarna op dat niveau te stabiliseren. M.b.t. de ijskappen op Groenland en Antarctica is er sprake van ijsgroei op het centrale deel en van afkalving langs de randen. De vorige eeuw geeft voor Groenland een wisselend beeld in de massabalans, variërend (in zeespiegelequivalent) tussen een stijging met 0,07 mm/jaar tot een daling van 0,17 mm/jaar. Over de gehele eeuw gemeten, is de Groenlandse bijdrage aan de zeespiegel verwaarloosbaar klein. Sinds de jaren ’90 is er sprake van massaverlies, resulterend in een zeespiegelstijging van 0,3 tot 0,5 mm/jaar. De ijskap van Antarctica is de afgelopen eeuw gegroeid hetgeen heeft geresulteerd in een zeespiegeldaling van 2,0 cm. Na  2000 lijkt er sprake van een massaverlies dat overeenkomt met een zeespiegelstijging van 0,2 tot 0,5 mm/jaar. Geconcludeerd kan worden dat gedurende de vorige eeuw de afsmelt van Groenland en de kleinere gletsjers grotendeels is gecompenseerd door de ijsaanwas op Antarctica en er derhalve in geringe mate is bijgedragen aan de zeespiegelstijging. Echter, indien de trend van de jaren ‘90 (sterke mondiale opwarming) deze eeuw doorzet, zou dat leiden tot een stijging met ongeveer 20 cm. De sinds 2003 stabiliserende mondiale temperatuur geeft daar echter (vooralsnog) geen aanleiding toe.

Tenslotte is er een opmerkelijk verschil tussen de conclusies van IPCC (maximaal 0,59 meter) en de aanbevelingen van de Deltacommissie (maximaal 1,20 meter). Het verschil is onderbouwd in een aanvullend rapport naar bovengrensscenario’s, opgesteld door wetenschappers die ook bij IPCC betrokken zijn. Kleine verschillen (tot 10 cm) zijn er ten aanzien van de thermische uitzetting, de bijdrage van kleine gletsjers en terrestrische wateropslag. Het grote verschil zit in het gedrag van de Groenlandse en Antarctische ijskap: kans op extra ijsuitstroom vanwege snelle dynamische processen en de instorting van de Amundsen Sea Embayment op West Antartica. Beide fenomenen zijn echter, zo stelt de commissie, uitermate onzeker. In het bovengrensscenario is er desondanks wél rekening meegehouden.

Geconcludeerd moet worden dat de analyse van de zeespiegelstijging (relatief versus absoluut) voor de Nederlandse kust de nodige vraagtekens oproept. Het ziet er naar uit dat gedurende de 20e eeuw de zeespiegelstijging als gevolg van de opwarming aanzienlijk kleiner is dan verondersteld. Omdat de trend van de 20e eeuw semi-empirisch wordt door geëxtrapoleerd naar de 21e eeuw, is er sprake van overschatting van de problematiek.  Bovendien is het gedrag van oceanen complex, met als gevolg dat een voorspelling – welke dan ook – uitermate onzeker is. Een troost is dat processen dermate traag verlopen dat er op korte termijn niet drastisch hoeft te worden ingegrepen. De conclusie van IPCC dat de zeespiegelstijging (volledig) consistent is met de opwarming van de aarde over dezelfde periode, lijkt voorbarig;  de presentatie in één grafiek (IPCC Synthesis Report, blz 31) zet politieke besluitvormers op het verkeerde been. Hetzelfde is ook van toepassing op de voorbarige constatering van het Planbureau voor de Leefomgeving (VROM) en de Deltacommissie dat de zeespiegelstijging [ad 20 cm] voor de Nederlandse kust geheel door de opwarming zou zijn veroorzaakt.

Neerslag en afvoerregiem grote rivieren

Volgens IPCC manifesteert de klimaatverandering in NW Europa zich door een 10 – 20% hogere winterneerslag en een 10 – 20% lagere zomerneerslag. De hogere winterneerslag heeft consequenties voor de voorjaarsafvoer en hoogwaterstand van de grote rivieren. De Deltacommissie concludeert dat de piekafvoer van de Rijn met 6% – 38% kan toenemen in 2100. De maatregelen die Nederland moet nemen zijn mede afhankelijk van maatregelen die bovenstrooms (Duitsland) getroffen worden. De lagere zomerafvoer – in combinatie met het verhoogde risico van zoutintrusie door de hogere zeespiegel  – heeft gevolgen voor de zoetwaterhuishouding in o.a. Zuid West Nederland. De commissie adviseert het IJsselmeerpeil met maximaal 1,5 meter te verhogen teneinde onder vrij verval op de (verhoogde) Waddenzee te kunnen blijven spuien én de zoetwatervoorraad te vergroten met het oog op langdurige droge zomers. Ook hier kunnen kanttekeningen geplaatst worden. De temperatuur in West Europa (waaronder in De Bilt) is gedurende de afgelopen eeuw sneller gestegen dan gemiddeld op het noordelijk halfrond. De totale jaarlijkse neerslagsom is ook gestegen, met name als gevolg van de (gemeten) hogere winterneerslag. Opmerkelijk is echter dat er – ondanks de opwarming –  geen sprake is van een lagere zomerneerslag. Dit uit zich ook in de meerjarige afvoergemiddelden van Rijn en Maas: in vergelijking tot de eerste helft van de vorige eeuw zijn de winter/voorjaarsafvoeren in de tweede helft van die eeuw inderdaad toegenomen, maar is er niet of nauwelijks sprake van lagere zomer/najaarsafvoeren en dus de zoetwatervoorziening vooralsnog niet in het geding is.

Conclusies en aanbevelingen

De bescherming van ons land tegen hoogwater is iets waarmee niet lichtzinnig mag worden omgesprongen. Maar tegelijkertijd moet gewaakt worden voor overschatting van de problematiek. De indruk bestaat dat daar sprake van is. Want de maatregelen voor een klimaatbestendig Nederland zijn mede gebaseerd op onvolledige dan wel incorrecte historische analyse over de 20e eeuw en weinig rooskleurige toekomstprojecties van IPCC voor de 21e eeuw die – zoals al langer bekend – niet kamerbreed gedragen worden en die – zoals recentelijk is gebleken – niet altijd waardevrij zijn. De Deltacommissie heeft vervolgens de door IPCC gehanteerde projectie voor de maximum zeespiegelstijging met een factor twee verhoogd door een aantal onzekerheden om te zetten in aanvullende bovengrenswaarden. De resulterende maatregelen zoals opgenomen in het Nationaal Waterplan zijn niet alleen kostbaar maar vergen ook veel van onze schaarse ruimte. Terecht hanteert de commissie een ‘low probability/high impact’ filosofie. Maar gelukkig komt de klimaatverandering niet met tsunamisnelheid op ons af en zal in de toekomst, door verder wetenschappelijk onderzoek en monitoring, geleidelijk aan een beter zicht ontstaan op de werkelijke omvang van de ‘probability’ van klimaatverandering en de gevolgen daarvan voor onze zeespiegel en afvoerregimes van de grote rivieren. Voorkómen dient te worden dat er nu een tunnelvisie ontstaat waarin de voorgestelde maximum bovengrenswaarden kritiekloos geïnterpreteerd worden als een rigide toetsingsnorm voor bestaande en nieuwe grote waterbouwkundige werken. Beter ware het óók rekening te houden met scenario’s waarin de zeespiegel (in absolute zin) aanzienlijk minder snel stijgt dan de nu gehanteerde bovengrens. Tenslotte wordt aanbevolen dat politieke besluitvormers een beroep kunnen doen op een onafhankelijke (lees: los van IPCC en PBL), pragmatisch ingestelde, multidisciplinaire adviesgroep die in staat is het internationaal onderzoek naar de oorzaken en gevolgen van klimaatverandering te vertalen in adequate maatregelen voor Nederland.

De analyse inzake oorzaak en snelheid van de zeespiegelstijging in onze regio is nog omgeven is door vele vraagtekens. Nader onderzoek is op zijn plaats. Maar vooralsnog ziet het er niet naar uit dat we in de buurt gaan komen van de maximale bovengrenswaarde waar de Deltacommissie voor het jaar 2100 rekening mee houdt: 120 cm oftewel gemiddeld 12 mm/jaar!


De zeespiegel en het gravitatie-effect

Vanaf 1985 werkt men voor wat betreft de zeespiegelmetingen samen in een internationaal programma, GLOSS  genaamd (Global Sea Level Observing System).  Hierin werken een aantal zeemeetcentra samen, zoals PSMSL (Permanent Service for Mean Sea Level), BODC (British Oceanographic Data Centre) en UHSLC (University of Hawaii Sea Level Centre). Op onderstaand kaartje is de spreiding van de 290 meetstations van GLOSS te zien. De spreiding is erg ongelijkmatig, met – erfenis van het verleden – vooral veel kuststations. Maar GLOSS gebruikt tegenwoordig ook de satellietgegevens als aanvulling op de meetstations.  ( Bron:  GLOSS )

gloss

Het gemiddeld zeeniveau is een lastig begrip, omdat, anders dan men zou vermoeden, het water in zeeën en oceanen niet fraai op 1 niveau staat, zoals het water in een glas.  Er zitten allerlei bulten en laagtes in, soms lokaal, soms zich uitstrekkend over een paar duizend kilometers, en soms zelfs over nog grotere gebieden.  Een aantal van die bulten en dalen hebben een zekere periodiciteit, van enkele minuten tot een aantal jaren. De bekendste daarvan is de getijdenwerking als gevolg van de aantrekkingskracht van maan en zon. De rotatie van de aarde rond zijn as veroorzaakt ook een bult, de zogenaamde Chandler wobble. Maar ook allerlei andere zaken  zorgen ervoor dat het zeeniveau lokaal of regionaal ongelijk is.  Bekend is het ontstaan van tsunami’s als gevolg van aardbevingen, maar ook stormen, El Niño/La Niña, luchtdrukverschillen, neerslag en verdamping, periodiciteit in de dichtheid van water (temperatuur en zoutgehalte) en zaken als veranderende zeestromen kunnen het water doen opbollen of zakken. Kortom: het valt nog niet mee om het gemiddelde zeeniveau te bepalen. Kijk maar eens op het kaatje hieronder, dat het verschil in zeeniveau weergeeft tussen 1993 en 2008. De conclusie is duidelijk: er is geen uniforme zeespiegelstijging.

sea level 1993 -2008Bron:  NASA/JLP

De in de grafiek weergegeven zeespiegelstijging is dus sterk afhankelijk van de positie op aarde. Op wit ingekleurde locaties steeg de zeespiegel 10 millimeter per jaar, in de paarse gebieden trad een zeespiegeldaling op van 5 millimeter per jaar. Stel nu eens dat alle bovengenoemde effecten uitgeschakeld zijn, dan gedraagt het water in de oceanen en zeeën zich nog steeds niet zoals in een glas. De oorzaken daarvan zijn isostasie, verticale bewegingen van de aardkorst  als gevolg van bijvoorbeeld afsmelten van landijs of gebergtevorming, en het zogenaamde gravitatie-effect.

Wat isostasie doet kan men goed waarnemen in Scandinavië.  Vanwege het afsmelten van het landijs na de Weichselijstijd (vanaf 10.000 jaar geleden) veert het – ontdaan van de loodzware last van het ijs – stevig op.  Rond de Botnische golf liggen oude stranden die momenteel ver boven het huidige wateroppervlak uitsteken. De Höga Kusten/Kvarken rond de Botnische Golf is sinds de laatste ijstijd 285 m.  omhoog gekomen ten opzichte van het huidige zeeniveau.  En dan te bedenken dat het zeeniveau sindsdien zo’n 120 m gestegen is! Het laatste uur voor de Botnische Golf en de Oostzee is derhalve geslagen:  door de isostatische opheffing zal de verbinding met de Noordzee tussen Denemarken en Zweden over niet al te lange tijd verlanden, en de Oostzee/Botnische Golf zullen meren worden.  Datzelfde lot is vanwege dezelfde reden ook de Hudsonbaai in Oost-Canada beschoren, tenzij de volgende ijstijd snel aanbreekt. De isostatische uplift aan de zuidrand van de Hudsonbaai is zo’n 272 m. ten opzichte van het huidige zeeniveau. Hieronder een foto van de Höga Kusten. De toppen van de heuvels aan de overkant van de baai lagen 10.000 jaar geleden op zeeniveau.

hoge kust

 

Het gravitatie-effect is minstens zo spectaculair als isostasie. Daar waar grote massa’s aanwezig zijn wordt water aangetrokken, zoals de maan aan het zeewater trekt. Op onderstaande tekening is te zien hoe dat gaat.

gravitatie1Bron: Jerry Mitrovica & Natalya Gomez, University of Toronto
Door het afsmelten van een grote landijskap veert de aardkorst enigszins terug als gevolg van isostasie. Door het verdwijnen van de grote massa landijs daalt het zeeniveau relatief gezien in de nabijheid van de vrogere ijsmassa, en stijgt het relatief op grotere afstand.  Deze bewegingen zijn relatief, omdat uiteraard het afsmelten van een grote hoeveelheid landijs, zoals bijvoorbeeld het Groenlands ijs,  per saldo het zeeniveau overal zal laten stijgen. Alleen de mate waarin hangt dus af van de afstand tot de ijsmassa. Over die afstanden waarop het zeeniveau relatief daalt of stijgt, is al veel bekend.

Op onderstaande tekening is te zien wat het verdwijnen van een landijsmassa inhoudt voor de zeespiegel. Geofysicus Bert Vermeersen  van de TU Delft heeft berekend dat vanwege het gravitatie-effect bij afsmelten van landijs de zeespiegel tot op een afstand van 2200 km zal dalen. Tussen 2200 km en 6700 zal het niveau stijgen, maar minder dan op basis van het afgesmolten ijs zou mogen verwachten indien het water zich zou gedragen als in een glas water. Vanaf 6700 km zal het zeeniveau sterker stijgen dan verwacht.  (Vermeersen, A.A.J., Effects of ice-melt induced gravity changes and solid earth deformation in the Netherlands, Netherlands Journal of Geosciences (Geologie en Mijnbouw), 87 (3), 215, September 2008.)

gravitatie2

In de tekening is de rode lijn 1 het zeeniveau met ijskap,  lijn 3 het zeeniveau met ijskap indien er geen gravitatie-effect ziu zijn, en lijn 2 het zeeniveau na het afsmelten van het landijs.  De afstanden van 2200 km en 6700 km zijn vaste afstanden, en gelden ongeacht de hoeveelheid ijs dat afsmelt.

Wat betekent dit nu voor het zeeniveau als er bijvoorbeeld 1 mm landijs afsmelt? Onderstaande kaartjes geven een beeld van de zeespiegelstijging in mm die dan optreedt.  Het bovenste kaartje toont de niveauverandering  als er 1 mm  ijs van Antarctica afsmelt, het onderste kaartje als er 1 mm ijs van Groenland afsmelt.  Bron: Mitrova c.s. (Mitrova et al, Recent mass balance of polar ice sheets inferred from patterns of global sea-level change, Nature 409, 1026-1029 , 2001).

sea level1

Wat betekent een en ander nu voor Nederland? Nederland bevindt zich ten opzichte van Groenland in de zone tussen 2200 en 6700 km. Als al het landijs op Groenland zou smelten dan zou dat een gemiddelde zeespiegelstijging van ongeveer 7m veroorzaken.  Maar vanwege het gravitatie-effect blijft stijging aan de Nederlandse kust beperkt tot 2m .  Nederland ligt immers in de zone tussen de 2200 km en 6700 km verwijderd van Groenland. Een lichte ophoging van de zeeweringen zou de zaak hier aardig onder controle houden. Maar van afsmelten van de Groenlandse ijskap is geen sprake. Op het kaartje hieronder (bron Mitrova et al, 2001) is te zien wat het relatieve effect is als al het landijs van Groenland zou smelten. Donkerblauw is de zone waarin het zeeniveau zal dalen, terwijl de sterkste stijgingen (donkerrood) op het Zuidelijk Halfrond te vinden zijn.

gravitatie3

Een geheel ander verhaal wordt het als al het ijs van Antarctica zou smelten. Dan zou het zeeniveau in onze contreien tientallen meters stijgen. Gelukkig is er geen enkele aanwijzing dat dat staat te gebeuren. Net zomin trouwens als het afsmelten van de IJslandse gletsjers, want dat zou een zeeniveaudaling in onze omgeving veroorzaken!


De zeespiegel en het klimaat

In een recent artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.

kemp1
kemp2
kemp4

Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.

kemp5Bron: Mörner

Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

kemp6Bron: WUWT

Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijkHampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

kemp3Bron: WUWT

Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.

kemp7

Het tweede probleem betreft de gebruikte temperatuurreconstructie. Die stamt uit een publicatie uit 2008 van Michael Mann, een van de auteurs. En die reconstructie heeft behoorlijk wat kritiek gekregen sinds de publicatie. Een van de zwaarste punten van kritiek is dat Mann de proxies van Tiljander gespiegeld heeft gebruikt. Zie onder andere hier en hier. Amac gaf in 2009 al een uitgebreid overzicht over de discussies over de kwestie.

Een voorzichtige conclusie is dat de manier waarop Mann de 3 Tiljander datareeksen heeft gebruikt zeer omstreden is. Waarom de auteursploeg dan toch deze reconstructie heeft gebruikt in deze studie is de grote vraag. Dat is het zeker omdat een van de auteurs, Martin Vermeer, in een verhit debat op een klimaatblog een opmerkelijke uitspraak doet. Op een opmerking van Steve Mosher dat, indien het (volgens Vermeer) voor de resultaten niet uitmaakt of je de proxiedata van Tiljander al of niet omgekeerd gebruikt, het dan beter zou zijn om de grafiek met de juiste oriëntatie toe te passen, antwoordt Vermeer: “I would agree with you when starting from scratch. But for an existing paper you have to be reponsive to issues brought up by showing how they affect the reported results. If they completely undermine them, you have to retract; short of that, completely rewriting the paper is not usually an option. BTW I would have left out these questionable proxies. But it’s a judgment call, and Mann made this choice.”

Waarom Vermeer bij de publicatie van het recente artikel over de zeespiegel er niet op aangedrongen heeft de omstreden proxies niet te gebruiken, is onbekend. Misschien heeft hij dat wel gedaan, maar is Mann’s invloed van doorslaggevende invloed geweest. Van dat laatste is onderstaande figuur uit het bekende Wegman Report illustratief. De machtige positie van Michael Mann in het wereldje van de paleoklimatologen is in een klap duidelijk:

kemp8

Bron: Wegman Report


Warmte-inhoud van oceanen zegt iets over klimaatgevoeligheid.

Oceanen nemen ruim 70% van de totale opppervlakte van de aarde voor hun rekening. Oceanen zijn vanwege hun fysische eigenschappen in staat om veel grotere hoeveelheden energie te bufferen dan de continenten en de biosfeer. Zie hier in kort bestek de ingrediënten voor een toenemende belangstelling voor oceanen in de discussie over ‘global warming’.

Natuurlijk wisten we al veel langer dat oceanen een belangrijke factor vormen in het klimaatsysteem van de aarde, maar de overdreven belangstelling voor broeikasgassen in de energiebalans van de aarde heeft lange tijd de aandacht vooral gefocused op de temperatuur aan het aardoppervlak. Daarbij speelde en speelt de SST (sea surface temperature) een belangrijke rol. De laatste jaren is er een toenemende belangstelling voor de temperatuur in dieper water dan de SST. Met name de ontwikkeling van de ARGO-programma heeft hiertoe een flinke stimulans geleverd. Lees hierover in de “Nulhypothese Clark” in het hoofdstuk “Nieuwe Inzichten”.

De (meeste) oceanen bestaan thermisch bezien uit 4 lagen. Bovenin een laag van ongeveer 50m dik waarbij de temperatuur sterk gekoppeld is aan de temperatuur van de onderste luchtlagen als gevolg van warmteoverdracht en menging. Daaronder een ‘spronglaag’ of thermocline : van 50 meter tot 200 meter diep, ontbrekend in de poolzeeën. Het is een menglaag met o.a. door de seizoenen sterke verschillen in temperatuur. Daaronder de laag van 200m tot 2 km diep met een relatief stabiele overgang van hogere temperaturen naar de stabiele lage temperaturen van de diepzee. En tenslotte de diepzee (dieper dan 2 km) met constante temperaturen rond 0° C.

Roy Spencer van de UAH heeft onlangs een interessant onderzoek gedaan naar de zogenaamde ‘heat content’ van de bovenste 700m van de oceanen . In het Nederlands is ‘heat content’ de warmte-inhoud. Dat is de totale hoeveelheid warmte die opgeslagen is in een bepaalde hoeveelheid water ((standaard 1 kg) bij een bepaalde temperatuur. De warmte-inhoud van water is het aantal graden x de soortelijke warmte (4,19 kJ/kg.K). Eén kg water van 20° C heeft dus een warmte-inhoud van 20 x 4,19 = 83,8 kJ.

levitus1Bron: Levitus 2009

In bovenstaande figuur is de warmte-inhoud-anomalie vanaf 1955 t/m 2008 weergeven, zoals berekend door Levitus e.a. (2009). De stijging ziet er fors uit, maar het gaat dan ook om een enorme hoeveelheid zeewater. We zien een stijging tussen begin jaren ’70 tot 2003, waarna er een stabilisatie optreedt. Stijging en daling in de warmte-inhoud vinden plaats als er een onbalans is tussen inkomende en uitgaande straling. De data die door Levitus werden gebruikt komen uit een aantal bronnen. Daarbinnen zijn de berekeningen van de SST erg belangrijk. Levitus heeft om zekerheid te hebben over de betrouwbaarheid van de berekende warmte-inhoud van de bovenste 700m een vergelijking gemaakt tussen de 3 databronnen voor de SST. (Levitus 2008)

levitus2Bron: Levitus et al 2008

Daarbij valt op dat de datareeksen van NCDC, Hadley Centre en WOD05 uitstekend overeenkomen. Spencer heeft op basis van bovenstaande tijdreeks uit de eerste figuur van Levitus berekend hoeveel extra energie er per jaar het systeem in dan wel uit gegaan is. Een relatief simpele rekensom als je de verandering van de warmte-inhoud weet en de totale oppervlakte van de oceanen. Hij komt uit op een toename van de inkomende straling van 0,2 W/m^2 voor de totale periode 1955-2010. Dat komt goed overeen met de berekening die Levitus e.a. ook maakten in hun publicatie uit 2009. Omgerekend betekent dit een temperatuurtoename van de bovenste 700m van 0,17° C voor de totale periode 1955-2008.

Het bijzondere aan die temperatuurstijging van 0,17° C is dat deze ver achter blijft bij de HadSST (SST door Hadley Centre) , die voor delfde periode een temperatuurtoename van 0,6° C claimt. Tot zover niet heel spectaculair, zou je zeggen. Maar dan gaat Spencer iets heel aardigs doen. Hij bekijkt van jaar tot jaar het verschil in warmte-inhoud, en berekent vervolgens hoeveel energie er nodig was om die jaarlijkse verschillen te veroorzaken. Hij vergelijkt dan zijn uitkomsten met enkele grafieken van de hand van James Hansen, kopstuk bij GISS/NASA. Hansen publiceerde die grafieken in 2007 in een studie genaamd: Dangerous human-made interference with climate: a GISS modelE study .

Hansen1

Hansen2Bron: Hansen et al 2007

In de eerste grafiek is van een aantal forcings voor de periode 1880-2003 de invloed weergegeven op de stralingsbalans. De tweede grafiek is het netto resultaat van al die forcings. Omdat de grafieken van Hansen slechts t/m 2003 lopen heeft Spencer voor de laatste jaren van het afgelopen decennium alle forcings op een na onveranderd gehouden, alleen het CO2-gehalte heeft hij op basis van recente metingen laten stijgen.
spencer3Bron: www.drroyspencer.com

Voor de periode 1955-2010 berekent Spencer op basis van de grafieken van Hansen een gemiddelde toename van de ‘radiative forcing’ van 0,8 W/m^2, terwijl in dezelfde periode de warmte-inhoud met ‘slechts’ 0,2 W/m^2 is toegenomen. Hoe kan dat ? Waar zijn die andere 0,6 W/m^2 gebleven? Spencers antwoord hierop is: feedback. Feedbacks in de vorm van verandering in bewolking, waterdamp en extra output van warmtestraling als gevolg van opwarming. Die extra output van warmtestraling noemt Spencer ‘THE main climate stabilizing influence’. Ik permitteer me de vrijheid om bij dat laatste eerder te denken aan extra latente energie en convectie als gevolg van opwarming dan aan extra stralingsenergie, hoewel dit laatste uiteraard ook zal plaatsvinden. Zie voor dit laatste ook de ideeën van Noor van Andel, Miskolczi en Clark in het hoofdstuk ‘Nieuwe Inzichten’. Conclusie: het klimaatsysteem van de aarde is veel minder gevoelig voor forcings zoals CO2-stijging dan gedacht door het IPCC.

spencer4Bron: www.drroyspencer.com

Met behulp van een eenvoudig fysisch model tracht Spencer tenslotte de feedback-parameter λ zodanig te parameteriseren dat de ‘radiative imbalance’ zo goed mogelijk overeenkomt met de gemeten toename van de warmte-inhoud met 0,2 W/m^2. Zie bovenstaande figuur. Let op het feit dat in het model de sterke feedback de forcing grotendeels neutraliseert, zoals de toename van de warmte-inhoud met 0,2 W/m^2 reeds indiceerde. Daarbij komt hij uit op een grootte van de feedback parameter λ van 4 W/m^2K, resulterend in een klimaatgevoeligheid van slechts 1° C bij verdubbeling van het atmosferische CO2-gehalte. Veel lager dus dan de door het IPCC gehanteerde gemiddelde toename van de temperatuur met 3° C.

Van diverse zijden is commentaar geleverd op bovenstaande uitkomsten, met name op het feit dat Spencer ‘slechts’ de bovenste 700m van de oceaan heeft bekeken. In een update op bovenstaand onderzoek heeft hij daarom zijn forcing-feedback model opnieuw laten lopen met de volgende 2 aanpassingen:
1) een netto opwarming over 50 jaar van 0,06° C voor de 0-2000m bovenste laag
2) een opwarming over dezelfde periode van 0,6° C van de SST

Het resultaat is een netto feedback parameter van 3W/m^2k, corresponderend met een klimaatgevoeligheid van 1,3° C bij verdubbeling van CO2, nog steeds ruim onder de gemiddeld 3° C van het IPCC, en zelfs onder de onderste limiet van 1,5° C die het IPCC voor toekomstige opwarming hanteert.

Tot slot: In de grafiek van de warmte-inhoud is te zien dat vanaf 2003 er sprake is van een stagnatie in de toename ervan, een stagnatie die tot op de dag van vandaag stand houdt. Het is wellicht interessant om dat verschijnsel in de nabije toekomst eens nader onder het licht te houden.


Nogmaals de zeespiegel

In de bijdrage van  25 november j.l. is de zeespiegelstijging aan de orde geweest naar aanleiding van opmerkingen van meteoroloog van den Berg. Hij stelt in een brochure van het KNAG ter introductie van de lezing die hij op 8 december a.s. gaat houden: “Te midden van onzekerheden zijn er wel degelijk een paar grote zekerheden. De aarde warmt op, het ijs smelt steeds sneller, en de zeespiegel reageert als verwacht, en stijgt dus steeds sneller. “ . Over die steeds sneller stijging van de zeespiegel heb ik toen geschreven dat dat niet waar was. Interessant is natuurlijk ook de vraag of de reactie van de zeespiegel op een versnelde ijssmelt een versnelde stijging is.

De bekende Duitse klimatoloog Hans von Storch noemde een publicatie over de zeespiegel van de hand van een aantal Duitse onderzoekers als een van de voor hem 6 belangrijkste klimatologische publicaties van 2010 en 2011. Het gaat om publicaties van Thomas Wahl en zijn team.
Thomas Wahl et al hebben in 2010 inderdaad een interessante publicatie het licht laten zien over de zeespiegelstijging in de Duitse Bocht sinds 1840.  In 2011 hebben ze in een nieuwe publicatie de data van hun eerdere publicatie uit 2010 verder verfijnd en verbeterd.

Wat ze gedaan hebben is het maken van een reconstructie van de zeespiegelstijging in de Duitse Bocht van 1843 tot 2008, een periode van 166 jaar. Nu gaat het hier niet om die grafiek van de zeespiegel in de Duitse Bocht, en ook niet om de overigens interessant techniek met behulp waarvan ze de reconstructie hebben gemaakt. Het gaat om onderstaande grafiek uit het tweede rapport.

slr1                                                                          Bron:  Wahl 2011

De grafiek geeft niet de trend in de zeespiegelhoogte weer, maar de jaarlijkse veranderingen. Kijk eens goed naar de rode lijn, die de SLR  (Sea Level Rise) in mm/jaar weergeeft. Er zijn 3 periodes waar te nemen waarin sprake is van een versnelling van de zeespiegelstijging. De eerste is een stijging tussen 1855 en 1880, waarin de SLR toeneemt van 0 mm/jaar tot bijna 3 mm/jaar.  De tweede acceleratieperiode loopt van 1925 tot 1947; de stijging ging toen van 0,5 mm/jaar tot 3,4 mm/jaar.  De laatste acceleratiefase begint 1970 en eindigt in 1996 , de SLR stijgt dan van 0,8 mm/jaar tot 3,6 mm/jaar. Na elke acceleratiefase volgt een periode van deceleratie en daalt de SLR naar waarden tussen 0 en 1 mm/jaar. Als we de Hadcrut globale temperatuurreeks er bijhalen, dan zien we een opvallende correlatie tussen het verloop van de gemiddelde wereldtemperatuur en de SLR.

tempcru

Bron:  HadCrut

Als er sprake is van een acceleratie van de luchttemperatuur aan het aardoppervlak, dan volgt met een lichte vertraging ook een acceleratie van de SLR.

In de bijdrage van 6-9-2011 is de sterke correlatie tussen de globale temperatuurreeks van HadCRut en de watertemperatuurreeks van het noordelijk deel van de Atlantische Oceaan aan de orde geweest. De vraag was toen welke van de twee domeinen, oceaan of atmosfeer, de sturende kracht is binnen deze correlatie. Nienke te Raa (IMAU 2006) schreef in het blad Meteorologica hierover: “…wat veroorzaakt deze Atlantische Multidecadale Oscillatie? Eerder onderzoek heeft uitgewezen dat veranderingen in de atmosfeer waarschijnlijk niet de oorzaak zijn van de AMO, maar het gevolg. Onze hypothese was dan ook dat dit verschijnsel het gevolg is van interne wisselwerkingen in de oceaan.  ”.  Zie voor verdere details hierover de bijdragen uit augustus en september 2011.

Conclusie: er is weliswaar sprake van een acceleratie van de SLR tussen 1970 en 1996, maar een vergelijkbare stijging deed zich ook voor tussen 1855 en 1880, en tussen 1925 en 1947. De meest recente acceleratie van de SLR koppelen aan versnelde afsmelt van ijs is derhalve mijns inziens puur speculatief. Van beide eerste acceleratieperiodes is niets bekend over een versnelde afsmelt van landijs, en gletsjers die korter worden kennen we al vanaf 1800.

De koppeling tussen de zeespiegel en het afsmelten van ijs is veel complexer is dan van den Berg suggereert. In 2010 publiceerde Kahn et al een studie naar de massabalans van het Groenlandse ijs met behulp van satellietgegevens van GRACE en GPS tussen 2002 en 2010. De conclusie was dat het landijs in Z. Groenland vanaf  eind 2003 en vanaf eind 2005 ook in  NW Groenland versneld aan het afsmelten is.

sea level 2011

Bekijken we de meest recente data van de zeespiegel van de universiteit van Colorado in de figuur hier boven, dan is van die versnelling van afsmelt in Groenland in het verloop van de zeehoogte niets te merken. De stijging van het gemiddeld zeeniveau vlakt zelfs sinds 2005 af.  Waaruit maar eens blijkt hoe ingewikkeld het oceaan-atmosfeersysteem in elkaar zit. Het kan natuurlijk ook wat te maken hebben met de methode die Kahn et al hebben gebruikt. Misschien daar later meer over.


Professor Pier Vellinga door de bocht

Dat Pier Vellinga van de Universiteit Wageningen het soms niet zo nauw neemt met meetgegevens is hier al eens eerder onderwerp van bespreking geweest. Vellinga heeft een boodschap te verkondigen, en dan heiligt het doel klaarblijkelijk de middelen.

Gisteren was het weer zo ver. In de aardige televisiereeks over de Waddenzee mocht Vellinga iets vertellen over de zeespiegelstijging en uiteraard de gevaren daarvan in het kader van de door hem gevreesde opwarming. Die uitzending kan hier bekeken worden.

pier
Bron:  NCRV uitzending gemist
Op het screenshot hierboven geeft Vellinga aan hoe groot de zeespiegelstijging is geweest in de Waddenzee vanaf de oplevering van de Afsluitdijk in 1932. Ik schat de afstand tussen zijn handen op ongeveer 60 cm. Dat leek met wat overdreven.

In Den Helder wordt al sinds jaar en dag de hoogte van de zeespiegel bijgehouden. Op de site van Rijkswaterstaat is via de webapplicatie Waterbase deze meetreeks van jaar tot jaar tot in detail te volgen.

Op onderstaande grafiek is zijn de maandelijkse gemiddelde zeehoogten in Den Helder weergegeven van 1865 tot 2000. In die periode is de relatieve zeespiegelstijging 14,4 cm/eeuw. Ongeveer 5 cm van deze stijging komt voor rekening van bodemdaling in Noord Nederland als gevolg van het opveren van Scandinavië na de laatste ijstijd. Dat betekent dat de eustatische zeespiegelstijging in Den Helder tussen 1865 en 2000 neerkomt op ongeveer 9 cm/eeuw. Voor een periode van 80 jaar (de leeftijd van de Afsluitdijk) is de relatieve zeespiegelstijging ongeveer 11,5 cm.

pier1
Bron: Hans Erren

Uit een rapport van Shell uit 2006 betreffende gaswinning in de Waddenzee komt de volgende grafiek. Het betreft de gemiddelde zeespiegelhoogte in Den Helder van 1870 tot 2005.  Shell komt op een relatieve zeespiegelstijging van 22,4 cm/eeuw inclusief een waargenomen versnelling gedurende de laatste decennia. De oranje lijn zou de mondiale zeespiegelstijging weergeven. Voor een periode van 80 jaar betekent dit een stijging van ongeveer 18 cm.

pier2
Bron:  Shell

Conclusie: Vellinga neemt het hier niet zo nauw met de waarheid: hij overdrijft de zeespiegelstijging de afgelopen 80 jaar met een factor 3 tot meer dan 5, afhankelijk van de gebruikte meetreeks. Dat is wel een hele ruime marge voor een wetenschapper.

 

 

” Opwarming van het klimaat zorgt de komende eeuwen voor een significante stijging van de zeespiegel. Zelfs bij een succesvol klimaatbeleid met een opwarming van minder dan 2 graden Celsius stijgt de zeespiegel deze eeuw 75 tot 80 centimeter ten opzichte van 2000. Rond 2300 is een verdere stijging tussen de 1,5 en 4,0 meter te verwachten, met als meest waarschijnlijke stijging 2,7 meter. Dat schrijven internationale klimaatonderzoekers, waaronder van Wageningen University, in het wetenschappelijk tijdschrift Nature Climate Change van 24 juni. Zij doen die uitspraken op basis van zeer uitvoerige berekeningen van de zeespiegelstijging in de afgelopen duizend jaar en beleidsscenario’s rond de uitstoot van broeikasgassen in de komende eeuwen.

Met een gericht klimaatbeleid kan de uitstoot van CO2 verder worden teruggebracht en daarmee de opwarming op max.  1,5 graad Celsius uitkomen. In die omstandigheden valt volgens de onderzoekers de meest waarschijnlijke stijging in 2300 lager uit, maar die is dan naar schatting nog altijd ruwweg 1,5 meter. Als de klimaatopwarming in de komende eeuwen uitkomt op 3 graden, dan is een stijging tussen 2 en 5 meter te verwachten, met een meest waarschijnlijke stijging van 3,5 meter.”
Aan de aanhalingstekens en de cursieve letter is al te zien dat dit een citaat is en dat dit niet uit eigen koker komt. Het is een deel van een persbericht dat de WUR gepubliceerd heeft naar aanleiding van een nieuwe publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin Vermeer, Long-term sea-level rise implied by 1.5°C and 2°C warming levels,  in Nature Climate Change van 24 juni  2012.

delta

Nu waren we al wat gewend na het rapport van de Deltacommissie onder leiding van Cees Veerman. De commissie bestond uit 10 mensen, van wie er zeggen en schrijven 3 iets hebben gestudeerd dat met het onderwerp zeespiegel te maken heeft. Conclusie van de commissie: rond 2100 is de zeespiegel tussen 65 en 130 cm gestegen. Hoon was hun deel, toen bleek dat die 130 cm bij elkaar gerommeld was. Wat dat betreft vallen die 75 tot 80 cm in het jaar 2100 van het rapport van Schaeffer et al best wel mee. Maar is het reëel?

Schaeffer et al zeggen dit:

Projecting sea level into the future is still associated with large uncertainties. Physics-based models attempting to predict the combined contributions from thermal expansion, glaciers and ice sheets are not yet mature and underestimate the SLR observed in past decades. One of the largest uncertainties at present is the response of the Greenland and Antarctic ice sheets, where process-based models do not capture the full response so far observed1, nor the timescales of response seen in the palaeorecord.
Voorzichtigheid dus ook bij de auteurs, maar desalniettemin een voorspelling van een forse zeespiegelstijging voor de komende 90 jaar. Laat ik daarom eens enkele aspecten van de publicatie onder de loep nemen. In de publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  maken de auteurs gebruik van een zogenaamd semi-empirisch model om toekomstige zeespiegelstijging te voorspellen. Voor het gebruik van dit model is een record van zeespiegeldata een voorwaarde. De publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”.While these models are further developed, semi-empirical models have emerged as a complementary approach and have shown their ability to reproduce sea-level evolution over the past millennium and the modern tide-gauge record well, leading to projections that are robust against different choices of input data and statistical approach. It remains open, however, how far the close link between global sea level and temperature found for the past will carry on into the future.

Despite this caveat, the results presented here provide at least plausible estimates for sea-level evolution in the coming centuries and a number of robust insights into how it can be affected by mitigation measures. A key aspect of this, irrespective of the exact numbers, is the long response time of sea level that is physically expected from the slow response of large ice sheets and the deep ocean to climate change, and also found in palaeoclimate data2. This slow response means that about half of the twenty-first century SLR is already committed from past emissions. ”.

Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is. Michael Mann was nodig om de auteurs te voorzien van cijfers over de temperatuur van de afgelopen 2000 jaar. Die komen uit zijn publicatie uit 2008, getiteld “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia”.

Dus de opzet ziet er als volgt uit:

1) De publicatie van Schaeffer et al doet een voorspelling over de toekomstige zeespiegel in 2012
2) Daarvoor is een reconstructie nodig van de zeespiegel over de afgelopen 2000 jaar, die wordt geleverd door Kemp et al in 2011
3) De reconstructie van de zeespiegel gedurende de afgelopen 2000 jaar kan niet zonder een reconstructie van de globale temperatuur van de afgelopen 2000 jaar, en die wordt geleverd door Mann et al in 2008

 

bas14
Bron: agreenliving.org

In deze paragraaf zal ik me richten op de locatie van het onderzoek en de problemen en onzekerheden die daarmee samenhangen. Daarover heb ik a eerder op deze site geschreven. In een volgende bijdrage zal ik aandacht besteden aan het model dat de onderzoekers gebruikt hebben.

In het artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.

kemp1
kemp2
kemp4

Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.

kemp5Bron: Mörner
Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

kemp6Bron: WUWT
Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijkHampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

kemp3Bron: WUWT
Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.

 

In deze paragraaf ga ik in op het door Kemp et al gebruikte wiskundige model om met behulp van de gereconstrueerde zeespiegeldata van de afgelopen 2000 jaar een voorspelling te doen voor de komende eeuwen. Tom Moriarty heeft in zijn weblog climatesanity het gebruikte model aan een nadere inspectie onderworpen. Moriarty is fysicus en Senior Scientist bij de  US Department of Energy’s National Renewable Energy Laboratory. Moriarty ploos het gebruikte wiskundige model van Kemp et al uit en gebruikte daarvoor ook de modellen die de auteurs in voorafgaande publicaties gebruikten. Zie hiervoor zijn bijdragen.  KMVR2011 is de bovengenoemde publicatie van Kemp:

“ Here is the KMVR2011 model:

tom1

where

tom2

Where H is the sea level, T(t) is the global temperature, Too, a1, a2, b and τ are all constants and To(t) is a to-be-determined time varying function related to T(t) as defined by equation Ia.

Now, consider the following temperature evolution.  It is nearly the same as equation II from my previous post, but has an additional unitless constant, γ (a.k.a. “gamma”), in the exponential…

tom3

If equation II is inserted into equation I, then…

tom4

Rearranging terms in equation III gives…

tom5tom6

H is the sea level.  dH/dt, the derivative of the sea level,  is the sea level rise rate.  d2H/dt2, the second derivative of the sea level, is the rate at which the sea level rise rate changes.  That is, d2H/dt2, is the acceleration.  If d2H/dt2, is positive, the sea level rise rate is increasing.  Conversely, if d2H/dt2, is negative, then the sea level rise rate is decreasing.  Taking the time derivative of equation IIIa gives…

Let’s also consider the difference in the sea level rise rates at some time, t, for different values of γ.  We can do this by analyzing the derivative of dH/dt (equation IIIa) with respect to γ.

tom7

What does the math tell us? KMVR2011 does not conclude with specific values for their model constants and their time varying T0(t).  Instead, they present probability density distributions for some constants, or combination of constants.  However, there are some definite constraints that can be noted about the variables and their relationships to each other.  These constraints are key to my conclusions.

Constraints:
*)  a1 + a2 = a, where a1 and a2 are defined in KMVR2011 (see equation I, above) and a is defined in VR2009.  VR2009 found a = 5.6 mm/yr/K.
*)  a1 > 0 mm/yr/K  and a2 > 0 mm/yr/K.  KMVR20011 states that the distribution of a1 for their Bayesian analysis varied between 0.01 and 0.51 mm/yr/K.   Needless to say, if either of these terms were less than zero the KMVR2011 model would make even less sense that it does now.  That would be a road that the KMVR2011 authors do not want to travel.
*)  b < 0 .  VR2009 found b = -49 mm/K.   KMVR2011 varied b about -49 mm/K with σ2 = (10 mm/K)2 for their Bayesian analysis.

( VR2009 is de publicatie van Vermeer en  Rahmstorf , 2009 PNAS paper, “Global sea level linked to global temperature“ ( Rob de Vos))

*)  C  > 0.  C is a unitless constant that I introduced, and for the purposes of this post I am constraining C to be greater than zero.
*)  γ > 0.  γ is a unitless constant that I introduced, and for the purposes of this post I am constraining γ to be greater than zero.
*)  Time, t, is restricted to about 1900 and later for my hypothetical temperature (equation II).  This insures that T(t) > T0(t), which in turn insures that dT0(t)/dt > 0.

The equations above, coupled with the listed constraints guarantee the signs of the derivatives shown in table 1, below.

tom8
Table 1. Derivatives of temperatures and second derivatives of sea level.
Green “up arrows” indicate increasing values and red “down arrows” indicate decreasing values.

As you can see from table 1, it gets little confusing for 0<γ<1.  When a1, a2, b, C, and γ conform to the listed constraints, the signs of the various derivatives are known with certainty as long as…

tom9

But when …

tom10

at some point in time t- t’ will become large enough that d2H/dγdt will become positive.  When that time occurs depends on the choices of a1, a2, b  and γ.  If we choose a1, a2 and b to agree with VR2009 (recall a1 +a2 = a = 5.6 mm/yr/K, and b = -49 mm/K) and γ = 0.8, then d2H/dγdt will continue to be negative until t – t’ = 44 years. “.

De conclusie van Moriarty uit bovenstaande exercitie in hogere wiskunde is nogal absurd: Het model van Kemp et al levert bij hogere temperatuurstijgingen geen stijging van het zeeniveau op maar een daling ervan! Deze grafiek geeft de temperatuurstijging weer bij verschillende scenario’s:

tom11
En dit zij de gevolgen voor de zeespiegel als men het model van Kemp et al hanteert:

tom12
Conclusie: het gehanteerde model voorspelt zeespiegeldalingen bij temperatuurstijgingen. Volgens Kemp is dit een gevolg van het feit dat de constante b een negatief teken heeft.

Stefan Rahmstorf zei over Moriarty:  “ Science progresses by peer-reviewed publications, not blogs. We are well advanced in preparing a paper that includes the latest sea level data and groundwater pumping estimates, as well as looking at a number of other factors. That will be up for discussion once it appears in the peer-reviewed literature. (Without giving away too much, I can probably already say that we come to different conclusions from what you claim.) ”.

Dit commentaar van Rahmstorf deed hij vóór de laatste publicatie. Misschien zou het voor de wetenschap goed zijn als  Rahmstorf zijn academische arrogantie eens opzij zou zetten. Moriarty is niet de eerste ‘leek’  die buiten het formele circuit van publicaties om laat zien dat hij verstand van zaken heeft. Maar helaas wordt hij , net als McIntyre, gezien als een gevaarlijke buitenstaander. Dat dit tot verhitte debatten en ferme uitspraken leidt leest men in deze blog.

 

 Zeespiegel Den Helder stijgt al 146 jaar constant

den helder1
De zeespiegel bij Den Helder wordt al vanaf 1865 meerdere malen per dag gemeten. De gegevns zijn van PSMSL, de instantie die de meetgegevens van vrijwel alle getijdemetingen bijhoudt.  Met behulp van deze gegevens berekent men dagelijkse, maandelijkse en jaarlijkse gemiddelden. In bovenstaande figuur heb ik de jaarlijkse gemiddelden uitgezet in een grafiek. Tevens heb ik een lineaire trendlijn door Excel laten berekenen en tekenen. Dat is de zwarte lijn. Zoals u ziet is er geen versnelling in de zeespiegelstijging te bekennen. De verticale schaal is gebaseerd op de zogenaamde RLR,  Revised Local Reference, de standaardisatie die  PSMSL toepast op de meetgegegevens.

Waarom is het feit dat er geen versnelling te constateren valt bijzonder? Omdat het IPCC in haar rapport uit 2007 stelde:  “ Satellite altimetry… shows that since 1993, sea level has been rising at a rate of around 3 mm/yr, significantly higher than the average during the previous half century. Coastal tide gauge measurements confirm this observation.”. Dat had het IPCC natuurlijk niet zelf verzonnen, maar gehaald uit een toen recente publicatie van Church en White uit 2006, A 20th century acceleration in global sea-level rise. Natuurlijk kan men tegenwerpen dat Den Helder niet de wereld is, maar ik zal een volgend keer laten zien dat het verloop van de zeespiegelstijging in Den Helder eerder regel dan uitzondering is op aarde.

De jaarlijkse schommelingen zijn tamelijk groot, zodat de R-kwadraat van de lineaire trendlijn niet groter is dan 0,7625. De blauwe lijn lijkt heel fraai de lineaire trendlijn te volgen. Om te zien of er in de data toch geen sprake is van een versnelling in de zeespiegelstijging zoals het IPCC en Church en White beweren, heb ik hieronder voor dezelfde date een exponentiele trendlijn ingetekend. Zoals te zien is, is deze vrijwel kaarsrecht, hetgeen ook bevestigd wordt door r2= 0,7624. Een afwijking van de r2 van de lineaire trendlijn van slechts 1/1000  !

 

den helder2

Dat alarmisten ons graag willen laten geloven dat de zeespiegel vanwege AGW veel harder stijgt dan vroeger heb ik hier al vaker aan de kaak gesteld. Ik denk bijvoorbeeld aan professor Pier Vellinga uit Wageningen die op de televisie de zeespiegelstijging van de afgelopen 80 jaar met een factor 7 (!) overdreef .

De Deltacommissie onder leiding van Cees Veerman ( de man die overal verstand van heeft) voorspelt een maximale zeespiegelstijging van maar liefst 135 cm voor het eind van de eeuw.  De zeespiegelstijging in Den Helder is de afgelopen 100 Jaar niet meer dan 15 cm gestegen.  Dat betreft de relatieve zeespiegelstijging, dus inclusief de bodemdaling ter plaatse van ongeveer 5 cm/eeuw. En van een versnelling is nog steeds geen sprake. De zee moet dus voortmaken!

 

Zeespiegel in de rest van de wereld

Conclusie is dat de zeespiegelstijging in Den Helder tussen 1865 en 2012  geen enkele versnelling laat zien.
De data waarop de grafiek van Den Helder gebaseerd is komt van PSMSL  in Groot Brittannië  en NOAA in de USA.

PSMSL en NOAA baseren hun reeksen op  data die komen van diverse organisatie in veel landen.  Zo levert Rijkswaterstaat de data van Den Helder. Hieronder ziet u een lijst van meetstations die PSMSL gebruikt, inclusief zeeniveautrends:

tabel sl1
Bron:  PSMSL en NOAA

Het betreft 194 meetstations.  Om beter zicht te krijgen op de trends in zeespiegelstijging heb ik de data van de stations in Excel ingevoerd.  Daarvoor heb ik alleen die stations gebruikt waarvan de data doorlopen tot na 2005. Er blijven dan 147 stations over. Dit zijn de resultaten:

sealevel3

De meeste trendwaarden liggen ergens tussen 0 en 4. Opmerkelijk is dat er vrij veel stations zijn die over de gemeten periode een negatieve stijging vertonen, en relatieve zeespiegeldaling dus. Vooral aan het begin van de grafiek is een dergelijke cluster te zien. Dat zijn alle meetstations in Scandinavië. Scandinavië veert sinds het einde van de laatste ijstijd (10.000 jaar geleden) op als gevolg van het afsmelten van de Scandinavische ijskap. Dat effect, glacio-isostasie genoemd, is zo sterk dat het stijgen van het land sneller gaat dan de absolute zeespiegelstijging.

Ook sommige Candese meetstations vertonen dit beeld als gevolg van het afsmelten van de Canadese ijskap. Verder is er nog een aantal meetstations dat vanwege subductie een sterke stijging van het land vertoont en derhalve een negatieve zeespiegelstijging.
Voorbeelden daarvan zijn te o.a. vinden in Japan. Aan de bovenkant  van de grafiek zijn ook uitschieters te zien. Deze meetstations tonen een opvallend grote relatieve zeespiegelstijging. Deze meetstations ondervinden een sterke daling van het land als gevolg van subductie, of als gevolg van sterke sedimentatie.

Probleem blijft dat alle meetstations op een of andere wijze beïnvloed worden door bodemdalingen en –stijgingen. Gemiddeld over de gehele aarde zou de bodemdaling theoretisch de 0 moeten naderen. Als we uitgaan van een perfect gelijkmatige geografische en geologische spreiding van alle meetstations dan zou de eerste grafiek bruikbaar zijn om de gemiddelde absolute zeespiegelstijging te berekenen. Die zou in dat geval  0,68 zijn, dus 6,8 cm/eeuw. Maar de meetstations liggen niet perfect gelijkmatig verspreid: er zijn relatief veel stations in Europa en Noord-Amerika, en relatief weinig in Afrika. Men kan er dus van uit gaan dat de ongelijkmatige spreiding de grafiek beïnvloedt.

Opvallend blijft dat de meeste stations een trend aangeven tussen 0 en 4. Ik vermoed daarom dat ergens in deze wolk de gemiddelde absolute zeespiegelstijging verborgen ligt. Daarom ga ik de extreem afwijkende stations buiten beschouwing laten. Ik heb alle stations met een negatieve waarde verwijderd, alsmede alle stations met een trend van > 4 . Dit is volkomen arbitrair en wetenschappelijk onverantwoord, daar ben ik me van bewust. Maar wil een beeld krijgen van de globale zeespiegeltrend.    Het resultaat is dit:

sealevel4

De rode lijn is de gemiddelde waarde van de trends van de overgebleven  102 meetstations: 1,56.  Ik schat dat dit nog aan de hoge kant is.

 

De afwezigheid van enige versnelling in de zeespiegelstijging is niet in lijn met de opvatting dat de het globale zeeniveau gerelateerd is aan de globale temperatuur. Vermeer en Rahmstorf schreven in 2009:  “ When applied to observed data of sea level and temperature for 1880–2000, and taking into account known anthropogenic hydrologic contributions to sea level, the correlation is >0.99, explaining 98% of the variance. For future global temperature scenarios of the Intergovernmental Panel on Climate Change’s Fourth Assessment Report, the relationship projects a sea-level rise ranging from 75 to 190 cm for the period 1990–2100.  ”

vermeer0

Bovenstaande figuur uit de publicatie van Vermeer en Rahmstorf ,  “Global sea level linked to global temperature” (PNAS, 2009) ,
toont met de rode lijn de gemeten zeespiegelstijging en –versnelling vanaf 1880. Er zijn twee periodes te herkennen met versnelling van de stijging: tussen 1930 en 1950, en vanaf 1980.

Ook Church en White herkennen in hun studie een versnelling rond 1930, de tweede versnelling vindt plaats na 1990. Zie hier en hier.
Omdat er in de relatieve zeespiegelstijging van Den Helder geen enkele versnelling te bespeuren valt, was ik benieuwd of dat elders op aarde anders zou zijn. Immers, de perioden van versnelling van de zeespiegel zouden ergens in de tide-gauge-data toch merkbaar moeten zijn? Ik wilde daarvoor gebruik maken van meetstations die over de afgelopen 100 jaar een continue meetreeks produceerden.  Daarvoor maakte ik wederom gebruik van de databank PSMSL.

church1

Om een indicatie te krijgen van de geografische spreiding van de gezochte data maakte ik gebruik van bovenstaande figuur uit de publicatie van Church en White uit 2011. Duidelijk is te zien dat er aan het begin van de 20e eeuw slechts een beperkt aantal meetstations was, met een sterke concentratie in Nederland, Duitsland,  Denemarken, Japan en de USA. Ik ben alle aangegeven locaties in de databank nagegaan en heb naast Den Helder nog 7 andere meetstations gevonden met een min of meer continue meetreeks vanaf 1910 tot 2010 :

Victoria, Canada
San Francisco, USA
New York, USA
Honolulu, USA
Balboa, Panama
Fremantle, Australië
North Shields, GB

Er zijn nog enkele meetstations met een meetreeks van (meer dan) een eeuw, maar die liggen dicht bij een van bovenstaande stations en leverden geen relevante meetgegevens op. Omdat ik niet in staat ben om sterke verticale bewegingen in de aardkorst statistisch te elimineren heb ik afgezien van meetstations die in sterke mate onderhevig zijn aan epirogenetische en tektogenetische bewegingen, zoals in Scandinavië en Japan. Omwille van de eenvoud ben ik ervan uitgegaan dat voor  de overgebleven meetstations geldt dat bodembewegingen gedurende de afgelopen eeuw constant waren. Ik ben immers alleen geïnteresseerd in een eventuele versnelling van de zeespiegel. Dit zijn de resultaten:

den helder 1910
victoria
san francisco
new york
honolulu
balboa
fremantle
north shields

 

Het beeld is in alle gevallen duidelijk: van een versnelling van de zeespiegelstijging is geen sprake. Omdat in alle grafieken te controleren heb ik behalve de lineaire trendlijn  (zwart) ook de exponentiele trendlijn (rood) in elke grafiek weergegeven. Beide lijnen vallen in alle grafieken vrijwel geheel samen. Van beide trendlijnen zijn de R2 –waarden in de grafieken weergegeven. Om te laten zien wat de lineaire trendlijn en exponentiele trendlijn doen als er in een meetreeks sprake is van een versnelling heb ik een eenvoudige lineaire meetreeks gemaakt, met tussen de horizontale waarden 9 en 13 een versnelling in de reeks . Het resultaat ziet u hier onder:

trend
Comclusie: in bovenstaande meetreeksen van tide-gauge-metingen over de gehele aarde  zijn geen versnellingen in de zeespiegelstijging waar te nemen. Dat staat dus haaks op de gegevens van Church en White, Vermeer en Rahmstorf en falsifieert de hypothese dat het globale zeeniveau  sterk gerelateerd is aan de globale temperatuur. De zeespiegelstijging lijkt zich niets aan te trekken van relatief korte ( enkele decennia) perioden van temperatuurstijging zoals die waargenomen zijn in de afgelopen eeuw.

Stadsklimaat

Het BEST-team ( Berkeley Earth Surface Temperature ) heeft een van haar rapporten gewijd aan het stadklimaat, het Urban Heat Island-effect. Dit effect beschrijft onder andere de hogere temperaturen in steden in vergelijking met het omliggende platteland. Een goede inleiding op dit onderwerp is te vinden op de Engelstalige Wikipedia.

In onderstaand diagram is het UHI-effect (stadsklimaat) te zien voor Tokyo: ongeveer 2°C/eeuw.

tokyo
Bron:  BEST

Minder dan 1% van de totale oppervlakte van de aarde is te beschouwen als urbaan (stedelijk), terwijl 27% van het thermometernetwerk van het GHCN-M ligt in urbane gebieden met minstens 50.000 inwoners. Als men hiermee geen rekening houdt zullen gemiddelde temperatuurdata van grote regio’s en de aarde hoger uitvallen dan ze in werkelijkheid zijn. Daarom is het nodig om het UHI-effect te kwantificeren.

Het BEST team heeft in haar eerste rapport berekend dat de gemiddelde temperatuur op het land tussen 1950 en 2010 is gestegen met 0,911 °C.  HadCrut stelt de globale opwarming van de aarde tussen 1900 en 2000 op 0,7 °C ,  het IPCC schat de globale opwarming tussen 1956 en 2005 op 0,64°C.    Als we dit laatste getal combineren met de  BEST-waarde van 0,911°C  voor het land, dan is de stijging van de temperatuur boven de oceanen  (71% van het aardoppervlak) in die periode dus grofweg 0,5°C geweest.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’  en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural.  Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.

best9
Bron:  BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming  van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

Wat is er op deze conclusie aan te merken? Toch wel het een en ander, lijkt me. Natuurlijk is het zo dat als je tot de conclusie komt dat het UHI-effect verwaarloosbaar klein is, dat deze conclusie niet verandert als je oceaandata toevoegt. Wel is het opvallend dat de stijging van de luchttemperatuur boven oceanen veel minder snel is geweest dan die boven de continenten. Het is een legitieme vraag of dit alleen toegedicht kan worden aan de fysieke verschillen tussen land en zee.

Maar er zijn ook meer inhoudelijke bezwaren tegen de conclusies in het BEST-rapport. Fred Singer  zei met betrekking tot het  rapport:  “I suspect that the temperature records still are affected by the urban heat-island effect—a term given to any local warming, whatever its cause—despite efforts to correct for this. The urban heat-island effect could include heat produced not only in urban areas, but also due to changes in land use or poor station siting”.

Over dat laatste is de afgelopen jaren al het een en ander geschreven.  Anthony Watts heeft met zijn surfacestations.orggeweldig werk verricht door reeds meer dan 80% van meetstations van het USHGN meetnet in de USA te bezoeken en te classificeren.

Watts onderzoek geeft een ontluisterend beeld van de kwaliteit van veel meetstations. Hij baseert zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDCClimate Reference Network Handbook uit 2002 ziet er als volgt uit:

class noaa
Bron:  NOAA

De indeling zelf is, als je deze nog niet eerder gezien hebt, enigszins onthutsend. Bestaan er inderdaad meetstations van de categorie 4 en 5, waarbij de meetfout respectievelijk ≥ 2°C en ≥ 5°C is?  En dan te bedenken dat de hele discussie over de opwarming van de aarde gaat over een gemiddelde stijging van 0,7°C in de 20e eeuw.

Het antwoord op die vraag is positief. Watts heeft met 650 vrijwilligers op basis van bovenstaande NOAA classificatie tot nu toe meer dan 80% van de stations in het meetnet bezocht en ingedeeld. Het bizarre resultaat is hieronder te zien:

ushcn stations

ushcn stations2
Bron:  Anthony Watts

Bovenstaande kaart is uit de paper van Watts “Is the US Surface Temperature Record Reliable?” uit 2009, toen ruim 70% van de stations geclassificeerd was.

Inmiddels is dat opgelopen tot ruim 80%, en het beeld is niet veranderd. Ruim 70% van de onderzochte stations in de USA valt  binnen klassen 4 en 5, met een afwijking van ≥ 2°C. In een cirkeldiagram ziet de procentuele verdeling van de 5 klassen er als volgt uit:

ushcn stations3
Bron:  Anthony Watts

Wie wil griezelen moet eens bladeren in de gallery die Watts heeft samengesteld van de bezochte meetpunten.

Hieronder  is een tweetal voorbeelden te zien van officiële USHCN meetstations die in de klasse 5 vallen. Naast de foto is steeds een infrarood opname te zien die een indicatie geeft van de infrarood (warmte-) straling in de directe omgeving van het meetpunt. De afbeeldingen komen uit Watts “Is the US Surface Temperature Record Reliable?”.

watts1
Bron:  Anthony Watts

Hieronder staan voor beide meetstations de meetreeksen weergegeven. Het zijn GISS-plots van de USHCN data.

watts2
watts3

De data in beide reeksen vallen dus in klasse 5, met meetafwijkingen van ≥ 5°C. Het is eenvoudig te zien waarom dat hier logisch is. Wat opvalt is dat de meetreeks van Perry sinds 1940 geen stijgende (of dalende) trend vertoont, terwijl de meetreeks van Glenns Ferry vanaf ongeveer 1980 wel een stijgende trend vertoont.

Perry en Glenns Ferry liggen in 2 verschillende klimaatgebieden, ruim 2000 km hemelsbreed uit elkaar. Het is derhalve niet vreemd dat de meetreeksen een verschillende trend vertonen. Maar temperatuurmetingen worden ook beïnvloed door de microklimatologische omstandigheden, zeker als het klasse 5 meetpunten betreft. Als je via Google Earth inzoomt op het meetpunt in Perry, op de hoek van de North 8th Street en Delaware Street, dan valt op dat de meeteenheid midden in een stedelijk bebouwde omgeving ligt.

watts6
Bron:  Google Earth

watts7
Bron:  Anthony Watts
De bevolkingsomvang van Perry was in 2010  5126 inwoners, en dat inwonertal is de afgelopen decennia nauwelijks veranderd  (US Census Bureau).  Dat gegeven plus de relatieve ligging van het meetpunt en de beelden van Street View maken het aannemelijk dat de directe omgeving van het meetpunt al decennialang stedelijk bebouwd is geweest.

Zoomen we in op het andere meetpunt, Glenns Fery in Idaho, dan zien we een geheel andere situatie:

watts4
Bron:  Google Earth
watts5
Bron:  Anthony Watts

Het meetpunt   ( rode x ) staat direct naast een tamelijk recent gebouw, dat onderdeel uitmaakt van een groter complex van bebouwing. In de onmiddelijke omgeving van de sensor is een grote transformator aanwezig. Het complex is het Oregon Trail History and Education Center,  onderdeel van het  Three Island Crossing State Park . Direct naast het gebouw ligt een grote parkeerplaats. Het gehele complex  is de afgelopen decennia aangelegd. Het lijkt derhalve niet onaannemelijk dat de stijging van de temperatuurtrend althans gedeeltelijk het gevolg is van de verstening van de directe omgeving van het meetpunt.

In het algemeen is te verwachten dat er nabij de meeste meetpuntlocaties de afgelopen decennia eerder sprake zal zijn geweest van toenemende dan van afnemende urbanisatie en bebouwing. Cruciale vraag is natuurlijk in welke mate toenemende urbanisatie van invloed is (geweest) op de waargenomen mondiale temperatuursstijging. Afgezien van het rapport van BEST zijn er de afgelopen jaren nog enkele publicaties over dit onderwerp geweest . Daarover graag de volgende keer.

Het UHI-effect deel 2

Van diverse kanten is me gevraagd om, voorafgaande aan de methodologische vergelijking van het BEST-rapport met andere publicaties, wat te schrijven over het UHI in het algemeen. Met andere woorden: wat is het UHI eigenlijk?

UHI ( urban heat island ) is het verschijnsel dat een stedelijk gebied warmer is dan zijn omgeving. Het verschijnsel is  ’s nachts vaak sterker dan overdag, en sterker bij lagere windsnelheden als gevolg van afgenomen turbulentie die menging met hogere luchtlagen verhindert. Steden zijn warmer dan hun omgeving, maar er valt ook meer neerslag, de windsnelheden zijn gemiddeld lager en de hoeveelheid inkomende zonnestraling is lager. In Nederland spreken we van een stadsklimaat. Ik ben voorstander van het gebruik van Nederlandse begrippen als dat mogelijk is, maar vanwege de overstelpende hoeveelheid Engelstalige literatuur over het onderwerp zal ik de afkorting UHI gebruiken.

De oorzaken van UHI zijn:

1)  De verminderde afkoeling als gevolg van verminderde evapotranspiratie. Verdamping is laag als gevolg van een snelle afvoer van neerslagwater in bijvoorbeeld rioleringen.  Maar ook het feit dat er in stedelijke gebieden veel minder vegetatie is vermindert de verdamping. Verdamping is, samen met convectie , de belangrijkste manier om warmte aan het aardoppervlak  af te voeren naar boven. Opwarming als gevolg van verminderde evapotranspiratie is goed te zien in onderstaande beelden van New York:

uhi5
Bron: Wikipedia

Onderstaande figuur geeft de relatieve evapotranspiratie weer van Greater Manchester:

2)   De afgifte van warmte door gebouwen, auto’s, treinen et cetera die het gevolg is van warmtebronnen binnen in deze objecten. De totale hoeveelheid energie die op deze wijze wordt gegenereerd kan oplopen tot 1/3  van de ontvangen hoeveelheid energie ontvangen door zonnestraling.

3)  De afgifte van warmte door de bebouwde omgeving in de vorm van geleiding als gevolg van de veelal goede geleidende eigenschappen van stenen, asfalt en beton in vergelijking met vegetatie. De figuur hieronder is een warmteopname van de stad Atlanta. De zwarte platte daken hebben de hoogste temperaturen, zijkanten van gebouwen die in de schaduw liggen zijn aanmerkelijk koeler.

uhi6
Bron wikipedia

4) de structuur en bouw van de gebouwen waardoor zonlicht als het ware ‘gevangen’ wordt tussen gebouwen en in gebouwen. Zonlicht reflecteert meerdere malen tussen vertikale wanden van gebouwen, grote glasoppervlakken ‘vangen’ zonlicht.

5)  De soms tot grote hoogte reikende gebouwen breken de wind wardoor het mengen van de warme onderste luchtlagen met de koelere bovenlucht vermindert. In onderstaande satellietbeeld is de multinodale UHI van de stad Atlanta te zien.

uhi4
Bron: Icecap.us

6)  Metabolische warmte  die uitgestraald wordt door de inwoners van een stad. In een metropool gaat het om miljoenen mensen.

Terug naar het UHI-rapport van het BEST-team, genaamd  “Influence of Urban Heating on the Global Temperature Land Average using Rural Sites identified from MODIS Classifications“.

De vraag was of UHI voor een versterkte toename van de temperatuur op aarde heeft gezorgd. Of anders gesteld: is door UHI de temperatuurstijging op het land vanaf 1950 van 0,9 °C  zoals door het team vastgesteld te hoog?

De methode die het team heeft gehanteerd is de volgende. De gebruikelijke mores bij onderzoek naar de relatie tussen de globale temperatuurreeks en UHI  is het vinden van een methode voor classificatie van ruimtelijke ongelijkheid op basis van voor UHI relevante factoren. In het geval van het BEST rapport is die factor de stedelijkheid van de omgeving van meetstations.

De onderzoekers van BEST maken gebruik van de dataset van MOD500.  MOD500 is een dataset die bodemgebruik op aarde classificeert met een resolutie van 500 x 500m. De data zijn afkomstig van het instrument MODIS, dat zich aan boord bevind van de satellieten Aqua en Terra. MODIS scant de aarde in 36 banden  met een golflengte tussen de 0,4 µm en 14,4 µm. Het team van prof. Annemarie Schneider van de University of Wisconsin-Madison heeft op basis van deze data de zgn. ‘Global maps of urban extent from satellite data’ gemaakt.

uhi9
Bron:  Schneider et al

Daarbij wordt het bodemgebruik op aarde ingedeeld in een zeventiental klassen:

1  Evergreen Needleleaf Forest
2  Evergreen Broadleaf Forest
3  Deciduous Needleleaf Forest
4  Deciduous Broadleaf Forest
5  Mixed Forests
6  Closed Shrublands
7  Open Shrublands
8  Woody Savannas
9  Savannas
10 Grasslands
11 Permanent Wetlands
12 Croplands
13 Urban Areas
14 Cropland – Natural Vegetation Mosaic
15 Snow and Ice
16 Barren or Sparsely Vegetated
17 Water Bodies

Klasse 13 is hier uiteraard van belang: het betreft de urban areas.  Alle andere klassen vallen onder non urban areas. De onderzoekers schrijven over de gebruikte data: “It may provide a criterion that is less socio-economically biased than night lights data, therefore it offers an alternative to the approach used by GISS.”.  Men verwijst hier naar de methode die GISS hanteert om datareeksen te homogeniseren t.a.v. het UHI.  Zie hiervoor deze publicatie.

uhi8
Bron: GISS

Om het UHI effect te elimineren in temperatuurreeksen gebruikte GISS tot voor kort een methode die gebaseerd was op vergelijking van een urbane temperatuurreeks met een van een ruraal station binnen een straal van 1200 km verwijderd vanaf het urbane station. Voor De Bilt was dat rurale referentiestation gelegen in Zuid-Duitsland (sic).  Sinds kort maakt GISS gebruik van een methode waarbij men met behulp van nachtelijke lichtuitstoot de mate van urbanisatie vaststelt. Zie de figuur hierboven.

De keuze van het BEST-team voor een classificatie op basis van non-sociaaleconomische criteria is aanvechtbaar, later hierover meer. De onderzoekers merken op dat voor een aantal meetstatiions het onduidelijk is waar ze exact gelokaliseerd zijn, zodat ze niet inpasbaar zijn binnen de resolutie van MOD500. De indeling urbaan-ruraal is daarom moeilijk toepasbaar. Als oplossing gebruikt men daarom de indeling very ruralnot very rural. De very rural sites zullen vrij van urbane invloeden zijn schatten de onderzoekers.  Van de 39.028 meetstations zijn 16.132 very rural. In de USA is dat 18% van het totaal aantal meetstations.

uhi10

Bron: BEST

De volgende stap is het analyseren van de lineaire trendlijnen van alle stations van beide klassen.  Deze kunnen positief dan wel negatief zijn. 67% is positief, 33% negatief.

In onderstaande tabel is de verdeling over beide klassen  (very rural – not very rural) weergegeven:

uhi11
Bron: BEST

Wat opvalt is dat de trendlijnen van de very rural stations zelfs een beetje negatiever zijn dan van alle stations en dus ook van de not very rural stations. De onderzoekers: “There is a statistically significant difference between the median of the complete data set and the very rural subset. The value for the difference, -0.10 ± 0.06 °C/100yr, is in the opposite direction expected from urban heating.

Conclusie van de onderzoekers: “The trend analysis also supports the view that the spurious contribution of urban heating to the global average, if present, is not a strong effect; this agrees with the conclusions in the literature that we cited previously.”

Zoals eerder gesteld staat deze conclusie haaks op de uitkomsten van diverse recente publicaties over het UHI, zoals van de Laat & Maurellis uit 2004 en 2006,  McKitrick/Michaels uit 2007, Spencer uit 2010 en Fall et al uit 2011.  Daarover een volgende keer meer.


Het UHI-effect deel 3

In de vorige aflevering over UHI van 15 november j.l. is het rapport van het BEST-team over de invloed  van UHI op de globale temperatuurreeks aan de orde geweest. De gebruikte methode is toen beschreven: op basis van een ruimtelijke classificatie van MODIS satellietdata is geconstateerd dat UHI geen noemenswaardig effect heeft op de wereldtemperatuur. Die constatering doet vreemd aan. De veronderstelde temperatuurtrend op het land van de afgelopen decennia wordt geschat op 0,2 °C per decennium ( IPCC 2001, Santer et al 2000, Jones en Moberg 2003). Tegelijk geven de satellietmetingen en de sondemetingen veel lagere en soms zelfs negatieve waarden , variërend van  -0,02 tot + 0,06 °C ( Christy et al, 2003).

 

uhi13

Bovendien is er veel aan de hand met de kwaliteit van de locatie van meetstations. In de bijdrage van   7  november j.l. is daar op in gegaan: 70,6% van de officiële meetstations in de USA vallen in de klassen 4 en 5, dat wil zeggen hebben een meetfout van ≥ 2 °C respectievelijk ≥ 5 °C als gevolg van een niet optimale locatie.

uhi22
uhi14
Bron: Watts

Het is al lang bekend dat er allerlei factoren zijn die de meting kunnen beïnvloeden. Een daarvan is de keuze van de verfsoort aan de buitenkant van een Stevensonhutje, een nog steeds veel gebruikte behuizing voor thermometers. Zie de figuren hier boven.

Een ander is de invloed van de ruimtelijke variatie van de natuurlijke omgeving waardoor een juiste keuze van meetlocatie erg belangrijk wordt. Bekend is het onderzoek naar de meetopstelling op Spitsbergen. De effecten van de topografie op temperatuurmetingen zijn al langer bekend.

uhi15uhi16
Bron:   climate4you

Tussen 2003 en 2006 steeg de gemiddelde jaarlijkse luchttemperatuur van -6,1 °C naar -1,7 °C,  een stijging van maar liefst 4,4 °C. Uiteraard werd dit onmiddellijk toegeschreven aan het versterkt broeikaseffect. Op de foto en grafiek hiernaast is te zien wat de werkelijke oorzaak was. Het officiële meetstation is gelegen naast het vliegveld , op een steenworp afstand van de baai.  Het tweede meetpunt is gelegen op de fjell. Tussen 2003 en 2006 is de baai ’s zomers ijsvrij geweest, wat een groot effect had op de temperatuurmetingen direct naast het open water. Het ijsvrij worden van de baai is een periodiek voorkomend verschijnsel, en heeft te maken met de overheersende windrichting in de betreffende zomer. Conclusie: het is zeer belangrijk, ook in een rurale omgeving, waar het meetstation gepositioneerd wordt.

De resterende factoren vallen samen te vatten onder sociaal-economische  factoren zoals BBP/inwoner, bevolkingsdichtheid, gemiddeld inkomen, en het daaraan gekoppelde  grondgebruik. Laten we dit externe factoren noemen. Dat zijn alle menselijke factoren die van invloed zijn op de temperatuurmetingen. In de vorige bijdrage van  15 november j.l. zijn dat de 6 factoren die samen UHI veroorzaken.

De organisaties die zich bezighouden met globale  temperatuurdata en de meetreeksen naar buiten brengen passen technieken toe om dergelijke sociaal-economische factoren te minimaliseren. Dat zijn  de zogenaamde homogenisatietechnieken. In vroegere bijdragen is daar al eens uitgebreid bij stil gestaan. Zie hiervoor Onder De Feiten   het hoofdstuk over de temperatuur in De Bilt. Als de homogenisatie goed is verricht dan zal het ruimtelijk patroon van de gemeten temperatuurtrends niet correleren met die van de externe factoren die de temperatuur kunnen beïnvloeden. Andersom is ook waar: als men gebruikt maakt van ruwe data  (niet gehomogeniseerd) dan is te verwachten dat er wel een verband is tussen externe factoren en het ruimtelijk patroon van temperatuurtrends.

Om aan te tonen dat de conclusie van het BEST-team , het ontbreken van een uhi signaal in de temperatuurtrends, in de wetenschap door velen niet gedragen wordt, laat ik hier een aantal recente, peer reviewede publicaties volgen die wel een uhi signaal ontdekten. Bovendien is het interessant te zien op welke verschillende wijzen men tot diezelfde conclusie gekomen is.
Thomas Karl et al (1988) beschreef het verband tussen de mate van bevolkingstoename (Time Rate of Change Method)  tussen 1901 – 1984 in 1284 plaatsen in de USA en de temperatuurtrend. Men vond zelfs een UHI in nederzettingen met minder dan 10.000 inwoners.

De bevindingen waren overeenkomstig andere onderzoeksconclusies: door UHI dalen de maximum temperaturen en stijgen de minimum temperaturen, en dat het sterkst in grote steden. Zie de tabel hieronder.

uhi17
Bron:  Karl et al

Chagnon toonde in een opmerkelijke publicatie in 1999 aan dat er in plaatsen in Illinois die gekwalificeerd waren als ruraal in de periode 1889 – 1951 sprake was van een opwaartse trend in de luchttemperatuur, en vergeleek die met de temperatuur van de bodem op 0,91 m diepte. De stijging van de bodemtemperatuur bleef 0,2 °C achter bij de gemeten luchttemperatuur in de rurale meetpunten van het American Historical Climate Network, ook al waren die reeksen gehomogeniseerd voor UHI. Hij toonde aan dat die extra opwarming het gevolg was van UHI.

Chagnon noteert: “This value is larger than the adjustment based on population that has been  recommended to eliminate the urban bias in long-term temperature trends in the U.S. Collectively, the results suggest that additional efforts may be needed to eliminate the urban influence on air temperatures, beyond techniques that simply use population as the basis. Population is only an approximation of urban factors affecting surface temperatures, and the heat island influences inherent in the values from weather stations in smaller communities which have been used as control, or data assumed to be unaffected by their urban environment in the adjustment procedures, have not been adequately accounted for.”

En:  “Both sets of surface air temperature data for Illinois believed to have the best data quality with little or no urban effects may contain urban influences causing increases of 0.2°C from 1901 to 1950. This could be significant because the IPCC (1995) indicated that the global mean temperature increased 0.3°C from 1890 to 1950.”

uhi18
Bron:  Chagnon

Böhm  bestudeerde  UHI in Wenen in de periode 1951-1995. De stad heeft een nulgroei gedurende die periode: een stagnerende bevolking van ongeveer 1,6 miljoen. Ondanks de stagnerende bevolking van ongeveer 1,6 miljoen in Wenen constateert Böhm  dat er een forse stijging van UHI is geweest in de betreffende periode.  De onderzoeker vergelijkt 34 temperatuurregistratie stations in het studiegebied van 1450 km 2 . , waarvan 3 rurale, die gebruikt werden als referentieserie voor de stedelijke meetpunten.  De extra opwarming in Wenen varieerde van site tot site: van 0,2 °C in voorstedelijke gebieden tot 1,6 °C in dichtbebouwde gebieden.

In de bestudeerde periode zijn de sociaal-economische en ruimtelijke ontwikkeling in Wenen doorgegaan. Zo verdubbelde de totale vloeroppervlakte, het totale energieverbruik werd meer dan verdubbeld,en de verkeersintensiteit nam met 60% toe. Daar tegenover stond een afname van het bosoppervlak met 20% en grasland   nam binnen de stadsgrenzen met 30% af.

Böhms  conclusies zijn mijns inziens zeer waardevol voor alle studies naar UHI: “The Vienna case study illustrates two features of more than local interest which should be considered in urban climatology as well as in time series studies where the urban temperature excess is regarded as a bias. Firstly, in a city with constant population the urban heat excess shows significant to strongly significant trends of up to 0.6 K in 45 years due to changes in urban morphology and energy consumption. Secondly, the urban heat island and its trend cannot be regarded simply for the city as a whole. There are different absolute levels, different annual variations and different increases of the urban temperature excess in different parts of a city. The urban effect is more strongly influenced by the local surroundings of the site than by the city as a whole. So, if possible, urban heat islands should not be described by a two station approach only (the typical airport-downtown comparison), nor should it rely on regression between population number and heat island.”.

uhi19
uhi20
Bron:  Böhm

Kalnay et al deden in 2003 een onderzoek naar UHI in het oostelijk deel van de USA. Ze vergeleken de gemeten oppervlaktetemperaturen tussen  1950 en 2000 met de zogenaamde NNR data. NNR staat voor NCEP – NCAR 50-year Reanalyses, een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. In de figuren hieronder is het verschil tussen de gemeten waarden en de NNR-waarden voor de stad Baltimore weergegeven. Beide signalen hebben een hoge correlatie, met een correlatiecoefficient van meer dan 0,9. Zoals te zien is lopen die waarden steeds verder uiteen. In de jaren ’90 loopt het verschil tussen de gemeten waarden (met UHI) en de NNR-waarden op tot 1,4 °C.

uhi21
Bron: Kalnay

Kalnay et al komen uit op een externe opwarming vanwege veranderend grondgebruik en urbanisatie van 0,27 °C per eeuw.
Een interessante methodiek hanteerden twee Nederlandse onderzoekers, Jos de Laat en Ahilleas Maurellis, in hun publicatie uit 2004.  Ze gebruikten industriële CO2-emissies als proxy voor de antropogene invloed op temperatuurtrends voor de periode 1979 – 2001. Voor de temperatuurdata gebruikten ze zowel satellietdata ( MSU) als gronddata (CRU). De CO2-emissiedata kwamen van de EDGAR CO2  emissions database en vormen een maat voor de industrialisatiegraad. Met behulp van een “ spatial thresholding trend technique ” analyseerden ze de correlatie tussen antropogene processen zoals veranderingen in bodemgebruik, albedo, bodemvochtigheid grondwaterstand, lichtadsorptie door roet en energiegebruik, en de temperatuur aan het aardoppervlak en in de onder-troposfeer.

uhi23
uhi23a

De Laat et al concluderen dat er een sterke ruimtelijke correlatie is tussen de temperatuurtrends in de ondertroposfeer  en de CO2-emissies. Bijvoorbeeld: regio’s met een CO2-emmisie van meer dan 1 Tg/jaar vallen sterk samen met die regio’s waar de MSU ondertroposfeer metingen een snelle stijging vertonen. Die gebieden beslaan zo’n 15% van het aardoppervlak. Interessant is dat verreweg het grootste deel van de CO2-emissies plaatsvinden op gematigde breedten op het noordelijk halfrond, zodat verwacht mag worden dat het noordelijk en zuidelijk halfrond verschillende temperatuurtrends weergeven. Het IPCC rapport uit 2001 gaf inderdaad voor de periode 1976 – 2000  een LSAT (land surface air temperature) trend voor het NH van 0,31 °C/decennium en voor het ZH 0,13 °C/decennium.  Dat verschil tussen beide halfronden, 0,18 °C, was aanzienlijk groter dan in de periodes 1910 – 1945 en 1946 – 1975, toen het 0,06 °C was. Overigens was de gevoeligheid van de oppervlaktetemperatuur voor CO2-emissies in 2 gebruikte klimaatmodellen niet terug te vinden, een omissie van de modelbouwers!

uhi24uhi24

In 2006 hebben ze robuustheid van hun eerste onderzoek uit 2004 onderzocht. Resultaat: de conclusies uit het eerste onderzoek staan als een huis. Antropogene processen die niet gelieerd zijn aan het broeikaseffect hebben een aanzienlijk aandeel in de temperatuurveranderingen aan het aardoppervlak.  In bovenstaande grafieken is het verband te zien tussen CO2-emissie en de temperatuurtrend in °C/decennium voor de satellietmetingen in de ondertroposfeer  (MSU)  en de gemeten oppervlaktetemperaturen van CRU.
McKitrick en Michaels hebben in  2007  een onderzoek gepubliceerd over externe factoren die de temperatuur beïnvloeden. Ze gebruikten daarbij een relatief groot aantal variabelen zoals in onderstaande tabel te zien is.

uhi26

Het onderzoek betreft  de periode 1979 – 2002 werd uitgevoerd op het niveau van rastercellen met een grootte van 5° x 5°. De resultaten zijn overduidelijk: externe factoren verhogen op veel plaatsen de gemeten temperaturen. Zoals reeds eerder naar voren kwam is dat effect veel sterker  bij oppervlaktemetingen dan bij satellietmetingen. Na homogenisatie voor de externe effecten ziet de verdeling van de temperatuurtrends er uit zoals de onderste grafiek:

uhi28
uhi28a

Op globaal niveau is te zien dat voor de meeste rastercellen geldt dat er sprake is van een extra opwarming door externe antropogene factoren zoals veranderend grondgebruik  en andere sociaal-economische factoren.

uhi27
uhi27a

Fall et al (2011) baseren zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDC het  Climate Reference Network Handbook uit 2002 zijn we al in een eerdere bijdrage tegengekomen en ziet er als volgt uit:

class noaa

De onderzoekers zijn geïnteresseerd in het antwoord op de vraag of en in welke mate de temperatuurtrends van de slechtst gelokaliseerde stations afwijken van de beste. Daarvoor maken, net zoals Kalnay (hierboven beschreven) gebruik van NCEP reanalyses data,  een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. De gebruikte methode OMR  (observation minus reanalysis) is gebaseerd op het feit dat de data van NCEP reanalyses volkomen onafhankelijk zijn van de meetdata van USHCNv2 temperatuur meetgegevens. Deze methode  scheidt externe effecten van opwarming vanwege het broeikaseffect. Op basis van de verkregen resultaten kunnen conclusies getrokken worden over de lokale externe effecten op de verkregen temperatuurreeksen.

uhi29
uhi29a

De onderzoekers bekeken 2 periodes:  1979 – 2008   en 1895 – 2009. Voor beide periodes zijn aanzienlijke afwijkingen gevonden bij met name de slechtst geplaatste stations: gemiddelde dagtemperaturen zijn te laag en de gemiddelde nachttemperaturen zijn veel hoger dan bij de best geplaatste stations. Zie de figuur hierboven.  De CRN5 stations (de slechtste categorie) zijn gemiddeld 0,7 °C warmer dan de 2 beste categorieën.

Resumerend mag gesteld worden dat de invloed van externe antropogene factoren op de temperatuurmetingen tamelijk complex is. De diverse hiervoor genoemde studies geven aan dat er grofweg op een tweetal ruimtelijke schaalniveaus invloeden te verwachten zijn op temperatuurmetingen. Dat is in de eerste plaats het UHI in zijn klassieke gedaante van grootstedelijke of industriële complexen die vanwege hun fysieke geaardheid dan wel grote energieverbruik een opwarmend effect hebben op een groter gebied. Het andere, meer lokale effect is de invloed op individuele meetstations van de nabijheid van asfalt, gebouwen et cetera, waardoor meetwaarden zeer sterk beïnvloed kunnen worden. Dat laatste lokale effect doet zich zowel in urbane als in rurale regio’s voor.

Sommige van bovenbeschreven methodes zijn verfijnd en geperfectioneerd. Daarmee vergeleken is de methode die het BEST- team hanteerde tamelijk grof, namelijk gebaseerd op slechts 1 parameter. Bovendien is de indeling zeer ruraal versus de rest discutabel, en is geen rekening gehouden met lokale omstandigheden.  Dat lokale omstandigheden zelfs in een ‘very rural’  omgeving tot dramatische temperatuursstijgingen kunnen leiden laat ik graag  een volgende keer zien.

 

Het UHI- effect deel 4

In het eerste deel van de bijdragen over het UHI-effect,  de bijdrage van 7-11-2011, heb ik als uitgangspunt de door hetBEST-team gebruikte methode genomen.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’  en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural.  Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.

best9
Bron:  BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming  van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

In de hieraan voorafgaande bijdragen heb ik al inhoudelijk het een en ander over de conclusies van het BEST-team geschreven, en een aantal andere publicaties de revue laten passeren die over het UHI-effect op de meetreeksen een andere mening hebben.  Zie hiervoor de bijdragen over het UHI-effect deel 1 t/m 3.

Steve McIntyre heeft op 20-12-2011 aan de hand van door Richard Muller aangeleverde gegevens nog eens naar de ‘very rural’ meetstations van BEST gekeken.  Hij licht er enkele ‘very rural’  meetstations uit en ziet dan bijzondere zaken, namelijk in Peru en Thailand, deels toeval omdat zijn zoon momenteel in Thailand is, deels ingegeven door eerdere publicatie van Hansen over de meetstations in Peru.  Het BEST-team heeft slechts 2 stations in Peru geclassificeerd als ‘very rural’, namelijk  Huanuco en Quince Mil.

huanuco1
Huanuco meetstation,  bron  Google Earth

Huanuco , officieel meetstation van WMO, heeft echter een bevolking van 147.959 inwoners, vergelijkbaar met de stad Haarlem.  Het meetstation staat direct naast de start- en landingsbaan van het plaatselijke vliegveld. Waarom Huanuco  door Het BEST-team geclassificeerd wordt als ‘zeer landelijk’  is dan ook onbegrijpelijk.

Quince Mil , het tweede ‘very rural’  meetstation van het BEST-team levert slechts temperatuurdata tussen 1961 en 1980, daarvoor en daarna niets. Het inwonertal in 2007 was minder dan 1000, dus wat dat betreft  zou dit plaatsje nog als ‘very rural’  door kunnen gaan , maar vanwege het ontbreken van een langdurige meetreeks is het station waardeloos.

bangkok pilot1Bron: Google Earth

De BEST-indeling in Thailand ziet er ook erg raar uit. “Bangkok Pilot” wordt weergegeven als “zeer landelijk”, maar is in feite de naam van het meetstation op het kunstmatige eiland in de zeebaai van Bangkok, dat is aangelegd voor de havenloodsboten ( pilots). Dat is nu niet een standaard voorbeeld van een ‘very rural’  meetstation.

bangkok pilot
Bangkok Pilot  meetstation.  Bron:  Google Earth

Verder zijn er nog vijf “zeer landelijke” Thaise meetstations door BEST onderscheiden: Phetchaburi (46.501 inwoners), Ko Lanta (20.000 inwoners), Khao Lak (35.337 inwoners), Ko Samui (50.000 inwoners) en Mae Hong Son, in het noordwesten bergland nabij de grens met Myanmar. De eerstgenoemde plaatsen zijn vanwege hun inwonertal natuurlijk niet zeer landelijk.

mae hong son
Mae Hong Son airport . Bron Google Earth

Mae Hong Son is een plaats met ongeveer 17.00 inwoners en is op grond hiervan zeker niet zeer landelijk te noemen. Bovendien ligt het meetstation pal naast het vliegveld van de stad, een locatie die ook al niet vrij is van allerlei UHI –effecten vanwege de grote oppervlakten asfalt en de nabijheid van vliegtuigmotoren.

mae hong son1
Parkeerplaats in de nabijheid van meetpunt Mae Hong Son. Bron:  Google Earth

 

Kortom: even een blik achter de schermen van de ‘very rural’  databank toont dat niet alle meetstations echt zeer landelijk zijn. Ik ben benieuwd of er nog meer konijnen uit de hoed komen.

 

UHI deel 5: het geval Barrow

barrow1
Bron:  Google Earth

In de vorige bijdrage stonden we even stil bij de vraag of het door het BEST-team gehanteerde onderscheid tussen very rural en not very rural  nederzettingen wel gebaseerd is op juiste gegevens over de stedelijkheid van nederzettingen. Uit de voorbeelden van very rural nederzettingen in Peru en Thailand  is duidelijk geworden dat althans een deel van de ‘very rural’  meetpunten in werkelijkheid very urban zijn. In deze bijdrage staat de vraag centraal of het uitgangspunt van een dergelijk onderscheid tussen very rural en not very rural nederzettingen een hanteerbaar criterium is. Met andere woorden: is het aannemelijk dat het UHI-effect toeneemt met de omvang of stedelijkheid van de nederzetting  Op het eerste gezicht lijkt het evident: steden zijn warmer dan het omliggende platteland en grote steden zijn warmer dan kleine, veel onderzoeken hebben dat aangetoond. Toch is  voorzichtigheid hier geboden, zo toont een onderzoek uit 2003 aan.

Hinkel et al publiceerden toen bijzonder interessante resultaten van hun onderzoek naar  UHI in het plaatsje Barrow in Alaska.  Barrow is de meest noordelijk gelegen nederzetting van de USA. Woonden er in Barrow in 1900 nog maar 300 mensen, in 2000 waren dat er meer dan 4600. Nog niet erg stedelijk kan men stellen als men naar het aantal inwoners kijkt.  Maar desondanks vertoont Barrow een fors UHI-effect.

De afgelopen decennia constateerde men oplopende gemiddelde wintertemperaturen in het centrum , en een steeds vroeger smelten van de sneeuw  . Dat kan vergaande consequenties hebben voor de gemeenschap, vanwege het feit dat de nederzetting gebouwd is op permafrost die plaatselijk tot 300m dik is.  Een toename van de opdooilaag in de zomer kan instabiliteit van de ondergrond veroorzaken met alle gevolgen van dien voor leidingen en gebouwen.

In 2001 en 2002 heeft het onderzoeksteam temperatuurmetingen gedaan in Barrow en het omliggende gebied van ongeveer 150 km2 groot. Tussen december 2001 en maart 2002 constateerde men dat de nederzetting gemiddeld 2,2 °C warmer was dan de omgeving. Bij matige windsnelheden liep dat verschil op tot 3,2 °C, met een maximum van zelfs 6 °C.  Het dagelijkse temperatuurverschil bereikte zijn maximum veelal tussen de late avond en de vroege ochtend. De onderzoekers onderscheiden een drietal oorzaken van het UHI, die wij in soms andere bewoordingen al eerder tegenkwamen in de UHI-cyclus:

1)  antropogene warmte in de vorm van chemische energie (brandstoffen)
2) afname van de vegetatie en toename van de bebouwde omgeving
3)  verandering van geometrie en morfologie van de bebouwde omgeving

barrow3
Schoolbus in de winter. Bron: Vlad Iliescu

UHI in nederzettingen op hoge breedte zijn fundamenteel anders dan die op lagere breedten. In de eerste plaats varieert de zonnecyclus in een jaar sterk. Een deel van het jaar (winter) ontbreekt zonlicht en is het erg koud. Als gevolg daarvan ontbreekt dan de invloed van zonlicht op UHI. Ook de aanvoer van warmte  vanuit de omgeving (advectie) is dan gering als gevolg van het feit dat open water bevroren is:  vrijwel alle nederzettingen op hoge breedte liggen aan water. De Chukchi Sea heeft als het water ijsvrij is een grote invloed op zowel de temperatuur als de vochtigheid in Barrow. Begin oktober vriest de zee dicht, en dat blijft zo tot april-juni van het volgend jaar.

Als gevolg van de zeer lage wintertemperaturen is  het gebruik van chemische energie in de winter veel hoger dan in de zomer. Dat komt voor het grootste deel op conto van de verwarming  en verlichting van huizen en gebouwen met behulp van aardgas en de secundaire energiedrager  elektriciteit.  Atmosferische opwarming is in de winter dan ook vooral het gevolg van energieverliezen door gebouwen. In de zomer daalt het gebruik van fossiele energiedragers en elektriciteit zeer sterk: het is dan vrijwel constant licht, en de temperaturen zijn dan niet zodanig hoog dat het gebruik van airco  noodzakelijk is, zoals op lagere breedten.
barrow5
Ruime bebouwing, laagbouw, op palen. Bron: Wikipedia

Arctische nederzettingen verschillen ook van andere vanwege de beperkte omvang van de bevolking en bebouwde omgeving, en het ontbreken van hoge gebouwen. Op bovenstaande foto is de typische houten laagbouw te zien die in Barrow domineert. Alleen in het centrum zijn enkele gebouwen te vinden met 2 verdiepingen. Schaduwvorming en ‘urban canyon effects’  zijn dan ook nagenoeg afwezig:  de morfologie van Barrow zal dan ook van ondergeschikt belang zijn voor UHI vergeleken met de opwarming als gevolg van antropogene opwarming. Zoals op de foto’s te zien is staan alle gebouwen op palen, zo’n 1 a 2 m boven de grond. Dit voorkomt warmteoverdracht naar de bevroren grond.

barrow4
BARC: Barrow Arctic Research Centre

Barrow heeft een tweetal weerstations, namelijk een meetpunt van  National Weather Service  in de nederzetting, en een meetpunt van Climate Monitoring and Diagnostics Laboratory op het BARC, zo’n 7,5 km ten NO van Barrow in de toendra gelegen. Recent onderzoek toont dat sinds 1940 er sprake is van een toenemend vroeger smelten van de sneeuw als gevolg van oplopende temperaturen. In de grafiek hieronder is MAAT de gemiddelde jaartemperatuur, de grijze lijn de datum waarop de sneeuw in Barrow gesmolten is.

barrow2
Het onderzoek van Hinkel et al is bedoeld om de omvang en ruimtelijk patroon van UHI in Barrow te meten.  De plaats is niet over de weg bereikbaar en ook niet aangesloten op een energienetwerk. Dat betekent dat alle energie die gebruikt wordt  (verwarming en elektriciteitsopwekking) van lokale oorsprong is dan wel aangevoerd wordt per schip.

De belangrijkste bron van energie is aardgas uit methaan-hydraatvelden in de directe omgeving van Barrow.  Een ouder veld lichtten Z van barrow, vanaf 1980 komt het meeste gas uit het East Barrow Field.

barrow6
Bron: Oil & Natural Gas Technology 2008

Ongeveer de helft van het gas wordt omgezet in elektriciteit. Stoffen zoals dieselolie en kerosine worden in augustus per schip aangevoerd, als de zee ijsvrij is. Vanwege deze specifieke omstandigheden is nauwkeurig het gebruik van fossiele energiedragers in Barrow te volgen.

In juni 2001 hebben de onderzoekers 54  temperatuurmeters geplaatst . De helft werd in de nederzetting zelf geplaatst. Dit zijn de urbane locaties. De rest werd geplaatst in een gebied van ongeveer 150 km2  rond Barrow, dit zijn de rurale locaties. Op de figuur hieronder is de locatie van de meetstations te zien. De vierkanten zijn de meetstations waar de laagste temperaturen zijn gemeten. De zes warmste meetstations bevinden zich in het centrum van Barrow, direct ten O van de ‘6’.

barrow7

De tabel hieronder toont de temperatuurverschillen tussen de rurale en urbane meetpunten per maand. De getallen in de eerste kolom zijn de maandgemiddelden over de periode 1971-2000 (NCDC/NOAA).

barrow8
Over het algemeen gold dat het UHI-effect toenam met dalende temperaturen. Dat is goed te zien op de grafiek hieronder, die de zogenaamde UHIM (laatste kolom bovenstaande tabel) afzet tegen de tijd dat er gemeten is van 1 september 2001 tot 1 juni 2002.

barrow9

Ook als je UHIM afzet tegen de gemiddelde dagelijkse rurale temperatuur is dat effect duidelijk te zien: hoe kouder des te groter het UHI-effect.

barrow10
In de grafiek is te zien dat de correlatie niet sterk is  ( r2 = 0,51 ), maar in elk geval sterker voor dagen met lagere windsnelheden dan op erg winderige dagen. Dat is logisch, als de windsnelheid toeneemt krijg je een sterkere menging van de onderste luchtlagen wat het UHI vermindert. In onderstaande figuur is de invloed van de wind op de UHIM goed te zien:

barrow11

Bij een lage windsnelheid van 4 km/u is de correlatiecoëfficiënt  tussen windsnelheid en  dagelijkse UHIM ongeveer 0,9. Die coëfficiënt neemt dan af tot 0,5 bij windsnelheden van 33 km/u en meer.

Om te bezien wat verschillende windsnelheden voor effect hebben op de ruimtelijke spreiding van de temperatuur wordt geïllustreerd in de drie kaartjes hieronder. De windsnelheid staat steeds rechtsboven het kaartje. (1 knot = ~1,9 km/u).  Let op: de legendaschaal is niet overal gelijk: het middelste kaartje met de laagste windsnelheid heeft stappen van 2 °C, beide andere van 1 °C. Op het onderste kaartje is  te zien dat grote windsnelheden het UHI als het ware ‘wegblazen’: de isotherm heeft dezelfde richting als de wind.

barrow12

Het onderstaande kaartje illustreert fraai het UHI-effect van Barrow. De gebruikte eenheid ADDF is accumulated degree-days of freezing. Daarbij worden de absolute waarden van de gemiddelde dagelijkse temperaturen (onder 0 °C) bij elkaar opgeteld.

barrow13

Aan het begin van deze bijdrage stelde ik dat het logisch lijkt dat de morfologie van Barrow van ondergeschikt belang zal zijn voor en dat opwarming als gevolg van antropogene opwarming waarschijnlijk de dominante factor in het UHI-effect in Barrow zal zijn. Dat die factor dominant is blijkt wel uit onderstaande grafiek.

barrow14
Verticaal is de UHIM weergegeven, horizontaal het aantal heating degree days. Heating degree days is een maat waarmee de vraag naar energie voor verwarming van een gebouw wordt weergegeven. De gegevens zijn afkomstig van National Weather Service/ NOAA. Voor details klikt u op de link. De correlatiecoëfficiënt is maar liefst 0,98.

Zoals we al gezien hebben is Barrow voor wat betreft het gebruik van fossiele brandstoffen een eiland als gevolg van de geïsoleerde ligging.  Vrijwel alle fossiele brandstoffen voor de opwekking van elektriciteit en verwarming komen van de lokale gasvelden. Het is daarom eenvoudig om het gebruik daarvan van dag tot dag te volgen.  Hinkel et al hebben dat gasverbruik in onderstaande grafiek afgezet tegen de UHIM: de correlatiecoëfficiënt van 0,99 spreekt boekdelen. Het UHI-effect van Barrow is  vrijwel volledig het gevolg van aardgasgebruik.

barrow15

Kunnen we het effect van het UHI op de temperatuur in Barrow in de tijd schatten? Daarvoor hebben we het aantal inwoners nodig en het UHI op jaarbasis. Eerst het inwoneraantal. Volgens het US Census Bureau is het verloop van het inwonertal in Barrow vanaf eind 19e eeuw als volgt:

Vanaf 1950 stijgt het inwonertal boven de 1000, en bereikt op 1 januari 2001 een inwonertal van ongeveer 4683. De stijging van het inwonertal, dat voorheen altijd tussen de 200 en de 400 lag, was het gevolg van de sociaal-economische transitie die in Barrow plaats vond.  Was Barrow voor 1950 een geïsoleerd dorp van native Americans met een locale economie gebaseerd op traditionele activiteiten zoals visserij en jacht, na 1950 wordt Barrow meer en meer onderdeel van een moderne economisch systeem gebaseerd op gas- en oliewinning. Het lijkt me daarom niet onredelijk omgelet op zowel de bevolkingsgroei als de sociaal-economische transitie, 1950 als startjaar van het UHI te nemen.

barrow19
Temperatuurreeks U-05 (urbane locatie) en U-15 (rurale locatie) voor 20-daagse periode in de (a) winter, (b) lente, en (c) zomer.
De UHIM in de gemeten periode van 1 december 2001 tot 1 april 2002 bedroeg gemiddeld 2,2 °C, voor de winterperiode 1 december 2001 tot 1 maart 2002 was het UHI 3,1 °C. Het UHI in de lente bedroeg 1,6 °C en de zomer van 2002 noteerde een UHIM van -1,4  °C. Die negatieve waarde is volgens de onderzoekers met name te danken aan de afkoelende mariene invloed gedurende de zomer , als de zee grotendeels ijsvrij is. De UHIM in de herfst is niet gegeven, de gemiddelde maandtemperaturen zijn dan wat hoger dan in de lente. Een schatting van de UHIM op jaarbasis in deze periode, gezien de gemeten seizoencijfers, van  1,1 °C lijkt niet onredelijk.

Wanneer we de gehomogeniseerde temperatuurreeksen van GISS betreffende Barrow  in een grafiek plotten, en bovendien een voor de UHIM van 1,1 °C gecorrigeerde temperatuurreeks in dezelfde grafiek weergeven, dan komt dat er als volgt uit te zien:

barrow18

Bedenk dat de gehomogeniseerde temperatuurreeks (blauwe lijn) niet is gecorrigeerd voor UHI: Barrow wordt door GISS niet als urbane nederzetting gekwalificeerd.  Voor beide grafieken is ook een lineaire trendlijn getekend. De trendlijn van de gehomogeniseerde GISS-reeks vertoont een stijging sinds 1950 van 2,1 °C.  De trendlijn van de voor het UHI gecorrigeerde temperatuurreeks vertoont een stijging van nog geen 0,9 °C. Een opmerkelijk groot verschil!

Naar mijn mening is het door Hinkel et al aangetoonde grote UHI-effect in Barrow geen op zichzelf staande situatie. In Alaska, maar ook elders in de Arctische regio hebben vrijwel alle nederzettingen vergelijkbare kenmerken: ontbrekend zonlicht in de winter, verspreide laagbouw, relatief weinig inwoners en extreme wintertemperaturen. Een deel van die nederzettingen is tevens locatie in de meetnetten die BEST, GISS, Hadcrut en NOAA gebruiken. Met de gebruikelijke methoden om temperatuurreeksen te corrigeren voor het UHI-effect vallen de meeste van deze nederzettingen buiten de correctie omdat ze niet voldoen aan de gebruikelijke criteria. Zelfs in de verdeling very rural-not very rural die BEST hanteert vallen waarschijnlijk veel Arctische nederzettingen in Alaska, Canada en Rusland  in de categorie very rural.

Correctie voor UHI  van de meetreeksen van  Arctische meetstations zou , in navolging van Barrow, wel eens in de afgelopen decennia veel lagere temperatuurstijgingen in de Arctische regio kunnen laten zien  dan tot nu toe werd aangenomen.

 

UHI deel 6:  effect heeft groter ruimtelijk  effect dan tot nu toe gedacht.

In een studie naar  de lengte van het groeiseizoen in het NO van de USA hebben onderzoekers  een belangrijke ontdekking gedaan. Steden hebben een opwarmend effect op de omliggende regio tot een afstand van 32 km van het stadscentrum. Tot nu toe werd aangenomen dat die invloed op de omgeving niet verder reikte dan zo’n 15 km. (Zhang et al, 2004).

Andrew Elmore et al   maakten gebruik van recente satellietdata met een hoge resolutie om de bladontwikkeling bij loofbomen te onderzoeken. Daarbij keken ze naar een drietal aspecten van bladontwikkeling, namelijk de bladaanzet in de lente, de ‘summer greendown’  en de bladval in de herfst.

elmore1elmore2
Bron: Elmore et al

Het groeiseizoen is op continentale schaal goed te beschrijven aan de hand van klimatologische variabelen zoals breedte- en hoogteligging . Voor de ruimtelijke schaal waarop dit onderzoek is toegepast, een gebied van ~130 bij ~190 km, was een fijne dataresolutie noodzakelijk omdat de ruimtelijke patronen complexer zijn en een groter aantal processen omvatten.

De resultaten zijn deels niet verrassend en deels wel. Niet verrassend was dat er een drietal ruimtelijke variabelen van invloed bleek te zijn op de lengte van het groeiseizoen, namelijk hoogteligging, verstedelijking en nabijheid van grote watereenheden. Voor mij was verrassend dat de invloed van verstedelijking op het groeiseizoen ruimtelijk veel verder blijkt te reiken dan tot nu toe is aangenomen. Ook verrassend was dat die stedelijke invloed vooral effect heeft op het moment van bladval in de herfst en minder op de bladaanzet in de lente. Dat laatste kan te maken hebben met een zich wijzigende soortensamenstelling en irrigatie.


Bron:  Elmore et al

Zhang et al (2004) publiceerden in 2004 een onderzoek naar het effect van UHI op het groeiseizoen van planten. Dat deden ze aan de hand van MODIS-data (Moderate Resolution Imaging Spectroradiometer) voor verstedelijkte gebieden > 10 km2. in het oostelijk deel van de USA. Hun onderzoek wees uit dat de invloed van UHI-effect op de omgeving exponentieel afneemt met de afstand, en dat de invloed van steden op de temperatuur in de omgeving tot 10 km afstand van de rand van de stad substantieel is.

Als de invloed van steden echter veel verder reikt dan tot nu toe werd aangenomen, zoals het onderzoek van Elmore et al uitwijst,  dan betekent dit dat stedelijke opwarming ruimtelijk bezien veel grotere effecten heeft dan tot nu toe werd aangenomen. Peri-urbane meetstations die tot nu toe werden geclassificeerd als ruraal zijn dan in werkelijkheid urbane stations.

 

UHI deel 7: Roy Spencer toont sterk UHI-effect aan
Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in Huntsville, heeft een interessant onderzoek gedaan naar het UHI-effect, het effect dat stedelijke gebieden leiden tot hogere luchttemperaturen. Op deze site is over het UHI-effect al meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en dan “UHI”. Wat heeft Spencer gedaan? Hij heeft de Integrated Surface Database (ISD) van
The National Climatic Data Center gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan 20.000 meetstations. Eerst heeft Spencer die stations op het Noordelijk halfrond geselecteerd die een ononderbroken temperatuurreeks hebben vanaf minimaal 1973 t/m 2011. Daarvan heeft Spencer de unadjusted International Surface Hourly (ISH) gebruikt, en wel op 4 momenten per etmaal.

popdens
Bron: SEDAC

Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is. Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks, waarschijnlijk als gevolg van homogenisaties.

spenc1

Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5×5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.

spenc2
spenc3

De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:

Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.

Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.

Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data. These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”

spenc4
UHI deel 8 : Delhi

Een recent onderzoek van Javed Mallick en Atiqur Rahman  toont een sterke correlatie tussen verstedelijking en oppervlaktetemperatuur in Delhi (India).  Het is bekend dat de verwijdering van natuurlijke vegetatie en de vervanging daarvan door antropogene materialen als asfalt, steen, beton en dergelijke en aanwezigheid van warmtebronnen een temperatuurverhogende werking hebben. Omdat dit effect het grootst is in urbane gebieden wordt dit het Urban Heat Island-effect genoemd. Zoals bekend is er al een aantal jaren een levendige discussie hoe groot een dergelijk effect is en welke invloed het UHI heeft op de meetgegevens van meetstations. Zie hiervoor het hoofdstuk De Feiten en dan UHI.

aster1

De onderzoekers hebben met hun publicatie bijgedragen aan de kennis over de relatie tussen  UHI en urbanisatiegraad. Ze maakten gebruik van datasets van de satelliet ASTER die de oppervlaktetemperatuur van Delhi  weergeven, alsmede gegevens van de bevolkingsdichtheid in Delhi  (Census of India 2001). De satelliet ASTER meet  onder andere infrarood met een resolutie tot 15 m. Gebruikt zijn de nachtelijke gegevens van 7 oktober 2001. Op het kaartje hieronder ziet men de ruimtelijke variatie in oppervlaktetemperatuur  in genoemde nacht.

delhi2
Oppervlaktetemperatuur ’s nachts 7 oktober 2001

Zoals te zien is is de ruimtelijke variatie in nachtelijke temperatuur erg groot, , en varieren van 23,9  °C tot 40 °C.  Op onderstaande kaart is de bevolkingsdichtheid van Delhi weergegeven. Duidelijk is te zien dat de gebieden met de hoogste temperaturen ook de gebieden zijn met de grootste bevolkingsdichtheid.

delhi1
Bevolkingsdichtheid Delhi 2001

Op het derde kaartje zijn beide gegevens in een kaart weergegeven:

delhi3
Oppervlaktetemperatuur en bevolkingsdichtheid gecombineerd

Maar nog sprekender is de volgende grafiek, die aan duidelijkheid niets te wensen over laat:

delhi4
Correlatie temperatuur en bevolkingsdichtheid

De waarde van de logaritmische regressie (R2) is 0,748, wat wijst op een sterke correlatie tussen bevolkingsdichtheid en temperatuur.

De grote ruimtelijke variabiliteit van de temperatuur in Delhi is opvallend, en correspondeert niet met schattingen van het UHI door onder andere GISS-NASA, die op veel lagere waarden uitkomen. Natuurlijk zijn niet alle urbane gebieden vergelijkbaar met het urbane gebied Delhi. Omvang van steden en andere ruimtelijke factoren  zullen vaak afwijken van die in India. Desondanks lijkt de uitkomst van dit onderzoek  me een extra stimulans om het UHI en de problematiek van meetstationlocaties nog een keer serieus onder de loep te nemen.

Noor van Andel

noor

 

 

De veel te jong overleden fysicus Noor van Andel had interessante ideeën over de werking van het klimaat. Hij benutte de laatste jaren van zijn leven de formidabele kennis die hij met name over straling bezat om zijn visie te ventileren, zelfs tot bij het KNMI aan toe. Onderstaande tekst is van zijn hand.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?

noor1
Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

noor2

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .

Werkelijke oorzaken van temperatuurveranderingen

De vraag is: als het niet de CO2-stijging is, wat heeft dan wel de temperatuurveranderingen veroorzaakt?

1. De belangrijkste korte-termijninvloed is de ENSO, of de El Niño Southern Oscillation. Dat is een periodieke onderbreking van de opwelling van koud oceaanwater voor de kust van Peru en Equador, waardoor het gehele klimaat ter plekke verandert. De autochtone bevolking ziet dat aankomen; als ze de Pleyadensterren niet meer gescheiden ziet, is de lucht vochtiger, de oceaan warmer. Dan is het El Niño, Spaans voor het kerstkind, en je hoeft niet te wachten met aardappelpoten. De vissers hebben het dan moeilijk, de zee is minder voedselrijk. De afkoeling tussen 1940 en 1976 vond plaats in een tijd van veel perioden met veel koude opwelling, de periode van 1976 tot nu is er een met weinig koude opwelling, dus veel El Niño. De koude winter van 2010-2011 is het gevolg van een heel sterke koude opwelling, La Niña, die in mei 2010 begon en die inmiddels de hele tropische Stille Zuidzee tot aan Australië een paar graden heeft afgekoeld en heeft gezorgd voor veel en vroege sneeuw in Europa.

2. Hoewel de door het IPCC aangehaalde auteurs (zoals professor Michael Mann, University of Virginia, met zijn ‘hockeystick’) erg veel moeite hebben gedaan om dit te ontkennen, is de ‘kleine ijstijd’, ongeveer de zeventiende eeuw, veel kouder geweest dan nu. De vele ijsgezichten in de Nederlandse schilderkunst getuigen daarvan, de Theems vroor regelmatig tot in Londen dicht, wat aanleiding gaf tot ‘ice fairs’ op het ijs in de stad. In diezelfde periode, na de uitvinding van de telescoop door Lippersheij in Middelburg, is men het aantal zonnevlekken gaan bijhouden. Het blijkt dat er gedurende de gehele kleine ijstijd nauwelijks zonnevlekken zichtbaar waren, het ‘Maunder minimum’. Ook in het begin van de negentiende eeuw is er een korte periode geweest met weinig zonnevlekken. Het was toen erg koud. Napoleons leger vroor vast op de Berezina, en na een zware vulkaanuitbarsting op Sumbawa in Nederlands Indië kwam er 1816, het ‘jaar zonder zomer’, waarin de graanoogsten mislukten en er 100.000 hongerdoden in Europa vielen. De Middeleeuwen, rond het jaar 1000, waren warm, de Vikingen zaaiden toen graan op Groenland en men plantte wijnstokken in Schotland. De Romeinse tijd was warm en een tijd van grote voorspoed. De tijd van de volksverhuizingen was weer koud, hongerige stammen plunderden Europa en vestigden zich in het Zuiden, de Vandalen in (West) Andalusië.

Deze grote klimaatschommelingen hebben allemaal niets met CO2 te maken, des te meer met wisselingen in de magnetische activiteit van de zon. Wel een ingewikkeld verhaal: Een actieve zon heeft niet alleen meer zonnevlekken, maar ook een sterker magnetisch veld, dat dan de harde kosmische straling uit ons Melkwegstelsel meer afschermt. Die straling is zo energetisch, dat hij tot op het aardoppervlak doordringt en op zijn pad duizenden luchtmoleculen ioniseert, die dan wolkcondensatiekiemen veroorzaken, dus meer laaghangende bewolking, wittere wolken met meer en kleinere waterdruppeltjes. Daardoor wordt de aarde witter, het zonlicht kaatst meer terug, en het wordt kouder bij een inactieve zon. Ook dit effect is sinds 1960 opgemerkt en sindsdien uitvoerig gemeten. CERN in Genève, waar men beschikt over die harde straling uit een eigen deeltjesversneller, heeft er een opstelling voor gebouwd die onlangs is aangelopen en het effect ook heeft geconstateerd. De zon is de laatste tijd heel actief geweest, sommigen verwachten dat dit nu anders wordt en dat we dus een koude periode in het vooruitzicht hebben.

noor3

The coincidence of tropical Pacific SST and global average temperature. Red: SST anomalies Pacific 20ºN-20ºS; blue: global temperature anomaly

Effect van wisselende zonne-activiteit is aangetoond

Zoals te verwachten, hebben door het IPCC aangehaalde auteurs zich heftig verzet tegen deze samenhang tussen zonne-activiteit en klimaat, onder meer door erop te wijzen dat de zonnestraling zelf heel weinig varieert met de 11-jarige cyclus van de zonneactiviteit. Maar het gaat ook niet om de hoeveelheid zonlicht, het gaat om de de hoeveelheid wolken. En juist de laaghangende wolken nemen toe als de zon wat minder actief is en dan de kosmische straling wat minder afschermt. Het wordt dan kouder, omdat die wolken het warmende zonlicht weerkaatsen. Op elke tijdschaal is dit effect aangetoond: van uren tot dagen tot jaren tot eeuwen tot duizenden eeuwen tot miljoenen jaren. Dat kan, omdat er tijdens een stille zon meer van de isotoop 10Be wordt gevormd via een kernreactie in de atmosfeer. Die isotoop heeft een lange halfwaardetijd en kan goed worden aangetoond, bijvoorbeeld in ijskernen die op Groenland en in Antarctica worden geboord. Met de verhouding van 16O/18O kun je de temperatuur meten, met 10Be de galactische kosmische straling. Een van de meest indrukwekkende samenhangen is die tussen de graanprijzen en de hoeveelheid 10Be, zoals het diagram betreffende de zeventiende eeuw illustreert.

noor4

De ononderbroken lijn in de figuur is de 10Be-spiegel in het sediment uit die tijd. Als de zon minder actief is, is er meer harde kosmische straling, dus ook meer 10Be. Het is dan kouder, de graanoogst is geringer en de prijzen stijgen. De witte en zwarte ruiten zijn driejaars-gemiddelde graanprijzen, de witte en zwarte driehoeken zijn de momenten van minimum en maximum graanprijs. De getoonde periode is bekend als ‘kleine ijstijd’. Een kouder klimaat heeft echt schadelijke gevolgen. Een warmer klimaat brengt welvaart.

noor5

 

Bij een tropische donderbui dringt de ‘diepe’ convectie tot in de stratosfeer door

Ontkrachting van andere alarmerende voorspellingen

Tot slot nog enkele vaststellingen die alarmerende berichten ontkrachten die het IPCC graag verspreidt en die de media graag overnemen:

• Er is geen enkele aanwijzing dat de zeespiegel sneller stijgt dan in voorbijgegane eeuwen.
• Er is geen enkele aanwijzing dat het aantal extreme weerstoestanden, zoals orkanen, droogten, overstromingen, toeneemt.
• Er is geen aanwijzing dat het afsmelten van gletschers versnelt. In de warme Middeleeuwen waren ze veel korter dan nu.
• Er is geen enkele aanwijzing dat meer CO2 schadelijk is; integendeel, planten groeien sterker en hebben minder last van watertekort als er meer CO2 is.
• Er is geen aanwijzing dat het bleken van koralen versnelt door opwarming.
• Er is geen aanwijzing dat stijging van de zuurgraad van de zee nadelige invloed heeft op het leven daar.
• Er is geen enkele aanwijzing voor een achteruitgang van de voedselproductie door ‘klimaatverandering’.
• Er is geen enkele aanwijzing dat menselijk gezondheid in gevaar gekomen is als gevolg van een toegenomen concentratie van CO2 in de lucht.

De latente wamtestroomberekening van Noor van Andel

In een paper  komt fysicus Dr. Noor van Andel tot de slotsom dat aanzienlijke latente warmtestromen in de troposfeer ervoor zorgen dat de zogenaamde CO2-sensitivity (verdubbeling van CO2-gehalte) niet groter is dan zo’n 0,5 K (0,5°C).  Indien alle omstandigheden gelijk blijven, dan veroorzaakt een verdubbeling van het CO2-gehalte in theorie een toename van de temperatuur van 1,08 K. In werkelijkheid treden er echter een aantal neveneffecten op , waardoor de werkelijke sensitivity anders is dan de theoretisch-fysisch berekende waarde.

In het laatste rapport van het IPCC (2007) wordt uitgegaan van een totale positieve feedback van  1.5 W/m2 K optreedt als gevolg van die 1.08 K opwarming. In onderstaande grafiek uit een studie van Soden en Held  (Soden & Held, 2005, An Assessment of Climate Feedbacks in Coupled Ocean–Atmosphere Models, Journal of Climate, volume 19)  zijn de feedbacks te zien die door het IPCC worden onderscheiden: toename van de waterdamp, toename van wolken, veranderde atmosfeergradiënt en albedoverlaging.

soldenheld1
In de figuur is te zien dat het IPCC alleen de veranderende atmosfeergradiënt als negatieve feedback ziet, de andere veranderingen zijn positief. Over all gaat het IPCC uit van een positieve feedback van 1.5 W/m2 K.

Van Andel stelt dat het IPCC daarmee een belangrijke feedback over het hoofd ziet , namelijk de latente warmtestroom vanaf het oceaanoppervlak.  Hier komt de praktische ervaring van van Andel in de glastuinbouw met zijn bedrijf Fiwihex goed van pas. Opwarming van de lucht in een kas door de zon is niet zozeer het gevolg van de ondoorlatendheid voor IR van glas, maar door het verhinderen van convectie, opstijgende warme lucht. Dat effect is heel sterk als de bodem nat is. Tuinders reguleren de temperatuur in de kas door de dakramen open te zetten. In het hoofdstuk over de stralingsbalans zagen we al dat vanwege het broeikaseffect de oppervlaktetemperatuur op aarde met ongeveer 33° C toeneemt, maar door convectie met ruim 60° C afneemt. De term “broeikaseffect”  is dus erg ongelukkig gekozen!

Van Andel tracht met behulp van diverse  onderzoeken de grootte van de latente warmtestroom te  duiden.  Zo zijn er recente metingen door NOAA   van de SST en latente warmtestroom, die een flux te zien geven van 0 W/m2 K boven koud oceaanwater tot 8 W/m2 K boven warm oceaanwater.

noaa1
noaa2

 

Ook het ERBE project levert waardevolle meetgegevens. Lindzen  (  On the determination of climate feedbacks from ERBE data, Richard S. Lindzen and Yong-Sang Choi, Program in Atmospheres, Oceans, and Climate, Massachusetts Institute of Technology)  vergeleek die meetresultaten met de voorspellingen van 11 door het IPCC gehanteerde klimaatmodellen. Verrassend (of eigenlijk: niet verrassend) is dat ERBE een toename van de warmtestroom naar de ruimte meet van 5 W/m2 K, terwijl alle klimaatmodellen een afname van die warmtestroom voorspellen van 0,5  tot 3 W/m2 K (gemiddeld 1.5 W/m2 K)!

erbe

Omdat in de door ERBE gemeten warmtestroom de latente warmtestroom niet te onderscheiden is ( deze bestaat uit IR én gereflecteerd zonlicht)  kunnen  we volgens van Andel met de  5 W/m2 K de climate sensitivity berekenen. Deze is  1.08 ( 1- 5/3,7 ) = 0,46 ° C. Dus een verdubbeling van het  CO2-gehalte levert slechts een temperatuurstijging op van een kleine 0,5° C , in plaats van de 5,7° C die de modellen maximaal voorspellen.

Bovenstaande bepaling door van Andel van de globale latente warmtestroom en de in het vorige hoofdstuk beschreven “thermostaathypothese” van Eschenbach zijn beide gebaseerd op het principe van grootschalig transport van latente warmte van het aardoppervlak naar de bovenzijde van de troposfeer. Op die hoogte is de zogenaamde optische dichtheid dermate klein dat warmte daar vrijwel ongehinderd naar de ruimte kan uitstralen.

Waar van Andel zijn berekeningen baseert op meetgegevens (meten is weten)  is de thermostaathypothese van Eschenbach een hypothese met een interessant maar speculatief karakter.  Beide zienswijzen hoeven echter niet strijdig te zijn. Ook van Andel spreekt in zijn paper van een “tropische thermostaat”.  Mocht de thermostaathypothese reëel zijn, dan betekent dat alleen dat de opwarming die van Andel berekent op basis van 4x CO2  nog lager zal uitvallen dan 1° C.


Waterdamp in lagere stratosfeer beïnvloedt temperatuur aan aardoppervlak.

Een daling van 10 procent waterdamp zo’n 15 km boven het aardoppervlak heeft een grote invloed op de opwarming van de aarde, zeggen onderzoekers  in het tijdschrift Science van 28 januari j.l. (Solomon  e.a., Contributions of Stratospheric Water Vapor to Decadal Changes in the Rate of Global Warming, 2010 Science DOI: 10.1126/science.1182488).

solomon0

De bevindingen zouden kunnen helpen verklaren waarom de oppervlaktetemperatuur wereldwijd in de afgelopen tien jaar licht daalde en niet steeg, zoals gebeurde  in de jaren ‘80 en ‘90.  Waarnemingen van satellieten en ballonnen laten zien dat de waterdamp in de onderste  deel van de stratosfeer niet constant is , maar gestegen is in de jaren ’80 en ’90 en gedaald na 2000. De auteurs van het artikel tonen aan dat deze veranderingen zich juist in een smalle strook van ongeveer 2 km dik onderin de stratosfeer plaatsvinden,  waar het waterdampgehalte de grootste effecten op het klimaat heeft.

solomon1

Sinds 2000 is de hoeveelheid waterdamp in de stratosfeer gedaald met ongeveer 10 procent. De oorzaak voor de recente daling van het waterdampgehalte is volgens de onderzoekers onbekend. De studie van Solomon c.s. gebruikte berekeningen en modellen om aan te tonen dat deze waterdampafname voor een 25% minder snelle opwarming heeft gezorgd de afgelopen 10 jaar. De toename van de waterdamp in genoemde laag heeft volgens de auteurs in de jaren ’90 een temperatuurverhogend effect gehad van 30%.

solomon3

Een van de mogelijke oorzaken zou oxidatie van CH4 kunnen zijn, maar  dat komt vooral in het bovenste deel van de stratosfeer voor, terwijl de waterdampafname met name onderin de stratosfeer plaatsvindt. Een andere mogelijke verklaring  is een uitwisseling van waterdamp met de hogere troposfeer in de tropen. De sterkste verandering in waterdamp komt voor  in de lagere stratosfeer in regio’s die beinvloed zijn door de El Niño Southern Oscillation. Dit lijkt te wijzen op convectie.

Wat dat laatste betreft: hier kan men toch een interessante link zien met de theorie die de Hongaar Ferenc Miskolczi vorig jaar publiceerde. Miskolczi stelt dat de doorzichtigheid van de atmosfeer voor langgolvige (infrarood) straling zich aanpast aan de toename van de broeikasgassen. Algemeen wordt aangenomen dat de doorzichtigheid van de atmosfeer afneemt bij toename van CO2. Miskolczi stelt dat er terugkoppelingsmechanismen in de atmosfeer zijn waardoor de doorzichtigheid voor infrarode straling gelijk blijft, en daardoor ook de temperatuur op aarde. Deze terugkoppeling bestaat hierin, dat  de atmosfeer juist zoveel waterdamp bevat dat de maximale hoeveelheid warmte (infraroodstraling) vanuit de atmosfeer afgegeven wordt aan de ruimte. Die waterdamp en  lage wolken absorberen de infraroodstraling vanaf de aarde en reguleren zo de uitstraling van warmte vanuit de atmosfeer naar de ruimte. Zie voor Miscolczi  het hoofdstuk Nieuwe Inzichten.

solomon4

In de wereld van de gevestigde klimatologen is dat vooralsnog een stap te ver. De auteurs spreken liever van een effect waarbij de opwarming tijdelijk vermindert als gevolg van de waterdampafname. Het knikje in bovenstaande grafiek.

 


Temperatuurbepalende factoren aan het aardoppervlak

trenberth stralingsbalans
Bron: Trenberth

Leerlingen in de eindexamenklassen havo en vwo dienen (meestal als duo) een zogenaamd profielwerkstuk te produceren. Voor mijn vak aardrijkskunde zijn dat vaak zeer uiteenlopende onderzoeken, varierend van historisch-geografisch tot klimatologisch. En van die laatste categorie had ik er dit jaar (2011-2012)  een hele fraaie, geproduceerd door 2 zesdeklassers, Sjors Timmermans en Bob Jacobs. De proefjes die daarbij hoorden wil ik hier graag laten zien.

Bob en Sjors hebben getracht zich een beeld te vormen van de processen aan het aardoppervlak die zorgen dat de aarde zijn overtolige warmte kwijtraakt. Een belangrijk onderdeel van de energiebalans van de aarde zoals men weet, vandaar dat deze bijdrage begint met de bekende figuur van Trenberth. Het gaat dus om de processen die op de figuur zijn aangeduid met ’thermals’, ‘evapotranspiration’ en ‘surface radiation’. Dit zijn de processen die de aarde afkoelen.

Sjors en Bob hebben zich eerst de theorie achter deze weerbarstige materie eigen gemaakt en hebben toen, in navolging van wijlen Noor van Andel, een leuke proef gedaan om de theorie te staven. Dat laatste stuk van hun werkstuk, het practicum, geef ik hier onder integraal weer omdat het zo leuk gedaan is. Voor de liefhebbers van het theoretisch kader is hier een link naar het complete werkstuk.

————————————————————————————————————————-

Uitleg van ons practicum

Hoe willen we nou gaan bekijken wat nou de grootste invloed heeft op de temperatuur aan het aardoppervlak? Doctor van Andel had een jaar voor zijn dood een zeer interessant proefje gedaan: hij nam een paar Petri schaaltjes en probeerde daarmee een aantal verschillende omstandigheden en factoren die van invloed zouden kunnen zijn op de temperatuur, te creëren. Hij mat vervolgens de temperatuur op gedurende 16 uur. Daarna moest hij stoppen omdat zijn dochter het gazon wilde maaien. Dit inspireerde ons om een gelijkaardig practicum op te zetten. Wij wilden onze meting langer laten lopen zodat we beter de opwarming konden bestuderen, maar ook de afkoeling.

De effecten die wij wilden bestuderen zijn de effecten van waterdamp, convectie en van broeikasgassen. Helaas kunnen we variaties in de zon niet goed genoeg nabootsen om hier degelijke informatie uit te kunnen halen. Vooral het afkoelen van onze kommetjes is interessant: welke omgeving voert de warmte het snelst weg? Zou de waterdamp voor de meeste afkoeling zorgen, of misschien convectie? En wat is het verschil tussen geen en wel broeikasgassen?

Opstelling

Algemene opstelling
We hebben de proef uitgevoerd met een opstelling die bij beide delen van het practicum uit 4 glazen bakjes bestond. Deze bakjes stonden op een witte ondergrond en er lagen watjes in, zodat er geen absorptie van zonlicht zou plaatsvinden, die het practicumresultaat zou kunnen beïnvloeden. We hebben met thermokoppels de temperatuur opgemeten. De seintjes die de thermokoppels gaven gingen naar een ‘Ulab’, een datalogger die de temperatuur meet gedurende een vooraf ingestelde tijd. Deze gegevens konden we dan later door middel van het programma Coach verwerken tot grafieken.

Waterdamp

We hebben ervoor gekozen om de verschillen die waterdamp maken te simuleren met het natmaken van de watjes. De rest van het water hebben we na het natmaken van de watjes uit het bakje geschud, zodat in elk bakje evenveel water aanwezig was.

Broeikaseffect

Om het broeikaseffect te simuleren hebben we net als Dr. Van Andel voor PE en PMMA gekozen. Een uitleg over deze stoffen komt later. Voor de bakjes met PE als bedekking, hebben we een diepvrieszak (dit is LDPE) over twee houten latjes gespannen, zodat we de bakjes eronder konden schuiven en de afstand tussen het bakje en de diepvrieszak ongeveer 1 mm was. Dit hebben we gedaan zodat het water dat verdampt er ook uit kan. De afstand is zo klein, omdat we op deze manier de convectie wel zo veel mogelijk willen verhinderen. Voor de bakjes met PMMA als bedekking hebben we hetzelfde gedaan, maar dan met PMMA (plexiglas) op de houten latjes. Ook hebben we nog een los wit plankje gebruikt, waar we de open bakjes op hebben gezet. Dit was dezelfde soort ondergrond als bij de andere bakjes, waardoor er hierdoor geen ongelijkheid in temperatuur in zou moeten zitten.

Convectie

Om convectie te simuleren hebben we ook open bakjes getest. Aangezien de andere bakjes zo goed als gesloten waren, kon de wind daar niet bij om de warme of koude lucht weg te voeren. Bij open bakjes is dit wel het geval.

Verdeling van de bakjes

We hebben ervoor gekozen om de proef in 2 delen te doen, omdat de ‘U-lab’ maar 4 aansluitingen had, waardoor we niet alle 6 de verschillende bakjes tegelijk konden meten. Op deze manier hoopten we door 2 referentiebakjes aan te houden, indirect alsnog alle 6 de bakjes met elkaar te kunnen vergelijken. We hebben de bakjes als volgt verdeeld:

Proefje 1:

PE droog
PE nat
PMMA droog
PMMA nat

Proefje 2:

Geen bedekking droog
Geen bedekking nat
PMMA droog
PE droog

 

sjors
Dit zijn de opstellingen van beide practica. Links is een poging tot het uitvoeren van practicum 1 te zien. Tijdens dit proefpracticum regende het. Links in het plaatje is de witte plastic zak te zien waarin de Ulab zat, zodat hij niet nat werd. Rechts is het plaatje te zien van practicum 2


 PE

PE staat voor polyetheen. Dit is een kunststof. Er zijn 2 soorten PE, namelijk hogedichtheidpolyetheen (HDPE) dat bij lage druk en met behulp van een katalysator wordt gemaakt en lagedichtheidspolyetheen (LDPE) dat bij hoge druk wordt gemaakt. HDPE bestaat voornamelijk uit lineaire ketens, terwijl LDPE vooral uit zeer sterk vertakte ketens bestaat.

LDPE is een vrij zachte, maar taaie stof. Het is waterafstotend en een goede isolator. Een erg belangrijke eigenschap van LDPE is dat het langgolvige straling (bijvoorbeeld IR straling) doorlaat. Het is gevoelig voor UV straling, wat betekent dat het door UV straling wordt aangetast, het houdt het echter niet volledig tegen.

HDPE is, net zoals LDPE, een flexibele, maar taaie stof. Verder is HDPE thermisch belastbaar, UV- en weerbestendig, en isolerend. Het laat net zoals LDPE langgolvige straling door. Ook HDPE is gevoelig voor UV straling en wordt dus door UV straling aangetast.
Wij hebben voor ons practicum gekozen voor LDPE, omdat de factoren die voor ons practicum van belang zijn overeenkomen en deze vorm handiger was om te gebruiken.

PMMA

PMMA staat voor polymethylmethacrylaat. Het is echter beter bekend als perspex of plexiglas. PMMA laat UV straling door, maar blokkeert IR straling. Het is erg stootvast, warmte-isolerend, heeft een lage dichtheid en is goed bewerkbaar. Ook is het erg goed bestand tegen lichts- en weersinvloeden.

Verwachtingen met betrekking tot het practicum

Op basis van deze gegevens is het te verwachten dat, op het moment dat de zon op de bakjes schijnt, de bakjes die met PMMA worden afgedekt het warmst zullen zijn, omdat hier de IR straling in de bakjes wordt gehouden. Ook zullen de bakjes met PE warmer worden dan het open bakje, omdat hier de convectie wordt tegengehouden. Hierdoor kan het bakje zijn warmte minder goed kwijt.

Problemen

Helaas hebben we enige problemen gekend met het doen van het proefje. We hadden de thermokoppels goed geijkt, dachten we, maar na de proefjes hadden we opnieuw gekeken of de thermokoppels gelijke temperaturen aangaven. Drie thermokoppels gaven ongeveer dezelfde temperatuur aan, de andere was 1,5 graden kouder. Wij weten zeker dat bij het tweede proefje de afwijkende thermokoppel bij het open droge bakje zat. Bij het eerste proefje denken wij dat het bij het droge bakje met PE zat.


Metingen

Practicum 1

 

sjors1
Resultaten practicum 1

 


We hebben dit practicum uitgevoerd van 8 februari 2012 22:30 uur t/m 10 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, de tweede dag helder.

In deze grafiek zijn:
Roze de grafiek van PMMA nat
Groen de grafiek van PE nat
Rood de grafiek van PMMA droog
Blauw de grafiek van PE droog (werkelijke temperatuur was waarschijnlijk 1,5 graden warmer)

Practicum 2

 

sjors2
Resultaten practicum 2

 

We hebben dit practicum uitgevoerd van 23 februari 2012 22:30 uur t/m 25 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, op de tweede dag kwam de zon er af en toe door.

In deze grafiek zijn:
Roze de grafiek van Open nat
Groen de grafiek van PE droog
Blauw de grafiek van PMMA droog
Rood de grafiek van Open droog (werkelijke temperatuur was 1,5 graden warmer)

Analyse

Practicum 1
Kwaliteit van de meting

Onze grafiek lijkt vrij goed overeen te komen met wat het dichtstbijzijnde KNMI station (in Arcen) heeft gemeten (zie bijlage). De tweede middag komt in onze grafiek echter duidelijk boven de andere uit qua temperatuur, terwijl dit bij de werkelijke temperatuur niet is. Waarschijnlijk komt dit doordat op de tweede dag de zon veel harder scheen. De thermokoppels lijken dit heel duidelijk op te pikken. Op de tweede dag meten de thermokoppels temperaturen van boven de 0 graden, terwijl de temperatuur volgens de KNMI niet boven de 0 uit waren gekomen.
De roze grafiek lijkt een meetfout te tonen in het eerste anderhalve uur en tussen 42 en 44 uur. De temperatuur blijft nagenoeg gelijk, terwijl dit totaal onlogisch is op deze tijdstippen. Bovendien is de temperatuur waarop de grafiek constant is in beide gevallen even hoog.

Waterdamp

In de nacht (tussen 0 en 9 uur en tussen 22 en 33 uur in onze grafiek) zijn de grafieken van de schaaltjes met een natte bodem (de groene en paarse grafieken) warmer dan de droge bakjes. Water geeft namelijk moeilijker warmte af aan de lucht dan andere materialen. In de middag, wanneer de zon op de bakjes schijnt, zijn de bakjes met water erin juist kouder dan de droge bakjes. Dit effect is op de eerste dag minder groot dan op de tweede omdat de luchtvochtigheid hoger was (zie bijlage). Het water kan dan namelijk verdampen en zo veel warmte meenemen. Het verschil bij de tweede dag is, ongeveer 7 graden ’s middags en 1 graden ’s nachts voor de PMMA bakjes. Opgeteld is dit 8 graden verschil. Na correctie is het verschil bij de PE bakjes, ‘s middags ongeveer 3,5 graden. Als je daar de 4,5 graden verschil die er ’s nachts tussen de bakjes zit bij optelt, krijg je een verschil van 8 graden. Waterdamp maakt de bakjes dus zo’n 8 graden koeler overdag.

Broeikaseffect

Over de hele 48 uur lijkt er een constant verschil te zitten tussen de bakjes met PE en PMMA. Bij de natte bakjes (groen en paars) is dit verschil ongeveer 1 graden en bij de droge bakjes (rood en blauw), na correctie voor het foutje met de thermokoppels, 1,5 graden. PMMA behoort de warmste te zijn aangezien PMMA infraroodstraling tegenhoudt. Dit betekent dat de warmte niet weg zou kunnen gaan uit onze bakjes. Helaas is dit niet het geval bij de natte bakjes. Sterker nog, bij de natte bakjes is de PE constant warmer dan de PMMA, al is het maar 1 graden. Wel lijken de PE bakjes lichtelijk sneller af te koelen dan de PMMA bakjes, maar dit verschil is bijna niet merkbaar. Een mogelijke verklaring voor het feit dat er bij de natte bakjes zo’n klein verschil zit tussen PE en PMMA is dat de waterdamp zich op de PMMA en PE gecondenseerd kunnen hebben. Daar zouden ze infraroodstraling omgebogen kunnen hebben naar de buitenkanten van de bakjes, waar de infraroodstraling er wel door kan. Of de waterdamp zou dan weer met de warmte die erin zit naar onder gevallen kunnen hebben, waardoor de warmte niet uit het bakje gevoerd wordt. Een verklaring voor het feit dat het natte bakje met PE constant warmer was, hebben we niet.

Practicum 2

De kwaliteit van de meting

 

sjors3
Een vergelijking van onze resultaten met Arcens temperatuur
Bron: Buienradar & onze eigen metingen

 

Onze grafiek komt bijzonder goed overeen met de temperatuur die het KNMI in Arcen heeft gemeten op 10cm hoogte boven gras. Vooral als je bij het open bakje 1,5 graden optelt. Zie hieronder voor de vergelijking.

Convectie

In de nacht waar het zo koud is geworden daalt de temperatuur van het open, droge bakje (de rode grafiek) harder dan de andere bakjes. Na de 1,5 graden correctie wordt het open bakje 0,5 graden kouder dan de gesloten bakjes. Het open bakje stond namelijk in contact met de open lucht. Rond dat tijdsstip kwam er een koudefront aan. De gesloten bakjes houden dan hun warmte zo veel mogelijk vast, totdat de warmte via straling en geleiding weg gaat. Uiteraard stijgt de temperatuur dan ook harder wanneer er weer warme lucht voorbij komt. Dit verschil is kleiner bij het natte, open bakje (de roze grafiek). In de middag blijkt er een verschil te zitten van 0,5 graden tussen het open, droge bakje en het bakje met PE (het afgedichte bakje dat alles doorlaat). In die middag kan het open bakje dus makkelijker de warmte kwijtraken en blijft het iets koeler.

Waterdamp

Op de eerste dag lijkt het bakje met de waterdamp moeilijker op te warmen. De reden hiervoor moet zijn dat er in de middag waterdamp gecreëerd is die dan weggevoerd wordt. Deze waterdamp voert de warmte mee (latente warmte). In de nacht die hierop volgt is de grafiek met waterdamp merkwaardig veel warmer dan de andere grafieken. Dit komt waarschijnlijk wederom doordat water moeilijker z’n warmte kwijt kan dan lucht. Vervolgens stijgt de temperatuur minder hard dan in het droge open bakje. De warmte die er gecreëerd wordt, wordt door het verdampte water meegevoerd. Op de tweede middag is het natte bakje even warm als beide afgesloten bakjes. Dit kunnen we niet verklaren. Door de waterdamp zou dit bakje juist kouder moeten zijn omdat het makkelijker zijn warmte kwijt kan. In de nacht is er een temperatuurverschil, na correctie, van anderhalve graden, in de middag geen enkele. Over het algemeen is het verschil dat waterdamp maakt, dat het in de middagen zo’n halve graden warmer is en in een nacht waar het sterk afkoelt, anderhalve graden.

Broeikaseffect

De eerste (bewolkte) dag is het bakje met PE (de groene grafiek) ongeveer 0,5 graden warmer dan het bakje met PMMA. Dit kan komen doordat de wolken het zonlicht slechter doorlaten en er juist voor zorgen dat er meer IR straling van de aarde wordt geabsorbeerd en weer gedeeltelijk naar de aarde wordt uitgezonden. Omdat PMMA niet doorlaatbaar is voor IR straling, wordt deze bij het PMMA buiten het bakje gelaten. PE laat IR straling echter wel door, waardoor dit bakje wel door deze straling wordt opgewarmd. Als er na ongeveer 25 uur een gebied met koude lucht voorbijkomt, wordt dit verschil kleiner en lopen de grafieken zelfs bijna gelijk. In dit gedeelte koelt het bakje met PMMA iets minder snel doordat de infraroodstraling van het bakje zelf het bakje niet uit kan. Dit verschil is echter vrij klein. Nadat de kou voorbij is getrokken warmt het bakje met PE harder op dan het bakje met PMMA. Wij denken dat dit wederom komt doordat de wolken infraroodstraling terugkaatst die het PMMA niet doorlaat. In de middag, wanneer de zon er zo af en toe doorheen komt, wordt dit verschil weer kleiner en gaan de grafieken nagenoeg gelijk lopen. Als je inzoomt, valt te merken dat het bakje met PMMA steeds een heel klein beetje warmer is dan het bakje met PE. Dit verschil is echter vrij klein. We hadden verwacht en gezien in het vorige practicum dat dit verschil groter zou zijn. Dit kan komen doordat de zon er maar af en toe door is gekomen en niet zoals bij het eerste practicum de hele tijd op de bakjes heeft geschenen. Ook in de tweede nacht koelt het PMMA bakje minder hard af. Het verschil tussen PE en PMMA is dus ongeveer 0,5 graden.

Conclusie van het practicum

Uit onze practica blijkt dat er maar een miniem verschil zit tussen PMMA en PE en dus ook tussen wel en niet broeikasgassen in onze atmosfeer. Bij het eerste practicum is het verschil 1 graden, bij het tweede slechts 0,5 graden. We kunnen dus concluderen dat het effect van broeikasgassen op microschaal bijzonder klein is.
Het effect van convectie is niet veel groter. Alleen in de middag, bij warmte, lijkt er een verschil van 0,5 graden te zitten tussen wel en geen convectie.
Het effect van waterdamp is veel groter, maar niet eenduidig. Bij ons eerste proefje is het verschil zo’n 8 graden, bij het tweede 1 graden.
Waar broeikasgassen een relatief klein tot geen effect hebben, en waar convectie ook maar een miniem verschil geeft, heeft waterdamp een groot effect op de temperatuur van onze bakjes. Als er verdamping plaats kan vinden, zijn de bakjes veel kouder als de zon er op schijnt, in de nacht heeft het een licht opwarmend effect.
De verschillen die in ons practicum te zien zijn, zijn relatief kleine verschillen doordat de bakjes niet volledig waren afgesloten, er niet veel zonuren waren (hoewel 10 februari de zonnigste dag van de maand was), er een hoge luchtvochtigheid was en doordat onze bakjes waarschijnlijk warmte geleid hebben, zodat de warmte naar buiten kon ontsnappen.

Conclusie

We hebben nu van drie van de vier factoren door middel van een simpel proefje weten te bepalen welke het sterkste effect heeft op de temperatuur op aarde. In ons practicum, dus op micro schaal, is gebleken dat waterdamp een grotere invloed op de temperatuur heeft dan broeikasgassen. Waterdamp geeft immers een verschil van 1 tot 8 graden tussen dag en nacht en broeikasgassen en convectie veel minder. Dit komt goed overeen met de theorie die we hadden. Waterdamp is heel belangrijk voor de temperatuur op het aardoppervlak. Waterdamp neemt de warmte mee naar boven waar de warmte gemakkelijker kan uitstralen. Waterdamp is echter ook een broeikasgas en helpt dus onze aarde opwarmen. Het is zelfs het meest actieve broeikasgas. Maar waterdamp kan ook wolken creëren en zo de aarde óf verder opwarmen óf afkoelen. De mate waarin dit gebeurt ligt aan de zon. Als de zon een zwak magnetisch veld heeft, zullen er meer lage wolken gevormd worden die onze aarde afkoelen. Echter ook de vervuiling van de lucht heeft invloed hierop. Als er veel vervuiling is, zijn er namelijk veel condensatiekernen en kunnen zich veel wolken vormen. Ook bestaan deze wolken dan uit veel waterdruppeltjes, waardoor het albedo relatief groot is ten opzichte van wolken die ontstaan rond weinig waterdruppeltjes. Ook bestaan deze wolken langer.

Wij denken dat de fluctuaties in de zon het grootste effect heeft op de temperatuur aan het aardoppervlak. Niet zo zeer omdat de temperatuur zeer laag zou zijn als er geen zon was, maar meer omdat het de motor achter het hele mechanisme is in onze aardatmosfeer. Als de zon zwak is, zal ze zowel meer wolken vormen als minder straling op de aarde zelf laten vallen. Als er minder straling op de aarde valt, zal er ook minder straling naar de broeikasgassen gestuurd worden. Deze broeikasgassen kunnen dan weer minder straling terugkaatsen.
Waterdamp lijkt daarna het grootste effect te hebben. Waterdamp kwam ‘als beste uit de bus’ in onze test en heeft meerdere mechanismes waarin het betrokken is.

Broeikasgassen komen naar onze mening op de derde plaats terecht. Ze bleken in onze test vrij weinig effect te hebben. Onze theorie geeft aan dat ze een behoorlijk groot effect moeten hebben en de aarde aardig moeten opwarmen, mede doordat een hogere temperatuur veroorzaakt door broeikasgassen, meer waterdamp laat verdampen, waardoor er meer broeikasgassen in de lucht komen die de aarde nog verder kunnen opwarmen. Wel kan er zo weer meer warmte mee naar boven gevoerd worden die dan kan uitstralen in de ruimte.

Convectie heeft vooral effect op de lokale temperatuur. De warmte wordt door middel van convectie van de ene naar de andere plek vervoerd, maar koelt niet echt het gehele aardoppervlak af. In de tropen is het effect van convectie echter het grootst. Daar is het het warmst en wordt de meeste warmte afgevoerd.

 

Modellen

Klimaatmodellen zijn mathematische modellen die het klimaat simuleren. Ze zijn er in allerlei soorten en maten, van een simpel model dat de stralingsbalans simuleert en de aarde + atmosfeer als black box beschouwen, tot zeer complexe modellen die de atmosferische en oceanische processen koppelen, de zogenaamde gekoppelde atmosfeer-oceaan modellen, Global Climate Models genaamd. Het zijn deze laatste modellen die momenteel een belangrijke rol spelen in CO2 – temperatuurdiscussie en de voorspellingen van de gemiddelde wereldtemperatuur in onder andere de rapporten van het IPCC.

Een eenvoudig model: de stralingsbalans

Het eenvoudigste model is de stralingsbalans van de aarde, voorgesteld als:

(1 − a)Sπr2 = 4πr2εσT4

Links van het = teken staat de binnenkomende zonne-energie, rechts de door de aarde uitgezonden energie. S is de zogenaamde zonneconstante, de hoeveelheid binnenkomende energie per m2 aan de buitenzijde van de atmosfeer. Deze is ongeveer 1368 W/m2. Verder is a de albedo van de aarde en r de straal van de aarde. . De uitgaande energie rechts is gebaseerd op de wet van Stefan-Bolzmann. Hier is ε de emissiviteit , het vermogen van een object om geabsorbeerde energie uit te stralen, σ is de Stefan-Bolzmann constante en T de stralingstemperatuur van de aarde (inclusief de atmosfeer). Het is eenvoudig te zien dat een verandering van de albedo, van de zonneconstante of van de emissiviteit in de formule een verandering van T veroorzaken.

Een probleem is de emissiviteit van wolken. Niet alleen is slechts een deel van de aarde bedekt met wolken, maar die bedekking is niet constant in de tijd. Bovendien is de bovenkant van wolken aanzienlijk kouder dan de gemiddelde temperatuur van het aardoppervlak. Als men hier rekening mee houdt is de gemiddelde temperatuur van de aarde 12 °C. Overigens is de rol van wolken niet alleen in de stralingsbalans een probleem: ook in de geavanceerde GCM’s is dit een van de zwakke punten, waarover later meer.

De meest geavanceerde modellen: Global Climate Models

De meest geavanceerde klimaatmodellen zijn een koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest complexe modellen die gebruikt worden en zijn voortdurend “under construction”. Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn
HadAM3 van het Hadley Center in Groot Brittannië en GFDL CM2.X van NOAA Geophysical Fluid Dynamics Laboratory in de USA.

model

De meeste Global Climate Models maken gebruik van een zogenaamd raster, waarin de atmosfeer is opgedeeld in een aantal cellen waarbinnen een aantal parameters worden vastgesteld. Gebruikelijk zijn, luchtdruk, temperatuur, vochtigheid en windsnelheid.

De meeste Global Climate Models hanteren een raster dat tussen 1° en 5° breedte- en lengtegraden groot is. Een van de bekendste Global Climate Models, het HadAM3, gebruikt cellen met een grootte van 2,5° breedtegraden en 3,75° lengtegraden. Elke cel heeft bovendien 19 verticale niveaus. De resolutie is dus ongeveer 300 km. De vierde dimensie in het model is de tijd. In het HadAM3 model wordt het systeem doorlopen met tijdstappen van 30 minuten. Het GFDL CM2.X model gebruikt een raster met cellen van 2° breedtegraden en 2,5° lengtegraden. Broeikasgassen vormen een externe input in de modellen.

hadcm3Gemiddelde temperatuur in juni-juli-augustus (boven) en december-januari-februari (onder). Hoogte in hP, breedtes van -90 (zuidpool) tot +90 (noordpool). Aardoppervlak op 1000 hP, dus niet gecorrigeerd voor hoogteligging. Bron HadCM3 

De zwakke kanten van de Global Climate Models

Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn, kennen ze een aantal tekortkomingen. De 6 belangrijkste zijn:

• Bij koppeling van het atmosferische model aan het oceanische model moeten in sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige vulkaanuitbarstingen.
• Alle modellen schieten ernstig tekort in het voorspellen van de temperatuur in de stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze. Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.

Met name de 4 laatste tekortkomingen hebben grote implicaties voor de betrouwbaarheid van de huidige klimaatmodellen. De door het IPCC in haar vierde rapport gebruikte klimaatmodellen vertoenen daardoor grote verschillen voor wat betreft de invloed van CO2-verdubbeling op de gemiddelde temperatuur. Die varieert van 1,5° C tot maar liefst 6° C !

Siebesma  ( Siebesma et al., Cloud controlling factors (2009), in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies  )  merkt daarover op:

 Processes that impact clouds span scales from the molecular to the planetary level, a fact that makes their description in a single reference model unimaginable. This implies that large-scale models will continue to hinge on parametric (or statistical) representations of cloud processes on at least some scale for the foreseeable future. As we endeavor to represent present-day and perturbed climates, we must recognize that this introduces a source of uncertainty at best, and likely bias. The origins of uncertainty in our representation of clouds in present-day GCMs are:

1. a fundamental lack of knowledge of some key cloud processes (e.g., upper tropospheric ice supersaturation and role of ice nucleating particles in mixed-phase and cold ice clouds),
2. a lack of knowledge about how to represent the aggregate properties (statistics) of processes that are well understood at their native scale,
3. a lack of interaction among subgrid processes,
4. a breakdown of quasi-equilibrium assumptions at the intermediate scales.

While some of these issues may play less of a role when increasing the resolution of GCMs (category 2 and 3), others (category 1) remain or might even play a larger role (category 4).”

De befaamde theoretisch fysicus en wiskundige Freeman J Dyson zegt over klimaatmodellen:

The real world is muddy and messy and full of things that we do not yet understand. It is much easier for a scientist to sit in an air-conditioned building and run computer models, than to put on winter clothes and measure what is really happening outside in the swamps and the clouds. That is why the climate model experts end up believing in their own models.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?

noor1
Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

noor2

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .


Hoe goed zijn klimaatmodellen in het voorspellen van de SST?

Bob Tisdale heeft op de site Whatsupwiththat een vergelijking gemaakt tussen klimaatmodellen en gemeten temperaturen van oceaanwater (SST), en komt daarbij tot opmerkelijke conclusies. Hij gebruikt daarvoor een aantal door het IPCC gebruikte klimaatmodellen die hij voedt met een tweetal scenario’s. De ene is 20C3M dat gebruikt wordt om zogenaamde hindcast (= ‘achteruit voorspellen’) toe te passen. De tweede,SRES A1B , is een scenario om voorspellingen in de toekomst te kunnen doen. Hij zet de uitkomsten van de klimaatmodellen af tegen gemeten waarden van de SST (Sea Surface Temperature) op basis van Reynolds OI.v2 dataset, satellietmetingen. De verschillen zijn opmerkelijk.

tisdale1Bron: KNMI
Bovenstaande figuur vergelijkt voor de gehele aarde de gemeten data vanaf 1982 (start satellietmetingen) met de gemiddelde uitkomsten van klimaatmodellen. Het verschil is opvallend. Niet alleen verdwijnen El Niño/La Niña variaties, maar ook de trend van de modellen ligt zo’n 50% hoger dan de gemeten trend.

tisdale2Bron: KNMI

Deze afwijkingen blijven ook aanwezig als Tisdale de Grote Oceaan in vieren knipt: noord, zuid oost en west. Bovenstaande figuur betreft de situatie voor het noordelijk deel van de Pacific. De lineaire trend van de modellen is bijna 2x zo groot als die van de meetgegevens. Alleen voor het westelijk deel van de Grote Oceaan geldt dat de modellen heel aardig de gemeten trend volgen.

tisdale5

Bron: KNMI

Maar in het oostelijk deel van de Grote Oceaan zijn de verschillen tussen modellen en de gemeten waarden zeer groot: de lineaire trend van de modellen is daar meer dan 6x hoger dan die van de gemeten data.

tisdale3Bron: KNMI
Tisdale kijkt ook naar de zonale verschillen die de modellen weergeven. De zones hebben een breedte van 5 breedtegraden, dus bijvoorbeeld van 45 °NB tot 50 °NB, en lopen van Noordpool tot Zuidpool. Voor elke zone worden dan de lineaire trend weergegeven volgens de klimaatmodellen . De periode loopt van januari 1982 tot februari 2011. De zones zijn per oceaanbekken weergegeven, waarbij de Indische Oceaan en de Grote Oceaan gesplitst zijn in een westelijk en een oostelijk deel.
tisdale6Bron: KNMI
Opvallend is dat de afwijkingen van de modellen het grootst zijn op lage breedten en afneemt tot vrijwel 0 in Arctische en Antarctische wateren , dat deze afwijkingen over het gehele traject positief zijn, en dat dit voor alle oceanen geldt.
Als we bovenstaande zonale data per oceaan samenvoegen, en vergelijken met de gemeten data, dan wordt het beeld heel anders.

tisdale10Bron: KNMI
De modellen missen de afkoeling van de SST ten Z van 50 °ZB , de opwarming van het oceaanwater nabij 62 °NB, terwijl de afwijking tussen 30 °ZB en 30 °NB ook erg groot zijn. Kortom, de modellen elke link met het werkelijke verloop van de SST.
Als men de zonale data van het westelijke bekken van de Grote Oceaan vergelijkt met die van het oostelijk deel, dan krijgt men het volgende beeld. Hieronder eerst het westelijk deel van de Pacific:

tisdale8Bron: KNMI
In het westelijk deel missen de modellen de gemeten afwijkingen op 67 °ZB, 50 °ZB, 40 °NB en 62 °NB, maar overigens doen de modellen het in dit deel van de Pacific niet erg slecht. Dat komt overeen met datgene wat we ook al zagen in de derde figuur. Maar als men dan de data van het oostelijk deel van de Grote Oceaan bekijkt dan slaan de klimaatmodellen de plank volledig mis:

tisdale7Bron: KNMI
Tot slot kwam Tisdale nog met een update van zijn bevindingen, omdat de figuren gevoelig zijn voor de keuze van begin- en eindpunt van de gemeten periode. Dat is op onderstaande grafiek duidelijk te zien.

tisdale11Bron: KNMI
Om het El Niño/La Niña-effect op het verloop van de grafieken te elimineren kiest Tisdale als beginpunt januari 1986 en als eindpunt december 2005, beide El Niño/La Niña-neutrale data. Voor alle oceanen samen levert dat het volgende effect op:

tisdale9Bron: KNMI
Als men dat vergelijkt met de figuur die het tijdvak 1982-2011 bestrijkt dan zien we dat de afwijkingen weliswaar op sommige breedten iets kleiner zijn geworden, maar dat blijft staan dat de klimaatmodellen extreem afwijken van de gemeten waarden. De oceanen maken ongeveer 2/3 van het totale oppervlak van onze planeet uit en zijn vanwege hun enorme buffercapaciteit voor wamte, vanwege de zeestromen en vanwege verdamping van zeer grote invloed op het klimaatsysteem. Men dient dan ook mijns inziens de uitkomsten van die modellen met grote voorzichtigheid te benaderen.

Met dank aan Bob Tisdale en het KNMI voor de data.


Klimaatmodellen en onzekerheid

komen

 

Prof. Dr. Gerbrand Komen, voormalig Hoofd Klimaat Onderzoek en Seismologie van het KNMI, heeft op 25 november j.l. een bijdrage geleverd op de site Wetenschappelijke modellen getiteld Klimaatmodellen, onzekerheid en vertrouwen. In het hoofdstuk De Feiten (zie menu) is daar in de paragraaf Klimaatmodellen al het een en ander geschreven.

Hier volgt het belangrijkste stuk uit de bijdrage:

* Veel in het kader van de verschillende CMIP projecten uitgevoerde testen hebben al het karakter van een severe test.
* Je moet je wel steeds bewust zijn van de pretenties van een model. Voorbeeld: je kunt niet verwachten dat een mondiaal model de convectieve neerslag in Nederland beschrijft. Daar moet je dan ook niet op testen. Het is op voorhand evident dat zo’n test niet succesvol kan zijn.
* Wat je ook test, modellen van complexe systemen zijn niet te ‘bewijzen’.

Vooral dat laatste wordt niet door iedereen geapprecieerd. Fysicus Richard Feynman (geciteerd door Judith Curry) zei het zo: “Scientific knowledge is a body of statements of varying degrees of certainty — some most unsure, some nearly sure, but none absolutely certain.” Dit geldt voor alle wetenschappelijk kennis, en zeker ook voor onze kennis van complexe systemen.

Vertrouwen in klimaatmodellen is deels subjectief

Als je de modellen niet kunt bewijzen waarom zou je hun resultaten dan gebruiken? Antwoord: omdat je op een of andere manier vertrouwen hebt in het nut. Als het KNMI regen voorspelt kun je daar nuttig gebruik van maken als je moet besluiten of je wel of niet een paraplu mee wilt nemen.  Je hebt (enig) vertrouwen in die verwachtingen, omdat het KNMI in het verleden bewezen heeft kwaliteit te leveren.

Bij klimaatmodellen ligt dat wat ingewikkelder. Er zijn twee belangrijke toepassingen van het klimaatonderzoek die grote maatschappelijke implicaties hebben, nl de attributie van waargenomen veranderingen aan menselijk handelen, en verkenningen van mogelijke toekomstige ontwikkelingen. In beide gevallen is het gebruik van klimaatmodellen essentieel. Waarom zou je de resultaten van die modellen vertrouwen? Het maatschappelijk debat bewijst wel dat dit geen academische vraag is. Het IPCC spreekt van considerable confidence, terwijl anderen juist weinig vertrouwen hebben. Kennelijk heeft het vertrouwen in modellen een subjectief element, al dan niet cultureel bepaald.

Het onzekerheidsmonster

Om te begrijpen wat er aan de hand is, is het goed om te kijken naar de wijze waarop men modelonzekerheden probeert te beschrijven. Klimaatonderzoekers ontlenen vertrouwen aan het vermogen van hun modellen om waarnemingen te simuleren. Dit vermogen kan goed gekwantificeerd worden met behulp van statistische technieken, en levert dus harde getallen. En die worden dan ook vaak gecommuniceerd. Daarbij mag men echter niet vergeten dat er ook sprake is van onderliggende subjectieve keuzes: de keuze van de te vergelijken grootheden, de gewichten die men daaraan toekent, en kwaliteitscontrole bij de selectie van data.

Onzekerheden in modelverwachtingen kan men kwantificeren door modellen onderling te vergelijken of door te kijken naar het effect van parameter-perturbaties. De verschillen die daarbij naar voren komen zijn een maat voor de onzekerheid. Grote verschillen impliceren grote onzekerheid. Omdraaien mag natuurlijk niet: je kunt niet zeggen dat de onzekerheid klein is als de resultaten van verschillende modellen goed overeenstemmen, of ongevoelig zijn voor parameterwaarden. Het is immers denkbaar dat alle beschouwde modellen een structurele imperfectie hebben.

Monsterbezwering

Jeroen van der Sluijs heeft in dit verband het begrip onzekerheidsmonster ingevoerd (geïnspireerd door Martijntje Smits, en inmiddels overgenomen door bv Judith Curry). In zijn artikel uit 2005 onderscheidt van der Sluijs verschillende manieren waarop met dit monster omgegaan wordt, zoals ontkenning, vereenvoudiging en ‘assimilatie’.

Het IPCC heeft geprobeerd, en probeert nog steeds, om het monster te temmen door het hanteren van strakke en verstandige richtlijnen voor de communicatie van onzekerheden. Prijzenswaardig, maar lastig in de praktijk. Zo noemt het recente IPCC Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation het ‘zeer waarschijnlijk [90‑100 % kans] dat hittegolven in lengte, aantal en intensiteit op de meeste plaatsen (boven land) zullen toenemen’. Het percentage suggereert een mate van exactheid die er m.i. niet is, omdat het niet expliciet maakt dat de bewering gebaseerd is op het vertrouwen dat de auteurs in klimaatmodellen hebben.

Hoe nu verder? Van der Sluijs heeft, bouwend op eerder werk van Funtowicz en Ravetz, al in 2005 een mogelijke weg aangegeven onder de noemer ‘assimilatie’: eerlijk, open en transparant zijn over onzekerheid en onwetendheid, en ruimte geven voor wat wel extended peer review genoemd wordt, dat is een proces waarbij voor de bepaling van de kwaliteit van onderzoek belanghebbende individuen en groepen worden ingeschakeld die niet zelf bij het onderzoek betrokken zijn. Dat eerste lijkt me van evident belang. Over het tweede valt nog heel wat te zeggen (zie bv Hanekamp, 2010; en de discussie op Watts Up With That?). Hier ontbreekt de ruimte om daar verder op in te gaan. Maar misschien is het iets voor later?

Vertrouwen in de wetenschap

Waardering van klimaatmodellen is een ding, waardering voor de wetenschap is nog iets anders. Die waardering is een kostbaar goed. Von Storch spreekt in dit verband van ‘kapitaal’ dat je kunt vergroten, maar ook vernietigen. Helaas is het vertrouwen in de klimaatwetenschap niet meer vanzelfsprekend, getuige de reacties op bijvoorbeeld climategate.nl. Het is daarom belangrijk dat we nagaan wat er moet gebeuren om dat vertrouwen te verbeteren. Betere communicatie over onzekerheden hoort daar zeker bij.

 

2013: Modellen zitten er flink naast

De geavanceerde klimaatmodellen die voorspellen wat de ontwikkeling van de temperatuur op aarde zal worden de komende decennia zitten er flink naast. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres en heeft de meest recente cijfers eens voor de parlementariërs op een rijtje gezet. Hieronder ziet u wat dat opgeleverd heeft.

christy6
Christy gebruikt voor de vergelijking 38 klimaatmodellen uit de CMIP5 dataset. Meer hierover is te vinden in de Climate Explorer van het KNMI.

Hij zette vervolgens de datareeksen op basis van metingen ook in de grafiek. Dat zijn de reeksen van NCDC, NASA, HadCRUT4, RSSLT en UAHLT. De laatste  zijn datasets verkregen door satellieten. De referentieperiode is 1979-1983. Conclusie: vrijwel alle modellen schatten de temperatuurontwikkeling op aarde veel te hoog in.

De temperatuurstijging in het Arctische gebied is zoals bekend sterker dan de gemiddelde aardse temperatuur. De recente afname in het oppervlak van het zomerse drijfijs wordt vaak door alarmisten gebruikt om de ‘catastrofale gevolgen van de antropogene opwarming’ te duiden. Weliswaar doen de modelmatige voorspellingen het in het gebied tussen 70 °NB en 90 ° NB het wat beter dan voor de aarde als geheel, maar ook hier schatten de meeste modellen de temperatuurontwikkeling veel hoger in dan wat in werkelijkheid gemeten is.

christy7

Bekijken we dezelfde cijfers voor de regio met drijfijs rond Antarctica ( 60 ° ZB tot 75 ° ZB), dan is ook hier hetzelfde beeld als voor de aarde als geheel: de modellen voorspelen een flinke stijging van de temperatuur in het gebied, terwijl de gemeten waarden zelfs een lichte daling vertonen.

christy8

Modellen zijn dus tot nu toe slecht in het voorspellen van de temperatuurontwikkeling op aarde. Desondanks zijn ze zonder terughoudendheid gebruikt door het IPCC en andere instanties om ons er van te doordringen dat een grote opwarming gaande was met mogelijk desastreuze gevolgen.

Hawkins en Sutton hebben in 2009 onderzoek gedaan naar de onzekerheid in klimaatmodellen. Onderstaande figuur stamt uit de publicatie. De oranje kleur betreft de interne variabiliteit.

hawkins1
Mojib Latif van de universiteit van Kiel voegt aan de onzekerheid in het gebruik van modellen om de temperatuur te voorspellen nog een extra factor toe: de onvoorspelbare externe invloeden op het klimaatsysteem. Over wellicht de belangrijkste, de zon, is hier al vaker geschreven.

 

Klimaatmodellen en betrouwbaarheid

Ik heb hier al vaker laten zien dat klimaatmodellen hun beperkingen hebben, met name als ze gebruikt worden om op langere termijnvoorspellingen te doen. Mark Maslin en Patrick Austin van het University College in Londen hebben daarover  in juni 2012 geschreven in Nature onder de titel ‘Climate models at their limit?

De huidige generatie modellen is weliswaar beter dan ooit in het nabootsen van het complexe klimaatsysteem, maar merkwaardig genoeg produceren deze geavanceerde modellen eerder méér dan minder onzekerheden in hun voorspellingen. Volgens Maslin en Austin hebben klimaatmodellen hun limiet bereikt voor wat betreft predictie.

maslin1

De oorzaken van deze paradox zijn divers. De meest voor de hand liggende is het feit dat modellen de werkelijkheid niet zijn. Modellen zijn per definitie niet in staat om het zeer complexe systeem  van het aardse klimaat betrouwbaar na te bootsen. Oreskes et al van de University of California hebben aangetoond dat het daarom onmogelijk is om de deugdelijkheid van klimaatmodellen vast te stellen en te valideren.

De tweede factor is dat de opzet van modellen sterk uitleen loopt, en dus ook de parameterisatie van belangrijke klimaatprocessen zoals wolkvorming. Met name de grote ruimtelijke variatie van de neerslag zorgt er al voor dat regionale voorspelling hoogst onzeker zijn. Zo levert een van de bekendste modellen, HadCM3 van Metoffice, een onnauwkeurigheid van de jaarlijkse afvoer van het stroomgebied van de Mekong Rivier   van een afname van 5,4% tot een toename van 4,5%.  De maandelijkse afvoer schommelt zelfs van -16% tot +55%. Waarden waar geen enkele beleidsmaker iets mee kan.

maslin2

De derde oorzaak is dat de verwachte hoeveelheden broeikasgassen en aerosolen aan het einde van deze eeuw gebaseerd zijn op economische modellen die zonder twijfel maar een slag slaan naar het gebruik van fossiele energiedragers over 90 jaar. De energiemarkt is heftig in beweging: aan de ene kant zien we een toename van ‘groene’  energiebronnen, aan de andere kant worden steenkool en aardgas steeds goedkoper dankzij nieuwe wintechnieken. Er is niemand die kan overzien wat dat betekent voor de situatie over 10 jaar, laat staan over 90 jaar.  Er is aan toe te voegen dat de invloed op het aardse klimaat van verandering van broeikasgassen en aerosolen nog lang niet duidelijk is.

De huidige generatie klimaatmodellen zijn goed in staat de onzekerheden van complexe factoren te kwantificeren. De chemie van de atmosfeer en de ruimtelijke resolutie van de nieuwe modellen zijn beter dan ooit. Maar tegelijkertijd betekent het incorporeren van complexe processen tevens het toevoegen van meer onbekenden. Analyse van deze nieuwste modellen toont bijvoorbeeld een grotere spreiding van de voorspelde globale temperatuur dan voorheen.

Een beetje vreemd is het als na het benoemen van al deze toenemende onzekerheden in de nieuwe generatie modellen Maslin en Austin toch blijk geven van een groot vertrouwen in diezelfde modellen. Ze maken zich zorgen over de toegenomen scepsis ten aanzien van klimaatmodellen en geven zelfs aan op welke manier het vertrouwen van het ‘publiek’  in de betrouwbaarheid van modellen vergroot kan worden. Dat doet me denken aan de grote schrijver Gerard Reve, die, toen hij werd aangevallen door vakbroeders vanwege zijn commerciële houding, de kritiek pareerde door simpelweg te verklaren dat hij het inderdaad allemaal voor de publiciteit en het geld deed, want “ik heb een winkel.”. Zo openlijk heb ik wetenschappers echter nog nooit horen spreken.

 

 

Henry Masson: voorspellingen doen in chaotische systemen

De lezing van Henry Masson op de klimaatconferentie in Rijsoord op 8 december 2012  was bijzonder, maar voor mij soms erg moeilijk te volgen.  Dat had niet zozeer te maken met het onderwerp , hoe betrouwbaar kun je tijdreeksen doortrekken in de toekomst, als wel  omdat zijn benadering niet klimatologisch (natuurkundig) maar statistisch is.

masson1

Hij bekijkt de problematiek vanuit wiskundig/statistisch oogpunt, en komt tot opmerkelijke conclusies. In de figuur hierboven is dat weergegeven: voor de wiskundige benadering is het klimaatsysteem een black box.

Het uitgangspunt is dat het klimaatsysteem  een chaotisch systeem is. Een dergelijk systeem heeft bepaalde eigenschappen die niet af te leiden zijn uit die van de samenstellende delen. Een van de gevolgen daarvan is dat ze niet-lineair zijn: kleine afwijkingen in het systeem kunnen tot  zeer diverse gevolgen leiden. Een ander kenmerk is dat het gedrag van een complex systeem op een bepaald moment vooral bepaald wordt door de daaraan voorafgaande gebeurtenissen.  De combinatie van deze eigenschappen zorgt er voor dat het nauwelijks mogelijk is om aan de hand van tijdreeksen voorspellingen te doen voor de toekomst. Een aanwijzing daarvoor zijn de diverse temperatuurpredicties in het 4e rapport van het IPCC en het werkelijke verloop van de globale temp vanaf 2000 ( grafieken hieronder).

christy6

masson2

Het klimaatsysteem is vooral daarom chaotisch omdat we nog steeds geen volledig zicht hebben op de afzonderlijke onderdelen van het systeem, met hun specifieke werking. Een eigentijds voorbeeld is het gedrag van wolken in de energiebalans van de aarde. Masson stelt dat vanwege het chaotisch karakter van het klimaat het in feite onmogelijk is om voorspellingen te doen over de temperatuur. Complexe systemen zijn sterk non-lineair, waardoor ze niet geschikt zijn voor ‘klassieke’  regressie-analyse e.d. De gebruikelijke methoden om ruis uit een meetreeks te verwijderen zijn gebaseerd op de vooronderstelling dat de data Gausiaans verdeeld zijn rond een trendlijn. Volgens Masson levert een dergelijke techniek vaak een zogenaamd hockey-stickeffect op zoals we dat ook kennen van de publicaties van Mann et al.

mann1

Tijdreeksen worden vaak beïnvloed door een zekere mate van random noise, bijvoorbeeld door externe factoren of vanwege beperkingen in het modelleren. In een aantal gevallen wordt het systeem dan chaotisch: de indicatoren bewegen dan rond een of meer ‘strange attractors’. In de bovenste grafiek links  is er nog sprake van een voorspelbaar signaal met enige ruis, in de onderste is het signaal niet voorspelbaar en chaotisch.

masson8    masson9

De rechter grafiek toont een voorbeeld van een dergelijk signaal rond attractors.  Het is de tijdreeks van de temperatuur van de bekende Vostok ijsboring op Antarctica.

Masson liet tijdens de lezing zien dat de functie   chaotisch kan worden afhankelijk van de grootte van de variabele α. De functie kan dan van stabiel…..

masson5

licht chaotisch worden…….

masson4

en dan steeds chaotischer worden:

masson6
Bij een hele lichte wijziging van de variabele α verandert zelfs de positieve trend in de vorige grafiek in bijna geen trend:

masson7

Het is daarom van het grootst belang om in tijdreeksen een methode toe te passen om eventueel chaotisch gedrag te ontdekken.  Masson maakt daarbij gebruik van een aantal statistische technieken, waarvan de zogenaamde recurrence plots mij het best bij zijn gebleven, al was het alleen al vanwege de wonderlijke patronen die daarbij kunnen ontstaan.  Recurrence plots vormen krachtig  kwalitatief visueel gereedschap om   patronen in tijdreeksen te ontdekken.

Onderstaande plot betreft de temperatuurreeks van Ukkel sinds 1830. Volgens Masson toont de plot dat er geen trend te ontdekken is in het signaal.

masson10

Masson concludeert :

masson11

 

 

Milanković

Al decennia is in de klimaatwetenschap geaccepteerd dat de relatie tussen zon en aarde van grote invloed is op het klimaat op aarde. Logisch natuurlijk, als je bedenkt dat vrijwel alle processen aan het aardoppervlak gestuurd worden door zonne-energie. In het hoofdstuk over de stralingsbalans is daar al ruim aandacht aan geschonken. Merkwaardig is het dan zeker dat de afgelopen jaren de aandacht vooral is uitgegaan naar terrestrische (aardse) oorzaken van klimaatveranderingen (vooral broeikasgassen) en nauwelijks naar extra-terrestrische oorzaken. Daar komt nu langzamerhand verandering in, met name door het onderzoek van Svensmark c.s.  Maar de grote pionier op dit gebied was ongetwijfeld Milutin Milanković, een Servische wetenschapper.

Milanković theorie beschrijft de effecten van de beweging van de planeet aarde op het wereldklimaat. Milutin Milanković (Dalj, 1879 – 1958), civiel ingenieur en wiskundige, beschrijft in een publicatie in 1941 dat de variaties in de baan van de aarde rond de zon (excentriciteit), de variaties in de aardashoek (obliquiteit) en de tolbeweging van de aardas (precessie) van invloed zijn op de temperatuur op aarde. Als gevolg van deze variaties varieert de temperatuur op aarde en zijn de ijstijden gedurende het Kwartair  (2,5 miljoen jaar – heden) te verklaren.

milankovic

De onderste curve toont het berekende effect van de excentriciteit, precessie en obliquiteit op de hoeveelheid ontvangen zonne-energie die op een zomerse dag aan de buitenkant van de dampkring  op een vierkante meter wordt ontvangen op 65 graden NB. Omdat de periodiciteit van de 3 factoren bekend is kan ook berekend worden wat het effect in de toekomst zal zijn. De grafieken lopen dan ook van -800.000 jaar A.D. tot +800.000 jaar A.D.

berger

Bovenstaande grafiek toont de juni-instraling op 65 graden NB  gedurende de afgelopen 600.000 jaar, zoals berekend door Berger c.s.  (A. Berger and M.F. Loutre, 1991, Insolation values for the climate of the last 10 million years. Quaternary Science Reviews, 10: 297-317).

De reacties vanuit de wetenschappelijke wereld waren grotendeels negatief en afwijzend. Het duurde tot 1976 voordat een studie van Hays, Imbrie en Shackleton naar boorkernen in diepzeesedimenten het gelijk van Milanković aantoonde en de wetenschappelijke wereld Milanković theorie aanvaardde ( J. D. Hays, John Imbrie and N. J. Shackleton,1976, Variations in the Earth’s Orbit: Pacemaker of the Ice Ages, Science Vol. 194. no. 4270, pp. 1121 – 1132).

De waarde van Milancović theorie werd nogmaals bevestigd door onderzoek aan ijskernen van Antarctica in 2007. De in de ijskeren aanwezige luchtbelletjes werden onderzocht op de aanwezigheid van zuurstof en stikstof. De waardes daarvan worden direct bepaald door de grootte van de instraling ter plaatse  (Kawamura et al., Nature, 23 August 2007, vol 448, p912-917) .

Excentriciteit, obliquiteit en precessie beïnvloeden de  stralingsbalans van de aarde als gevolg van variaties in de  hoeveelheid zonnestraling en de oriëntatie van landmassa’s ten opzichte van de zon. Dit verschijnsel staat bekend al solar forcing.

Excentriciteit.

excentr           excentr2

De baan van de aarde rond de zon is een ellips. Excentriciteit is de mate waarin deze ellips afwijkt van een cirkel. Deze excentriciteit varieert in de tijd van bijna cirkel (excentriciteit van 0,005) tot licht elliptisch (excentriciteit 0,028). De huidige excentriciteit bedraagt 0,017. De periodiciteit van de excentriciteit kent 2 schalen: een van 413.00 jaar en een tweede van grofweg 100.000 jaar.

Deze variaties in excentriciteit ontstaan door de invloed van de zwaartekracht van de planeten Saturnus en Jupiter. Momenteel is het verschil in afstand tussen het punt van de aardbaan dat het dichtst bij de zon ligt (perihelion) en het punt dat het verst van de zon verwijderd ligt (aphelion) 5,1 miljoen kilometer, resulterend in een verschil van inkomende zonnestraling van 6,8%. Als de baan zijn maximale excentriciteit heeft bereikt bedraagt dit verschil zelfs bijna  23%.

Obliquiteit

obliquiteit

De hoek die de aardas maakt met het vlak waarin de aarde rond de zon draait varieert van 22,1° tot 24,5°, met een periodiciteit van 41.000 jaar. De invloed van obliquiteit op de temperatuur op aarde is het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde. Bij een grotere hoek nemen de verschillen tussen de seizoenen voor wat betreft de instraling van de zon toe. Zowel op het noordelijk als het zuidelijk halfrond worden de zomers dan warmer en de winters kouder. Momenteel neemt de obliquiteit af en is 23,44° , waarmee we ons grofweg halverwege de beweging bevinden.

Echter, deze verschillen tussen zomer en winter zijn niet even groot. Bij toenemende obliquiteit neemt de gemiddelde jaarlijkse instraling op hogere breedte toe, terwijl op lagere breedte de instraling afneemt. Op hogere breedte veroorzaakt een lage obliquiteit derhalve zowel een lagere gemiddelde instraling op deze breedte als de afname van instraling in het zomerseizoen. Koele zomers kunnen dan het begin van een ijstijd triggeren doordat minder sneeuw smelt en de albedo in sommige gebieden sterk verandert.

Precessie

precessie

Precessie is de tolbeweging van de aardas, en heeft een periodiciteit van ongeveer 26.000 jaar. Precessie is het gevolg van de getijdekrachten die zowel de zon als de maan op de aarde uitoefenen, versterkt door het feit dat de aarde niet perfect rond is. Net zoals bij obliquiteit is het effect van precessie op de temperatuur op aarde het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde.

Als de aardas gedurende het perihelion (zie hiervoor) naar de zon wijst zal het ene polaire  halfrond grotere seizoensverschillen kennen, terwijl het andere halfrond kleinere verschillen kent. Momenteel kent het zuidelijk halfrond wat grotere verschillen tussen zomer- en wintertemperatuur als gevolg van de precessie dan het noordelijk halfrond.

Wolken

Wolken spelen een merkwaardige dubbelrol in de stralingsbalans van de aarde. Enerzijds houden ze kortgolvige straling van de zon tegen, anderzijds absorberen ze infraroodstraling en stralen ze infrarood uit naar de ruimte. Wolken verminderen de totale hoeveelheid geabsorbeerde zonnestraling met 50 W/m2, maar reduceren de totale uitgestraalde energie met 30 W/m2. Het totale effect van wolken is derhalve negatief: – 20W/m2 , vooral als gevolg van de dominante invloed van de albedo (reflectie zonlicht bovenzijde wolken) . Het zal duidelijk zijn dat deze waarden sterk wisselen, afhankelijk van de bewolkingsgraad en dikte. Op lagere breedte (tropen) is het afkoelende effect van wolken zelfs 50 – 100 W/m2, terwijl op hogere breedtes de effecten op instraling en uitstraling elkaar ongeveer in evenwicht houden.

De albedo van wolken varieert van minder dan 10% tot meer dan 90% en hangt af van de grootte van de druppels, of de wolk uit water of ijs bestaat, van dikte van de wolk, en van de hoek van instraling van het zonlicht. Hoe kleiner de druppels en hoe groter de vloeibare waterinhoud, hoe groter de albedo van een wolk.

Laaghangende, dikke wolken (zoals cumulus) hebben een hoge albedo, en daardoor een negatieve feedback: ze koelen de aarde af. Hoge, dunne wolken (zoals cirrus) hebben een lagere albedo maar hebben een hogere positieve feedback. Zij dragen bij aan het broeikaseffect. De meest recente onderzoeken naar de invloed van wolken op de energiebalans van de aarde wijzen wel op een gemiddelde negatieve feedback van wolken. Dat wil zeggen dat  bij wolken het tegenhouden van kortgolvige zonnestraling gemiddeld groter is dan het  tegenhouden van warmtestraling vanaf de aarde ( Joel R. Norris and Anthony Slingo, 2009, in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and
the Frankfurt Institute for Advanced Studies).

De belangrijkste oorzaak van het feit dat de diverse klimaatmodellen voor wat betreft de klimaateffecten van het versterkt broeikaseffect zulke diverse uitkomsten vertonen is vooral gelegen in de verschillen tussen de modellen van wolkenprocessen en wolkenfeedbacks. Die verschillen tussen de diverse GCM’s (General Climate Models) voor wat betreft de wolkenfeedback zijn grofweg 3x groter dan de waterdampfeedback, de opname van warmte door de oceanen of de stralingsfeedback.. ( Dufresne & Bony, 2008 ). De tekortkomingen in de rol van met name ijswolken in de GCM’s leiden tot grote onvolkomenheden in de voorspellingen van de diverse modellen. ( Walliser, 2009 ).

Twee citaten uit het meest recente standaardwerk over wolken en klimaat (Jost Heintzenberg and Robert J. Charlson  (2009),Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies) :

Clouds, however, constitute the largest source of uncertainty in the climate system, and there are solid reasons why our knowledge of clouds and their related processes is very limited.  ……address the shortcomings that arise in atmospheric models attributable to the interactions between resolved and unresolved (i.e., parameterized) cloud-related processes. These problems occur because it is necessary to consider simultaneously a wide range of scales of cloud-related processes, from molecular to global“.

 

Wolken koelen de aarde af
De bewijzen  stapelen zich op: wolken hebben netto een afkoelende werking op de oppervlaktetemperatuur van de aarde. Dat is op te maken uit een recente publicatie van Richard Allan van de universiteit van Reading in Groot-Brittannië  genaamd  “Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere ”.  Allan gebruikte voor zijn onderzoek naar het gedrag van wolken op de stralingbalans een tweetal bronnen, namelijk meetgegevens van GERB satelliet en het Numerical Weather Prediction ( NWP) model  van Met Office in Groot-Brittannië.

Het gedrag van wolken in de stralingsbalans is de achilleshiel van de vigerende klimaatmodellen. NASA schrijft op haar website: “Ultimately, we are searching for a set of mathematical models that allow us to span the incredibly large range of space and time scales important to aerosols, water vapor, clouds, the land surface, and the oceans. These models must be capable of reproducing the variability shown in the data at both regional and global scales. They must be capable of reproducing El Niño, the Earth’s diurnal and seasonal cycles, and the inter-annual variability in the climate system. The models must also be capable of reproducing the systematic changes in the radiative energy balance with changing aerosols, water vapor, clouds, and surface properties. Only then can we begin to trust the models to produce accurate global change predictions.” .

eenv str

Vereenvoudigde stralingsbalans.  Bron:  Allison, Mead A., Arthur T. DeGaetano, Jay M. Pasachoff

Joel Norris en Anthony Slingo merken in ‘Clouds in the Perturbed Climate System’ op:
The response of clouds and their radiative effects to global warming represents a longstanding and considerable area of uncertainty in our understanding of climate change. At present, it is not known whether changes in cloudiness will exacerbate, mitigate, or have little effect on the increasing global surface temperature caused by anthropogenic greenhouse radiative forcing. Another substantial uncertainty is the magnitude of radiative forcing resulting from the modification of cloud properties by anthropogenic aerosols. Global climate models provide scant reliable insight regarding these issues because of their inability to parameterize correctly or otherwise represent the small-scale convective, turbulent, and microphysical processes that control cloud properties. It is therefore crucial to document and assess global and regional low-frequency variations in clouds and radiation flux that have occurred over the past several decades, a period marked by rapidly rising temperature and changes in anthropogenic aerosol emissions. This will enable us to estimate from observations how clouds and their impacts on the radiation budget are responding to global warming and aerosol changes. Moreover, a trustworthy observational record will provide a good constraint on global climate model simulations.”.

Het is daarom opmerkelijk dat alle vigerende klimaatmodellen ondanks bovenbeschreven grote onzekerheden uitgaan van een netto positieve tegenkoppeling van wolken ten aanzien van de temperatuur aan het aardoppervlak. Stijgende oppervlaktetemperaturen betekenen meer verdamping en meer wolkvorming. Alle modellen gaan uit van een versterkt broeikaseffect als gevolg van deze extra wolkvorming.

De afgelopen tijd hebben 2 publicaties al deuken geslagen in de hypothese van de veronderstelde gedrag van wolken in de stralingsbalans.  Die publicaties van Lindzen en Choi en van Spencer en Braswell hebben in klimatologenland veel stof doen opwaaien, hetgeen aantoont dat de kwestie uiterst gevoelig ligt. Dat is niet verwonderlijk, omdat de geloofwaardigheid van de door het IPCC gebruikte klimaatmodellen in het geding is, en daarmee haar voorspellingen over de opwarming van de aarde.

Nu heeft Richard Allan van de Universiteit van Reading in Groot-Brittannië zich aangesloten bij Lindzen en Spencer. Hij komt tot de conclusie dat het netto effect van wolken op aarde negatief is: wolken koelen de aarde af met -21 W/m2. Hoe is Allan te werk gegaan? Zoals hiervoor al beschreven is het gedrag van wolken in de stralingsbalans  niet eenvoudig te duiden. Dat is al onmiddellijk duidelijk als we de volgende 2 figuren bekijken:

allan1

Satellietbeelden van de SEVIRI geostationaire  satelliet. Links 10.8 μm infra-rood kanaal  en rechts  0.8 μm zichtbaar kanaal, op 2 maart 2011  om 12 uur UTC. Bron EUMETSAT/ Met Office.

Op beide beelden zijn wolken licht afgebeeld.  Op het linkerbeeld (IR) is dat het gevolg van het feit dat wolken een lage IR-uitstraling naar boven hebben en een grote albedo voor kortgolvige straling (zonlicht). In het rechterbeeld zijn er grote wolkenpartijen in het koufront voor de kust van Europa, met sterk stijgende lucht tot relatief grote hoogte. De wolkentoppen zijn daardoor koud en stralen weinig IR naar boven.

Op het beeld van de zichtbare straling valt op dat er veel meer wolken zichtbaar zijn dan op het beeld van IR. Het betreft vooral wolkenformaties boven de  Atlantische Oceaan die uit lage wolken bestaan. Deze wolken bevatten relatief veel waterdruppels en hebben daardoor een hoge albedo. De IR uitstraling naar boven is gering vanwege de relatief hoge temperaturen in de wolktoppen.

Allan concludeert dat de hoogte en de optische dikte van wolken de netto invloed op de stralingsbalans bepalen. Die netto invloed bestaat uit een opwarmend effect van wolken op de oppervlaktetemperatuur (versterkt broeikaseffect) en een afkoelend effect als gevolg van schaduwvorming. In dit alles spelen uiteraard de afwisseling dag/nacht en de seizoenen een grote rol.

allan2                       Stralingsgedrag van wolken op 1200 UTC , 24 april 2011, berekend door combinatie van GERB satelliet data en NWP model clear-sky fluxes.  (a) LWCF (c) −SWCF and calculated using the model analysis field simulated (b) LWCF  and (d) −SWCF.

De gebruikte methode is om simulaties van zogenaamde clear-sky radiation te combineren met satelliet meetgegevens. Op bovenstaande figuren is dat weergegeven:  kortgolvige en langgolvige uitstraling naar boven van wolken boven Afrika en de Atlantische Oceaan.

LWCR =  long wave cloud radiation, ORL =  Outgoing Longwave Radiation , OLRc = Outgoing Longwave Radiation voor clear sky.  In formule:   LWCR = OLRc – OLR. Voor de kortgolvige straling geldt m.m.:  SWCF = RSWc – RSW.

De sterkste LWCF  ( > 100 W/m2)  en SWCF ( < -400 W/m2) zijn te vinden in de gebieden met een tropisch regenwoudklimaat.  De zeer hoogreikende altocumili zorgen voor een grote albedo en een relatief zwakke langgolvige uitstraling als gevolg van de lage temperaturen op grote hoogte.

allan3

Op bovenstaande figuur zijn kortgolvige, langgolvige en nettostraling  weergegeven. De data zijn relatieve waarden ten opzichte van de clear sky –waarden. De gegevens zijn afkomstig van CERES satellietdata  2001-2007. De figuur toont dat wolken kortgolvige straling tot  ~100 Watt/m2 reduceren in met name regio’s met frontale systemen, de tropen (ITCZ) en de westelijke kustgebieden van Noord-Amerika, Zuid-Amerika en Afrika.  De LWCF is het sterkt in de tropen: tropische cumulonimbus wolken  die tot aan de stratosfeer reiken zorgen voor een afkoeling tot 70 Watt/m2.  Maar ook de marine strocumulus en de wolken in frontsystemen koelen  tot voorbij 50 Watt/m2. Boven de woestijnen en poolgebieden is de NCF ook klein als gevolg van het geringe broeikaseffect door wolken en de grotere uitstraling en albedo.

allan4

Nadat is vastgesteld dat er globaal sprake is van een netto koeling door wolken , is de vraag waar die koeling plaats vindt. Is dat aan het aardoppervlak of in de atmosfeer? Het antwoord op deze vraag is van groot belang, omdat dan inzicht ontstaat in de verbanden tussen de energiestromen op aarde en de waterkringlopen. De figuur toont schattingen van het ‘cloud radiative effect’ vanaf TOA (top of atmosphere) , de atmosfeer en het aardoppervlak. Daarbij wordt gebruik gemaakt van de NASA Surface Radiation Budget (SRB)  dataset, dat stralingsmodellen combineert met satellietmetingen  van wolkeigenschappen  uit het ISCCP  (International Satellite Cloud Climatology Project).

Er is sprake van een netto afkoeling van de atmosfeer van ~100 Watt/m2, gecompenseerd door de aanvoer van latente en voelbare warmte vanaf het aardoppervlak. Zie de stralingsbalans volgens Trenberth (2009)  hieronder.

trenberth stralingsbalans                                                                                     Bron: Trenberth

Allan heeft vervolgens de data van SRB uit de een na laatste figuur gebruikt om het ‘cloud radiative effect’  zonaal te duiden. In onderstaande grafieken zijn daarvan de resultaten te zien.

allan5

allan6

Voor de temperaturen aan het aardoppervlak is met name de grafiek c van belang. Tussen  ~65° NB en 65° ZB is het  netto cloud radiative effect negatief. Alleen in de  poolstreken is de netto cloud feedback positief , voornamelijk vanwege het minder negatieve kortgolvige cloud radiative effect aldaar (SWCF). De door Allan berekende NCF voor de gehele aarde van 21 Watt/m2 is vergelijkbaar met de uitkomsten  van Su et al. (2010).

su1                                                                                                Bron:  Su et al. 2010

Conclusies van Allan:  de netto afkoeling door wolken op aarde is 21 Watt/m2, wat overeenkomt met de publicaties vanRamanthan et al.  (1989) en Su et al. (2010).

ramanthan1                                                                                Bron:  Ramanthan et al. 1989

Het is overigens opmerkelijk dat Ramanthan et al. al in 1989  tot gelijkluidende conclusies kwamen. Dat onderzoek was beperkt tot de toen voorhanden zijnde data van de ERBE satelliet die pas van 1984 in de ruimte was. Ramanthan et al. hebben zich noodgedwongen beperkt tot gegevens van 1985 en 1986. In het Abstract schrijven Ramanthan et al.:

ramanthan2                                                                                       Bron:  Ramanthan et al. 1989

Wellicht nog interessanter zijn de laatste conclusies van de onderzoekers:

ramanthan3                                                                                Bron:  Ramanthan et al. 1989