Jaarlijks archief: 2013

Zeespiegel

De mondiale zeespiegelstijging, een inleiding  (met dank aan Bert Amesz)

De huidige trend in de zeespiegelstijging vindt zijn oorsprong halverwege de negentiende eeuw. Ook is er gedurende de twintigste eeuw geen significante versnelling waarneembaar. Bovendien blijkt dat de zeespiegelstijging in Noord West Europa, door regionale factoren, achterblijft bij het wereldgemiddelde.

zeespiegel1
Aan het einde van de laatste grote ijstijd, zo’n 20.000 jaar geleden, stond de zeespiegel 120 meter lager dan nu. Vanaf die periode is hij in een soort ’S-curve’ omhoog gekomen tot ongeveer het huidige niveau. Zie figuur. Bij de aanvang van de huidige interglaciale periode (Holoceen) stond de zeespiegel nog 60 meter lager en steeg toen met 15 mm/jaar. Ongeveer 8.000 jaar geleden begon de stijging nadrukkelijk af te vlakken; het relatief warmere ‘atlanticum’ ging over in een iets koeler neoglaciaal tijdperk. Aan het begin van onze jaartelling stond de spiegel nog 1,5-2,5 meter lager dan nu.

zeespiegel2
Het huidige subatlantische tijdperk heeft overigens nog een aantal ‘recente rimpelingen’ gekend: een warme Middeleeuwse periode tussen de 10e en 14e eeuw, gevolgd door de ‘kleine ijstijd’ tussen de 15e en 19e eeuw. Gedurende deze periodes schommelde de zeespiegel mee.

zeespiegel3

Peilwaarnemingen (Ref: IPCC, PSMSL, etc) geven aan dat er gedurende de twintigste eeuw sprake was van een gemiddelde stijging van 1,5 tot 2,0 mm/jaar (Nederlandse kust: 1,7 mm/jaar). Echter, satellietmetingen vanaf 1993 (Topex/Poseidon, Jason) laten een veel snellere stijging zien: bijna 3,3 mm/jaar. Zie figuur.

Hoe is die ogenschijnlijke versnelling te verklaren? IPCC wijst op het effect van de mondiale opwarming vanaf de jaren ’70 (zie temperatuurgrafiekje) en de gevolgen daarvan zoals thermische uitzetting, massaverlies Groenland, Antarctica, etc. Maar is dat wel zo?

zeespiegel4

Want er is ook een andere verklaring denkbaar. Het grote voordeel van satellietwaarnemingen is immers dat ook regionale trends midden op de oceanen in beeld gebracht kunnen worden, bijvoorbeeld de sterke zeespiegelstijging (tot meer dan 10 mm/jaar) in het westelijke deel van de equatoriale Pacific. Zie kaartje. Dat deel van de oceaan wordt gekenmerkt door sterke periodieke fluctuaties als gevolg van de El Nino Southern Oscillation (ENSO).

zeespiegel5

Vanwege de schaalvervorming is de oranje/rode vlek in werkelijkheid veel groter dan het kaartje doet vermoeden. Duidelijk is dat dergelijke fenomenen niet worden waargenomen in de meetstations welke voor het overgrote deel gesitueerd zijn op het noordelijk halfrond (zie kaartje met PSMSL-meetstations met minstens 40 jaar waarnemingen).

De geconstateerde ‘versnelling’ vanaf ’90 zou dus veroorzaakt kunnen worden door het verschil in meetmethode (satelliet versus peilschalen). Uit deze constatering kunnen twee conclusies getrokken worden: (i) de wereldgemiddelde zeespiegelstijging gedurende de twintigste eeuw is groter dan tot nu toe gedacht werd en (ii) de zeespiegelstijging bij NW Europa is lager dan het wereldgemiddelde. Er is dus géén sprake van een versnelling als gevolg van de opwarming van de 70-er jaren zoals IPCC suggereert; die versnelling is overigens ook niet terug te vinden in de PSMSL-stations.

zeespiegel6

Vervolgens is het interessant te weten waar de door de kuststations gemeten stijging zijn oorsprong vindt. Uit de linkerfiguur (Ref: PSMSL) blijkt dat dat omstreeks 1850 was. Oude peilwaarnemingen bij Amsterdam (vanaf 1700!) en elders laten hetzelfde beeld zien. Ook reconstructies van o.a. CSIRO bevestigen dat. Het moment valt samen met de afloop van de Kleine IJstijd en het begin van de terugtrekking van de gletsjers (zie figuur rechts, IPCC), een terugtrekking die tot nu toe overigens vrijwel lineair verloopt. Opmerkelijk is dat in de meetstations gedurende de twintigste eeuw géén trendversnelling is waar te nemen; hetzelfde is van toepassing op de zeespiegelstijging bij de Nederlandse kust (zes meetstations, RIKZ) en diverse andere stations aan de Noordzee en de Atlantische kust van Europa. De mondiale opwarming gedurende de twintigste eeuw is niet of nauwelijks zichtbaar in de zeespiegelstanden.

Dat zou betekenen dat – ook indien de opwarming niet doorzet – de zeespiegel blijft stijgen. Dat lijkt reeds het geval te zijn vanaf het jaar 2000. Kennelijk trekt de ‘deep ocean thermal expansion’ zich op korte termijn weinig aan van temperatuurvariaties aan het oppervlak. Ook de bijdrage van gletsjers en kleine ijskappen lijkt redelijk constant in de tijd. Jaarlijkse schommelingen zullen ontstaan door de ‘near surface thermal expansion’ in de bovenste honderden meters, boven de thermocline: de laag waarboven uitwisseling met de atmosfeer en opwarming door de zon plaatsvindt.

zeespiegel7

Voor de Noordzee zijn enkele bijzondere effecten van kracht. Als gevolg van de afnemende zelfgravitatie bij Groenland en vanwege postglaciale elastische effecten verdeelt het smeltwater zich niet gelijkmatig over de oceanen. Voor de Noordzee bedraagt de stijging door de afsmelt van Groenland slechts 20-30% van het wereldgemiddelde; voor de gletsjers bedraagt dat percentage ongeveer 60-70%. Bovendien is er in NW Europa mogelijk sprake van een significant regionaal effect als gevolg van variaties in de Noord Atlantische Oscillatie (NAO) en de intensiteit van de Golfstroom (AMO-index).

Conclusies:
* De ogenschijnlijke versnelling (verdubbeling) van de zeespiegelstijging vanaf de jaren ’90 is voor een (belangrijk) deel toe te schrijven aan het verschil in meetmethode (satelliet versus peilschalen). Satellieten meten immers ook grootschalige regionale fenomenen die buiten het bereik van de kuststations vallen;
* Deze conclusie wordt bevestigd door het feit dat in de peilwaarnemingen een dergelijke versnelling vanaf de jaren ’90 niet waarneembaar is;
* Satellietwaarnemingen geven een representatiever beeld dan de traditionele kuststations;
* Waarschijnlijk was de wereldgemiddelde zeespiegelstijging gedurende de twintigste eeuw groter dan tot nu toe werd aangenomen;
* Echter, vanwege regionale factoren blijft de zeespiegelstijging op de Noordzee en langs de Atlantische kust van Europa achter bij het wereldgemiddelde;
* De ‘huidige’ trend van circa 1,5-2,0 mm/jaar (Noordzee, Europese Atlantische kust) vindt zijn oorsprong in 1850 en valt samen met de afloop van de Kleine IJstijd en het begin van de terugtrekking van gletsjers;
* Deze trend is kennelijk niet of nauwelijks beïnvloed door de opwarming gedurende de laatste eeuw;
* Mede vanwege de trage respons van de diepe oceaan zal de zeespiegel deze eeuw door blijven stijgen, zelfs in een situatie waarin de atmosfeer niet verder opwarmt of zelfs afkoelt.

 

De zeespiegel en Nederland

anp

Het ‘klimaatbestendig’ maken van Nederland vergt deze eeuw een bedrag dat op kan lopen tot €140 miljard. Althans, dat concludeerde de Deltacommissie in 2008.

Hun advies is gebaseerd op klimaatscenario’s van KNMI (2006), de bevindingen van IPCC (2007) alsmede een aanvullend onderzoek naar bovengrensscenario’s (2008). De commissie adviseert rekening te houden met een (absolute) zeespiegelstijging van 0,55 tot 1,20 meter in het jaar 2100.

De maximumwaarde is daarmee aanzienlijk (factor twee!) hoger dan de door IPCC gehanteerde maximum bovengrens van 0,59 meter. Ook houdt de commissie rekening met een toenemende winterneerslag, resulterend in een hogere piekafvoer van Rijn en Maas. De zomerneerslag daarentegen zou juist afnemen, hetgeen consequenties heeft voor de zoetwatervoorziening in droge zomers. De commissie verwacht overigens geen verzwaring van de stormcondities voor de Nederlandse kust. De voorgestelde maatregelen betreffen o.a. dijkverzwaring, zandsuppletie voor de kust, rivierwerken en peilverhoging van het IJsselmeer, en zijn door V&W overgenomen in het Nationaal Waterplan. Het plan is inmiddels vastgesteld door het Kabinet en zal dit voorjaar in de Tweede Kamer behandeld worden.

Oorzaak en tempo van de zeespiegelstijging is voor Nederland van cruciaal belang

Zeespiegelstijging kan door verschillende factoren veroorzaakt worden. Direct aan de atmosferische opwarming gerelateerd zijn: de thermische uitzetting als gevolg van warmteopname in de oceanen en de massatoename als gevolg van smeltwater (minus aangroei) van ijskappen en gletsjers. Lokale verschillen kunnen optreden door variaties in oceaanstroming, dichtheidsverschillen, veranderend getij, verandering van het zwaartekrachtsveld op aarde, etc. Bovendien kan er lokaal sprake zijn van een (relatieve) zeespiegelstijging door bodemdaling. Dit laatste speelt bij de Nederlandse kust een belangrijke rol.

Eerst enkele gerapporteerde feiten en conclusies. IPCC constateert een mondiale zeespiegelstijging van ongeveer 18 cm gedurende de afgelopen 130 jaar, hetgeen overeenkomt met gemiddeld 1,4 mm/jaar. In de periode 1961-2003 zou de stijging 1,8 mm/jaar hebben bedragen. Ook suggereert IPCC dat er, op basis van satellietmetingen, sinds 1993 een versnelling is opgetreden tot 3,8 mm/jaar en stelt voorts dat de stijging ‘consistent is met de wereldwijde opwarming’. Deze stijging zou voor 57% veroorzaakt worden door thermische expansie en voor 28% door het afsmelten van ijskappen. De gemeten stijging bij de Nederlandse kust bedraagt sinds begin 20e eeuw ongeveer 17 cm (NB: volgens Deltacommissie en Planbureau voor de Leefomgeving 20 cm) oftewel 1,7 mm/jaar. Op het eerste gezicht lijkt dit in lijn te liggen met de wereldgemiddelde stijging die IPCC rapporteert. Deze getallen zinken overigens in het niet bij de natuurlijke variaties die we vroeger hebben gekend: zo stond de zeespiegel tegen het einde van de laatste grote ijstijd (20 duizend jaar geleden) zo’n 120 meter lager. Maar dat terzijde. Voor het jaar 2100 gaat IPCC in het – relatief ongunstige – emissiescenario A1F1 uit van een mondiale temperatuurstijging in 2100 van 4,0 °C (‘best estimate’) en een zeespiegelstijging van 0,26 tot 0,59 m. De bovengrens wordt voor ongeveer 70% (0,41 m) veroorzaakt door thermische uitzetting; 30% (0,18 m) is het saldo van afkalving en aangroei van gletsjers en de ijskappen op Groenland en Antarctica.

Bij de hierboven gerapporteerde feiten en conclusies kan onmiddellijk een aantal kanttekeningen geplaatst worden. In de eerste plaats worden de waterstanden in Nederland gemeten t.o.v. het referentievlak NAP. Maar dat referentievlak – gerelateerd aan de bovenkant Pleistocene zandlaag – daalt als gevolg van ‘postglaciale rebound’, tektoniek en compressie van diepe lagen. In west en noord Nederland bedraagt de daling van het referentievlak ongeveer 4 – 8 cm/eeuw. Niet duidelijk is of de metingen navenant zijn gecorrigeerd. Zo niet, dan zou de absolute zeespiegelstijging in de afgelopen eeuw maximaal slechts 9 – 13 cm hebben bedragen. Ook is het bekend dat de waterstanden langs de Nederlandse kust beïnvloed zijn door grote waterbouwkundige werken zoals de Afsluitdijk en Deltawerken. Om die reden maakt de Deltacommissie ook gebruik van metingen bij Norderney. Die laten overigens een stijging zien in dezelfde orde van grootte. Niet duidelijk is in hoeverre deze peilwaarnemingen (en de peilwaarnemingen waarop IPCC zich in algemene zin baseert) gecorrigeerd zijn voor een eventuele lokale daling van het betreffende referentievlak. Het is aannemelijk te stellen dat de gemeten (relatieve) zeespiegelstijging voor de Nederlandse kust voor een belangrijk deel veroorzaakt wordt door bodemdaling, daling van het referentievlak en verandering van het getij (hogere hoogwaters) en in mindere mate door de opwarming. Het is op zijn zachts gezegd merkwaardig dat op dit punt de Deltacommissie in zijn hoofdrapport voorbij gaat aan de conclusies van het in hun opdracht opgestelde ‘special report’.

Ten tweede is het opmerkelijk is dat in de trends bij de Nederlandse kust en bij Norderney géén sprake is van enige versnelling van de zeespiegelstijging zoals IPCC suggereert. Ook andere bronnen (o.a. University of Colorado) spreken dat tegen – die constateren juist een afvlakking gedurende de afgelopen vijf jaar. Dat beeld wordt bevestigd door de sinds 2005 gemeten vermindering van de warmteopname van de oceanen.

Ten derde moet onderkend worden dat de oceanen (ongeveer 70% van het aardoppervlak en een gemiddelde diepte van 3.800 meter) een immense warmtebuffer vormen en uitermate traag reageren op fluctuaties van de atmosferische temperatuur. Recente modelstudies laten zien dat atmosferische temperatuurstijging zeer langzaam doordringt in het diepere temperatuurprofiel van de oceanen. Bij thermische uitzetting is sprake van een ‘snelle’ (50 jaar) component die zich in de bovenste 300 meter afspeelt en een trage component (‘enkele honderden tot duizend jaar of meer’) op dieptes beneden 700 meter. De modelsimulatie laat zien dat de atmosferische temperatuurstijging van 0,8 °C  sinds begin vorige eeuw een thermische uitzetting van slechts 4 cm teweeg zou hebben gebracht, aanzienlijk minder dan de conclusie van IPCC. Mogelijk hebben we ook nog te maken hebben met een naijleffect vanuit een ver verleden, bijvoorbeeld uit de kleine ijstijd . De ‘keerzijde’ is dat, indien de atmosferische temperatuur vanaf heden niet meer zou stijgen, de thermische uitzetting nog een tijdje doorgaat met nog eens 1,5 cm in 2100. Satellietmetingen over de periode 1993 – 2003 laten zien dat de zeespiegelvariatie grote regionale verschillen vertoont: in het oostelijke deel van de Pacific en het westelijke deel van de Indische Oceaan is sprake van een dalende trend; op het noordelijk deel van de Atlantic en de westelijke Pacific is juist sprake van een stijging (thermisch én totaal). De regionale verschillen worden mede veroorzaakt door ‘tijdelijke’ fenomenen zoals de 1997-1998 El Niňo.

Naast thermische uitzetting is er sprake van zeespiegelverandering als gevolg van het gedrag van gletsjers en ijskappen. Sinds de jaren ’40 is er bij de gletsjers sprake van een afname in de omvang die overeenkomt met een zeespiegelstijging van 2 tot 3 cm gedurende de periode 1940 tot 2000. De relatief snelle afname sinds de jaren ’70 lijkt consistent met de wereldwijde opwarming. In het laatste decennium van vorige eeuw is de afnamesnelheid  verdubbeld tot een zeespiegelequivalent van 0,7 mm/jaar en lijkt daarna op dat niveau te stabiliseren. M.b.t. de ijskappen op Groenland en Antarctica is er sprake van ijsgroei op het centrale deel en van afkalving langs de randen. De vorige eeuw geeft voor Groenland een wisselend beeld in de massabalans, variërend (in zeespiegelequivalent) tussen een stijging met 0,07 mm/jaar tot een daling van 0,17 mm/jaar. Over de gehele eeuw gemeten, is de Groenlandse bijdrage aan de zeespiegel verwaarloosbaar klein. Sinds de jaren ’90 is er sprake van massaverlies, resulterend in een zeespiegelstijging van 0,3 tot 0,5 mm/jaar. De ijskap van Antarctica is de afgelopen eeuw gegroeid hetgeen heeft geresulteerd in een zeespiegeldaling van 2,0 cm. Na  2000 lijkt er sprake van een massaverlies dat overeenkomt met een zeespiegelstijging van 0,2 tot 0,5 mm/jaar. Geconcludeerd kan worden dat gedurende de vorige eeuw de afsmelt van Groenland en de kleinere gletsjers grotendeels is gecompenseerd door de ijsaanwas op Antarctica en er derhalve in geringe mate is bijgedragen aan de zeespiegelstijging. Echter, indien de trend van de jaren ‘90 (sterke mondiale opwarming) deze eeuw doorzet, zou dat leiden tot een stijging met ongeveer 20 cm. De sinds 2003 stabiliserende mondiale temperatuur geeft daar echter (vooralsnog) geen aanleiding toe.

Tenslotte is er een opmerkelijk verschil tussen de conclusies van IPCC (maximaal 0,59 meter) en de aanbevelingen van de Deltacommissie (maximaal 1,20 meter). Het verschil is onderbouwd in een aanvullend rapport naar bovengrensscenario’s, opgesteld door wetenschappers die ook bij IPCC betrokken zijn. Kleine verschillen (tot 10 cm) zijn er ten aanzien van de thermische uitzetting, de bijdrage van kleine gletsjers en terrestrische wateropslag. Het grote verschil zit in het gedrag van de Groenlandse en Antarctische ijskap: kans op extra ijsuitstroom vanwege snelle dynamische processen en de instorting van de Amundsen Sea Embayment op West Antartica. Beide fenomenen zijn echter, zo stelt de commissie, uitermate onzeker. In het bovengrensscenario is er desondanks wél rekening meegehouden.

Geconcludeerd moet worden dat de analyse van de zeespiegelstijging (relatief versus absoluut) voor de Nederlandse kust de nodige vraagtekens oproept. Het ziet er naar uit dat gedurende de 20e eeuw de zeespiegelstijging als gevolg van de opwarming aanzienlijk kleiner is dan verondersteld. Omdat de trend van de 20e eeuw semi-empirisch wordt door geëxtrapoleerd naar de 21e eeuw, is er sprake van overschatting van de problematiek.  Bovendien is het gedrag van oceanen complex, met als gevolg dat een voorspelling – welke dan ook – uitermate onzeker is. Een troost is dat processen dermate traag verlopen dat er op korte termijn niet drastisch hoeft te worden ingegrepen. De conclusie van IPCC dat de zeespiegelstijging (volledig) consistent is met de opwarming van de aarde over dezelfde periode, lijkt voorbarig;  de presentatie in één grafiek (IPCC Synthesis Report, blz 31) zet politieke besluitvormers op het verkeerde been. Hetzelfde is ook van toepassing op de voorbarige constatering van het Planbureau voor de Leefomgeving (VROM) en de Deltacommissie dat de zeespiegelstijging [ad 20 cm] voor de Nederlandse kust geheel door de opwarming zou zijn veroorzaakt.

Neerslag en afvoerregiem grote rivieren

Volgens IPCC manifesteert de klimaatverandering in NW Europa zich door een 10 – 20% hogere winterneerslag en een 10 – 20% lagere zomerneerslag. De hogere winterneerslag heeft consequenties voor de voorjaarsafvoer en hoogwaterstand van de grote rivieren. De Deltacommissie concludeert dat de piekafvoer van de Rijn met 6% – 38% kan toenemen in 2100. De maatregelen die Nederland moet nemen zijn mede afhankelijk van maatregelen die bovenstrooms (Duitsland) getroffen worden. De lagere zomerafvoer – in combinatie met het verhoogde risico van zoutintrusie door de hogere zeespiegel  – heeft gevolgen voor de zoetwaterhuishouding in o.a. Zuid West Nederland. De commissie adviseert het IJsselmeerpeil met maximaal 1,5 meter te verhogen teneinde onder vrij verval op de (verhoogde) Waddenzee te kunnen blijven spuien én de zoetwatervoorraad te vergroten met het oog op langdurige droge zomers. Ook hier kunnen kanttekeningen geplaatst worden. De temperatuur in West Europa (waaronder in De Bilt) is gedurende de afgelopen eeuw sneller gestegen dan gemiddeld op het noordelijk halfrond. De totale jaarlijkse neerslagsom is ook gestegen, met name als gevolg van de (gemeten) hogere winterneerslag. Opmerkelijk is echter dat er – ondanks de opwarming –  geen sprake is van een lagere zomerneerslag. Dit uit zich ook in de meerjarige afvoergemiddelden van Rijn en Maas: in vergelijking tot de eerste helft van de vorige eeuw zijn de winter/voorjaarsafvoeren in de tweede helft van die eeuw inderdaad toegenomen, maar is er niet of nauwelijks sprake van lagere zomer/najaarsafvoeren en dus de zoetwatervoorziening vooralsnog niet in het geding is.

Conclusies en aanbevelingen

De bescherming van ons land tegen hoogwater is iets waarmee niet lichtzinnig mag worden omgesprongen. Maar tegelijkertijd moet gewaakt worden voor overschatting van de problematiek. De indruk bestaat dat daar sprake van is. Want de maatregelen voor een klimaatbestendig Nederland zijn mede gebaseerd op onvolledige dan wel incorrecte historische analyse over de 20e eeuw en weinig rooskleurige toekomstprojecties van IPCC voor de 21e eeuw die – zoals al langer bekend – niet kamerbreed gedragen worden en die – zoals recentelijk is gebleken – niet altijd waardevrij zijn. De Deltacommissie heeft vervolgens de door IPCC gehanteerde projectie voor de maximum zeespiegelstijging met een factor twee verhoogd door een aantal onzekerheden om te zetten in aanvullende bovengrenswaarden. De resulterende maatregelen zoals opgenomen in het Nationaal Waterplan zijn niet alleen kostbaar maar vergen ook veel van onze schaarse ruimte. Terecht hanteert de commissie een ‘low probability/high impact’ filosofie. Maar gelukkig komt de klimaatverandering niet met tsunamisnelheid op ons af en zal in de toekomst, door verder wetenschappelijk onderzoek en monitoring, geleidelijk aan een beter zicht ontstaan op de werkelijke omvang van de ‘probability’ van klimaatverandering en de gevolgen daarvan voor onze zeespiegel en afvoerregimes van de grote rivieren. Voorkómen dient te worden dat er nu een tunnelvisie ontstaat waarin de voorgestelde maximum bovengrenswaarden kritiekloos geïnterpreteerd worden als een rigide toetsingsnorm voor bestaande en nieuwe grote waterbouwkundige werken. Beter ware het óók rekening te houden met scenario’s waarin de zeespiegel (in absolute zin) aanzienlijk minder snel stijgt dan de nu gehanteerde bovengrens. Tenslotte wordt aanbevolen dat politieke besluitvormers een beroep kunnen doen op een onafhankelijke (lees: los van IPCC en PBL), pragmatisch ingestelde, multidisciplinaire adviesgroep die in staat is het internationaal onderzoek naar de oorzaken en gevolgen van klimaatverandering te vertalen in adequate maatregelen voor Nederland.

De analyse inzake oorzaak en snelheid van de zeespiegelstijging in onze regio is nog omgeven is door vele vraagtekens. Nader onderzoek is op zijn plaats. Maar vooralsnog ziet het er niet naar uit dat we in de buurt gaan komen van de maximale bovengrenswaarde waar de Deltacommissie voor het jaar 2100 rekening mee houdt: 120 cm oftewel gemiddeld 12 mm/jaar!


De zeespiegel en het gravitatie-effect

Vanaf 1985 werkt men voor wat betreft de zeespiegelmetingen samen in een internationaal programma, GLOSS  genaamd (Global Sea Level Observing System).  Hierin werken een aantal zeemeetcentra samen, zoals PSMSL (Permanent Service for Mean Sea Level), BODC (British Oceanographic Data Centre) en UHSLC (University of Hawaii Sea Level Centre). Op onderstaand kaartje is de spreiding van de 290 meetstations van GLOSS te zien. De spreiding is erg ongelijkmatig, met – erfenis van het verleden – vooral veel kuststations. Maar GLOSS gebruikt tegenwoordig ook de satellietgegevens als aanvulling op de meetstations.  ( Bron:  GLOSS )

gloss

Het gemiddeld zeeniveau is een lastig begrip, omdat, anders dan men zou vermoeden, het water in zeeën en oceanen niet fraai op 1 niveau staat, zoals het water in een glas.  Er zitten allerlei bulten en laagtes in, soms lokaal, soms zich uitstrekkend over een paar duizend kilometers, en soms zelfs over nog grotere gebieden.  Een aantal van die bulten en dalen hebben een zekere periodiciteit, van enkele minuten tot een aantal jaren. De bekendste daarvan is de getijdenwerking als gevolg van de aantrekkingskracht van maan en zon. De rotatie van de aarde rond zijn as veroorzaakt ook een bult, de zogenaamde Chandler wobble. Maar ook allerlei andere zaken  zorgen ervoor dat het zeeniveau lokaal of regionaal ongelijk is.  Bekend is het ontstaan van tsunami’s als gevolg van aardbevingen, maar ook stormen, El Niño/La Niña, luchtdrukverschillen, neerslag en verdamping, periodiciteit in de dichtheid van water (temperatuur en zoutgehalte) en zaken als veranderende zeestromen kunnen het water doen opbollen of zakken. Kortom: het valt nog niet mee om het gemiddelde zeeniveau te bepalen. Kijk maar eens op het kaatje hieronder, dat het verschil in zeeniveau weergeeft tussen 1993 en 2008. De conclusie is duidelijk: er is geen uniforme zeespiegelstijging.

sea level 1993 -2008Bron:  NASA/JLP

De in de grafiek weergegeven zeespiegelstijging is dus sterk afhankelijk van de positie op aarde. Op wit ingekleurde locaties steeg de zeespiegel 10 millimeter per jaar, in de paarse gebieden trad een zeespiegeldaling op van 5 millimeter per jaar. Stel nu eens dat alle bovengenoemde effecten uitgeschakeld zijn, dan gedraagt het water in de oceanen en zeeën zich nog steeds niet zoals in een glas. De oorzaken daarvan zijn isostasie, verticale bewegingen van de aardkorst  als gevolg van bijvoorbeeld afsmelten van landijs of gebergtevorming, en het zogenaamde gravitatie-effect.

Wat isostasie doet kan men goed waarnemen in Scandinavië.  Vanwege het afsmelten van het landijs na de Weichselijstijd (vanaf 10.000 jaar geleden) veert het – ontdaan van de loodzware last van het ijs – stevig op.  Rond de Botnische golf liggen oude stranden die momenteel ver boven het huidige wateroppervlak uitsteken. De Höga Kusten/Kvarken rond de Botnische Golf is sinds de laatste ijstijd 285 m.  omhoog gekomen ten opzichte van het huidige zeeniveau.  En dan te bedenken dat het zeeniveau sindsdien zo’n 120 m gestegen is! Het laatste uur voor de Botnische Golf en de Oostzee is derhalve geslagen:  door de isostatische opheffing zal de verbinding met de Noordzee tussen Denemarken en Zweden over niet al te lange tijd verlanden, en de Oostzee/Botnische Golf zullen meren worden.  Datzelfde lot is vanwege dezelfde reden ook de Hudsonbaai in Oost-Canada beschoren, tenzij de volgende ijstijd snel aanbreekt. De isostatische uplift aan de zuidrand van de Hudsonbaai is zo’n 272 m. ten opzichte van het huidige zeeniveau. Hieronder een foto van de Höga Kusten. De toppen van de heuvels aan de overkant van de baai lagen 10.000 jaar geleden op zeeniveau.

hoge kust

 

Het gravitatie-effect is minstens zo spectaculair als isostasie. Daar waar grote massa’s aanwezig zijn wordt water aangetrokken, zoals de maan aan het zeewater trekt. Op onderstaande tekening is te zien hoe dat gaat.

gravitatie1Bron: Jerry Mitrovica & Natalya Gomez, University of Toronto
Door het afsmelten van een grote landijskap veert de aardkorst enigszins terug als gevolg van isostasie. Door het verdwijnen van de grote massa landijs daalt het zeeniveau relatief gezien in de nabijheid van de vrogere ijsmassa, en stijgt het relatief op grotere afstand.  Deze bewegingen zijn relatief, omdat uiteraard het afsmelten van een grote hoeveelheid landijs, zoals bijvoorbeeld het Groenlands ijs,  per saldo het zeeniveau overal zal laten stijgen. Alleen de mate waarin hangt dus af van de afstand tot de ijsmassa. Over die afstanden waarop het zeeniveau relatief daalt of stijgt, is al veel bekend.

Op onderstaande tekening is te zien wat het verdwijnen van een landijsmassa inhoudt voor de zeespiegel. Geofysicus Bert Vermeersen  van de TU Delft heeft berekend dat vanwege het gravitatie-effect bij afsmelten van landijs de zeespiegel tot op een afstand van 2200 km zal dalen. Tussen 2200 km en 6700 zal het niveau stijgen, maar minder dan op basis van het afgesmolten ijs zou mogen verwachten indien het water zich zou gedragen als in een glas water. Vanaf 6700 km zal het zeeniveau sterker stijgen dan verwacht.  (Vermeersen, A.A.J., Effects of ice-melt induced gravity changes and solid earth deformation in the Netherlands, Netherlands Journal of Geosciences (Geologie en Mijnbouw), 87 (3), 215, September 2008.)

gravitatie2

In de tekening is de rode lijn 1 het zeeniveau met ijskap,  lijn 3 het zeeniveau met ijskap indien er geen gravitatie-effect ziu zijn, en lijn 2 het zeeniveau na het afsmelten van het landijs.  De afstanden van 2200 km en 6700 km zijn vaste afstanden, en gelden ongeacht de hoeveelheid ijs dat afsmelt.

Wat betekent dit nu voor het zeeniveau als er bijvoorbeeld 1 mm landijs afsmelt? Onderstaande kaartjes geven een beeld van de zeespiegelstijging in mm die dan optreedt.  Het bovenste kaartje toont de niveauverandering  als er 1 mm  ijs van Antarctica afsmelt, het onderste kaartje als er 1 mm ijs van Groenland afsmelt.  Bron: Mitrova c.s. (Mitrova et al, Recent mass balance of polar ice sheets inferred from patterns of global sea-level change, Nature 409, 1026-1029 , 2001).

sea level1

Wat betekent een en ander nu voor Nederland? Nederland bevindt zich ten opzichte van Groenland in de zone tussen 2200 en 6700 km. Als al het landijs op Groenland zou smelten dan zou dat een gemiddelde zeespiegelstijging van ongeveer 7m veroorzaken.  Maar vanwege het gravitatie-effect blijft stijging aan de Nederlandse kust beperkt tot 2m .  Nederland ligt immers in de zone tussen de 2200 km en 6700 km verwijderd van Groenland. Een lichte ophoging van de zeeweringen zou de zaak hier aardig onder controle houden. Maar van afsmelten van de Groenlandse ijskap is geen sprake. Op het kaartje hieronder (bron Mitrova et al, 2001) is te zien wat het relatieve effect is als al het landijs van Groenland zou smelten. Donkerblauw is de zone waarin het zeeniveau zal dalen, terwijl de sterkste stijgingen (donkerrood) op het Zuidelijk Halfrond te vinden zijn.

gravitatie3

Een geheel ander verhaal wordt het als al het ijs van Antarctica zou smelten. Dan zou het zeeniveau in onze contreien tientallen meters stijgen. Gelukkig is er geen enkele aanwijzing dat dat staat te gebeuren. Net zomin trouwens als het afsmelten van de IJslandse gletsjers, want dat zou een zeeniveaudaling in onze omgeving veroorzaken!


De zeespiegel en het klimaat

In een recent artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.

kemp1
kemp2
kemp4

Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.

kemp5Bron: Mörner

Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

kemp6Bron: WUWT

Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijkHampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

kemp3Bron: WUWT

Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.

kemp7

Het tweede probleem betreft de gebruikte temperatuurreconstructie. Die stamt uit een publicatie uit 2008 van Michael Mann, een van de auteurs. En die reconstructie heeft behoorlijk wat kritiek gekregen sinds de publicatie. Een van de zwaarste punten van kritiek is dat Mann de proxies van Tiljander gespiegeld heeft gebruikt. Zie onder andere hier en hier. Amac gaf in 2009 al een uitgebreid overzicht over de discussies over de kwestie.

Een voorzichtige conclusie is dat de manier waarop Mann de 3 Tiljander datareeksen heeft gebruikt zeer omstreden is. Waarom de auteursploeg dan toch deze reconstructie heeft gebruikt in deze studie is de grote vraag. Dat is het zeker omdat een van de auteurs, Martin Vermeer, in een verhit debat op een klimaatblog een opmerkelijke uitspraak doet. Op een opmerking van Steve Mosher dat, indien het (volgens Vermeer) voor de resultaten niet uitmaakt of je de proxiedata van Tiljander al of niet omgekeerd gebruikt, het dan beter zou zijn om de grafiek met de juiste oriëntatie toe te passen, antwoordt Vermeer: “I would agree with you when starting from scratch. But for an existing paper you have to be reponsive to issues brought up by showing how they affect the reported results. If they completely undermine them, you have to retract; short of that, completely rewriting the paper is not usually an option. BTW I would have left out these questionable proxies. But it’s a judgment call, and Mann made this choice.”

Waarom Vermeer bij de publicatie van het recente artikel over de zeespiegel er niet op aangedrongen heeft de omstreden proxies niet te gebruiken, is onbekend. Misschien heeft hij dat wel gedaan, maar is Mann’s invloed van doorslaggevende invloed geweest. Van dat laatste is onderstaande figuur uit het bekende Wegman Report illustratief. De machtige positie van Michael Mann in het wereldje van de paleoklimatologen is in een klap duidelijk:

kemp8

Bron: Wegman Report


Warmte-inhoud van oceanen zegt iets over klimaatgevoeligheid.

Oceanen nemen ruim 70% van de totale opppervlakte van de aarde voor hun rekening. Oceanen zijn vanwege hun fysische eigenschappen in staat om veel grotere hoeveelheden energie te bufferen dan de continenten en de biosfeer. Zie hier in kort bestek de ingrediënten voor een toenemende belangstelling voor oceanen in de discussie over ‘global warming’.

Natuurlijk wisten we al veel langer dat oceanen een belangrijke factor vormen in het klimaatsysteem van de aarde, maar de overdreven belangstelling voor broeikasgassen in de energiebalans van de aarde heeft lange tijd de aandacht vooral gefocused op de temperatuur aan het aardoppervlak. Daarbij speelde en speelt de SST (sea surface temperature) een belangrijke rol. De laatste jaren is er een toenemende belangstelling voor de temperatuur in dieper water dan de SST. Met name de ontwikkeling van de ARGO-programma heeft hiertoe een flinke stimulans geleverd. Lees hierover in de “Nulhypothese Clark” in het hoofdstuk “Nieuwe Inzichten”.

De (meeste) oceanen bestaan thermisch bezien uit 4 lagen. Bovenin een laag van ongeveer 50m dik waarbij de temperatuur sterk gekoppeld is aan de temperatuur van de onderste luchtlagen als gevolg van warmteoverdracht en menging. Daaronder een ‘spronglaag’ of thermocline : van 50 meter tot 200 meter diep, ontbrekend in de poolzeeën. Het is een menglaag met o.a. door de seizoenen sterke verschillen in temperatuur. Daaronder de laag van 200m tot 2 km diep met een relatief stabiele overgang van hogere temperaturen naar de stabiele lage temperaturen van de diepzee. En tenslotte de diepzee (dieper dan 2 km) met constante temperaturen rond 0° C.

Roy Spencer van de UAH heeft onlangs een interessant onderzoek gedaan naar de zogenaamde ‘heat content’ van de bovenste 700m van de oceanen . In het Nederlands is ‘heat content’ de warmte-inhoud. Dat is de totale hoeveelheid warmte die opgeslagen is in een bepaalde hoeveelheid water ((standaard 1 kg) bij een bepaalde temperatuur. De warmte-inhoud van water is het aantal graden x de soortelijke warmte (4,19 kJ/kg.K). Eén kg water van 20° C heeft dus een warmte-inhoud van 20 x 4,19 = 83,8 kJ.

levitus1Bron: Levitus 2009

In bovenstaande figuur is de warmte-inhoud-anomalie vanaf 1955 t/m 2008 weergeven, zoals berekend door Levitus e.a. (2009). De stijging ziet er fors uit, maar het gaat dan ook om een enorme hoeveelheid zeewater. We zien een stijging tussen begin jaren ’70 tot 2003, waarna er een stabilisatie optreedt. Stijging en daling in de warmte-inhoud vinden plaats als er een onbalans is tussen inkomende en uitgaande straling. De data die door Levitus werden gebruikt komen uit een aantal bronnen. Daarbinnen zijn de berekeningen van de SST erg belangrijk. Levitus heeft om zekerheid te hebben over de betrouwbaarheid van de berekende warmte-inhoud van de bovenste 700m een vergelijking gemaakt tussen de 3 databronnen voor de SST. (Levitus 2008)

levitus2Bron: Levitus et al 2008

Daarbij valt op dat de datareeksen van NCDC, Hadley Centre en WOD05 uitstekend overeenkomen. Spencer heeft op basis van bovenstaande tijdreeks uit de eerste figuur van Levitus berekend hoeveel extra energie er per jaar het systeem in dan wel uit gegaan is. Een relatief simpele rekensom als je de verandering van de warmte-inhoud weet en de totale oppervlakte van de oceanen. Hij komt uit op een toename van de inkomende straling van 0,2 W/m^2 voor de totale periode 1955-2010. Dat komt goed overeen met de berekening die Levitus e.a. ook maakten in hun publicatie uit 2009. Omgerekend betekent dit een temperatuurtoename van de bovenste 700m van 0,17° C voor de totale periode 1955-2008.

Het bijzondere aan die temperatuurstijging van 0,17° C is dat deze ver achter blijft bij de HadSST (SST door Hadley Centre) , die voor delfde periode een temperatuurtoename van 0,6° C claimt. Tot zover niet heel spectaculair, zou je zeggen. Maar dan gaat Spencer iets heel aardigs doen. Hij bekijkt van jaar tot jaar het verschil in warmte-inhoud, en berekent vervolgens hoeveel energie er nodig was om die jaarlijkse verschillen te veroorzaken. Hij vergelijkt dan zijn uitkomsten met enkele grafieken van de hand van James Hansen, kopstuk bij GISS/NASA. Hansen publiceerde die grafieken in 2007 in een studie genaamd: Dangerous human-made interference with climate: a GISS modelE study .

Hansen1

Hansen2Bron: Hansen et al 2007

In de eerste grafiek is van een aantal forcings voor de periode 1880-2003 de invloed weergegeven op de stralingsbalans. De tweede grafiek is het netto resultaat van al die forcings. Omdat de grafieken van Hansen slechts t/m 2003 lopen heeft Spencer voor de laatste jaren van het afgelopen decennium alle forcings op een na onveranderd gehouden, alleen het CO2-gehalte heeft hij op basis van recente metingen laten stijgen.
spencer3Bron: www.drroyspencer.com

Voor de periode 1955-2010 berekent Spencer op basis van de grafieken van Hansen een gemiddelde toename van de ‘radiative forcing’ van 0,8 W/m^2, terwijl in dezelfde periode de warmte-inhoud met ‘slechts’ 0,2 W/m^2 is toegenomen. Hoe kan dat ? Waar zijn die andere 0,6 W/m^2 gebleven? Spencers antwoord hierop is: feedback. Feedbacks in de vorm van verandering in bewolking, waterdamp en extra output van warmtestraling als gevolg van opwarming. Die extra output van warmtestraling noemt Spencer ‘THE main climate stabilizing influence’. Ik permitteer me de vrijheid om bij dat laatste eerder te denken aan extra latente energie en convectie als gevolg van opwarming dan aan extra stralingsenergie, hoewel dit laatste uiteraard ook zal plaatsvinden. Zie voor dit laatste ook de ideeën van Noor van Andel, Miskolczi en Clark in het hoofdstuk ‘Nieuwe Inzichten’. Conclusie: het klimaatsysteem van de aarde is veel minder gevoelig voor forcings zoals CO2-stijging dan gedacht door het IPCC.

spencer4Bron: www.drroyspencer.com

Met behulp van een eenvoudig fysisch model tracht Spencer tenslotte de feedback-parameter λ zodanig te parameteriseren dat de ‘radiative imbalance’ zo goed mogelijk overeenkomt met de gemeten toename van de warmte-inhoud met 0,2 W/m^2. Zie bovenstaande figuur. Let op het feit dat in het model de sterke feedback de forcing grotendeels neutraliseert, zoals de toename van de warmte-inhoud met 0,2 W/m^2 reeds indiceerde. Daarbij komt hij uit op een grootte van de feedback parameter λ van 4 W/m^2K, resulterend in een klimaatgevoeligheid van slechts 1° C bij verdubbeling van het atmosferische CO2-gehalte. Veel lager dus dan de door het IPCC gehanteerde gemiddelde toename van de temperatuur met 3° C.

Van diverse zijden is commentaar geleverd op bovenstaande uitkomsten, met name op het feit dat Spencer ‘slechts’ de bovenste 700m van de oceaan heeft bekeken. In een update op bovenstaand onderzoek heeft hij daarom zijn forcing-feedback model opnieuw laten lopen met de volgende 2 aanpassingen:
1) een netto opwarming over 50 jaar van 0,06° C voor de 0-2000m bovenste laag
2) een opwarming over dezelfde periode van 0,6° C van de SST

Het resultaat is een netto feedback parameter van 3W/m^2k, corresponderend met een klimaatgevoeligheid van 1,3° C bij verdubbeling van CO2, nog steeds ruim onder de gemiddeld 3° C van het IPCC, en zelfs onder de onderste limiet van 1,5° C die het IPCC voor toekomstige opwarming hanteert.

Tot slot: In de grafiek van de warmte-inhoud is te zien dat vanaf 2003 er sprake is van een stagnatie in de toename ervan, een stagnatie die tot op de dag van vandaag stand houdt. Het is wellicht interessant om dat verschijnsel in de nabije toekomst eens nader onder het licht te houden.


Nogmaals de zeespiegel

In de bijdrage van  25 november j.l. is de zeespiegelstijging aan de orde geweest naar aanleiding van opmerkingen van meteoroloog van den Berg. Hij stelt in een brochure van het KNAG ter introductie van de lezing die hij op 8 december a.s. gaat houden: “Te midden van onzekerheden zijn er wel degelijk een paar grote zekerheden. De aarde warmt op, het ijs smelt steeds sneller, en de zeespiegel reageert als verwacht, en stijgt dus steeds sneller. “ . Over die steeds sneller stijging van de zeespiegel heb ik toen geschreven dat dat niet waar was. Interessant is natuurlijk ook de vraag of de reactie van de zeespiegel op een versnelde ijssmelt een versnelde stijging is.

De bekende Duitse klimatoloog Hans von Storch noemde een publicatie over de zeespiegel van de hand van een aantal Duitse onderzoekers als een van de voor hem 6 belangrijkste klimatologische publicaties van 2010 en 2011. Het gaat om publicaties van Thomas Wahl en zijn team.
Thomas Wahl et al hebben in 2010 inderdaad een interessante publicatie het licht laten zien over de zeespiegelstijging in de Duitse Bocht sinds 1840.  In 2011 hebben ze in een nieuwe publicatie de data van hun eerdere publicatie uit 2010 verder verfijnd en verbeterd.

Wat ze gedaan hebben is het maken van een reconstructie van de zeespiegelstijging in de Duitse Bocht van 1843 tot 2008, een periode van 166 jaar. Nu gaat het hier niet om die grafiek van de zeespiegel in de Duitse Bocht, en ook niet om de overigens interessant techniek met behulp waarvan ze de reconstructie hebben gemaakt. Het gaat om onderstaande grafiek uit het tweede rapport.

slr1                                                                          Bron:  Wahl 2011

De grafiek geeft niet de trend in de zeespiegelhoogte weer, maar de jaarlijkse veranderingen. Kijk eens goed naar de rode lijn, die de SLR  (Sea Level Rise) in mm/jaar weergeeft. Er zijn 3 periodes waar te nemen waarin sprake is van een versnelling van de zeespiegelstijging. De eerste is een stijging tussen 1855 en 1880, waarin de SLR toeneemt van 0 mm/jaar tot bijna 3 mm/jaar.  De tweede acceleratieperiode loopt van 1925 tot 1947; de stijging ging toen van 0,5 mm/jaar tot 3,4 mm/jaar.  De laatste acceleratiefase begint 1970 en eindigt in 1996 , de SLR stijgt dan van 0,8 mm/jaar tot 3,6 mm/jaar. Na elke acceleratiefase volgt een periode van deceleratie en daalt de SLR naar waarden tussen 0 en 1 mm/jaar. Als we de Hadcrut globale temperatuurreeks er bijhalen, dan zien we een opvallende correlatie tussen het verloop van de gemiddelde wereldtemperatuur en de SLR.

tempcru

Bron:  HadCrut

Als er sprake is van een acceleratie van de luchttemperatuur aan het aardoppervlak, dan volgt met een lichte vertraging ook een acceleratie van de SLR.

In de bijdrage van 6-9-2011 is de sterke correlatie tussen de globale temperatuurreeks van HadCRut en de watertemperatuurreeks van het noordelijk deel van de Atlantische Oceaan aan de orde geweest. De vraag was toen welke van de twee domeinen, oceaan of atmosfeer, de sturende kracht is binnen deze correlatie. Nienke te Raa (IMAU 2006) schreef in het blad Meteorologica hierover: “…wat veroorzaakt deze Atlantische Multidecadale Oscillatie? Eerder onderzoek heeft uitgewezen dat veranderingen in de atmosfeer waarschijnlijk niet de oorzaak zijn van de AMO, maar het gevolg. Onze hypothese was dan ook dat dit verschijnsel het gevolg is van interne wisselwerkingen in de oceaan.  ”.  Zie voor verdere details hierover de bijdragen uit augustus en september 2011.

Conclusie: er is weliswaar sprake van een acceleratie van de SLR tussen 1970 en 1996, maar een vergelijkbare stijging deed zich ook voor tussen 1855 en 1880, en tussen 1925 en 1947. De meest recente acceleratie van de SLR koppelen aan versnelde afsmelt van ijs is derhalve mijns inziens puur speculatief. Van beide eerste acceleratieperiodes is niets bekend over een versnelde afsmelt van landijs, en gletsjers die korter worden kennen we al vanaf 1800.

De koppeling tussen de zeespiegel en het afsmelten van ijs is veel complexer is dan van den Berg suggereert. In 2010 publiceerde Kahn et al een studie naar de massabalans van het Groenlandse ijs met behulp van satellietgegevens van GRACE en GPS tussen 2002 en 2010. De conclusie was dat het landijs in Z. Groenland vanaf  eind 2003 en vanaf eind 2005 ook in  NW Groenland versneld aan het afsmelten is.

sea level 2011

Bekijken we de meest recente data van de zeespiegel van de universiteit van Colorado in de figuur hier boven, dan is van die versnelling van afsmelt in Groenland in het verloop van de zeehoogte niets te merken. De stijging van het gemiddeld zeeniveau vlakt zelfs sinds 2005 af.  Waaruit maar eens blijkt hoe ingewikkeld het oceaan-atmosfeersysteem in elkaar zit. Het kan natuurlijk ook wat te maken hebben met de methode die Kahn et al hebben gebruikt. Misschien daar later meer over.


Professor Pier Vellinga door de bocht

Dat Pier Vellinga van de Universiteit Wageningen het soms niet zo nauw neemt met meetgegevens is hier al eens eerder onderwerp van bespreking geweest. Vellinga heeft een boodschap te verkondigen, en dan heiligt het doel klaarblijkelijk de middelen.

Gisteren was het weer zo ver. In de aardige televisiereeks over de Waddenzee mocht Vellinga iets vertellen over de zeespiegelstijging en uiteraard de gevaren daarvan in het kader van de door hem gevreesde opwarming. Die uitzending kan hier bekeken worden.

pier
Bron:  NCRV uitzending gemist
Op het screenshot hierboven geeft Vellinga aan hoe groot de zeespiegelstijging is geweest in de Waddenzee vanaf de oplevering van de Afsluitdijk in 1932. Ik schat de afstand tussen zijn handen op ongeveer 60 cm. Dat leek met wat overdreven.

In Den Helder wordt al sinds jaar en dag de hoogte van de zeespiegel bijgehouden. Op de site van Rijkswaterstaat is via de webapplicatie Waterbase deze meetreeks van jaar tot jaar tot in detail te volgen.

Op onderstaande grafiek is zijn de maandelijkse gemiddelde zeehoogten in Den Helder weergegeven van 1865 tot 2000. In die periode is de relatieve zeespiegelstijging 14,4 cm/eeuw. Ongeveer 5 cm van deze stijging komt voor rekening van bodemdaling in Noord Nederland als gevolg van het opveren van Scandinavië na de laatste ijstijd. Dat betekent dat de eustatische zeespiegelstijging in Den Helder tussen 1865 en 2000 neerkomt op ongeveer 9 cm/eeuw. Voor een periode van 80 jaar (de leeftijd van de Afsluitdijk) is de relatieve zeespiegelstijging ongeveer 11,5 cm.

pier1
Bron: Hans Erren

Uit een rapport van Shell uit 2006 betreffende gaswinning in de Waddenzee komt de volgende grafiek. Het betreft de gemiddelde zeespiegelhoogte in Den Helder van 1870 tot 2005.  Shell komt op een relatieve zeespiegelstijging van 22,4 cm/eeuw inclusief een waargenomen versnelling gedurende de laatste decennia. De oranje lijn zou de mondiale zeespiegelstijging weergeven. Voor een periode van 80 jaar betekent dit een stijging van ongeveer 18 cm.

pier2
Bron:  Shell

Conclusie: Vellinga neemt het hier niet zo nauw met de waarheid: hij overdrijft de zeespiegelstijging de afgelopen 80 jaar met een factor 3 tot meer dan 5, afhankelijk van de gebruikte meetreeks. Dat is wel een hele ruime marge voor een wetenschapper.

 

 

” Opwarming van het klimaat zorgt de komende eeuwen voor een significante stijging van de zeespiegel. Zelfs bij een succesvol klimaatbeleid met een opwarming van minder dan 2 graden Celsius stijgt de zeespiegel deze eeuw 75 tot 80 centimeter ten opzichte van 2000. Rond 2300 is een verdere stijging tussen de 1,5 en 4,0 meter te verwachten, met als meest waarschijnlijke stijging 2,7 meter. Dat schrijven internationale klimaatonderzoekers, waaronder van Wageningen University, in het wetenschappelijk tijdschrift Nature Climate Change van 24 juni. Zij doen die uitspraken op basis van zeer uitvoerige berekeningen van de zeespiegelstijging in de afgelopen duizend jaar en beleidsscenario’s rond de uitstoot van broeikasgassen in de komende eeuwen.

Met een gericht klimaatbeleid kan de uitstoot van CO2 verder worden teruggebracht en daarmee de opwarming op max.  1,5 graad Celsius uitkomen. In die omstandigheden valt volgens de onderzoekers de meest waarschijnlijke stijging in 2300 lager uit, maar die is dan naar schatting nog altijd ruwweg 1,5 meter. Als de klimaatopwarming in de komende eeuwen uitkomt op 3 graden, dan is een stijging tussen 2 en 5 meter te verwachten, met een meest waarschijnlijke stijging van 3,5 meter.”
Aan de aanhalingstekens en de cursieve letter is al te zien dat dit een citaat is en dat dit niet uit eigen koker komt. Het is een deel van een persbericht dat de WUR gepubliceerd heeft naar aanleiding van een nieuwe publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin Vermeer, Long-term sea-level rise implied by 1.5°C and 2°C warming levels,  in Nature Climate Change van 24 juni  2012.

delta

Nu waren we al wat gewend na het rapport van de Deltacommissie onder leiding van Cees Veerman. De commissie bestond uit 10 mensen, van wie er zeggen en schrijven 3 iets hebben gestudeerd dat met het onderwerp zeespiegel te maken heeft. Conclusie van de commissie: rond 2100 is de zeespiegel tussen 65 en 130 cm gestegen. Hoon was hun deel, toen bleek dat die 130 cm bij elkaar gerommeld was. Wat dat betreft vallen die 75 tot 80 cm in het jaar 2100 van het rapport van Schaeffer et al best wel mee. Maar is het reëel?

Schaeffer et al zeggen dit:

Projecting sea level into the future is still associated with large uncertainties. Physics-based models attempting to predict the combined contributions from thermal expansion, glaciers and ice sheets are not yet mature and underestimate the SLR observed in past decades. One of the largest uncertainties at present is the response of the Greenland and Antarctic ice sheets, where process-based models do not capture the full response so far observed1, nor the timescales of response seen in the palaeorecord.
Voorzichtigheid dus ook bij de auteurs, maar desalniettemin een voorspelling van een forse zeespiegelstijging voor de komende 90 jaar. Laat ik daarom eens enkele aspecten van de publicatie onder de loep nemen. In de publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  maken de auteurs gebruik van een zogenaamd semi-empirisch model om toekomstige zeespiegelstijging te voorspellen. Voor het gebruik van dit model is een record van zeespiegeldata een voorwaarde. De publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”.While these models are further developed, semi-empirical models have emerged as a complementary approach and have shown their ability to reproduce sea-level evolution over the past millennium and the modern tide-gauge record well, leading to projections that are robust against different choices of input data and statistical approach. It remains open, however, how far the close link between global sea level and temperature found for the past will carry on into the future.

Despite this caveat, the results presented here provide at least plausible estimates for sea-level evolution in the coming centuries and a number of robust insights into how it can be affected by mitigation measures. A key aspect of this, irrespective of the exact numbers, is the long response time of sea level that is physically expected from the slow response of large ice sheets and the deep ocean to climate change, and also found in palaeoclimate data2. This slow response means that about half of the twenty-first century SLR is already committed from past emissions. ”.

Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is. Michael Mann was nodig om de auteurs te voorzien van cijfers over de temperatuur van de afgelopen 2000 jaar. Die komen uit zijn publicatie uit 2008, getiteld “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia”.

Dus de opzet ziet er als volgt uit:

1) De publicatie van Schaeffer et al doet een voorspelling over de toekomstige zeespiegel in 2012
2) Daarvoor is een reconstructie nodig van de zeespiegel over de afgelopen 2000 jaar, die wordt geleverd door Kemp et al in 2011
3) De reconstructie van de zeespiegel gedurende de afgelopen 2000 jaar kan niet zonder een reconstructie van de globale temperatuur van de afgelopen 2000 jaar, en die wordt geleverd door Mann et al in 2008

 

bas14
Bron: agreenliving.org

In deze paragraaf zal ik me richten op de locatie van het onderzoek en de problemen en onzekerheden die daarmee samenhangen. Daarover heb ik a eerder op deze site geschreven. In een volgende bijdrage zal ik aandacht besteden aan het model dat de onderzoekers gebruikt hebben.

In het artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.

kemp1
kemp2
kemp4

Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.

kemp5Bron: Mörner
Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

kemp6Bron: WUWT
Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijkHampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

kemp3Bron: WUWT
Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.

 

In deze paragraaf ga ik in op het door Kemp et al gebruikte wiskundige model om met behulp van de gereconstrueerde zeespiegeldata van de afgelopen 2000 jaar een voorspelling te doen voor de komende eeuwen. Tom Moriarty heeft in zijn weblog climatesanity het gebruikte model aan een nadere inspectie onderworpen. Moriarty is fysicus en Senior Scientist bij de  US Department of Energy’s National Renewable Energy Laboratory. Moriarty ploos het gebruikte wiskundige model van Kemp et al uit en gebruikte daarvoor ook de modellen die de auteurs in voorafgaande publicaties gebruikten. Zie hiervoor zijn bijdragen.  KMVR2011 is de bovengenoemde publicatie van Kemp:

“ Here is the KMVR2011 model:

tom1

where

tom2

Where H is the sea level, T(t) is the global temperature, Too, a1, a2, b and τ are all constants and To(t) is a to-be-determined time varying function related to T(t) as defined by equation Ia.

Now, consider the following temperature evolution.  It is nearly the same as equation II from my previous post, but has an additional unitless constant, γ (a.k.a. “gamma”), in the exponential…

tom3

If equation II is inserted into equation I, then…

tom4

Rearranging terms in equation III gives…

tom5tom6

H is the sea level.  dH/dt, the derivative of the sea level,  is the sea level rise rate.  d2H/dt2, the second derivative of the sea level, is the rate at which the sea level rise rate changes.  That is, d2H/dt2, is the acceleration.  If d2H/dt2, is positive, the sea level rise rate is increasing.  Conversely, if d2H/dt2, is negative, then the sea level rise rate is decreasing.  Taking the time derivative of equation IIIa gives…

Let’s also consider the difference in the sea level rise rates at some time, t, for different values of γ.  We can do this by analyzing the derivative of dH/dt (equation IIIa) with respect to γ.

tom7

What does the math tell us? KMVR2011 does not conclude with specific values for their model constants and their time varying T0(t).  Instead, they present probability density distributions for some constants, or combination of constants.  However, there are some definite constraints that can be noted about the variables and their relationships to each other.  These constraints are key to my conclusions.

Constraints:
*)  a1 + a2 = a, where a1 and a2 are defined in KMVR2011 (see equation I, above) and a is defined in VR2009.  VR2009 found a = 5.6 mm/yr/K.
*)  a1 > 0 mm/yr/K  and a2 > 0 mm/yr/K.  KMVR20011 states that the distribution of a1 for their Bayesian analysis varied between 0.01 and 0.51 mm/yr/K.   Needless to say, if either of these terms were less than zero the KMVR2011 model would make even less sense that it does now.  That would be a road that the KMVR2011 authors do not want to travel.
*)  b < 0 .  VR2009 found b = -49 mm/K.   KMVR2011 varied b about -49 mm/K with σ2 = (10 mm/K)2 for their Bayesian analysis.

( VR2009 is de publicatie van Vermeer en  Rahmstorf , 2009 PNAS paper, “Global sea level linked to global temperature“ ( Rob de Vos))

*)  C  > 0.  C is a unitless constant that I introduced, and for the purposes of this post I am constraining C to be greater than zero.
*)  γ > 0.  γ is a unitless constant that I introduced, and for the purposes of this post I am constraining γ to be greater than zero.
*)  Time, t, is restricted to about 1900 and later for my hypothetical temperature (equation II).  This insures that T(t) > T0(t), which in turn insures that dT0(t)/dt > 0.

The equations above, coupled with the listed constraints guarantee the signs of the derivatives shown in table 1, below.

tom8
Table 1. Derivatives of temperatures and second derivatives of sea level.
Green “up arrows” indicate increasing values and red “down arrows” indicate decreasing values.

As you can see from table 1, it gets little confusing for 0<γ<1.  When a1, a2, b, C, and γ conform to the listed constraints, the signs of the various derivatives are known with certainty as long as…

tom9

But when …

tom10

at some point in time t- t’ will become large enough that d2H/dγdt will become positive.  When that time occurs depends on the choices of a1, a2, b  and γ.  If we choose a1, a2 and b to agree with VR2009 (recall a1 +a2 = a = 5.6 mm/yr/K, and b = -49 mm/K) and γ = 0.8, then d2H/dγdt will continue to be negative until t – t’ = 44 years. “.

De conclusie van Moriarty uit bovenstaande exercitie in hogere wiskunde is nogal absurd: Het model van Kemp et al levert bij hogere temperatuurstijgingen geen stijging van het zeeniveau op maar een daling ervan! Deze grafiek geeft de temperatuurstijging weer bij verschillende scenario’s:

tom11
En dit zij de gevolgen voor de zeespiegel als men het model van Kemp et al hanteert:

tom12
Conclusie: het gehanteerde model voorspelt zeespiegeldalingen bij temperatuurstijgingen. Volgens Kemp is dit een gevolg van het feit dat de constante b een negatief teken heeft.

Stefan Rahmstorf zei over Moriarty:  “ Science progresses by peer-reviewed publications, not blogs. We are well advanced in preparing a paper that includes the latest sea level data and groundwater pumping estimates, as well as looking at a number of other factors. That will be up for discussion once it appears in the peer-reviewed literature. (Without giving away too much, I can probably already say that we come to different conclusions from what you claim.) ”.

Dit commentaar van Rahmstorf deed hij vóór de laatste publicatie. Misschien zou het voor de wetenschap goed zijn als  Rahmstorf zijn academische arrogantie eens opzij zou zetten. Moriarty is niet de eerste ‘leek’  die buiten het formele circuit van publicaties om laat zien dat hij verstand van zaken heeft. Maar helaas wordt hij , net als McIntyre, gezien als een gevaarlijke buitenstaander. Dat dit tot verhitte debatten en ferme uitspraken leidt leest men in deze blog.

 

 Zeespiegel Den Helder stijgt al 146 jaar constant

den helder1
De zeespiegel bij Den Helder wordt al vanaf 1865 meerdere malen per dag gemeten. De gegevns zijn van PSMSL, de instantie die de meetgegevens van vrijwel alle getijdemetingen bijhoudt.  Met behulp van deze gegevens berekent men dagelijkse, maandelijkse en jaarlijkse gemiddelden. In bovenstaande figuur heb ik de jaarlijkse gemiddelden uitgezet in een grafiek. Tevens heb ik een lineaire trendlijn door Excel laten berekenen en tekenen. Dat is de zwarte lijn. Zoals u ziet is er geen versnelling in de zeespiegelstijging te bekennen. De verticale schaal is gebaseerd op de zogenaamde RLR,  Revised Local Reference, de standaardisatie die  PSMSL toepast op de meetgegegevens.

Waarom is het feit dat er geen versnelling te constateren valt bijzonder? Omdat het IPCC in haar rapport uit 2007 stelde:  “ Satellite altimetry… shows that since 1993, sea level has been rising at a rate of around 3 mm/yr, significantly higher than the average during the previous half century. Coastal tide gauge measurements confirm this observation.”. Dat had het IPCC natuurlijk niet zelf verzonnen, maar gehaald uit een toen recente publicatie van Church en White uit 2006, A 20th century acceleration in global sea-level rise. Natuurlijk kan men tegenwerpen dat Den Helder niet de wereld is, maar ik zal een volgend keer laten zien dat het verloop van de zeespiegelstijging in Den Helder eerder regel dan uitzondering is op aarde.

De jaarlijkse schommelingen zijn tamelijk groot, zodat de R-kwadraat van de lineaire trendlijn niet groter is dan 0,7625. De blauwe lijn lijkt heel fraai de lineaire trendlijn te volgen. Om te zien of er in de data toch geen sprake is van een versnelling in de zeespiegelstijging zoals het IPCC en Church en White beweren, heb ik hieronder voor dezelfde date een exponentiele trendlijn ingetekend. Zoals te zien is, is deze vrijwel kaarsrecht, hetgeen ook bevestigd wordt door r2= 0,7624. Een afwijking van de r2 van de lineaire trendlijn van slechts 1/1000  !

 

den helder2

Dat alarmisten ons graag willen laten geloven dat de zeespiegel vanwege AGW veel harder stijgt dan vroeger heb ik hier al vaker aan de kaak gesteld. Ik denk bijvoorbeeld aan professor Pier Vellinga uit Wageningen die op de televisie de zeespiegelstijging van de afgelopen 80 jaar met een factor 7 (!) overdreef .

De Deltacommissie onder leiding van Cees Veerman ( de man die overal verstand van heeft) voorspelt een maximale zeespiegelstijging van maar liefst 135 cm voor het eind van de eeuw.  De zeespiegelstijging in Den Helder is de afgelopen 100 Jaar niet meer dan 15 cm gestegen.  Dat betreft de relatieve zeespiegelstijging, dus inclusief de bodemdaling ter plaatse van ongeveer 5 cm/eeuw. En van een versnelling is nog steeds geen sprake. De zee moet dus voortmaken!

 

Zeespiegel in de rest van de wereld

Conclusie is dat de zeespiegelstijging in Den Helder tussen 1865 en 2012  geen enkele versnelling laat zien.
De data waarop de grafiek van Den Helder gebaseerd is komt van PSMSL  in Groot Brittannië  en NOAA in de USA.

PSMSL en NOAA baseren hun reeksen op  data die komen van diverse organisatie in veel landen.  Zo levert Rijkswaterstaat de data van Den Helder. Hieronder ziet u een lijst van meetstations die PSMSL gebruikt, inclusief zeeniveautrends:

tabel sl1
Bron:  PSMSL en NOAA

Het betreft 194 meetstations.  Om beter zicht te krijgen op de trends in zeespiegelstijging heb ik de data van de stations in Excel ingevoerd.  Daarvoor heb ik alleen die stations gebruikt waarvan de data doorlopen tot na 2005. Er blijven dan 147 stations over. Dit zijn de resultaten:

sealevel3

De meeste trendwaarden liggen ergens tussen 0 en 4. Opmerkelijk is dat er vrij veel stations zijn die over de gemeten periode een negatieve stijging vertonen, en relatieve zeespiegeldaling dus. Vooral aan het begin van de grafiek is een dergelijke cluster te zien. Dat zijn alle meetstations in Scandinavië. Scandinavië veert sinds het einde van de laatste ijstijd (10.000 jaar geleden) op als gevolg van het afsmelten van de Scandinavische ijskap. Dat effect, glacio-isostasie genoemd, is zo sterk dat het stijgen van het land sneller gaat dan de absolute zeespiegelstijging.

Ook sommige Candese meetstations vertonen dit beeld als gevolg van het afsmelten van de Canadese ijskap. Verder is er nog een aantal meetstations dat vanwege subductie een sterke stijging van het land vertoont en derhalve een negatieve zeespiegelstijging.
Voorbeelden daarvan zijn te o.a. vinden in Japan. Aan de bovenkant  van de grafiek zijn ook uitschieters te zien. Deze meetstations tonen een opvallend grote relatieve zeespiegelstijging. Deze meetstations ondervinden een sterke daling van het land als gevolg van subductie, of als gevolg van sterke sedimentatie.

Probleem blijft dat alle meetstations op een of andere wijze beïnvloed worden door bodemdalingen en –stijgingen. Gemiddeld over de gehele aarde zou de bodemdaling theoretisch de 0 moeten naderen. Als we uitgaan van een perfect gelijkmatige geografische en geologische spreiding van alle meetstations dan zou de eerste grafiek bruikbaar zijn om de gemiddelde absolute zeespiegelstijging te berekenen. Die zou in dat geval  0,68 zijn, dus 6,8 cm/eeuw. Maar de meetstations liggen niet perfect gelijkmatig verspreid: er zijn relatief veel stations in Europa en Noord-Amerika, en relatief weinig in Afrika. Men kan er dus van uit gaan dat de ongelijkmatige spreiding de grafiek beïnvloedt.

Opvallend blijft dat de meeste stations een trend aangeven tussen 0 en 4. Ik vermoed daarom dat ergens in deze wolk de gemiddelde absolute zeespiegelstijging verborgen ligt. Daarom ga ik de extreem afwijkende stations buiten beschouwing laten. Ik heb alle stations met een negatieve waarde verwijderd, alsmede alle stations met een trend van > 4 . Dit is volkomen arbitrair en wetenschappelijk onverantwoord, daar ben ik me van bewust. Maar wil een beeld krijgen van de globale zeespiegeltrend.    Het resultaat is dit:

sealevel4

De rode lijn is de gemiddelde waarde van de trends van de overgebleven  102 meetstations: 1,56.  Ik schat dat dit nog aan de hoge kant is.

 

De afwezigheid van enige versnelling in de zeespiegelstijging is niet in lijn met de opvatting dat de het globale zeeniveau gerelateerd is aan de globale temperatuur. Vermeer en Rahmstorf schreven in 2009:  “ When applied to observed data of sea level and temperature for 1880–2000, and taking into account known anthropogenic hydrologic contributions to sea level, the correlation is >0.99, explaining 98% of the variance. For future global temperature scenarios of the Intergovernmental Panel on Climate Change’s Fourth Assessment Report, the relationship projects a sea-level rise ranging from 75 to 190 cm for the period 1990–2100.  ”

vermeer0

Bovenstaande figuur uit de publicatie van Vermeer en Rahmstorf ,  “Global sea level linked to global temperature” (PNAS, 2009) ,
toont met de rode lijn de gemeten zeespiegelstijging en –versnelling vanaf 1880. Er zijn twee periodes te herkennen met versnelling van de stijging: tussen 1930 en 1950, en vanaf 1980.

Ook Church en White herkennen in hun studie een versnelling rond 1930, de tweede versnelling vindt plaats na 1990. Zie hier en hier.
Omdat er in de relatieve zeespiegelstijging van Den Helder geen enkele versnelling te bespeuren valt, was ik benieuwd of dat elders op aarde anders zou zijn. Immers, de perioden van versnelling van de zeespiegel zouden ergens in de tide-gauge-data toch merkbaar moeten zijn? Ik wilde daarvoor gebruik maken van meetstations die over de afgelopen 100 jaar een continue meetreeks produceerden.  Daarvoor maakte ik wederom gebruik van de databank PSMSL.

church1

Om een indicatie te krijgen van de geografische spreiding van de gezochte data maakte ik gebruik van bovenstaande figuur uit de publicatie van Church en White uit 2011. Duidelijk is te zien dat er aan het begin van de 20e eeuw slechts een beperkt aantal meetstations was, met een sterke concentratie in Nederland, Duitsland,  Denemarken, Japan en de USA. Ik ben alle aangegeven locaties in de databank nagegaan en heb naast Den Helder nog 7 andere meetstations gevonden met een min of meer continue meetreeks vanaf 1910 tot 2010 :

Victoria, Canada
San Francisco, USA
New York, USA
Honolulu, USA
Balboa, Panama
Fremantle, Australië
North Shields, GB

Er zijn nog enkele meetstations met een meetreeks van (meer dan) een eeuw, maar die liggen dicht bij een van bovenstaande stations en leverden geen relevante meetgegevens op. Omdat ik niet in staat ben om sterke verticale bewegingen in de aardkorst statistisch te elimineren heb ik afgezien van meetstations die in sterke mate onderhevig zijn aan epirogenetische en tektogenetische bewegingen, zoals in Scandinavië en Japan. Omwille van de eenvoud ben ik ervan uitgegaan dat voor  de overgebleven meetstations geldt dat bodembewegingen gedurende de afgelopen eeuw constant waren. Ik ben immers alleen geïnteresseerd in een eventuele versnelling van de zeespiegel. Dit zijn de resultaten:

den helder 1910
victoria
san francisco
new york
honolulu
balboa
fremantle
north shields

 

Het beeld is in alle gevallen duidelijk: van een versnelling van de zeespiegelstijging is geen sprake. Omdat in alle grafieken te controleren heb ik behalve de lineaire trendlijn  (zwart) ook de exponentiele trendlijn (rood) in elke grafiek weergegeven. Beide lijnen vallen in alle grafieken vrijwel geheel samen. Van beide trendlijnen zijn de R2 –waarden in de grafieken weergegeven. Om te laten zien wat de lineaire trendlijn en exponentiele trendlijn doen als er in een meetreeks sprake is van een versnelling heb ik een eenvoudige lineaire meetreeks gemaakt, met tussen de horizontale waarden 9 en 13 een versnelling in de reeks . Het resultaat ziet u hier onder:

trend
Comclusie: in bovenstaande meetreeksen van tide-gauge-metingen over de gehele aarde  zijn geen versnellingen in de zeespiegelstijging waar te nemen. Dat staat dus haaks op de gegevens van Church en White, Vermeer en Rahmstorf en falsifieert de hypothese dat het globale zeeniveau  sterk gerelateerd is aan de globale temperatuur. De zeespiegelstijging lijkt zich niets aan te trekken van relatief korte ( enkele decennia) perioden van temperatuurstijging zoals die waargenomen zijn in de afgelopen eeuw.

Stadsklimaat

Het BEST-team ( Berkeley Earth Surface Temperature ) heeft een van haar rapporten gewijd aan het stadklimaat, het Urban Heat Island-effect. Dit effect beschrijft onder andere de hogere temperaturen in steden in vergelijking met het omliggende platteland. Een goede inleiding op dit onderwerp is te vinden op de Engelstalige Wikipedia.

In onderstaand diagram is het UHI-effect (stadsklimaat) te zien voor Tokyo: ongeveer 2°C/eeuw.

tokyo
Bron:  BEST

Minder dan 1% van de totale oppervlakte van de aarde is te beschouwen als urbaan (stedelijk), terwijl 27% van het thermometernetwerk van het GHCN-M ligt in urbane gebieden met minstens 50.000 inwoners. Als men hiermee geen rekening houdt zullen gemiddelde temperatuurdata van grote regio’s en de aarde hoger uitvallen dan ze in werkelijkheid zijn. Daarom is het nodig om het UHI-effect te kwantificeren.

Het BEST team heeft in haar eerste rapport berekend dat de gemiddelde temperatuur op het land tussen 1950 en 2010 is gestegen met 0,911 °C.  HadCrut stelt de globale opwarming van de aarde tussen 1900 en 2000 op 0,7 °C ,  het IPCC schat de globale opwarming tussen 1956 en 2005 op 0,64°C.    Als we dit laatste getal combineren met de  BEST-waarde van 0,911°C  voor het land, dan is de stijging van de temperatuur boven de oceanen  (71% van het aardoppervlak) in die periode dus grofweg 0,5°C geweest.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’  en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural.  Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.

best9
Bron:  BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming  van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

Wat is er op deze conclusie aan te merken? Toch wel het een en ander, lijkt me. Natuurlijk is het zo dat als je tot de conclusie komt dat het UHI-effect verwaarloosbaar klein is, dat deze conclusie niet verandert als je oceaandata toevoegt. Wel is het opvallend dat de stijging van de luchttemperatuur boven oceanen veel minder snel is geweest dan die boven de continenten. Het is een legitieme vraag of dit alleen toegedicht kan worden aan de fysieke verschillen tussen land en zee.

Maar er zijn ook meer inhoudelijke bezwaren tegen de conclusies in het BEST-rapport. Fred Singer  zei met betrekking tot het  rapport:  “I suspect that the temperature records still are affected by the urban heat-island effect—a term given to any local warming, whatever its cause—despite efforts to correct for this. The urban heat-island effect could include heat produced not only in urban areas, but also due to changes in land use or poor station siting”.

Over dat laatste is de afgelopen jaren al het een en ander geschreven.  Anthony Watts heeft met zijn surfacestations.orggeweldig werk verricht door reeds meer dan 80% van meetstations van het USHGN meetnet in de USA te bezoeken en te classificeren.

Watts onderzoek geeft een ontluisterend beeld van de kwaliteit van veel meetstations. Hij baseert zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDCClimate Reference Network Handbook uit 2002 ziet er als volgt uit:

class noaa
Bron:  NOAA

De indeling zelf is, als je deze nog niet eerder gezien hebt, enigszins onthutsend. Bestaan er inderdaad meetstations van de categorie 4 en 5, waarbij de meetfout respectievelijk ≥ 2°C en ≥ 5°C is?  En dan te bedenken dat de hele discussie over de opwarming van de aarde gaat over een gemiddelde stijging van 0,7°C in de 20e eeuw.

Het antwoord op die vraag is positief. Watts heeft met 650 vrijwilligers op basis van bovenstaande NOAA classificatie tot nu toe meer dan 80% van de stations in het meetnet bezocht en ingedeeld. Het bizarre resultaat is hieronder te zien:

ushcn stations

ushcn stations2
Bron:  Anthony Watts

Bovenstaande kaart is uit de paper van Watts “Is the US Surface Temperature Record Reliable?” uit 2009, toen ruim 70% van de stations geclassificeerd was.

Inmiddels is dat opgelopen tot ruim 80%, en het beeld is niet veranderd. Ruim 70% van de onderzochte stations in de USA valt  binnen klassen 4 en 5, met een afwijking van ≥ 2°C. In een cirkeldiagram ziet de procentuele verdeling van de 5 klassen er als volgt uit:

ushcn stations3
Bron:  Anthony Watts

Wie wil griezelen moet eens bladeren in de gallery die Watts heeft samengesteld van de bezochte meetpunten.

Hieronder  is een tweetal voorbeelden te zien van officiële USHCN meetstations die in de klasse 5 vallen. Naast de foto is steeds een infrarood opname te zien die een indicatie geeft van de infrarood (warmte-) straling in de directe omgeving van het meetpunt. De afbeeldingen komen uit Watts “Is the US Surface Temperature Record Reliable?”.

watts1
Bron:  Anthony Watts

Hieronder staan voor beide meetstations de meetreeksen weergegeven. Het zijn GISS-plots van de USHCN data.

watts2
watts3

De data in beide reeksen vallen dus in klasse 5, met meetafwijkingen van ≥ 5°C. Het is eenvoudig te zien waarom dat hier logisch is. Wat opvalt is dat de meetreeks van Perry sinds 1940 geen stijgende (of dalende) trend vertoont, terwijl de meetreeks van Glenns Ferry vanaf ongeveer 1980 wel een stijgende trend vertoont.

Perry en Glenns Ferry liggen in 2 verschillende klimaatgebieden, ruim 2000 km hemelsbreed uit elkaar. Het is derhalve niet vreemd dat de meetreeksen een verschillende trend vertonen. Maar temperatuurmetingen worden ook beïnvloed door de microklimatologische omstandigheden, zeker als het klasse 5 meetpunten betreft. Als je via Google Earth inzoomt op het meetpunt in Perry, op de hoek van de North 8th Street en Delaware Street, dan valt op dat de meeteenheid midden in een stedelijk bebouwde omgeving ligt.

watts6
Bron:  Google Earth

watts7
Bron:  Anthony Watts
De bevolkingsomvang van Perry was in 2010  5126 inwoners, en dat inwonertal is de afgelopen decennia nauwelijks veranderd  (US Census Bureau).  Dat gegeven plus de relatieve ligging van het meetpunt en de beelden van Street View maken het aannemelijk dat de directe omgeving van het meetpunt al decennialang stedelijk bebouwd is geweest.

Zoomen we in op het andere meetpunt, Glenns Fery in Idaho, dan zien we een geheel andere situatie:

watts4
Bron:  Google Earth
watts5
Bron:  Anthony Watts

Het meetpunt   ( rode x ) staat direct naast een tamelijk recent gebouw, dat onderdeel uitmaakt van een groter complex van bebouwing. In de onmiddelijke omgeving van de sensor is een grote transformator aanwezig. Het complex is het Oregon Trail History and Education Center,  onderdeel van het  Three Island Crossing State Park . Direct naast het gebouw ligt een grote parkeerplaats. Het gehele complex  is de afgelopen decennia aangelegd. Het lijkt derhalve niet onaannemelijk dat de stijging van de temperatuurtrend althans gedeeltelijk het gevolg is van de verstening van de directe omgeving van het meetpunt.

In het algemeen is te verwachten dat er nabij de meeste meetpuntlocaties de afgelopen decennia eerder sprake zal zijn geweest van toenemende dan van afnemende urbanisatie en bebouwing. Cruciale vraag is natuurlijk in welke mate toenemende urbanisatie van invloed is (geweest) op de waargenomen mondiale temperatuursstijging. Afgezien van het rapport van BEST zijn er de afgelopen jaren nog enkele publicaties over dit onderwerp geweest . Daarover graag de volgende keer.

Het UHI-effect deel 2

Van diverse kanten is me gevraagd om, voorafgaande aan de methodologische vergelijking van het BEST-rapport met andere publicaties, wat te schrijven over het UHI in het algemeen. Met andere woorden: wat is het UHI eigenlijk?

UHI ( urban heat island ) is het verschijnsel dat een stedelijk gebied warmer is dan zijn omgeving. Het verschijnsel is  ’s nachts vaak sterker dan overdag, en sterker bij lagere windsnelheden als gevolg van afgenomen turbulentie die menging met hogere luchtlagen verhindert. Steden zijn warmer dan hun omgeving, maar er valt ook meer neerslag, de windsnelheden zijn gemiddeld lager en de hoeveelheid inkomende zonnestraling is lager. In Nederland spreken we van een stadsklimaat. Ik ben voorstander van het gebruik van Nederlandse begrippen als dat mogelijk is, maar vanwege de overstelpende hoeveelheid Engelstalige literatuur over het onderwerp zal ik de afkorting UHI gebruiken.

De oorzaken van UHI zijn:

1)  De verminderde afkoeling als gevolg van verminderde evapotranspiratie. Verdamping is laag als gevolg van een snelle afvoer van neerslagwater in bijvoorbeeld rioleringen.  Maar ook het feit dat er in stedelijke gebieden veel minder vegetatie is vermindert de verdamping. Verdamping is, samen met convectie , de belangrijkste manier om warmte aan het aardoppervlak  af te voeren naar boven. Opwarming als gevolg van verminderde evapotranspiratie is goed te zien in onderstaande beelden van New York:

uhi5
Bron: Wikipedia

Onderstaande figuur geeft de relatieve evapotranspiratie weer van Greater Manchester:

2)   De afgifte van warmte door gebouwen, auto’s, treinen et cetera die het gevolg is van warmtebronnen binnen in deze objecten. De totale hoeveelheid energie die op deze wijze wordt gegenereerd kan oplopen tot 1/3  van de ontvangen hoeveelheid energie ontvangen door zonnestraling.

3)  De afgifte van warmte door de bebouwde omgeving in de vorm van geleiding als gevolg van de veelal goede geleidende eigenschappen van stenen, asfalt en beton in vergelijking met vegetatie. De figuur hieronder is een warmteopname van de stad Atlanta. De zwarte platte daken hebben de hoogste temperaturen, zijkanten van gebouwen die in de schaduw liggen zijn aanmerkelijk koeler.

uhi6
Bron wikipedia

4) de structuur en bouw van de gebouwen waardoor zonlicht als het ware ‘gevangen’ wordt tussen gebouwen en in gebouwen. Zonlicht reflecteert meerdere malen tussen vertikale wanden van gebouwen, grote glasoppervlakken ‘vangen’ zonlicht.

5)  De soms tot grote hoogte reikende gebouwen breken de wind wardoor het mengen van de warme onderste luchtlagen met de koelere bovenlucht vermindert. In onderstaande satellietbeeld is de multinodale UHI van de stad Atlanta te zien.

uhi4
Bron: Icecap.us

6)  Metabolische warmte  die uitgestraald wordt door de inwoners van een stad. In een metropool gaat het om miljoenen mensen.

Terug naar het UHI-rapport van het BEST-team, genaamd  “Influence of Urban Heating on the Global Temperature Land Average using Rural Sites identified from MODIS Classifications“.

De vraag was of UHI voor een versterkte toename van de temperatuur op aarde heeft gezorgd. Of anders gesteld: is door UHI de temperatuurstijging op het land vanaf 1950 van 0,9 °C  zoals door het team vastgesteld te hoog?

De methode die het team heeft gehanteerd is de volgende. De gebruikelijke mores bij onderzoek naar de relatie tussen de globale temperatuurreeks en UHI  is het vinden van een methode voor classificatie van ruimtelijke ongelijkheid op basis van voor UHI relevante factoren. In het geval van het BEST rapport is die factor de stedelijkheid van de omgeving van meetstations.

De onderzoekers van BEST maken gebruik van de dataset van MOD500.  MOD500 is een dataset die bodemgebruik op aarde classificeert met een resolutie van 500 x 500m. De data zijn afkomstig van het instrument MODIS, dat zich aan boord bevind van de satellieten Aqua en Terra. MODIS scant de aarde in 36 banden  met een golflengte tussen de 0,4 µm en 14,4 µm. Het team van prof. Annemarie Schneider van de University of Wisconsin-Madison heeft op basis van deze data de zgn. ‘Global maps of urban extent from satellite data’ gemaakt.

uhi9
Bron:  Schneider et al

Daarbij wordt het bodemgebruik op aarde ingedeeld in een zeventiental klassen:

1  Evergreen Needleleaf Forest
2  Evergreen Broadleaf Forest
3  Deciduous Needleleaf Forest
4  Deciduous Broadleaf Forest
5  Mixed Forests
6  Closed Shrublands
7  Open Shrublands
8  Woody Savannas
9  Savannas
10 Grasslands
11 Permanent Wetlands
12 Croplands
13 Urban Areas
14 Cropland – Natural Vegetation Mosaic
15 Snow and Ice
16 Barren or Sparsely Vegetated
17 Water Bodies

Klasse 13 is hier uiteraard van belang: het betreft de urban areas.  Alle andere klassen vallen onder non urban areas. De onderzoekers schrijven over de gebruikte data: “It may provide a criterion that is less socio-economically biased than night lights data, therefore it offers an alternative to the approach used by GISS.”.  Men verwijst hier naar de methode die GISS hanteert om datareeksen te homogeniseren t.a.v. het UHI.  Zie hiervoor deze publicatie.

uhi8
Bron: GISS

Om het UHI effect te elimineren in temperatuurreeksen gebruikte GISS tot voor kort een methode die gebaseerd was op vergelijking van een urbane temperatuurreeks met een van een ruraal station binnen een straal van 1200 km verwijderd vanaf het urbane station. Voor De Bilt was dat rurale referentiestation gelegen in Zuid-Duitsland (sic).  Sinds kort maakt GISS gebruik van een methode waarbij men met behulp van nachtelijke lichtuitstoot de mate van urbanisatie vaststelt. Zie de figuur hierboven.

De keuze van het BEST-team voor een classificatie op basis van non-sociaaleconomische criteria is aanvechtbaar, later hierover meer. De onderzoekers merken op dat voor een aantal meetstatiions het onduidelijk is waar ze exact gelokaliseerd zijn, zodat ze niet inpasbaar zijn binnen de resolutie van MOD500. De indeling urbaan-ruraal is daarom moeilijk toepasbaar. Als oplossing gebruikt men daarom de indeling very ruralnot very rural. De very rural sites zullen vrij van urbane invloeden zijn schatten de onderzoekers.  Van de 39.028 meetstations zijn 16.132 very rural. In de USA is dat 18% van het totaal aantal meetstations.

uhi10

Bron: BEST

De volgende stap is het analyseren van de lineaire trendlijnen van alle stations van beide klassen.  Deze kunnen positief dan wel negatief zijn. 67% is positief, 33% negatief.

In onderstaande tabel is de verdeling over beide klassen  (very rural – not very rural) weergegeven:

uhi11
Bron: BEST

Wat opvalt is dat de trendlijnen van de very rural stations zelfs een beetje negatiever zijn dan van alle stations en dus ook van de not very rural stations. De onderzoekers: “There is a statistically significant difference between the median of the complete data set and the very rural subset. The value for the difference, -0.10 ± 0.06 °C/100yr, is in the opposite direction expected from urban heating.

Conclusie van de onderzoekers: “The trend analysis also supports the view that the spurious contribution of urban heating to the global average, if present, is not a strong effect; this agrees with the conclusions in the literature that we cited previously.”

Zoals eerder gesteld staat deze conclusie haaks op de uitkomsten van diverse recente publicaties over het UHI, zoals van de Laat & Maurellis uit 2004 en 2006,  McKitrick/Michaels uit 2007, Spencer uit 2010 en Fall et al uit 2011.  Daarover een volgende keer meer.


Het UHI-effect deel 3

In de vorige aflevering over UHI van 15 november j.l. is het rapport van het BEST-team over de invloed  van UHI op de globale temperatuurreeks aan de orde geweest. De gebruikte methode is toen beschreven: op basis van een ruimtelijke classificatie van MODIS satellietdata is geconstateerd dat UHI geen noemenswaardig effect heeft op de wereldtemperatuur. Die constatering doet vreemd aan. De veronderstelde temperatuurtrend op het land van de afgelopen decennia wordt geschat op 0,2 °C per decennium ( IPCC 2001, Santer et al 2000, Jones en Moberg 2003). Tegelijk geven de satellietmetingen en de sondemetingen veel lagere en soms zelfs negatieve waarden , variërend van  -0,02 tot + 0,06 °C ( Christy et al, 2003).

 

uhi13

Bovendien is er veel aan de hand met de kwaliteit van de locatie van meetstations. In de bijdrage van   7  november j.l. is daar op in gegaan: 70,6% van de officiële meetstations in de USA vallen in de klassen 4 en 5, dat wil zeggen hebben een meetfout van ≥ 2 °C respectievelijk ≥ 5 °C als gevolg van een niet optimale locatie.

uhi22
uhi14
Bron: Watts

Het is al lang bekend dat er allerlei factoren zijn die de meting kunnen beïnvloeden. Een daarvan is de keuze van de verfsoort aan de buitenkant van een Stevensonhutje, een nog steeds veel gebruikte behuizing voor thermometers. Zie de figuren hier boven.

Een ander is de invloed van de ruimtelijke variatie van de natuurlijke omgeving waardoor een juiste keuze van meetlocatie erg belangrijk wordt. Bekend is het onderzoek naar de meetopstelling op Spitsbergen. De effecten van de topografie op temperatuurmetingen zijn al langer bekend.

uhi15uhi16
Bron:   climate4you

Tussen 2003 en 2006 steeg de gemiddelde jaarlijkse luchttemperatuur van -6,1 °C naar -1,7 °C,  een stijging van maar liefst 4,4 °C. Uiteraard werd dit onmiddellijk toegeschreven aan het versterkt broeikaseffect. Op de foto en grafiek hiernaast is te zien wat de werkelijke oorzaak was. Het officiële meetstation is gelegen naast het vliegveld , op een steenworp afstand van de baai.  Het tweede meetpunt is gelegen op de fjell. Tussen 2003 en 2006 is de baai ’s zomers ijsvrij geweest, wat een groot effect had op de temperatuurmetingen direct naast het open water. Het ijsvrij worden van de baai is een periodiek voorkomend verschijnsel, en heeft te maken met de overheersende windrichting in de betreffende zomer. Conclusie: het is zeer belangrijk, ook in een rurale omgeving, waar het meetstation gepositioneerd wordt.

De resterende factoren vallen samen te vatten onder sociaal-economische  factoren zoals BBP/inwoner, bevolkingsdichtheid, gemiddeld inkomen, en het daaraan gekoppelde  grondgebruik. Laten we dit externe factoren noemen. Dat zijn alle menselijke factoren die van invloed zijn op de temperatuurmetingen. In de vorige bijdrage van  15 november j.l. zijn dat de 6 factoren die samen UHI veroorzaken.

De organisaties die zich bezighouden met globale  temperatuurdata en de meetreeksen naar buiten brengen passen technieken toe om dergelijke sociaal-economische factoren te minimaliseren. Dat zijn  de zogenaamde homogenisatietechnieken. In vroegere bijdragen is daar al eens uitgebreid bij stil gestaan. Zie hiervoor Onder De Feiten   het hoofdstuk over de temperatuur in De Bilt. Als de homogenisatie goed is verricht dan zal het ruimtelijk patroon van de gemeten temperatuurtrends niet correleren met die van de externe factoren die de temperatuur kunnen beïnvloeden. Andersom is ook waar: als men gebruikt maakt van ruwe data  (niet gehomogeniseerd) dan is te verwachten dat er wel een verband is tussen externe factoren en het ruimtelijk patroon van temperatuurtrends.

Om aan te tonen dat de conclusie van het BEST-team , het ontbreken van een uhi signaal in de temperatuurtrends, in de wetenschap door velen niet gedragen wordt, laat ik hier een aantal recente, peer reviewede publicaties volgen die wel een uhi signaal ontdekten. Bovendien is het interessant te zien op welke verschillende wijzen men tot diezelfde conclusie gekomen is.
Thomas Karl et al (1988) beschreef het verband tussen de mate van bevolkingstoename (Time Rate of Change Method)  tussen 1901 – 1984 in 1284 plaatsen in de USA en de temperatuurtrend. Men vond zelfs een UHI in nederzettingen met minder dan 10.000 inwoners.

De bevindingen waren overeenkomstig andere onderzoeksconclusies: door UHI dalen de maximum temperaturen en stijgen de minimum temperaturen, en dat het sterkst in grote steden. Zie de tabel hieronder.

uhi17
Bron:  Karl et al

Chagnon toonde in een opmerkelijke publicatie in 1999 aan dat er in plaatsen in Illinois die gekwalificeerd waren als ruraal in de periode 1889 – 1951 sprake was van een opwaartse trend in de luchttemperatuur, en vergeleek die met de temperatuur van de bodem op 0,91 m diepte. De stijging van de bodemtemperatuur bleef 0,2 °C achter bij de gemeten luchttemperatuur in de rurale meetpunten van het American Historical Climate Network, ook al waren die reeksen gehomogeniseerd voor UHI. Hij toonde aan dat die extra opwarming het gevolg was van UHI.

Chagnon noteert: “This value is larger than the adjustment based on population that has been  recommended to eliminate the urban bias in long-term temperature trends in the U.S. Collectively, the results suggest that additional efforts may be needed to eliminate the urban influence on air temperatures, beyond techniques that simply use population as the basis. Population is only an approximation of urban factors affecting surface temperatures, and the heat island influences inherent in the values from weather stations in smaller communities which have been used as control, or data assumed to be unaffected by their urban environment in the adjustment procedures, have not been adequately accounted for.”

En:  “Both sets of surface air temperature data for Illinois believed to have the best data quality with little or no urban effects may contain urban influences causing increases of 0.2°C from 1901 to 1950. This could be significant because the IPCC (1995) indicated that the global mean temperature increased 0.3°C from 1890 to 1950.”

uhi18
Bron:  Chagnon

Böhm  bestudeerde  UHI in Wenen in de periode 1951-1995. De stad heeft een nulgroei gedurende die periode: een stagnerende bevolking van ongeveer 1,6 miljoen. Ondanks de stagnerende bevolking van ongeveer 1,6 miljoen in Wenen constateert Böhm  dat er een forse stijging van UHI is geweest in de betreffende periode.  De onderzoeker vergelijkt 34 temperatuurregistratie stations in het studiegebied van 1450 km 2 . , waarvan 3 rurale, die gebruikt werden als referentieserie voor de stedelijke meetpunten.  De extra opwarming in Wenen varieerde van site tot site: van 0,2 °C in voorstedelijke gebieden tot 1,6 °C in dichtbebouwde gebieden.

In de bestudeerde periode zijn de sociaal-economische en ruimtelijke ontwikkeling in Wenen doorgegaan. Zo verdubbelde de totale vloeroppervlakte, het totale energieverbruik werd meer dan verdubbeld,en de verkeersintensiteit nam met 60% toe. Daar tegenover stond een afname van het bosoppervlak met 20% en grasland   nam binnen de stadsgrenzen met 30% af.

Böhms  conclusies zijn mijns inziens zeer waardevol voor alle studies naar UHI: “The Vienna case study illustrates two features of more than local interest which should be considered in urban climatology as well as in time series studies where the urban temperature excess is regarded as a bias. Firstly, in a city with constant population the urban heat excess shows significant to strongly significant trends of up to 0.6 K in 45 years due to changes in urban morphology and energy consumption. Secondly, the urban heat island and its trend cannot be regarded simply for the city as a whole. There are different absolute levels, different annual variations and different increases of the urban temperature excess in different parts of a city. The urban effect is more strongly influenced by the local surroundings of the site than by the city as a whole. So, if possible, urban heat islands should not be described by a two station approach only (the typical airport-downtown comparison), nor should it rely on regression between population number and heat island.”.

uhi19
uhi20
Bron:  Böhm

Kalnay et al deden in 2003 een onderzoek naar UHI in het oostelijk deel van de USA. Ze vergeleken de gemeten oppervlaktetemperaturen tussen  1950 en 2000 met de zogenaamde NNR data. NNR staat voor NCEP – NCAR 50-year Reanalyses, een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. In de figuren hieronder is het verschil tussen de gemeten waarden en de NNR-waarden voor de stad Baltimore weergegeven. Beide signalen hebben een hoge correlatie, met een correlatiecoefficient van meer dan 0,9. Zoals te zien is lopen die waarden steeds verder uiteen. In de jaren ’90 loopt het verschil tussen de gemeten waarden (met UHI) en de NNR-waarden op tot 1,4 °C.

uhi21
Bron: Kalnay

Kalnay et al komen uit op een externe opwarming vanwege veranderend grondgebruik en urbanisatie van 0,27 °C per eeuw.
Een interessante methodiek hanteerden twee Nederlandse onderzoekers, Jos de Laat en Ahilleas Maurellis, in hun publicatie uit 2004.  Ze gebruikten industriële CO2-emissies als proxy voor de antropogene invloed op temperatuurtrends voor de periode 1979 – 2001. Voor de temperatuurdata gebruikten ze zowel satellietdata ( MSU) als gronddata (CRU). De CO2-emissiedata kwamen van de EDGAR CO2  emissions database en vormen een maat voor de industrialisatiegraad. Met behulp van een “ spatial thresholding trend technique ” analyseerden ze de correlatie tussen antropogene processen zoals veranderingen in bodemgebruik, albedo, bodemvochtigheid grondwaterstand, lichtadsorptie door roet en energiegebruik, en de temperatuur aan het aardoppervlak en in de onder-troposfeer.

uhi23
uhi23a

De Laat et al concluderen dat er een sterke ruimtelijke correlatie is tussen de temperatuurtrends in de ondertroposfeer  en de CO2-emissies. Bijvoorbeeld: regio’s met een CO2-emmisie van meer dan 1 Tg/jaar vallen sterk samen met die regio’s waar de MSU ondertroposfeer metingen een snelle stijging vertonen. Die gebieden beslaan zo’n 15% van het aardoppervlak. Interessant is dat verreweg het grootste deel van de CO2-emissies plaatsvinden op gematigde breedten op het noordelijk halfrond, zodat verwacht mag worden dat het noordelijk en zuidelijk halfrond verschillende temperatuurtrends weergeven. Het IPCC rapport uit 2001 gaf inderdaad voor de periode 1976 – 2000  een LSAT (land surface air temperature) trend voor het NH van 0,31 °C/decennium en voor het ZH 0,13 °C/decennium.  Dat verschil tussen beide halfronden, 0,18 °C, was aanzienlijk groter dan in de periodes 1910 – 1945 en 1946 – 1975, toen het 0,06 °C was. Overigens was de gevoeligheid van de oppervlaktetemperatuur voor CO2-emissies in 2 gebruikte klimaatmodellen niet terug te vinden, een omissie van de modelbouwers!

uhi24uhi24

In 2006 hebben ze robuustheid van hun eerste onderzoek uit 2004 onderzocht. Resultaat: de conclusies uit het eerste onderzoek staan als een huis. Antropogene processen die niet gelieerd zijn aan het broeikaseffect hebben een aanzienlijk aandeel in de temperatuurveranderingen aan het aardoppervlak.  In bovenstaande grafieken is het verband te zien tussen CO2-emissie en de temperatuurtrend in °C/decennium voor de satellietmetingen in de ondertroposfeer  (MSU)  en de gemeten oppervlaktetemperaturen van CRU.
McKitrick en Michaels hebben in  2007  een onderzoek gepubliceerd over externe factoren die de temperatuur beïnvloeden. Ze gebruikten daarbij een relatief groot aantal variabelen zoals in onderstaande tabel te zien is.

uhi26

Het onderzoek betreft  de periode 1979 – 2002 werd uitgevoerd op het niveau van rastercellen met een grootte van 5° x 5°. De resultaten zijn overduidelijk: externe factoren verhogen op veel plaatsen de gemeten temperaturen. Zoals reeds eerder naar voren kwam is dat effect veel sterker  bij oppervlaktemetingen dan bij satellietmetingen. Na homogenisatie voor de externe effecten ziet de verdeling van de temperatuurtrends er uit zoals de onderste grafiek:

uhi28
uhi28a

Op globaal niveau is te zien dat voor de meeste rastercellen geldt dat er sprake is van een extra opwarming door externe antropogene factoren zoals veranderend grondgebruik  en andere sociaal-economische factoren.

uhi27
uhi27a

Fall et al (2011) baseren zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDC het  Climate Reference Network Handbook uit 2002 zijn we al in een eerdere bijdrage tegengekomen en ziet er als volgt uit:

class noaa

De onderzoekers zijn geïnteresseerd in het antwoord op de vraag of en in welke mate de temperatuurtrends van de slechtst gelokaliseerde stations afwijken van de beste. Daarvoor maken, net zoals Kalnay (hierboven beschreven) gebruik van NCEP reanalyses data,  een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. De gebruikte methode OMR  (observation minus reanalysis) is gebaseerd op het feit dat de data van NCEP reanalyses volkomen onafhankelijk zijn van de meetdata van USHCNv2 temperatuur meetgegevens. Deze methode  scheidt externe effecten van opwarming vanwege het broeikaseffect. Op basis van de verkregen resultaten kunnen conclusies getrokken worden over de lokale externe effecten op de verkregen temperatuurreeksen.

uhi29
uhi29a

De onderzoekers bekeken 2 periodes:  1979 – 2008   en 1895 – 2009. Voor beide periodes zijn aanzienlijke afwijkingen gevonden bij met name de slechtst geplaatste stations: gemiddelde dagtemperaturen zijn te laag en de gemiddelde nachttemperaturen zijn veel hoger dan bij de best geplaatste stations. Zie de figuur hierboven.  De CRN5 stations (de slechtste categorie) zijn gemiddeld 0,7 °C warmer dan de 2 beste categorieën.

Resumerend mag gesteld worden dat de invloed van externe antropogene factoren op de temperatuurmetingen tamelijk complex is. De diverse hiervoor genoemde studies geven aan dat er grofweg op een tweetal ruimtelijke schaalniveaus invloeden te verwachten zijn op temperatuurmetingen. Dat is in de eerste plaats het UHI in zijn klassieke gedaante van grootstedelijke of industriële complexen die vanwege hun fysieke geaardheid dan wel grote energieverbruik een opwarmend effect hebben op een groter gebied. Het andere, meer lokale effect is de invloed op individuele meetstations van de nabijheid van asfalt, gebouwen et cetera, waardoor meetwaarden zeer sterk beïnvloed kunnen worden. Dat laatste lokale effect doet zich zowel in urbane als in rurale regio’s voor.

Sommige van bovenbeschreven methodes zijn verfijnd en geperfectioneerd. Daarmee vergeleken is de methode die het BEST- team hanteerde tamelijk grof, namelijk gebaseerd op slechts 1 parameter. Bovendien is de indeling zeer ruraal versus de rest discutabel, en is geen rekening gehouden met lokale omstandigheden.  Dat lokale omstandigheden zelfs in een ‘very rural’  omgeving tot dramatische temperatuursstijgingen kunnen leiden laat ik graag  een volgende keer zien.

 

Het UHI- effect deel 4

In het eerste deel van de bijdragen over het UHI-effect,  de bijdrage van 7-11-2011, heb ik als uitgangspunt de door hetBEST-team gebruikte methode genomen.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’  en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural.  Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.

best9
Bron:  BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming  van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

In de hieraan voorafgaande bijdragen heb ik al inhoudelijk het een en ander over de conclusies van het BEST-team geschreven, en een aantal andere publicaties de revue laten passeren die over het UHI-effect op de meetreeksen een andere mening hebben.  Zie hiervoor de bijdragen over het UHI-effect deel 1 t/m 3.

Steve McIntyre heeft op 20-12-2011 aan de hand van door Richard Muller aangeleverde gegevens nog eens naar de ‘very rural’ meetstations van BEST gekeken.  Hij licht er enkele ‘very rural’  meetstations uit en ziet dan bijzondere zaken, namelijk in Peru en Thailand, deels toeval omdat zijn zoon momenteel in Thailand is, deels ingegeven door eerdere publicatie van Hansen over de meetstations in Peru.  Het BEST-team heeft slechts 2 stations in Peru geclassificeerd als ‘very rural’, namelijk  Huanuco en Quince Mil.

huanuco1
Huanuco meetstation,  bron  Google Earth

Huanuco , officieel meetstation van WMO, heeft echter een bevolking van 147.959 inwoners, vergelijkbaar met de stad Haarlem.  Het meetstation staat direct naast de start- en landingsbaan van het plaatselijke vliegveld. Waarom Huanuco  door Het BEST-team geclassificeerd wordt als ‘zeer landelijk’  is dan ook onbegrijpelijk.

Quince Mil , het tweede ‘very rural’  meetstation van het BEST-team levert slechts temperatuurdata tussen 1961 en 1980, daarvoor en daarna niets. Het inwonertal in 2007 was minder dan 1000, dus wat dat betreft  zou dit plaatsje nog als ‘very rural’  door kunnen gaan , maar vanwege het ontbreken van een langdurige meetreeks is het station waardeloos.

bangkok pilot1Bron: Google Earth

De BEST-indeling in Thailand ziet er ook erg raar uit. “Bangkok Pilot” wordt weergegeven als “zeer landelijk”, maar is in feite de naam van het meetstation op het kunstmatige eiland in de zeebaai van Bangkok, dat is aangelegd voor de havenloodsboten ( pilots). Dat is nu niet een standaard voorbeeld van een ‘very rural’  meetstation.

bangkok pilot
Bangkok Pilot  meetstation.  Bron:  Google Earth

Verder zijn er nog vijf “zeer landelijke” Thaise meetstations door BEST onderscheiden: Phetchaburi (46.501 inwoners), Ko Lanta (20.000 inwoners), Khao Lak (35.337 inwoners), Ko Samui (50.000 inwoners) en Mae Hong Son, in het noordwesten bergland nabij de grens met Myanmar. De eerstgenoemde plaatsen zijn vanwege hun inwonertal natuurlijk niet zeer landelijk.

mae hong son
Mae Hong Son airport . Bron Google Earth

Mae Hong Son is een plaats met ongeveer 17.00 inwoners en is op grond hiervan zeker niet zeer landelijk te noemen. Bovendien ligt het meetstation pal naast het vliegveld van de stad, een locatie die ook al niet vrij is van allerlei UHI –effecten vanwege de grote oppervlakten asfalt en de nabijheid van vliegtuigmotoren.

mae hong son1
Parkeerplaats in de nabijheid van meetpunt Mae Hong Son. Bron:  Google Earth

 

Kortom: even een blik achter de schermen van de ‘very rural’  databank toont dat niet alle meetstations echt zeer landelijk zijn. Ik ben benieuwd of er nog meer konijnen uit de hoed komen.

 

UHI deel 5: het geval Barrow

barrow1
Bron:  Google Earth

In de vorige bijdrage stonden we even stil bij de vraag of het door het BEST-team gehanteerde onderscheid tussen very rural en not very rural  nederzettingen wel gebaseerd is op juiste gegevens over de stedelijkheid van nederzettingen. Uit de voorbeelden van very rural nederzettingen in Peru en Thailand  is duidelijk geworden dat althans een deel van de ‘very rural’  meetpunten in werkelijkheid very urban zijn. In deze bijdrage staat de vraag centraal of het uitgangspunt van een dergelijk onderscheid tussen very rural en not very rural nederzettingen een hanteerbaar criterium is. Met andere woorden: is het aannemelijk dat het UHI-effect toeneemt met de omvang of stedelijkheid van de nederzetting  Op het eerste gezicht lijkt het evident: steden zijn warmer dan het omliggende platteland en grote steden zijn warmer dan kleine, veel onderzoeken hebben dat aangetoond. Toch is  voorzichtigheid hier geboden, zo toont een onderzoek uit 2003 aan.

Hinkel et al publiceerden toen bijzonder interessante resultaten van hun onderzoek naar  UHI in het plaatsje Barrow in Alaska.  Barrow is de meest noordelijk gelegen nederzetting van de USA. Woonden er in Barrow in 1900 nog maar 300 mensen, in 2000 waren dat er meer dan 4600. Nog niet erg stedelijk kan men stellen als men naar het aantal inwoners kijkt.  Maar desondanks vertoont Barrow een fors UHI-effect.

De afgelopen decennia constateerde men oplopende gemiddelde wintertemperaturen in het centrum , en een steeds vroeger smelten van de sneeuw  . Dat kan vergaande consequenties hebben voor de gemeenschap, vanwege het feit dat de nederzetting gebouwd is op permafrost die plaatselijk tot 300m dik is.  Een toename van de opdooilaag in de zomer kan instabiliteit van de ondergrond veroorzaken met alle gevolgen van dien voor leidingen en gebouwen.

In 2001 en 2002 heeft het onderzoeksteam temperatuurmetingen gedaan in Barrow en het omliggende gebied van ongeveer 150 km2 groot. Tussen december 2001 en maart 2002 constateerde men dat de nederzetting gemiddeld 2,2 °C warmer was dan de omgeving. Bij matige windsnelheden liep dat verschil op tot 3,2 °C, met een maximum van zelfs 6 °C.  Het dagelijkse temperatuurverschil bereikte zijn maximum veelal tussen de late avond en de vroege ochtend. De onderzoekers onderscheiden een drietal oorzaken van het UHI, die wij in soms andere bewoordingen al eerder tegenkwamen in de UHI-cyclus:

1)  antropogene warmte in de vorm van chemische energie (brandstoffen)
2) afname van de vegetatie en toename van de bebouwde omgeving
3)  verandering van geometrie en morfologie van de bebouwde omgeving

barrow3
Schoolbus in de winter. Bron: Vlad Iliescu

UHI in nederzettingen op hoge breedte zijn fundamenteel anders dan die op lagere breedten. In de eerste plaats varieert de zonnecyclus in een jaar sterk. Een deel van het jaar (winter) ontbreekt zonlicht en is het erg koud. Als gevolg daarvan ontbreekt dan de invloed van zonlicht op UHI. Ook de aanvoer van warmte  vanuit de omgeving (advectie) is dan gering als gevolg van het feit dat open water bevroren is:  vrijwel alle nederzettingen op hoge breedte liggen aan water. De Chukchi Sea heeft als het water ijsvrij is een grote invloed op zowel de temperatuur als de vochtigheid in Barrow. Begin oktober vriest de zee dicht, en dat blijft zo tot april-juni van het volgend jaar.

Als gevolg van de zeer lage wintertemperaturen is  het gebruik van chemische energie in de winter veel hoger dan in de zomer. Dat komt voor het grootste deel op conto van de verwarming  en verlichting van huizen en gebouwen met behulp van aardgas en de secundaire energiedrager  elektriciteit.  Atmosferische opwarming is in de winter dan ook vooral het gevolg van energieverliezen door gebouwen. In de zomer daalt het gebruik van fossiele energiedragers en elektriciteit zeer sterk: het is dan vrijwel constant licht, en de temperaturen zijn dan niet zodanig hoog dat het gebruik van airco  noodzakelijk is, zoals op lagere breedten.
barrow5
Ruime bebouwing, laagbouw, op palen. Bron: Wikipedia

Arctische nederzettingen verschillen ook van andere vanwege de beperkte omvang van de bevolking en bebouwde omgeving, en het ontbreken van hoge gebouwen. Op bovenstaande foto is de typische houten laagbouw te zien die in Barrow domineert. Alleen in het centrum zijn enkele gebouwen te vinden met 2 verdiepingen. Schaduwvorming en ‘urban canyon effects’  zijn dan ook nagenoeg afwezig:  de morfologie van Barrow zal dan ook van ondergeschikt belang zijn voor UHI vergeleken met de opwarming als gevolg van antropogene opwarming. Zoals op de foto’s te zien is staan alle gebouwen op palen, zo’n 1 a 2 m boven de grond. Dit voorkomt warmteoverdracht naar de bevroren grond.

barrow4
BARC: Barrow Arctic Research Centre

Barrow heeft een tweetal weerstations, namelijk een meetpunt van  National Weather Service  in de nederzetting, en een meetpunt van Climate Monitoring and Diagnostics Laboratory op het BARC, zo’n 7,5 km ten NO van Barrow in de toendra gelegen. Recent onderzoek toont dat sinds 1940 er sprake is van een toenemend vroeger smelten van de sneeuw als gevolg van oplopende temperaturen. In de grafiek hieronder is MAAT de gemiddelde jaartemperatuur, de grijze lijn de datum waarop de sneeuw in Barrow gesmolten is.

barrow2
Het onderzoek van Hinkel et al is bedoeld om de omvang en ruimtelijk patroon van UHI in Barrow te meten.  De plaats is niet over de weg bereikbaar en ook niet aangesloten op een energienetwerk. Dat betekent dat alle energie die gebruikt wordt  (verwarming en elektriciteitsopwekking) van lokale oorsprong is dan wel aangevoerd wordt per schip.

De belangrijkste bron van energie is aardgas uit methaan-hydraatvelden in de directe omgeving van Barrow.  Een ouder veld lichtten Z van barrow, vanaf 1980 komt het meeste gas uit het East Barrow Field.

barrow6
Bron: Oil & Natural Gas Technology 2008

Ongeveer de helft van het gas wordt omgezet in elektriciteit. Stoffen zoals dieselolie en kerosine worden in augustus per schip aangevoerd, als de zee ijsvrij is. Vanwege deze specifieke omstandigheden is nauwkeurig het gebruik van fossiele energiedragers in Barrow te volgen.

In juni 2001 hebben de onderzoekers 54  temperatuurmeters geplaatst . De helft werd in de nederzetting zelf geplaatst. Dit zijn de urbane locaties. De rest werd geplaatst in een gebied van ongeveer 150 km2  rond Barrow, dit zijn de rurale locaties. Op de figuur hieronder is de locatie van de meetstations te zien. De vierkanten zijn de meetstations waar de laagste temperaturen zijn gemeten. De zes warmste meetstations bevinden zich in het centrum van Barrow, direct ten O van de ‘6’.

barrow7

De tabel hieronder toont de temperatuurverschillen tussen de rurale en urbane meetpunten per maand. De getallen in de eerste kolom zijn de maandgemiddelden over de periode 1971-2000 (NCDC/NOAA).

barrow8
Over het algemeen gold dat het UHI-effect toenam met dalende temperaturen. Dat is goed te zien op de grafiek hieronder, die de zogenaamde UHIM (laatste kolom bovenstaande tabel) afzet tegen de tijd dat er gemeten is van 1 september 2001 tot 1 juni 2002.

barrow9

Ook als je UHIM afzet tegen de gemiddelde dagelijkse rurale temperatuur is dat effect duidelijk te zien: hoe kouder des te groter het UHI-effect.

barrow10
In de grafiek is te zien dat de correlatie niet sterk is  ( r2 = 0,51 ), maar in elk geval sterker voor dagen met lagere windsnelheden dan op erg winderige dagen. Dat is logisch, als de windsnelheid toeneemt krijg je een sterkere menging van de onderste luchtlagen wat het UHI vermindert. In onderstaande figuur is de invloed van de wind op de UHIM goed te zien:

barrow11

Bij een lage windsnelheid van 4 km/u is de correlatiecoëfficiënt  tussen windsnelheid en  dagelijkse UHIM ongeveer 0,9. Die coëfficiënt neemt dan af tot 0,5 bij windsnelheden van 33 km/u en meer.

Om te bezien wat verschillende windsnelheden voor effect hebben op de ruimtelijke spreiding van de temperatuur wordt geïllustreerd in de drie kaartjes hieronder. De windsnelheid staat steeds rechtsboven het kaartje. (1 knot = ~1,9 km/u).  Let op: de legendaschaal is niet overal gelijk: het middelste kaartje met de laagste windsnelheid heeft stappen van 2 °C, beide andere van 1 °C. Op het onderste kaartje is  te zien dat grote windsnelheden het UHI als het ware ‘wegblazen’: de isotherm heeft dezelfde richting als de wind.

barrow12

Het onderstaande kaartje illustreert fraai het UHI-effect van Barrow. De gebruikte eenheid ADDF is accumulated degree-days of freezing. Daarbij worden de absolute waarden van de gemiddelde dagelijkse temperaturen (onder 0 °C) bij elkaar opgeteld.

barrow13

Aan het begin van deze bijdrage stelde ik dat het logisch lijkt dat de morfologie van Barrow van ondergeschikt belang zal zijn voor en dat opwarming als gevolg van antropogene opwarming waarschijnlijk de dominante factor in het UHI-effect in Barrow zal zijn. Dat die factor dominant is blijkt wel uit onderstaande grafiek.

barrow14
Verticaal is de UHIM weergegeven, horizontaal het aantal heating degree days. Heating degree days is een maat waarmee de vraag naar energie voor verwarming van een gebouw wordt weergegeven. De gegevens zijn afkomstig van National Weather Service/ NOAA. Voor details klikt u op de link. De correlatiecoëfficiënt is maar liefst 0,98.

Zoals we al gezien hebben is Barrow voor wat betreft het gebruik van fossiele brandstoffen een eiland als gevolg van de geïsoleerde ligging.  Vrijwel alle fossiele brandstoffen voor de opwekking van elektriciteit en verwarming komen van de lokale gasvelden. Het is daarom eenvoudig om het gebruik daarvan van dag tot dag te volgen.  Hinkel et al hebben dat gasverbruik in onderstaande grafiek afgezet tegen de UHIM: de correlatiecoëfficiënt van 0,99 spreekt boekdelen. Het UHI-effect van Barrow is  vrijwel volledig het gevolg van aardgasgebruik.

barrow15

Kunnen we het effect van het UHI op de temperatuur in Barrow in de tijd schatten? Daarvoor hebben we het aantal inwoners nodig en het UHI op jaarbasis. Eerst het inwoneraantal. Volgens het US Census Bureau is het verloop van het inwonertal in Barrow vanaf eind 19e eeuw als volgt:

Vanaf 1950 stijgt het inwonertal boven de 1000, en bereikt op 1 januari 2001 een inwonertal van ongeveer 4683. De stijging van het inwonertal, dat voorheen altijd tussen de 200 en de 400 lag, was het gevolg van de sociaal-economische transitie die in Barrow plaats vond.  Was Barrow voor 1950 een geïsoleerd dorp van native Americans met een locale economie gebaseerd op traditionele activiteiten zoals visserij en jacht, na 1950 wordt Barrow meer en meer onderdeel van een moderne economisch systeem gebaseerd op gas- en oliewinning. Het lijkt me daarom niet onredelijk omgelet op zowel de bevolkingsgroei als de sociaal-economische transitie, 1950 als startjaar van het UHI te nemen.

barrow19
Temperatuurreeks U-05 (urbane locatie) en U-15 (rurale locatie) voor 20-daagse periode in de (a) winter, (b) lente, en (c) zomer.
De UHIM in de gemeten periode van 1 december 2001 tot 1 april 2002 bedroeg gemiddeld 2,2 °C, voor de winterperiode 1 december 2001 tot 1 maart 2002 was het UHI 3,1 °C. Het UHI in de lente bedroeg 1,6 °C en de zomer van 2002 noteerde een UHIM van -1,4  °C. Die negatieve waarde is volgens de onderzoekers met name te danken aan de afkoelende mariene invloed gedurende de zomer , als de zee grotendeels ijsvrij is. De UHIM in de herfst is niet gegeven, de gemiddelde maandtemperaturen zijn dan wat hoger dan in de lente. Een schatting van de UHIM op jaarbasis in deze periode, gezien de gemeten seizoencijfers, van  1,1 °C lijkt niet onredelijk.

Wanneer we de gehomogeniseerde temperatuurreeksen van GISS betreffende Barrow  in een grafiek plotten, en bovendien een voor de UHIM van 1,1 °C gecorrigeerde temperatuurreeks in dezelfde grafiek weergeven, dan komt dat er als volgt uit te zien:

barrow18

Bedenk dat de gehomogeniseerde temperatuurreeks (blauwe lijn) niet is gecorrigeerd voor UHI: Barrow wordt door GISS niet als urbane nederzetting gekwalificeerd.  Voor beide grafieken is ook een lineaire trendlijn getekend. De trendlijn van de gehomogeniseerde GISS-reeks vertoont een stijging sinds 1950 van 2,1 °C.  De trendlijn van de voor het UHI gecorrigeerde temperatuurreeks vertoont een stijging van nog geen 0,9 °C. Een opmerkelijk groot verschil!

Naar mijn mening is het door Hinkel et al aangetoonde grote UHI-effect in Barrow geen op zichzelf staande situatie. In Alaska, maar ook elders in de Arctische regio hebben vrijwel alle nederzettingen vergelijkbare kenmerken: ontbrekend zonlicht in de winter, verspreide laagbouw, relatief weinig inwoners en extreme wintertemperaturen. Een deel van die nederzettingen is tevens locatie in de meetnetten die BEST, GISS, Hadcrut en NOAA gebruiken. Met de gebruikelijke methoden om temperatuurreeksen te corrigeren voor het UHI-effect vallen de meeste van deze nederzettingen buiten de correctie omdat ze niet voldoen aan de gebruikelijke criteria. Zelfs in de verdeling very rural-not very rural die BEST hanteert vallen waarschijnlijk veel Arctische nederzettingen in Alaska, Canada en Rusland  in de categorie very rural.

Correctie voor UHI  van de meetreeksen van  Arctische meetstations zou , in navolging van Barrow, wel eens in de afgelopen decennia veel lagere temperatuurstijgingen in de Arctische regio kunnen laten zien  dan tot nu toe werd aangenomen.

 

UHI deel 6:  effect heeft groter ruimtelijk  effect dan tot nu toe gedacht.

In een studie naar  de lengte van het groeiseizoen in het NO van de USA hebben onderzoekers  een belangrijke ontdekking gedaan. Steden hebben een opwarmend effect op de omliggende regio tot een afstand van 32 km van het stadscentrum. Tot nu toe werd aangenomen dat die invloed op de omgeving niet verder reikte dan zo’n 15 km. (Zhang et al, 2004).

Andrew Elmore et al   maakten gebruik van recente satellietdata met een hoge resolutie om de bladontwikkeling bij loofbomen te onderzoeken. Daarbij keken ze naar een drietal aspecten van bladontwikkeling, namelijk de bladaanzet in de lente, de ‘summer greendown’  en de bladval in de herfst.

elmore1elmore2
Bron: Elmore et al

Het groeiseizoen is op continentale schaal goed te beschrijven aan de hand van klimatologische variabelen zoals breedte- en hoogteligging . Voor de ruimtelijke schaal waarop dit onderzoek is toegepast, een gebied van ~130 bij ~190 km, was een fijne dataresolutie noodzakelijk omdat de ruimtelijke patronen complexer zijn en een groter aantal processen omvatten.

De resultaten zijn deels niet verrassend en deels wel. Niet verrassend was dat er een drietal ruimtelijke variabelen van invloed bleek te zijn op de lengte van het groeiseizoen, namelijk hoogteligging, verstedelijking en nabijheid van grote watereenheden. Voor mij was verrassend dat de invloed van verstedelijking op het groeiseizoen ruimtelijk veel verder blijkt te reiken dan tot nu toe is aangenomen. Ook verrassend was dat die stedelijke invloed vooral effect heeft op het moment van bladval in de herfst en minder op de bladaanzet in de lente. Dat laatste kan te maken hebben met een zich wijzigende soortensamenstelling en irrigatie.


Bron:  Elmore et al

Zhang et al (2004) publiceerden in 2004 een onderzoek naar het effect van UHI op het groeiseizoen van planten. Dat deden ze aan de hand van MODIS-data (Moderate Resolution Imaging Spectroradiometer) voor verstedelijkte gebieden > 10 km2. in het oostelijk deel van de USA. Hun onderzoek wees uit dat de invloed van UHI-effect op de omgeving exponentieel afneemt met de afstand, en dat de invloed van steden op de temperatuur in de omgeving tot 10 km afstand van de rand van de stad substantieel is.

Als de invloed van steden echter veel verder reikt dan tot nu toe werd aangenomen, zoals het onderzoek van Elmore et al uitwijst,  dan betekent dit dat stedelijke opwarming ruimtelijk bezien veel grotere effecten heeft dan tot nu toe werd aangenomen. Peri-urbane meetstations die tot nu toe werden geclassificeerd als ruraal zijn dan in werkelijkheid urbane stations.

 

UHI deel 7: Roy Spencer toont sterk UHI-effect aan
Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in Huntsville, heeft een interessant onderzoek gedaan naar het UHI-effect, het effect dat stedelijke gebieden leiden tot hogere luchttemperaturen. Op deze site is over het UHI-effect al meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en dan “UHI”. Wat heeft Spencer gedaan? Hij heeft de Integrated Surface Database (ISD) van
The National Climatic Data Center gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan 20.000 meetstations. Eerst heeft Spencer die stations op het Noordelijk halfrond geselecteerd die een ononderbroken temperatuurreeks hebben vanaf minimaal 1973 t/m 2011. Daarvan heeft Spencer de unadjusted International Surface Hourly (ISH) gebruikt, en wel op 4 momenten per etmaal.

popdens
Bron: SEDAC

Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is. Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks, waarschijnlijk als gevolg van homogenisaties.

spenc1

Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5×5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.

spenc2
spenc3

De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:

Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.

Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.

Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data. These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”

spenc4
UHI deel 8 : Delhi

Een recent onderzoek van Javed Mallick en Atiqur Rahman  toont een sterke correlatie tussen verstedelijking en oppervlaktetemperatuur in Delhi (India).  Het is bekend dat de verwijdering van natuurlijke vegetatie en de vervanging daarvan door antropogene materialen als asfalt, steen, beton en dergelijke en aanwezigheid van warmtebronnen een temperatuurverhogende werking hebben. Omdat dit effect het grootst is in urbane gebieden wordt dit het Urban Heat Island-effect genoemd. Zoals bekend is er al een aantal jaren een levendige discussie hoe groot een dergelijk effect is en welke invloed het UHI heeft op de meetgegevens van meetstations. Zie hiervoor het hoofdstuk De Feiten en dan UHI.

aster1

De onderzoekers hebben met hun publicatie bijgedragen aan de kennis over de relatie tussen  UHI en urbanisatiegraad. Ze maakten gebruik van datasets van de satelliet ASTER die de oppervlaktetemperatuur van Delhi  weergeven, alsmede gegevens van de bevolkingsdichtheid in Delhi  (Census of India 2001). De satelliet ASTER meet  onder andere infrarood met een resolutie tot 15 m. Gebruikt zijn de nachtelijke gegevens van 7 oktober 2001. Op het kaartje hieronder ziet men de ruimtelijke variatie in oppervlaktetemperatuur  in genoemde nacht.

delhi2
Oppervlaktetemperatuur ’s nachts 7 oktober 2001

Zoals te zien is is de ruimtelijke variatie in nachtelijke temperatuur erg groot, , en varieren van 23,9  °C tot 40 °C.  Op onderstaande kaart is de bevolkingsdichtheid van Delhi weergegeven. Duidelijk is te zien dat de gebieden met de hoogste temperaturen ook de gebieden zijn met de grootste bevolkingsdichtheid.

delhi1
Bevolkingsdichtheid Delhi 2001

Op het derde kaartje zijn beide gegevens in een kaart weergegeven:

delhi3
Oppervlaktetemperatuur en bevolkingsdichtheid gecombineerd

Maar nog sprekender is de volgende grafiek, die aan duidelijkheid niets te wensen over laat:

delhi4
Correlatie temperatuur en bevolkingsdichtheid

De waarde van de logaritmische regressie (R2) is 0,748, wat wijst op een sterke correlatie tussen bevolkingsdichtheid en temperatuur.

De grote ruimtelijke variabiliteit van de temperatuur in Delhi is opvallend, en correspondeert niet met schattingen van het UHI door onder andere GISS-NASA, die op veel lagere waarden uitkomen. Natuurlijk zijn niet alle urbane gebieden vergelijkbaar met het urbane gebied Delhi. Omvang van steden en andere ruimtelijke factoren  zullen vaak afwijken van die in India. Desondanks lijkt de uitkomst van dit onderzoek  me een extra stimulans om het UHI en de problematiek van meetstationlocaties nog een keer serieus onder de loep te nemen.

Noor van Andel

noor

 

 

De veel te jong overleden fysicus Noor van Andel had interessante ideeën over de werking van het klimaat. Hij benutte de laatste jaren van zijn leven de formidabele kennis die hij met name over straling bezat om zijn visie te ventileren, zelfs tot bij het KNMI aan toe. Onderstaande tekst is van zijn hand.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?

noor1
Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

noor2

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .

Werkelijke oorzaken van temperatuurveranderingen

De vraag is: als het niet de CO2-stijging is, wat heeft dan wel de temperatuurveranderingen veroorzaakt?

1. De belangrijkste korte-termijninvloed is de ENSO, of de El Niño Southern Oscillation. Dat is een periodieke onderbreking van de opwelling van koud oceaanwater voor de kust van Peru en Equador, waardoor het gehele klimaat ter plekke verandert. De autochtone bevolking ziet dat aankomen; als ze de Pleyadensterren niet meer gescheiden ziet, is de lucht vochtiger, de oceaan warmer. Dan is het El Niño, Spaans voor het kerstkind, en je hoeft niet te wachten met aardappelpoten. De vissers hebben het dan moeilijk, de zee is minder voedselrijk. De afkoeling tussen 1940 en 1976 vond plaats in een tijd van veel perioden met veel koude opwelling, de periode van 1976 tot nu is er een met weinig koude opwelling, dus veel El Niño. De koude winter van 2010-2011 is het gevolg van een heel sterke koude opwelling, La Niña, die in mei 2010 begon en die inmiddels de hele tropische Stille Zuidzee tot aan Australië een paar graden heeft afgekoeld en heeft gezorgd voor veel en vroege sneeuw in Europa.

2. Hoewel de door het IPCC aangehaalde auteurs (zoals professor Michael Mann, University of Virginia, met zijn ‘hockeystick’) erg veel moeite hebben gedaan om dit te ontkennen, is de ‘kleine ijstijd’, ongeveer de zeventiende eeuw, veel kouder geweest dan nu. De vele ijsgezichten in de Nederlandse schilderkunst getuigen daarvan, de Theems vroor regelmatig tot in Londen dicht, wat aanleiding gaf tot ‘ice fairs’ op het ijs in de stad. In diezelfde periode, na de uitvinding van de telescoop door Lippersheij in Middelburg, is men het aantal zonnevlekken gaan bijhouden. Het blijkt dat er gedurende de gehele kleine ijstijd nauwelijks zonnevlekken zichtbaar waren, het ‘Maunder minimum’. Ook in het begin van de negentiende eeuw is er een korte periode geweest met weinig zonnevlekken. Het was toen erg koud. Napoleons leger vroor vast op de Berezina, en na een zware vulkaanuitbarsting op Sumbawa in Nederlands Indië kwam er 1816, het ‘jaar zonder zomer’, waarin de graanoogsten mislukten en er 100.000 hongerdoden in Europa vielen. De Middeleeuwen, rond het jaar 1000, waren warm, de Vikingen zaaiden toen graan op Groenland en men plantte wijnstokken in Schotland. De Romeinse tijd was warm en een tijd van grote voorspoed. De tijd van de volksverhuizingen was weer koud, hongerige stammen plunderden Europa en vestigden zich in het Zuiden, de Vandalen in (West) Andalusië.

Deze grote klimaatschommelingen hebben allemaal niets met CO2 te maken, des te meer met wisselingen in de magnetische activiteit van de zon. Wel een ingewikkeld verhaal: Een actieve zon heeft niet alleen meer zonnevlekken, maar ook een sterker magnetisch veld, dat dan de harde kosmische straling uit ons Melkwegstelsel meer afschermt. Die straling is zo energetisch, dat hij tot op het aardoppervlak doordringt en op zijn pad duizenden luchtmoleculen ioniseert, die dan wolkcondensatiekiemen veroorzaken, dus meer laaghangende bewolking, wittere wolken met meer en kleinere waterdruppeltjes. Daardoor wordt de aarde witter, het zonlicht kaatst meer terug, en het wordt kouder bij een inactieve zon. Ook dit effect is sinds 1960 opgemerkt en sindsdien uitvoerig gemeten. CERN in Genève, waar men beschikt over die harde straling uit een eigen deeltjesversneller, heeft er een opstelling voor gebouwd die onlangs is aangelopen en het effect ook heeft geconstateerd. De zon is de laatste tijd heel actief geweest, sommigen verwachten dat dit nu anders wordt en dat we dus een koude periode in het vooruitzicht hebben.

noor3

The coincidence of tropical Pacific SST and global average temperature. Red: SST anomalies Pacific 20ºN-20ºS; blue: global temperature anomaly

Effect van wisselende zonne-activiteit is aangetoond

Zoals te verwachten, hebben door het IPCC aangehaalde auteurs zich heftig verzet tegen deze samenhang tussen zonne-activiteit en klimaat, onder meer door erop te wijzen dat de zonnestraling zelf heel weinig varieert met de 11-jarige cyclus van de zonneactiviteit. Maar het gaat ook niet om de hoeveelheid zonlicht, het gaat om de de hoeveelheid wolken. En juist de laaghangende wolken nemen toe als de zon wat minder actief is en dan de kosmische straling wat minder afschermt. Het wordt dan kouder, omdat die wolken het warmende zonlicht weerkaatsen. Op elke tijdschaal is dit effect aangetoond: van uren tot dagen tot jaren tot eeuwen tot duizenden eeuwen tot miljoenen jaren. Dat kan, omdat er tijdens een stille zon meer van de isotoop 10Be wordt gevormd via een kernreactie in de atmosfeer. Die isotoop heeft een lange halfwaardetijd en kan goed worden aangetoond, bijvoorbeeld in ijskernen die op Groenland en in Antarctica worden geboord. Met de verhouding van 16O/18O kun je de temperatuur meten, met 10Be de galactische kosmische straling. Een van de meest indrukwekkende samenhangen is die tussen de graanprijzen en de hoeveelheid 10Be, zoals het diagram betreffende de zeventiende eeuw illustreert.

noor4

De ononderbroken lijn in de figuur is de 10Be-spiegel in het sediment uit die tijd. Als de zon minder actief is, is er meer harde kosmische straling, dus ook meer 10Be. Het is dan kouder, de graanoogst is geringer en de prijzen stijgen. De witte en zwarte ruiten zijn driejaars-gemiddelde graanprijzen, de witte en zwarte driehoeken zijn de momenten van minimum en maximum graanprijs. De getoonde periode is bekend als ‘kleine ijstijd’. Een kouder klimaat heeft echt schadelijke gevolgen. Een warmer klimaat brengt welvaart.

noor5

 

Bij een tropische donderbui dringt de ‘diepe’ convectie tot in de stratosfeer door

Ontkrachting van andere alarmerende voorspellingen

Tot slot nog enkele vaststellingen die alarmerende berichten ontkrachten die het IPCC graag verspreidt en die de media graag overnemen:

• Er is geen enkele aanwijzing dat de zeespiegel sneller stijgt dan in voorbijgegane eeuwen.
• Er is geen enkele aanwijzing dat het aantal extreme weerstoestanden, zoals orkanen, droogten, overstromingen, toeneemt.
• Er is geen aanwijzing dat het afsmelten van gletschers versnelt. In de warme Middeleeuwen waren ze veel korter dan nu.
• Er is geen enkele aanwijzing dat meer CO2 schadelijk is; integendeel, planten groeien sterker en hebben minder last van watertekort als er meer CO2 is.
• Er is geen aanwijzing dat het bleken van koralen versnelt door opwarming.
• Er is geen aanwijzing dat stijging van de zuurgraad van de zee nadelige invloed heeft op het leven daar.
• Er is geen enkele aanwijzing voor een achteruitgang van de voedselproductie door ‘klimaatverandering’.
• Er is geen enkele aanwijzing dat menselijk gezondheid in gevaar gekomen is als gevolg van een toegenomen concentratie van CO2 in de lucht.

De latente wamtestroomberekening van Noor van Andel

In een paper  komt fysicus Dr. Noor van Andel tot de slotsom dat aanzienlijke latente warmtestromen in de troposfeer ervoor zorgen dat de zogenaamde CO2-sensitivity (verdubbeling van CO2-gehalte) niet groter is dan zo’n 0,5 K (0,5°C).  Indien alle omstandigheden gelijk blijven, dan veroorzaakt een verdubbeling van het CO2-gehalte in theorie een toename van de temperatuur van 1,08 K. In werkelijkheid treden er echter een aantal neveneffecten op , waardoor de werkelijke sensitivity anders is dan de theoretisch-fysisch berekende waarde.

In het laatste rapport van het IPCC (2007) wordt uitgegaan van een totale positieve feedback van  1.5 W/m2 K optreedt als gevolg van die 1.08 K opwarming. In onderstaande grafiek uit een studie van Soden en Held  (Soden & Held, 2005, An Assessment of Climate Feedbacks in Coupled Ocean–Atmosphere Models, Journal of Climate, volume 19)  zijn de feedbacks te zien die door het IPCC worden onderscheiden: toename van de waterdamp, toename van wolken, veranderde atmosfeergradiënt en albedoverlaging.

soldenheld1
In de figuur is te zien dat het IPCC alleen de veranderende atmosfeergradiënt als negatieve feedback ziet, de andere veranderingen zijn positief. Over all gaat het IPCC uit van een positieve feedback van 1.5 W/m2 K.

Van Andel stelt dat het IPCC daarmee een belangrijke feedback over het hoofd ziet , namelijk de latente warmtestroom vanaf het oceaanoppervlak.  Hier komt de praktische ervaring van van Andel in de glastuinbouw met zijn bedrijf Fiwihex goed van pas. Opwarming van de lucht in een kas door de zon is niet zozeer het gevolg van de ondoorlatendheid voor IR van glas, maar door het verhinderen van convectie, opstijgende warme lucht. Dat effect is heel sterk als de bodem nat is. Tuinders reguleren de temperatuur in de kas door de dakramen open te zetten. In het hoofdstuk over de stralingsbalans zagen we al dat vanwege het broeikaseffect de oppervlaktetemperatuur op aarde met ongeveer 33° C toeneemt, maar door convectie met ruim 60° C afneemt. De term “broeikaseffect”  is dus erg ongelukkig gekozen!

Van Andel tracht met behulp van diverse  onderzoeken de grootte van de latente warmtestroom te  duiden.  Zo zijn er recente metingen door NOAA   van de SST en latente warmtestroom, die een flux te zien geven van 0 W/m2 K boven koud oceaanwater tot 8 W/m2 K boven warm oceaanwater.

noaa1
noaa2

 

Ook het ERBE project levert waardevolle meetgegevens. Lindzen  (  On the determination of climate feedbacks from ERBE data, Richard S. Lindzen and Yong-Sang Choi, Program in Atmospheres, Oceans, and Climate, Massachusetts Institute of Technology)  vergeleek die meetresultaten met de voorspellingen van 11 door het IPCC gehanteerde klimaatmodellen. Verrassend (of eigenlijk: niet verrassend) is dat ERBE een toename van de warmtestroom naar de ruimte meet van 5 W/m2 K, terwijl alle klimaatmodellen een afname van die warmtestroom voorspellen van 0,5  tot 3 W/m2 K (gemiddeld 1.5 W/m2 K)!

erbe

Omdat in de door ERBE gemeten warmtestroom de latente warmtestroom niet te onderscheiden is ( deze bestaat uit IR én gereflecteerd zonlicht)  kunnen  we volgens van Andel met de  5 W/m2 K de climate sensitivity berekenen. Deze is  1.08 ( 1- 5/3,7 ) = 0,46 ° C. Dus een verdubbeling van het  CO2-gehalte levert slechts een temperatuurstijging op van een kleine 0,5° C , in plaats van de 5,7° C die de modellen maximaal voorspellen.

Bovenstaande bepaling door van Andel van de globale latente warmtestroom en de in het vorige hoofdstuk beschreven “thermostaathypothese” van Eschenbach zijn beide gebaseerd op het principe van grootschalig transport van latente warmte van het aardoppervlak naar de bovenzijde van de troposfeer. Op die hoogte is de zogenaamde optische dichtheid dermate klein dat warmte daar vrijwel ongehinderd naar de ruimte kan uitstralen.

Waar van Andel zijn berekeningen baseert op meetgegevens (meten is weten)  is de thermostaathypothese van Eschenbach een hypothese met een interessant maar speculatief karakter.  Beide zienswijzen hoeven echter niet strijdig te zijn. Ook van Andel spreekt in zijn paper van een “tropische thermostaat”.  Mocht de thermostaathypothese reëel zijn, dan betekent dat alleen dat de opwarming die van Andel berekent op basis van 4x CO2  nog lager zal uitvallen dan 1° C.


Waterdamp in lagere stratosfeer beïnvloedt temperatuur aan aardoppervlak.

Een daling van 10 procent waterdamp zo’n 15 km boven het aardoppervlak heeft een grote invloed op de opwarming van de aarde, zeggen onderzoekers  in het tijdschrift Science van 28 januari j.l. (Solomon  e.a., Contributions of Stratospheric Water Vapor to Decadal Changes in the Rate of Global Warming, 2010 Science DOI: 10.1126/science.1182488).

solomon0

De bevindingen zouden kunnen helpen verklaren waarom de oppervlaktetemperatuur wereldwijd in de afgelopen tien jaar licht daalde en niet steeg, zoals gebeurde  in de jaren ‘80 en ‘90.  Waarnemingen van satellieten en ballonnen laten zien dat de waterdamp in de onderste  deel van de stratosfeer niet constant is , maar gestegen is in de jaren ’80 en ’90 en gedaald na 2000. De auteurs van het artikel tonen aan dat deze veranderingen zich juist in een smalle strook van ongeveer 2 km dik onderin de stratosfeer plaatsvinden,  waar het waterdampgehalte de grootste effecten op het klimaat heeft.

solomon1

Sinds 2000 is de hoeveelheid waterdamp in de stratosfeer gedaald met ongeveer 10 procent. De oorzaak voor de recente daling van het waterdampgehalte is volgens de onderzoekers onbekend. De studie van Solomon c.s. gebruikte berekeningen en modellen om aan te tonen dat deze waterdampafname voor een 25% minder snelle opwarming heeft gezorgd de afgelopen 10 jaar. De toename van de waterdamp in genoemde laag heeft volgens de auteurs in de jaren ’90 een temperatuurverhogend effect gehad van 30%.

solomon3

Een van de mogelijke oorzaken zou oxidatie van CH4 kunnen zijn, maar  dat komt vooral in het bovenste deel van de stratosfeer voor, terwijl de waterdampafname met name onderin de stratosfeer plaatsvindt. Een andere mogelijke verklaring  is een uitwisseling van waterdamp met de hogere troposfeer in de tropen. De sterkste verandering in waterdamp komt voor  in de lagere stratosfeer in regio’s die beinvloed zijn door de El Niño Southern Oscillation. Dit lijkt te wijzen op convectie.

Wat dat laatste betreft: hier kan men toch een interessante link zien met de theorie die de Hongaar Ferenc Miskolczi vorig jaar publiceerde. Miskolczi stelt dat de doorzichtigheid van de atmosfeer voor langgolvige (infrarood) straling zich aanpast aan de toename van de broeikasgassen. Algemeen wordt aangenomen dat de doorzichtigheid van de atmosfeer afneemt bij toename van CO2. Miskolczi stelt dat er terugkoppelingsmechanismen in de atmosfeer zijn waardoor de doorzichtigheid voor infrarode straling gelijk blijft, en daardoor ook de temperatuur op aarde. Deze terugkoppeling bestaat hierin, dat  de atmosfeer juist zoveel waterdamp bevat dat de maximale hoeveelheid warmte (infraroodstraling) vanuit de atmosfeer afgegeven wordt aan de ruimte. Die waterdamp en  lage wolken absorberen de infraroodstraling vanaf de aarde en reguleren zo de uitstraling van warmte vanuit de atmosfeer naar de ruimte. Zie voor Miscolczi  het hoofdstuk Nieuwe Inzichten.

solomon4

In de wereld van de gevestigde klimatologen is dat vooralsnog een stap te ver. De auteurs spreken liever van een effect waarbij de opwarming tijdelijk vermindert als gevolg van de waterdampafname. Het knikje in bovenstaande grafiek.

 


Temperatuurbepalende factoren aan het aardoppervlak

trenberth stralingsbalans
Bron: Trenberth

Leerlingen in de eindexamenklassen havo en vwo dienen (meestal als duo) een zogenaamd profielwerkstuk te produceren. Voor mijn vak aardrijkskunde zijn dat vaak zeer uiteenlopende onderzoeken, varierend van historisch-geografisch tot klimatologisch. En van die laatste categorie had ik er dit jaar (2011-2012)  een hele fraaie, geproduceerd door 2 zesdeklassers, Sjors Timmermans en Bob Jacobs. De proefjes die daarbij hoorden wil ik hier graag laten zien.

Bob en Sjors hebben getracht zich een beeld te vormen van de processen aan het aardoppervlak die zorgen dat de aarde zijn overtolige warmte kwijtraakt. Een belangrijk onderdeel van de energiebalans van de aarde zoals men weet, vandaar dat deze bijdrage begint met de bekende figuur van Trenberth. Het gaat dus om de processen die op de figuur zijn aangeduid met ’thermals’, ‘evapotranspiration’ en ‘surface radiation’. Dit zijn de processen die de aarde afkoelen.

Sjors en Bob hebben zich eerst de theorie achter deze weerbarstige materie eigen gemaakt en hebben toen, in navolging van wijlen Noor van Andel, een leuke proef gedaan om de theorie te staven. Dat laatste stuk van hun werkstuk, het practicum, geef ik hier onder integraal weer omdat het zo leuk gedaan is. Voor de liefhebbers van het theoretisch kader is hier een link naar het complete werkstuk.

————————————————————————————————————————-

Uitleg van ons practicum

Hoe willen we nou gaan bekijken wat nou de grootste invloed heeft op de temperatuur aan het aardoppervlak? Doctor van Andel had een jaar voor zijn dood een zeer interessant proefje gedaan: hij nam een paar Petri schaaltjes en probeerde daarmee een aantal verschillende omstandigheden en factoren die van invloed zouden kunnen zijn op de temperatuur, te creëren. Hij mat vervolgens de temperatuur op gedurende 16 uur. Daarna moest hij stoppen omdat zijn dochter het gazon wilde maaien. Dit inspireerde ons om een gelijkaardig practicum op te zetten. Wij wilden onze meting langer laten lopen zodat we beter de opwarming konden bestuderen, maar ook de afkoeling.

De effecten die wij wilden bestuderen zijn de effecten van waterdamp, convectie en van broeikasgassen. Helaas kunnen we variaties in de zon niet goed genoeg nabootsen om hier degelijke informatie uit te kunnen halen. Vooral het afkoelen van onze kommetjes is interessant: welke omgeving voert de warmte het snelst weg? Zou de waterdamp voor de meeste afkoeling zorgen, of misschien convectie? En wat is het verschil tussen geen en wel broeikasgassen?

Opstelling

Algemene opstelling
We hebben de proef uitgevoerd met een opstelling die bij beide delen van het practicum uit 4 glazen bakjes bestond. Deze bakjes stonden op een witte ondergrond en er lagen watjes in, zodat er geen absorptie van zonlicht zou plaatsvinden, die het practicumresultaat zou kunnen beïnvloeden. We hebben met thermokoppels de temperatuur opgemeten. De seintjes die de thermokoppels gaven gingen naar een ‘Ulab’, een datalogger die de temperatuur meet gedurende een vooraf ingestelde tijd. Deze gegevens konden we dan later door middel van het programma Coach verwerken tot grafieken.

Waterdamp

We hebben ervoor gekozen om de verschillen die waterdamp maken te simuleren met het natmaken van de watjes. De rest van het water hebben we na het natmaken van de watjes uit het bakje geschud, zodat in elk bakje evenveel water aanwezig was.

Broeikaseffect

Om het broeikaseffect te simuleren hebben we net als Dr. Van Andel voor PE en PMMA gekozen. Een uitleg over deze stoffen komt later. Voor de bakjes met PE als bedekking, hebben we een diepvrieszak (dit is LDPE) over twee houten latjes gespannen, zodat we de bakjes eronder konden schuiven en de afstand tussen het bakje en de diepvrieszak ongeveer 1 mm was. Dit hebben we gedaan zodat het water dat verdampt er ook uit kan. De afstand is zo klein, omdat we op deze manier de convectie wel zo veel mogelijk willen verhinderen. Voor de bakjes met PMMA als bedekking hebben we hetzelfde gedaan, maar dan met PMMA (plexiglas) op de houten latjes. Ook hebben we nog een los wit plankje gebruikt, waar we de open bakjes op hebben gezet. Dit was dezelfde soort ondergrond als bij de andere bakjes, waardoor er hierdoor geen ongelijkheid in temperatuur in zou moeten zitten.

Convectie

Om convectie te simuleren hebben we ook open bakjes getest. Aangezien de andere bakjes zo goed als gesloten waren, kon de wind daar niet bij om de warme of koude lucht weg te voeren. Bij open bakjes is dit wel het geval.

Verdeling van de bakjes

We hebben ervoor gekozen om de proef in 2 delen te doen, omdat de ‘U-lab’ maar 4 aansluitingen had, waardoor we niet alle 6 de verschillende bakjes tegelijk konden meten. Op deze manier hoopten we door 2 referentiebakjes aan te houden, indirect alsnog alle 6 de bakjes met elkaar te kunnen vergelijken. We hebben de bakjes als volgt verdeeld:

Proefje 1:

PE droog
PE nat
PMMA droog
PMMA nat

Proefje 2:

Geen bedekking droog
Geen bedekking nat
PMMA droog
PE droog

 

sjors
Dit zijn de opstellingen van beide practica. Links is een poging tot het uitvoeren van practicum 1 te zien. Tijdens dit proefpracticum regende het. Links in het plaatje is de witte plastic zak te zien waarin de Ulab zat, zodat hij niet nat werd. Rechts is het plaatje te zien van practicum 2


 PE

PE staat voor polyetheen. Dit is een kunststof. Er zijn 2 soorten PE, namelijk hogedichtheidpolyetheen (HDPE) dat bij lage druk en met behulp van een katalysator wordt gemaakt en lagedichtheidspolyetheen (LDPE) dat bij hoge druk wordt gemaakt. HDPE bestaat voornamelijk uit lineaire ketens, terwijl LDPE vooral uit zeer sterk vertakte ketens bestaat.

LDPE is een vrij zachte, maar taaie stof. Het is waterafstotend en een goede isolator. Een erg belangrijke eigenschap van LDPE is dat het langgolvige straling (bijvoorbeeld IR straling) doorlaat. Het is gevoelig voor UV straling, wat betekent dat het door UV straling wordt aangetast, het houdt het echter niet volledig tegen.

HDPE is, net zoals LDPE, een flexibele, maar taaie stof. Verder is HDPE thermisch belastbaar, UV- en weerbestendig, en isolerend. Het laat net zoals LDPE langgolvige straling door. Ook HDPE is gevoelig voor UV straling en wordt dus door UV straling aangetast.
Wij hebben voor ons practicum gekozen voor LDPE, omdat de factoren die voor ons practicum van belang zijn overeenkomen en deze vorm handiger was om te gebruiken.

PMMA

PMMA staat voor polymethylmethacrylaat. Het is echter beter bekend als perspex of plexiglas. PMMA laat UV straling door, maar blokkeert IR straling. Het is erg stootvast, warmte-isolerend, heeft een lage dichtheid en is goed bewerkbaar. Ook is het erg goed bestand tegen lichts- en weersinvloeden.

Verwachtingen met betrekking tot het practicum

Op basis van deze gegevens is het te verwachten dat, op het moment dat de zon op de bakjes schijnt, de bakjes die met PMMA worden afgedekt het warmst zullen zijn, omdat hier de IR straling in de bakjes wordt gehouden. Ook zullen de bakjes met PE warmer worden dan het open bakje, omdat hier de convectie wordt tegengehouden. Hierdoor kan het bakje zijn warmte minder goed kwijt.

Problemen

Helaas hebben we enige problemen gekend met het doen van het proefje. We hadden de thermokoppels goed geijkt, dachten we, maar na de proefjes hadden we opnieuw gekeken of de thermokoppels gelijke temperaturen aangaven. Drie thermokoppels gaven ongeveer dezelfde temperatuur aan, de andere was 1,5 graden kouder. Wij weten zeker dat bij het tweede proefje de afwijkende thermokoppel bij het open droge bakje zat. Bij het eerste proefje denken wij dat het bij het droge bakje met PE zat.


Metingen

Practicum 1

 

sjors1
Resultaten practicum 1

 


We hebben dit practicum uitgevoerd van 8 februari 2012 22:30 uur t/m 10 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, de tweede dag helder.

In deze grafiek zijn:
Roze de grafiek van PMMA nat
Groen de grafiek van PE nat
Rood de grafiek van PMMA droog
Blauw de grafiek van PE droog (werkelijke temperatuur was waarschijnlijk 1,5 graden warmer)

Practicum 2

 

sjors2
Resultaten practicum 2

 

We hebben dit practicum uitgevoerd van 23 februari 2012 22:30 uur t/m 25 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, op de tweede dag kwam de zon er af en toe door.

In deze grafiek zijn:
Roze de grafiek van Open nat
Groen de grafiek van PE droog
Blauw de grafiek van PMMA droog
Rood de grafiek van Open droog (werkelijke temperatuur was 1,5 graden warmer)

Analyse

Practicum 1
Kwaliteit van de meting

Onze grafiek lijkt vrij goed overeen te komen met wat het dichtstbijzijnde KNMI station (in Arcen) heeft gemeten (zie bijlage). De tweede middag komt in onze grafiek echter duidelijk boven de andere uit qua temperatuur, terwijl dit bij de werkelijke temperatuur niet is. Waarschijnlijk komt dit doordat op de tweede dag de zon veel harder scheen. De thermokoppels lijken dit heel duidelijk op te pikken. Op de tweede dag meten de thermokoppels temperaturen van boven de 0 graden, terwijl de temperatuur volgens de KNMI niet boven de 0 uit waren gekomen.
De roze grafiek lijkt een meetfout te tonen in het eerste anderhalve uur en tussen 42 en 44 uur. De temperatuur blijft nagenoeg gelijk, terwijl dit totaal onlogisch is op deze tijdstippen. Bovendien is de temperatuur waarop de grafiek constant is in beide gevallen even hoog.

Waterdamp

In de nacht (tussen 0 en 9 uur en tussen 22 en 33 uur in onze grafiek) zijn de grafieken van de schaaltjes met een natte bodem (de groene en paarse grafieken) warmer dan de droge bakjes. Water geeft namelijk moeilijker warmte af aan de lucht dan andere materialen. In de middag, wanneer de zon op de bakjes schijnt, zijn de bakjes met water erin juist kouder dan de droge bakjes. Dit effect is op de eerste dag minder groot dan op de tweede omdat de luchtvochtigheid hoger was (zie bijlage). Het water kan dan namelijk verdampen en zo veel warmte meenemen. Het verschil bij de tweede dag is, ongeveer 7 graden ’s middags en 1 graden ’s nachts voor de PMMA bakjes. Opgeteld is dit 8 graden verschil. Na correctie is het verschil bij de PE bakjes, ‘s middags ongeveer 3,5 graden. Als je daar de 4,5 graden verschil die er ’s nachts tussen de bakjes zit bij optelt, krijg je een verschil van 8 graden. Waterdamp maakt de bakjes dus zo’n 8 graden koeler overdag.

Broeikaseffect

Over de hele 48 uur lijkt er een constant verschil te zitten tussen de bakjes met PE en PMMA. Bij de natte bakjes (groen en paars) is dit verschil ongeveer 1 graden en bij de droge bakjes (rood en blauw), na correctie voor het foutje met de thermokoppels, 1,5 graden. PMMA behoort de warmste te zijn aangezien PMMA infraroodstraling tegenhoudt. Dit betekent dat de warmte niet weg zou kunnen gaan uit onze bakjes. Helaas is dit niet het geval bij de natte bakjes. Sterker nog, bij de natte bakjes is de PE constant warmer dan de PMMA, al is het maar 1 graden. Wel lijken de PE bakjes lichtelijk sneller af te koelen dan de PMMA bakjes, maar dit verschil is bijna niet merkbaar. Een mogelijke verklaring voor het feit dat er bij de natte bakjes zo’n klein verschil zit tussen PE en PMMA is dat de waterdamp zich op de PMMA en PE gecondenseerd kunnen hebben. Daar zouden ze infraroodstraling omgebogen kunnen hebben naar de buitenkanten van de bakjes, waar de infraroodstraling er wel door kan. Of de waterdamp zou dan weer met de warmte die erin zit naar onder gevallen kunnen hebben, waardoor de warmte niet uit het bakje gevoerd wordt. Een verklaring voor het feit dat het natte bakje met PE constant warmer was, hebben we niet.

Practicum 2

De kwaliteit van de meting

 

sjors3
Een vergelijking van onze resultaten met Arcens temperatuur
Bron: Buienradar & onze eigen metingen

 

Onze grafiek komt bijzonder goed overeen met de temperatuur die het KNMI in Arcen heeft gemeten op 10cm hoogte boven gras. Vooral als je bij het open bakje 1,5 graden optelt. Zie hieronder voor de vergelijking.

Convectie

In de nacht waar het zo koud is geworden daalt de temperatuur van het open, droge bakje (de rode grafiek) harder dan de andere bakjes. Na de 1,5 graden correctie wordt het open bakje 0,5 graden kouder dan de gesloten bakjes. Het open bakje stond namelijk in contact met de open lucht. Rond dat tijdsstip kwam er een koudefront aan. De gesloten bakjes houden dan hun warmte zo veel mogelijk vast, totdat de warmte via straling en geleiding weg gaat. Uiteraard stijgt de temperatuur dan ook harder wanneer er weer warme lucht voorbij komt. Dit verschil is kleiner bij het natte, open bakje (de roze grafiek). In de middag blijkt er een verschil te zitten van 0,5 graden tussen het open, droge bakje en het bakje met PE (het afgedichte bakje dat alles doorlaat). In die middag kan het open bakje dus makkelijker de warmte kwijtraken en blijft het iets koeler.

Waterdamp

Op de eerste dag lijkt het bakje met de waterdamp moeilijker op te warmen. De reden hiervoor moet zijn dat er in de middag waterdamp gecreëerd is die dan weggevoerd wordt. Deze waterdamp voert de warmte mee (latente warmte). In de nacht die hierop volgt is de grafiek met waterdamp merkwaardig veel warmer dan de andere grafieken. Dit komt waarschijnlijk wederom doordat water moeilijker z’n warmte kwijt kan dan lucht. Vervolgens stijgt de temperatuur minder hard dan in het droge open bakje. De warmte die er gecreëerd wordt, wordt door het verdampte water meegevoerd. Op de tweede middag is het natte bakje even warm als beide afgesloten bakjes. Dit kunnen we niet verklaren. Door de waterdamp zou dit bakje juist kouder moeten zijn omdat het makkelijker zijn warmte kwijt kan. In de nacht is er een temperatuurverschil, na correctie, van anderhalve graden, in de middag geen enkele. Over het algemeen is het verschil dat waterdamp maakt, dat het in de middagen zo’n halve graden warmer is en in een nacht waar het sterk afkoelt, anderhalve graden.

Broeikaseffect

De eerste (bewolkte) dag is het bakje met PE (de groene grafiek) ongeveer 0,5 graden warmer dan het bakje met PMMA. Dit kan komen doordat de wolken het zonlicht slechter doorlaten en er juist voor zorgen dat er meer IR straling van de aarde wordt geabsorbeerd en weer gedeeltelijk naar de aarde wordt uitgezonden. Omdat PMMA niet doorlaatbaar is voor IR straling, wordt deze bij het PMMA buiten het bakje gelaten. PE laat IR straling echter wel door, waardoor dit bakje wel door deze straling wordt opgewarmd. Als er na ongeveer 25 uur een gebied met koude lucht voorbijkomt, wordt dit verschil kleiner en lopen de grafieken zelfs bijna gelijk. In dit gedeelte koelt het bakje met PMMA iets minder snel doordat de infraroodstraling van het bakje zelf het bakje niet uit kan. Dit verschil is echter vrij klein. Nadat de kou voorbij is getrokken warmt het bakje met PE harder op dan het bakje met PMMA. Wij denken dat dit wederom komt doordat de wolken infraroodstraling terugkaatst die het PMMA niet doorlaat. In de middag, wanneer de zon er zo af en toe doorheen komt, wordt dit verschil weer kleiner en gaan de grafieken nagenoeg gelijk lopen. Als je inzoomt, valt te merken dat het bakje met PMMA steeds een heel klein beetje warmer is dan het bakje met PE. Dit verschil is echter vrij klein. We hadden verwacht en gezien in het vorige practicum dat dit verschil groter zou zijn. Dit kan komen doordat de zon er maar af en toe door is gekomen en niet zoals bij het eerste practicum de hele tijd op de bakjes heeft geschenen. Ook in de tweede nacht koelt het PMMA bakje minder hard af. Het verschil tussen PE en PMMA is dus ongeveer 0,5 graden.

Conclusie van het practicum

Uit onze practica blijkt dat er maar een miniem verschil zit tussen PMMA en PE en dus ook tussen wel en niet broeikasgassen in onze atmosfeer. Bij het eerste practicum is het verschil 1 graden, bij het tweede slechts 0,5 graden. We kunnen dus concluderen dat het effect van broeikasgassen op microschaal bijzonder klein is.
Het effect van convectie is niet veel groter. Alleen in de middag, bij warmte, lijkt er een verschil van 0,5 graden te zitten tussen wel en geen convectie.
Het effect van waterdamp is veel groter, maar niet eenduidig. Bij ons eerste proefje is het verschil zo’n 8 graden, bij het tweede 1 graden.
Waar broeikasgassen een relatief klein tot geen effect hebben, en waar convectie ook maar een miniem verschil geeft, heeft waterdamp een groot effect op de temperatuur van onze bakjes. Als er verdamping plaats kan vinden, zijn de bakjes veel kouder als de zon er op schijnt, in de nacht heeft het een licht opwarmend effect.
De verschillen die in ons practicum te zien zijn, zijn relatief kleine verschillen doordat de bakjes niet volledig waren afgesloten, er niet veel zonuren waren (hoewel 10 februari de zonnigste dag van de maand was), er een hoge luchtvochtigheid was en doordat onze bakjes waarschijnlijk warmte geleid hebben, zodat de warmte naar buiten kon ontsnappen.

Conclusie

We hebben nu van drie van de vier factoren door middel van een simpel proefje weten te bepalen welke het sterkste effect heeft op de temperatuur op aarde. In ons practicum, dus op micro schaal, is gebleken dat waterdamp een grotere invloed op de temperatuur heeft dan broeikasgassen. Waterdamp geeft immers een verschil van 1 tot 8 graden tussen dag en nacht en broeikasgassen en convectie veel minder. Dit komt goed overeen met de theorie die we hadden. Waterdamp is heel belangrijk voor de temperatuur op het aardoppervlak. Waterdamp neemt de warmte mee naar boven waar de warmte gemakkelijker kan uitstralen. Waterdamp is echter ook een broeikasgas en helpt dus onze aarde opwarmen. Het is zelfs het meest actieve broeikasgas. Maar waterdamp kan ook wolken creëren en zo de aarde óf verder opwarmen óf afkoelen. De mate waarin dit gebeurt ligt aan de zon. Als de zon een zwak magnetisch veld heeft, zullen er meer lage wolken gevormd worden die onze aarde afkoelen. Echter ook de vervuiling van de lucht heeft invloed hierop. Als er veel vervuiling is, zijn er namelijk veel condensatiekernen en kunnen zich veel wolken vormen. Ook bestaan deze wolken dan uit veel waterdruppeltjes, waardoor het albedo relatief groot is ten opzichte van wolken die ontstaan rond weinig waterdruppeltjes. Ook bestaan deze wolken langer.

Wij denken dat de fluctuaties in de zon het grootste effect heeft op de temperatuur aan het aardoppervlak. Niet zo zeer omdat de temperatuur zeer laag zou zijn als er geen zon was, maar meer omdat het de motor achter het hele mechanisme is in onze aardatmosfeer. Als de zon zwak is, zal ze zowel meer wolken vormen als minder straling op de aarde zelf laten vallen. Als er minder straling op de aarde valt, zal er ook minder straling naar de broeikasgassen gestuurd worden. Deze broeikasgassen kunnen dan weer minder straling terugkaatsen.
Waterdamp lijkt daarna het grootste effect te hebben. Waterdamp kwam ‘als beste uit de bus’ in onze test en heeft meerdere mechanismes waarin het betrokken is.

Broeikasgassen komen naar onze mening op de derde plaats terecht. Ze bleken in onze test vrij weinig effect te hebben. Onze theorie geeft aan dat ze een behoorlijk groot effect moeten hebben en de aarde aardig moeten opwarmen, mede doordat een hogere temperatuur veroorzaakt door broeikasgassen, meer waterdamp laat verdampen, waardoor er meer broeikasgassen in de lucht komen die de aarde nog verder kunnen opwarmen. Wel kan er zo weer meer warmte mee naar boven gevoerd worden die dan kan uitstralen in de ruimte.

Convectie heeft vooral effect op de lokale temperatuur. De warmte wordt door middel van convectie van de ene naar de andere plek vervoerd, maar koelt niet echt het gehele aardoppervlak af. In de tropen is het effect van convectie echter het grootst. Daar is het het warmst en wordt de meeste warmte afgevoerd.

 

Modellen

Klimaatmodellen zijn mathematische modellen die het klimaat simuleren. Ze zijn er in allerlei soorten en maten, van een simpel model dat de stralingsbalans simuleert en de aarde + atmosfeer als black box beschouwen, tot zeer complexe modellen die de atmosferische en oceanische processen koppelen, de zogenaamde gekoppelde atmosfeer-oceaan modellen, Global Climate Models genaamd. Het zijn deze laatste modellen die momenteel een belangrijke rol spelen in CO2 – temperatuurdiscussie en de voorspellingen van de gemiddelde wereldtemperatuur in onder andere de rapporten van het IPCC.

Een eenvoudig model: de stralingsbalans

Het eenvoudigste model is de stralingsbalans van de aarde, voorgesteld als:

(1 − a)Sπr2 = 4πr2εσT4

Links van het = teken staat de binnenkomende zonne-energie, rechts de door de aarde uitgezonden energie. S is de zogenaamde zonneconstante, de hoeveelheid binnenkomende energie per m2 aan de buitenzijde van de atmosfeer. Deze is ongeveer 1368 W/m2. Verder is a de albedo van de aarde en r de straal van de aarde. . De uitgaande energie rechts is gebaseerd op de wet van Stefan-Bolzmann. Hier is ε de emissiviteit , het vermogen van een object om geabsorbeerde energie uit te stralen, σ is de Stefan-Bolzmann constante en T de stralingstemperatuur van de aarde (inclusief de atmosfeer). Het is eenvoudig te zien dat een verandering van de albedo, van de zonneconstante of van de emissiviteit in de formule een verandering van T veroorzaken.

Een probleem is de emissiviteit van wolken. Niet alleen is slechts een deel van de aarde bedekt met wolken, maar die bedekking is niet constant in de tijd. Bovendien is de bovenkant van wolken aanzienlijk kouder dan de gemiddelde temperatuur van het aardoppervlak. Als men hier rekening mee houdt is de gemiddelde temperatuur van de aarde 12 °C. Overigens is de rol van wolken niet alleen in de stralingsbalans een probleem: ook in de geavanceerde GCM’s is dit een van de zwakke punten, waarover later meer.

De meest geavanceerde modellen: Global Climate Models

De meest geavanceerde klimaatmodellen zijn een koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest complexe modellen die gebruikt worden en zijn voortdurend “under construction”. Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn
HadAM3 van het Hadley Center in Groot Brittannië en GFDL CM2.X van NOAA Geophysical Fluid Dynamics Laboratory in de USA.

model

De meeste Global Climate Models maken gebruik van een zogenaamd raster, waarin de atmosfeer is opgedeeld in een aantal cellen waarbinnen een aantal parameters worden vastgesteld. Gebruikelijk zijn, luchtdruk, temperatuur, vochtigheid en windsnelheid.

De meeste Global Climate Models hanteren een raster dat tussen 1° en 5° breedte- en lengtegraden groot is. Een van de bekendste Global Climate Models, het HadAM3, gebruikt cellen met een grootte van 2,5° breedtegraden en 3,75° lengtegraden. Elke cel heeft bovendien 19 verticale niveaus. De resolutie is dus ongeveer 300 km. De vierde dimensie in het model is de tijd. In het HadAM3 model wordt het systeem doorlopen met tijdstappen van 30 minuten. Het GFDL CM2.X model gebruikt een raster met cellen van 2° breedtegraden en 2,5° lengtegraden. Broeikasgassen vormen een externe input in de modellen.

hadcm3Gemiddelde temperatuur in juni-juli-augustus (boven) en december-januari-februari (onder). Hoogte in hP, breedtes van -90 (zuidpool) tot +90 (noordpool). Aardoppervlak op 1000 hP, dus niet gecorrigeerd voor hoogteligging. Bron HadCM3 

De zwakke kanten van de Global Climate Models

Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn, kennen ze een aantal tekortkomingen. De 6 belangrijkste zijn:

• Bij koppeling van het atmosferische model aan het oceanische model moeten in sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige vulkaanuitbarstingen.
• Alle modellen schieten ernstig tekort in het voorspellen van de temperatuur in de stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze. Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.

Met name de 4 laatste tekortkomingen hebben grote implicaties voor de betrouwbaarheid van de huidige klimaatmodellen. De door het IPCC in haar vierde rapport gebruikte klimaatmodellen vertoenen daardoor grote verschillen voor wat betreft de invloed van CO2-verdubbeling op de gemiddelde temperatuur. Die varieert van 1,5° C tot maar liefst 6° C !

Siebesma  ( Siebesma et al., Cloud controlling factors (2009), in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies  )  merkt daarover op:

 Processes that impact clouds span scales from the molecular to the planetary level, a fact that makes their description in a single reference model unimaginable. This implies that large-scale models will continue to hinge on parametric (or statistical) representations of cloud processes on at least some scale for the foreseeable future. As we endeavor to represent present-day and perturbed climates, we must recognize that this introduces a source of uncertainty at best, and likely bias. The origins of uncertainty in our representation of clouds in present-day GCMs are:

1. a fundamental lack of knowledge of some key cloud processes (e.g., upper tropospheric ice supersaturation and role of ice nucleating particles in mixed-phase and cold ice clouds),
2. a lack of knowledge about how to represent the aggregate properties (statistics) of processes that are well understood at their native scale,
3. a lack of interaction among subgrid processes,
4. a breakdown of quasi-equilibrium assumptions at the intermediate scales.

While some of these issues may play less of a role when increasing the resolution of GCMs (category 2 and 3), others (category 1) remain or might even play a larger role (category 4).”

De befaamde theoretisch fysicus en wiskundige Freeman J Dyson zegt over klimaatmodellen:

The real world is muddy and messy and full of things that we do not yet understand. It is much easier for a scientist to sit in an air-conditioned building and run computer models, than to put on winter clothes and measure what is really happening outside in the swamps and the clouds. That is why the climate model experts end up believing in their own models.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?

noor1
Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

noor2

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .


Hoe goed zijn klimaatmodellen in het voorspellen van de SST?

Bob Tisdale heeft op de site Whatsupwiththat een vergelijking gemaakt tussen klimaatmodellen en gemeten temperaturen van oceaanwater (SST), en komt daarbij tot opmerkelijke conclusies. Hij gebruikt daarvoor een aantal door het IPCC gebruikte klimaatmodellen die hij voedt met een tweetal scenario’s. De ene is 20C3M dat gebruikt wordt om zogenaamde hindcast (= ‘achteruit voorspellen’) toe te passen. De tweede,SRES A1B , is een scenario om voorspellingen in de toekomst te kunnen doen. Hij zet de uitkomsten van de klimaatmodellen af tegen gemeten waarden van de SST (Sea Surface Temperature) op basis van Reynolds OI.v2 dataset, satellietmetingen. De verschillen zijn opmerkelijk.

tisdale1Bron: KNMI
Bovenstaande figuur vergelijkt voor de gehele aarde de gemeten data vanaf 1982 (start satellietmetingen) met de gemiddelde uitkomsten van klimaatmodellen. Het verschil is opvallend. Niet alleen verdwijnen El Niño/La Niña variaties, maar ook de trend van de modellen ligt zo’n 50% hoger dan de gemeten trend.

tisdale2Bron: KNMI

Deze afwijkingen blijven ook aanwezig als Tisdale de Grote Oceaan in vieren knipt: noord, zuid oost en west. Bovenstaande figuur betreft de situatie voor het noordelijk deel van de Pacific. De lineaire trend van de modellen is bijna 2x zo groot als die van de meetgegevens. Alleen voor het westelijk deel van de Grote Oceaan geldt dat de modellen heel aardig de gemeten trend volgen.

tisdale5

Bron: KNMI

Maar in het oostelijk deel van de Grote Oceaan zijn de verschillen tussen modellen en de gemeten waarden zeer groot: de lineaire trend van de modellen is daar meer dan 6x hoger dan die van de gemeten data.

tisdale3Bron: KNMI
Tisdale kijkt ook naar de zonale verschillen die de modellen weergeven. De zones hebben een breedte van 5 breedtegraden, dus bijvoorbeeld van 45 °NB tot 50 °NB, en lopen van Noordpool tot Zuidpool. Voor elke zone worden dan de lineaire trend weergegeven volgens de klimaatmodellen . De periode loopt van januari 1982 tot februari 2011. De zones zijn per oceaanbekken weergegeven, waarbij de Indische Oceaan en de Grote Oceaan gesplitst zijn in een westelijk en een oostelijk deel.
tisdale6Bron: KNMI
Opvallend is dat de afwijkingen van de modellen het grootst zijn op lage breedten en afneemt tot vrijwel 0 in Arctische en Antarctische wateren , dat deze afwijkingen over het gehele traject positief zijn, en dat dit voor alle oceanen geldt.
Als we bovenstaande zonale data per oceaan samenvoegen, en vergelijken met de gemeten data, dan wordt het beeld heel anders.

tisdale10Bron: KNMI
De modellen missen de afkoeling van de SST ten Z van 50 °ZB , de opwarming van het oceaanwater nabij 62 °NB, terwijl de afwijking tussen 30 °ZB en 30 °NB ook erg groot zijn. Kortom, de modellen elke link met het werkelijke verloop van de SST.
Als men de zonale data van het westelijke bekken van de Grote Oceaan vergelijkt met die van het oostelijk deel, dan krijgt men het volgende beeld. Hieronder eerst het westelijk deel van de Pacific:

tisdale8Bron: KNMI
In het westelijk deel missen de modellen de gemeten afwijkingen op 67 °ZB, 50 °ZB, 40 °NB en 62 °NB, maar overigens doen de modellen het in dit deel van de Pacific niet erg slecht. Dat komt overeen met datgene wat we ook al zagen in de derde figuur. Maar als men dan de data van het oostelijk deel van de Grote Oceaan bekijkt dan slaan de klimaatmodellen de plank volledig mis:

tisdale7Bron: KNMI
Tot slot kwam Tisdale nog met een update van zijn bevindingen, omdat de figuren gevoelig zijn voor de keuze van begin- en eindpunt van de gemeten periode. Dat is op onderstaande grafiek duidelijk te zien.

tisdale11Bron: KNMI
Om het El Niño/La Niña-effect op het verloop van de grafieken te elimineren kiest Tisdale als beginpunt januari 1986 en als eindpunt december 2005, beide El Niño/La Niña-neutrale data. Voor alle oceanen samen levert dat het volgende effect op:

tisdale9Bron: KNMI
Als men dat vergelijkt met de figuur die het tijdvak 1982-2011 bestrijkt dan zien we dat de afwijkingen weliswaar op sommige breedten iets kleiner zijn geworden, maar dat blijft staan dat de klimaatmodellen extreem afwijken van de gemeten waarden. De oceanen maken ongeveer 2/3 van het totale oppervlak van onze planeet uit en zijn vanwege hun enorme buffercapaciteit voor wamte, vanwege de zeestromen en vanwege verdamping van zeer grote invloed op het klimaatsysteem. Men dient dan ook mijns inziens de uitkomsten van die modellen met grote voorzichtigheid te benaderen.

Met dank aan Bob Tisdale en het KNMI voor de data.


Klimaatmodellen en onzekerheid

komen

 

Prof. Dr. Gerbrand Komen, voormalig Hoofd Klimaat Onderzoek en Seismologie van het KNMI, heeft op 25 november j.l. een bijdrage geleverd op de site Wetenschappelijke modellen getiteld Klimaatmodellen, onzekerheid en vertrouwen. In het hoofdstuk De Feiten (zie menu) is daar in de paragraaf Klimaatmodellen al het een en ander geschreven.

Hier volgt het belangrijkste stuk uit de bijdrage:

* Veel in het kader van de verschillende CMIP projecten uitgevoerde testen hebben al het karakter van een severe test.
* Je moet je wel steeds bewust zijn van de pretenties van een model. Voorbeeld: je kunt niet verwachten dat een mondiaal model de convectieve neerslag in Nederland beschrijft. Daar moet je dan ook niet op testen. Het is op voorhand evident dat zo’n test niet succesvol kan zijn.
* Wat je ook test, modellen van complexe systemen zijn niet te ‘bewijzen’.

Vooral dat laatste wordt niet door iedereen geapprecieerd. Fysicus Richard Feynman (geciteerd door Judith Curry) zei het zo: “Scientific knowledge is a body of statements of varying degrees of certainty — some most unsure, some nearly sure, but none absolutely certain.” Dit geldt voor alle wetenschappelijk kennis, en zeker ook voor onze kennis van complexe systemen.

Vertrouwen in klimaatmodellen is deels subjectief

Als je de modellen niet kunt bewijzen waarom zou je hun resultaten dan gebruiken? Antwoord: omdat je op een of andere manier vertrouwen hebt in het nut. Als het KNMI regen voorspelt kun je daar nuttig gebruik van maken als je moet besluiten of je wel of niet een paraplu mee wilt nemen.  Je hebt (enig) vertrouwen in die verwachtingen, omdat het KNMI in het verleden bewezen heeft kwaliteit te leveren.

Bij klimaatmodellen ligt dat wat ingewikkelder. Er zijn twee belangrijke toepassingen van het klimaatonderzoek die grote maatschappelijke implicaties hebben, nl de attributie van waargenomen veranderingen aan menselijk handelen, en verkenningen van mogelijke toekomstige ontwikkelingen. In beide gevallen is het gebruik van klimaatmodellen essentieel. Waarom zou je de resultaten van die modellen vertrouwen? Het maatschappelijk debat bewijst wel dat dit geen academische vraag is. Het IPCC spreekt van considerable confidence, terwijl anderen juist weinig vertrouwen hebben. Kennelijk heeft het vertrouwen in modellen een subjectief element, al dan niet cultureel bepaald.

Het onzekerheidsmonster

Om te begrijpen wat er aan de hand is, is het goed om te kijken naar de wijze waarop men modelonzekerheden probeert te beschrijven. Klimaatonderzoekers ontlenen vertrouwen aan het vermogen van hun modellen om waarnemingen te simuleren. Dit vermogen kan goed gekwantificeerd worden met behulp van statistische technieken, en levert dus harde getallen. En die worden dan ook vaak gecommuniceerd. Daarbij mag men echter niet vergeten dat er ook sprake is van onderliggende subjectieve keuzes: de keuze van de te vergelijken grootheden, de gewichten die men daaraan toekent, en kwaliteitscontrole bij de selectie van data.

Onzekerheden in modelverwachtingen kan men kwantificeren door modellen onderling te vergelijken of door te kijken naar het effect van parameter-perturbaties. De verschillen die daarbij naar voren komen zijn een maat voor de onzekerheid. Grote verschillen impliceren grote onzekerheid. Omdraaien mag natuurlijk niet: je kunt niet zeggen dat de onzekerheid klein is als de resultaten van verschillende modellen goed overeenstemmen, of ongevoelig zijn voor parameterwaarden. Het is immers denkbaar dat alle beschouwde modellen een structurele imperfectie hebben.

Monsterbezwering

Jeroen van der Sluijs heeft in dit verband het begrip onzekerheidsmonster ingevoerd (geïnspireerd door Martijntje Smits, en inmiddels overgenomen door bv Judith Curry). In zijn artikel uit 2005 onderscheidt van der Sluijs verschillende manieren waarop met dit monster omgegaan wordt, zoals ontkenning, vereenvoudiging en ‘assimilatie’.

Het IPCC heeft geprobeerd, en probeert nog steeds, om het monster te temmen door het hanteren van strakke en verstandige richtlijnen voor de communicatie van onzekerheden. Prijzenswaardig, maar lastig in de praktijk. Zo noemt het recente IPCC Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation het ‘zeer waarschijnlijk [90‑100 % kans] dat hittegolven in lengte, aantal en intensiteit op de meeste plaatsen (boven land) zullen toenemen’. Het percentage suggereert een mate van exactheid die er m.i. niet is, omdat het niet expliciet maakt dat de bewering gebaseerd is op het vertrouwen dat de auteurs in klimaatmodellen hebben.

Hoe nu verder? Van der Sluijs heeft, bouwend op eerder werk van Funtowicz en Ravetz, al in 2005 een mogelijke weg aangegeven onder de noemer ‘assimilatie’: eerlijk, open en transparant zijn over onzekerheid en onwetendheid, en ruimte geven voor wat wel extended peer review genoemd wordt, dat is een proces waarbij voor de bepaling van de kwaliteit van onderzoek belanghebbende individuen en groepen worden ingeschakeld die niet zelf bij het onderzoek betrokken zijn. Dat eerste lijkt me van evident belang. Over het tweede valt nog heel wat te zeggen (zie bv Hanekamp, 2010; en de discussie op Watts Up With That?). Hier ontbreekt de ruimte om daar verder op in te gaan. Maar misschien is het iets voor later?

Vertrouwen in de wetenschap

Waardering van klimaatmodellen is een ding, waardering voor de wetenschap is nog iets anders. Die waardering is een kostbaar goed. Von Storch spreekt in dit verband van ‘kapitaal’ dat je kunt vergroten, maar ook vernietigen. Helaas is het vertrouwen in de klimaatwetenschap niet meer vanzelfsprekend, getuige de reacties op bijvoorbeeld climategate.nl. Het is daarom belangrijk dat we nagaan wat er moet gebeuren om dat vertrouwen te verbeteren. Betere communicatie over onzekerheden hoort daar zeker bij.

 

2013: Modellen zitten er flink naast

De geavanceerde klimaatmodellen die voorspellen wat de ontwikkeling van de temperatuur op aarde zal worden de komende decennia zitten er flink naast. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres en heeft de meest recente cijfers eens voor de parlementariërs op een rijtje gezet. Hieronder ziet u wat dat opgeleverd heeft.

christy6
Christy gebruikt voor de vergelijking 38 klimaatmodellen uit de CMIP5 dataset. Meer hierover is te vinden in de Climate Explorer van het KNMI.

Hij zette vervolgens de datareeksen op basis van metingen ook in de grafiek. Dat zijn de reeksen van NCDC, NASA, HadCRUT4, RSSLT en UAHLT. De laatste  zijn datasets verkregen door satellieten. De referentieperiode is 1979-1983. Conclusie: vrijwel alle modellen schatten de temperatuurontwikkeling op aarde veel te hoog in.

De temperatuurstijging in het Arctische gebied is zoals bekend sterker dan de gemiddelde aardse temperatuur. De recente afname in het oppervlak van het zomerse drijfijs wordt vaak door alarmisten gebruikt om de ‘catastrofale gevolgen van de antropogene opwarming’ te duiden. Weliswaar doen de modelmatige voorspellingen het in het gebied tussen 70 °NB en 90 ° NB het wat beter dan voor de aarde als geheel, maar ook hier schatten de meeste modellen de temperatuurontwikkeling veel hoger in dan wat in werkelijkheid gemeten is.

christy7

Bekijken we dezelfde cijfers voor de regio met drijfijs rond Antarctica ( 60 ° ZB tot 75 ° ZB), dan is ook hier hetzelfde beeld als voor de aarde als geheel: de modellen voorspelen een flinke stijging van de temperatuur in het gebied, terwijl de gemeten waarden zelfs een lichte daling vertonen.

christy8

Modellen zijn dus tot nu toe slecht in het voorspellen van de temperatuurontwikkeling op aarde. Desondanks zijn ze zonder terughoudendheid gebruikt door het IPCC en andere instanties om ons er van te doordringen dat een grote opwarming gaande was met mogelijk desastreuze gevolgen.

Hawkins en Sutton hebben in 2009 onderzoek gedaan naar de onzekerheid in klimaatmodellen. Onderstaande figuur stamt uit de publicatie. De oranje kleur betreft de interne variabiliteit.

hawkins1
Mojib Latif van de universiteit van Kiel voegt aan de onzekerheid in het gebruik van modellen om de temperatuur te voorspellen nog een extra factor toe: de onvoorspelbare externe invloeden op het klimaatsysteem. Over wellicht de belangrijkste, de zon, is hier al vaker geschreven.

 

Klimaatmodellen en betrouwbaarheid

Ik heb hier al vaker laten zien dat klimaatmodellen hun beperkingen hebben, met name als ze gebruikt worden om op langere termijnvoorspellingen te doen. Mark Maslin en Patrick Austin van het University College in Londen hebben daarover  in juni 2012 geschreven in Nature onder de titel ‘Climate models at their limit?

De huidige generatie modellen is weliswaar beter dan ooit in het nabootsen van het complexe klimaatsysteem, maar merkwaardig genoeg produceren deze geavanceerde modellen eerder méér dan minder onzekerheden in hun voorspellingen. Volgens Maslin en Austin hebben klimaatmodellen hun limiet bereikt voor wat betreft predictie.

maslin1

De oorzaken van deze paradox zijn divers. De meest voor de hand liggende is het feit dat modellen de werkelijkheid niet zijn. Modellen zijn per definitie niet in staat om het zeer complexe systeem  van het aardse klimaat betrouwbaar na te bootsen. Oreskes et al van de University of California hebben aangetoond dat het daarom onmogelijk is om de deugdelijkheid van klimaatmodellen vast te stellen en te valideren.

De tweede factor is dat de opzet van modellen sterk uitleen loopt, en dus ook de parameterisatie van belangrijke klimaatprocessen zoals wolkvorming. Met name de grote ruimtelijke variatie van de neerslag zorgt er al voor dat regionale voorspelling hoogst onzeker zijn. Zo levert een van de bekendste modellen, HadCM3 van Metoffice, een onnauwkeurigheid van de jaarlijkse afvoer van het stroomgebied van de Mekong Rivier   van een afname van 5,4% tot een toename van 4,5%.  De maandelijkse afvoer schommelt zelfs van -16% tot +55%. Waarden waar geen enkele beleidsmaker iets mee kan.

maslin2

De derde oorzaak is dat de verwachte hoeveelheden broeikasgassen en aerosolen aan het einde van deze eeuw gebaseerd zijn op economische modellen die zonder twijfel maar een slag slaan naar het gebruik van fossiele energiedragers over 90 jaar. De energiemarkt is heftig in beweging: aan de ene kant zien we een toename van ‘groene’  energiebronnen, aan de andere kant worden steenkool en aardgas steeds goedkoper dankzij nieuwe wintechnieken. Er is niemand die kan overzien wat dat betekent voor de situatie over 10 jaar, laat staan over 90 jaar.  Er is aan toe te voegen dat de invloed op het aardse klimaat van verandering van broeikasgassen en aerosolen nog lang niet duidelijk is.

De huidige generatie klimaatmodellen zijn goed in staat de onzekerheden van complexe factoren te kwantificeren. De chemie van de atmosfeer en de ruimtelijke resolutie van de nieuwe modellen zijn beter dan ooit. Maar tegelijkertijd betekent het incorporeren van complexe processen tevens het toevoegen van meer onbekenden. Analyse van deze nieuwste modellen toont bijvoorbeeld een grotere spreiding van de voorspelde globale temperatuur dan voorheen.

Een beetje vreemd is het als na het benoemen van al deze toenemende onzekerheden in de nieuwe generatie modellen Maslin en Austin toch blijk geven van een groot vertrouwen in diezelfde modellen. Ze maken zich zorgen over de toegenomen scepsis ten aanzien van klimaatmodellen en geven zelfs aan op welke manier het vertrouwen van het ‘publiek’  in de betrouwbaarheid van modellen vergroot kan worden. Dat doet me denken aan de grote schrijver Gerard Reve, die, toen hij werd aangevallen door vakbroeders vanwege zijn commerciële houding, de kritiek pareerde door simpelweg te verklaren dat hij het inderdaad allemaal voor de publiciteit en het geld deed, want “ik heb een winkel.”. Zo openlijk heb ik wetenschappers echter nog nooit horen spreken.

 

 

Henry Masson: voorspellingen doen in chaotische systemen

De lezing van Henry Masson op de klimaatconferentie in Rijsoord op 8 december 2012  was bijzonder, maar voor mij soms erg moeilijk te volgen.  Dat had niet zozeer te maken met het onderwerp , hoe betrouwbaar kun je tijdreeksen doortrekken in de toekomst, als wel  omdat zijn benadering niet klimatologisch (natuurkundig) maar statistisch is.

masson1

Hij bekijkt de problematiek vanuit wiskundig/statistisch oogpunt, en komt tot opmerkelijke conclusies. In de figuur hierboven is dat weergegeven: voor de wiskundige benadering is het klimaatsysteem een black box.

Het uitgangspunt is dat het klimaatsysteem  een chaotisch systeem is. Een dergelijk systeem heeft bepaalde eigenschappen die niet af te leiden zijn uit die van de samenstellende delen. Een van de gevolgen daarvan is dat ze niet-lineair zijn: kleine afwijkingen in het systeem kunnen tot  zeer diverse gevolgen leiden. Een ander kenmerk is dat het gedrag van een complex systeem op een bepaald moment vooral bepaald wordt door de daaraan voorafgaande gebeurtenissen.  De combinatie van deze eigenschappen zorgt er voor dat het nauwelijks mogelijk is om aan de hand van tijdreeksen voorspellingen te doen voor de toekomst. Een aanwijzing daarvoor zijn de diverse temperatuurpredicties in het 4e rapport van het IPCC en het werkelijke verloop van de globale temp vanaf 2000 ( grafieken hieronder).

christy6

masson2

Het klimaatsysteem is vooral daarom chaotisch omdat we nog steeds geen volledig zicht hebben op de afzonderlijke onderdelen van het systeem, met hun specifieke werking. Een eigentijds voorbeeld is het gedrag van wolken in de energiebalans van de aarde. Masson stelt dat vanwege het chaotisch karakter van het klimaat het in feite onmogelijk is om voorspellingen te doen over de temperatuur. Complexe systemen zijn sterk non-lineair, waardoor ze niet geschikt zijn voor ‘klassieke’  regressie-analyse e.d. De gebruikelijke methoden om ruis uit een meetreeks te verwijderen zijn gebaseerd op de vooronderstelling dat de data Gausiaans verdeeld zijn rond een trendlijn. Volgens Masson levert een dergelijke techniek vaak een zogenaamd hockey-stickeffect op zoals we dat ook kennen van de publicaties van Mann et al.

mann1

Tijdreeksen worden vaak beïnvloed door een zekere mate van random noise, bijvoorbeeld door externe factoren of vanwege beperkingen in het modelleren. In een aantal gevallen wordt het systeem dan chaotisch: de indicatoren bewegen dan rond een of meer ‘strange attractors’. In de bovenste grafiek links  is er nog sprake van een voorspelbaar signaal met enige ruis, in de onderste is het signaal niet voorspelbaar en chaotisch.

masson8    masson9

De rechter grafiek toont een voorbeeld van een dergelijk signaal rond attractors.  Het is de tijdreeks van de temperatuur van de bekende Vostok ijsboring op Antarctica.

Masson liet tijdens de lezing zien dat de functie   chaotisch kan worden afhankelijk van de grootte van de variabele α. De functie kan dan van stabiel…..

masson5

licht chaotisch worden…….

masson4

en dan steeds chaotischer worden:

masson6
Bij een hele lichte wijziging van de variabele α verandert zelfs de positieve trend in de vorige grafiek in bijna geen trend:

masson7

Het is daarom van het grootst belang om in tijdreeksen een methode toe te passen om eventueel chaotisch gedrag te ontdekken.  Masson maakt daarbij gebruik van een aantal statistische technieken, waarvan de zogenaamde recurrence plots mij het best bij zijn gebleven, al was het alleen al vanwege de wonderlijke patronen die daarbij kunnen ontstaan.  Recurrence plots vormen krachtig  kwalitatief visueel gereedschap om   patronen in tijdreeksen te ontdekken.

Onderstaande plot betreft de temperatuurreeks van Ukkel sinds 1830. Volgens Masson toont de plot dat er geen trend te ontdekken is in het signaal.

masson10

Masson concludeert :

masson11

 

 

Milanković

Al decennia is in de klimaatwetenschap geaccepteerd dat de relatie tussen zon en aarde van grote invloed is op het klimaat op aarde. Logisch natuurlijk, als je bedenkt dat vrijwel alle processen aan het aardoppervlak gestuurd worden door zonne-energie. In het hoofdstuk over de stralingsbalans is daar al ruim aandacht aan geschonken. Merkwaardig is het dan zeker dat de afgelopen jaren de aandacht vooral is uitgegaan naar terrestrische (aardse) oorzaken van klimaatveranderingen (vooral broeikasgassen) en nauwelijks naar extra-terrestrische oorzaken. Daar komt nu langzamerhand verandering in, met name door het onderzoek van Svensmark c.s.  Maar de grote pionier op dit gebied was ongetwijfeld Milutin Milanković, een Servische wetenschapper.

Milanković theorie beschrijft de effecten van de beweging van de planeet aarde op het wereldklimaat. Milutin Milanković (Dalj, 1879 – 1958), civiel ingenieur en wiskundige, beschrijft in een publicatie in 1941 dat de variaties in de baan van de aarde rond de zon (excentriciteit), de variaties in de aardashoek (obliquiteit) en de tolbeweging van de aardas (precessie) van invloed zijn op de temperatuur op aarde. Als gevolg van deze variaties varieert de temperatuur op aarde en zijn de ijstijden gedurende het Kwartair  (2,5 miljoen jaar – heden) te verklaren.

milankovic

De onderste curve toont het berekende effect van de excentriciteit, precessie en obliquiteit op de hoeveelheid ontvangen zonne-energie die op een zomerse dag aan de buitenkant van de dampkring  op een vierkante meter wordt ontvangen op 65 graden NB. Omdat de periodiciteit van de 3 factoren bekend is kan ook berekend worden wat het effect in de toekomst zal zijn. De grafieken lopen dan ook van -800.000 jaar A.D. tot +800.000 jaar A.D.

berger

Bovenstaande grafiek toont de juni-instraling op 65 graden NB  gedurende de afgelopen 600.000 jaar, zoals berekend door Berger c.s.  (A. Berger and M.F. Loutre, 1991, Insolation values for the climate of the last 10 million years. Quaternary Science Reviews, 10: 297-317).

De reacties vanuit de wetenschappelijke wereld waren grotendeels negatief en afwijzend. Het duurde tot 1976 voordat een studie van Hays, Imbrie en Shackleton naar boorkernen in diepzeesedimenten het gelijk van Milanković aantoonde en de wetenschappelijke wereld Milanković theorie aanvaardde ( J. D. Hays, John Imbrie and N. J. Shackleton,1976, Variations in the Earth’s Orbit: Pacemaker of the Ice Ages, Science Vol. 194. no. 4270, pp. 1121 – 1132).

De waarde van Milancović theorie werd nogmaals bevestigd door onderzoek aan ijskernen van Antarctica in 2007. De in de ijskeren aanwezige luchtbelletjes werden onderzocht op de aanwezigheid van zuurstof en stikstof. De waardes daarvan worden direct bepaald door de grootte van de instraling ter plaatse  (Kawamura et al., Nature, 23 August 2007, vol 448, p912-917) .

Excentriciteit, obliquiteit en precessie beïnvloeden de  stralingsbalans van de aarde als gevolg van variaties in de  hoeveelheid zonnestraling en de oriëntatie van landmassa’s ten opzichte van de zon. Dit verschijnsel staat bekend al solar forcing.

Excentriciteit.

excentr           excentr2

De baan van de aarde rond de zon is een ellips. Excentriciteit is de mate waarin deze ellips afwijkt van een cirkel. Deze excentriciteit varieert in de tijd van bijna cirkel (excentriciteit van 0,005) tot licht elliptisch (excentriciteit 0,028). De huidige excentriciteit bedraagt 0,017. De periodiciteit van de excentriciteit kent 2 schalen: een van 413.00 jaar en een tweede van grofweg 100.000 jaar.

Deze variaties in excentriciteit ontstaan door de invloed van de zwaartekracht van de planeten Saturnus en Jupiter. Momenteel is het verschil in afstand tussen het punt van de aardbaan dat het dichtst bij de zon ligt (perihelion) en het punt dat het verst van de zon verwijderd ligt (aphelion) 5,1 miljoen kilometer, resulterend in een verschil van inkomende zonnestraling van 6,8%. Als de baan zijn maximale excentriciteit heeft bereikt bedraagt dit verschil zelfs bijna  23%.

Obliquiteit

obliquiteit

De hoek die de aardas maakt met het vlak waarin de aarde rond de zon draait varieert van 22,1° tot 24,5°, met een periodiciteit van 41.000 jaar. De invloed van obliquiteit op de temperatuur op aarde is het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde. Bij een grotere hoek nemen de verschillen tussen de seizoenen voor wat betreft de instraling van de zon toe. Zowel op het noordelijk als het zuidelijk halfrond worden de zomers dan warmer en de winters kouder. Momenteel neemt de obliquiteit af en is 23,44° , waarmee we ons grofweg halverwege de beweging bevinden.

Echter, deze verschillen tussen zomer en winter zijn niet even groot. Bij toenemende obliquiteit neemt de gemiddelde jaarlijkse instraling op hogere breedte toe, terwijl op lagere breedte de instraling afneemt. Op hogere breedte veroorzaakt een lage obliquiteit derhalve zowel een lagere gemiddelde instraling op deze breedte als de afname van instraling in het zomerseizoen. Koele zomers kunnen dan het begin van een ijstijd triggeren doordat minder sneeuw smelt en de albedo in sommige gebieden sterk verandert.

Precessie

precessie

Precessie is de tolbeweging van de aardas, en heeft een periodiciteit van ongeveer 26.000 jaar. Precessie is het gevolg van de getijdekrachten die zowel de zon als de maan op de aarde uitoefenen, versterkt door het feit dat de aarde niet perfect rond is. Net zoals bij obliquiteit is het effect van precessie op de temperatuur op aarde het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde.

Als de aardas gedurende het perihelion (zie hiervoor) naar de zon wijst zal het ene polaire  halfrond grotere seizoensverschillen kennen, terwijl het andere halfrond kleinere verschillen kent. Momenteel kent het zuidelijk halfrond wat grotere verschillen tussen zomer- en wintertemperatuur als gevolg van de precessie dan het noordelijk halfrond.

Wolken

Wolken spelen een merkwaardige dubbelrol in de stralingsbalans van de aarde. Enerzijds houden ze kortgolvige straling van de zon tegen, anderzijds absorberen ze infraroodstraling en stralen ze infrarood uit naar de ruimte. Wolken verminderen de totale hoeveelheid geabsorbeerde zonnestraling met 50 W/m2, maar reduceren de totale uitgestraalde energie met 30 W/m2. Het totale effect van wolken is derhalve negatief: – 20W/m2 , vooral als gevolg van de dominante invloed van de albedo (reflectie zonlicht bovenzijde wolken) . Het zal duidelijk zijn dat deze waarden sterk wisselen, afhankelijk van de bewolkingsgraad en dikte. Op lagere breedte (tropen) is het afkoelende effect van wolken zelfs 50 – 100 W/m2, terwijl op hogere breedtes de effecten op instraling en uitstraling elkaar ongeveer in evenwicht houden.

De albedo van wolken varieert van minder dan 10% tot meer dan 90% en hangt af van de grootte van de druppels, of de wolk uit water of ijs bestaat, van dikte van de wolk, en van de hoek van instraling van het zonlicht. Hoe kleiner de druppels en hoe groter de vloeibare waterinhoud, hoe groter de albedo van een wolk.

Laaghangende, dikke wolken (zoals cumulus) hebben een hoge albedo, en daardoor een negatieve feedback: ze koelen de aarde af. Hoge, dunne wolken (zoals cirrus) hebben een lagere albedo maar hebben een hogere positieve feedback. Zij dragen bij aan het broeikaseffect. De meest recente onderzoeken naar de invloed van wolken op de energiebalans van de aarde wijzen wel op een gemiddelde negatieve feedback van wolken. Dat wil zeggen dat  bij wolken het tegenhouden van kortgolvige zonnestraling gemiddeld groter is dan het  tegenhouden van warmtestraling vanaf de aarde ( Joel R. Norris and Anthony Slingo, 2009, in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and
the Frankfurt Institute for Advanced Studies).

De belangrijkste oorzaak van het feit dat de diverse klimaatmodellen voor wat betreft de klimaateffecten van het versterkt broeikaseffect zulke diverse uitkomsten vertonen is vooral gelegen in de verschillen tussen de modellen van wolkenprocessen en wolkenfeedbacks. Die verschillen tussen de diverse GCM’s (General Climate Models) voor wat betreft de wolkenfeedback zijn grofweg 3x groter dan de waterdampfeedback, de opname van warmte door de oceanen of de stralingsfeedback.. ( Dufresne & Bony, 2008 ). De tekortkomingen in de rol van met name ijswolken in de GCM’s leiden tot grote onvolkomenheden in de voorspellingen van de diverse modellen. ( Walliser, 2009 ).

Twee citaten uit het meest recente standaardwerk over wolken en klimaat (Jost Heintzenberg and Robert J. Charlson  (2009),Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies) :

Clouds, however, constitute the largest source of uncertainty in the climate system, and there are solid reasons why our knowledge of clouds and their related processes is very limited.  ……address the shortcomings that arise in atmospheric models attributable to the interactions between resolved and unresolved (i.e., parameterized) cloud-related processes. These problems occur because it is necessary to consider simultaneously a wide range of scales of cloud-related processes, from molecular to global“.

 

Wolken koelen de aarde af
De bewijzen  stapelen zich op: wolken hebben netto een afkoelende werking op de oppervlaktetemperatuur van de aarde. Dat is op te maken uit een recente publicatie van Richard Allan van de universiteit van Reading in Groot-Brittannië  genaamd  “Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere ”.  Allan gebruikte voor zijn onderzoek naar het gedrag van wolken op de stralingbalans een tweetal bronnen, namelijk meetgegevens van GERB satelliet en het Numerical Weather Prediction ( NWP) model  van Met Office in Groot-Brittannië.

Het gedrag van wolken in de stralingsbalans is de achilleshiel van de vigerende klimaatmodellen. NASA schrijft op haar website: “Ultimately, we are searching for a set of mathematical models that allow us to span the incredibly large range of space and time scales important to aerosols, water vapor, clouds, the land surface, and the oceans. These models must be capable of reproducing the variability shown in the data at both regional and global scales. They must be capable of reproducing El Niño, the Earth’s diurnal and seasonal cycles, and the inter-annual variability in the climate system. The models must also be capable of reproducing the systematic changes in the radiative energy balance with changing aerosols, water vapor, clouds, and surface properties. Only then can we begin to trust the models to produce accurate global change predictions.” .

eenv str

Vereenvoudigde stralingsbalans.  Bron:  Allison, Mead A., Arthur T. DeGaetano, Jay M. Pasachoff

Joel Norris en Anthony Slingo merken in ‘Clouds in the Perturbed Climate System’ op:
The response of clouds and their radiative effects to global warming represents a longstanding and considerable area of uncertainty in our understanding of climate change. At present, it is not known whether changes in cloudiness will exacerbate, mitigate, or have little effect on the increasing global surface temperature caused by anthropogenic greenhouse radiative forcing. Another substantial uncertainty is the magnitude of radiative forcing resulting from the modification of cloud properties by anthropogenic aerosols. Global climate models provide scant reliable insight regarding these issues because of their inability to parameterize correctly or otherwise represent the small-scale convective, turbulent, and microphysical processes that control cloud properties. It is therefore crucial to document and assess global and regional low-frequency variations in clouds and radiation flux that have occurred over the past several decades, a period marked by rapidly rising temperature and changes in anthropogenic aerosol emissions. This will enable us to estimate from observations how clouds and their impacts on the radiation budget are responding to global warming and aerosol changes. Moreover, a trustworthy observational record will provide a good constraint on global climate model simulations.”.

Het is daarom opmerkelijk dat alle vigerende klimaatmodellen ondanks bovenbeschreven grote onzekerheden uitgaan van een netto positieve tegenkoppeling van wolken ten aanzien van de temperatuur aan het aardoppervlak. Stijgende oppervlaktetemperaturen betekenen meer verdamping en meer wolkvorming. Alle modellen gaan uit van een versterkt broeikaseffect als gevolg van deze extra wolkvorming.

De afgelopen tijd hebben 2 publicaties al deuken geslagen in de hypothese van de veronderstelde gedrag van wolken in de stralingsbalans.  Die publicaties van Lindzen en Choi en van Spencer en Braswell hebben in klimatologenland veel stof doen opwaaien, hetgeen aantoont dat de kwestie uiterst gevoelig ligt. Dat is niet verwonderlijk, omdat de geloofwaardigheid van de door het IPCC gebruikte klimaatmodellen in het geding is, en daarmee haar voorspellingen over de opwarming van de aarde.

Nu heeft Richard Allan van de Universiteit van Reading in Groot-Brittannië zich aangesloten bij Lindzen en Spencer. Hij komt tot de conclusie dat het netto effect van wolken op aarde negatief is: wolken koelen de aarde af met -21 W/m2. Hoe is Allan te werk gegaan? Zoals hiervoor al beschreven is het gedrag van wolken in de stralingsbalans  niet eenvoudig te duiden. Dat is al onmiddellijk duidelijk als we de volgende 2 figuren bekijken:

allan1

Satellietbeelden van de SEVIRI geostationaire  satelliet. Links 10.8 μm infra-rood kanaal  en rechts  0.8 μm zichtbaar kanaal, op 2 maart 2011  om 12 uur UTC. Bron EUMETSAT/ Met Office.

Op beide beelden zijn wolken licht afgebeeld.  Op het linkerbeeld (IR) is dat het gevolg van het feit dat wolken een lage IR-uitstraling naar boven hebben en een grote albedo voor kortgolvige straling (zonlicht). In het rechterbeeld zijn er grote wolkenpartijen in het koufront voor de kust van Europa, met sterk stijgende lucht tot relatief grote hoogte. De wolkentoppen zijn daardoor koud en stralen weinig IR naar boven.

Op het beeld van de zichtbare straling valt op dat er veel meer wolken zichtbaar zijn dan op het beeld van IR. Het betreft vooral wolkenformaties boven de  Atlantische Oceaan die uit lage wolken bestaan. Deze wolken bevatten relatief veel waterdruppels en hebben daardoor een hoge albedo. De IR uitstraling naar boven is gering vanwege de relatief hoge temperaturen in de wolktoppen.

Allan concludeert dat de hoogte en de optische dikte van wolken de netto invloed op de stralingsbalans bepalen. Die netto invloed bestaat uit een opwarmend effect van wolken op de oppervlaktetemperatuur (versterkt broeikaseffect) en een afkoelend effect als gevolg van schaduwvorming. In dit alles spelen uiteraard de afwisseling dag/nacht en de seizoenen een grote rol.

allan2                       Stralingsgedrag van wolken op 1200 UTC , 24 april 2011, berekend door combinatie van GERB satelliet data en NWP model clear-sky fluxes.  (a) LWCF (c) −SWCF and calculated using the model analysis field simulated (b) LWCF  and (d) −SWCF.

De gebruikte methode is om simulaties van zogenaamde clear-sky radiation te combineren met satelliet meetgegevens. Op bovenstaande figuren is dat weergegeven:  kortgolvige en langgolvige uitstraling naar boven van wolken boven Afrika en de Atlantische Oceaan.

LWCR =  long wave cloud radiation, ORL =  Outgoing Longwave Radiation , OLRc = Outgoing Longwave Radiation voor clear sky.  In formule:   LWCR = OLRc – OLR. Voor de kortgolvige straling geldt m.m.:  SWCF = RSWc – RSW.

De sterkste LWCF  ( > 100 W/m2)  en SWCF ( < -400 W/m2) zijn te vinden in de gebieden met een tropisch regenwoudklimaat.  De zeer hoogreikende altocumili zorgen voor een grote albedo en een relatief zwakke langgolvige uitstraling als gevolg van de lage temperaturen op grote hoogte.

allan3

Op bovenstaande figuur zijn kortgolvige, langgolvige en nettostraling  weergegeven. De data zijn relatieve waarden ten opzichte van de clear sky –waarden. De gegevens zijn afkomstig van CERES satellietdata  2001-2007. De figuur toont dat wolken kortgolvige straling tot  ~100 Watt/m2 reduceren in met name regio’s met frontale systemen, de tropen (ITCZ) en de westelijke kustgebieden van Noord-Amerika, Zuid-Amerika en Afrika.  De LWCF is het sterkt in de tropen: tropische cumulonimbus wolken  die tot aan de stratosfeer reiken zorgen voor een afkoeling tot 70 Watt/m2.  Maar ook de marine strocumulus en de wolken in frontsystemen koelen  tot voorbij 50 Watt/m2. Boven de woestijnen en poolgebieden is de NCF ook klein als gevolg van het geringe broeikaseffect door wolken en de grotere uitstraling en albedo.

allan4

Nadat is vastgesteld dat er globaal sprake is van een netto koeling door wolken , is de vraag waar die koeling plaats vindt. Is dat aan het aardoppervlak of in de atmosfeer? Het antwoord op deze vraag is van groot belang, omdat dan inzicht ontstaat in de verbanden tussen de energiestromen op aarde en de waterkringlopen. De figuur toont schattingen van het ‘cloud radiative effect’ vanaf TOA (top of atmosphere) , de atmosfeer en het aardoppervlak. Daarbij wordt gebruik gemaakt van de NASA Surface Radiation Budget (SRB)  dataset, dat stralingsmodellen combineert met satellietmetingen  van wolkeigenschappen  uit het ISCCP  (International Satellite Cloud Climatology Project).

Er is sprake van een netto afkoeling van de atmosfeer van ~100 Watt/m2, gecompenseerd door de aanvoer van latente en voelbare warmte vanaf het aardoppervlak. Zie de stralingsbalans volgens Trenberth (2009)  hieronder.

trenberth stralingsbalans                                                                                     Bron: Trenberth

Allan heeft vervolgens de data van SRB uit de een na laatste figuur gebruikt om het ‘cloud radiative effect’  zonaal te duiden. In onderstaande grafieken zijn daarvan de resultaten te zien.

allan5

allan6

Voor de temperaturen aan het aardoppervlak is met name de grafiek c van belang. Tussen  ~65° NB en 65° ZB is het  netto cloud radiative effect negatief. Alleen in de  poolstreken is de netto cloud feedback positief , voornamelijk vanwege het minder negatieve kortgolvige cloud radiative effect aldaar (SWCF). De door Allan berekende NCF voor de gehele aarde van 21 Watt/m2 is vergelijkbaar met de uitkomsten  van Su et al. (2010).

su1                                                                                                Bron:  Su et al. 2010

Conclusies van Allan:  de netto afkoeling door wolken op aarde is 21 Watt/m2, wat overeenkomt met de publicaties vanRamanthan et al.  (1989) en Su et al. (2010).

ramanthan1                                                                                Bron:  Ramanthan et al. 1989

Het is overigens opmerkelijk dat Ramanthan et al. al in 1989  tot gelijkluidende conclusies kwamen. Dat onderzoek was beperkt tot de toen voorhanden zijnde data van de ERBE satelliet die pas van 1984 in de ruimte was. Ramanthan et al. hebben zich noodgedwongen beperkt tot gegevens van 1985 en 1986. In het Abstract schrijven Ramanthan et al.:

ramanthan2                                                                                       Bron:  Ramanthan et al. 1989

Wellicht nog interessanter zijn de laatste conclusies van de onderzoekers:

ramanthan3                                                                                Bron:  Ramanthan et al. 1989

Sensitivity

CO2-sensitivity  is de mate waarin de gemiddelde temperatuur stijgt als gevolg van een verdubbeling van het atmosferische CO2-gehalte. Het aandeel van CO2 in de opwarming van de aarde is een moeilijke kwestie, vooral ook omdat dat momenteel een onderwerp van veel wetenschappelijke discussies is. Maar er zijn toch wel een paar verhelderende uitspraken over te doen, gebaseerd op een aantal publicaties over dit onderwerp.

Het zijn schattingen van de afkoelend effect in een atmosfeer zonder wolken, indien het CO2 gehalte van de atmosfeer 0 ppm zou zijn (Lindzen, How Cold Could We Get Under CO2-less Skys? , Physics Today, 1995, Charnock & Shine , Physics Today, 1995, Kondratjew & Moskalenko, ‘The Global Climate’, 1984).

estimated crear sky greenhoue effect

De grafiek hierboven geeft een globaal idee hoe CO2 en temperatuur samenhangen. Bedenk dat deze grafiek geen rekening houdt met absorptieverzadiging bij bepaalde golflengtes, mogelijke toename van afkoeling door verdamping, toename van de albedo vanwege reflectie door wolken, variaties vanwege breedteligging of hoogte, en mee- en tegenkoppeling van wolken. Daardoor is het beeld dat de grafiek geeft over mogelijke opwarming door CO2 toename overtrokken.

Ondanks dat, en de verschillen in uitgangstemperatuur tussen de 3 schattingen (bij 0 ppm CO2 kwam Lindzen uit op een temperatuurdaling van 5,3 °C, Charnock & Shine van 12 °C en Konratjev & Moskalenko van 7,2 °C) is het logaritmische verloop van het verband duidelijk. Toename van de CO2 concentratie in de atmosfeer resulteert slechts in een geringe toename van de temperatuur. Algemeen wordt uitgegaan van een pre-industrieel CO2-gehalte van 280 ppm. Verdubbeling daarvan tot 560 ppm resulteert volgens de grafieken in een temperatuurtoename van 0,6 °C tot 1,5 °C.

Een recente publicatie van Stephen Schwartz, Heat capacity, time constant, and sensitivity of Earth’s climate system, in het Journal of Geophysical Reviews, 2007, komt uit op een toename van de temperatuur met 1.1 ± 0.5 °C bij een verdubbeling van het CO2-gehalte. De schatting van Konratjev & Moskalenko lijkt daar het dichtst bij te zitten.

co2 log

In de grafiek hierboven is het logaritmisch effect van CO2 op de temperatuur duidelijk weergegeven. Het grootste effect hebben de “eerste”  20 ppm gehad, daarna daalt het effect sterk.

Hoe komt het IPCC in haar 2007 rapporten dan aan hogere waarden?

In de 2007 rapporten van het IPCC zijn voor de diverse scenario’s voorspellingen gedaan voor de stijging van de gemiddelde temperatuur aan het aardoppervlak aan het eind van de huidige eeuw. De voorspellingen variëren van 1,81 °C tot 5 °C. Bij een CO2-gehalte van 650 ppm geeft de Technical Summary een “best estimate” temperatuurstijging van 3,6 °C. Dat is aanmerkelijk hoger dan de 1,1 °C van Stephen Schwartz en Lindzen.

spencer1

Het IPCC baseert zich bij haar berekeningen op zogenaamde “climate sensitivity”. Als gevolg van feedbacks in het systeem, zoals die van waterdamp, wolken, ijs-albedo en de temperatuurgradiënt van de troposfeer. Van de voorspelde temperatuursstijging in de diverse gehanteerde klimaatmodellen is ruwweg 40% toegeschreven aan het versterkt broeikaseffect, en 60% aan feedbacks (National Research Council).

Van die feedbacks is waterdamp de belangrijkste: door stijging van de temperatuur stijgt de verdamping en komt er meer waterdamp in de atmosfeer. Geschatte forcing is 1.6, wat betekent dat als gevolg van temperatuurstijging vanwege het broeikaseffect de temperatuurstijging 1,6 x groter is dan verwacht. Ook de veranderende ijs-albedo ( verminderde reflectie van het zonlicht als gevolg van afname van het drijfijs in met name de Noordelijke IJszee) schat het IPCC hoog in. Samen met de verhoogde waterdampconcentratie zou dit een multiplier van 2,5 teweeg brengen.

Interessant is de grafiek van Hans Erren uit een paper genaamd “How does CO2 respond to temperature?“. Het betreft een CO2-temperatuurgrafiek van de bekende Vostok ijskern. In de grafiek zijn afgezet het aandeel van CO2 in de opwarming en afkoeling zou hebben gehad bij een sensitivity van 1K/2xCO2  (lage sensitivity) en 3K/2xCO2 (hoge sensitivitie. Opmerkelijk is dat zelfs de hoge sensitivity bij lange na niet kan verklaren waardoor de temperatuurschommelingen in de gegeven periode (400.000 jaar BP tot heden) zo groot waren. Erren merkt op:  “So even with a high climate sensitivity the bulk of the warming in the ice ages is not caused by CO2.

 

co2 ijstijd

 

Uit dezelfde paper komt de volgende grafiek, die een goed overzicht geeft van de climate sensitivity zoals die in diverse studies wordt gehanteerd.

sensitivity erren

 

Hansen (1993) kijkt naar de afgelopen 20.000 jaar, het laatste stukje van het Weichselglaciaal en het Holoceen, en berekent empirisch een climate sensitivity  van 3°C ± 1°C. Gregory (2002) maakte gebruik van waarnemingen met betrekking tot de warmteopname van oceanen en komt op een sensitivity van   1.5°C. Chylek (2007) bestudeerde de overgang van Weichselien naar Holoceen, en berekende een climate sensitivity van 1.3°C tot 2.3°C. Tung (2007) paste een statistische analyse toe op de relatie tussen het verloop van de temperatuur in de 20e eeuw en de zogenaamde zonncyclus, en komt zo op een sensitivity van 2.3°C to 4.1°C. Schwartz (2007) komt , zoals we hierboven al zagen, op een getal van 1.1°C ± 0.5°C.

Een opmerkelijk experiment deed Engelbeen (2006) met behulp van het Oxford EBM model. Dit relatief eenvoudige model berekent de temperatuursstijging gebaseerd op forcings x sensitivities, plus de massa van het oceaanwater als warmtebuffer. In de eerste grafiek is uitgegaan van een sensitivity van 3 °C bij 2xCO2, 1 x aerosols, 1 x vulkanisme, 1 x zon. Resultaat is een correlatiecoefficient van 0.870.

ebm1

 

In de tweede grafiek is de sensitivity verlaagd naar 1,5 °C bij 2x CO2, 0,25 x aerosols, 0,5 x vulkanisme, 1 x zon. Resultaat is een correlatiecoefient van 0.884, licht beter zelfs dan de vorige!


Correlaties, causale verbanden en CO2.

De Simpsons

Homer:  Geen beer te zien. De Berenwacht werkt prima!
Lisa: Dat is een cirkelredenering ,pa.
Homer:   [niet begrijpend] Dank je, lieve.
Lisa: Op die manier kan ik bewijzen dat deze steen tijgers weghoudt.
Homer:   Hmm. Hoe werkt dat?
Lisa: Dat werkt niet; ’t is maar een stomme steen!
Homer:   Uh-huh.
Lisa: Maar ik zie geen tijgers, jij wel?
Homer:   (pauze) Lisa, ik wil jouw steen kopen.

cor0

Bovenstaand gesprekje van de Simpsons laat pijnlijk zien dat niet voor iedereen duidelijk is  wat oorzaak en gevolg is.  Beetje eenvoudig wellicht, maar wat dacht u van de volgende grafiek:

Deze grafiek wordt in allerlei varianten graag gebruikt door lieden die willen aantonen dat de mensheid met de huidige CO2-stijging de ondergang tegemoet gaat. Maar klopt die conclusie wel?  Om daar iets verstandigs over te zeggen is het van belang wat verder te kijken dan onze neus lang is. Uit  de statistiek kennen we het begrip correlatie.  In de statistiek spreekt men van correlatie als er een min of meer (lineaire) samenhang blijkt te zijn tussen twee reeksen metingen of variabelen.

De sterkte van deze samenhang wordt beschreven met de correlatiecoëfficiënt.  Een correlatiecoëfficiënt  heeft een grootte die tussen  -1 en  +1 ligt. Bij +1 is er een volledige positieve correlatie, bij -1 een volledig negatieve correlatie, en bij 0 is er geen correlatie tussen twee verschijnselen.  Onderstaande figuur  toont mogelijke vormen van de grafische weergave  die bij een bepaalde correlatiecoëfficiënt  kan behoren.

cor11

Men is geneigd om op basis van een puntenwolk  als snel conclusies te trekken  over de correlatie tussen verschijnselen. Maar dat dient met voorzichtigheid te geschieden. Onderstaande grafieken hebben alle een correlatiecoëfficiënt  van + 0,816 , en kijk eens hoe divers de puntenwolken er uit zien.

cor12

Maar van groter belang is uiteraard of er sprake is van een causale correlatie, dus van een oorzakelijk verband tussen verschijnselen.  In een aantal gevallen is het  mogelijk om op basis van gezond verstand in te zien dat een bepaalde correlatie niet causaal zal zijn.  Zo is er op onderstaande grafiek een positief verband te zien tussen  de vruchtbaarheid van vrouwen en het voorkomen van ooievaars in de Elzas. (S. Mousset & J.R. Lobry, 2006, Epreuve Biologie et Modélisation, Université Lyon1).

cor1

Of deze: Twitteren doet de Dow Jones Index dalen:

cor6

Ook de sterke correlatie tussen het aantal rocksongs in de top500 van het blad Rolling Stone en de productie van ruwe olie in de USA moet wel op toeval berusten:

cor8

Ook  correlatie tussen het voorkomen van lynxen in Noord Amerika en het aantal zonnevlekken zal waarschijnlijk niet causaal zijn en op toeval berusten, ook al is de correlatie opvallend:

cor2

Dat dit zo is zie je als je een wat langere periode bekijkt dan de 2 decennia van bovenstaande grafiek. Als je beide verschijnselen bekijkt  van 1820 tot 1940, dan is te zien dat beide verschijnselen een periodiciteit vertonen, maar dat die van het voorkomen van lynxen iets verschilt van die van zonnevlekken. Verandering van tijdschaal  kan soms dus inzicht vertonen in de causaliteit van een correlatie.  Hier komen we later op terug, omdat dit ook een rol speelt bij de correlatie tussen CO2-gehalte en temperatuur.

cor3

Ook interessant is de correlatie die er lijkt te bestaan tussen het gebruik van elektronische apparaten en de mate van sociale interactie  (zie grafiek hieronder). Hier is men al snel geneigd om een oorzakelijk verband te veronderstellen Immers, zorgt  meer tijd besteden aan elektronische apparaten niet vanzelfsprekend voor minder tijd voor de medemens? Iedereen kan zich hier wat bij voorstellen denk ik.

cor5

Maar ook hier is het de vraag of er werkelijk sprake is van een causale correlatie. Er kan hier ook sprake zijn van een zogenaamde “third cause fallacy” , waarbij  het ene verschijnsel (tijd besteden aan elektronische apparaten) en het andere (minder tijd voor sociale interactie)  het gevolg zijn van een derde factor. Men zou zich bijvoorbeeld kunnen voorstellen dat mensen die graag dergelijke apparaten gebruiken ook vaak lieden zijn die minder behoefte hebben aan sociale contacten, met andere woorden dat beide verschijnselen het gevolg zijn van een bepaald gedragspatroon (de derde factor) . Of nog sterker: dat beide verschijnselen correleren met meerdere externe fatoren, zodat er van een partiële correlatie sprake is.

Er is nog een andere mogelijkheid: het verschijnsel “tijd besteden aan elektronische apparaten” wordt veroorzaakt door de hoeveelheid sociale contacten. Dit noemt men in de statistiek “reverse causation”. Ook daar kan men zich wat bij voorstellen meen ik. Mensen met weinig sociale contacten zullen wellicht sneller naar apparaten grijpen dan mensen met een druk sociaal leven.

Welnu, laten we terugkeren naar de grafiek die het begin vormt van dit artikel, het vermeende verband tussen CO2-gehalte en de temperatuur. Laten we eerst eens kijken naar de tijdschaal van deze grafiek,  die loopt van 1880 tot 2010. Op het eerste gezicht lijkt de opgaande trend van de temperatuurlijn  aardig overeen te komen met die van het CO2-gehalte. Wat gebeurt er als we de tijdschaal oprekken naar 400.000 jaar? Dat gaat er dan als volgt uitzien:

cor10

De periode beslaat het laatste deel van het Pleistoceen , waarin de 4 meest recente glacialen te zien zijn, en het huidige Holoceen. Er is sprake van een tamelijk duidelijke correlatie tussen CO2-gehalte en temperatuur. De oorzaak van deze grootschalige schommelingen in aardse temperatuur is de relatie tussen de aarde en de zon, ontdekt door de Servische wetenschapper Milankovic  (zie hoofdstuk Nieuwe Inzichten). Ook bij alarmisten staat dit mechanisme, dat zijn oorsprong vindt in  excentriciteit van de aardse baan rond de zon en obliquiteit en precessie van de aardas, vast. Deze correlatie tussen temperatuur en CO2 is door Al Gore handig in zijn documentaire An Inconvenient Truth gebruikt om te “bewijzen”  dat het CO2-gehalte de temperatuur stuurt.

Dat dit onjuist is blijkt als men als het ware inzoomt op de data. Al in 1990 hebben Claude Lorius en Jim Hansen  in hun publicatie over de Vostok ijskern aangetoond dat de fluctuaties van het CO2-gehalte de fluctuaties van de temperatuur volgen in plaats van sturen. ( Lorius e.a., 1990, The ice core record: climate sensitivity and future greenhouse warming, Nature vol.347)

De timelag die tussen temperatuur en CO2 waarneembaar is werd toen geschat op ongeveer 1000 jaar, tegenwoordig gaat men uit van een waarde van 800 jaar.  Die vertraging is het gevolg van vertraagde opname en uitstoot van CO2 door oceanen. Koud water kan immers veel meer CO2 oplossen dan warm water. Die tijdschaal van 800 jaar is gebaseerd op de  veranderingen in de oceaancirculatie en de sterkte van de “carbon pomp” (dwz de mariene biologische fotosynthese) die CO2 uit de atmosfeer naar de diepe oceaan transporteert. In onderstaande figuur is de CO2-cyclus met de uitwisseling tussen atmosfeer en oceanen weergegeven.

co2 balans

Lorius e.a. gaan er van uit dat CO2  vooral een versterkend effect heeft gehad op de temperatuurschommelingen. Overigens zijn er recente studies die op een kleinere timelag uitkomen, tot 200 jaar, zoals in een paper van Loulerge (Loulergue, L., Parrenin, F., Blunier, T., Barnola, J.-M., Spahni, R., Schilt, A., Raisbeck, G., and Chappellaz, J.: New constraints on the gas age-ice age difference along the EPICA ice cores, 0–50 kyr, Clim. Past Discuss., 3, 435-467, doi:10.5194/cpd-3-435-2007, 2007 ).

De correlatie tussen temperatuur en CO2-gehalte is op een geologische tijdschaal  een fraai voorbeeld van wat hiervoor al genoemd is “reverse causation”: niet het CO2-gehalte stuurt de temperatuur maar andersom. Maar hoe zit het met de correlatie op een kortere tijdschaal? Als men weer een blik werpt op de grafiek van temperatuur en CO2 van de afgelopen 400.000 jaar, dan is te zien dat op vele momenten er sprake is van een stijgende temperatuur en dalend CO2-gehalte, en andersom.

Maar laten we de eerste grafiek nog eens bekijken:

cor0

Met de kennis die we nu hebben van causatie en van het verloop van CO2-gehalte en temperatuur in het verleden is het niet moeilijk om te zien dat het gebruiken van deze grafiek om te “bewijzen”  dat de recente temperatuurstijging het gevolg is van de CO2-stijging  statistisch onjuist is. De grafiek zelf geeft ook enkele aanwijzingen hiervoor: zo daalt de temperatuur tot 1910, terwijl het CO2-gehalte  stijgt .  Bovendien begint de stijging van het CO2-gehalte pas sterk te worden na 1950, hetgeen overeen komt met de sterke industriële groei en welvaartsgroei na de Tweede Wereldoorlog.  Echter, de sterke stijging van de temperatuur tussen 1910 en 1940 is niet te verklaren door de tamelijk geringe CO2-stijging in die periode. Bovendien daalt de temperatuur tussen 1940 en 1980, terwijl in deze periode het CO2-gehalte flink gaat stijgen. Tenslotte stijgt CO2 vrolijk verder, terwijl na 2000 de temperatuurstijging stagneert.

Wat kan men nu concluderen? In de eerste plaats dat het geologisch verleden toont dat het CO2-gehalte in de atmosfeer vooral de temperatuurveranderingen volgt in plaats van initieert, als gevolg van uitwisseling van CO2 tussen atmosfeer en oceanen. Er is sprake van een third cause fallacy, namelijk de relatie tussen zon en aarde. In de tweede plaats  is het zo dat op een tijdschaal van ruim een eeuw er geen duidelijke correlatie te zien is tussen CO2-gehalte en temperatuur.

Uiteraard is het een feit dat CO2 een broeikasgas is, dat in elk geval in laboratoriumopstellingen infraroodstraling kan absorberen. In een dergelijk eenvoudig systeem is de sensitivity van een CO2-verdubbeling ongeveer 1,1 °C.  Maar de atmosfeer, of beter het atmosfeer-oceaansysteem is een onvoorstelbaar complex systeem in vergelijking met eenvoudige lab-opstellingen. Zo zijn er feedbacks die het verband tussen temperatuur en CO2-gehalte beïnvloeden. Bekend is dat de door het IPCC gehanteerde  klimaatmodellen uitgaan van een sterke tot zeer sterke positieve feedback, terwijl anderen uitgaan van kleinere effecten als gevolg van negatieve feedbacks. Het verst gaan Miskolzcy , van Andel en anderen,  die stellen dat de temperatuur zich in een natuurlijk evenwicht bevindt, dat slechts beïnvloed kan worden door externe factoren.  Zie hiervoor het hoofdstuk Nieuwe Inzichten. Er zijn aanwijzingen dat de recente temperatuurstijging van de afgelopen eeuw , het “terugveren”  van de temperatuur uit de dip van de Kleine IJstijd, mede het gevolg is van veranderingen van de zon. Zonnevlekken kunnen hierin een grote rol spelen.


CO2 als broeikasgas is de spil in de hypothese dat een stijging van CO2 opwarming van de aarde veroorzaakt. Niet iedereen is het daar mee eens, en dat zijn niet allemaal “gekken”  zoals vaak neerbuigend beweerd wordt door vele klimaatalarmisten. De komende afleveringen wil ik een andere kijk op  CO2 als broeikasgas aan de orde stellen. In dit inleidende deel een aantal basisgegevens op een rijtje.

CO2  is onderdeel van de koolstofcyclus op onze planeet. Verreweg het grootste deel van C is opgeslagen in dikke pakketten kalksteenafzettingen. Sedimentatie in zeeën en oceanen vullen deze opslag van C aan, verwering op het land maakt C weer vrij uit deze gesteenten, dat als CO2 in de atmosfeer terecht komt. Andere bronnen voor de atmosfeer  van C zijn de biosfeer, oceanen en de mens vanwege het verbranden van fossiele brandstoffen en veranderd bodemgebruik. Oceanen, biosfeer en gesteenten vormen aan de andere kant ook weer sinks voor C. Onderstaande figuren komen uit het laatste rapport van het IPCC.

co2 emissies ippc1

co2 emissies ippc2

Antropogeen C is in zoverre een vreemde eend in de bijt omdat het geen sink vormt en pas sinds het eind van de 19e eeuw een rol is gaan spelen.  Die rol is beperkt: slechts 3% van alle CO2 die jaarlijks in de atmosfeer terecht komt is van antropogene oorsprong, de rest is “natuurlijk”. Schattingen van deze antropogene bijdrage lopen uiteen van 6 tot 10 gigaton C per jaar, terwijl geschat wordt dat 1/3  tot 1/2 daarvan binnen een jaar wordt opgenomen door de oceanen. Het recentste cijfer is een antropogene emissie vanwege fossiele brandstoffen in 2008 van 8,7 gigaton C (bron: BP statistical review of world energy).  De rest van de antropogene CO2 veroorzaakt samen met nog andere bronnen (o.a. oceanen) de stijging van het CO2-gehalte in de atmosfeer gedurende de afgelopen 250 jaar  van 280 ppm tot 390 ppm in 2010.

co2b

Cruciale vraag is nu : wat voor invloed heeft dit op de temperatuur op aarde? Velen wijzen naar de temperatuurstijging van de afgelopen eeuw. Die temperatuurstijging correleert echter slecht met de stijging van het atmosferische CO2. In de eerste plaats is begint de CO2-stijging al rond 1800  (zie figuur hierboven), terwijl er pas sprake is van enige uitstoot door fossiele brandstoffen vanaf 1850 (zie onderstaande figuur). Die antropogene uitstoot loopt dan langzaam op tot ongeveer 1,5 gigaton C/jaar in 1945, om daarna explosief te stijgen als gevolg van de naoorlogse “industrial boom”.

fossielc

In de tweede plaats is de recente temperatuurstijging geen geleidelijke beweging , maar een met sterke op- en neergaande bewegingen, terwijl het CO2-gehalte tamelijk gelijkmatig stijgt. Nu is daarover al veel geschreven, onder andere op  deze site. Cruciale vraag in het klimaatdebat momenteel is hoe groot de invloed is van CO2 op het wereldklimaat, de CO2-sensitivity.

CO2

In de klassieke broeikastheorie zoals hier recent behandeld, speelt het broeikasgas CO2 een prominente rol (zie “De Feiten” onder “Klassieke Broeikastheorie”). CO2 heeft de eigenschap dat het langgolvige straling kan absorberen en emitteren. Op grond van deze eigenschap is de hypothese geformuleerd dat een stijgend CO2-gehalte van de atmosfeer de aarde kan opwarmen. De diverse in het laatste IPCC-rapport aangehaalde klimaatmodellen komen op een toename van de temperatuur door CO2-forcing van 1,5 tot maar liefst 6,5 °C.

Laboratoriumproeven toonden al in de jaren ’60 van de vorige eeuw aan dat een verdubbeling van CO2 een temperatuurtoename van 1,1 °C veroorzaakt. Berekeningen aan emissiespectra van langgolvige straling komen tot vergelijkbare resultaten (als álle andere factoren gelijk blijven). De hoge uitkomsten van klimaatmodellen zijn het gevolg van parameterisatie (schattingen) van met name het gedrag van waterdamp en van wolken in de atmosfeer. De vraag hoe goed die schattingen zijn zal ongetwijfeld de komende jaren stukje bij beetje beantwoord worden. Maar zelfs de genoemde toename van 1,1 °C bij verdubbeling van CO2 hoeft zeker niet de klimatologische uitkomst te zijn; daarvoor is het klimaat te complex.

 co2 1958 2012

Bron: NOAA

In de klimatologische toekomst kijken is moeilijk, zo niet onmogelijk. Maar in het verleden kijken gaat heel aardig. De temperatuurmetingen gaan terug tot ongeveer 1850, sommige nog verder. Voor oudere data maken we gebruik van proxies, zoals ijskernen en sedimenten. Atmosferisch CO2 wordt vanaf 1958 gemeten op Hawaï. In de 19e eeuw werd CO2 hier en daar gemeten, maar niet systematisch. Dus ook voor CO2 geldt dat we voor vroegere periodes gebruik moeten maken van proxies.

De relatie CO2-temperatuur op Proterozoische tijdschaal

Hoe verder weg in de geschiedenis van de aarde, des te lastiger is het om een reconstructie te maken van het verloop van temperatuur en CO2-gehalte van de atmosfeer. De Proterozoische tijdschaal omvat het deel van de aardegeschiedenis waarion het begin van leven ontstaat. Het loopt van ongeveer 2,7 miljard jaar geleden tot 542 miljoenjaar geleden. Zo’n 2,7 miljard jaar geleden was er nog nauwelijks CO2 in de atmosfeer. Waarschijnlijk waren toen andere broeikasgassen dominant, zoals CH4. Die situatie veranderde 2,2 miljard jaar geleden, toen de aardse atmosfeer oxideerde. Vanaf dat moment werd CO2 belangrijker.

kaufman1Bron: Kaufman
Kaufman e.a. (2003) pogen het CO2-gehalte tot 1,4 miljard jaar BP vast te stellen. Daartoe hebben ze gebruik gemaakt van koolstofisotopen in microfossielen uit een leisteenformatie in China van 1,4 miljard jaar oud. Ze berekenden dat het CO2-gehalte in deze periode tussen de 10x en 200x zo hoog was als het huidige CO2-gehalte. Over de aardse temperaturen in deze periode zijn weinig gegevens bekend, over een exacte relatie CO2- temperatuur derhalve ook niet. Maar het is vrij zeker dat de oceanen tot 3,5 miljard jaar geleden een groot deel van de tijd ijsvrij waren. De zonne-energie was in die allervroegste periode van de aardgeschiedenis ongeveer 30% kleiner dan momenteel, hetgeen bij de huidige hoeveelheid broeikasgassen waarschijnlijk zou leiden tot bevroren oceanen. Een van de hypotheses is dan ook dat de hoeveelheid broeikasgassen destijds veel groter is geweest dan momenteel. Kaufman gaat uit van verhoogde concentraties CO2 waardoor de aarde toch ijsvrij bleef.

kaufman2

Bron: Kaufman

Overigens staat nu wel vast dat er tijdens het Proterozoicum tenminste 2 glaciale periodes zijn geweest. Beide zijn in bovenstaande grafiek van Kaufman weergegeven. Men onderscheidt in de laatste weer twee afzonderlijke glacialen, namelijk het Sturtian glaciaal (~730 miljoen jaar BP) , en het Marinoan & Varangian glaciaal (~600 miljoen jaar geleden). Deze glacialen staan bekend als snowball earth, omdat de temperaturen zo laag waren dat de oceanen tot aan de evenaar bevroren waren. Dergelijke glaciaties zijn opmerkelijk omdat de CO2-gehaltes toen vele malen hoger waren dan momenteel.

Hoffman e.a. komen tot de conclusie dat vulkanische activiteit een eind maakte aan deze glacialen. Daarbij nam het CO2-gehalte toe tot 350x de huidige waarde!

De relatie CO2-temperatuur op Phanerozoische tijdschaal

De Phanerozoische of tektonische tijdschaal is de periode van het heden tot 542 miljoen jaar BP. Van deze periode is al veel meer bekend over het CO2-gehalte van de aardse atmosfeer, terwijl ook grove temperatuurreconstructies kunnen worden gedaan op basis van onder andere landijsbedekkingen. Het blijkt dat gedurende deze periode van ruim 500 miljoen jaar de aardse temperatuur schommelt tussen een warme fase (hot house) en een koude (ice house).

ice hothouse
Onderstaande grafiek geeft het verloop van het atmosferische CO2-gehalte weer vanaf 545 miljoen jaar BP. Alhoewel de figuur anders doet vermoeden, zijn er slechts 2 onafhankelijke wetenschappelijke bronnen, namelijk de reconstructie volgens het GEOCARB3 model , en de reconstructie volgens Rothman.

co2 geologie

Bron: wikipedia

Het GEOCARB3 model is een model waarin met behulp van een aantal parameters zoals verwering en temperatuur een reconstructie gemaakt is van het CO2-gehalte in de atmosfeer. Berner gaat uit van de veronderstelling dat er sprake is van een steady state van de koolstofstromen die tussen atmosfeer en oceanen aanwezig zijn. De verwering van silicaatgesteente is in het model de spil waar alles om draait.

geocarb

Bron: gatech edu

Het model toont CO2 gehaltes die veel hoger zijn geweest dan de huidige. Lage CO2-gehaltes komen in het model redelijk goed overeen met relatief koude periodes in de aardgeschiedenis, zoals de glaciale periode op de overgang van Carboon en Perm 300 miljoen jaar geleden, en de huidige koude periode die halverwege het Tertiair begon (~30 miljoen jaar BP). Opvallend is dat de glaciale periode gedurende het Ordovicium , zo’n 440 miljoen jaar geleden, niet in het model terug te vinden zijn. Deze koude periode ging gepaard met relatief hoge CO2-gehaltes in het model. Er zijn diverse speculaties over de oorzaak van deze discrepantie, maar een deugdelijk verklarend mechanisme hiervoor is tot nu toe niet gevonden.

geocarb2

Bron:  Royer + Berner 2004, Berner 2001

Daniel Rothman van het MIT heeft in 2002 een reconstructie gemaakt van het CO2-gehalte in het Phanerozoicum. Anders dan Berner baseert Rothman zich op proxies op basis waarvan het CO2-gehalte vastgesteld werd. Hij vergelijkt de chemische verwering van gesteenten ,vulkanische activiteiten en sedimentatie van organische koolstof met gemeten waarden van isotopen van koolstof en strontium.

rothman

Bron: Rothman

In de figuur zijn op de bovenste as met een grijze balk de koude periodes weergegeven. Opvallend is dat Rothman op de overgang van Jura naar Krijt ( (ongeveer 140 miljoen jaar BP) wel een koude periode weergeeft, die in het GEOCARB3 model afwezig is.Rothman heeft gekeken of er een correlatie is tussen de gevonden CO2-waarden en de temperatuur op aarde, en vond geen verband. Hij schrijft: “ Because the long-term evolution of carbon dioxide levels depends similarly on weathering and magmatism, the relative fluctuations of CO2 levels are inferred from the shared fluctuations of the isotopic records. The resulting CO2 signal exhibits no systematic correspondence with the geologic record of climatic variations at tectonic time scales.”

Een derde bron benadert de relatie CO2-temperatuur op weer een andere wijze, en probeert een verband te leggen tussen CO2-gehalte en cosmic ray flux. Shaviv & Veizer hebben in 2003 onderzoek gedaan naar de correlatie tussen CRF (cosmic ray flux) en paleoklimatologische temperatuurreeksen. Op basis van hun bevindingen stellen zij: “We find that at least 66% of the variance in the paleotemperature trend could be attributed to CRF variations likely due to solar system passages through the spiral arms of the galaxy”.

Volgens het tweetal is CO2 dus niet de drijvende kracht achter de aardse temperatuur, maar is kosmische straling de belangrijkste factor. Maar minstens zo belangrijk is de conclusie: “…one interpretation of the above result could be that the global climate possesses a stabilizing negative feedback. A likely candidate for such a feedback is cloud cover (Lindzen, 1997; Ou, 2001). If so, it would imply that the water cycle is the thermostat of climate dynamics, acting both as a positive (water vapor) and negative (clouds) feedback, with the carbon cycle “piggybacking” on, and being modified by, the water cycle (Nemani et al., 2002; Lovett, 2002; Lee and Veizer, 2003).”

Voor uitgebreidere informatie over kosmische straling verwijs ik naar het hoofdstuk “Nieuwe Inzichten”. CO2-fluctuaties lijken dus eerder “mee te liften” op de fluctuaties in de kringloop van het water dan dat ze een drijvende forcing voor temperatuur zijn.

veizer4

Bron: Shaviv & Veizer

Het PETM

Ongeveer 55 miljoen jaar geleden, in het vroeg-Tertiair, was er sprake van een kortstondige extreme verhoging in de aardse temperatuur. Die sterke opwarming gedurende deze Palaeocene/Eocene Thermal Maximum (PETM) wordt algemeen geassocieerd met een sterke stijging van met name CO2 in de atmosfeer. Maar die sterke stijging van de temperatuur is niet (alleen) te verklaren door een sterke stijging van CO2. Overigens was de extreme opwarming van relatief korte duur, namelijk ~ 170.000 jaar.

paganiBron: Pagani
Een bekende hypothese is het vrijkomen van grote hoeveelheden methaanhydraten van de bodem van de oceanen, waarbij CH4 in korte tijd omgezet zou zijn naar CO2. Pagani schreef in 2006 dat een oprisping van methaanhydraten alleen onmogelijk was, en dat er andere mechanismen aan het werk moeten zijn geweest om zeer grote hoeveelheden koolstof vrij te maken (zie figuur hierboven).

Helaas maakt Pagani de veelgemaakte fout door er van uit te gaan dat een sterke temperatuurstijging wel het werk moet zijn van sterk toegenomen broeikasgassen, daarmee mogelijke andere oorzaken veronachtzamend.

sluijsBron: Sluijs e.a.
Sluijs e.a. publiceerden in 2006 een onderzoek op basis van sedimentboringen in de Arctische Zee. Ze concludeerden dat de sterke temperatuurstijging van 10 °C , waarbij watertemperaturen aan de Noordpool werden bereikt van meer dan 23 °C, onmogelijk alleen door broeikasgassen veroorzaakt kan zijn en dat andere factoren een cruciale rol moeten hebben gespeeld in deze plotselinge opwarming. Sluijs e.a. denken daarbij aan feedback mechanismen zoals polaire stratosferische wolken, of orkaan-geïnduceerde mengingen van oceaanwater.

In een publicatie van Sluijs e.a. in 2009 constateren de onderzoekers dat in het Antarctische gebied tijdens de PETM de oceaantemperaturen zelfs 30 °C waren. Vanwege die zeer hoge temperaturen op de polen ontbrak de temperatuurgradiënt tussen polen en tropen zoals wij die nu kennen: het was overal vrijwel even warm. De extreme , relatief korte opwarming verdween even snel als hij gekomen was. Zowel voor het snelle ontstaan als het snelle verdwijnen zijn tot nu toe geen plausibele verklaringen voorhanden.

CO2 en temperatuur gedurende het Kwartair

Het Kwartair is de periode die 2,5 miljoen jaar geleden begint en waarin we ons nog steeds bevinden. Het wordt gekenmerkt door een sterk schommelende temperatuur tussen koud (glacialen) en minder koud (interglacialen). De oorzaken van deze schommelingen zijn te vinden in de relatie tussen de zon en de aarde, zoals als eerste beschreven door de wiskundige Milankovic. Zie het hoofdstuk “Nieuwe Inzichten”.

Diverse ijskernen die op Groenland en Antarctica zijn aangeboord leveren gegevens over temperatuur en CO2-gehalte. Al Gore toonde in zijn documentaire An Inconvenient Truth een grafiek die in ieder geval leek op de data verkregen uit de Vostok kern op Antarctica.

gore3
Bron: An Inconvenient Truth
Hij kreeg de lachers in de zaal op zijn hand door te wijzen op de wel heel duidelijke correlatie tussen beide grootheden. Je moest toch wel een beetje gek zijn als je dat niet zag, nietwaar? En inderdaad, de correlatie is sterk:

Vostok-ice-core-petit2Bron: Nature
Wat Al Gore niet zei, en misschien ook niet wist, is dat bij veel omslagpunten in de Vostokgrafiek de temperatuur een beetje voorliep op de CO2. Een time lag van 800 jaar wordt vaak genoemd, maar dat is eem grof gemiddelde. De tijdvertraging tussen temperatuur en CO2-gehalte varieert van ongeveer 200 jaar tot meer dan 1500 jaar. Dat ziet men niet als de totale temperatuur-CO2-reeks van de Vostok ijskern bekijkt. Maar als je “inzoomt” is dat wel te zien. Deze techniek, veranderen van schaal, wordt in de geografie vaak toegepast. Inzoomen vergroot de details, uitzoomen geeft je meer kijk op grootschalige patronen. Soms vergroot inzoomen je inzichten, soms uitzoomen.

Wanneer men de temperatuur- en CO2-data van dezelfde ijskern in detail bekijkt rond de overgang Weichselglaciaal – Holoceen, dan is duidelijk de time lag te zien bij een aantal markante omslagpunten (zie figuur hieronder).

co2 tempBron: Guy Leblanc
Petit et al. (1999) reconstrueerden oppervlaktetemperaturen en atmosferische CO2-concentraties uit de Vostok ijskern. De onderzoekers noteren: “The CO2 decrease lags the temperature decrease by several thousand years” en: “the same sequence of climate forcing operated during each termination.”

petitBron: UNEP
Indermühle e.a. vonden in hun studie uit 2000 een time lag van 1200 +/- 700 jaar in de Taylor Dome ijskern op Antarctica . Het betrof de periode van 60.000 – 20.000 BP.

In een vergelijkbare studie naar CO2-gehalte en temperatuur verkregen uit de Dome Concordia, Antarctica gedurende 22,000-9,000 BP vonden Monnin et al. (2001) dat er een time lag is tussen temperatuur en CO2 van zo’n 800 jaar. Monin e.a. stellen bovendien: “The close correlation between CO2 concentration and Antarctic temperature indicates that the Southern Ocean played an important role in causing the CO2 increase. ” .
In 2001 publiceerde Mudelsee over de relatie CO2-temperatuur in de Vostok ijskern, en concludeerde dat er een time lag is van 1300 tot 1500 jaar. Onderstaande grafiek toont de door hem gevonden time lag:

mudelseeBron: Mudelsee
In 2003 publiceerden Caillon e.a. een studie over de timing van CO2 en temperatuur op de scherpe overgang van het interglaciaal (in West Europa het Oostermeer-interglaciaal genoemd) naar de Saale-ijstijd, zo’n 240.000 jaar geleden. Conclusie: “The sequence of events during Termination III suggests that the CO2 increase lagged Antarctic deglacial warming by 800 – 200 years and preceded the Northern Hemisphere deglaciation”.
Al met al mag geconcludeerd worden dat de time lag tussen temperatuur en CO2-gehalte in het Pleistoceen zeer goed gedocumenteerd is. Het CO2-gehalte volgt de temperatuurstijgingen en –dalingen, en niet andersom. De vraag blijft natuurlijk hoe dit mechanisme werkt. Met andere woorden: op welke wijze veroorzaakt een koudere oceaan lagere CO2-gehaltes en andersom?

oceaantempBron: windows2universe


Een voor de hand liggende verklaring is dat CO2 beter oplosbaar is in kouder water dan in warmer water. Op deze wijze zou dus een deel van het atmosferische CO2 tijdens glacialen oplossen in water. Bij 1 atmosfeer druk ,een watertemperatuur van 15 °C (= de huidige gemiddelde wereldtemperatuur) en het huidige atmosferische CO2-gehalte is er 0,78 mg CO2 per liter water opgelost. Als die temperatuur daalt naar 10 °C dan stijgt het opgeloste CO2 naar 0,92 mg/l bij gelijkblijvend atmosferisch gehalte.

In werkelijkheid verandert het CO2-gehalte in de atmosfeer natuurlijk ook als dat in de oceanen stijgt of daalt. Bovendien gelden de gekozen watertemperaturen slechts voor de bovenste paar honderd meter, de zogenaamde mixed layer. Daaronder daalt de temperatuur snel, en dieper dan 1500 m is het oceaanwater gemiddeld 2 °C. Het is duidelijk dat de oplosbaarheid van CO2 in oceaanwater dus ook afhankelijk is van menging tussen het water aan de oppervlakte en op grotere diepte.

In onderstaande figuur van de pre-industriële koolstofkringloop is te zien dat de totale hoeveelheid C in de diepere oceaan ongeveer 55x groter is dan in het oppervlakkige deel.

c oceaanBron: Sigman en Boyle
Een aantal wetenschappers is er van overtuigd dat de veranderende oplosbaarheid in water niet de enige verklarende factor kan zijn voor de schommelingen in het CO2-gehalte gedurende het Kwartair. Sigman en Boyle publiceerden in Nature in 2000 een artikel (“Glacial/interglacial variations in atmospheric carbon dioxide”) waarin zij een verklaring trachten te vinden voor de CO2-schommelingen in het Kwartair. Ze gaan ervan uit dat de glaciale-interglaciale temperatuurschommelingen een fluctuatie van het atmosferische CO2 hebben kunnen veroorzaakt van ongeveer 30 ppm. Bovendien is tijdens glacialen het zoutgehalte in de oceanen hoger dan normaal, hetgeen de oplosbaarheid van CO2 vermindert . Al met al zijn de temperatuurfluctuaties niet voldoende om als volledige verklaring te kunnen dienen.

Sigman en Boyle menen dat de oplossing gezocht moet worden in de zogenaamde “biological pump”. Dat is een deel van de koolstofcyclus waarbij organisch koolstof gevormd wordt in het bovenste deel van de oceanen. Een variërende biologische productie in combinatie met veranderingen in de vorming van calciumcarbonaat dat neerslaat vormen volgens de onderzoekers een positieve tegenkoppeling van temperatuurschommelingen in het Kwartair.

bio pump

Bron: Wikipedia


Einde van de laatste ijstijd

Lowell Stott e.a. publiceerden in Science in 2007 een opzienbarende studie, getiteld “Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming”.

Stott e.a. deden onderzoek naar de stijging van atmosferisch CO2 aan het einde van de Weichsel ijstijd, zo’n 18.000 jaar geleden, en de opwarming die de opmaat vormde voor het huidige interglaciaal. Dat deden ze door isotopen onderzoek in mariene sedimenten in het westelijk deel van de Grote Oceaan. Ze vonden dat de stijging van het CO2 vooraf gegaan werd door een stijging van de temperatuur, zo’n 1300 jaar eerder. Deze was het gevolg van de opwarming van diep zeewater op het zuidelijk halfrond. Die opwarming was weer het gevolg van een toegenomen instraling in de lente op Antarctica, in combinatie met een afnemende albedo van drijfijs.

Deze conclusies werden door Stoot nogmaals bevestigd in een publicatie genaamd “The Oceanic Climate Capacitor” in GeoScience ( 2010 ). Hierboven zagen we al dat ook Monnin een grote rol inschatte voor het Antarctisch gebied bij grote temperatuurovergangen.

stott

Bron: Stott

In een interview in ScienceDaily in 2007 zegt Stott: ” I don’t want anyone to leave thinking that this is evidence that CO2 doesn’t affect climate. It does, but the important point is that CO2 is not the beginning and end of climate change.” Ik denk dat Stott met deze uitspraak de spijker op zijn kop slaat. CO2 is een broeikasgas en heeft als zodanig invloed op de energiebalans van de aarde. Maar dat wil nog niet zeggen dat atmosferisch CO2 de “major trigger” is voor klimaatverandering. De bovenstaande publicaties tonen dat glashelder aan.

Ter afsluiting een grafiek die het verloop van temperatuur en atmosferisch CO2-gehalte weergeeft gedurende het Phanerozoicum. De temperatuurreeks is gebaseerd op Scotese, de CO2-reeks op Berner.

temp co2
 
 
 
 
 
 
Menselijke invloeden
 
 
 

Van de totale hoeveelheid CO2 die jaarlijks in de atmosfeer wordt geëmitteerd is 3,4% afkomstig van de mens. Zie de figuren hieronder, afkomstig uit het IPCC Third Assessment Report. Ongeveer de helft van deze jaarlijkse emissies verdwijnt in zogenaamde sinks zonder dat we weten wat er mee gebeurt. Naar schatting kan van de toename van alle broeikasgassen (buiten H2O) sinds de industriële revolutie ongeveer 25% worden toegeschreven aan de mens. Zoals hiervoor al beschreven is H2O in de vorm van waterdamp (70%) en waterdruppels (20%) voor ongeveer 90% verantwoordelijk voor het totale broeikaseffect; de resterende 10% komen voor rekening van de andere broeikasgassen, waarvan CO2 het belangrijkste is. Bij een menselijk aandeel van 25% van de totale geaccumuleerde hoeveelheid CO2 betekent dit dat de mens verantwoordelijk is voor 0,25 x 0,1 = 2,5% van de totale hoeveelheid broeikasgassen.

co2 emissies ippc1
 
 
 
co2 emissies ippc2
 
 
 

Maar dat betekent echter niet dat de mens verantwoordelijk is voor 2,5% van het totale broeikaseffect en dat we dat percentage 1 op 1 kunnen doorrekenen naar een bepaalde temperatuurtoename door menselijke activiteiten. Zoals we hiervoor al zagen kan CO2 veel meer langgolvige straling absorberen dan het in werkelijkheid doet, als gevolg van “concurrentie” met andere broeikasgassen.

Voor waterdamp en wolken geldt hetzelfde. Bovendien is het verband tussen CO2 en temperatuur niet lineair maar logaritmisch, zoals we verderop zullen zien.

co2-1
 
 
 
co2-2

 
Aerosolen 

 

Joel R. Norris and Anthony Slingo, 2009, in: Clouds in the Perturbed Climate System, Massachusetts Institute of Technology and the Frankfurt Institute for Advanced Studies :

“Nonetheless, several studies have made use of high-quality stations and documented a geographically widespread decrease in surface solar radiation from the 1960s until the mid-1980s, followed by an increase from the 1990s onward (Wild et al. 2005). These trends are popularly known as “ global dimming” and “ global brightening,” even though they do not necessarily occur around the entire world. The reported trends probably represent regional rather than global mean changes in downwelling solar radiation, and may suffer from an urban bias (Alpert et al. 2005). Several explanations for the observed “global dimming” and “global brightening” have been offered, including trends in cloud cover and cloud optical thickness.

The most plausible general cause, however, is a rise followed by a decline in anthropogenic aerosol burden. According to this scenario, hazefrom fossil fuel and biomass burning has increased since the middle of the 20th century and has, as a result, enhanced atmospheric re ection and absorption of solar radiation (“global dimming”). Air pollution control laws enacted during the 1980s and later in certain countries reduced this haze, thus allowing more solar radiation to reach the surface (“global brightening”). Another likely factor contributing to “brightening” in Europe was the shutdown of fossil fuel combustion sources following the collapse of communism in Eastern Europe. In certain developing countries such as India, “global dimming” continues and there has been no reversal to “brightening” (Wild et al. 2005).

 

Er is nogal wat reuring ontstaan over een publicatie van Murry Salby , klimatoloog aan de Macquarie Universiteit in Sydney, Australië. Nu staat CO2 toch al bij het Australische publiek in de belangstelling vanwege het al of niet invoeren van een groene belasting, maar professor Salby heeft de knuppel in het wetenschappelijke hoenderhok gegooid. Op een bijeenkomst van de IUGG, International Union of Geodesy and Geophysics, gaf hij een voorproefje van zijn komende publicatie. De Australische site joannenova.com.au deed er onlangs een boekje over open.

co2 sourcesink                                                           Bron: Tom Quirk
De conventionele hypothese is dat de stijging van het atmosferische CO2 van ~280 ppm in de 19e eeuw tot ~390 ppm in 2011 het gevolg is van de antropogene uitstoot van CO2 door verbranding van fossiele brandstoffen. Omdat de afgelopen decennia die uitstoot ongeveer 2x zo snel gaat als de groei van het CO2-gehalte gaat men er van uit dat ~50% van die antropogene CO2 opgenomen wordt door de oceanen. Zie de figuur hierboven.

Wat heeft Salby gevonden? Het CO2 dat in de atmosfeer zit bestaat uit 2 isotopen: 98,9% zogenaamd 12C, en 1,1% 13C. Die verhouding is niet voor elke bron gelijk: fossiele brandstoffen hebben een iets andere verhouding 13C/12C dan bijvoorbeeld planten. De ratio voor fossiele brandstoffen is kleiner dan die van planten. Tot nu toe is men er van uitgegaan dat op basis van die 13C/12C ratio vastgesteld kon worden dat de ‘extra’ CO2 in de atmosfeer het gevolg was van antropogene uitstoot, ook omdat de ratio 13C/12C in de loop van de tijd kleiner geworden is: de ‘fingerprint’. Salby stelt dat het verschil tussen CO2 uit fossiele brandstoffen en CO2 uit planten zeer klein is: de ratio’s verschillen slechts 2,6% van elkaar . Alleen al daarom is niet vast te stellen ‘waar’ het extra CO2 vandaan komt. Hij stelt dat 80% van de variaties in atmosferische CO2 het gevolg is van schommelingen in de temperatuur.

spencer15

spencer16                                                                              Bron: WUWT
Ook Roy Spencer heeft dat enkele jaren geleden al beredeneerd. Bovenstaande figuren geven het CO2-signaal en het 13C-signaal weer als de trend verwijderd is. De overeenkomst is duidelijk. Hij vergelijkt dan de variabiliteit van beide bovenstaande signalen met elkaar, en komt tot de verrassende ontdekking dat de ratiohelling exact hetzelfde is als bij vergelijking van de trendsignalen, namelijk 1.0952%. Spencers conclusie: “Bottom line: If the C13/C12 relationship during NATURAL inter-annual variability is the same as that found for the trends, how can people claim that the trend signal is Manmade?? ”.

c cyclus

Bron: Wikipedia

Nu is het sowieso al erg lastig omvast te stellen ‘waar’ CO2 vandaan komt (sources) en waar het weer opgenomen wordt (sinks). Op bovenstaande figuur is de koolstofcyclus weergegeven. De belangrijkste bronnen voor atmosferisch CO2 zijn de oceanen ( 90 gigaton/jaar) , vegetatie (60 gigaton/jaar) en bodems (60 gigaton/jaar). De inbreng van de mensheid is slechts 5,5 gigaton/jaar. De menselijke inbreng in atmosferische koolstof is dus 2,6%. Men kan zich afvragen of een dergelijke kleine inbreng er wel toe doet, zeker als men bedenkt dat bovenstaande getallen schattingen zijn. De foutenmarges in die grote stromen zijn groter dan de antropogene inbreng. Bovendien: een relatief kleine variatie in de natuurlijke stromen van koolstof in de cyclus zal de menselijke inbreng overschaduwen. Maar afgezien daarvan: hoe kan het dat die zeer kleine extra source in staat is om het atmosferische CO2-gehalte zo op te drijven? De vraag stellen is hem beantwoorden vinden sommige wetenschappers.

Er zijn de afgelopen jaren vanuit diverse kanten twijfels gerezen over de antropogene oorsprong van de stijging van het atmosferische CO2. Een daarvan heeft te maken met de dalende 13C/12C ratio. Veel planten gebruiken hoofdzakelijk 12C in hun assimilatieproces, het zogenaamde C3 metabolisme. Maar een klein deel van de planten (~3% van de plantensoorten) heeft een zogenaamde C4 metabolisme en nemen meer 13C op dan de meeste planten.

mais                                                                   Bron: http://faostat.fao.org
Een van die soorten is maïs. En de productie van maïs is de afgelopen decennia enorm gestegen: vanaf 1961 is de productie ongeveer verviervoudigd. Die vermaizing van het platteland heeft ook in ons land, met name op de zandgronden in het oosten en zuiden, de afgelopen decennia een grote vlucht genomen. Dit kan invloed hebben op de 13C/12C ratio van de atmosfeer.

Salby ontkent niet dat CO2 van antropogene oorsprong invloed heeft op het CO2-gehalte van de atmosfeer, hij betwijfelt of die invloed dominant is, zoals tot nu toe werd aangenomen. Hij constateert dat de grootste toenames van CO2 plaatsvinden tijdens El Niño-condities, en de kleinste tijdens grote vulkaanuitbartingen. Dat wijst op een grote gevoeligheid van atmosferisch CO2 voor temperatuurschommelingen. Een fraai voorbeeld van die temperatuurgevoeligheid levert de redacteur van de site klimaatfraude.info. Hij vergelijkt de globale temperatuurstijging volgens HadcrutV3 met de variaties in het CO2-gehalte. Het resultaat ziet u hieronder. Een verbazingwekkend mooie correlatie , waarbij de CO2 grafiek na-ijlt op de temperatuur. Uiteraard gaat het hier om de variaties, de trend is er uit gehaald. Maar de sturende invloed van de temperatuur op het CO2-gehalte is onmiskenbaar.

co2 hadcrut

Bron: woodfortrees.org

Roy Spencer trok in 2008 in een bijdrage voor WUWT al de aandacht voor het CO2-probleem. In onderstaande figuur is de uitstoot door de mens uitgedrukt in mmtC ( miljoen metrische tonnen C per jaar ) vergeleken met de variaties in CO2 (uitgedrukt ijn mmtC) gemeten op Mauna Lao. De enorme variatie in atmosferisch CO2 is niet het gevolg van de antropogene emissies, maar van natuurlijke variaties.

spencer12
 
 
 

Spencer vergelijkt de trends van het CO2-gehalte uit bovenstaande figuur met die van de Hadcrutv3 globale temperatuur en vindt een toename van 4300 mmtC in Mauna Loa bij 1°C temperatuurstijging. Als hij uit beide grafieken (Mauna Loa en HadCrutv3) de trend haalt en dan beide datasets met elkaar vergelijkt , dan blijkt dat de regressiehelling 5100 mmtC/1°C is. De grootste correlatie ontstaat als je de temperatuurdata van de oceanen op het zuidelijk halfrond vergelijkt met Mauna Loa: 7100 mmtC/1°C.

spencer14
Spencer concludeert hieruit twee dingen. In de eerste plaats dat het mechanisme dat El Niño/La Niña veroorzaakt sterk genoeg is om de stijgende trend in CO2 op Mauna Loa te verklaren. In de tweede plaats dat het eerder de oceanen dan de continenten zijn die de variaties CO2 op Mauna Loa verklaren. Mogelijk dat een toename van de El Niño/La Niña-activiteit de afgelopen decennia een (grote) impact heeft gehad op het atmosferisch CO2-gehalte. Grotere fluctuaties in omhoogkomend koud zeewater aan de westzijde van continenten, met mogelijke toename van de aanvoer van CO2 uit grotere diepten.

Op onderstaande figuur zijn de variaties van CO2 op Mauna Loa afgezet tegen de antropogene emissies. De variaties lopen van 0% tot 130% van die menselijke emissies. Spencer concludeert: “In Fig. 5 we see that the yearly-average CO2 increase at Mauna Loa ends up being anywhere from 0% of the human source, to 130%. It seems to me that this is proof that natural net flux imbalances are at least as big as the human source. ”

spencer13
De grote vraag is tenslotte, wat de drijvende kracht zou kunnen zijn achter de natuurlijke variaties van het CO2-gehalte. Het idee van Spencer dat het met name de oceanen zijn die de drijvende kracht zijn achter het atmosferische CO2 wordt ook gedeeld door Tom Quirk in een publicatie uit 2009.

In de publicatie van Quirk is een interessant deelonderzoek te vinden. Ongeveer 75% van de antropogene CO2 emissies vindt plaats ten N van 30° NB. De vraag rees hoe snel C zich over de aarde kan verspreiden. Omdat CO2 ruimtelijk diffuus geëmitteerd wordt (en geabsorbeerd) maakte Quirk gebruik van het feit dat eind jaren ’50 en begin jaren ’60 nabij de Noordpoolcirkel nucleaire proeven zijn gedaan waarbij 14C vrij kwam. Op onderstaande figuur is te zien dat het enkele jaren duurde voordat dit 14C gelijkmatig over de aarde verspreid was.

quirk1
Men zou verwachten dat op grond van bovenstaande er een time lag is tussen de variaties in CO2 van het NH en die van het ZH, met een omvang van ongeveer een half jaar. Om dat te kunnen vaststellen heeft Quirk de CO2 datareeksen van Mauna Loa en Antarctica vergeleken. Het resultaat ziet u in onderstaande figuur. Van een time lag tussen het NH en het ZH is geen sprake.

quirk2

Hij concludeert: “The results suggest that El Nino and the Southern Oscillation events produce major changes in the carbon isotope ratio in the atmosphere. This does not favour the continuous increase of CO2 from the use of fossil fuels as the source of isotope ratio changes. The constancy of seasonal variations in CO2 and the lack of time delays between the hemispheres suggest that fossil fuel derived CO2 is almost totally absorbed locally in the year it is emitted. This implies that natural variability of the climate is the prime cause of increasing CO2 , not the emissions of CO2 from the use of fossil fuels 


Broeikastheorie

Vraag 10 mensen wat het belangrijkste broeikasgas is en tenminste 9 zullen CO2 antwoorden. Fout dus. Het belangrijkste broeikasgas is H2O, in de vorm van waterdamp en wolken. Kooldioxide vormt, zoals gezegd, 0,038% van de atmosfeer, terwijl water in zijn verschillende vormen varieert van 0% tot 4% van de atmosfeer. Kort gezegd: het grootste deel van het broeikaseffect wordt veroorzaakt door H2O als gevolg van de overvloedige aanwezigheid ervan in de atmosfeer. Water is goed voor ongeveer 90% van het broeikaseffect : ongeveer 70% is te wijten aan waterdamp en ongeveer 20% aan wolken (meestal waterdruppels).

broeikasgassen

Sommige schattingen over de werkzaamheid van water als broeikasgas reiken zelfs zo hoog als 95% van het totale troposferisch broeikaseffect ( e.g., Freidenreich and Ramaswamy, “Solar Radiation Absorption by Carbon Dioxide, Overlap with Water, and a Parameterization for General Circulation Models,” Journal of Geophysical Research 98 (1993):7255-7264). Het resterende deel komt van kooldioxide (CO2), lachgas, methaan, ozon en diverse andere “kleine broeikasgassen.” Als een voorbeeld van het relatieve belang van water moet worden opgemerkt dat veranderingen in de relatieve vochtigheid op de orde van grootte van 1,3 – 4% gelijk staat aan het effect van de verdubbeling van CO2.

Gezien de huidige samenstelling van de atmosfeer is de bijdrage aan de totale verwarming in de troposfeer (het onderste deel van de atmosfeer, 0-10 km, waarin zich de belangrijkste weersprocessen afspelen) ongeveer 5% door kooldioxide en ongeveer 95% door waterdamp. In de stratosfeer (10-50 km) echter is de bijdrage ongeveer 80% door kooldioxide en ongeveer 20% door waterdamp, maar in dit deel van de atmosfeer levert het slechts een relatief kleine bijdrage aan het totale broeikaseffect.

Het netto broeikaseffect voor de totale atmosfeer wordt derhalve voor ongeveer 90% bepaald door H2O (in de vorm van waterdamp en wolkendruppels) en 10% CO2 en andere broeikasgassporen.Overigens variëren de cijfers sterk, afhankelijk van onder andere de breedteligging. De verhouding 90% : 10% betreft het wereldwijde jaarlijkse netto broeikaseffect van de totale atmosfeer.

Bovenstaande figuur geeft een beeld van de diverse golflengtes en bandbreedtes waarop broeikasgassen straling absorberen. Daar waar een donker vlak tot de bovenliggende lijn doorloopt absorbeert het gas de betreffende golflengtes volledig. Zodra in zo’n zogenaamd stralingsvenster de straling volledig geabsorbeerd wordt zal een toename van het betreffende broeikasgas geen extra broeikaseffect veroorzaken.

straling

In de grafiek hierboven is de totale absorptie in de atmosfeer weergegeven, dus zowel in het infrarood gebied als in het gebied van de kortgolvige zonnestralen. Van de 33° C temperatuurverhoging van de troposfeer als gevolg van het broeikaseffect komt ruwweg 21° C voor rekening van waterdamp. Waterdamp absorbeert sterk in de banden 2,4 – 3,1 µm, 4,5 – 6,5 µm en boven de 16 µm. Voor CO2 is de belangrijkste absorptieband gelegen bij 14 – 16 µm, maar er zijn ook absorptiebanden bij 2,6 µm en 4,2 µm.

Daar waar in het infrarode spectrum waterdamp en CO2 niet werkzaam zijn als absorptiemedium, zoals in de nabijheid van 10 µm golflengte, ontsnapt langgolvige straling ongehinderd de ruimte in. Het gebied van 8,5 – 13 µm is het zogenaamde atmosferische venster.

Waar infrarood straling geabsorbeerd wordt door broeikasgassen, nemen de moleculen de energie op , raken in trilling, en stralen ze de energie vrijwel onmiddellijk weer in alle richtingen uit. Uiteindelijk wordt de energie op deze manier naar de rand van de dampkring getransporteerd, waar het de ruimte in verdwijnt.

In onderstaande figuur is te zien dat van de totale uitstraling van warmte een kleine 20% de ruimte in verdwijnt via het atmosferisch venster, terwijl de rest uitgestraald wordt door waterdamp, CO2 en wolken.

Omdat de band rond 15 µm vrijwel verzadigd is, zal een stijgend CO2 gehalte slechts een stijging van absorptie veroorzaken in de smalle banden van 2,6 en 4,2 µm. Wat dit voor consequenties heeft wordt op de volgende pagina nader beschreven.

CO2 is tamelijk gelijkmatig verspreid over de atmosfeer, dus is het aannemelijk dat CO2 een relatief groter effect moet hebben op de luchttemperatuur in regio’s waar de hoeveelheid waterdamp gering is, zoals woestijnen en Arctische gebieden.

In gebieden met relatief veel waterdamp, zoals de tropen en een groot deel van de gematigde zone, is het effect van CO2 gering in vergelijking met dat van waterdamp.

 

 

 

 

 

 

 

 
Onderstaande figuur  is uit de dissertatie van Rob van Dorland, en toont het effect van diverse broeikasgassen op de kortgolvige en langgolvige straling, op diverse hoogtes. De figuur is ontleend aan een publicatie van S.Manabe en R.F.Strickler.

dorland ghg

Op de horizontale as staat de invloed op de stralingsbalans in K/dag. Geen invloed is 0. Negatieve tendensen hebben een afkoelend effect, positieve een opwarmend effect. Interessant is de top in de grafiek van L CO2 op ongeveer 2,5 km hoogte.  Dit voorspelde ´warmte-eiland´ is nog niet waargenomen.

 

De theorie

De term “broeikaseffect” is eigenlijk slecht gekozen. Een echte kas belemmert weliswaar – net als broeikasgassen dat doen- de uitstraling van een deel van de langgolvige warmtestraling, maar verhindert ook convectie van warme lucht, terwijl in de atmosfeer convectie een zeer belangrijk proces is. Het broeikaseffect is nodig om de aarde leefbaar te houden. Om te begrijpen wat het betekent als het broeikaseffect en atmosfeer ontbreekt hoef je maar naar de maan te kijken. De gemiddelde temperatuur gedurende een “maandag” is 107 °C , de temperatuur in de “maannacht” daalt tot -153 °C. De temperatuur op aarde met atmosfeer en wolken, maar zonder broeikaseffect, wordt geschat op -18 °C (255 K) Het broeikaseffect verhoogt de temperatuur van de aarde met ongeveer 32 °C.

in uitstraling

De zon, die veel warmer is dan de aarde, zendt kortgolvige straling uit, terwijl de aarde langgolvige straling uitzendt. Hoe koeler de aarde of de atmosfeer, des te lager de energie-intensiteit, en des te groter de golflengte van de uitgezonden straling.

Broeikasgassen zijn in het algemeen doorlaatbaar voor inkomende zonnestraling (ze laten de meeste zonnestraling door) en (deels) ondoorlaatbaar voor aardse warmtestraling (ze absorberen en emitteren de warmtestraling). Maar zuurstof en ozon absorberen inkomende ultraviolette (UV) straling (<0.3μm), en water, ozon, zuurstof en, in mindere mate kooldioxide, absorberen ook een kleine hoeveelheid inkomende kortgolvige straling < 3 micron (micrometer).veel warmer is dan de aarde, zendt kortgolvige straling uit, terwijl de aarde langgolvige straling uitzendt. Hoe koeler de aarde of de atmosfeer, des te lager de energie-intensiteit, en des te groter de golflengte van de uitgezonden straling.

Het is vooral de UV-absorptie door ozon die de opwarming in de stratosfeer boven de tropopauze veroorzaakt.

Broeikasgassen vormen niet echt een hindernis voor de door de aarde uitgezonden warmtestraling, maar vertragen de energieoverdracht van de aarde naar de ruimte. Hoewel deze energieoverdracht kan worden vertraagd op weg naar de ruimte, uiteindelijk is er geen houden aan en zal de warmtestraling de ruimte in verdwijnen.

stralingsbalans3

                                                                      Bron:  University of Colorado 

Berekening thermisch evenwicht voor een aarde zonder atmosfeer:

De zon gedraagt zich ongeveer als een zwart lichaam met straal r s = 6,599 x 10 5 km, en een temperatuur van Ts = 5783 K. De stralingsflux van de zon aan het oppervlak wordt gegeven door de uitdrukking E=σTs^4, waarbij σ de Stefan -Boltzmann constante is (5,6704 x 10 -8 Wm2K4). Flux is de straling per oppervlakte-eenheid. De afstand aarde-zon is: res = 1,496 x 108 km. Daardoor vermindert de flux met een factor (rs / res)2. De aarde opgevat als schijf heeft een doorsnede cs = πr e2, waarin re de straal van de aarde is (6,378 x 103 km), dus onderschept de aarde cs σTs4 (rs / res)2 straling van de zon . Een evenwicht in de stralingsbalans tussen inkomende en uitgaande straling resulteert in een temperatuur Te, waarin σTe4 4πre2 = een cs σTs4 (rs / res)2. Dit leidt tot een temperatuur van de aarde Te = 272 K, dus -1 °C . Maar door wolken (natuurlijk alleen mogelijk als er een atmosfeer is) wordt ongeveer 30% van de invallende zonnestraling gereflecteerd. Als je hiermee rekening houdt kom je op een temperatuur van de aarde zonder atmosfeer van T e = 255 K, dus -18 °C . Als het aardoppervlak alleen gekoeld zou worden door uitstraling, dan zou de aarde ruim 60°C heet zijn. Dat is te warm voor veel leven op aarde. Maar door convectie van latente en voelbare warmte naar de hogere delen van de atmosfeer, en door grootschalige luchtcirculatie richting polen daalt de oppervlaktetemperatuur ruim 45 °C , en wordt de gemiddelde temperatuur van het aardoppervlak geschat op ongeveer 15 °C. Dat is dus de gemiddelde temperatuur als je het broeikaseffect mee rekent.

Overigens absorberen broeikasgassen niet alle langgolvige straling, maar slechts warmtestraling van bepaalde golflengtes en bandbreedtes. Bovendien zendt de aarde geen oneindige hoeveelheid warmte van de “juiste” golflengtes uit. Gevolg is dat er sprake is van competitie tussen de diverse broeikasgassen, zeker als ze werkzaam zijn op ongeveer dezelfde golflengtes, zoals CO2 en H2O.

Zo zouden wolken theoretisch wel 50% van de totale warmtestraling kunnen absorberen, maar in werkelijkheid is dat aanmerkelijk minder dan 50%. Voor de andere broeikasgassen geldt hetzelfde: de theoretisch maximaal haalbare absorptie van warmtestraling wordt nooit gehaald. Ondanks de aanwezigheid dus van broeikasgassen is de oppervlaktetemperatuur van onze aarde gemiddeld 15 °C in plaats van 77 °C. Dit is het gevolg van convectie van warme lucht, waardoor grote hoeveelheden energie naar grotere hoogten worden getransporteerd en de uitstraling daar toeneemt. Bovendien speelt verdamping van water een rol, waardoor latente warmte tot bovenaan de troposfeer wordt getransporteerd.

milankovitch

Verandering is eigenlijk het enige constante kenmerk van het klimaat. Het wereldklimaat verandert voortdurend, zowel door invloeden vanuit de ruimte als op de aarde zelf. De Servische wiskundige Milutin Milanković onderzocht de oorzaken van de afwisseling van ijstijden en warme interglacialen gedurende de afgelopen 2,5 miljoen jaar. In de figuur hierboven is te zien dat er drie factoren zijn waardoor deze afwisseling verklaard kan worden: de excentriciteit van de aardbaan, de hoek van de aardas (obliquiteit) en het tollen van de aardas (precessie).

Maar ook andere buitenaardse factoren beïnvloeden het aardse klimaat, zoals de kracht van de zonne-energie, inslagen van grote meteorieten en fluctuaties in kosmische straling.

Er zijn naast “buitenaardse” factoren ook terrestrische klimaatfactoren werkzaam, zoals vulkanische activiteit, continentverschuivingen, en de ligging en aard van zeestromen.

Toch is de angst van de afgelopen tijd niet gericht op al deze bekende en soms krachtige klimaatfactoren, maar slechts op de toename van een van de broeikasgassen, namelijk CO2. Onder het versterkte broeikaseffect wordt dan verstaan de bijdrage die de door de mens veroorzaakte stijging van het CO2 -gehalte zou leveren aan de temperatuurstijging van de afgelopen eeuw. Het pre-industriële CO2 -gehalte van de atmosfeer wordt geschat op ongeveer 280 ppm, het huidige gehalte is 390 ppm.


trenberth stralingsbalans                                                                               Bron:  Kevin Trenberth
Bovenstaande figuur beeldt de klassieke stralingsbalans van de aarde uit. Ik noem deze “klassiek”, omdat deze balans al vele jaren het standaardmodel vormt van de energiestromen naar en van de aarde, en omdat er recent nieuwe hypothesen zijn geformuleerd waarin de stralingsbalans afwijkt van de standaardbalans. In deze en komende bijdragen poog ik enig inzicht te geven in de werking van de stralingsbalans en de invloed van broeikasgassen daarop.

Als men bovenstaande figuur nader bekijkt, dan is onmiddellijk te zien dat er inderdaad sprake is van een balans: what goes in must come out. Omdat het bij straling om energie gaat kunnen we die aangeven in Watt, dus per oppervlakte-eenheid  Watt/m2 . Zonlicht (kortgolvige straling) is de bron van nagenoeg alle energie in de atmosfeer. De input van kortgolvige straling aan de buitenzijde van de atmosfeer is 341 Watt/m2. Daarvan  verdwijnt 100 Watt/m2 doordat het licht reflecteert op wolken, op kleine deeltjes in de atmosfeer en aan het aardoppervlak (vooral op sneeuw- en ijsvelden).  Wat overblijft wordt geabsorbeerd door het aardoppervlak (continenten en oceanen) en de atmosfeer. Dat is ongeveer 239 Watt/m2.

Door deze absorptie van kortgolvige straling warmt de aarde op en gaat langgolvige straling uitzenden (warmtestraling). De Eerste Wet van de Thermodynamica stelt dat energie niet verloren kan gaan, noch uit het niets kan ontstaan.  Gevolg is dat de aarde net zoveel energie uitzendt als het ontvangt. Dus ook ongeveer 239 Watt/m2.

In onderstaande grafiek is de atmosfeer  opgedeeld in 2 lagen, de troposfeer en de stratosfeer. De energiestromen van kortgolvige en langgolvige straling zijn in % aangegeven.

stralingsbalans2

stralingsbalans2a                                                        Bron: John M.Wallace, Atmospheric Science.
Past men nu de Wet van Stefan-Bolzmann toe op deze 239 Watt/m2, dan is die 239 Watt/m2  de energie die een zwart lichaam uitstraalt met een oppervlaktetemperatuur zo’n -18 °C. In werkelijkheid is de oppervlaktetemperatuur ongeveer 15°C. Dit is de door metingen verkregen temperatuur. We gaan er van uit dat het verschil, 33°C, het gevolg is van het broeikaseffect, het effect dat broeikasgassen en wolken hebben op de temperatuur aan het aardoppervlak.

Maar als de aarde met een temperatuur van 15°C de ruimte in zou stralen in plaats van -18°C, dan zou de bijpassende energiestroom veel groter zijn dan 239 Watt/m2. En dat is onmogelijk volgens de Eerste Wet van de Thermodynamica. De aarde straalt gewoon 239 Watt/m2  de ruimte in , maar doet dat niet vanaf het warme aardoppervlak, maar vanaf grotere hoogte in de atmosfeer, waar de temperatuur veel lager is. Die afnemende temperatuur met de hoogte is het gevolg van het feit dat bepaalde gassen en wolken de langgolvige straling absorberen en weer uitzenden: het broeikaseffect. Overigens zou dit effect beter het atmosfeereffect kunnen heten, want de werking van een tuinderskas heeft veel meer te maken met het verhinderen van opstijgen van warme lucht dan van absorptie van langgolvige straling.

lapse rate                                                              Bron:  Roy W. Spencer, Climate Confusion

In bovenstaande figuur is te zien wat het broeikaseffect voor gevolgen heeft voor de temperatuur aan het aardoppervlak en de atmosfeer. De gestreepte lijn laat het effect zien indien er uitsluitend warmtestraling zou werken om warmtestraling de ruimte in te transporteren, dus de aarde af te koelen. Het zou aan het aardoppervlak een gemiddelde temperatuur van 60°C betekenen, een onleefbare temperatuur. Dat het broeikaseffect de aarde leefbaar maakt is dus erg betrekkelijk. Op de grens van troposfeer en stratosfeer zou de temperatuur onder deze omstandigheden ongeveer -85°C zijn.

De ononderbroken lijn laat de zogenaamde lapse rate zien, het werkelijk verloop van de temperatuur met de hoogte. Die lapse rate is gemiddeld -6.5°C/km. Het verschil zit in wat Spencer “weather”  noemt. Het bestaat uit twee andere energiestromen die warmte van het aardoppervlak naar boven transporteren, namelijk voelbare warmte en latente warmte.

Die voelbare warmtestroom bestaat uit de verplaatsingen van warmte via luchtstromen, zowel vertikaal als horizontaal. De verticale luchtstromen brengen enorme hoeveelheden energie van het aardoppervlak naar grotere hoogte, waar broeikasgassen nauwelijks nog een rol spelen en er vrije uitstraling naar de ruimte kan plaatsvinden.

De latente warmtestroom is de energie die door verdamping in waterdamp meegevoerd wordt en op grotere hoogte weer vrijkomt bij condensatie. Het gevolg van beide processen is dat warmte van het aardoppervlak tamelijk efficiënt naar grotere hoogte wordt afgevoerd alwaar het door straling de ruimte in verdwijnt. Gevolg: de temperatuur aan het aardoppervlak daalt sterk,  van gemiddeld 60°C  naar 15°C: de aarde is leefbaar.

lapse rate1
                                                               Bron: Wallace & Hobbs, Atmospheric Science

In bovenstaande grafiek zijn beide lijnen uit de figuur van Spencer weer terug te vinden. De rode lijn  is het gevolg van uitsluitend straling, de zwarte lijn is de lapse rate. De gestippelde lijn is de droogadiabaat, het temperatuurverloop als er uitsluitend warmte zou worden afgevoerd door droge stijgende luchtbellen, en er dus geen verdamping zou plaatsvinden.

Laten we even nader stilstaan bij deze uiterst belangrijke grafiek. Als een pakketje lucht wordt verwarmd, laten we zeggen boven een parkeerplaats op een zomerse dag, en het wordt warmer dan zijn omgeving, dan zet dat pakketje lucht uit, wordt lichter, en stijgt. Als dat pakketje verder stijgt komt het in luchtlagen waar de luchtdruk lager is dan voorheen en zet uit. Zie onderstaande grafiek.

pressure                                                       Bron: C. Donald Ahrens, Essentials in Meteorology

Daarbij daalt de temperatuur in het stijgende pakketje lucht adiabatisch met -9,8°C/km. Adiabatisch betekent dat er geen uitwisseling van warmte met de omgeving plaatsvindt. Uit de natuurkunde herkent u het getal 9,8 wel, dat te maken heeft met de zwaartekracht. De valversnelling  of  zwaarteveldsterkte is ongeveer 9,8, en bepaalt de drukverdeling in de atmosfeer zoals die in bovenstaande figuur is getekend.  Zolang de temperatuur van de luchtbel hoger is dan van de omgeving zal het stijgen. Omdat de hoek van de droogadiabaat gemiddeld steiler is dan van de lapse rate zal de droogadiabaat op enige hoogte de lapse rate snijden:  dit is de maximale stijghoogte (zie figuur hieronder). Op deze wijze  wordt warmte van het aardoppervlak naar boven getransporteerd (voelbare warmte).

droogadiabaat

Veel belangrijker voor het warmtetransport is de nat-adiabaat, waarbij op enige hoogte waterdamp in de stijgende luchtbel condenseert vanwege de dalende temperatuur, waarbij de latente warmte die opgeslagen is in de waterdamp (dat is de warmte die nodig was om van water waterdamp te maken) weer vrij komt. Vanwege dat vrijkomen van de latente warmte zal de temperatuurlijn een knik vertonen  (zie onderstaande grafiek). Door  voordurende condensatie op weg naar boven zal er steeds meer warmte vrijkomen, waardoor de  adiabaat op den duur een minder steil verloop krijgt, de lapse rate niet snijdt, en er zeer hoge wolken kunnen ontstaan.

natadiabaat

Op dergelijke wijze wolken ontstaan die tot aan de grens van troposfeer en stratosfeer reiken, in de tropen is dat op ongeveer 17 km hoogte!  In dergelijke tropische wolken die elke dag ontstaan over zeer grote oppervlakten gaan geweldige grote hoeveelheden warmte van het aardoppervlak de lucht in. Bedenk dat boven vrij verdampende wateroppervlakken zoals zeeën, oceanen en meren meer dan 90% van de afkoeling plaatsvindt via verdamping van water.

Maar ook boven land is verdamping van water de meest efficiënte vorm van afkoeling, vanwege evapotranspiratie, een samenvoeging van directe verdamping en verdamping via planten. Alleen in woestijnen, waar water nagenoeg ontbreekt, is afkoeling door verdamping geen optie, waardoor de temperatuur aan het aardopppervlak overdag zeer hoog op kan lopen. De warmte aan het aardoppervlak kan daar alleen door stijgende lucht (voelbare warmte) en ook een beetje door straling verdwijnen. Overigens is het wel zo dat het warmtetransport van latente warmte pas “afgerond ”  is als regen uit de wolk het aardoppervlak bereikt.

cumulonimbus
Bron:  Wikipedia

Boven in de troposfeer raakt de lucht zijn warmte kwijt door uitstraling, nauwelijks meer geremd door broeikasgassen. De droge lucht wordt door windsystemen op grote hoogte getransporteerd en komt dan weer naar beneden. Tijdens het dalen wordt die relatief droge lucht adiabatisch opgewarmd en steeds droger en komt uiteindelijk onderin de troposfeer terecht, waar de hele cyclus weer van voor af aan begint.

heat surplus deficit                                                         Bron: C. Donald Ahrens, Essentials in Meteorology

Overigens zijn er behalve deze zeer sterke verticale luchtstromen in de tropen ook grootschalige verplaatsingen van voelbare en latente warmte in het horizontale vlak op aarde. Vanwege de zeer ongelijke verdeling van energie op aarde ontstaan er grootschalige windsystemen die warmte naar hogere breedten transporteren, en ook zeestromen zijn bij dit transport zeer belangrijk.

Op onze breedte ontstaan  dan door botsing van warme vochtige lucht uit de tropen en koude lucht vanuit het poolgebied enorme wereldomspannende frontensystemen, waarbij langs die fronten en bijbehorende lagedrukgebieden sterk verticaal transport plaatsvindt met wolkvorming. Deze systemen brengen ook grote hoeveelheden warmte van het aardoppervlak naar de bovenkant van de troposfeer, alwaar de warmte door straling kan verdwijnen.

fronten                                                            Bron: C. Donald Ahrens, Essentials in Meteorology

Zoals ik al in deel 1 aangaf, is de latente warmtestroom verreweg de belangrijkste manier voor het aardoppervlak om warmte kwijt raken, gevolgd door voelbare warmtestromen. Het afkoelend effect van straling is gering, vergeleken met de latente en voelbare warmtestromen.

andel1                                                                                   Bron: Noor van Andel
Dr. Noor van Andel heeft enige tijd terug een heel aardige proef gedaan om dit aan te tonen. Hij heeft daartoe 7 schaaltjes buiten geplaatst, zoals op de figuur hierboven te zien is.

De schalen 1 en 2 zijn bedekt met 2mm kunststof PMMA, de een droog, de ander nat. PMMA (acrylaat) is een kunststof met de eigenschap dat het langgolvige straling tegenhoudt. De schalen 3 en 4 (ook droog en nat) zijn bedekt met een laagje (6 μm ) PE, polyetheen, dat langgolvige straling doorlaat. De schalen 4 en 5 zijn ook droog en nat, en beide open. Bakje 7 is open en heeft een aluminium spiegel aan de bovenzijde.

In alle bakjes is een thermokoppel geplaatst om nauwkeurig de temperatuur te kunnen meten. De bakjes zijn op een open grasveld voor het bedrijf van van Andel geplaatst, de meting startte op 9 mei 2008 om 21 uur en liep door tot de volgende dag 13 uur. Zowel de nacht als de volgende dag was het onbewolkt.  Kijk eens naar de resultaten:

andel2                                                               Bron: Noor van Andel
‘s Nachts worden de schaaltjes met de PE bedekking het koudst: Pe laat de warmtestraling door, en de kunststof verhindert de lucht in het bakje om te mixen met de turbulente lucht erbuiten.  Bakje 7 blijft het warmst, als gevolg van de vrije uitwisseling met de lucht en de spiegel die warmtestraling naar beneden reflecteert. Verder zijn er ’s nachts geen schokkende verschillen waarneembaar, het maximale temperatuurverschil is 10 °C.

Dat verandert de volgende dag sterk. De bakjes worden door de zon verwarmd. Het bakje met het IR-ondoorlatende PMMA wordt het warmst, meer dan 60 °C, terwijl  het natte open bakje het koelst blijft, ongeveer 28 °C. Meer dan 30 °C  verschil dus! Tussen de droge bakjes afgedekt met PMMA en PE is het verschil ongeveer 4 °C, dat is dus het effect van koeling door straling.

Verder zijn de verschillen tussen nat en droog bij alle 4 de afgesloten bakjes zichtbaar: bij PMMA ongeveer 6 °C, bij PE ongeveer 12 °C. Dat is het gevolg van verdamping van een deel van het water in de natte bakjes.  Het sprongetje in de grafiek “PE droog” net voor 12 uur is waarschijnlijk het gevolg van het lekken van lucht naar buiten.  Het verschil tussen “PE dry” en “open dry” is ongeveer 15 °C, en is het gevolg van het verhinderen van convectie (voelbare warmte) door de PE afdichting.

Al met al een toont dit eenvoudige proefje aan dat afkoeling door convectie (voelbare wamtestroom), maar vooral door verdamping (latente warmtestroom) veel efficiënter is dan door straling.

convectie

Bron: John M.Wallace, Atmospheric Science

Toch is er maar één mogelijke manier voor de atmosfeer om de “overtollige”  warmte van de aarde  definitief kwijt te raken , en dat is uitstraling naar de ruimte. Zoals reeds gezegd in deel 1 van dit onderwerp zou straling alléén dat nauwelijks aankunnen,met als gevolg dat de temperatuur aan het aardoppervlak tot gemiddeld 60 °C zou stijgen. Verticalen luchtstromingen in de troposfeer brengen echter grote hoeveelheden warmte (voelbaar en latent) naar de bovenkant van de troposfeer. Op die hoogte bevinden zich zo weinig broeikasgassen dat die warmte vrijwel ongehinderd uit kan stralen, zoals we verderop nog zullen zien.  Dergelijke grootschalige convectiesystemen die grote hoeveelheden (latente en voelbare) warmte naar grote hoogten kunnen brengen bevinden zich onder andere in de tropen.

ir cooling rate                                                             Bron: K.N.Liou, An Introduction to Atmospheric Radiation
Op bovenstaande figuur is te zien dat in de tropen  een sterk afkoelend effect aanwezig is aan de bovenzijde van de troposfeer als gevolg van warmte-uitstraling. Die warmte is naar deze hoogte getransporteerd door  reusachtige convectieve wolken die grote hoeveelheden warmte naar boven verplaatsen. Op onderstaande figuur zijn de grootste stromingen in de troposfeer weergegeven. Goed is te zien dat de lucht  zich schijnbaar moeiteloos door de troposfeer beweegt. Verticale bewegingen zijn mogelijk  doordat de temperatuuropbouw van de troposfeer die toelaat.  Zie het stukje over de lapse rate in deel 1 van dit onderwerp.

temp profiel                                                             Bron: C. Donald Ahrens, Essentials in Meteorology
In de onderste 2 km van de troposfeer is de lucht zeer turbulent.  Deze  laag wordt de “atmospheric boundary layer”  genoemd. Bewegingen boven deze laag uit ontstaan als gevolg van diepe convectie, waarbij door sterke opwarming, verdamping en wolkvorming de lucht tot aan de rand van de troposfeer kan stijgen. Verder gaat niet, in bovenstaande figuur is te zien waarom. In de stratosfeer neemt de temperatuur toe met de hoogte als gevolg van opwarming van het aanwezige O3. Deze inversie verhindert verdere stijging van lucht.

Aan de bovenzijde van de troposfeer vindt de feitelijke warmte-uitstraling plaats. Ruim 80% van de totale luchtmassa bevindt zich in de troposfeer. Vanaf ongeveer 10 km hoogte heeft het broeikasgas CO2  vanwege de sterke uitstraling van IR  een afkoelende werking op de stratosfeer. Zie de grafiek hieronder.

ghg                                                                Bron: John M.Wallace, Atmospheric Science
In tegenstelling tot CO2 is H2O niet in de gehele atmosfeer aanwezig maar vrijwel volledig in de troposfeer. In de grafiek is daarom de afkoelende werking van H2O in de stratosfeer veel kleiner dan CO2. Overigens begint de uitstraling van warmtestraling al vanaf 5 km hoogte; de lucht is daar al zo “dun”  dat de warmtestraling al tamelijk makkelijk zijn weg naar de ruimte kan vinden.

broeikasgassen                                                                                     Bron:  Whatsupwiththat
Broeikasgassen absorberen niet alle warmtestraling volledig, enkele stukjes met een beperkte bandbreedte kunnen, zonder geabsorbeerd te worden, uitstralen. In de figuur hierboven is dat goed te zien. Op de golflengte van ongeveer 10 μm wordt de warmtestraling nagenoeg niet geabsorbeerd door broeikasgassen en kan ongehinderd naar de ruimte verdwijnen.  Dit is het zogenaamde atmosferische venster, dat in de stralingsbalans aangeduid wordt als Sr (atmospheric window). Die uitgaande energiestroom is ongeveer 40 Watt/m2 groot.

Op onderstaande figuur is te zien wat er met de absorptie van warmtestraling gebeurtop verschillende hoogten in de atmosfeer.

broeikasgassen2                                                                      Bron: John M.Wallace, Atmospheric Science

Langgolvige straling  heeft een golflengte van 0,7 μm  tot 300 μm. Het deel van de grafiek dat betrekking heeft op langgolvige (IR) straling is aan de bovenzijde aangegeven met een roze band. Het onderste deel van de grafiek is de absorptie van IR aan het aardoppervlak. Men ziet dat het grootste deel van de IR-band geabsorbeerd wordt door de broeikasgassen. Op 11 km hoogte echter (bovenzijde grafiek) is van die absorptie niet veel meer over dan een beperkt aantal zeer smalle bandjes. Het grootste deel van de warmtestraling kan op deze hoogte ongehinderd uitstralen.

Alle langgolvige straling verlaat ongehinderd de aarde en atmosfeer, met een energieniveau van 239 W/m^2, gelijk aan de gemiddelde geabsorbeerde kortgolvige straling.  Dat komt, zoals we al zagen,  overeen met een temperatuur van de aarde van 255 K ( -18 °C). Maar de atmosfeer is in werkelijkheid niet transparant voor langgolvige straling zoals we al zagen.

Van de figuur hierboven is onderstaande figuur afgeleid, met dien verstande dat nu goed te zien is in welk deel van het spectrum de langgolvige straling van de aarde vrijwel ongehinderd de ruimte in kan stralen. Het is het gebied met golflengten tussen 8 en 14 μm, het atmosferische venster genaamd.  In de gebieden direct links en rechts van het atmosferisch venster is de atmosfeer ondoorzichtig voor langgolvige straling als gevolg van absorptie door broeikasgassen.

broeikasgassen4                                                                      Naar: http://www.theresilientearth.com
Als de atmosfeer geen broeikasgassen zou bevatten dan kon langgolvige straling dus ongehinderd de aardse atmosfeer verlaten, en zou de gemiddelde temperatuur aan het aardoppervlak -18 °C zijn. De  broeikasgassen zijn overigens niet gelijkmatig verdeeld in de atmosfeer. Alleen CO2  is tamelijk gelijkmatig verdeeld over de atmosfeer. Het belangrijkste broeikasgas, H2O, bevindt zich vooral in de troposfeer, daarboven neemt de hoeveelheid sterk af.

mixing ratio                                                          Bron: K.N.Liou, An Introduction to Atmospheric Radiation
Wat doen broeikasgassen met die langgolvige straling die van het aardoppervlak naar buiten wil? Die absorberen de langgolvige straling en emitteren die weer vrijwel onmiddellijk naar alle kanten. De langgolvige straling die naar de aarde gericht is vormt een deel van de Ed (back radiation) in de stralingsbalans van Trenberth. Het deel dat naar boven gericht is bereikt uiteindelijk de buitenzijde van de atmosfeer (TOA) waar het vrijelijk de ruimte in gaat  (OLR in de stralingsbalans).

broeikaseffect3                                                                   Bron:  University of Colorado 

Als er op weg naar “boven” nog broeikasgasmoleculen aanwezig zijn zal de langgolvige straling nog een aantal malen geabsorbeerd en geëmitteerd worden. Voor langgolvige straling op pakweg 15 km hoogte is de atmosfeer daarboven vrijwel geheel doorzichtig. Voor langgolvige straling onder in de troposfeer is de weg naar buiten dus grotendeels opaak, ondoorzichtig.

Als uiteindelijk alle langgolvige straling de TOA bereikt, dus zowel de straling die ongehinderd de atmosfeer verlaat via het atmosferisch venster, als de langgolvige straling die moeizaam via absorptie en emissie de TOA bereikt, dan straalt daar gemiddeld 239 W/m^2 de ruimte in. En dat is exact gelijk aan wat er aan zonnestraling door de aarde geabsorbeerd wordt. Maar pas op: die 239 W/m^2 is een gemiddelde: vrijwel overal aan de buitenzijde van de atmosfeer is dat getal hoger of lager. Kijk alleen maar eens naar de onbalans als gevolg van de breedteligging die we in deel 1 al zagen:

heat surplus deficit                                                             Bron: C. Donald Ahrens, Essentials in Meteorology
Maar ook het dag/nachtritme, de seizoenen en allerlei andere regionale en lokale effecten zorgen er voor dat er vrijwel nergens een stralingsbalans is tussen inkomende en uitgaande straling. Overigens is de inkomende zonnestraling  ook vrijwel overal anders als gevolg van veelal dezelfde oorzaken als die voor langgolvige straling gelden. Die 239 W/m  is dus een gemiddelde voor de gehele aarde op langere termijn bezien.

Op onderstaande figuur is de totale langgolvige straling afgebeeld in februari 2010, zoals die door de CERES satelliet is gemeten. Duidelijk is te zien dat er van globale uitstraling van 239 W/m^2 geen sprake is. De stralingsintensiteit is overal anders. Zou je de plaatjes van andere maanden ernaast leggen, dan zou je zien dat het niet alleen ruimtelijk bezien maar ook in de tijd voortdurend anders is.

ceres                                                                                              Bron: NASA
Bezien we nu onderstaande grafiek, dan zien we bovenin de weergave van 2 zogenaamde zwartlichaam spectra volgens de Wet van Planck. De linker is van de zon, maar we zijn hier meer geïnteresseerd in de rechter kromme, die van de langgolvige straling van een zwart lichaam bij 255 K ( = -18 °C). De aarde is niet volledig een zwart lichaam, maar benadert die toch sterk.

broeikasgassen5                                                                       Bron: John M.Wallace, Atmospheric Science
Bovenstaande grafiek is het theoretisch spectrum van de langgolvige straling van de aarde. Hoe het er in werkelijkheid uitziet weten we onder andere dank zij  de Nimbus 4 satelliet die uitgerust is met een  zogenaamde infrared interferometer spectrometer. Het energiespectrum wijkt qua vorm af van de figuur hierboven, maar dat is het gevolg van het feit dat  de horizontale as van de bovenste figuur logaritmisch verloopt, terwijl dezelfde as op de figuur hieronder een lineaire schaal heeft.

infra1                                                        Naar: K.N.Liou, An Introduction to Atmospheric Radiation
In de figuur zijn afgebeeld de spectra bij diverse temperaturen. Met rood is het spectrum aangegeven van een lichaam met een temperatuur van 255 K, -18 °C, de aarde dus. De grillige lijn is de gemeten langgolvige straling die vanaf de aarde ruimte in gaat.
Tussen de 8 en 14 μm heeft het uitgezonden spectrum een profiel dat in de buurt ligt van 290 K.  Dit is de langgolvige straling die rechtstreeks via het atmosferisch venster de ruimte in gaat. Die 290 K komt globaal overeen met de gemiddelde temperatuur aan het aardoppervlak, namelijk 15 °C  ( 288 K). Het kleine dipje bij 10  μm is het gevolg van absorptie door O3.

Tussen de 14 en 18 μm is het energieniveau zo laag dat het past bij het profiel van 220 K , -53  °C.  Dat is de temperatuur aan de bovenzijde van de troposfeer op ongeveer 11 km hoogte. Oorzaak hier is de sterke absorptie in deze band door CO2, waardoor pas op grote hoogte , waar het koud is, uitstraling naar de ruimte plaats kan vinden.

Tussen 5 en 8 μm vindt uitstraling ook op een kouder niveau plaats, namelijk tussen ongeveer 0 °C en -50 °C, als gevolg van de absorptie van H2O in deze band. Op onderstaande figuur is een en ander duidelijk te zien:

infra2                                                      Bron: K.N.Liou, An Introduction to Atmospheric Radiation
Vereenvoudigd kunnen we dus het volgende stellen: de atmosfeer raakt op 2 manieren haar warmtestraling kwijt, namelijk voor de golflengtes tussen 8 en 14 μm door directe uitstraling via het atmosferisch venster, en voor de andere golflengtes  via absorptie en emissie van broeikasgassen en tenslotte via uitstraling aan de TOA.

Stel nu eens dat de atmosfeer voor 100% transparant zou zijn voor langgolvige straling, dan zou het energiespectrum er zo uit zien:

Alle langgolvige straling verlaat ongehinderd de aarde en atmosfeer, met een energieniveau van 239 W/m^2, gelijk aan de gemiddelde geabsorbeerde kortgolvige straling.  Dat komt, zoals we al zagen,  overeen met een temperatuur van de aarde van 255 K ( -18 °C). Maar de atmosfeer is in werkelijkheid niet transparant voor langgolvige straling zoals we al zagen.

Stel nu dat de atmosfeer wel het atmosferisch venster heeft , maar dat het voor de banden daarbuiten 100% opaak (ondoorzichtig) is.   Hoe zou het spectrum er dan uit zien? Dat zou betekenen dat de aarde haar warmte alleen door het relatief smalle venster van 8 tot 14 μm kwijt kan raken. Om dat mogelijk te maken zal de temperatuur van het aardoppervlak flink omhoog moeten, wel tot zo’n 50  °C. Waarom is dat logisch?

Let eens op de verticale as van bovenstaande grafiek.  De eenheid is W/^2/ μm. Dat betekent dat voor elke band van 1 μm breed in de grafiek afgelezen kan worden hoeveel W/m^2 uitgestraald wordt op TOA niveau, voor een lichaam met een temperatuur van -18 °C.  De totale oppervlakte van de kromme geeft dus de totale hoeveelheid  uitgestraalde  energie weer over alle banden. Maak ik de breedte van die oppervlakte smaller, dan moet, om dezelfde hoeveelheid energie uit te kunnen stralen, de energie-inhoud per 1 μm-bandje omhoog, en daarmee de grafiek. En bij een hogere grafiek hoort een hogere temperatuur van het uitstralende object. De buitenzijde van de aarde wordt om dit mogelijk te maken, “vanzelf” meer dan  50 °C.  Zie de grafiek hieronder.

curve
Vanzelfsprekend wijkt de werkelijkheid af van bovenstaand gedachte-experiment. Immers, voor de banden buiten het atmosferisch venster is de atmosfeer niet volledig ondoorzichtig. En die transparantie neemt toe met de hoogte: immers, de dichtheid van de atmosfeer neemt sterk af naarmate men hoger komt. Op  ruim 5 km hoogte is de luchtdruk nog maar de helft van die aan het aardoppervlak,  op 10 km hoogte  is de luchtdruk nog maar 1/5 van die aan het aardoppervlak. Voor langgolvige straling die buiten het atmosferisch venster wil ontsnappen betekent dat de transparantie op 5 km hoogte 2x zo groot is als aan het aardoppervlak. Op 15 km hoogte zijn er nog weinig broeikasgasmoleculen die een ongehinderde uitstraling naar de ruimte belemmeren.

luchtdruk

Voor het uitstralen van warmte naar de ruimte, de enige manier voor de aarde om uiteindelijk warmte kwijt te raken, zijn dus grofweg de onderste  15 km van de atmosfeer van belang. Elke “laag” in de troposfeer heeft  dus zijn “eigen”  transparantie voor wat betreft uitstraling  naar boven. Hoe hoger je komt des te makkelijker dat gaat.  Let wel:  de temperatuur neemt met de hoogte af  met gemiddeld -6,5  °C, de lapse rate. De gevolgen daarvan zullen we verderop nog zien.

lagen

lagen1

Bron: John M.Wallace, Atmospheric Science

Om te begrijpen wat broeikasgassen doen is het dus noodzakelijk om de atmosfeer niet als 1 laag te beschouwen, maar uit een (schier oneindig) aantal laagjes.  Maar om te begrijpen wat er gebeurt in die vele laagjes is een beetje lastig, dus is het verstandig om net te doen alsof de atmosfeer maar uit enkele lagen bestaat, zeg 4 lagen. Wat gebeurt er nu in die 4 lagen met de langgolvige warmtestraling die van de aarde komt?

In onderstaande tekening is dat modelmatig weergegeven. Het betreft de naar buiten gerichte stroom langgolvige straling buiten het atmosferisch venster.  Let op: dit is een sterk vereenvoudigde weergave van de werkelijkheid. De gebruikte waarden zijn fictief. Alleen opwaartse langgolvige straling is weergegeven. Zoals te zien is, is de transparantie voor langgolvige straling beter hoger naarmate de uitstralende laag zich hoger in de atmosfeer bevindt. Anders gezegd: de opaciteit van de atmosfeer is het grootst nabij het aardoppervlak. Dat is het gevolg van het feit dat de atmosfeer dunner wordt naarmate je hoger komt, en ook omdat er relatief minder broeikasgassen zijn op grotere hoogte.

broeikaseffect

In ons voorbeeld bereikt 7 + 11 + 25 + 48 = 91 W/m^2 via de atmosfeer (buiten het atmosferisch venster) de TOA, waar het vrij de ruimte in straalt. In werkelijkheid is dit getal hoger. Immers, bij de TOA is de gemiddelde uitstraling 239 W/m^2. Als je daar de 40 W/m^ (stralingsbalans Trenberth) van aftrekt, straalt de atmosfeer dus 199 W/m^2 uit.  Zoals ik al zei, de gebruikte getallen zijn fictief, en die 4 lagen zijn er in werkelijkheid schier oneindig veel. In ons model is te zien dat de emissie van langgolvige straling naar de ruimte dus op allerlei niveaus plaats vindt. Relatief weinig (maar met een hoge temperatuur) vanaf de lagen direct boven het aardoppervlak, en veel maar bij lagere temperaturen hoger in de troposfeer. Het “gemiddeld”  emissieniveau ligt op 5km hoogte, waar de temperatuur -18  °C is.

Volgens de Wet van Stefan-Boltzmann komt dat overeen met 239 W/m^2. Die Wet (of vergelijking) luidt  E = σT4 . In deze vergelijking is E de uitgestraalde energie, σ een constante (5.67 x 10^-8) en T is de temperatuur in Kelvin. Hier moet wel bij aangetekend worden dat het feitelijk onmogelijk is om het “gemiddeld emissieniveau ”  te bepalen. Je kunt dus stellen dat men, terug rekenend van 239 W/m^2 en gebruik makend van Stefan-Boltzmann, men uitkomt op -18 °C en de bij deze temperatuur horende  hoogte, 5 km,  het “gemiddeld emissieniveau” noemt. Doordat de temperatuur in de troposfeer afneemt met de hoogte zullen hogere (=koudere) lagen vanwege hun lagere temperatuur minder makkelijk energie uitstralen naar boven dan van onderen absorberen.

Wat gebeurt er nu als er bijvoorbeeld meer langgolvige straling absorberende stoffen in de atmosfeer komen, zoals bijvoorbeeld CO2 ? Dan neemt de transparantie af ( dus de opaciteit toe) , en dat geldt voor elke laag in het model.  Alleen het atmosferisch venter heeft nergens last van. Maar buiten het atmosferisch venster zal de uitstraling uiteindelijk minder worden. Stel dat de transparantie met 10% afneemt, dan daalt in bovenstaande model van 92 W/m^2 naar ongeveer 82 W/m^2.

Wat betekent dit nu voor de diverse lagen in de atmosfeer? Alle lagen worden door een toename van broeikasgassen minder transparant. Voor de lagen direct boven het aardoppervlak betekent dit dat de transparantie tot bijna 0 wordt teruggebracht. De lagen daarboven krijgen ook ‘last’  van verminderde transparantie. Alleen de TOA aan de bovenzijde kan nog steeds vrijelijk uitstralen. Uiteindelijk bereikt de langgolvige straling die vanaf het aardoppervlak uitgestraald wordt wel de TOA, maar er zijn onderweg meer broeikasgasmoleculen die de straling kunnen absorberen en naar alle kanten emitteren. Het gevolg hiervan is dat de onderste laag van de troposfeer nauwelijks nog in staat is om straling direct de ruimte in te zenden.

broeikaseffect2

Hoe werkt dat?  Laten we nog eens terug gaan naar het model. In het model is de transparantie van de laag op 5 km hoogte (fictief) gesteld op 3%. Dat betekent dat slechts 3% van de langgolvige straling die deze laag naar boven emitteert, zonder onderweg geabsorbeerd te worden de TOA bereikt en uitstraalt naar de ruimte. Dus 97% van de straling uit die laag wordt op een of andere hoogte bovenin geabsorbeerd en geëmitteerd. Neemt nu de transparantie van de atmosfeer met 10% af als gevolg van een toename van broeikasgassen, dan kan nog slechts 2,7% ongehinderd de TOA bereiken.  De rest, 97,3% bereikt via de bovenliggende lagen (absorptie en emissie) de TOA. De laag op 5 km straalt dus minder langgolvige straling direct uit. Let op: dit is de laag met een relatief hoge temperatuur die relatief veel energie emitteert. De rest van de langgolvige straling uit die onderste laag wordt geabsorbeerd en geëmitteerd door hoger liggende lagen, die elk vanwege de toename van het broeikaseffect ook 10% minder direct naar de TOA kunnen uitstralen.  Alleen de allerhoogste laag, de TOA, heeft geen last van toegenomen broeikasgassen en emitteert alle resterende langgolvige straling de ruimte in.

Wat zijn de gevolgen? Dat de lagen onderin de troposfeer (de warmere lagen) minder uitstralen, en bijgevolg de hogere (koudere) relatief meer. Als je aan die langgolvige straling  meet die vanaf de TOA de ruimte ingaat, en je meet de zogenaamde “brightness temperature”, dan zul je dus een gemiddeld lagere temperatuur meten. Maar belangrijker is dat bij een lagere temperatuur een lagere energiestroom hoort. De energiestroom die de aarde verlaat wordt minder dan 239 W/m^2: de stralingsbalans is uit balans. En bij een lagere temperatuur hoort volgens Stefan-Boltzmann een energiestroom die dus ook kleiner is dan 239 W/m^2. Gevolg: het “gemiddeld emissieniveau”  schuift wat naar boven , naar een koudere laag.

broeikasgassen5                                                               Bron: John M.Wallace, Atmospheric Science

Het model hierboven is echter een sterk vereenvoudigde weergave van de werkelijkheid. In werkelijkheid neemt de transparantie alleen af bij die golflengten waarin het broeikasgas actief is. Kijken we nog eens naar bovenstaande figuur die we al eerder tegenkwamen. In de band tussen 5 en 8 μm wordt in de onderste laag de langgolvige straling voor 100% geabsorbeerd door H2O. Op 11 km hoogte is die absorptieband geslonken tot het gebied tussen ongeveer 6 en 7 μm, en de absorptie is tot ongeveer 50% geslonken.  Op deze hoogte zijn nog maar 2 smalle bandjes waar de absorptie 100% is, namelijk nabij 4 μm en 15 μm.

opaak1

Bij een verhoging van het CO2-gehalte zal het volgende gebeuren: de banden die nog niet opaak zijn zullen minder transparant worden. Dat geldt voor elke laag op elke hoogte in de atmosfeer. De onderste lagen hebben relatief veel banden die 100% opaak zijn. Een verhoging daarvan is niet mogelijk. Maar wat wel gebeurt is dat de banden direct grenzend aan een dergelijke “verzadigde band” nog wel hun opaciteit zien toenemen, zoals op bovenstaand figuur geschetst is. In de hogere lagen komen meer banden voor die slechts gedeeltelijk opaak zijn. Daar zal bij een verhoging van het CO2-gehalte dit gebeuren:

opaak2

Op onderstaande figuur is te zien binnen welke banden elk van de broeikasgassen actief is:

absorptie                                                                                                 Bron:  Wikipedia

De gangbare hypothese is nu dat het aardse systeem de stralingsbalans zal herstellen door de temperatuur in het onderste deel van de atmosfeer wat te verhogen: het versterkt broeikaseffect. Er is immers sprake van een input (netto inkomende kortgolvige straling) die iets groter is dan de output (netto uitgaande langgolvige straling). Door die toename van de temperatuur zal de temperatuur aan het aardoppervlak iets hoger worden.  Bij een verdubbeling van het CO2-gehalte zal dat een temperatuurstijging betekenen van iets meer dan 1 °C . Dat wil zeggen: ALS ALLE ANDERE ZAKEN IN HET KLIMAATSYSTEEM GELIJK BLIJVEN.

In de stratosfeer gebeurt het tegenovergestelde:  als het broeikaseffect toeneemt, dan neemt de temperatuur af. Hoe is dat verklaarbaar?  We zagen hiervoor al dat CO2 in de stratosfeer een sterk afkoelend effect heeft.  In onderstaande grafiek is te zien dat de temperatuur – anders dan in de troposfeer – in de stratosfeer toeneemt met de hoogte. Dat is het gevolg van het feit dat de in de stratosfeer aanwezige O3 vrijwel alle uv-straling uit het zonlicht absorbeert. Volgens de Wet van Stefan-Boltzmann betekent dit dat hogerliggende lagen in de stratosfeer vanwege hun hogere temperatuur makkelijker ( lees: meer) energie naar de ruimte stralen dan aan de onderzijde absorberen.

temp profiel                                                             Bron: C. Donald Ahrens, Essentials in Meteorology


De stralingsbalans onder vuur.

Er is het een en ander aan te merken op de ‘klassieke’ stralingsbalans en daarmee op de broeikastheorie die ik de afgelopen weken op deze site uit de doeken heb gedaan. Die stralingsbalans van de wetenschapper Trenberth staat hieronder nogmaals afgebeeld. Deze stralingsbalans vormt de basis voor een stroom van artikelen over het broeikaseffect, en ook voor de laatste twee rapporten van het IPCC, het derde en het vierde rapport. Ik ga de komende tijd proberen gefundeerde kritiek op een rijtje te zetten. In dit eerste deel staat de input van de stralingsbalans van Trenberth centraal, namelijk de inkomende zonnestraling.

trenberth stralingsbalansBron: Trenberth
De klassiek opvatting is als volgt: De zonneconstante is 1366 W/m^2. Hieraan hoeft niet getwijfeld te worden. Dat betekent dat op een vlak dat loodrecht staat op de zonnestraling en zich op dezelfde afstand van de zon bevindt als de aarde, per vierkante meter 1366 Watt aan stralingsenergie valt. Die 1366 W/m^2 is overigens niet zo constant als de naam doet vermoeden: lichte schommelingen met een periodiciteit van 10 a 11 jaar zijn normaal, zoals onderstaande figuur toont.

zonneconstanteron: Wikipedia
Vanwege de excentriciteit van de baan van de aarde rond de zon met een periodiciteit van 100. 000 jaar (zie Milanković in het hoofdstuk onder De Feiten) schommelt de zonneconstante op enig moment, namelijk van 1412 W/m² in januari tot 1312 W/m² in juli. Voor ons doel, de stralingsbalans op dit moment, kunnen we uitgaan van 1366 W/m^2 zonder grote fouten te maken.

Deze zonneconstante is, zoals ik al schreef, de hoeveelheid energie op een plat vlak. In werkelijkheid is de aarde geen plat vlak , maar een bol. Wat voor consequenties dat heeft is duidelijk: een bol heeft een 4x zo grote oppervlakte als een schijf met dezelfde straal. De oppervlakte van een ronde schijf met straal r is immers ᴫr^2, die van een bol is 4 ᴫr^2.

zonneconstante2

Bron: Slaying the Sky Dragon

Rekenkundig bezien valt er daarom gemiddeld op elke m^2 op de bol die aarde heet dus 1366/4 = 341,5 W. Herkent u dat laatste getal? Juist het is de (afgeronde) 341 W/m^2 die in de stralingsbalans van Trenberth de input vormt aan de buitenzijde van de atmosfeer.

Wil men nu uit deze 341 W/m^2 de gemiddelde temperatuur op aarde berekenen, dan is het wel nodig om rekening te houden met het deel van het zonlicht dat reflecteert en dus de aarde niet kan verwarmen. De albedo is ongeveer 0,3. Dus 0,7 x 341 = 239 W/m^2. Men gaat bij deze berekeningen er altijd van uit dat de aarde een zwart lichaam is. Met behulp van de Stefan-Bolzmannvergelijking is nu de gemiddeld maximale temperatuur te berekenen: K^4= 239/ 5,67 x 10 ^-8, en dat wordt 255 K. Dat is dus die -18 °C zonder broeikasgassen.

Tot zo ver niets aan de hand, lijkt het. Maar zo simpel is het in werkelijkheid niet. Want aan het berekeningentje hierboven is al te zien dat tussen de temperatuur in K en de toegevoerde energie geen lineair verband bestaat maar een verband met een vierde macht. Met andere woorden: als er Y hoeveelheid stralingsenergie nodig is om een object een temperatuur K te geven, dan is 16 maal Y nodig om datzelfde object een temperatuur 2K te geven! En dat heeft gevolgen voor de opwarming van de aarde.

In het intrigerende e-book “Slaying the Sky Dragon” dat onlangs is verschenen en dat al veel stof heeft doen opwaaien, wordt deze kwestie van de inkomende straling uitgebreid behandeld.

Om in te kunnen zien wat het verschil is tussen de theoretisch-wiskundige berekening van de inkomende energie en de werkelijkheid doen we een gedachte-experiment. Stel dat de warmtecapaciteit van de aarde 0 is, en de warmtegeleidbaarheid ook. En dat de aarde heel langzaam rond zijn as draait. Dan zou de temperatuur aan het aardoppervlak gedurende 2 omwentelingen het volgende verloop kennen:

zonneconstante3Bron: A Greenhouse Effect on the Moon?
De verklaring hiervoor is de volgende: slechts de halve bol vangt het zonlicht op, de andere helft is in duisternis gehuld. Indien de aarde een schijf zou zijn , dan valt er op de gehele schijf 1366 W/m^2. Met behulp van de Stefan-Bolzmannvergelijking, kan men de geabsorbeerde stralingsenergie van een zwart lichaam omrekenen naar temperatuur. Dat levert een maximale temperatuur op van (1366 /5,67)^0,25 x 100 = 394 K . Die 394 K zal overal op de schijf aanwezig zijn, dus de maximale temperatuur is meteen de gemiddelde temperatuur.

Maar bij een bol werkt dit anders. De verlichte helft heeft een oppervlak van 2 ᴫr^2, dus er valt aan de buitenzijde van de atmosfeer op 1 m^2 gemiddeld 1366/2 = 683 W/m^2. Omgerekend naar de gemiddelde maximale temperatuur levert dat op: (683/ 5,67)^0,25 x 100 , een temperatuur van 331 K. Dat is de gemiddelde temperatuur van de verlichte helft. Omdat de halve bol sferisch is, is er maar 1 plek waar het zonlicht loodrecht invalt. Daar vangt de halve bol dus de maximale hoeveelheid stralingsenergie en wordt de temperatuur maximaal ( 394 K) op alle andere plekken op de verlichte helft is dat minder en loopt dat terug tot 3 K op de grens van licht en donker. Dit komt exact overeen met de cijfers uit een rapport van de NASA, “An Analysis and Procedure for Determining Space Environmental Sink Temperatures With Selected Computational Results”.

De achterzijde van de bol ontvangt 0 W/m^2, en heeft dus een temperatuur van 0 K. In werkelijkheid kan de temperatuur aan de schaduwzijde niet verder dalen dan de zogenaamde achtergrondstraling van het helaal, die is ongeveer 3 K. Gemiddeld voor de hele bol is dat dus 331 + 3 = 334/2 = 167 K. Vergelijk dat eens met de 255 K van de stralingsbalans.

NASA heeft theoretische berekeningen gemaakt van de temperaturen op de maan, en ze ook kunnen vergelijken met de meetgegevens door de satelliet Diviner. Nu wijken de voorspelde temperaturen op de maan behoorlijk af van de theoretisch berekende, zoals hierboven beschreven. Zo zorgt de opslag van warmte in de maan er voor dat een deel van de stralingsenergie die op het verlichte deel valt niet direct wordt omgezet in een (hoge) oppervlaktetemperatuur, maar gebruikt wordt om de maan op te warmen. Er ontstaat dus een buffer van warmte. Dat bufferen van warmte zorgt er voor dat de maximale temperatuur lager zal zijn dan 394 K, en ook de gemiddelde temperatuur lager zal zijn dan 331 K.

moon3

Bron: A Greenhouse Effect on the Moon?

Aan de andere kant zorgt de gebufferde warmte er voor dat aan de schaduwkant de afkoeling langzaam plaats vindt, en de theoretische 3 K bij lange na niet bereikt wordt. Voordat de donkere zijde kan afkoelen tot 3 K is de maannacht (ongeveer 2 weken) al weer voorbij en warmt het oppervlak op. Op boventaande figuur is het berekende verloop weergegeven met de blauwe lijn. De rode lijn is de gemeten temperatuur aan het maanoppervlak.

Er valt op dat het warmste punt van de (maan-)dag zich niet bevind als de zon het hoogst aan de maanhemel staat , maar later in de maanmiddag. Zo is dat op aarde ook. Zoals te zien is wijkt de gemeten temperatuur af van de berekende, onder andere vanwege de afwijkende warmtegeleidbaarheid van de maan. Op het verlichte deel is de gemeten temperatuur wat lager dan de berekende. Overigens is de maximaal berekende temperatuur iets lager dan de hiervoor al berekende 394 K, omdat rekening gehouden is met de albedo van de maan van 0,11. De laagste gemeten temperaturen op de maan vallen opmerkelijk hoger uit dan de berekende. Oorzaak is de warmtestraling van de aarde. De gemeten temperatuur op de maan valt in het verlichte deel 20 K lager uit dan berekend, en in het donkere deel zelfs 40 K hoger!

De metingen aan de maantemperatuur worden verricht door de Diviner Lunar Radiometer, een van de 7 meetinstrumenten aan boord van NASA’s Lunar Reconnaissance Orbiter. Hieronder zijn impressies afgebeeld van de gemeten temperatuur aan de verlichte en donkere zijde van de maan.

moon1  moon2

Bron: UCLA

We zagen hiervoor al wat de theoretische maximum en gemiddelde temperaturen van de aarde zijn. Rekening houdend met de aardse albedo van 0,3 levert dat een maximale temperatuur op van ((1366 X 0,7)/5,67)^0,25 x 100 = 360 K . Voor de aarde als bol wordt de gemiddelde temperatuur van het verlichte deel: ((1366/2)/ 5.67×0,7))^0,25 x 100 = 303 K. De achterzijde wordt 3 K . De gemiddelde temperatuur van de gehele bol is dus 303 + 3= 306/2= 153 K.

De werkelijke aarde slaat energie op in water en land, en staat dat ook weer langzaam af. Warmtecapaciteit, warmtegeleiding en oceaanstroming bepalen dan samen met de omloopsnelheid van de aarde hoe het temperatuurverloop er uit gaat zien. De aarde draait met een pittige snelheid (in 24 uur) een keer rond zijn as, waardoor de opwarming niet maximaal wordt en de afkoeling bij een relatief hoge temperatuur blijft steken. Bovendien bestaat het aardoppervlak voor 70% uit water, dat een enorme buffercapaciteit heeft voor warmte. De buffercapaciteit van de aarde is vele malen groter dan die van de maan met zijn stenige oppervlak.

Onderstaande figuur geeft een impressie wat dit voor gevolgen kan hebben voor het verloop van de temperatuur op aarde. Vanwege de enorme buffercapaciteit van met name de oceanen zal de blauwe lijn in werkelijkheid een veel vlakker verloop hebben dan weergegeven.

zonneconstante4

 

Bron: Slaying the Sky Dragon

Conclusies: de berekening van de gemiddelde temperatuur op aarde is op basis van de eenvoudige berekening zonneconstante/4 : 1366/4= 341,5 W/m^2 . Rekening houdend met de albedo van 0,3 krijgt men dan: 341,5 x 0,7 = 239 W/m^2. Dit is het getal dat aan de basis staat van de stralingsbalans van Trenberth, die al meer dan 10 jaar als uitgangspunt genomen wordt als het om de energiestromen van de aarde gaat.

Op basis van hetgeen hiervoor is beschreven mag geconcludeerd worden dat deze berekening onjuist is. Belangrijkste oorzaak daarvan is dat de aarde altijd een verlichte en een donkere zijde heeft, en dat het verband tussen energie en temperatuur niet lineair is maar met een vierde macht verloopt. Bovendien wijzen metingen aan de maan erop , dat er nog meer complicerende factoren zijn waardoor het uiteindelijke temperatuurverloop anders is dan de theoretisch berekende.

Het wordt nog merkwaardiger als men bedenkt dat de output van Trenberth’s stralingsbalans “kloppend” gemaakt is op basis van de verkeerde input. En dat de hiervoor uitgebreid beschreven broeikastheorie er van uitgaat dat een eventuele onbalans tussen de inkomende zonnestraling (input) en de uitgaande warmtestraling (output) als gevolg van een toenemend CO2-gehalte gecorrigeerd wordt door een stijging van de oppervlaktetemperatuur. Met recht mag men hier vragen: over welke input en output gaat het hier?

Klimaatverandering

Het klimaat verandert voortdurend. Er zijn mensen die denken dat een veranderend klimaat een voorbode is van veel onheil, en dat idee heeft zelfs een voedingsbodem gevonden bij mensen die op universitair niveau hebben gestudeerd. Zelfs een Nederlandse ex-minister van Milieu hanteerde zo nu en dan de leus: “stop de klimaatverandering”. Tja…

Het klimaat is het gemiddelde weer in een gebied, berekend over 30 jaar. Je kunt het klimaat opvatten als een systeem, waarin de diverse componenten en hun processen elkaar onderling beïnvloeden. Die componenten zijn de oceanen, de atmosfeer, de ijskappen, de continenten en de biosfeer.  Door die onderlinge beïnvloeding van de diverse componenten is het klimaatsysteem zeer ingewikkeld.

klimaat2

Klimaat als systeem.  Bron:    IPCC, Climate Change 2007: The Physical Science Basis

De belangrijkste energiebron voor het klimaatsysteem is de zon, aardwarmte (diffuus via warmte-uitstraling van de aardkorst en geconcentreerd via vulkanen) levert slechts een zeer bescheiden bijdrage aan de werking van het klimaatsysteem. De stralingsenergie afkomstig van de zon wordt voor een deel gereflecteerd; wat niet gereflecteerd wordt, wordt door de atmosfeer en het aardoppervlak geabsorbeerd. Deze geabsorbeerde energie wordt omgezet in warmte en als infrarood straling weer uitgezonden , de ruimte in. Op lange termijn bezien komt er net zoveel energie het klimaatsysteem binnen als er weer uitgaat. Deze zogenaamde stralingsbalans wordt uitgebreid besproken in een volgend hoofdstukje.

Klimaatveranderingen worden veroorzaakt door allerlei factoren en vinden plaats op diverse ruimtelijke schalen. Zo is de enorme droogte in de Sahelzone in Noord Afrika in de jaren ’70 van de vorige eeuw een voorbeeld van een regionale klimaatverandering, die zoals later uit een Franse studie bleek, het gevolg was van een verandering in oceaanstromingen in de Indische Oceaan. Het natter worden van de westelijke Sahel sinds 1980 is ook weer een voorbeeld van een regionale klimaatverandering.  De temperatuurstijging tussen 1975 en 1996 is een voorbeeld van een mondiale klimaatverandering, waarbij moet worden aangetekend dat de regionale uitwerking daarvan zeer uiteenlopend was. Sommige gebieden werden in deze periode warmer, andere kouder enzovoorts. Mondiale veranderingen in het klimaatsysteem kunnen dus op regionale schaal verschillend uitpakken.


Variabiliteit en forcering

Klimaatveranderingen ontstaan door een tweetal groepen oorzaken: interne variabiliteit en externe forcering.

Interne variabiliteit  betreft de veranderingen in het klimaatsysteem die veroorzaakt worden door de wisselwerking tussen de diverse delen van het klimaatsysteem, zoals atmosfeer, continenten en oceanen.

Externe forcering kent 2 varianten. Enerzijds is er de zogenaamde endogene forcering, die veroorzaakt wordt door veranderingen een of enkele componenten van het klimaatsysteem. Voorbeeld daarvan is de veranderende CO2-concentraties in de atmosfeer. Anderzijds is er ook sprake van exogene forcering, als de  veranderingen van buitenaf komen.  Voorbeeld daarvan is verandering in zonnestraling. Externe forcering hebben invloed op de energiestromen binnen het klimaatsysteem, en veranderen daardoor het klimaatsysteem.

Soms is niet duidelijk of men te maken heeft met interne variabiliteit danwel externe forcering, omdat alle onderdelen in het klimaatsysteem aan elkaar gekoppeld zijn en er een kettingreactie van positieve en negatieve tegenkoppelingen kunnen ontstaan.

Het is op zijn zachtst gezegd opmerkelijk dat er de laatste jaren nauwelijks aandacht is geweest voor de zon als belangrjkste externe factor. Vrijwel alle aandacht is gericht op slechts een interne variabiliteit, namelijk het CO2-gehalte in de atmosfeer. Dit is des te opmerkelijker omdat op wat langere tijdschalen de dominante rol van de zon in klimaatveranderingen onvoorwaardelijk door vrijwel alle klimaatwetenschappers wordt erkend. Er komen steeds meer aanwijzingen dat de zon een niet te verwaarlozen invloed heeft op recente klimaatveranderingen, misschien nog wel meer dan de stijging van broeikasgassen. De gevestigde “klimaatelite”  heeft daar echter geen oren naar en heeft zich verschanst achter barricades waarop geschreven staat: “The science is settled”.  Toch zijn er steeds meer wetenschappers die wat verder kijken en nieuwsgierig zijn. De nieuwe inzichten hierover komen aan de orde in dit hoofdstuk “De Feiten”, maar ook in het hoofdstuk “Nieuwe Inzichten”.


Wat is zeker en wat niet? The Royal Society erkent onzekerheden in klimatologie

royal

The Royal Society, de toonaangevende wetenschappelijke instelling van Groot-Brittannië heeft zich genoodzaakt gezien om haar publicatie over  klimaatverandering te herschrijven na protesten van meer dan 40 van haar eerbiedwaardige leden. Professor Anthony Kelly en Sir Alan Rudge zijn beiden lid van de Wetenschappelijke Adviesraad van de Global Warming Policy Foundation. Zij behoorden tot de 43 leden die een petitie ondertekenden met het verzoek om de publicatie over  klimaatverandering  te herschrijven en meer rekening te houden met klimaatsceptische standpunten.

Tot voor kort herhaalde de Royal Society dapper de statements en voorspellingen van het IPCC. In de nieuwe publicatie van oktober 2010, Climate change: a summary of the science,  is de Royal Society veel voorzichtiger geworden en vermijdt al te drieste uitspraken en voorspellingen. Hier een paar citaten:

“Observations are not yet good enough to quantify, with confidence, some aspects of the evolution of either climate forcing or climate change, or for helping to place tight bounds on the climate sensitivity. Observations of surface temperature change before 1850 are also scarce.”

“As noted above, projections of climate change are sensitive to the details of the representation of clouds in models. Particles originating from both human activities and natural sources have the potential to strongly influence the properties of clouds, with consequences for estimates of climate forcing. Current scientific understanding of this effect is poor.”

“Additional mechanisms that influence climate sensitivity have been identified, including the response of the carbon cycle to climate change, for example the loss of organic carbon currently stored in soils. The net effect of changes in the carbon cycle in all current models is to increase warming, by an amount that varies considerably from model to model because of uncertainties in how to represent the relevant processes. The future strength of the uptake of CO2 by the land and  is very poorly understood, particularly because of gaps in our understanding of the response of biological processes to changes in both CO2 concentrations and climate.”

“There is currently insufficient understanding of the enhanced melting and retreat of the ice sheets on Greenland and West Antarctica to predict exactly how much the rate of sea level rise will increase above that observed in the past century for a given temperature increase. Similarly, the possibility of large changes in the circulation of the North Atlantic Ocean cannot be assessed with confidence. The latter limits the ability to predict with confidence what changes in climate will occur in Western Europe.”

“The ability of the current generation of models to simulate some aspects of regional climate change is limited, judging from the spread of results from different models; there is little confidence in specific projections of future regional climate change, except at continental scales.”

“In addition to changes in greenhouse gas concentrations, there are a large number of less well characterised contributions to climate forcing, both natural and humaninduced.”

“Natural forcing due to sustained variations in the energy emitted by the Sun over the past 150 years is estimated to be small (about 0.12 Wm-2); however, direct observations of the energy emitted by the Sun only became available in the 1970s and estimates over longer periods rely on observations of changes in other characteristics of the Sun. A number of mechanisms have been proposed that could reduce or amplify the effect of solar variations; these remain areas of active research.”

“The more complex climate models, supported by observations, allow climate sensitivity  to be calculated in the presence of processes that amplify or reduce the size of the climate response. Increases in water vapour alone, in response to warming, are estimated to approximately double the climate sensitivity from its value in the absence of amplifying processes. There nevertheless remain uncertainties in how much water vapour amounts will change, and how these changes will be distributed in the atmosphere, in response to a warming. Climate models indicate that the overall climate sensitivity (for a hypothetical doubling of CO2 in the atmosphere) is likely to lie in the range 2 to 4.5 K; this range is mainly due to the difficulties in simulating the overall effect of the response of clouds to climate change mentioned earlier.”

“There is an ongoing controversy concerning whether or not the increased warming with height in the tropical regions given by climate models is supported by satellite measurements.”

“The underlying uncertainties in climate science and the inability to predict precisely the size of future natural climate forcing mechanisms mean that projections must be made which take into account the range of uncertainties across these different areas.”

Over al deze zaken is al uitgebreid geschreven op deze site  en door andere klimaatsceptici op vele andere sites. Het is een stap vooruit nu ook gevestigde instituties zoals The Royal Society erkennen dat er nog veel onzekerheden zijn in de klimatologie. Zo wordt klimaatverandering teruggebracht tot zijn ware proporties.