Jaarlijks archief: 2013

Ozon

The science is not settled yet: het gat in de ozonlaag

 

ozon1Bron:  Antarctic Ozone Bulletin

Het dagelijkse weer speelt zich af in de troposfeer, het  onderste deel van de atmosfeer. Wolken en neerslag komen boven deze goed gemengde laag vrijwel niet voor. Boven de polen is de troposfeer ongeveer 7 km dik,  boven de evenaar ongeveer 15 km dik. In de stratosfeer tussen ongeveer 15 km en 30 km hooogte,  bevindt zich het grootste deel  (91%) van de atmosferische ozon. Dit is wat genoemd wordt de “ozonlaag”.   Die ozonlaag  is algemeen bekend geworden vanwege het feit dat in de jaren ’80 van de vorige eeuw  een “ gat in de ozonlaag” boven Antarctica werd geconstateerd.

ozon8Bron: Wikipedia

Ozon  (O3)  ontstaat  onder invloed van UV-straling uit gewone zuurstofmoleculen (O2).  Ozonmoleculen zijn relatief instabiel, en worden op den duur ook weer door UV-straling afgebroken tot  zuurstof. Dit alsmaar voortdurende fotochemisch proces wordt de ozon-zuurstofcyclus genoemd. Overigens is de hoeveelheid ozon in de ozonlaag niet groot:  2 tot 8 ppm (parts per million). Maar ondanks dit relatief geringe voorkomen is ozon letterlijk van levensbelang voor het leven op aarde.

ozon9Bron: Wikipedia

UV-straling komt in drie zogenaamde banden voor:  UV-a, UV-b en UV-c.   Deze banden worden onderscheiden  op grond van hun golflengte (zie bovenstaand plaatje). UV-c is verreweg het meest schadelijk voor het leven op aarde, vanwege het optreden van genetische beschadigingen en huidkanker, maar wordt gelukkig volledig weggefilterd door ozon. UV-b is ook schadelijk, en dit wordt vrijwel helemaal door ozon weggefilterd. Slecht een zeer kleine fractie bereikt de aarde.  UV-a wordt vrijwel niet wegggefilterd en bereikt bijna geheel de aarde. Gelukkig is deze vorm van UV-straling nauwelijks schadelijk.

Vanwege het feit dat in de tropen de hoeveelheid binnenkomend zonlicht/m2 het grootst is, en dus ook de hoeveelheid UV-straling, wordt hier de meeste ozon aangemaakt. De grootste concentraties van ozon vinden we echter niet  boven de tropen maar op hogere breedtes,  en niet in de zomer (wat logisch zou zijn), maar in de lente. Overigens zijn daar ook uitzonderingen op. Het gat in de Antarctische ozonlaag treedt in de zuidelijke lente (september/oktober) op, terwijl op het noordelijk halfrond op veel plaatsen  in de lente de hoogste waarden gemeten worden.

Een belangrijke rol in de verdeling van ozon over de aarde speelt de zogenaamde Brewer-Dobson-circulatie, een luchtstroom die in de lagere stratosfeer van de tropen richting polen waait en ozon transporteert naar hogere breedten.  Vanwege de lagere temperaturen op hogere breedten kan ozon zich daar veel langer handhaven dan boven de tropen. Gedurende de zomer valt de Brewer-Dobson-circulatie vrijwel geheel stil  (A.J.Haklander, The Brewer-Dobson circulation: interannual variability and climate change, 2008, TU Eindhoven). Dat verklaart waarom de ozonwaarden op het noordelijk halfrond  in de herfst de laagste waarden bereiken.

ozon10Bron:  Wikipedia

Sinds de jaren ’80 vormt zich in de stratosfeer jaarlijks een ozongat boven Antarctica. Dit gat ontstaat meestal in september en is , volgens de algemene redenering, een gevolg van de zogenaamde katalytische chemische afbraak van ozon, hoofdzakelijk onder invloed van chloorfluorkoolstoffen (CFK’s). Deze CFK’s zijn vanaf de jaren ’90 van de 19e eeuw door de mens in de atmosfeer gebracht en de uitstoot ervan is sinds het Montreal Protocol (1987) drastisch beperkt.

ozon5Bron:  Bescherming ozonlaag: 20 jaar effectief beleid – een welkome waarheid

De verwachting is dat de jaarlijkse afbraak van ozon boven de Zuidpool nog vele decennia doorgaan, aangezien de ozonafbrekende stoffen niet meteen uit de stratosfeer verwijderd zijn.

CFK’s worden bovenin de stratosfeer (grotendeels boven de 25 km hoogte) afgebroken door dezelfde UV-straling als die waartegen de ozonlaag ons beschermt. Het is echter zo dat meer dan 90% van de atmosferische massa (en dus ook van CFK’s) zich beneden dit niveau bevindt. De totale hoeveelheid CFK’s die in de atmosfeer is beland zal dus maar mondjesmaat op grote hoogte worden afgebroken. De afbraak van CFK’s wordt versterkt door dezelfde  circulatie die ozon naar hogere breedten transporteert, de Brewer-Dobson-circulatie. Deze circulatie pompt de CFK’s langzaam maar zeker rond: in de tropen omhoog van de troposfeer naar de stratosfeer,  op gematigde breedten poolwaarts en op hogere breedten weer terug naar de troposfeer. Dezelfde circulatie  pompt ozonarme lucht in de tropen omhoog waarin weer nieuwe ozon gevormd wordt en transporteert het dan naar hogere breedten.

ozon11Bron:  KNMI

Het “gat” is feitelijk een verdunning van de hoeveelheid ozon tot ongeveer 40% van de waarden die aan de begin van de Antarctische winter gemeten worden. De oorzaak van deze sterke verdunning boven Antarctica is de volgende: aan het eind van de winter zakt de temperatuur van de lagere stratosfeer vaak tot extreme waarden: lager dan -85 graden Celcius is geen uitzondering. Daardoor ontstaan zelfs in de zeer droge stratosfeer wolken, Polaire Stratosfeerwolken , die een rol spelen bij de afbraak van ozon.

ozon3Bron:  Antarctic Ozone Bulletin

De zon , die dan na de poolnacht weer tevoorschijn komt,  doet met zijn UV-straling de rest. Die lagere ozonwaarden vormen overigens een positieve terugkoppeling: minder ozon betekent minder opwarming van de stratosfeer en dus lagere temperaturen. Gevolg is dat de temperatuur van de lagere stratosfeer de afgelopen decennia zo’n 10 graden lager is dan in de jaren ’60 van de vorige eeuw. In het Arctisch gebied zijn de temperaturen in de lagere stratosfeer gemiddeld hoger dan boven Antarctica, waardoor verdunning van de ozonlaag daar veel minder sterk is.

Het ”gat” in de ozonlaag is voor het eerst gemeten in 1983 en  tot 1992  steeds verder toegenomen.  De jaren daarna is het niet verder verdiept, maar ook nauwelijks minder diep geworden. In 2006 waren de ozonwaarden (in Dobson)  extreem laag, wat zich de afgelopen paar jaar weer enigszins hersteld heeft.  De vraag hoe bijzonder  het “gat”  in de ozonlaag is, is moeilijk te beantwoorden. We meten pas vanaf 1979 ( satellieten) en hebben derhalve geen zicht op de situatie vóór 1979. Kennis omtrent eventuele natuurlijke fluctuaties in de hoeveelheid ozon ontbreekt nagenoeg geheel.

ozon12Bron:  Antarctic Ozone Bulletin

Onze landgenoot Paul Crutzen bestudeerde in de jaren ’60  en ’70 van de vorige eeuw de invloed van stikstofoxiden op de ozonlaag.  Crutzen vond dat NO van belang is om het gedrag van ozon in de stratosfeer te verklaren. NO,  gevormd uit lachgas (N2O), gaat een katalytische reactie met ozon aan, waarbij ozon wordt omgezet in zuurstof (O2). De door Crutzen berekende evenwichtsconcentratie van ozon komt goed overeen met ozonwaarnemingen. Door deze ontdekking was de weg vrij voor een speurtocht naar andere stoffen die eenzelfde afbrekende werking op ozon hebben. Mario J. Molina en Frank Sherwood Rowland ontdekten in 1974 dat dit inderdaad het geval is voor CFK’s, waaruit zich via fotolyse chloorradicalen kunnen losmaken. CFK’s zijn vanaf het eind van de 19e eeuw ontwikkeld, eerst ten behoeve van brandbestrijding, later als drijfgas en koelmiddel. Die chloorradicalen spelen op hun beurt een rol in de afbraak van ozon.

De ontdekkingen van Crutzen, Molina en Sherwood  leidden voor hen tot het verkrijgen van de Nobelprijs voor de chemie in 1995. In die periode stond het voor de meeste wetenschappers vast dat CFK’s de grote boosdoeners waren.  Vandaar ook dat enkele jaren eerder zonder al teveel tegenwerking in het Montreal Protocol de productie en verwerking van CFK’s aan banden werden gelegd. Men was er van overtuigd dat dit op middellange termijn ervoor zou zorgen dat het “gat”  in de ozonlaag gedicht zou worden. Het KNMI  bracht in 1997 een persbericht naar buiten dat het begin van het herstel van de  ozonlaag in zicht was. Men schreef toen:  “ Naar verwachting zal de afname van ozonafbrekende stoffen nog in deze eeuw leiden tot een begin van het herstel van de ozonlaag.”

ozon7
Bron:  KNMI

We weten nu dat dat veel te optimistisch was. Van een herstel is nog geen sprake, en tot nu toe wisselen de jaren met een sterke afname stuivertje met jaren dat de afname minder groot is.

ozon6Bron:  KNMI

We constateren dat het zogenaamde gat in de ozonlaag , dat elk Antarctisch voorjaar ontstaat, er nog steeds is. In oktober 2006 was het gat zelfs dieper dan ooit sinds de metingen in 1979. Onderstaande grafiek is afkomstig van de site van TEMIS  (Tropospheric Emission Monitoring Internet Service ), waar de data van de satellietinstrumenten SCIAMACHY en OMI sinds 2000 worden verwerkt.

ozon13
Het KNMI en vele andere instituten en wetenschappers zijn wellicht jarenlang te optimistisch geweest over de effecten van het Montreal Protocol om de productie van CFK’s  terug te dringen. In een persbericht van 16 september 2005 schreef het KNMI nog :  “ Het gat in de ozonlaag boven de Zuidpool, dat zich jaarlijks in lente vormt, wordt waarschijnlijk vanaf ongeveer 2010 kleiner. Onderzoekers verwachten dat de ozonlaag niet eerder dan halverwege deze eeuw geheel zal zijn hersteld. …. De omvang van het ozongat dit jaar en de hoeveelheid ozon die dit jaar is afgebroken zijn vergelijkbaar met  die in de recordjaren 2000 en 2003.  Het ozongat van dit jaar wijst dus allesbehalve op een herstel van de ozonlaag.  Het ozongat werd ontdekt in i985, dit jaar precies 20 jaar geleden. Recent onderzoek laat zien dat buiten de polaire gebieden de dikte van de ozonlaag de laatste jaren weer geleidelijk toeneemt.   Boven de Zuidpool zal echter naar verwachting, zoals gezegd, het herstel van de ozonlaag niet eerder beginnen dan rond 2010. ”

De vorming en afbraak van ozon is een ingewikkeld proces, waarover de vorige keer al een en ander is geschreven. Bij de afbraak van ozon spelen zogenaamde vrije  radicalen een belangrijke rol als katalysator, waarbij CL (chloor) tot nu toe een zeer belangrijke rol speelt. Chloor komt , zoals bekend, door CFK’s in de atmosfeer, verbindingen waarvan de productie door het Montreal Protocol aan banden is gelegd.  Men gaat er van uit dat een enkel chlooratoom  in staat is om  gedurende 2 jaar ozon af te breken. Die 2 jaar is de geschatte tijd dat een chlooratoom in de stratosfeer verblijft voordat hij weer terugkeert naar de troposfeer . In die 2 jaar kan een enkel chlooratoom met wel 100.000 ozonmoleculen reageren, met als gevolg een afname in de hoeveelheid ozon.

Francis Pope e.a. van  NASA’s Jet Propulsion Laboratory in Pasadena, California,  hebben in een publicatie in 2007 echter een bom gelegd onder de tot dan toe veronderstelde afbraakreacties van ozon (Pope, F.D., Hansen, J.C., Bayes, K.D., Friedl, R.R. and Sander, S.P. 2007. Ultraviolet absorption spectrum of chlorine peroxide, ClOOCl. Journal of Physical Chemistry A 111: 4322-4332).  Ze  beschrijven nieuwe manieren waarop de fotolyse van chloorperoxide kan worden gemeten. Fotolyse is een scheikundige ontledingsreactie onder invloed van zonlicht. Deze ontleding van de stof chloorperoxide is een belangrijke stap in de vernietiging van ozon. Uit de publicatie  blijkt dat deze ontleding onder invloed van licht een factor zes kleiner is dan tot op heden werd aangenomen. De auteurs  vragen zich dan ook af in hoeverre het huidige ozonafbraakmodel compleet is.

ozon14
Ook Markus Rex van het Alfred-Wegener-Institut für Polar- und Meeresforschung in Potsdam stelt in 2007 in het blad Nature: ” If the measurements are correct we can basically no longer say we understand how ozone holes come into being.” What effect the results have on projections of the speed or extent of ozone depletion remains unclear. The rapid photolysis of Cl2O2 is a key reaction in the chemical model of ozone destruction developed 20 years ago. If the rate is substantially lower than previously thought, then it would not be possible to create enough aggressive chlorine radicals to explain the observed ozone losses at high latitudes “. Ook John Crowley  (Max Planckinstituut in Mainz) is kritisch in dezelfde Nature, als hij zegt:  ” Our understanding of chloride chemistry has really been blown apart.” . Neil Harris van de Europese Ozon Onderzoeks Eenheid schrijft: ” Until recently everything looked like it fitted nicely, but that now it’s like a plank has been pulled out of a bridge.”.  (Schiermeier, Q. 2007. Chemists poke holes in ozone theory. Nature 449: 382-383.).

In onderstaande grafiek is de afhankelijkheid van de fotolyse van ClOOCl  van het frequentiespectrum goed te zien: fotolyse vind vooral plaats bij golflengtes tussen 310 en 400 nm. De verticale as betreft de mate van fotolyse op 20 km hoogte en een hoek van zonne-instraling van 86°  (net boven de horizon). Opvallend is dat vanaf 1990 de diverse publicaties steeds op een lagere fotolyseniveau uitkomen dan tot dan toe werd aangenomen.

ozon15

Toch zijn er ook twijfels over de opmerkelijke vondsten van Pope e.a.  Zo schrijft de UK Workshop for an Initiative under the Stratospheric Processes and Their Role in Climate (SPARC) Project of the World Climate Research Programme  in 2008 dat er vooralsnog geen redenen zijn om te veronderstellen dat er grote hiaten aanwezig zijn in de huidige modellering van de afbraak van ozon: “ All these observations together provide tight constraints on potential “missing chemistry.” It seems to be unlikely that any major chemical mechanism could remain undetected so far. If any relevant unknown chemistry plays a role for the ozone loss mechanism, it can only be a minor modification of the known mechanisms, like adding an alternate breakdown mechanism for ClOOCl that has an overall effect very similar to the currently assumed rapid photolysis. Observational constraints for even such a minor modification of the chemical system are tight and it appears to be very difficult to reconcile cross sections of ClOOCl much smaller than current JPL recommendations with atmospheric observations. “

Ook  een publicatie van Chen e.a. (UV Absorption Cross Sections of ClOOCl Are Consistent with Ozone Degradation Models, 2009, Science : Vol. 324. no. 5928, pp. 781 – 784) komt op andere waarden dan Pope en  twijfelt zelfs aan de juistheid van Popes waarnemingen.

Of er al of niet essentiële zaken ontbreken in de huidige ozonmodellen zal snel blijken. Als er binnen nu en enkele jaren geen wezenlijke verbeteringen optreden in het ozongehalte van de stratosfeer zal de wereldgemeenschap van atmosfeerchemici op zoek moeten naar aanvullende mechanismen, of misschien zelfs naar radicaal andere verklaringen. We wachten af.

De luchtdruk hypothese

Een nieuwe klimaattheorie?

pressureBron: C. Donald Ahrens, Essentials in Meteorology

Ned Nikolov en Karl Zeller, beiden gepromoveerde fysici en werkzaam bij de Amerikaanse tegenhanger van ons Staatsbosbeheer, hebben onlangs een nieuwe klimaattheorie het licht doen zien. De theorie wijkt wezenlijk af van de huidige gangbare theorie. Nikolov en Zeller stellen dat de temperatuur aan het aardoppervlak de resultante is van de luchtdruk en niet van de chemische samenstelling van de atmosfeer (= broeikasgassen) . Ze noemen dat Pressure-induced Thermal Enhancement (PTE). De gangbare theorie is dat er een extra opwarming van het aardoppervlak is vanwege de aanwezigheid van zogenaamde broeikasgassen. Zie voor de volledigheid eerst de paragraaf over de broeikastheorie in het menu onder “De Feiten” .

De schrijvers baseren hun nieuwe theorie op de Ideale Gaswet PV = nRT, waarin P de druk is, V het volume, n de moleculaire massa in mol, R de gasconstante en T de temperatuur. Aan de gaswet is te zien dat P en T lineair van elkaar afhankelijk zijn: wordt P 2x zo groot, dan wordt T ook 2x zo groot. Omdat de druk in de atmosfeer toeneemt van boven naar beneden als gevolg van de gravitatiekracht van de aarde zou alleen al daardoor de temperatuur onder in de atmosfeer hoger zijn dan bovenin. Nikolov en Zeller spreken hier van kinetische energie die als het ware ruimtelijk ongelijk verdeeld is. Die extra hoge temperatuur aan het aardoppervlak als gevolg van de hoge luchtdruk zou dan verantwoordelijk zijn voor het feit dat de temperatuur daar (veel) hoger is dan de zogenaamde grey-body temperatuur van de aarde.

nikolov1
De theorie van Nikolov en Zeller lijkt sterk op die van de Zweedse fysicus Hans Jelbring , die in 2003 in Energy & Environment zijn gedachten over het voetlicht bracht. Ook Jelbring gaat er van uit dat de luchtdruk er voor zorgt dat de temperatuur aan het aardoppervlak veel hoger is dan op grond van de wet van Planck en van Stefan-Bolzmann berekend is ( – 18 °C ). Net als Nikolov en Zeller trekt Jelbring paralellen met andere planeten in ons zonnestelsel.

Ruim een jaar geleden heb ik met John M. Wallace van de University of Washington de theorie van Jelbring via email besproken. Wallace is een deskundige op het gebied van atmosferische processen, en auteur van een standaardwerk op dit gebied, “Atmospheric Science: An Introductory Survey “.

Hij schreef me op 4 december 2010: “ Hans Jelbring’s article illustrates the basic conceptual problem that’s common to the article. Jelbring is correct when he says that the adiabatic lapse rate is largely determined by the gravitational acceleration and the chemical makeup of the gases in a planetary atmosphere. He is also correct in noting the relevance of the adiabatic lapse rate to the observed lapse rate in the Earth’s atmosphere: the adiabatic lapse rate is the upper limit on the observed lapse rate. It is realized in regions of the atmosphere that are strongly heated from below.

To understand how radiative transfer influences surface temperature, one needs to go beyond the concept of the adiabatic lapse rate and consider an atmosphere in “radiative-convective equilibrium, as discussed on p. 421-422 of the 2nd edition of our textbook. In such an idealized 2-layer atmosphere, the lower layer, which is comparable in depth to the troposphere, has a lapse rate equal to the adiabatic lapse rate . Two points emerge from this simple analysis:
(1) Were there is no greenhouse effect, the lapse rate in a planetary atmosphere would be isothermal (i.e., temperature would not change with height. In this case, the dry adiabatic lapse rate would be unchanged from its present value, but it would be completely irrelevant to the interpretation of the observed lapse rate.
(2) Greenhouse gas concentrations have no effect on the adiabatic lapse rate in the lower “convective” layer, but they determine the depth of that layer: increasing greenhouse gases increases the surface temperature of the planet not by changing the lapse rate, but by deepening the convective layer
. “ .

lapse rate1
Bron: Wallace

Ik bespaar u hier de sneer van Wallace richting Energy & Environment, een gevoeligheid die bij meer gevestigde klimatologen voorkomt. Volgens mij is de uiteenzetting van Wallace juist. De bij de uiteenzetting behorende figuur heb ik hierboven afgebeeld. Hij komt uit het genoemde standaardwerk van Wallace.

De reactie van Roy Spencer, gekend kritisch klimaatprofessor, is ongeveer van hetzelfde laken een pak. Hij stelt: “ The average air temperature at any altitude (including the surface) is an energy budget issue, not an air pressure issue. In fact, energy budget considerations explain the average temperature of just about everything we experience on a daily basis: the inside of buildings, car engines, a pot on the stove, etc. ………Many years ago Danny put together such a model so we could examine global warming claims, especially the claim that increasing CO2 will cause warming. The model was indeed able to explain the average vertical temperature structure of the atmosphere. ” .

Dat laatste is een van de manco’s in de nieuwe theorie: waarom neemt de temperatuur niet af met de hoogte, maar zien we in de stratosfeer hogere temperaturen? In de gangbare stralingstheorie is dat makkelijk te verklaren: O3 absorbeert daar veel zonne-energie. Ik heb Nikolov gevraagd om een reactie op dit punt, en hij emailde: “ Yes, you are correct that radiative exchange dominates the thermodynamics of in the stratosphere. Convection is of secondary importance there … ” . Overigens beloofde hij met een officieel antwoord te komen op de kritiek uit het blogveld.

Een ander probleem dat nog niet is opgelost met de nieuwe theorie zijn de temperatuurschommelingen op geologische tijdschaal. De onderzoekers wijzen naar periodes met extra tektonische activiteiten, waardoor wellicht meer gassen dan normaal uit mantel en aardkorst naar de atmosfeer zijn getransporteerd. Dat is echter speculatief en zal nader uitgewerkt dienen te worden. Overigens weten trouwe lezers van deze site dat ook binnen de vigerende theorie de oorzaken van temperatuurveranderingen op geologische tijdschaal niet zomaar een op een te koppelen zijn aan de chemische samenstelling van de atmosfeer, noch aan kosmische oorzaken.

temp profiel
Bron: C. Donald Ahrens, Essentials in Meteorology

Een ander probleem is dat in de gangbare theorie over de verticale temperatuurverdeling in de atmosfeer de opwarming van de onderzijde van de troposfeer een afkoeling van de bovenste troposfeer veroorzaakt. Die afkoeling is gemeten. Hoe is dat in te passen in de nieuwe theorie?

Wat me wel intrigeert in verband met de nieuwe theorie is dat de helft van de luchtdruk in het verticale profiel bereikt wordt op 5,5 km hoogte. Dat is ook exact wat in de broeikastheorie het “average emission level” genoemd wordt. Ik heb me altijd verbaasd over dit ‘level’, omdat het simpelweg gebaseerd is op terugrekenen vanuit 239 W / m ^ 2 en de Stefan-Boltzmann vergelijking. Het resultaat, -18 ° C, is de temperatuur op deze hoogte. Kan het zijn dat dit 50% niveau van de luchtdruk tevens het gemiddelde niveau is van de door de onderzoekers centraal gestelde kinetische energie van de atmosfeer? Of ga ik nu teveel mee in de nieuwe theorie?

Hoewel ik de theorie van Nikolov en Zeller zeker interessant vind ben ik niet overtuigd en kijk uit naar een geloofwaardige reactie op de kritieken uit het veld.

Nulhypothese Clark

CO2 als broeikasgas: inleiding

CO2 als broeikasgas is de spil in de hypothese dat een stijging van CO2 opwarming van de aarde veroorzaakt. Niet iedereen is het daar mee eens, en dat zijn niet allemaal “gekken”  zoals vaak neerbuigend beweerd wordt door vele klimaatalarmisten. De komende afleveringen wil ik een andere kijk op  CO2 als broeikasgas aan de orde stellen. In dit inleidende deel een aantal basisgegevens op een rijtje.

CO2  is onderdeel van de koolstofcyclus op onze planeet. Verreweg het grootste deel van C is opgeslagen in dikke pakketten kalksteenafzettingen. Sedimentatie in zeeën en oceanen vullen deze opslag van C aan, verwering op het land maakt C weer vrij uit deze gesteenten, dat als CO2 in de atmosfeer terecht komt. Andere bronnen voor de atmosfeer  van C zijn de biosfeer, oceanen en de mens vanwege het verbranden van fossiele brandstoffen en veranderd bodemgebruik. Oceanen, biosfeer en gesteenten vormen aan de andere kant ook weer sinks voor C. Onderstaande figuren komen uit het laatste rapport van het IPCC.

co2 emissies ippc1

 

co2 emissies ippc2

Antropogeen C is in zoverre een vreemde eend in de bijt omdat het geen sink vormt en pas sinds het eind van de 19e eeuw een rol is gaan spelen.  Die rol is beperkt: slechts 3% van alle CO2 die jaarlijks in de atmosfeer terecht komt is van antropogene oorsprong, de rest is “natuurlijk”. Schattingen van deze antropogene bijdrage lopen uiteen van 6 tot 10 gigaton C per jaar, terwijl geschat wordt dat 1/3  tot 1/2 daarvan binnen een jaar wordt opgenomen door de oceanen. Het recentste cijfer is een antropogene emissie vanwege fossiele brandstoffen in 2008 van 8,7 gigaton C (bron: BP statistical review of world energy).  De rest van de antropogene CO2 veroorzaakt samen met nog andere bronnen (o.a. oceanen) de stijging van het CO2-gehalte in de atmosfeer gedurende de afgelopen 250 jaar  van 280 ppm tot 390 ppm in 2010.

co2b

Cruciale vraag is nu : wat voor invloed heeft dit op de temperatuur op aarde? Velen wijzen naar de temperatuurstijging van de afgelopen eeuw. Die temperatuurstijging correleert echter slecht met de stijging van het atmosferische CO2. In de eerste plaats is begint de CO2-stijging al rond 1800  (zie figuur hierboven), terwijl er pas sprake is van enige uitstoot door fossiele brandstoffen vanaf 1850 (zie onderstaande figuur). Die antropogene uitstoot loopt dan langzaam op tot ongeveer 1,5 gigaton C/jaar in 1945, om daarna explosief te stijgen als gevolg van de naoorlogse “industrial boom”.

fossielc

In de tweede plaats is de recente temperatuurstijging geen geleidelijke beweging , maar een met sterke op- en neergaande bewegingen, terwijl het CO2-gehalte tamelijk gelijkmatig stijgt. Nu is daarover al veel geschreven, onder andere op  deze site. Cruciale vraag in het klimaatdebat momenteel is hoe groot de invloed is van CO2 op het wereldklimaat, de CO2-sensitivity.


De oceanen

Dr. Roy Clark uit de USA heeft een opvallende mening over  de effecten van CO2- stijging op de aardse temperatuur.  Die mening heeft hij geventileerd in een artikel in het blad Energy & Environment . (Roy Clark,  A null hypothesis for CO2, Energy & Environment, Volume 21, Number 4 , August 2010)

Clark stelt dat stijging van CO2 geen enkele invloed heeft op de temperatuur op aarde en staaft die bewering met overzichtelijke berekeningen aan fysische processen. Nu ben ik persoonlijk veel meer gecharmeerd van herkenbare fysische wetmatigheden dan van het complexe modelbouwen dat de laatste decennia zo’n grote opmars vertoont.  Clark vergelijkt de invloed van CO2 op de temperatuur  met de invloed van variaties in zonne-energie. Hij stelt vast dat een stijging van 100 ppm CO2 (ongeveer de stijging vanaf 1800) een verhoging van 1,7 W/m2 veroorzaakt aan het aardoppervlak als gevolg van een verhoogde neerwaarts gerichte LWIR  (langgolvige infrarood straling). Dat getal  is verkregen uit de HITRAN database van Harvard University en wordt ook gebruikt in het laatste IPCC rapport.

De zon levert 1365 W/m2. Dat is de zogenaamde zonneconstante, die toch niet zo constant blijkt te zijn als de naam veronderstelt: hij varieert licht onder invloed van zonnecycli. Voor de afgelopen 50 jaar met 6 zonnecycli lag de zogenaamde zonnevlekkenindex ongeveer 70% boven het gemiddelde vanaf 1650.  Dat veroorzaakte een gemiddelde verhoging van 0,3 W/m2. Deze data stammen uit de database van de SOHO/VIRGO satelliet. Op onderstaande grafieken zijn beide forcings afgebeeld.

clark1
clark2
clark3

De vraag die Clark zich stelt is de volgende:  uitgaande van de Eerst en Tweede Wet van de Thermodynamica en de Wet van Beer, kunnen deze 2 relatief kleine veranderingen in zonnestraling en LWIR de aardse energiebalans zodanig veranderen dat er een klimaatverandering optreedt? Voor het antwoord op die vraag bekeek Clark de aarde niet als geheel maar maakt onderscheid tussen oceanen en continenten. Energiestromen boven oceanen wijken namelijk sterk af van die boven land.

Water is bijna volledig transparant voor licht, dat tot een diepte van ongeveer 100m doordringt (Hale & Querry, 1973). Het oceaanwater koelt af door verdamping en langgolvige uitstraling (LWIR) vanaf het oppervlak. (Yu, L., Jin, X. and Weller R. A., OAFlux Project Technical Report (OA-2008-01) Jan 2008. ‘Multidecade Global Flux Datasets from the Objectively Analyzed Air-sea Fluxes (OAFlux) Project: Latent and Sensible Heat Fluxes, Ocean Evaporation, and Related Surface Meteorological Variables) .  Over vrijwel de gehele LWIR bandbreedte wisselt het wateroppervlak straling uit met de atmosfeer, waarbij er een licht overschot is aan verwarming van de atmosfeer door het water. Deze is afhankelijk van de het temperatuurverschil tussen lucht en water (Tweede Wet Thermodynamica).

clark5Bron:  Yu, 2007  

LWIR vanuit de atmosfeer dringt minder dan 1/10 mm het water binnen. De temperatuurveranderingen die daardoor ontstaan zijn te klein om waar te nemen binnen de fluctuaties die ontstaan door veranderingen in verdamping. Van 1977 tot 2003 nam de verdamping toe van 103/jaar tot 114 cm/jaar, als gevolg van een toename van de windsnelheid van 0,1 m/sec. (Yu, L., J. Climate, 20(21) 5376-5390 (2007), ‘Global variations in oceanic evaporation (1958-
2005): The role of the changing wind speed’
). Zie onderstaande grafieken.

clark6                                                                                                                                   Bron: Yu, 2007   

De onzekerheidsmarge bij die stijging van 11 cm/jaar is 2,7 cm/jaar, wat hoger is dan de maximaal mogelijke verdamping  onder “clear sky conditions”  bij een verhoging van het CO2-gehalte met 100 ppm.  Het is dus fysisch gezien onmogelijk dat een toename van het CO2-gehalte met 100 ppm een meetbare invloed heeft op de oceaantemperatuur.

Onderstaand figuur toont de energiestromen op het grensvlak van water en lucht. Te zien is dat de oceaan op 2 manieren afkoelt: door verdamping, waarbij latente energie  naar grotere hoogten stijgt en daar vrijkomt, en door straling (LWIR). Cruciaal verschil tussen beide is dat bij verdamping het vrijkomen van energie niet gekoppeld is aan de oceaan maar de neerwaartse LWIR-flux grotendeels wel. De latente warmte door verdamping wordt immers door convectie op grotere hoogte omgezet in voelbare warmte. Op  grotere hoogten ontsnapt die warmte makkelijk uit de atmosfeer naar de ruimte. Dat is in extreme mate het geval bij het ontstaan van vele altocumuli in de tropen die tot 15 km hoogte kunnen reiken. Zie hierover ook de ideeën van Noor van Andel en Eschenbach. De afkoeling door LWIR beperkt zich tot de bandbreedte van 800 – 1200 micrometer (infrarood venster), daarbuiten is de uitstraling van langgolvige straling gekoppeld aan de oceaan.

clark4

Voor zonlicht is zoals reeds gezegd het oceaanwater tot ongeveer 100 m doorzichtig, wat wil zeggen dat zonlicht tot ongeveer 100 m diepte wordt geabsorbeerd en omgezet in warmte. Die warmte kan maar ten dele weer aan de atmosfeer afgeven worden doordat er sprake is van een beperkt verticaal transport. Afhankelijk van de breedteligging is verticaal transport van grotere diepte maar beperkt mogelijk, en dan veelal slechts in een deel van het jaar: de seasonal mixing layer. In de lente en zomer ontstaat een warme bovenlaag, met als gevolg een temperatuursinversie die verticaal transport verhindert. In de herfst verwijnt die inversie vanwege de afkoeling van de bovenste waterlagen, waardoor er een mix mogelijk is tot 100 m diepte. Op onderstaande 2 grafieken is dat te zien voor een meetpunt op 1,5° ZB en 20,9 ° ZB respectievelijk.

clark7
De grafieken hieronder betreffen meetpunten op respectievelijk 52,7° ZB  en 63,4° ZB. Het zijn data verkregen door het ARGO Float Program met 3000 boeien die vanaf 2007 gegevens versturen van onder andere het temperatuurprofiel van de bovenste waterlagen. De boeien kunnen tot 2 km diepte zinken en dan weer langzaam omhoog gaan en metingen verrichten. Aan het wateroppervlak gekomen zenden ze de data naar een satelliet.

clark24

clark25

argo1
Hier een link naar een informatieve video over ARGO.

Er vallen in bovenstaande grafieken twee dingen op: in de eerste plaats is er sprake van een relatieve dunne laag  van ongeveer 25m aan het wateroppervlak die goed gemengd is. Dat is te zien aan de homogene temperatuur in die laag en is het gevolg van het dag/nachtritme, waardoor ’s nachts de bovenste laag voldoende afkoelt om menging mogelijk te maken. In de tweede plaats is goed te zien dat op het meetpunt nabij de evenaar constante hoge temperaturen de inverse situatie in de bovenste 100m het gehele jaar door gehandhaafd blijft en er dus geen menging optreedt in deze laag. Warmte dieper dan 25 m kan derhalve niet afgegeven worden aan de atmosfeer. Grote hoeveelheden energie kunnen dus niet “ontsnappen”  en worden door zeestromen over grote afstanden meegenomen naar hogere breedten waar menging plaatsvindt en uitstraling naar de atmosfeer. Deze zeer uitgestrekte pakketten warm water zijn waarschijnlijk gecorreleerd aan het ontstaan van  klimatologische fenomenen als ENSO (El Niño/ Southern Oscillation)  en tropische wervelstormen.

clark9

Wat doet een toename van CO2 in deze  water-lucht energiebalans? Volgens Clark is dat vrij simpel: een toename  van CO2 in de atmosfeer doet een extra energieflux richting oceaan ontstaan van maximaal 1,7 Watt/m2, zoals reeds eerder gesteld.  Omdat water opaak (ondoorzichtig) is voor LWIR straling wordt deze extra energie vrijwel geheel geabsorbeerd in een heel dun waterlaagje van minder dan 100 micrometer  (1/10  mm). Dit opgewarmde laagje , dat natuurlijk wel enige menging ondergaat afhankelijk van de plaatselijke omstandigheden, staat die extra energie weer snel af aan de atmosfeer door een extra verdamping in de orde van grootte van maximaal 2,4 cm/jaar sinds 1800. De verdamping neemt bijna exponentieel toe met de temperatuur.

clark8

Hoe staat het met de invloed van extra flux van zonne-energie op de watertemperatuur? Het effect van kleine veranderingen in de zonneconstante op de temperatuur van het oceaanwater kan worden onderzocht met behulp van een eenvoudige fysisch model met vaste absorptiecoëfficiënt en vaste uitstralingsflux. Een dergelijk model reproduceert een jaarlijks temperatuurprofiel zoals in bovenstaande figuur is weergegeven. Vervolgens wordt de invloed van zonnevlekken op de uitgestraalde zonne-energie sinds 1650 onderzocht. Bij een stijging van 1 Watt/m als gevolg van een stijging van de zonnevlekindex met 100 is de berekende temperatuurstijging zoals in bovenstaande grafiek is weergegeven  (op 30° NB en 90m diepte).  Duidelijk te zien zijn Dalton en Maunder Minimum en de recente opwarming!

sweers1     Zelfkoelingsgetal als functie van de watertemperatuur voor verschillende windsnelheden volgens  Sweers (1976)

Conclusie: de extra LWIR-flux vanuit het onderste deel van de troposfeer als gevolg van CO2-toename kan het oceaanwater niet of nauwelijks verwarmen. Die extra flux wordt verwijderd door een toename van de verdamping die zo gering is dat deze verdwijnt in de ruis van verdampingsfluctuaties als gevolg van windsnelheidsveranderingen en veranderingen als gevolg van variaties in zonne-instraling en andere factoren zoals aerosolen, bewolking en luchtvochtigheid

 


De continenten

Clarks conclusie is dus dat de extra LWIR  (infrarood energiestroom) richting oceaan als gevolg van een toename van het CO2-gehalte met 100 ppm fysisch onmogelijk voor opwarming van de troposfeer kan zorgen. Laten we nu de energiefluxen tussen continenten en atmosfeer eens bekijken.  Hieronder staan schematisch  de diverse energiestromen ingetekend.

clark26

Opvallend is het kleine fotootje van een Stevensonhutje.  Clark merkt terecht op dat wanneer klimatologen over de oppervlaktetemperatuur spreken dit vrijwel altijd de luchttemperatuur op 1,5m a 2m hoogte betreft. Om de energiestromen in bovenstaande figuur correct te kunnen invullen hebben we derhalve de oppervlaktetemperatuur nodig, stelt Clark terecht. Die oppervlaktetemperatuur is de resultante van een aantal parameters, zoals de absorptiecoëfficiënt, de geleiding en warmtecapaciteit van de grond, hoek van instraling, reliëf , verschil tussen inkomende en uitgaande LWIR-stromen, latente warmtestromen indien de grond vochtig is,  en convectie. De luchttemperatuur op 1,5m hoogte is afhankelijk van de parameters van de aangevoerde luchtsoort, LWIR vanaf de grond, latente warmtestromen,  en de mate waarin de lucht in het onderste deel van de troposfeer kan mengen. Dat laatste is gerelateerd aan de atmosfeergradiënt (lapse rate) ter plaatse.

Clark stelt terecht dat er geen duidelijke of eenvoudige relaties tussen beide grootheden bestaan. De huidige klimaatmodellen gaan echter uit van de veronderstelling dat de gemeten luchttemperatuur gezien kan worden als een “equilibrium surface temperature”.  Clark acht dit onjuist. ’s Zomers kan de totale zonne-energie per m2 wel meer dan 50 MJ worden, waarbij de grond zelfs warmer dan 50° C kan worden. De dagelijkse  schommelingen in de uitgaande LWIR-stroom kunnen groter zijn dan 5 MJ.  Gedurende de afgelopen 50 jaar is er een LWIR- fluxtoename geweest  van ongeveer 0,1 MJ als gevolg van de  toename van het CO2-gehalte met 70 ppm. Clark stelt dat het feitelijk onmogelijk is dat een dergelijke kleine verandering in LWIR-flux een meetbaar effect heeft op de oppervlaktetemperatuur, gezien de enorme dagelijkse en seizoenschommelingen.  Om vast te kunnen stellen of dat inderdaad zo is, ontwerpt Clark een zogenaamd Groud Heating Model.

clark27
Hierboven is een temperatuurgrafiek van Irvine (CA) van 2008 te zien. Duidelijk  zijn de grote verschillen tussen de dagelijkse maximum en miniumtemperaturen van de thermometermetingen  (MSAT) en die van de oppervlaktetemperatuur gemeten door satellieten (Surface temperature). Op basis van deze data van Irvine heeft Clark zijn Ground Heating Model  gemaakt,  dat rekening houdt met latente warmtestromen, zonne-energiestromen en IR-stromen, convectie en opslag tot 1m diepte in de grond. Het model is verrassend accuraat als men het vergelijkt met de gemeten en gladgestreken satellietdata:

clark28

Clark  heeft toen zijn model opnieuw laten rekenen, maar dan met een toegenomen neerwaartse LWIR flux van 1,7 W/m2 als gevolg van een toename van 100 ppm CO2. Het resultaat is hieronder te zien. Het effect van de toename van het CO2 gehalte is nergens in het gehele jaartraject groter dan 0,07°C !  Als dan ook de fluctuaties in latente warmte en bewolkingsgraad meegenomen worden is het onmogelijk om enig effect van een CO2-stijging op de oppervlaktetemperatuur waar te nemen.

clark29

Als het dus onmogelijk is  dat CO2 een verandering in oppervlaktetemperatuur heeft bewerkstelligd, dan is het al helemaal onwaarschijnlijk dat het enige verandering in de gemeten luchttemperatuur heeft kunnen veroorzaken.  Clark stelt dat  de gemiddelde minimumtemperatuur (MSAT) uit de historische temperatuurreeksen op lange termijn bezien  een indicator zijn van de atmosfeergradiënt ter plaatse, en dat de maximum temperatuur slechts de dagelijkse opwarming betreft van de atmosfeergradiënt op 1.5m hoogte.

Om nu de temperatuur van een kolom lucht in de troposfeer van 1m x 1m x 10 km met 1°C te verhogen is ongeveer 10 MJ aan energie nodig. Die enorme hoeveelheid energie kan volgens Clark alleen maar geleverd worden door een verandering in de oceaantemperatuur door verandering in verdamping. Continenten kunnen onmogelijk een dergelijke opwarming veroorzaken. Global warming is niets meer en niets minder dan het meten van 30 jaar temperatuurtoename van oceaanwater, een toename die 10 jaar geleden eindigde.

De thermostaat hypothese

Onderstaande is een bewerking van een artikel van Willis Eschenbach  op de klimaatsite http://whatsupwiththat.com . Het beschrijft hoe met name cumulonimbus wolken in de tropen in staat zijn om de temperatuur op aarde te reguleren.
De Thermostaat Hypothese

willis0

 

De thermostaathypothese is de hypothese dat tropische wolken en onweersbuien actief de temperatuur van de aarde reguleren. Zij houden de aarde dus op een evenwichttemperatuur. De stabiliteit van de temperatuur op aarde in de tijd is lange tijd een raadsel geweest. De fluctuaties bewegen zich  ± ~ 3% (inclusief ijstijden) gedurende de afgelopen 500 miljoen  jaar.  Gedurende het Holoceen  zijn de temperatuurfluctuaties  ± 1%.

Die aardse stabiliteit  is echter niet terug te vinden in de zonnestraling.  4 miljard jaar geleden was de totale zonnestraling ongeveer drie kwart van de huidige waarde (Gough, 1981Bahcall et al.., 2001). Merwaardigerwijze was de aarde toen niet navenant koeler. Temperatuurproxies zoals deuterium / waterstofverhoudingen  en 16O/18O-verhoudingen  vertonen geen tekenen van een 30% opwarming van de aarde in deze tijd. Waarom warmde de aarde niet op toen de zon opwarmde?

Een veel waarschijnlijker verklaring is dat er een natuurlijke mechanisme is dat de temperatuur op aarde sinds mensenheugenis reguleert.Dit is de zogenaamde “Faint Early Sun Paradox ‘(Sagan en Mullen, 1972), en wordt doorgaans verklaard door te veronderstellen dat de atmosfeer destijds  veel rijker aan broeikasgassen was momenteel. Dit zou echter betekenen dat de daling van de broeikasgassen tot nu toe gelijke tred heeft gehouden met de toename van de zonneactiviteit. Dit lijkt hoogst onwaarschijnlijk.

De theorie

Bejan (Bejan 2005) heeft aangetoond dat het klimaat kan worden voorgesteld als een warmtepomp, met de oceaan en de atmosfeer als  werkende media. De tropen vormen de hete einde van de warmtepomp. Een deel van die tropische hitte wordt in de tropen weer uitgestraald,  de ruimte in. Het werk in de warmtepomp wordt uitgevoerd door de werkende media die de rest van die tropische warmte naar de polen brengen. Daar, aan het koude einde van de warmtepomp, wordt de warmte uitgestraald, de ruimte in  . Bejan toonde aan dat het bestaan en omvang  van de Hadley-cells (tropische luchtcirculatiesystemen aan beide zijden van de ITCZ) een afleidbaar gevolg van de zogenaamde  Constructal Law.

De Constructal Law werd door Bejan in 1996/2006/2007 als volgt omschreven: “For a finite-size system to persist in time (to live), it must evolve in such a way that it provides easier access to the imposed currents that flow through it.” .  Het belangrijkste principe van de Constructal Law  is dat elk systeem gedoemd is onvolmaakt te blijven. Als gevolg hiervan streeft het systeem naar een optimale verdeling van de onvolkomenheden. Daarmee lijkt de Constructal Law op de Tweede Hoofdwet van de Thermodynamica, die luidt: De entropie van een geïsoleerd systeem dat niet in evenwicht is, neemt in de loop van de tijd toe, tot het maximum voor dat geïsoleerde systeem is bereikt. De toestand met de maximale entropie is de evenwichtstoestand.

Hij toonde ook aan hoe de temperatuur van het stromingssysteem wordt bepaald.  Bejan: “We pursue this from the constructal point of view, which is that the [global] circulation itself represents a flow geometry that is the result of the maximization of global performance subject to global constraints.” “The most power that the composite system could produce is associated with the reversible operation of the power plant. The power output in this limit is proportional to: “

willis1

In de formule is q  de totale energiestroom door het systeem (van de tropen tot polen), en TH en TL zijn de hoge en lage temperaturen (tropisch en polaire temperaturen in kelvin). Het systeem is voortdurend bezig dat vermogen te maximaliseren. Hier is een overzicht van het hele systeem dat warmte transporteert van de tropen naar de polen:

willis2

Bovenstaande figuur toont de aarde als warmtepomp. De equatoriale Hadley Cells  leveren de energie voor het systeem. In de tropen is de zonne-energie/m2 (oranje pijlen) het sterkst. Warme droge lucht daalt neer op ongeveer 30° NB en 30° ZB, en  vormt zo de grote woestijnen over de hele wereld. Warmte wordt getransporteerd door een combinatie van de zeestromen en de atmosfeer (luchtstromen) naar de polen. Op de polen wordt de warmte uitgestraald naar de ruimte.

Met andere woorden, stromingssystemen zoals het klimaat leveren niet zo maar onvermijdelijk een stabiele temperatuur.  Zij veranderen hun eigen stromen zodanig dat de geproduceerde en gebruikte energie maximaal is. Het is dit dynamische proces, en niet een eenvoudige lineaire verandering van de atmosferische gassamenstelling, die het totale temperatuurbereik van de planeet bepaalt.

De Constructal Law stelt dat elke stromingssysteem zich “quasi” zal stabiliseren in een positie rond (maar nooit te bereiken) ideale situatie. In het geval van het klimaat is dat  de toestand van de maximale totale productie en consumptie van energie. En dit op zijn beurt betekent dat elke waterplaneet een evenwichtstemperatuur bezit, die actief wordt bepaald door het stromingssysteem.

De klimaatregulator

Elke warmtepomp heeft een “gaspedaal”. Het gaspedaal is het deel van de motor dat bepaalt hoeveel energie de warmtepomp binnenkomt. Het controleert inkomende energie. De stabiliteit van de temperatuur op aarde in de tijd (met inbegrip van afwisselende bi-stabiele glaciale / interglaciale periodes) en een aantal theoretische beschouwingen, geven aan dat deze klimatologische warmtepomp zoiets als een regulator moet hebben die het gaspedaal bedient.
Hoewel alle warmtepompen een gasklep hebben, hebben niet pompen een regulator. In een auto is de regulator van de gasklep de “cruise control”. Een regulator past de energietoevoer naar de automotor aan om een constante snelheid te bewerkstelligen, onafhankelijk van veranderingen in de interne en externe factoren zoals heuvels, wind, motorefficiëntie  en verliezen.

Een regulator bedient echter niet alleen de energietoevoer, maar is ook in staat om te gaan met zogenaamde “overshoot”.Dat is het verschil met negatieve feedbacks, die slechts in staat zijn om een toename van bijvoorbeeld de temperatuur te reduceren. Negatieve feedbacks zijn niet in staat  om op langere termijn een steady state te bewerkstelligen.

willis5

 

De zonne-energie die op aarde valt wordt grotendeels geabsorbeerd in de tropen. De tropen bestaan, net als de rest van de wereld, vooral uit oceaan; het land is er bovendien nat. Dampende tropen dus. Er is weinig ijs, dus de wolken in de tropen controleren de hoeveelheid energie die de klimatologische warmtepomp ingaat.

In de hypothese spelen twee verwante soorten wolken in de tropen een hoofdrol, namelijk de cumulus en cumulonimbus. Beide reguleren, elk op hun eigen wijze, de temperatuur. Cumulus zijn de fraaie witte stapelwolken die in de loop van een zomerse dag aan de hemel verschijnen. Cumulinimbus zijn hoge onweerswolken die ontstaan uit cumulus wolken
Ik stel voor dat twee met elkaar verwante maar afzonderlijke mechanismen handelen rechtstreeks naar de temperatuur van de aarde reguleren – tropische cumulus en cumulonimbus. Cumulus wolken zijn de pluizige “watje” wolken die in overvloed in de buurt van het oppervlak op warme middagen.

Cumulonimbus wolken onweer wolken, die het leven beginnen als eenvoudige stapelwolken. Beide wolken spelen een rol als “gasklep”: ze houden een deel van de binnenkomende zonne-energie tegen. Bovendien werkt de cumulonimbus als actieve warmtepomp om indien nodig de noodzakelijke “overshoot”  te bewerkstelligen en zo als regulator voor het klimaatsysteem te dienen.

Een dag in de tropen

Een  dag in de tropen volgt vaak hetzelfde patroon:  bij zonsopgang (omstreeks 6 uur) helder en rustig weer. Dan ’s ochtends toenemende wind en bewolking, die doorzet in de namiddag. In de middag buien en kans op zware onweersbuien. Na zonsondergang wordt het weer helder, met soms een enkele onweersbui. Zo gaat het vrijwel elke dag, bijna overal in de tropen.

De cyclus wordt aangedreven door het dag/nachtritme. ’s Ochtends verwarmt de zon de bovenste laag van het land, de luchttemperatuur stijgt en de verdamping neemt toe. Lucht stijgt, koelt adiabatisch af en aan het eind van de ochtend ontstaan door condensatie de eerste wolken. De bovenzijde van de wolken reflecteren het zonlicht:  het eerste regelmechanisme. Het is de negatieve feedback van cumulus die de hoeveelheid inkomende zonne-energie temperen.
Maar de zon in de tropen is krachtig, en ondanks die negatieve feedback van de cumulus wordt het warmer. Meer cumulus ontstaan daardoor.

willis9

Dan volgt in de loop van de middag het tweede deel. Als de temperatuur blijft oplopen veranderen sommige cumuli en ontstaat er aan de bovenzijde een kolom warme vochtige lucht die in korte tijd kilometers de lucht in reikt.  Dit is het ontstaan van een cumulonimbus, reusachtige onweerswolken van wel 10 tot 15 km hoogte.  Daarmee reiken ze tot aan het einde van de troposfeer en soms nog hoger. Het kolomvormige uitstulpsel van de onweerswolk fungeert als een heat pipe.

willis11

Een heat pipe is een transportmechanisme dat grote hoeveelheden warmte kan verplaatsen. In een heat pipe zit een transportmedium, dat aan de warme kant verdampt, waarbij het energie opneemt, als gas zich voortbeweegt naar de koude kant, alwaar het condenseert en zijn warmte afgeeft, om vervolgens weer terug te gaan naar de warme kant. Dat medium in de onweerswolk is waterdamp. Door condenseren van waterdamp op weg naar boven komen grote hoeveelheden latente warmte vrij, die weer zorgen voor een razendsnel stijgen van de lucht in de heat pipe. Een zelfversterkend effect dus, waardoor cumulinimbi grote hoogten kunnen bereiken.

willis6

Tijdens het vervoer omhoog is er geen stralingsoverdracht of de interactie tussen de turbulente stijgende lucht en de onderste en middelste troposfeer. Op deze wijze worden grote hoeveelheden warmte naar de top van de onweerswolk getransporteerd. Bovenin, op hoogten van 10 tot 15 km, straalt deze warmte vrijwel ongehinderd naar de ruimte uit, doordat op deze hoogte de hoeveelheid broeikasgassen nog maar een fractie van die in de troposfeer. Zo raakt de aarde veel energie kwijt.

Naast deze twee mechanismen hebben onweerswolken onderaan ook een afkoelend effect. Zo neemt de windsnelheid bij een onweersbui sterk toe, waardoor de verdamping  ook sterk toeneemt.

De werking van het mechanisme

Het probleem met bovengenoemde beschrijving van een dag in de tropen is dat de situatie constant verandert. De temperatuur gaat op en neer, de bewolkingsgraad neemt toe en af, dag/nachtritme, de seizoenen komen en gaan. Waar in al dat voortdurende veranderen is de reguleringsmechanisme? Als de omstandigheden altijd anders zijn, wat zorgt er dan voor dat de temperatuur niet ontspoort?

Om dat te kunnen waarnemen moeten we een ander waarnemingspunt innemen , en wel zodanig dat we de factor tijd uitschakelen en daarmee de dag/nachtritme en de seizoenswisselingen. Dat is de zon.  Vanuit de zon bezien is het altijd dag, en altijd zomer. Met de Noordpool aan de bovenzijde is de zonsopgang aan de linkerzijde van de aardbol, en zonsondergang aan de rechterzijde.  Het midden van de dag ligt exact op de vertikaal in het midden van de schijf. Zo heeft men tijdcoördinaten vervangen door ruimtecoördinaten. Op deze wijze is het makkelijker om te zien hoe de regulator werkt.

Volgens de beschrijving van een dag in de tropen zou links op de bol ,  nabij de evenaar de bewolking gering moeten zijn , en naar rechts verder toenemen. Dat dit klopt is te zien op onderstaande satellietopname.  Het is een samengestelde afbeelding van 2  weersatellieten, Meteosat en MTsat, en bestrijkt grofweg de Grote Oceaan  (http://www.goes.noaa.gov). Het gebied in het gele kader is de ITCZ (Intertropische Convergentie Zone). Het gele kader omvat een gebied dat loopt van Borneo aan de linkerzijde (8 uur)  tot de westkust van Mexico  (16 uur).  Duidelijk is te zien dat de bewolking (witte vlekken) toeneemt van links naar rechts, naarmate de dag vordert.

willis3

Op de onderste grafieken is voor hetzelfde gebied  weergegeven de verandering van de albedo gedurende de dag (zwarte curve) en de zogenaamde solar forcing anomaly (uitgedrukt in Watt/m2) die van de albedo-anomalie is afgeleid.  De albedografiek is verkregen door  gedurende een jaar op de 1e en 15e van elke maand  de satellietgegevens van het gebied op te slaan en te middelen. Duidelijk is te zien dat er een sterke stijging van de albedo waar te nemen is tussen 10 uur en 11.30 uur.  Gevolg daarvan is een daling van de hoeveelheid zonne-energie in dezelfde periode van maar liefst 60 Watt/m2 . Wat U hierboven ziet is waarschijnlijk de regulator van de aardse temperatuur!

Als het om wat voor reden dan ook in de tropen een beetje koeler dan normaal is, vindt wolkvorming later op de dag plaats. Het beeld van de bovenstaande satellietopname verschuift dan als het ware wat naar rechts. Minder wolken, minder onweerswolken, en dus een stijging van de gemiddelde hoeveelheid zonne-energie/m2 . Is het daarentegen een beetje warmer dan normaal, dan verschuift het beeld naar links waardoor de gemiddelde hoeveelheid  zonne-energie/m2  afneemt. Dit reguleringsmechanisme houdt de temperatuur binnen een tamelijk nauwe bandbreedte.

Wolken spelen een merkwaardige dubbelrol in de stralingsbalans van de aarde. Enerzijds houden ze kortgolvige straling van de zon tegen, anderzijds absorberen ze infraroodstraling en stralen ze infrarood uit naar de ruimte. Wolken verminderen de totale hoeveelheid geabsorbeerde zonnestraling met 50 W/m2, maar reduceren de totale uitgestraalde energie met 30 W/m2. Het totale effect van wolken is derhalve negatief: – 20W/m2 , vooral als gevolg van de dominante invloed van de albedo . Het zal duidelijk zijn dat deze waarden sterk wisselen, afhankelijk van de bewolkingsgraad en dikte. Op lagere breedte (tropen) is het afkoelende effect van wolken zelfs 50 – 100 W/m2, terwijl op hogere breedtes de effecten op instraling en uitstraling elkaar ongeveer in evenwicht houden.

De albedo van wolken varieert van minder dan 10% tot meer dan 90% en hangt af van de grootte van de druppels, of de wolk uit water of ijs bestaat, van dikte van de wolk, en van de hoek van instraling van het zonlicht. Hoe kleiner de druppels en hoe groter de vloeibare waterinhoud, hoe groter de albedo van een wolk. Laaghangende, dikke wolken (zoals cumulus) hebben een hoge albedo, en daardoor een negatieve feedback: ze koelen de aarde af. Hoge, dunne wolken (zoals cirrus) hebben een lagere albedo maar hebben een hogere positieve feedback. Zij dragen bij aan het broeikaseffect.

De belangrijkste oorzaak van het feit dat de diverse klimaatmodellen voor wat betreft de klimaateffecten van het versterkt broeikaseffect zulke diverse uitkomsten vertonen is vooral gelegen in de verschillen tussen de modellen van wolkenprocessen en wolkenfeedbacks. Die verschillen tussen de diverse GCM’s (General Climate Models) voor wat betreft de wolkenfeedback zijn grofweg 3x groter dan de waterdampfeedback, de opname van warmte door de oceanen of de stralingsfeedback  ( Dufresne & Bony, 2008 ).

De negatieve feedback van de meeste wolken is goed waar te nemen als men de albedo bekijkt op onderstaande satellietopnames. De opnames zijn afkomstig van het ERBE project (Earth Radiation Budget Experiment).

Het bovenste beeld is van augustus. De ITCZ ligt dan grotendeels ten N van de evenaar. Hoge albedowaarden  (lichte kleuren) in grote gebieden ten N van de evenaar. Op de opname  van februari  is het beeld andersom: grote gebieden met een hogere albedo bevinden zich nu ten Z van de evenaar. Die hogere albedowaarden hangen samen met de bewolkingsgraad. De albedo “volgt” hier dus als het ware de zon, of anders gezegd, de hogere bewolkingsgraad van de ITCZ.

willis4

Door de traagheid van opwarming en afkoeling van de oceanen in vergelijking met die van het land is ook op beide afbeelding goed te zien dat de albedowaarden boven het land veel sterker fluctueren dan boven de oceanen.

Hoe de regulator werkt

Een onweersbui is zowel een zichzelf genererende als  zichzelf in standhoudende warmtepomp. De werkzame media zijn vochtige warme lucht en vloeibaar water. Zichzelf genererend betekent dat wanneer het wam genoeg wordt boven de tropische oceaan, er elke dag bij een bepaalde temperatuur en luchtvochtigheid  een aantal cumuli plotseling vlam vatten. De toppen van de wolken schieten dan omhoog, waarin de stijgende voortgang van het vocht beladen oppervlak lucht. Op steeds grotere hoogte, verlaat de stijgende lucht de wolk, en wordt vervangen door meer vochtige lucht van onderen. Er is een actieve onweersbui ontstaan.

Zichzelf genererend betekent ook dat onweerswolken spontaan opstijgen als gevolg van temperatuur en verdamping. Eenmaal boven een bepaalde drempelwaarde waarbij de eerste onweerswolken ontstaan, neemt het aantal onweerswolken snel toe. Deze snelle toename van het aantal onweerswolken heeft als gevolg dat de temperatuurstijging beperkt wordt.

Zichzelf in stand houdend betekent dat zodra een onweersbui op gang komt, het niet langer vereist is dat  de starttemperatuur gehaald wordt om het proces te continueren. Dit komt omdat de zichzelf in standhoudende wind aan de basis, plus droge lucht die van boven naar beneden beweegt,  de verdampingssnelheid verhoogt. Het onweer wordt aangedreven door de luchtdichtheid. Het vereist een bron van lichte, vochtige lucht. De dichtheid van de lucht wordt bepaald door zowel de temperatuur als het vochtgehalte (omdat waterdamp een moleculair gewicht heeft van 16, en daarmee iets meer dan half zo zwaar is als lucht, dat een moleculair gewicht van ongeveer 29 heeft).

Verdamping is niet een functie van de temperatuur alleen. Verdamping wordt bepaald een complexe mix van windsnelheid, watertemperatuur en dampdruk. Verdamping wordt berekend door de volgende formule, die gebaseerd op ervaring in plaats van theorie:

E = VK (es – EA)
waarin:
E = verdamping
V = windsnelheid (functie van de temperatuur verschil [ΔT])
K = constante coëfficiënt
es = damp druk aan het verdampen oppervlak (functie van de temperatuur van het water in graden K tot de vierde macht)
st = damp druk van de bovenliggende lucht (functie van de relatieve luchtvochtigheid en temperatuur in graden K tot de vierde macht)

Belangrijk is dat de verdamping  lineair varieert met de windsnelheid. Dit betekent dat de verdamping in de buurt van een onweersbui veel hoger kan zijndan de verdamping op korte afstand van de wolk.  Dus verhoogde wind-aangedreven verdamping betekent dat voor dezelfde dichtheid van de lucht, de oppervlaktetemperatuur lager kan zijn dan de temperatuur die de onweersbui triggerde. Dit betekent dat de bui blijft bestaan en blijft afkoelen tot ruim onder de begintemperatuur. Dit laatste is wat een regulator onderscheidt van een negatieve feedback. Een onweersbui kan meer doen dan alleen de opwarming beperken: het kan het oppervlak koelen tot onder de vereiste triggertemperatuur. Dit maakt het mogelijk dat de onweerswolk actief temperatuur in de omgeving bepaalt.

Een belangrijk kenmerk van deze manier van is dat de evenwichtstemperatuur niet wordt bepaald  door wijzigingen in de hoeveelheid verliezen of door wijzigingen in de forcings  in het systeem. De temperatuur wordt bepaald door de reactie van wind en water en wolken op stijgende temperatuur, niet door de eigen efficiëntie van het systeem of van de inputs.
Bovendien wordt de evenwichtstemperatuur niet sterk beïnvloed door veranderingen in de sterkte van de zonnestraling. Als de zon zwakker wordt neemt de verdamping af, waardoor de wolkvorming afneemt en de beschikbare hoeveelheid zonne-energie weer stijgt. Dit is het waarschijnlijk het antwoord op vraag hoe de temperatuur van de aarde op geologische tijdschaal binnen een bepaalde bandbreedte zo stabiel heeft kunnen blijven, terwijl tegelijk de kracht van de zon is toegenomen.

Schommelingen in de temperatuur

Als de thermostaathypothese juist is en de aarde een actief geregelde evenwichtstemperatuur bezit, wat veroorzaakt dan die trage afwijkingen en andere veranderingen in de evenwichtstemperatuur die men zowel op historische als geologische tijdschaal waarneemt?

Zoals blijkt uit Bejan’s theorie is een beslissende factor  voor de “bedrijfstemperatuur” hoe efficiënt de hele mondiale warmtepomp  is in het verplaatsen van de terra-Watt aan energie uit de tropen naar de polen. Op een geologische tijdschaal bezien zijn de locatie, oriëntatie en het rijzen van de continentale landmassa’s  natuurlijk belangrijke factoren in dit verband. Dat maakt dat Antarctica zo verschilt van de Noordpool vandaag de dag. Het ontbreken van een landmassa in het Noordpoolgebied betekent dat relatief warm water onder het ijs circuleert. In Antarctica gaat de koude tot op het bot.

Bovendien is de hydrografie van zeestromen, die tropisch warm water naar de polen brengen  en koud water weer terug naar de tropen ook een zeer belangrijke factor die de bedrijfstemperatuur van het wereldwijde klimaat- warmtepomp bepaalt.

Op kortere termijn kunnen er langzame veranderingen in de albedo zijn. De albedo is een functie van de windsnelheid, verdamping, wolkdynamiek, en (in mindere mate) sneeuw en ijs. Verdampingshoeveelheden worden bepaald door thermodynamische wetten: alleen de windsnelheid, wolkendynamiek, en sneeuw en ijs zijn in staat om het evenwicht te beïnvloeden.

De variatie in het evenwichtstemperatuur kan bijvoorbeeld het gevolg zijn van een verandering in het wereldwijde gemiddelde windsnelheid. Windsnelheid is gekoppeld aan de oceanen door golfdynamiek, waardoor  lange-termijn variaties in de gekoppelde oceaan-atmosfeerdynamiek optreden. Deze veranderingen in windsnelheid kunnen de evenwichtstemperatuur op cyclische wijze beïnvloeden.

Of er vindt  wijziging in kleur, type of omvang van hetzij de wolken of de sneeuw en ijs. De albedo is afhankelijk van de kleur van de reflecterende stof. Als reflecties worden gewijzigd om welke reden dan ook kan de evenwichtstemperatuur worden beïnvloed. Voor sneeuw en ijs kan dit bijvoorbeeld door afzetting van roetdeeltjes. Wolken kunnen beïnvloed worden als gevolg van aerosolen of stof.

Ten slotte kan de zon van invloed zijn . Er zijn sterke vermoedens dat wolkendek wordt beïnvloed door de Hale magnetische zonnecyclus van 22 jaar.

links:
Bejan, A, and Reis, A. H., 2005, Thermodynamic optimization of global circulation and climate, Int. J. Energy Res.; 29:303–316. Available at http://homepage.mac.com/williseschenbach/.Public/Constructal_Climate.pdf

Richard S. Lindzen, Ming-Dah Chou, and A. Y. Hou, 2001, Does the Earth Have an Adaptive Infrared Iris?, doi: 10.1175/1520-0477(2001)082<0417:DTEHAA>2.3.CO;2
Bulletin of the American Meteorological Society: Vol. 82, No. 3, pp. 417–432.
Available online at http://ams.allenpress.com/pdfserv/10.1175%2F1520-0477(2001)082%3C0417:DTEHAA%3E2.3.CO%3B2

Ou, Hsien-Wang, Possible Bounds on the Earth’s Surface Temperature: From the Perspective of a Conceptual Global-Mean Model, Journal of Climate, Vol. 14, 1 July 2001. Available online at http://ams.allenpress.com/archive/1520-0442/14/13/pdf/i1520-0442-14-13-2976.pdf

Miskolczi

 

miskolczi

 

Tijdens de International Conference on Global Warming die in maart 2008 in New York werd gehouden, sloeg de lezing van Dr. Ferenc Miskolczi in als een bom.

Miskolczi,  Hongaars fysicus en tot voor kort werkzaam bij NASA, presenteerde een radicaal nieuwe theorie over het broeikaseffect ( Ferenc M. Miskolczi, Greenhouse effect in semi-transparent planetary atmospheres,2007, Quarterly Journal of the Hungarian Meteorological Service Vol. 111, No. 1 ).
De standaardtheorie, namelijk dat de recente toename van de gemiddelde temperatuur op onze planeet het gevolg is van de toename van CO2, wordt stevig onderuit gehaald door het werk van Miskolczi. De werkelijke oorzaak van de recente opwarming kan volgens Miskolczi niet het gevolg zijn van het versterkte broeikaseffect, omdat de oppervlaktetemperatuur alleen kan veranderen door wijzigingen in de energietoevoer van het systeem. De atmosfeer bevindt zich in een ´steady state´ , waarbij invloeden van terrestrische oorsprong, zoals vulkaanuitbarstingen en El Nino, op,korte termijn door terugkoppelingsmechanismen teniet worden gedaan en het systeem terugkeert naar zijn oorspronkelijke evenwichtstoestand. Enkele jaren  daarvoor , in 2004, publiceerde Miskolczi een eerste aanzet tot zijn baanbrekende theorie ( Ferenc M. Miskolczi and Martin G. Mlynczak, The greenhouse effect and the spectral decomposition of the clear-sky terrestrial radiation,  Quarterly Journal of the Hungarian Meteorological Service Vol. 108, No. 4, October–December 2004, pp. 209–251) .

Miskolczi stelt dat de doorzichtigheid van de atmosfeer voor langgolvige (infrarood) straling zich aanpast aan de toename van de broeikasgassen. Algemeen wordt aangenomen dat de doorzichtigheid van de atmosfeer afneemt bij toename van CO2. Miskolczi stelt dat er terugkoppelingsmechanismen in de atmosfeer zijn waardoor de doorzichtigheid voor infrarode straling gelijk blijft, en daardoor ook de temperatuur op aarde. Deze terugkoppeling bestaat hierin, dat  de atmosfeer juist zoveel waterdamp bevat dat de maximale hoeveelheid warmte (infraroodstraling) vanuit de atmosfeer afgegeven wordt aan de ruimte. Die waterdamp en  lage wolken absorberen de infraroodstraling vanaf de aarde en reguleren zo de uitstraling van warmte vanuit de atmosfeer naar de ruimte.

Zoals we al reeds zagen in het hoofdstukje over  ‘De feiten >>  De Stralingsbalans’  is het broeikaseffect verantwoordelijk voor een verhoging van de oppervlaktetemperatuur van  33° C en convectie voor een daling van de oppervlaktetemperatuur van ruim 60° C. De term broeikaseffect is feitelijk een enigszins misleidende term, omdat de opwarming van een tuinderskas niet zozeer het gevolg is van de beperkte uitstraling van warmtestraling maar het gevolg is van het ontbreken van convectie.

Het bijzondere aan de nieuwe theorie is dat deze – anders dan bij de huidige theorieen over de werking van de stralingsbalans – gebaseerd is op metingen aan de atmosfeer, dus op empirisch onderzoek. Hij gebruikte de data van 1761 TIGR radiosondes en verwerkte de data met een door hemzelf geschreven programma, HARTCODE genaamd. Tijdens de analyse van alle gegevens  deed hij een aantal opmerkelijke bevindingen.

2

In de  eerste plaats heeft  hij –als eerste – de zogenaamde optische dikte van de atmosfeer voor infraroodstraling kunnen vaststellen, een maat voor het  broeikaseffect. Die optische dikte, Tau,  is een dimensieloos getal : 1,87.  Het getal  is het gemiddeld aantal keren dat een infrarood foton, uitgezonden door het aardoppervlak,  wordt geabsorbeerd en weer uitgezonden op zijn weg naar de ruimte.

In de tweede plaats heeft Miskolczi een aantal zeer opmerkelijke bevindingen gedaan bij het verder rekenen met de data.  Deze bevindingen hebben betrekking op de stralingsbalans van het aarde-atmosfeersysteem. Zo ontdekte hij dat de infraroodstraling vanaf de buitenzijde van de atmosfeer ongeveer  de helft bedraagt van de infraroodstraling vanaf het aardoppervlak. Bovendien ontdekte hij dat de benedenwaarts gerichte straling (van de atmosfeer naar de aarde) ongeveer gelijk is aan de door de atmosfeer geabsorbeerde straling van het aardoppervlak.

Miskolczi  ontdekte dat deze bevindingen verregaande gevolgen hebben voor de stralingsbalans. Zo berekende hij op basis van zijn empirisch materiaal dat de zogenaamde broeikasfactor g exact 1/3 moest zijn. En dat is gelijk aan het onderzoek van Kiehl en Ramanathan in 2006, die via inductieve redenering op hetzelfde getal uitkwamen.

Wat betekent een en ander nu voor de stralingsbalans, en voor de temperatuur op aarde? De broeikasfactor (g=1/3) is onafhankelijk van de hoeveelheid broeikasgassen in de atmosfeer. Dus die g=1/3 gold ook voor de situatie 100 jaar geleden, of 1000 jaar geleden. Het is dus onmogelijk dat stijging van het CO2-gehalte een blijvende temperatuurstijging kan veroorzaken. De atmosfeer houdt het broeikaseffect op dit evenwichtspunt door verandering in de hoeveelheid waterdamp in de lucht, het belangrijkste broeikasgas. Op onderstaande figuur ( bron: NOAA) is te zien dat de gemiddelde absolute luchtvochtigheid in het onderste deel van de atmosfeer (>300mB) vanaf 1949 inderdaad een daling laat zien.

humidity

Een van de grote ontdekkingen van Miskolczi is dat , in tegenstelling tot de ‘klassieke’ opvattingen over de stralingsbalans, er geen netto uitstraling van het aardoppervlak naar de atmosfeer plaatsvindt. Dat is het gevolg van het feit dat er geen temperatuurverschil bestaat tussen het aardoppervlak en de onderzijde van de dampkring. In onderstaande schematische weergave van de stralingsbalans door Miskolczi  is Ed gelijk aan Aa.  Miskolczi noemt dit “Kirchhoff’s Law”, naar de bekende wet in de thermodynamica, die stelt dat in een situatie van temperatuurevenwicht de uitgestraalde energie van een lichaam gelijk is aan de geabsorbeerde hoeveelheid energie.

schematische stralingsbalans

Vergelijk dat eens met de ‘klassieke’  stralingsbalans volgens Trenberth:

trenberth stralingsbalans

Te zien is dat in deze stralingsbalans Aa groter is dan Ed, en dat er als gevolg van dit verschil een netto langgolvige straling optreedt vanaf het aardoppervlak richting atmosfeer in de orde van grootte van ongeveer 22 W/m2.

Miscolczi heeft op basis van 228 gesecteerde radiosondes onderstaande grafiek geproduceerd:

miskolczi up down

Op de vertikale as is de naar beneden gerichte langgolvige straling weergegeven (Ed), op de horizontale as de opwaarts gerichte langgolvige straling (Aa). Er is geen twijfel mogelijk: Ed = Aa.

Dat ook uit de onderzoeksgegevens gegevens van een  KNMI-onderzoeker dezelfde resultaten te vinden zijn illustreert de volgende figuur. Dr. Noor van Andel heeft in zijn uitstekende artikel over Miskolczis bevindingen ( Dr. Noor van Andel, The new climate theory of Dr. Ferenc Miskolczi, 2008, Almelo )  onderstaande figuur gepubliceerd, gebaseerd op de dissertatie van Rob van Dorland ( Rob van Dorland, Radiation and Climate, 1999, Utrecht  ) . Rob van Dorland, klimatoloog bij het KNMI, heeft onderzoek gedaan aan de onderste 20om van de atmofeer door gebruik te maken van de zendmast in Lopik. Daarbij werden onder andere de temperatuur, luchtvochtigheid en straling.

cabauw

Op de horizontale as is de LWD afgezet, de langgolvige straling die vanuit de atmosfeer naar beneden wordt gezonden.  Op de vertikale as is de opwaartse langgolvige straling afgezet, afgeleid van andere parameters.Duidelijk is te zien dat op elke hoogte de opwaartse langgolvige straling gelijk is aande neerwaartse langgolvige straling. Zoals Miskolczi stelt geldt ook hier: Aa = Ed .

Hieruit volgt dat de OLR, de uitgaande langolvige straling van atmosfeer naar de ruimte, bestaat uit de directe uitstraling door het atmosferisch venster (K),  de absorptie van kortgolvige zonnestraling door de atmosfeer (F), en warmtetransport als gevolg van comvectie. De laatste factor is zoals we reeds zagen, het regulatiemechanisme dat ervoor zorgt dat de atmosfeer in evenwicht blijft.

thermiek

 

Het regulatiemechanisme, convectie, is het stijgen van luchtbellen als gevolg van opwarming. Zweefvliegers maken daar dankbaar gebruik van op zonnige dagen en kunnen als gevolg van deze thermiek uren achtereen in de lucht blijven.

Deze vertikale luchtbewegingen tranporteren grote hoeveelheden warmte naar hogere delen van de atmosfeer, waar de lucht ijler is en uitstraling naar de ruimte derhalve makkelijker. Bereikt zo’n vertikale luchtstroom het condensatieniveau dan onstaat een wolk en komt er een grote hoeveelheid extra warmte vrij als gevolg van condensatie.

Kosmische straling

2011

Het bovenstaande plaatje toont u een zon met veel zonnevlekken. Zoals hiervoor al gezien is dat momenteel een uitzonderlijke situatie. De opname is dan ook van een tijdje terug, namelijk van 25 april 2000.  Zoals al geconstateerd in de vorige paragraaf is er een sterk vermoeden dat die zonnevlekken invloed hebben op het klimaat op aarde. De Deense fysicus Henrik Svensmark doet al meer dan 10 jaar onderzoek naar dat verband.

Er is al lange tijd onderzoek gaande naar de relatie tussen de zon en het klimaat op aarde. De bekendste wetenschapper in de 20e eeuw op dit gebied was ongetwijfeld Milutin Milankovic, die op een Kwartaire tijdschaal een verband aantoonde tussen zon en aarde. Over Milankovic is geschreven in het hoofdstuk “Feiten”. Deze fluctuaties waren het gevolg van de hoeveelheid zonlicht die de aarde bereikte.Op een kortere tijdschaal zijn deze fluctuaties echter onbruikbaar. De temperatuurstijging van de afgelopen eeuw met 0,7 graden is niet verklaarbaar door fluctuaties in de hoeveelheid zonlicht. De schommelingen zijn te klein.

HenrikSvensmark

 

In 1996 verbaasde de Deense fysicus Henrik Svensmark door aan te tonen dat er een sterke samenhang was tussen de zonneactiviteit en de bewolkingsgraad.

Henrik Svensmark (1958) is een Deens natuurkundige, werkzaam aan het Danish National Space Center in Kopenhagen. Hij bestudeert de effecten van kosmische straling op wolkvorming. Zijn werk wordt door een deel van de klimaatwetenschappers als controversieel gezien, omdat hij niet CO2 als voornaamste oorzaak van de recente opwarming van de atmosfeer ziet, maar fluctuaties in kosmische straling.

Volgens Svensmark is het aannemelijk dat kosmische straling een belangrijke rol speelt bij het ontstaan van lage bewolking. Lage bewolking heeft een overwegend afkoelend effect op de aarde.

Volgens Svensmark is de hoeveelheid kosmische straling die de aarde bereikt direct afhankelijk is van zonneactiviteit. Op bovenstaande grafiek is duidelijk waar te nemen dat er een correlatie bestaat tuusen beide grootheden. De grafiek toont de variaties van cosmic ray intensiteit en zonnevlek-activiteit per maand sinds 1958, en is gemaakt op basis van data van respectievelijk het  Germany Cosmic Ray Monitor in Kiel  (GCRM) en  NOAA’s National Geophysical Data Center (NGD).

Henrik Svensmark is directeur van het Center for Sun-Climate Research bij het Danish Space Research Institute (DSRI), een onderdeel van het Danish National Space Center. Hij was voorheen hoofd van de zon-klimaatgroep bij DSRI. Hij was als fysicus verbonden aan drie andere organisaties: University of California in Berkeley, het Nordic Institute for Theoretical Fysics en het Niels Bohr Institute. Hij is winnaar van de Energy-E2 Research Prize en de Knud Hojgaard Anniversary Research Prize(DSRI).

cr0
Bron:  Joanne Nova

In 1997 lanceerden Svensmark en Eigil Friis-Christensen een theorie die kosmische straling verbond met veranderingen in de gemiddelde wereldtemperatuur. Volgens beide Denen zijn deze temperatuurfluctuaties het gevolg van variaties in de intensiteit van de zonnewind. Ze noemen deze theorie kosmoklimatologie. Dit idee was al eerder (1975) geopperd door Dickinson. Een kleinschalig laboratoriumexperiment werd in het Danish National Space Center gedaan. (Paper gepubliceerd in de Proceedings of the Royal Society A, 8 februari 2007). Svensmarks onderzoek ondergraaft de overheersende rol die de CO2-stijging speelt in het huidige klimaatdebat.

 De theorie

De motor achter klimaatsverandering is kosmische straling, afkomstig van geëxplodeerde sterren, stellen de auteurs. Deze energierijke deeltjes komen met een snelheid die grenst aan die van het licht de heliosfeer binnen, het deel in de ruimte waar het magnetisch veld van de zon zijn invloed laat gelden. Hoe actiever de zon is, hoe sterker het magnetisch veld, hoe minder kosmische straling de aardatmosfeer bereikt. Onderstaande figuur van Shaviv illustreert een en ander.

solar wind

Kosmische straling afkomstig van sterren heeft langs een flinke omweg invloed op de hoeveelheid wolken. Deze reflecteren een deel van de zonnestraling richting ruimte. De zon bepaalt op zijn beurt hoeveel kosmische straling de aardatmosfeer binnenkomt.

Het deeltje dat volgens Svensmark verreweg de grootste invloed heeft op de vorming van lage bewolking is het zogenaamde muon. Dat ontstaat wanneer kosmische straling van hoge energie op luchtdeeltjes botst. Een lang leven is deze deeltjes niet beschoren; ze bestaan slechts twee miljoenste van een seconde, precies lang genoeg om het onderste deel van de dampkring te bereiken.

Op hun korte reis schieten muonen losse elektronen uit luchtdeeltjes. Deze fungeren op hun beurt als een soort katalysator bij het vormen van zogenaamde condensatiekernen, waarop waterdamp condenseert, die uiteindelijke uitgroeien tot wolkendruppels.

svensmark1

Svensmark vergeleek de fluctuaties in kosmische straling met satellietgegevens over de bewolkingsdichtheid. Het resultaat: meer kosmische straling door een minder actieve zon zorgt voor meer bewolking, en andersom. Dat geldt echter alleen vor de zogenaamde lage bewolking: hogere bewolking geeft geen mooi verband met kosmische straling. Op de onderstaande figuur, afkomstig van een paper van Svensmark is een en ander duidelijk te zien. (Svensmark, Influence of Cosmic Rays on the Earth’s Climate, Copenhagen).

 

wolken - cosmic rays svensmark

Volgens Svensmark zijn de zogenaamde muonen verantwoordelijk voor de vorming van wolken.Muonen onstaan als kosmische straling van hoge energie op zuurstof- men stikstofatomen botst. Heel lang bestaan deze deeltjes echter niet: ze bestaan maar twee miljoenste van een seconde, maar dat is bij de hoge snelheden die ze hebben lang genoeg om het onderste deel van de dampkring , de troposfeer, te bereiken.

In de troposfeer schieten muonen losse elektronen uit luchtdeeltjes. Deze fungeren op hun beurt als een soort katalysator bij het vormen van zogenaamde condensatiekernen. Condensatiekernen zijn nodig om in oververzadigde lucht de waterdamp tot druppeltjes te dwingen. Wolken zijn geboren.

 Het SKY experiment

nevelkamer

Svensmark zette in   een eenvoudig experiment op in de kelder van het Danish National Space Centre.   Het doel van dit experiment, SKY genaamd ( sky is het Deense woord voor wolk) , was om aan te tonen dat  in de kelder van het gebouw muonen (zware elektronen) konden binnendringen en van invloed konden zij op het ontstaan van condensatiekernen.

Hij bouwde daartoe een nevelkamer ( zie hiernaast). Een plastic doos van 7 m3 inhoud werd  gevuld met zuivere lucht plus sporen van SO2 en O3.   Daarmee werd  een beetje niet-verontreinigde  lucht gecreëerd.  Een ultraviolette  bron zette tenslotte  de SO2 om in zwavelzuur,  die daarna samen met watermoleculen  grote hoeveelheden  clusters, specks,  deden ontstaan.  Die specks of spikkels vormen dan de condensatiekernen voor wolkvorming.

In de natuur wordt dimetyl sulfide omgezet in SO2  waarna UV-straling van de zon dit omzet in zwavelzuur. In 1996 had NASA  al onderzoek naar dit fenomeen gedaan boven de Grote Oceaan.  Tony Clarke van de Universiteit van Hawaii vonsd toen inderdaad condensatiekernen die op deze wijze waren ontstaan. Maar de raarste ontdekking tijdens die vlucht was dat er plotseling  op onverklaarbare  wijze miljoenen extra kernen ontstonden  (30 miljoen per liter lucht).  Onverklaarbaar omdat de hoeveelheid aanwezige SO2  die plotselinge uitbarsting niet kon verklaren. Een van de verklaringen zou kunnen zijn dat ionen in de lucht een rol speelden. Dat idee was al eens geopperd door de Belg  Frank Raes in de jaren ’80.

Svensmark experiment was voor wat dit onderdeel betreft – het doen ontstaan van condensatiekernen door omzetting van  SO2   – al geslaagd.

Het tweede deel van het experiment, namelijk of ionen die door kosmische straling worden gemaakt ook daadwerkelijk de condensatiekernen deden ontstaan, was fundamenteler.  Daartoe plaatste hij een sterk elektrisch veld in de nabijheid van de nevelkamer. Een dergelijk elektrisch veld zou binnen een seconde alle geladen deeltjes uit de kamer doen verdwijnen. Na maanden van technische problemen lukte het Svensmark uiteindelijk om  met een zeer sterk elektrisch veld  het ontstaan van kernen flink te onderdrukken.

Het eenvoudige experiment in de kelder in Kopenhagen toonde aan dat – althans op laboratoriumschaal – kosmische straling van invloed is op het ontstaan van condensatiekernen.  In 2006 is het verslag van het SKY experiment  gepubliceerd  in Proceedings of the Royal Society (“Experimental evidence for the role of ions in particle nucleation under atmospheric conditions, 2006, Proceedings of the Royal Society, London ”).

In 1998 hield Svensmark een voordracht bij het CERN.  Hj probeerde belangsteling te wekken voor zijn theorie dat zonneactiviteit van invloed is op de temperatuur op aarde.  Bekijk  de  video hier. Later zou het werk van Svensmark uitmonden in een nieuw project bij het CERN,  genaamd CLOUD. Over CLOUD meer in het volgende hoofdstuk.

 

Nog meer bewijs dat kosmische straling wolkvorming en daarmee het klimaat beïnvloedt

laken

 

In een publicatie van Laken (foto), Kniveton en Frogley twee dagen geleden in het tijdschrift Atmospheric Chemistry and Physics is voor het eerst aangetoond dat er een correlatie is tussen kosmische straling en wolkvorming.  Dat verband werd al eerder vermoed door Henrik Svensmark, die samen met Friis-Christensen in 1997 hierover schreef.

Diverse recente pogingen om een correlatie tussen kosmische straling en bewolking aan te tonen faalden vanwege het feit dat alle onderzoeken gericht waren op een zogenaamde eerste-orde correlatie, namelijk een direct verband tussen beide fenomenen. Laken e.a. zijn uitgegaan van een tweede-orde verband, namelijk dat wolkvorming alleen dan beïnvloed wordt door kosmische straling indien de atmosferische omstandigheden dat toelaten.
cr1

De onderzoekers baseerden zich op veranderingen in wolkendata en vergeleken die met betreffende kosmische stralingdata. Als onder bepaalde atmosferische omstandigheden er een correlatie was tussen beide gegevens werd dit gefilterd om onder andere autocorrelatie te verwijderen, en onderdeel van hun zogenaamde “composite analyses”. De onderzoekers bekeken hiervoor de wolkendata van beide gematigde zones op het NH en ZH tussen 30° en 60°, onder andere vanwege het feit dat recente studies aantoonden dat juist wolken op deze breedte gevoelig zij voor kosmische straling. Snelle bewolkingsveranderingen werden betrokken van het ISCCP (International Satellite Cloud Climatology Project), en de stralingsdata kwamen uit de databanken van diverse  neutronenmonitoren over de gehele aarde.

Op bovenstaande figuur is het verband te zien tussen plotselinge verandering van bewolking  en een verschuiving in de kosmische straling. Het gaat om het gebied rond dag 0.  De bewolkingsdata tot een luchtdrukhoogte van 30mB (ongeveer 22 km hoogte) werden bij het onderzoek gebruikt.

Op onderstaande figuur is te zien dat de bewolkingverandering het sterkst is  in het lagere en middengedeelte van de troposfeer  (gemiddeld tot 15 km hoogte). Er is een opvallende congruentie waar te nemen tussen beide gebieden op het NH en ZH. De sterkste bewolkingverandering vindt plaats op ongeveer 2 km hoogte rond 30° NB en ZB, waar de permanente hogedrukgebieden van beide Hadleys Cells liggen.

cr2                                                                                       Bron: Laken e.a.

De onderzoekers denken dat er 2  mogelijke mechanismen zijn waarlangs de correlatie kosmische straling- wolken werkzaam is. De eerste, het clean-air effect,  is dat er door ionen zeer kleine (<2 nm) condensatiekernen ontstaan. Deze kunnen dan door condensatie en samenklontering uitgroeien tot deeltjes met een doorsnede van ongeveer 100 nm, waardoor ze groot genoeg zijn om te dienen als condensatiekernen voor de vorming van wolken. Yu e.a. hebben dit mechanisme  in hun publicatie uit 2008 aannemelijk gemaakt. Dit is het mechanisme dat  Svensmark naar voren heeft gebracht.

cr3          Bron: Carslaw e.a.

Het tweede mechanisme  staat bekend als het near-cloud effect, dat het verband beschrijft tussen het zogenaamde Global Electric Circuit en wolkvorming. Dit GEC  bestaat uit de  ionosfeer, een door de zon geïoniseerde buitenste deel van de atmosfeer, op een hoogte van 10 tot 600 km.

Wolken absorberen makkelijk de kleine ionen die vanuit de ionosfeer neerdalen op aarde, waardoor er een verschil ontstaat tussen de geleidbaarheid van wolken en de wolkenloze omgeving. De randen van wolken zijn dan gebieden met een sterke geleidingsgradiënt en krijgen  daardoor een sterke elektrische lading.  Op zijn beurt  kan die elektrische lading van de wolkenrand weer van  invloed zijn op verdere wolkvorming.

cr4                                                                                       Bron: Carslaw e.a.

Laken e.a. concluderen dat hun onderzoek het bewijs levert dat er een relatie bestaat tussen kosmische straling en het klimaat. Die relatie wordt bepaald door enerzijds kortetermijn veranderingen in kosmische straling en anderzijds  door specifieke atmosferische omstandigheden.

De uitkomsten van de publicatie van Laken e.a. bewijst hoe een relatief kleine verandering in zonne-output  veel grotere veranderingen in het aardse klimaat kan veroorzaken. Vooralsnog zijn er twee fysische mechanismen bekend waarlangs kosmische straling via micro-fysische processen   wolkvorming kan beïnvloeden. Verder onderzoek moet uitwijzen hoe het echt werkt.  Maar dát het werkt is intussen steeds duidelijker.

Het CLOUD project van  de reusachtige deeltjesversneller CERN zal hierover mogelijk in de nabije toekomst meer duidelijkheid geven. CERN  (Conseil Européen pour la Recherche Nucléaire) is een Europese organisatie die fundamenteel onderzoek doet naar elementaire deeltjes. De organisatie is gehuisvest ten westen van Genève op de grens van Frankrijk en Zwitserland. Bij CERN werken ongeveer 6500 wetenschappers (van 500 universiteiten uit 80 landen) aan experimenten die worden uitgevoerd in een van de 6 deeltjesversnellers. Het doel van die experimenten is in zijn algemeenheid inzicht te krijgen in hoe de materie is opgebouwd, en uit welke deeltjes materie bestaat en wat de krachten zijn die materie bij elkaar houden.

cern

 

Sinds 2008 heeft CERN de grootste deeltjesversneller ter wereld, de Large Hadron Collider.

Een van de eerste experimenten die worden uitgevoerd is het zogenaamde CLOUD experiment.  Drijvende kracht achter CLOUD is Dr. Jasper Kirkby.

kirkby

cr5                                                               Bron:  http://www.askamathematician.com

Deense studie toont invloed kosmische straling op wolkvorming aan

Maanden voordat het CERN zijn CLOUD-project is gestart is een aantal Deense wetenschappers er in geslaagd aan te tonen dat wat Svensmark al langer dacht, echt waar is: kosmische straling is van invloed op wolkvorming en daarmee op de temperatuur op aarde. Zie hiervoor het hoofdstuk “Nieuwe Inzichten”.

In 1997 lanceerden Svensmark en Eigil Friis-Christensen een theorie die kosmische straling verbond met veranderingen in de gemiddelde wereldtemperatuur. Volgens beide Denen zijn deze temperatuurfluctuaties het gevolg van variaties in de intensiteit van de zonnewind. Ze noemen deze theorie kosmoklimatologie. Dit idee was al eerder (1975) geopperd door Dickinson. Een kleinschalig laboratoriumexperiment werd al eerder in het Danish National Space Center gedaan. Svensmarks onderzoek ondergraaft de overheersende rol die de CO2-stijging speelt in het huidige klimaatdebat.

aarhus2
Een deel van de Deense deeltjesversneller ASTRID

De kosmische straling is afkomstig van geëxplodeerde sterren. Deze energierijke deeltjes komen met een snelheid die grenst aan die van het licht de heliosfeer binnen, het deel in de ruimte waar het magnetisch veld van de zon zijn invloed laat gelden. Hoe actiever de zon is, hoe sterker het magnetisch veld, hoe minder kosmische straling de aardatmosfeer bereikt. Die kosmische straling afkomstig van sterren heeft volgens Svensmark langs een flinke omweg invloed op de hoeveelheid wolken. Wolken reflecteren een deel van de zonnestraling richting ruimte. De zon bepaalt op zijn beurt hoeveel kosmische straling de aardatmosfeer binnenkomt.

svensmark1

Het deeltje dat volgens Svensmark verreweg de grootste invloed heeft op de vorming van lage bewolking is het zogenaamde muon. Dat ontstaat wanneer kosmische straling van hoge energie op luchtdeeltjes botst. Een lang leven is deze deeltjes niet beschoren; ze bestaan slechts twee miljoenste van een seconde, precies lang genoeg om het onderste deel van de dampkring te bereiken. Op hun korte reis schieten muonen losse elektronen uit luchtdeeltjes. Deze fungeren op hun beurt als een soort katalysator bij het vormen van zogenaamde condensatiekernen, waarop waterdamp condenseert, die uiteindelijke uitgroeien tot wolkendruppels.

 

aarhus3

De klimaatkamer

De Deense onderzoekers hebben gebruik gemaakt van ASTRID, de grootste deeltjesversneller van Denemarken van de Aarhus universiteit. In een klimaatkamer bootsten de onderzoekers de atmosferische omstandigheden na die heersen in de atmosfeer op hoogten waar wolkvorming plaatsvindt. Ze vonden dat het toevoegen van straling (gamma en elektronen) een toename in het ontstaan van ionen en aerosolen veroorzaakte. Deze aerosolen gedragen zich als condensatiekernen bij het ontstaan van wolken.

aarhus1

Invloed van gammastralen en energierijke elektronen op vorming van aerosolen

De kamer bevat lucht met nauwkeurig uitgebalanceerde hoeveelheden zwaveldioxide, ozon en waterdamp. Zonlicht is een noodzakelijk ingrediënt voor aerosolvorming in de natuurlijke omgeving en wordt hier nagebootst met een UV-lamp. Natuurlijke atmosferische processen zoals de vorming van zwavelzuur worden op deze wijze geïmiteerd, van belang voor de vorming van aërosolen. Als de elektronen uit de versneller het luchtmengsel bereiken vindt er een toename van aerosolen plaats, die als condensatiekernen fungeren voor de productie van waterdruppels (wolken).

In eerdere experimenten uitgevoerd door SKY DTU Space in Kopenhagen, werd kosmische straling gesimuleerd door gamma-straling. In 2006 is het verslag van het SKY experiment gepubliceerd in Proceedings of the Royal Society (“Experimental evidence for the role of ions in particle nucleation under atmospheric conditions, 2006, Proceedings of the Royal Society, London ”). Het experiment toonde aan dat gammastralen is staat zijn om aërosolen te vormen. In het nieuwe experiment met de energierijke elektronen van het ASTRID-versneller lijkt de gesimuleerde situatie veel beter op de kosmische stralen die in de natuur voorkomen.

Door deze recente studie hebben de onderzoekers aangetoond dat er een correlatie is tussen kosmische straling en wolkvorming. Alweer een nagel aan de doodskist van het klimaatalarmisme. De volgende stap zal zijn om met behulp van systematische metingen en modellering te bepalen hoe belangrijk kosmische straling is voor het klimaat. Met andere woorden: hoe groot is het aandeel ervan op klimaatverandering.

 

De zon

 

De bovenstaande opname isgemaakt door SOHO (Solar & Heliospheric Observatory) , een project van ESA en NASA met als doel het bestuderen van de zon. De opname dateert uit 2001. De donkere vlekken zijn zonnevlekken. Zoals te zien is waren dat er in 2001 alleen al op dit stukje van de zon behoorlijk veel. Sinds 2007 echter zijn er heel weinig zonnevlekken te zien, vaak lange tijden achtereen helemaal geen enkele. Dat is uitzonderlijk.

Er is een sterk vermoeden dat zonnevlekken invloed hebben op het klimaat op aarde. Een recente aanwijzing dat de zon aanmerkelijke invloed heeft op de temperatuur op aarde kwam in 2005 van Soon ( Soon, W. W.-H. (2005), Variable solar irradiance as a plausible agent for multidecadal variations in the Arctic-wide surface air temperature record of the past 130 years, Geophys. Res. Lett., 32, L16712, doi:10.1029/2005GL0234  ).  Soon onderzocht  de invloed van zonneactiviteit op de oppervlaktetemperaturen van de Arctische regio.  De grafieken hieronder uit de studie van Soon laten aan duidelijkheid weinig te wensen over:

soon1

Vergelijk zelf de correlatie tussen de temperatuuronregelmatigheden van het totale Arctische gebied en de zonneactiviteit (bovenste grafiek) en  dezelfde temperatuuronregematigheden en het CO2-gehalte van de atmosfeer  (onderste grafiek).

De zon is de ster die het dichtst bij de aarde staat en vormt het middelpunt van ons zonnestelsel met haar planeten, en heeft een diameter van ongeveer 1.392.000 km ( ter vergelijking: de aarde heeft een diameter van 12.742 km ). De zon bestaat voornamelijk uit waterstof(massapercentage 70%) en helium (massapercentage 28%). De temperatuur aan het zonneoppervlak is 5800 kelvin , maar in de kern is dat 15,5 miljoen kelvin, terwijl de druk daar ongeveer 100 miljard keer de atmosferische druk op aarde is. Onder deze omstandigheden komen waterstofatomen komen zo dicht bij elkaar dat er fusie optreedt. Op dit moment is ongeveer de helft van de hoeveelheid aan waterstof in de kern van de zon omgezet in helium. Dit nam ruwweg 4,5 miljard jaar in beslag, dit is de ouderdom van ons zonnestelsel (en dus ok van de planeet aarde).

De berekende levensduur van een ster als de Zon, dat wil zeggen de tijd waarin kernreacties haar van energie voorzien, bedraagt 10 miljard jaar. Dat betekent dat we nog zo’n 5,5 miljard jaar te gaan hebben. Als de waterstof is uitgeput, zal de temperatuur van de zon aan het oppervlak dalen.De zon  zal dan een zogenaamde “rode reus” worden en 10.000 keer helderder zijn dan momenteel. Na deze rode-reusfase zal de zon krimpen tot een witte dwerg (ongeveer ter grootte van de aarde) en gedurende enkele miljarden jaren langzaam afkoelen.

 Zonnevlekken

 Een interessant aspect van de zon zijn zonnevlekken. Zonnevlekken manifesteren zich als donkere vlekken aan het oppervlak van de zon. dat ze donkerder zijn dan de rest van de zon is het gevolg van een lagere temperatuur ter plekke. De oorzaak daarvan is dat het gebieden zijn waar het magnetisch veld veel sterker is dan elders op de zon. Door dit sterke magnetische veld wordt de temperatuur ten opzichte van de omgeving verlaagd tot 4000 a 4500 kelvin, doordat het geconcentreerde magnetische veld in de zonnevlek de toestroom van heet gas door convectie uit het binnenste van de zon verhindert.

zonnevlekSpectaculaire opname van een zonnevlek. Bron Wikipedia

Het aantal zichtbare zonnevlekken  is niet constant, maar varieert met een periodiciteit van ongeveer 11 jaar, de zogenaamde zonnecyclus. De vlekken die aan het begin van een nieuwe cyclus te zien zijn, verschijnen het eerst in de buurt van de polen. Tijdens de zonnecyclus stijgt het aantal zonnevlekken en verplaatst deze zich in de richting van de evenaar van de zon. Daarna treedt er afname van het aantal vlekken op, tot het zonneminimum bereikt is. Bij een zonneminimum zijn weinig zonnevlekken zichtbaar, soms zelfs helemaal geen.

sunspotsnasa

Op bovenstaande figuur (bron: NASA) zij de zonnecycli 12 t/m 23 te zien (onderzijde). Het bovenste deel van de figuur toont de omvang en ligging van de zonnevlekken ten opzichte van de zon-equator.

Onderstaand beeld is de huidige status van het aantal zonnevlekken op de zon. Het beeld is afkomstig van SOHO, Solar and Heliospheric Observatory van de NASA.

Zonnevlekken zijn tijdelijke koele gebiedjes op de zon. Ze leven enkele dagen tot enkele weken en het aantal vlekken dat zichtbaar is komt en gaat in een elfjaarlijkse cyclus. De zonnevlekken zijn omringd door helderder en hetere gebieden, de fakkelvelden. De temperatuur is er ongeveer 4000 graden hoger dan de oppervlakte van de zon. Fakkelvelden stralen daarom een versterkte ultraviolette straling uit. Die extra straling wordt echter vakkundig weggevangen in de stratosfeer, daar merken we op aarde niets van.  Als er weinig zonnevlekken zijn, dan zijn er ook weinig fakkelvelden, en andersom.

Verder zijn er zogenaamde Coronale Massa Emissies (CME),  enorme uitstotingen van elektromagnetisch geladen gaswolken. Deze CME’s vliegen met zeer grote snelheid door de ruimte. In de buurt van de aarde is hun snelheid vaak opgelopen tot meer dan 2000 km per seconde. De gemiddelde energie die uitgestoten wordt bij een CME is ongeveer 10 miljardmaal die van de  Hiroshima-atoombommen. Het aantal uitgestoten CME’s varieert min of meer parallel aan het aantal zonnevlekken.  Dus in periodes met veel zonnevlekken zijn er ook veel CME’s en andersom. Tijden van maximale zonnevlekactiviteit gaan samen met een zeer lichte stijging van de energie-output van de zon. Deze stijging ligt in de orde van grootte van  0,1%  van de zonneconstante  (1366 W/m2).  Dit is dermate gering dat men er van uit kan gaan dat dit op zich nauwelijks invloed kan hebben op het klimaat op aarde.

Toch is het al lange tijd bekend dat er een correlatie lijkt te bestaan tussen de zonnevlekcyclus en de temperatuur op onze planeet.

Alhoewel pas sinds 1979 satellietmetingen gedaan worden aan zonnevlekken, is de observatie van het verschijnsel al zo oud als onze geschiedenis. Dat is niet verwonderlijk, want zonnevlekken zijn goed zichtbaar vanaf de aarde. Het was Heinrich Schwabe die tussen 1826 en 1843 de cyclische variatie van de zonnevlekken ontdekte, terwijl  Rudolf Wolf  vanaf 1848 het verschijnsel systematisch bestudeerde.  Maar ook van de periode die daaraan vooraf ging zijn talloze observaties bewaard gebleven. Bekend is dat zonnevlekken in de tweede helft van de 17e eeuw nauwelijks werden waargenomen. Deze periode staat bekend als het Maunder Minimum (1645–1717).

eddy2

Een wetenschappelijke reconstructie van zonneactiviteit en zonnevlekken is ook mogelijk. Zonneactiviteit, met name door  CME’s,  is namelijk van invloed op de productie van koolstof-14 en beryllium-10. De variaties in koolstof-14 zijn gering maar meetbaar. Beter bruikbaar is beryllium-10, en de variatie in het voorkomen van dit kosmogenetische isotoop  beryllium-10 op aarde is een maat voor zonneactiviteit.


Zonnevlekken en klimaat

Opmerkelijk is dat ondanks de geringe fluctuaties in zonne-energie  er toch allerlei aanwijzingen zijn dat zonnevlekken een aanzienlijke invloed hebben op de temperatuur op aarde. Wellicht het bekendste voorbeeld is de bovengenoemde Maunder Minimum, dat verbazingwekkend goed samenviel met een koelere periode, de zogenaamde Kleine IJstijd. Uit allerlei historische bronnen is bekend dat in deze periode in Europa de temperaturen lager waren dan “normaal”. Onderstaande figuur is een reproductie van een schilderij van de Hollandse schilder Hendrick Avercamp, genaamd Winterlandschap met IJsvermaak uit 1608. Er zijn in deze periode opvallend veel van dergelijke winterse schilderijen geproduceerd.

avercamp

 

sunc14glacier

De afgelopen jaren heeft onderzoek aangetoond dat er een sterke correlatie bestaat tussen zonneactivieit en de temperatuur op aarde. Bovenstaande grafiek betreft een beroemd onderzoek van de Amerikaanse astrofysicus John A. Eddy , gepubliceerd in Science in 1976. De publicatie is genaamd “The Maunder Minimum”  ( J.A.Eddy, 1976, Science, New Series, Vol. 192, No. 4245. (Jun. 18, 1976), pp. 1189-1202 ). In de grafiek zijn te zien de zonnecycli  (groene lijn), de C14 proxy uit boomringen (rood)  en de lengte van gletsjers (witte cirkeltjes).

Eddy was een van de wetenschappers die al vroeg een coorrelatie vermoedde tussen zonneactiviteit en wereldtemperatuur. Die correlatie is zichtbaar op diverse tijdschalen, die hierna besproken zullen worden.

Iemand die al lange tijd bezig is met de invloed van zonne-activiteit op het klimaat is Bas van Geel. Dr. Bas van Geel is paleo-ecoloog aan de Universiteit van Amsterdam. Hij doet onder andere onderzoek aan veenpakketten en sedimenten om de klimaatomstandigheden te reconstrueren ten tijde van het ontstaan van het veen en afzetting van de sedimenten.In een interview door Theo Richel van DeGroeneRekenkamer schetst van Geel op welke wijze zonne-activiteit van invloed is op het voorkomen van C14 en Be10, die op hun beurt uitstekende proxies zijn om het klimaat te reconstrueren.Van Geel hekelt het IPCC vanwege haar kortzichtigheid in deze materie, maar breekt tegelijkertijd een lans voor het zuiniger omspringen met fossiele brandstoffen.

Klik hier voor het filmpje op YouTube.

De zon is de laatste vijftig jaar actiever geweest dan hij in de afgelopen duizenden jaren is geweest. Misschien zelfs  actiever dan in de laatste tienduizend jaar. Die extra zonne-activiteit van de laatste jaren ging gelijk op met die van de aardse temperatuur. Zie hieronder. In de bovenste grafiek is de dikke zwarte lijn de gemiddelde temperatuurlijn volgens GSN (Global Climate Observing System Surface Network data set).

jager1

Is er een samenhang tussen de extra zonneactiviteit en de recente temperatauurstijging? Een aantal wetenschappers denkt dus van wel. Professor de Jager, vooraanstaand astronoom , zegt hierover : “Evenals de toename van CME’s  tussen 1610 en 1960 gepaard ging met een temperatuurtoename op aarde,  zou dat ook het geval kunnen zijn voor de temperatuurtoename gedurende de laatste vijftig jaren. Maar dan moeten we vaststellen dat het aantal zonnevlekken, dat in de laatste vijftig jaar al zeer hoog was, in die periode niet verder gestegen, terwijl de aardtemperatuur in die periode juist wel toenam. Klopt er nu iets niet? Het voor mij verrassend antwoord is dat in die periode het aantal CME’s wel gestaag bleef stijgen, en wel tot nu aan toe. De grootste CME’s die ooit geregistreerd werden traden op in de jaren 2003 en 2005.”

 


Zonnestraling  is niet constant maar varieert. Deze variaties in zonnestraling hebben een periodiciteit (regelmatige herhaling) maar er zijn ook aperiodische variaties bekend. Wellicht de bekendste cyclus is de Schwabe-cyclus met een periodiciteit van 11 jaar. Die Schwabe-cyclus is op onderstaande grafiek terug te zien als pieken in het aantal  zonnevlekken.

zonnevlekken

 

Het is nog niet zo heel lang dat we de variaties in zonnestraling kunnen meten. Pas in 1978 werd de eerste satelliet gelanceerd die metingen verrichtte.  De variaties van zonnestraling, zoals die van de Schwabe-cyclus, zijn gering: ongeveer  0.1% , wat overeen komt met een variatie van 1.3 W/m² (de zonneconstante is 1366 W/m² ).

Het aantal zonnevlekken wordt vaak als proxy gebruikt om de zonneactiviteit te reconstrueren in het pre-satelliet tijdperk. De grafiek hieronder is samengesteld met behulp van 2 proxies:  zonnevlekken en Be10-isotopen. Maar ook C14 wordt gebruikt als proxy voor zonneactiviteit.

zonneproxies

De Fin Ilya Usoskin publiceerde en 2003 een geruchtmakend artikel over zonnevlekken ( Ilya G.Usoskin e.a.,   Millennium-Scale Sunspot Number Reconstruction: Evidence for an Unusually Active Sun since the 1940s, 2003, PHYSICAL REVIEW LETTERS  VOLUME 91, NUMBER 21).   Hij ontdekte dat er vanaf 1940 meer zonevlekken waren dan in de afgelopen 1150 jaar. Onderstaande figuur is afkomstig uit zijn onderzoek.

sunspotrec

Zoals te zien is is het aantal zonnevlekken verre van constant. Op de gebruikte tijdschaal zijn de 11-jaarscycli niet meer waarneembaar, maar wel een aanal andere hoogte- en dieptepunten van zonneactiviteit. In de grafiek heeft  Usoskin de belangrijkste zonneactiviteit gebeurtenissen weergeven. Deze zijn:

Oort minimum             1040 – 1080
Medieval maximum    1100 – 1250
Wolf minimum             1280 – 1350
Spörer Minimum          1450 – 1550
Maunder Minimum      1645 – 1715
Dalton Minimum          1790 – 1820

Het laatste stuk van de grafiek toont:

Modern Maximum        1950 – 2004
Modern Minimum         2004 – gaande

Op een tijdschaal van 11.500 jaar zijn weer andere, grootschalige schommelingen te zien, waarbij met name de hoge zonnevlekactiviteit opvalt tot  6000 jaar BC.

 

sunspotrec2

De bekendste zonnecycli zijn:

11 jaar:                           Schwalbe cyclus
22 jaar:                           Hale cyclus
87 jaar (70–100 jaar): Gleissberg cyclus
210 jaar:                         Suess/de Vries cyclus
2,300 jaar:                      Hallstatt cyclus
6000 jaar:                       Xapsos/Burke cyclus

Maar behalve bovenstaande zonnecycli zijn er nog andere aperiodische veranderingen in de zonnestraling die van invloed zijn geweest op het wereldklimaat. Hieronder volgt een beschrijving van zonneactiviteit op een viertal tijdschalen.

 

 

 

Zonneactiviteit en temperatuur op een Phanerozoische tijdschaal

Jan Veizer  is ongetwijfeld de grote pionier op het gebied van zonneactiviteit en temperatuur op een geologische schaal. Veizer is van oorsprong een geochemicus gespecialiseerd in  isotopenonderzoek. Hij reconstrueerde  met behulp van zuurstofisotopen het verloop van de zeewatertemperatuur in het Phanerozoicum, de geologische periode vanf het laat-Cambrium tot nu. Samen met andere wetenschappers vergeleek Veizer de data van zeewatertemperatuur met gegevens over de zogenaamde cosmic ray flux, de voortdurende stroom aan kosmische straling vanuit de ruimte.

In 2000 publiceerde Veizer samen met Godderis en  François in Nature een artikel dat, ondanks voorzichtige formuleringen, insloeg als een bom ( Veizer, Ján; Godderis, Yves; François, Louis M. (2000): Evidence for decoupling of atmospheric CO2 and global climate during the Phanerozoic eon. In: Nature 408, 698-701 ). Een opzienbarende studie, waarin geconcludeerd werd dat CO2 in de atmosfeer voor tenminste 1/3 deel van het Phanerozoicum niet de drijvende kracht was achter  temperatuurveranderingen, dan wel dat de gereconstrueerde CO2-concentraties onbetrouwbaar waren ( zie hieronder).

veizer1

Duidelijk is te zien dat er nauwelijks een correlatie te zien is tussen CO2-gehalte en de temperatuur op aarde.

In 2003 publiceerde Veizer samen met de Israelische astrofysicus Shaviv een paper waarin niet CO2 maar kosmische straling de verklaring vormen voor de temperatuurfluctuaties op geologische tijdschaal ( Shaviv, Nir J.; Veizer, Ján (2003), “Celestial driver of Phanerozoic climate?”, GSA Today 13 (7): 4–10 ).

  veizer2  veizer3

Bovenstaande figuur toont zeldzaam mooi de correlatie tussen de cosmic ray flux (rode lijn boven ) en de gereconstrueerde temperatuur (zwarte lijn onder). Voor Veizer en Shaviv was het duidelijk: op geologische schaal was de zon de sturende factor voor de temperatuur op aarde. De vraag wat de oorzaak is van deze fluctuaties van de kosmische straling op de geologische tijdschaal wordt door Shaviv beantwoord:  dat is het gevolg van de baan die ons zonnestelsel door de Melkweg maakt.

Op onderstaande impressie van het Melkwegstelsel (bron: NASA) is duidelijk te zien dat het stelsel bestaat uit een centrum (met veelal oudere sterren) en een aantal spiraalvormige armen.  Die armen zijn in feite langgerekte structuren gevormd door een verdichting van sterren en interstellaire materie.Binnen deze spiraalarmen vindt voortdurend vorming van nieuwe sterren plaats.   Het geheel, het centrum en de spiraalarmen, heeft de vorm van een platte schijf.

spiraal

Centraal in de theorie van Shaviv  staat de baan die ons zonnestelsel aflegt in deze spiraavormige structuur. Daarbij kruist de aarde in de loop van de geologische tijdschaal de spiraalvormige armen, waardoor de aarde zich dan wer binnen een arm bevindt en daarna in de ruimte tussen twee armen.

Binnen een arm is de zognaamde cosmic ray flux , de mate van kosmische straling, groter dan daarbuiten.  Volgens de theorie van Svensmark die we later nog zullen tegenkomen is het te verwachten dat bij een grote flux de temperatuur op aarde daalt.

Een illustratie van Shaviv uit de paper “The Milky Way Galaxy’s Spiral Arms and Ice-Age Epochs and the Cosmic Ray Connection,2006, Sciencebits.com”  lijkt dit te bevestigen :

shaviv2

Op bovenstaande figuur is  te zijn dat zodra onze planeet zich in een arm bevindt (bovenste paneel)  de flux stijgt (tweede paneel). Op het derde paneel zijn de glaciale periodes van onze planeet weergegeven, met helemaal links de meest recente koudeperiode van het Kwartair, waar we ons nog steeds in bevinden.


Zonneactiviteit en temperatuur op een Kwartaire tijdschaal

Milanković theorie beschrijft de effecten van de beweging van de planeet aarde op het wereldklimaat. Die bewegingen hebben effect op een tweetal zaken: de afstand tot de zon en de hoek van de aardas ten opzichte van het vlak van draaiing. De variaties in zonnenstraling die door de eerste factor ontstaan wijken af van wat hiervoor en hierna  beschreven staat, namelijk dat de afstand tot de zon vooral invloed heeft op de zonneconstante (en niet op de fluctuaties in zonnevlekken).

De hoek die de aardas maakt is van invloed op wijze waarop de aarde “gericht”  is op de zon. Onder andere vanwege de ongelijke verdeling van de land-watermassa’s op onze planeet en de ligging van land- en drijfijs heeft die hoek invloed op de hoeveelheid zonnenstraling die door de aarde geabsobeerd wordt en omgezet in warmte. Een vorm van interne variabilteit dus. De combinatie van beide factoren beinvloedt de temperatuur op aarde en vormen de verklaring voor het onstaan van grote temperatuurschommelingen gedurende het Kwartair, de glacialen en interglacialen.

Milutin Milanković (Dalj, 1879 – 1958), civiel ingenieur en wiskundige, beschrijft in een publicatie in 1941 dat de variaties in de baan van de aarde rond de zon (excentriciteit), de variaties in de aardashoek (obliquiteit) en de tolbeweging van de aardas (precessie) van invloed zijn op de temperatuur op aarde. Als gevolg van deze variaties varieert de temperatuur op aarde en zijn de ijstijden gedurende het Kwartair  (2,5 miljoen jaar – heden) te verklaren.

milankovic

De onderste curve toont het berekende effect van de excentriciteit, precessie en obliquiteit op de hoeveelheid ontvangen zonne-energie die op een zomerse dag aan de buitenkant van de dampkring  op een vierkante meter wordt ontvangen op 65 graden NB. Omdat de periodiciteit van de 3 factoren bekend is kan ook berekend worden wat het effect in de toekomst zal zijn. De grafieken lopen dan ook van -800.000 jaar A.D. tot +800.000 jaar A.D.

berger

Bovenstaande grafiek toont de juni-instraling op 65 graden NB  gedurende de afgelopen 600.000 jaar, zoals berekend door Berger c.s.  (A. Berger and M.F. Loutre, 1991, Insolation values for the climate of the last 10 million years. Quaternary Science Reviews, 10: 297-317).

De reacties vanuit de wetenschappelijke wereld waren grotendeels negatief en afwijzend. Het duurde tot 1976 voordat een studie van Hays, Imbrie en Shackleton naar boorkernen in diepzeesedimenten het gelijk van Milanković aantoonde en de wetenschappelijke wereld Milanković theorie aanvaardde ( J. D. Hays, John Imbrie and N. J. Shackleton,1976, Variations in the Earth’s Orbit: Pacemaker of the Ice Ages, Science Vol. 194. no. 4270, pp. 1121 – 1132).

De waarde van Milancović theorie werd nogmaals bevestigd door onderzoek aan ijskernen van Antarctica in 2007. De in de ijskeren aanwezige luchtbelletjes werden onderzocht op de aanwezigheid van zuurstof en stikstof. De waardes daarvan worden direct bepaald door de grootte van de instraling ter plaatse  (Kawamura et al., Nature, 23 August 2007, vol 448, p912-917) .

Excentriciteit, obliquiteit en precessie beïnvloeden de  stralingsbalans van de aarde als gevolg van variaties in de  hoeveelheid zonnestraling en de oriëntatie van landmassa’s ten opzichte van de zon. Dit verschijnsel staat bekend al solar forcing.

Excentriciteit.

excentr

De baan van de aarde rond de zon is een ellips. Excentriciteit is de mate waarin deze ellips afwijkt van een cirkel. Deze excentriciteit varieert in de tijd van bijna cirkel (excentriciteit van 0,005) tot licht elliptisch (excentriciteit 0,028). De huidige excentriciteit bedraagt 0,017. De periodiciteit van de excentriciteit kent 2 schalen: een van 413.00 jaar en een tweede van grofweg 100.000 jaar.
excentr2

Deze variaties in excentriciteit ontstaan door de invloed van de zwaartekracht van de planeten Saturnus en Jupiter. Momenteel is het verschil in afstand tussen het punt van de aardbaan dat het dichtst bij de zon ligt (perihelion) en het punt dat het verst van de zon verwijderd ligt (aphelion) 5,1 miljoen kilometer, resulterend in een verschil van inkomende zonnestraling van 6,8%. Als de baan zijn maximale excentriciteit heeft bereikt bedraagt dit verschil zelfs bijna  23%.

Obliquiteit

obliquiteit

De hoek die de aardas maakt met het vlak waarin de aarde rond de zon draait varieert van 22,1° tot 24,5°, met een periodiciteit van 41.000 jaar. De invloed van obliquiteit op de temperatuur op aarde is het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde. Bij een grotere hoek nemen de verschillen tussen de seizoenen voor wat betreft de instraling van de zon toe. Zowel op het noordelijk als het zuidelijk halfrond worden de zomers dan warmer en de winters kouder. Momenteel neemt de obliquiteit af en is 23,44° , waarmee we ons grofweg halverwege de beweging bevinden.

Echter, deze verschillen tussen zomer en winter zijn niet even groot. Bij toenemende obliquiteit neemt de gemiddelde jaarlijkse instraling op hogere breedte toe, terwijl op lagere breedte de instraling afneemt. Op hogere breedte veroorzaakt een lage obliquiteit derhalve zowel een lagere gemiddelde instraling op deze breedte als de afname van instraling in het zomerseizoen. Koele zomers kunnen dan het begin van een ijstijd triggeren doordat minder sneeuw smelt en de albedo in sommige gebieden sterk verandert.

Precessie
precessie

Precessie is de tolbeweging van de aardas, en heeft een periodiciteit van ongeveer 26.000 jaar. Precessie is het gevolg van de getijdekrachten die zowel de zon als de maan op de aarde uitoefenen, versterkt door het feit dat de aarde niet perfect rond is. Net zoals bij obliquiteit is het effect van precessie op de temperatuur op aarde het gevolg van het feit dat de landmassa’s ruimtelijk bezien niet gelijkmatig verdeeld zijn over de aarde.

Als de aardas gedurende het perihelion naar de zon wijst zal het ene polaire  halfrond grotere seizoensverschillen kennen, terwijl het andere halfrond kleinere verschillen kent. Momenteel kent het zuidelijk halfrond wat grotere verschillen tussen zomer- en wintertemperatuur als gevolg van de precessie dan het noordelijk halfrond.

Op onderstaande grafiek  van Jouzel et al. uit 1996 ( Jones, P.D., Bradley, R.S. and Jouzel, J. (Editors), 1996, “Climate Variations and Forcing Mechanisms of the Last 2000 Years.” 649pp Springer-Verlag, Berlin ) is het relatieve verloop van de temperatuur te zien vanaf 220.000 jaar geleden. Duidelijk zijn het Saalien  en het Weichsel glaciaal te onderscheiden. We bevinden ons momenteel rechts in de grafiek. Let op de grote snelheid waarmee een glaciaal overgaat in een warmer interglaciaal. Andersom gaat veel geleidelijker.

vostok1

Van belang is om in het oog te houden dat de hierboven beschreven invloeden van de zon op Kwartaire schaal alles te maken hebben met de de grootte van de hoeveelheid ontvangen zonne-energie  en de ligging van landmassa’s ten opzichte van de zon.  Dit in tegenstelling tot de hiervoor beschreven zonneactiviteit en temperatuur op een geologische tijdschaal, die te maken heeft met de flux in cosmic rays als gevolg van zonneactiviteit. Dit laatste is ook weer de drijvende kracht achter de volgende invloed op nog kortere tijdschaal, de 1500 jaarcyclus.


Zonneactiviteit en temperatuur op historische tijdschaal

bond1

 

Bovenstaande figuur is uit een studie van Bond c.s. uit 2001, gepubliceerd in Science ( Bond, G., Kromer, B., Beer, J., Muscheler, R., Evans, M.N., Showers, W., Hoffmann, S., Lotti-Bond, R., Hajdas, I. & Bonani, G., 2001. Persistent solar influence on North Atlantic climate during the Holocene. Science 294, p. 2130-2136).  Bond en zijn team onderzochten de afzettingen die door ijsbergen op de bodem van het noordelijk deel van de Atlantische Oceaan zijn afgezet vanaf het einde van de laatste ijstijd tot nu toe.  Behalve dat in koude periodes de sedimenten veel verder van de landijsmassa’s werden afgezet , varieert ook de dikte van de sedimenten behoorlijk (zwarte lijn).

De blauwe lijn representeert de zonne-activiteit in de vorm van C14  isotopen in bomen en Be10 isotopen uit ijskernen in Groenland. De aanwezigheid van deze isotopen is sterk gelinkt met zonne-activiteit en de hoeveelheid kosmische straling die de dampkring bereikt.

In de grafiek is te zien dat zonneaciviteit en temperatuur nauw samenhangen, en dat er  duidelijk sprake is van periodiciteit van deze verschijnselen van 1500 jaar +/- 500 jaar.



Zonneactiviteit en temperatuur op een centenniale tijdschaal

Camp & Tung ontdekten dat bij weergave van data van de opppervlaktetemperatuur tussen 1959 en 2004 en de zonnecycli in de gegeven periode er een temperatuurveschil van bijna 0,2 kelvin is tussen maximum en minimum.( Camp en Tung, Surface warming by the solar cycle as revealed by the composite mean,2007, Geophysical Research Letters, Vol. 34, L14703, doi:10.1029/2007GL030207). Zie de grafiek hieronder.

zonnevlekken

 

camp en tung

De rode plusjes en blauwe rondjes geven  resultaten weer van variaties in temperatuurmetingen (linker vertikale as) , de zwarte lijn geeft de zonnecyclus weer (rechter vertikale as).

sunspotsnasa

Op bovenstaande figuur (bron: NASA) zij de zonnecycli 12 t/m 23 te zien (onderzijde). Het bovenste deel van de figuur toont de omvang en ligging van de zonnevlekken ten opzichte van de zon-equator.


Diep zonneminimum levert raadsels op

conveyor2

David Hathaway van NASA heeft een mogelijke verklaring gevonden voor het diepe zonneminimum dat al een tijdje de gemoederen van astrofysici beheerst. Hij denkt dat dit te maken heeft met de hoge snelheid van de zogenaamde Conveyor Belt . De Conveyor Belt bestaat uit 2 stromingen van heet plasma in het binnenste van de zon. Elke Belt doet zo’n 40 jaar over een rondje. Onderzoekers denken dat de stromingen van beide Belts  de zonnecycli sturen. Hathaway publiceerde onlangs over dit onderwerp in Science  (Variations in the Sun’s Meridional Flow over a Solar Cycle,  Science 12 March 2010:Vol. 327. no. 5971, pp. 1350 – 1352).

soho

Hathaway maakt gebruik van data die sinds 1996 beschikbaar zijn door SOHO, Solar and Heliospheric Observatory . Deze periode omspant precies  zonnecyclus 23 en het diepe minimum waarin we ons de afgelopen 2 jaar bevonden, het diepste  van bijna 100 jaar. . Op onderstaande grafiek is te zien dat de acceleratie in omloopsnelheid van de Conveyor Belt samen valt met een afname van het aantal zonnevlekken van cyclus 23.

conveyor3

Dat is opmerkelijk, omdat tot nu toe er van uit gegaan is dat een snellere Conveyor Belt zorgt voor meer zonnevlekken. Ook de snelheid waarmee de zonnevlekken bewegen komt niet overeen met de gangbare theorieën. Om meer te weten te komen over dit fenomeen moeten wetenschappers dieper in de zon kunnen kijken. SOHO scant de zon slechts oppervlakkig, zodat het wachten is op data van SDO, Solar Dynamics Observatory, die afgelopen februari is gelanceerd.

sdo

Omdat er de laatste tijd enige activiteit op de zon is te bespeuren, denkt Hathaway dat er wellicht een eind gekomen is aan het minimum, en dat dat we aan het begin staan van cyclus 24. Hathaway verwacht dat die cyclus veel minder actief zal zijn dan de voorafgaande cycli (zie hieronder).

cyclus24

Zonnevlekken zijn tijdelijke koele gebiedjes op de zon. Ze leven enkele dagen tot enkele weken en het aantal vlekken dat zichtbaar is komt en gaat in een elfjaarlijkse cyclus. De zonnevlekken zijn omringd door helderder en hetere gebieden, de fakkelvelden. De temperatuur is er ongeveer 4000 graden hoger dan de oppervlakte van de zon.


Een langdurige afkoeling  staat waarschijnlijk voor de deur.

In het hoofdstuk “De Feiten” staat al het een en ander geschreven over de zon , zonnecycli en de invloed daarvan op het aardse klimaat. Hathaway van NASA denkt dat de komende cyclus 24 minder krachtig zal zijn dan de voorgaande, en hij wordt daarin gesteund door meer zonnefysici zoals de Nederlander De Jager. Nu was al wat langer bekend dat het lange uitblijven van cyclus 24 erg veel lijkt op een situatie aan het begin van de 17e eeuw. Dat luidde toen een langdurige periode in van koude winters in Europa, de Kleine IJstijd  of Maunder Minimum.

zonnevlekkensunspot1

Het fysische proces dat het magnetisch veld van de zon veroorzaakt wordt de zonnedynamo genoemd. Het proces is vergelijkbaar met het ontstaan van  het aardmagnetisch veld.  De belangrijkste processen spelen zich af in de zogenaamde tachocline, een laag van enkele tienduizenden km dikte op een diepte van 200.000 km onder het zonsoppervlak.  De daar opstijgende gasmassa’s  gaan wervelen als gevolg van  de zonnerotatie. De hierdoor ontstane elektrische velden genereren op hun beurt weer sterke magneetvelden.

De richting van het magnetisch veld keert ongeveer elke 11 jaar om, waardoor de zonnevlekkencyclus gestuurd wordt. Behalve deze 11-jarige cyclus is er ook sprake van een periodiciteit op een langere tijdschaal. Die periodiciteit is goed te herkennen op de eerste figuur hierboven. Men kan de volgende periodes onderscheiden:

1645-1715  Maunder Minimum
1715 – 1780 reguliere oscillaties
1780-1880 zwak Dalton Minimum
1880 – 1924 reguliere oscillaties
1924 – 2000 Groot Maximum 20e eeuw
2000 – 2013  transitie naar volgende fase
2013 – ?  Groot Minimum

Cyclus 24 liet  lang op zich wachten : hij begon niet in 2007- 2008 zoals verwacht, maar pas heel zwakjes in 2010. Het polaire veld is zwakker dan ooit gemeten, wat ook wijst op een sterk verlate en zwakke cyclus 24. De top wordt rond 2014 verwacht. Ook bij het begin van het Maunder Minimum was er sprake van een dergelijke situatie zoals momenteel. NOAA houdt op haar website de zonneactiviteit nauwkeurig bij . Onderstaande grafiek is de meest recente en betreft het aantal zonnevlekken en het door NOAA voorspeld verloop van cyclus 24.

sunspot1

Het dynamosysteem   bevindt zich momenteel in een  chaotische transitiefase, vergelijkbaar met periode vlak voor het Maunder Minimum. De Jager gaat er van uit dat dit komende Grote Minimum van het Maunder type zal zijn. In zijn recente publicatie legt hij uit op grond waarvan hij dit verwacht ( S. Duhau and C. de Jager, The Forthcoming Grand Minimum of Solar Activity, Journal of Cosmology, 2010, Vol 8, 1983-1999. )

De variabiliteit van de zon wordt bepaald door 2 componenten van het magnetisch veld, de zogenaamde  torroidale component en de poloidale component. Omdat beide componenten niet direct worden gemeten gebruiken fysici – net als bij temperatuurreconstructies  –  proxies.  Voor de torroidale component is de Rmax , het maximum aantal zonnevlekken in een cyclus. De grafiek hierboven is daar een voorbeeld van. De proxy voor de poloidale magnetische  veldsterkte is aamin , de minimum waarde van de  aa magnetische component. In onderstaande grafieken is het verloop van beide proxies in de tijd weergegeven.

jager3

Die variabiliteit resulteert in een aantal karakteristieke cycli.  Afgezien van de 11-jaars Schwabe cyclus zijn de belangrijkste de Hale periodiciteit (17 – 32 jaar), de Lower Gleissberg (34 – 68 jaar), de Upper Gleissberg (72- 118 jaar) en de Suess (De Vries) ( ≈ 205 jaar).

Met behulp van Fourier-analyses hebben De Jager en Duhau getracht grip te krijgen op deze ogenschijnlijk ongeordende zonnecycli. Het blijkt dat het dynamosysteem van de zon zich geleidelijk ontwikkelt  via drie cycli, gescheiden door korte  chaotisch verlopende  transitiefases. Deze cycli zijn een stapeling van de Gleissberg cyclus  en twee daarvan afgeleide quasi-harmonischen, te weten een 50-jarige en een 20-jarige oscillatie.

Vanaf 2000 bevinden we ons in een dergelijke chaotische transitiefase, die volgens De Jager tot 2013 zal duren. Deze fase vormt dan de opmaat voor een relatief koude periode van tenminste 100 jaar.


De zonnedynamo is vergelijkbaar met het ontstaan van het aardmagnetisch veld. De belangrijkste processen spelen zich af in de zogenaamde tachocline, een laag van enkele tienduizenden km dikte op een diepte van 200.000 km onder het zonsoppervlak. De daar opstijgende gasmassa’s gaan wervelen als gevolg van de zonnerotatie. De hierdoor ontstane elektrische velden genereren op hun beurt weer sterke magneetvelden.

jager4

jager4a
Bron: De Jager

De variabiliteit van de zon wordt bepaald door 2 componenten van het magnetisch veld, de zogenaamde torroïdale component en de poloïdale component. Omdat beide componenten niet direct worden gemeten gebruiken fysici – net als bij temperatuurreconstructies – proxies. Voor de torroïdale component is dat de Rmax , het maximum aantal zonnevlekken in een cyclus. In de grafiek hierboven is het verloop van de Rmax te zien vanaf 1100 na Chr. Met behulp van de proxies 14C en 10Be is een reconstructie van zonnevlekken tot ~850 v.Chr. mogelijk.

Wat opvalt in de grafiek is dat vanaf 1100 de langetermijntrend een dalende is tot ongeveer 1640, als het dieptepunt tijdens het Maunder Minimum bereikt wordt. Dat is de relatief koele periode die in Europa bekend staat als de Kleine IJstijd. Daarna stijgt de torroïdale activiteit weer tot het einde van de vorige eeuw.

jager5

jager5a
Bron: De Jager

Voor de poloïdale component wordt de geomagnetische index gebruikt. De proxy voor de poloïdale magnetische veldsterkte is aamin , de minimum waarde van de aa magnetische component. In bovenstaande grafiek is het verloop van deze index vanaf 1100 n. Chr. weergegeven. Duidelijk is te zien dat de grafiek nagenoeg hetzelfde verloop toont als die van de Rmax . De richting van het magnetisch veld keert ongeveer elke 11 jaar om, waardoor de zonnevlekkencyclus gestuurd wordt. Gedurende de elfjarige cyclus wisselen de twee velden in sterkte: als het veld rond de evenaar maximaal is, is het polaire veld minimaal en omgekeerd.

Behalve deze 11-jarige cyclus, Schwabe-cyclus genaamd, is er ook sprake van een periodiciteit op een langere tijdschaal:

Hale cyclus: 22 jaar
Lower Gleissberg cyclus: 70 jaar
Upper Gleissberg cyclus: 100 jaar
De Vries Cyclus: 205 jaar
Halstatt cyclus: 2300 jaar

Er is de afgelopen tijd een reeks van wetenschappelijke publicaties geweest die verwezen naar een correlatie tussen zonneactiviteit en temperatuur op aarde. Een van de meest recente is een publicatie van De Jager, Duhau en van Geel uit 2010. Daarin komen ze voor het eerst tot nauwkeurige schattingen over de bijdrage van zonneactiviteit op de oppervlaktetemperatuur van de aarde, waarover verderop meer.
Coughlin & Tun (2004) hebben onderzoek gedaan naar de correlatie tussen de torroïdale component en de troposferische temperatuur in de 11-jarige Schwabe cyclus. Zij vergeleken daartoe de temperatuurreeksen van NCEP/NCAR tussen 1958 en 2003 met de zonnevlekactiviteit in dezelfde periode. Tijdens een periode met maximale zonnevlekken is de toename van de totale energie van de zon niet spectaculair, namelijk ongeveer 0,1%. Maar de toename van de hoeveelheid UV-straling is wel groot: 6 tot 8%. Coughlin et al maken gebruik van een methode genaamd “empirical mode decomposition”. Daarbij herkennen ze in de temperatuurreeks (en de zogenaamde geopotentiele hoogte) een vijftal oscillaties en een langjarige trend. In onderstaande figuur is dat weergegeven.

coughlin1Bron: Coughlin

Te zien is dat in het 700 hPa drukvlak de 4e oscillatie zeer goed overeen komt met de elfjarige zonnevlekkencyclus. De correlatiecoëfficiënt tussen beide data is + 0,72, zeer hoog dus. Ook hoger in de troposfeer blijft de correlatie in stand. De onderzoekers concluderen: “Statistical tests show that this signal is different from noise, indicating that there is enhanced warming in the troposphere during times of increased solar radiation. ” .
Usoskin et al (2004) onderzochten de correlatie tussen de zonnevlekken vanaf 850 n. Chr. op basis van een reconstructie m.b.v. 10Be data en de temperatuurreconstructies op het NH van Mann& Jones (2003)en Mann et al (1999).

usoskin1Bron: Usoskin

Rekening houdend met een time lag van ongeveer 10 jaar waarbij de zonnevlekken de temperatuur sturen komen Usoskin et al op een correlatiecoëfficiënt voor de temperaturen op het NH van 0,71 (Mann & Jones) tot 0,83 (Mann et al) met een significantieniveau van > 95%.
De Jager et al (2006) zochten naar de correlatie tussen 7 temperatuurreeksen en zonneactiviteit. Hierbij wordt een onderscheid gemaakt tussen de veranderingen in stralingsactiviteit van de zon (met name de fluctuaties in de UV-straling) enerzijds en de invloed van het zonmagnetisch veld op het cosmic-ray-niveau op aarde anderzijds.

jager6a

jager6bBron: De Jager

De Jager et al concluderen dat op langere termijn er een duidelijke correlatie is tussen de UV-fluctuaties en temperatuur, en een minder duidelijke correlatie is tussen cosmic rays en temperatuur. Zie voor cosmic rays Svensmark in het hoofdstuk “Nieuwe Inzichten”.

Scafetta (2009) ontwierp met behulp van satellietdata vanaf 1980 een model om de invloed van zonneactiviteit op de aardse temperatuur te kunnen reconstrueren. Hij maakt daarbij gebruik van een aantal datasets waarvan de gevolgen voor de temperatuur nogal uiteen lopen. Zo voorspelt PMOD een afkoeling bij stijgende zonneactiviteit, terwijl andere datasets bv. ACRIM) een aanzienlijke opwarming aangeven, waarbij het aandeel van de zon tot 65% oploopt.

Scafetti concludeert dat de invloed van de zon op recente temperatuurveranderingen aanzienlijk is, en wijt het standpunt van het IPCC (2007) dat de zon een verwaarloosbare rol speelt in de opwarming aan het gebruik van foute zonnedata. Zijn bevindingen wijzen op een grote gevoeligheid van het klimaatsysteem. Zelfs kleine fouten in het modelleren kunnen daardoor klimaatmodellen onbruikbaar maken. Men kan hierbij denken aan de vraag hoe albedo, wolkendek, waterdamp feedback, LW- straling reageren op temperatuurveranderingen op decadale schaal.

Le Mouël et al (2009) onderzochten voor 203 weerstations in de USA, Europa en Australië of er een verband bestaat tussen het temperatuurverloop en zonneactiviteit, i.e. aantal zonnevlekken en magnetisch velddata van de zon.

mouelBron: Mouel

Conclusie: “We conclude that significant solar forcing is present in temperature disturbances in the areas we analyzed and conjecture that this should be a global feature.”.

Behalve bovengenoemde studies is er nog een veelvoud recentelijk beschikbaar gekomen die een correlatie tussen zonneactiviteit en temperatuur aantonen. Daarbij wordt gebruik gemaakt van paleoklimatologische reconstructies op basis van 14C en 10Be, waarbij onderzoek gedaan wordt aan gletsjers, meerafzettingen, veenvorming, zeesedimenten door drijfijs, stalagmieten en landijs.

In de reeds genoemde publicatie van De Jager, Duhau en van Geel (2010) trachten de auteurs het verband tussen de torroïdale en poloïdale componenten van de zonnedynamo en de oppervlakte temperatuur van de aarde kwantitatief beter te onderbouwen. Zij vergeleken daartoe temperatuurreeksen van de periode 1610-1970 met veranderingen in zonneactiviteit. Met name de Hale cyclus van 22 jaar, Lower Gleissberg cyclus van 70 jaar, de Upper Gleissberg cyclus van 100 jaar en de De Vries Cyclus van 205 jaar blijken goed te correleren met de gebruikte zeven temperatuurreeksen.

Aan de hand van die zeven temperatuurreeksen is vastgesteld dat de gemiddelde stijging van de globale temperatuur in de periode 1610—1970 0,087 °C/eeuw is geweest. Daarvan is 0,077 °C/eeuw gecorreleerd aan de torroïdale component van het magnetisch veld van de zon. De helft van deze 0,077 °C/eeuw wordt veroorzaakt door de toename van de TSI (Total Solar Irradiance) in deze periode, terwijl de andere helft veroorzaakt is door de positieve feedback van waterdamp als gevolg van de gestegen temperatuur.

Maar volgens de onderzoekers hebben de veranderingen van het magnetisch veld van de zon ook een negatieve component: de poloïdale component wordt geschat op -0,040 °C/eeuw. Daarvoor zijn vooral de sterke polaire zonnewinden verantwoordelijk, die op hun grootst zijn als het aantal zonnevlekken minimaal is. Tegelijk is de cosmic ray flux die de aarde bereikt groot. De door diverse onderzoekers aangedragen relatie met wolkvorming (Svensmark en anderen) is tot nu toe nog onvoldoende gestaafd.

Wat overblijft, als men de rekensom netjes volgt, is een positieve component van 0,051 °C/eeuw waarvoor de onderzoekers geen verklaring hebben: het is gecorreleerd aan ‘klimatologische processen’. Daarin kunnen forcings van antropogene oorsprong een rol spelen, maar ook natuurlijke processen van terrestrische oorsprong. Welke en in welke mate is nog onzeker. Conclusie: er komt steeds meer bewijs dat ‘solar forcing’ een belangrijke rol speelt bij klimaatveranderingen, en dat tegenkoppelingen de effecten versterken.

jager7Bron: De Jager

Het dynamosysteem bevindt zich momenteel in een chaotische transitiefase, vergelijkbaar met periode vlak voor het Maunder Minimum. De Jager gaat er van uit dat dit komende Grote Minimum van het Maunder type zal zijn. In een recente publicatie legt hij uit op grond waarvan hij dit verwacht ( S. Duhau and C. de Jager, The Forthcoming Grand Minimum of Solar Activity, Journal of Cosmology, 2010, Vol 8, 1983-1999. ).

Op onderstaande grafieken is het verloop van Rmax en aamin te volgen.

jager8

Bron: De Jager

Eens in de zoveel tijd raakt het systeem door nog onbekende reden instabiel. Zo’n situatie werd in 2008 bereikt. Deze situatie hebben we al eens eerder gehad, namelijk vlak voor de Kleine IJstijd, het Maunder Minimum. Weliswaar klimmen we momenteel heel voorzichtig uit een diep minimum, maar volgens De Jager zal cyclus 24 niet veel voorstellen. Daarna begint volgens hem een langdurig minimum dat een groot deel van deze eeuw in beslag zal nemen, misschien een soort Maunder Minimum. Over een paar decennia weten we meer.


Prof. Horst Malberg, voormalig directeur van het ‘Institut für Meteorologie der Freien Universität Berlin’, heeft een interessant essay geschreven over de rol van de zon op het klimaat. In mijn bijdrage van 1 april j.l. ben ik al uitgebreid ingegaan op de recente publicaties van prof. De Jager over de invloed van de zon op klimaatveranderingen. De bijdrage van Malberg bevestigen de Jagers conclusie, namelijk dat de zon meer dan andere ‘forcings’ de drijvende kracht is achter klimaatveranderingen.

malberg1Bron: NOAA

Malberg vergelijkt het gemiddeld aantal zonnevlekken van 3 opeenvolgende 11-jarige Schwabe-zonnecycli met het temperatuurverloop gedurende die zonnecycli in onder andere Midden Europa. Beide zijn uitgedrukt in anomalieën, veranderingen ten opzichte van een bepaalde referentieperiode. In bovenstaande figuur is de bekende temperatuurtrend te zien vanaf het einde van de Kleine IJstijd (Maunder Minimum) : een oplopende temperatuur tot de 19e eeuw, dan weer een afkoeling (Dalton Minimum) en daarna de opwarming van de 20e eeuw. Daarmee volgt de temperatuurtrend van Midden Europa die van de globale temperatuur met een correlatiecoëfficiënt van + 0,94.

Het is hier al eerder opgemerkt dat de meeste temperatuurgrafieken die betrekking hebben op klimaatverandering niet in de 17e eeuw beginnen, zoals bovenstaande grafiek, maar in de tweede helft van de 19e eeuw. Logisch , want veel meteorologische diensten, zoals ook het KNMI, begonnen in die periode met hun metingen. Maar daardoor komt alleen de laatste opwarming vanaf 1880 in beeld, waardoor de indruk gewekt kan worden dat deze temperatuurstijging uniek is. Dat beeld werd nog versterkt door de foutieve reconstructie van de globale temperatuur sinds 1100 door Michael Mann, de bekende hockeystickgrafiek. Tel daar nog eens bij de als vaststaand feit verkochte hypothese dat atmosferisch CO2 de temperatuur op aarde stuurt, en het beeld dat de globale temperatuurstijging sinds 1880 van ~ 0,7 °C vrijwel zeker antropogeen van oorsprong moest zijn was een feit.

In bovenstaande grafiek is te zien dat de temperatuurstijging sinds 1880 onderdeel is van een cyclische schommeling. Deze zogenaamde De Vries-cyclus heeft een periodiciteit van ongeveer 200 jaar en wordt aangedreven door de zon.

malberg2Bron: Malberg

In de figuur hierboven zien we de temperatuuranomalieën in Midden Europa per periode van 3 Schwabe-cycli. Opvallend is dat het verloop van deze grafiek sterk lijkt op die van de eerste grafiek. Zonneactiviteit is ontegenzeggelijk een belangrijk sturende factor in het temperatuurverloop.

Malberg heeft de correlatiecoëfficiënt berekend tussen die zonneactiviteit en het temperatuurverloop in diverse gebieden (zie de grafiek hieronder).

malberg3Bron: Malberg

In de grafiek is de correlatie weergegeven voor Midden Europa en centraal Engeland, en vanaf 1857 ook voor het NH, ZH en de aarde als geheel. Voor de periode 1857-1996 kan volgens Malberg de zon voor ongeveer 80% de langetermijn temperatuurveranderingen verklaren. Opvallend is dat de correlatie zonneactiviteit – temperatuur daalt bij beschouwing van kortere periodes, zoals die met de duur van een zonnecyclus. Dat is het geval vanaf 1996, als ook de laatste cyclus, nummer 23, meegerekend wordt. Daarom heeft Malberg aandacht besteed aan de periode 1991-2010 om meer zicht te krijgen op de vraag welke factoren van invloed zijn op kortstondige periodes met een lengte van een zonnecyclus. In onderstaande grafiek is het verloop van de globale temperatuur weergegeven, bron HadCrut. De kortstondige temperatuurverandering in deze periode zijn vrijwel alle terug te voeren tot de invloed van El Niño (ENSO) en La Niña, de grootschalige veranderingen in het stromingspatroon van de tropische Pacific.

malberg4Bron: HadCrut

Een El Niño fase verwarmt de aarde, La Niña daarentegen koelt de aarde af. Deze fases hebben een relatief kortstondige uitwerking op de globale temperatuur. Maar er is ook een langere periodiciteit te ontdekken in de invloed van beide verschijnselen. In onderstaande grafiek is de zogenaamde aandrijffactor F = Tm*Mon weergegeven, waarbij men per decennium de totale invloed van El Niño en La Niña berekent. Deze warmtebalans is positief als El Niño overheerst, en negatief als La Niña overheerst.

malberg5Bron: NOAA

Opvallend is dat in de jaren’50 de balans negatief was, en in de decennia daarna (met uitzondering van de jaren ’70 , positief. Vooral in het laatste decennium is de invloed van Pacifische cyclus groot geweest.

malberg7Bron: Malberg

Bovenstaande grafiek geeft de correlatie weer tussen de jaarlijkse globale gemiddelde temperatuur en die van de tropische Pacific voor diverse periodes. Opvallend is dat de correlatie om en nabij de + 0,8 is voor het afgelopen decennium. Malberg merkt op dat El Niño/La Niña op twee manieren het klimaat beïnvloed, namelijk op een decenniale schaal en een intra-annuele schaal. Met name het afgelopen decennium is de invloed op de globale temperatuur groter dan in de voorafgaande decennia, terwijl de kortstondige pieken en dalen in de temperatuurreeks de tweede invloed vormen. Volgens Malberg compenseert de toegenomen invloed van El Niño/La Niña op decenniale schaal de teruglopende zonne-activiteit van de afgelopen 50 jaar.

Wat biedt de toekomst? Net zoals prof. De Jager denkt ook Malberg dat de kans groot is dat we aan de vooravond van een afkoeling staan. Van cruciaal belang volgens Malberg is de vraag wat cyclus 24 gaat doen. Als het gemiddelde zonnevlekkenaantal onder de 50 blijft verwacht hij een langere periode van afkoeling. En in die verwachting staan Malberg en De Jager niet alleen. Over CO2 als drijvende kracht achter de temperatuur is de professor kort: “Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.

 


Prof. De Jager krijgt gelijk

Alle tekenen wijzen erop dat Cees de Jager gelijk krijgt: de zonnevlekkencyclus van 11 jaar dooft langzaam uit. Op een bijeenkomst van de American Astronomical Society afgelopen week gonsde het al van de geruchten over de toenemende hoeveelheid aanwijzingen dat er werkelijk wat aan de hand is met de zonnecycli. Zie ook “Nieuwe Inzichten” onder “Zonnecycli”.

cyclus24

Cyclus 24 is enkele jaren te laat op gang gekomen. Zoals op bovenstaande illustratie te zien is is hij veel zwakker dan de voorafgaande cyclus 23. Cyclus 24 zal naar verwachting zijn maximum hebben in 2013, en cyclus 25 in 2024. Maar alle tekenen wijzen erop dat cyclus 24 of zeer zwak wordt dan wel weg blijft.

Een van die aanwijzingen is het wegblijven van de zogenaamde jet streams. Dat zijn stromingen op een diepte van 7000 km onder het zonne-oppervlak, waarboven de zonnevlekken zich manifesteren. Die jet streams onstaan altijd op hoge breedte (ongeveer 50° NB en ZB) en zakken dan langzaam af naar de zonne-equator. Het ontstaan van dergelijke jet streams vindt al plaats ruim voordat de voorgaande cyclus is uitgedoofd.

jet stream
Bron: Sky & Telescope

Wetenschappers die zich bezighouden met helioseismologie, zoals Frank Hill en Jay Pasachoff, nemen waar dat het ontstaan van de jet streams voor cyclus 25 uitblijft. De cyclus is al enkele jaren over tijd, om preciezer te zijn. Op onderstaande afbeelding is dat te zien. De jet streams zijn de rood-gele strepen op de figuur. Aan de linkerzijde ziet men de jet streams van cyclus 23, die omstreeks 2002 de zonne-evenaar bereiken. Verder is te zien dat de jet streams van de huidige cyclus 24 al in 1997 verschijnen op 50° NB en ZB, en dat ze de evenaar zullen bereiken in 2013. Het ontstaan van de volgende jet streams van cyclus 25 zou normaal gesproken al in 2009 hebben moeten plaats vinden, maar er is tot nu toe nog helemaal niets te zien.

jet stream2

Een tweede aanwijzing dat er iets bijzonders aan de hand is, is dat de sterkte van het magnetisch veld in het donkere hart van zonnevlekken alsmaar zwakker wordt. Zodra die sterkte beneden de 1500 Gauss daalt zullen er geen zonnevlekken meer ontstaan.

jet stream3Bron: National Solar Observatory

De parallel met het ontstaan van het Maunder Minimum rond 1620 ligt voor de hand. Ook toen was er sprake van een afzwakkende zonnecyclcus, die er voor zorgde dat zonnevlekken ongeveer 100 jaar weg bleven. Het gevolg was een afkoeling van de temperaturen op aarde, die bekend staat als de Kleine IJstijd.

zonnevlekken

Prof. De Jager heeft allemaal al enkele jaren geleden voorspeld, in een publicatie samen met de Argentijn Duhau. Hij noemt de komende koele periode het nieuwe Grote Minimum, dat volgens hem zal duren tot ongeveer 2100. Zie de website van de Jager.


De zon heeft het alweer gedaan

Qian en Lu, twee Chinese klimaatonderzoekers, hebben onlangs gepubliceerd over de periodieke oscillaties die in het aards temperatuurverloop van de afgelopen 1000 jaar waarneembaar zijn.

 

qian1

Daarvoor combineren ze de gereconstrueerde temperatuurreeks van Mann uit 2008 met de meetgegevens van HadCRUT3 (bovenste grafiek). Duidelijk zijn het Middeleeuws Optimum , de Kleine IJstijd en de recente opwarming te herkennen. Na verwijdering van deze langdurige trend blijft het ‘kale’ signaal over ( tweede grafiek). Na analyse van het overgebleven signaal is een viertal oscillaties te herkennen met een periodiciteit van 21,1 , 62,5 , 116 en 194,9 jaar (onderstaande grafiek).

qian2

Combineert je bovenstaande 4 oscillaties tot 1 temperatuursignaal (onderbroken lijn) en leg je die dan op het (trend removed ) originele signaal, dan is een opvallende correlatie te zien met een correlatiecoëfficiënt van 0,5 !

qian3

De onderzoekers gingen vervolgens op zoek naar mogelijke verklaringen voor bovenstaande oscillaties en vonden een tweetal verklarende mechanismen. De eerste is de zon. Daarvoor bekeken Qian en Lu de afgelopen 400 jaar. De reconstructie van zonneactiviteit werd gedaan op basis van 10Be meetgegevens. Analyse van die gegevens levereden een tweetal oscillaties in het signaal van de zon, met een periodiciteit van 118 en 175 jaar. Zet je de resultante van beide sinusoscillaties af tegen het gemeten signaal van zonneactiviteit dan ontstaat het volgende beeld:

qian4

Opvallend noemen de onderzoekers de correlatie in de ze 400-jarige periode tussen de oscillatie van 118 jaar (zon) en de temperatuuroscillatie van 111 jaar in genoemde periode. De time lag tussen beide signalen wijst volgens de onderzoekers op een vertraagde reactie van de aardse temperatuur op de veranderende zonneactiviteit.

Voor veranderingen op decadale tijdschaal bekijken Qial en Lu de periode 1850-2000. Bij analyse van deze relatief korte periode onderscheiden ze een tweetal oscillaties in de temperatuurreeks van 21,12 en 64,8 jaar, en een drietal oscillaties in het signaal van de zon van 10, 22 en 43,3 jaar. In onderstaande grafiek is de sterke correlatie te zien tussen de resultante van beide zonneoscillaties (onderbroken lijn) en de temperatuur.

 

Ook de koppeling oceaan-klimaat werd door de Chinese onderzoekers bekeken. De ook door andere onderzoekers al gesignaleerde oscillatie in de aardse temperatuur van ongeveer 65 jaar qian5werd vergeleken met de oscillatie in de PDO-index van ongeveer 62 jaar (PDO= Pacific Decadal Oscillation). Uitkomst: de SST loopt ongeveer 2 tot 6 jaar voor op de wereldtemperatuur.

Opvallende uitkomsten van het onderzoek:

– De invloed van de zon op het temperatuurverloop op aarde is groot.
– De opwarming aan het einde van de vorige eeuw was vooral het gevolg van een samenvallen van de 4 temperatuuroscillaties. Tussen 1994 en 2002 vielen voor het eerst in 1000 jaar de toppen van genoemde 4 oscillaties samen.
– Op basis van de analyse van de dataset van de afgelopen 1000 jaar voorspellen de onderzoekers een afkoeling van de wereldtemperatuur rond 2030 en een opwarming rond 2060.


Spitsbergen gaat afkoelen

 

svalbard3

Een interessant onderzoek van een drietal Noorse onderzoekers getiteld “Solar activity and Svalbard temperatures” zal over enkele maanden worden gepubliceerd. Solheim et al hebben een verband ontdekt tussen zonneactiviteit en de luchttemperatuur op Spitsbergen. Nu is dat laatste niet erg opzienbarend, dergelijke verbanden zijn al vele malen aangetoond. Zie hiervoor in het menu “Nieuwe Inzichten” de paragraaf over zonnecycli.

svalbard4

Wat wel opvallend in de studie is dat de onderzoekers een verband hebben ontdekt tussen de duur van de cycli gedurende de afgelopen eeuw en de oppervlaktetemperatuur op Spitsbergen, en dan met name de gemiddelde jaartemperatuur en wintertemperatuur. Die correlatie wordt sterker naarmate de time-lag groter is, zoals op bovenstaande figuur te zien is. Bij een time-lag van 10 tot 12 jaar is de correlatie maximaal, met een correlatiecoëfficiënt oplopend tot -0,8. Dat betekent dat, rekening houdend met een gemiddelde zonnecyclusperiodiciteit van 11 jaar, er een sterke correlatie is tussen de gemiddelde luchttemperatuur op Spitsbergen en de duur van de vorige zonnecyclus. De correlatie is significant, met een niveau van > 95%. Dat betekent dat de kans dat de geobserveerde waarden gevonden worden terwijl er geen verband tussen de variabelen bestaat, kleiner dan 5% is. Ongeveer 60% van de temperatuurvariatie in de gemiddelde jaartemperatuur en wintertemperatuur kan verklaard worden door zonnecycli.

svalbard1

svalbard5

De onderzoekers hebben enkele mogelijke verklaringen gevonden voor de time-lag tussen zonnecyclus en temperatuur. In de eerste plaats is de duur van een zonnecyclus gecorreleerd aan de amplitude van de volgende cyclus. Dat vonden Solanski en Krivova van het Max Planck Instituut ook al bij hun onderzoek dat in 2003 is gepubliceerd. Een tweede verklaring is te vinden in de time-lag die ontstaat vanwege het langdurende transport van oceaanwater vanuit de Cariben naar het noordelijk deel van de Atlantische Oceaan.

cyclus24

Cyclus 24 is enkele jaren te laat op gang gekomen. Zoals op bovenstaande illustratie te zien is is hij veel zwakker dan de voorafgaande cyclus 23. Hij zal naar verwachting zijn maximum hebben in 2013, cyclus 25 in 2024.

Een van de aanwijzingen voor een zwakke cyclus 24 is het wegblijven van de zogenaamde jet streams. Dat zijn stromingen op een diepte van 7000 km onder het zonne-oppervlak, waarboven de zonnevlekken zich manifesteren. Die jet streams onstaan altijd op hoge breedte (ongeveer 50° NB en ZB) en zakken dan langzaam af naar de zonne-equator. Het ontstaan van dergelijke jet streams vindt al plaats ruim voordat de voorgaande cyclus is uitgedoofd.

Wetenschappers die zich bezighouden met helioseismologie, zoals Frank Hill en Jay Pasachoff, nemen waar dat het ontstaan van de jet streams voor cyclus 25 uitblijft. De cyclus is al enkele jaren over tijd, om preciezer te zijn. Op onderstaande afbeelding is dat te zien. De jet streams zijn de rood-gele strepen op de figuur. Aan de linkerzijde ziet men de jet streams van cyclus 23, die omstreeks 2002 de zonne-evenaar bereiken. Verder is te zien dat de jet streams van de huidige cyclus 24 al in 1997 verschijnen op 50° NB en ZB, en dat ze de evenaar zullen bereiken in 2013. Het ontstaan van de volgende jet streams van cyclus 25 zou normaal gesproken al in 2009 hebben moeten plaats vinden, maar er is tot nu toe nog helemaal niets te zien.

jet stream2

Een tweede aanwijzing dat er iets bijzonders aan de hand is, is dat de sterkte van het magnetisch veld in het donkere hart van zonnevlekken alsmaar zwakker wordt. Zodra die sterkte beneden de 1500 Gauss daalt zullen er geen zonnevlekken meer ontstaan.

jet stream3
Bron: National Solar Observatory

Met het PSCL-model dat door de Noorse onderzoekers op basis van de correlatie zonnecyclus-temperatuur is gemaakt kunnen ook voorspellingen worden gedaan. Nu hou ik persoonlijk niet zo van modellen die dit of dat voorspellen, omdat op die wijze door wat ik het politiek-industrieel- klimatologisch complex noem de laatste jaren nogal wat onzin naar buiten is gebracht. Maar deze wil ik u niet onthouden, temeer omdat de genoemde correlatie statistisch significant is. De voorspelling is dat voor de huidige zonnecyclus, die tot 2020 zal voortduren, de gemiddelde jaartemperatuur op Spitsbergen met ongeveer 3 °C zal dalen, en de gemiddelde wintertemperatuur met zelfs 6 °C. Ik ben benieuwd of de voorspelde afkoeling waargemaakt gaat worden, en ook geldt voor de andere delen van het Arctisch gebied.

 

Een tijdje terug publiceerde Russ Steele op zijn  weblog onderstaande grafiek van de hand van meteoroloog Joe Bastardi. Men ziet voor de periode 1979 tot heden het verloop van het CO2-gehalte in de atmosfeer zoals gemeten op Mauna Loa Observatory op Hawaii, de globale zee-en landtemperatuur volgens de datareeks  HadCRUT3, en de SST (sea surface temperature) volgens de datareeks HadSST2.

co2 temp2

Russ vraagt zich af:  “ If the admission to the school of your choice, be it Cornell, or lets say Columbia or Harvard, depended on you answering this question — “Given the facts presented in the chart below, is CO2 driving the Earth’s temperature?” — how would you answer it? ”

En bezie nu eens de figuur over de inkomende zonnestraling en de maximum dagtemperaturen in de USA.  De figuur is afkomstig van een onderzoek door Willie Soon and William M. Briggs, waarvan de resultaten gisteren werden gepresenteerd in de Washington Times.

soon2
Bron: BEST project University of California

Het toont een sterke correlatie tussen inkomende zonnestraling en de oppervlaktetemperatuur in de USA. Tot nu toe werden bij dergelijke onderzoeken ook altijd de nachttemperaturen meegenomen, wat natuurlijk verwonderlijk is omdat de zon dan niet schijnt. De variatie in inkomende zonnestraling  (in W/m2) is erg klein, maar de maximum dagtemperatuur  in vooral wolkenloze regio’s volgt die opvallend goed.
Soon:  “Pictures like these cannot be drawn for temperature and CO2 concentration. There just is no such close match between the steady rise in atmospheric CO2 concentration and the often dramatic ups and downs of surface temperatures in and around the Arctic, China and the United States.” Waarvan acte zou ik zeggen (zie eerste figuur).

Soon en Briggs hebben al eerder een dergelijke sterke correlatie tussen zonnestraling en maximum temperaturen waargenomen in diverse andere regio’s op aarde. Zo vonden ze  een dergelijke correlatie ook bij hun onderzoeken in het Arctische gebied  en China. Ook de onderzoekers Van Loon en Meehl hebben in een aantal recente publicaties  (hier en hier) deze zonnestraling-oppervlaktetemperatuur-hypothese  wetenschappelijk op de kaart gezet.

De verklaring voor de sterke relatie tussen zonnestraling en temperatuur  is volgens Soon en Briggs te vinden in de conveyor belt,  de grote thermohaline circulatie  die grote massa’s water verplaatst in de oceaanbekkens. Hierbij is vooral de uitwisseling tussen Arctische Zee en tropen van belang.

conveyor1
Bron:  Wikipedia

Soon verklaart:  “…we were able to provide a self-consistent explanation for these observed apparent sun-climate correlations, which involves the exchange of heat and moisture between the equator and the Arctic region. In addition, we recently discovered direct evidence that changes in solar activity have influenced what has been called the “conveyor belt” circulation of the great Atlantic Ocean currents over the past 240 years. For instance, solar-driven changes in temperature and in the volume of freshwater output from the Arctic cause variations in sea surface temperature in the tropical Atlantic five to 20 years later. These peer-reviewed results, appearing in several science journals, make it difficult to maintain that changes in solar activity play no or an insignificant role in climate change. ”.

 

Bas van Geel en de rol van de zon

Op de klimaatconferentie van 8 december 2012 in Rijsoord hield paleo-ecoloog Bas van Geel van de UvA een voordracht over de onderschatte rol van de zon op het aardse klimaat. Hij hekelde de houding van het IPCC die de rol van CO2 op het aardse klimaat overschat en die van de zon onderschat. Op onderstaande figuur uit het IPCC-rapport van 2007 is dat goed te zien:

bas1

De blauwe band toont het temperatuurverloop volgens de door het IPCC gebruikte klimaatmodellen in de diverse regio’s als er geen ‘CO2-effect’  is. Het ziet er allemaal erg dramatisch uit, reden waarom deze figuur graag gebruikt wordt om de rol van de mens op het klimaat te benadrukken. Dat deed Rob van Dorland van het KNMI in zijn lezing.
Van Geel toont in zijn voordracht aan dat hier sprake is van onderschatting van de rol van de zon. Dat de zon in de ogen van het IPCC een ondergeschikte rol speelt is goed te zien op onderstaande figuur. De totale antropogene radiative forcing wordt door het IPCC 15x groter ingeschat dan die van de zon.

bas2

De activiteit van de zon is onder andere herkenbaar aan het aantal zonnevlekken aan het oppervlak.  Bekend is dat het aantal zonnevlekken een zekere variatie in de tijd kent.  In het menu onder “Nieuwe Inzichten”  is in de hoofdstukken ‘De Zon’  en ‘Zonnecycli’  daarover al het een en ander geschreven.

bas3

Op de figuur is te zien dat vooral in de vorige eeuw de activiteit van de zon sterk is toegenomen. Van Dorland beweerde in een reactie dat na 1958 (de piek in de grafiek) de activiteit weer afgenomen is en dat invloed op de temperatuur meer gerelateerd is aan de toename van de activiteit dan aan de grootte ervan.  Door Van Geel werd dat ontkend en ikzelf heb ook in de literatuur geen aanwijzing kunnen vinden dat Van Dorlands opmerking juist zou zijn.

 bas4Bron: Damon et al, 1998

Behalve waarnemingen van het aantal zonnevlekken worden ook kosmogene isotopen in natuurlijke archieven gebruikt om de veranderingen in de activiteit van de zon te meten. In planten wordt 14C gevonden, in ijskernen 10Be. In bovenstaande grafiek is te zien dat 14C en 10Be isotopen prachtig de periodische en aperiodische variaties van de zonneactiviteit volgen. In de grafiek zijn de waarden van 14C EN 10Be omgekeerd evenredig met de zonneactiviteit.

Vele voorbeelden laten volgens Van Geel zien dat het klimaat hypergevoelig is voor relatief kleine veranderingen in de activiteit van de zon. Die hypergevoeligheid alleen verklaard worden met versterkingsmechanismen. Op bovenstaande figuur is te zien dat in stalagmieten in Oman de correlatie tussen het 14C isotoop en de temperatuur zeer opvallend is. Het zuurstofisotoop 18O in neerslag wordt in de paleoklimatologie gebruikt om de temperatuur van neerslagwater vast te stellen.

Ook de opmerking van Van Dorland als zouden onderzoeksresultaten alleen regionaal correlaties vertonen lijkt geen hout te snijden: in een publicatie van Stuyver et al uit 1998 wordt een opmerkelijke synchrone correlatie gevonden in 14C gehalten tussen 1550 en 1750 op 3 continenten:

bas16

bas5

Bovenstaande data komen uit een studie van Bond c.s. uit 2001, gepubliceerd in Science.  Bond en zijn team onderzochten de afzettingen die door ijsbergen op de bodem van het noordelijk deel van de Atlantische Oceaan zijn afgezet vanaf het einde van de laatste ijstijd tot nu toe.  Behalve dat in koude periodes de sedimenten veel verder van de landijsmassa’s werden afgezet , varieert ook de dikte van de sedimenten behoorlijk). In de grafiek is te zien dat er een nauwe correlatie is tussen 10Be  en het voorkomen van dat zogenaamde ‘ice-rafted debris’. Zie ook verdere informatie over deze studie onder ‘Niwue Inzichten’.

De data uit de publicatie van Bond et al zijn ook gebruikt door Magny in 2007, waarin hij een verband aantoont met de waterstanden in Alpenmeren in Laat-Pleistoceen en Holoceen.

bas6

Er zijn nog vele andere onderzoeksresultaten die aantonen dat zonne-activiteit van grote invloed is op het aardse klimaat. Zo is er de publicatie van Sejrup uit 2010 over de respons van de temperatuur van de Noorse Zee sinds 1000 jaar…

bas7

……het eigen onderzoek van Van Geel aan veenafzettingen……

bas8

bas9

… die weer goed corresponderen met de meerafzettingen in het Meerfelder Maar, een restant van en oude caldera in de Eiffel. Alhoewel de fluctuaties van de totale zonnestraling gedurende het Holoceen relatief klein zijn geweest lijken de gevolgen toch groot.  Onderstaande grafiek is van de publicatie van Steinhilber et al uit 2009.

bas11

Als we inzoomen op de ontwikkeling van de globale temperatuur van de afgelopen eeuw dan zien we een bekende dip in de temperatuur tussen 1940 en 1975. Menig wetenschapper wil ons graag doen geloven dat die het gevolg is van luchtvervuiling die inkomende zonnestraling hindert. Als je de totale zonnestraling  aan buitenzijde van de atmosfeer  (Hoyt + Schatten, 1997)  vergelijkt met de temperatuur ontstaat een ander beeld:

bas12

Zonnecyclus 24 blijft lager dan enkele jaren geleden voorspeld, hetgeen een voorbode kan zijn voor een koelere periode in het wereldklimaat. Van Geel noemde dit het grootste experiment dat momenteel gaande is.

bas13

De globale temperatuur op aarde stijgt al meer dan een decennium niet meer. Niemand weet welke kant hij opgaat, maar als de invloed van de zon groter is dan die van CO2 is de mogelijkheid van afkoeling groot.

bas14

Toen enkele jaren geleden de  opwarming van de aarde niet meer vol te houden was door klimaatalarmisten heeft men stilletjes het begrip klimaatopwarming vervangen door klimaatverandering. Een pleonasme lijkt me. Als blijkt dat afkoeling ons deel wordt (wat ik niet hoop) dan staat ons een nieuwe strategie van de klimaatalarmisten te wachten:

bas15

 

Wereld

Met Office in Groot Brittannië geeft  toe dat de globale temperatuur al 15 jaar lang niet meer gestegen is, en dat we zelfs toe lijken te gaan naar een koelere periode als gevolg van afnemende zonne-activiteit. Voor de lezers van deze site geen nieuws, voor het grote publiek wel. Hieronder het bericht uit de Mail Online :

Forget global warming – it’s Cycle 25 we need to worry about (and if NASA scientists are right the Thames will be freezing over again)
• Met Office releases new figures which show no warming in 15 years

By David Rose

The supposed ‘consensus’ on man-made global warming is facing an inconvenient challenge after the release of new temperature data showing the planet has not warmed for the past 15 years. The figures suggest that we could even be heading for a mini ice age to rival the 70-year temperature drop that saw frost fairs held on the Thames in the 17th Century.

Based on readings from more than 30,000 measuring stations, the data was issued last week without fanfare by the Met Office and the University of East Anglia Climatic Research Unit. It confirms that the rising trend in world temperatures ended in 1997.

mail online1

A painting, dated 1684, by Abraham Hondius depicts one of many frost fairs on the River Thames during the mini ice age
Meanwhile, leading climate scientists yesterday told The Mail on Sunday that, after emitting unusually high levels of energy throughout the 20th Century, the sun is now heading towards a ‘grand minimum’ in its output, threatening cold summers, bitter winters and a shortening of the season available for growing food.

Solar output goes through 11-year cycles, with high numbers of sunspots seen at their peak. We are now at what should be the peak of what scientists call ‘Cycle 24’ – which is why last week’s solar storm resulted in sightings of the aurora borealis further south than usual. But sunspot numbers are running at less than half those seen during cycle peaks in the 20th Century. Analysis by experts at NASA and the University of Arizona – derived from magnetic-field measurements 120,000 miles beneath the sun’s surface – suggest that Cycle 25, whose peak is due in 2022, will be a great deal weaker still. 

According to a paper issued last week by the Met Office, there is a 92 per cent chance that both Cycle 25 and those taking place in the following decades will be as weak as, or weaker than, the ‘Dalton minimum’ of 1790 to 1830. In this period, named after the meteorologist John Dalton, average temperatures in parts of Europe fell by 2C. However, it is also possible that the new solar energy slump could be as deep as the ‘Maunder minimum’ (after astronomer Edward Maunder), between 1645 and 1715 in the coldest part of the ‘Little Ice Age’ when, as well as the Thames frost fairs, the canals of Holland froze solid.

mail online2

Yet, in its paper, the Met Office claimed that the consequences now would be negligible – because the impact of the sun on climate is far less than man-made carbon dioxide. Although the sun’s output is likely to decrease until 2100, ‘ This would only cause a reduction in global temperatures of 0.08C.’ Peter Stott, one of the authors, said: ‘Our findings suggest a reduction of solar activity to levels not seen in hundreds of years would be insufficient to offset the dominant influence of greenhouse gases.’
These findings are fiercely disputed by other solar experts. ‘ World temperatures may end up a lot cooler than now for 50 years or more,’ said Henrik Svensmark, director of the Center for Sun-Climate Research at Denmark’s National Space Institute. ‘ It will take a long battle to convince some climate scientists that the sun is important. It may well be that the sun is going to demonstrate this on its own, without the need for their help.’
He pointed out that, in claiming the effect of the solar minimum would be small, the Met Office was relying on the same computer models that are being undermined by the current pause in global-warming.

CO2 levels have continued to rise without interruption and, in 2007, the Met Office claimed that global warming was about to ‘come roaring back’. It said that between 2004 and 2014 there would be an overall increase of 0.3C. In 2009, it predicted that at least three of the years 2009 to 2014 would break the previous temperature record set in 1998.

mail online3

So far there is no sign of any of this happening. But yesterday a Met Office spokesman insisted its models were still valid. ‘ The ten-year projection remains groundbreaking science. The period for the original projection is not over yet,’ he said. Dr Nicola Scafetta, of Duke University in North Carolina, is the author of several papers that argue the Met Office climate models show there should have been ‘steady warming from 2000 until now’. ‘ If temperatures continue to stay flat or start to cool again, the divergence between the models and recorded data will eventually become so great that the whole scientific community will question the current theories,’ he said.

He believes that as the Met Office model attaches much greater significance to CO2 than to the sun, it was bound to conclude that there would not be cooling. ‘ The real issue is whether the model itself is accurate,’ Dr Scafetta said. Meanwhile, one of America’s most eminent climate experts, Professor Judith Curry of the Georgia Institute of Technology, said she found the Met Office’s confident prediction of a ‘negligible’ impact difficult to understand.
‘ The responsible thing to do would be to accept the fact that the models may have severe shortcomings when it comes to the influence of the sun,’ said Professor Curry. As for the warming pause, she said that many scientists ‘are not surprised’.

mail online4

She argued it is becoming evident that factors other than CO2 play an important role in rising or falling warmth, such as the 60-year water temperature cycles in the Pacific and Atlantic oceans. ‘ They have insufficiently been appreciated in terms of global climate,’ said Prof Curry. When both oceans were cold in the past, such as from 1940 to 1970, the climate cooled. The Pacific cycle ‘flipped’ back from warm to cold mode in 2008 and the Atlantic is also thought likely to flip in the next few years .

Pal Brekke, senior adviser at the Norwegian Space Centre, said some scientists found the importance of water cycles difficult to accept, because doing so means admitting that the oceans – not CO2 – caused much of the global warming between 1970 and 1997. The same goes for the impact of the sun – which was highly active for much of the 20th Century. ‘ Nature is about to carry out a very interesting experiment,’ he said. ‘ Ten or 15 years from now, we will be able to determine much better whether the warming of the late 20th Century really was caused by man-made CO2, or by natural variability.’ Meanwhile, since the end of last year, world temperatures have fallen by more than half a degree, as the cold ‘La Nina’ effect has re-emerged in the South Pacific. 

‘ We’re now well into the second decade of the pause,’ said Benny Peiser, director of the Global Warming Policy Foundation. ‘ If we don’t see convincing evidence of global warming by 2015, it will start to become clear whether the models are bunk. And, if they are, the implications for some scientists could be very serious.’

Read more here.


Globale temperatuur afgelopen 15 jaar.

In de paragraaf over De Bilt toonde ik het verloop van de gemiddelde maandelijkse temperatuur in De Bilt gedurende de afgelopen 15 jaar. Er is in die periode geen sprake van opwarming. Alarmisten hebben er een handje van om deze informatie te negeren en liever gewag te maken van een of andere record dat gebroken dan wel bijna gebroken is. In een min of meer vlak verlopende temperatuurtrend zoals die van de afgelopen 15 jaar is elk piekje naar boven natuurlijk al snel een ‘record’.
Een ongepland ‘voordeel’ van de periode 1997-2011 is dat het super-El Niñojaar 1998 in de reeks zit. Zou de reeks begonnen zijn op het hoogtepunt van genoemde El Niño dan zou ik al gauw beschuldigd worden van cherry-picking. Maar is het bekijken van slechts 1 meetstation ook niet een vorm van cherry-picking? Natuurlijk wel als je daarmee algemene opmerkingen over bijvoorbeeld het verloop van de globale temperatuur zou maken, dat mag uiteraard niet.

hadcrut 1997 2011
Nieuwsgierig geworden naar het globale verloop sinds 1997 ging ik op zoek in de onvolprezen KNMI Climate Explorer. Bovenstaande grafiek geeft het verloop weer van die globale temperatuur sinds 1997 volgens HadCRUTv3 (anomalie). De zwarte lijn is de lineaire trendlijn voor de gegeven periode januari 1997 – oktober 2011. Die trendlijn stijgt in 15 jaar 0,02 °C, een te verwaarlozen afwijking.

Omdat 71% van het aardoppervlak uit water bestaat is de zogenaamde SST , sea surface temperature, van groot belang voor de temperatuur van de onderste troposfeer. Bob Tisdale houdt al sinds jaar en dag de SST bij.

sst13Bron: Bob Tisdale

Zoals te zien is lijkt de SST erg veel op de temperatuurreeks van HadCRUTv3. In beide reeksen zijn de El Niño en La Niñafasen erg duidelijk te herkennen.

Conclusie: er is de afgelopen 15 jaar sprake van een steady state voor wat betreft de temperatuur aan het aardoppervlak. Als we de meest recente grafiek van Roy Spencer erbij halen zien we die afvlakking ook mooi. Het betreft de temperatuur in de onderste troposfeer, op basis van satellietmetingen en bewerkt door de Universiteit van Alabama Huntsville.

spencer19

Spencer wijst er overigens op dat de door hem ingevoerde ‘trendlijn’ niet mag worden gebruikt om te voorspellen wat de temperatuur de komende jaren gaat doen.

 


Hoe heeft de  gemiddelde temperatuur op aarde zich het afgelopen decennium ontwikkeld?

 

Een interessante vraag, zeker gezien de alarmerende voorspellingen van het IPCC enkele jaren geleden. Op 28 december 2010 heb ik het volgende statement uit een persbericht van MeteoVista/weeronline.nl  aan de orde gesteld: “Nederland warmt ongeveer twee keer zo snel op als het mondiale gemiddelde. Het is in 10 jaar tijd gemiddeld 0,42 graden warmer geworden.”

Trouwe lezers hebben toen met eigen ogen kunnen aanschouwen dat van die vermeende 0,42 °C opwarming van ons land in het afgelopen decennium helemaal niets overbleef. De Bilt vertoont zelfs al 14 jaar lang geen opwarming meer. Een schokkend amateuristische interpretatie van klimaatgegevens door 2 medewerkers van MeteoVista was de oorzaak. Maar hoe zit het nu met de opwarming van de aarde als geheel? Volgens diezelfde onderzoekers is de aarde  tussen 1 januari 2001 en 31 december 2010 ongeveer 0,2 °C opgewarmd.  Klopt dat? Nu alle grote klimaatorganisaties die zich bezighouden met het berekenen van de globale temperatuur hun rekenwerk gedaan hebben kunnen we de resultaten bekijken:

giss 2001 2010 glob                                            Bron: GISS NASA         base period: 1951-1980      temp.tendens:  + 0,152 °C

ncdc 2001 2010 glob                                Bron: NCDC NOAA         base period:  1901-2000         temp.tendens:     + 0,013 °C 

 

hadcrut 2001 2010 glob                                   Bron: HadCRUT3v           base period:  1961-1990       temp.tendens:   – 0,052 °C 

rss 2001 2010 glob                                    Bron: RSS MSU         base period:  1979-1998        temp.tendens:    + 0,032 °C


uah 2001 2010 glob
                                         Bron: UAH           base period:  1981-2010         temp.tendens:    + 0,089 °C 


In alle grafieken gaat het niet om absolute temperaturen, maar om anomalieën, afwijkingen in °C  ten opzichte van een bepaalde referentieperiode. Die betreffende periode is onder elke grafiek aangegeven als “base period”.  De blauwe lijn geeft het verloop van de maandgemiddelden weer in de periode 1 januari 2001 t/m 31 december 2010.   De zwarte lijn is de zogenaamde lineaire trendlijn, de lijn die aangeeft in welke mate de temperatuur in de aangegeven periode van 10 jaar is veranderd, dus wat de temperatuurtendens is in dit decennium.

Wat direct opvalt is dat er geen enkele grafiek de 0,2 °C stijging haalt die MeteoVista gebruikt in haar persbericht. Zelfs GISS NASA, die van de betrokken organisaties veruit de sterkste opwarming vertoont, haalt net een stijging van 0,15 °C. De andere organisaties halen waarden die net boven 0 zitten, HadCRUT berekent zelfs een hele lichte afkoeling het afgelopen decennium. Kortom: de afwezigheid van enige opwarming in Nederland wijkt nauwelijks af van wat de meeste van de organisaties voor de wereldtemperatuur hebben berekend.

De eerste 3 grafieken zijn gebaseerd op thermometermetingen, de laatste 2 op satellietgegevens. Hoe zijn nu de verschillen tussen de diverse grafieken te verklaren? Allereerst omdat de referentieperiodes van de orgasnisaties onderling verschillen. Maar er zijn nog meer factoren. Om met de satellietgegevens te beginnen: Zowel RSS als UAH maken gebruik van dezelfde data van dezelfde satelliet. Een gemiddelde wereldtemperatuur per tijdseenheid levert zo’n satelliet echter niet, die moet berekend worden uit een enorme hoeveelheid cijfers. En die wijze van berekenen verschilt tussen beide organisaties, en daarmee ook de uitkomsten van de temperatuurreeksen.

Voor wat betreft de eerste 3 grafieken, die gebaseerd zijn op thermometermetingen, ontstaan merkwaardigerwijs ook  verschillen. Hoe kan dat? In de eerste plaats zijn de meetnetten niet helemaal gelijk. Er zijn veel meer meetstations dan die gebruikt worden voor het berekenen van de globale temperatuur. De keuze welke meetstations wel gebruikt worden en welke niet heeft invloed op de uitkomst. Daar is al veel over geschreven de afgelopen jaren.

Bovendien dekken de meetstations slechts een deel van de aarde. Zo zijn de meeste stations te vinden in de rijkere landen, in gebieden met een hoge bevolkingsdichtheid. Andere gebieden leveren daarentegen nauwelijks data. Oceanen zijn daar een goed voorbeeld van , maar ook de poolgebieden, berggebieden en woestijnen leveren zeer spaarzaam data. Elke organisatie heeft zijn eigen methode om de “gaten”  in het meetnet te vullen met geschatte temperaturen. Met name GISS NASA gebruikt daarvoor een methode die niet onomstreden is.

Tenslotte is er de homogenisatie van de ruwe meetgegevens, die tot doel heeft meetfouten als gevolg van bijvoorbeeld meetpuntverplaatsing en UHI-effect te neutraliseren. Niet elke organisatie doet dat op even doorzichtige wijze.  Al diverse malen heb ik over de bizarre homogenisatiemethode van GISS NASA geschreven. Zie  hiervoor het hoofdstuk “De Feiten”, en dan de paragraaf “Meten is Weten” over de merkwaardige wijze waarop GISS bijvoorbeeld de temperatuurreeks van De Bilt homogeniseert.

Op de gegevens van GISS NASA na liggen alle trendlijnen nagenoeg op 0, dus geen verdere opwarming van de aarde de afgelopen 10 jaar. Dat is voor de ontwikkelingen van de temperatuur in de nabije toekomst veel interessanter dan de veel gelezen constatering dat het afgelopen decennium “het warmste sinds 1880”  was.

 

Braziliaanse  meetstations

Zoals bekend hebben stadsklimaten temperaturen die soms wel 3 °C boven die van de direkte omgeving liggen. Oorzaken zijn de vele warmtebronnen (ook metabolische) en de fysische eigenschappen van de bebouwde omgeving.

Hieronder de temperatuurgrafieken van de enige (!) 6 meetstations in Brazilie die meetgegevens hebben vanaf begin vorige eeuw tot na 2004. Kunt U het meetstation er uit halen dat door het Global Historical Climatology Network als enige als “ruraal” (landelijk gelegen) gekenmerkt wordt? Over de uitslag kan niet gecorrespondeerd worden….

brazil

Ook  Nieuw-Zeeland heeft zijn klimaatschandaal

 

Aan de andere zijde van de aardbol is een stevig schandaal ontstaan over de wijze waarop de New Zealand’s National Institute of Water & Atmospheric Research (NIWA) omgaat met temperatuurdata. Daardoor is directeur  David Wratt   van het NIWA in de problemen geraakt.  Wratt was  vice-voorzitter van het  AR4 rapport 2007 van het IPCC.

Hieronder is de officiële grafiek te zien van het NIWA van het temperatuurverloop in Nieuw-Zeeland vanaf 1850. De grafiek lijkt sterk op de grafiek van CRU die de gang van de globale temperatuur vanaf 1850 weergeeft  (zie   “Dogma’s”  onder “Het wordt steeds warmer”).

De opwarming in Nieuw-Zeeland was de afgelopen eeuw zelfs 0,92° C,  opmerkelijk meer dan de  0,6°  a  0,7° C  die voor de gehele wereld wordt aangehouden door het IPCC.

nz1

The New Zealand Climate Science Coalition,  in 2006 opgericht door een aantal verontruste wetenschappers, heeft met behulp van de raw data van de Nieuw-Zeelandse  meetstations een grafiek gemaakt die er heel wat anders uitziet:

nz2

Opmerkelijk, niet? Er is nauwelijks sprake van opwarming. De officiële cijfers blijken te zijn “aangepast”  door het NIWA. Oudere data blijken veelal naar beneden te zijn bijgesteld, terwijl de jongere data omhoog zijn gekrikt.  De tabel hieronder geeft de afwijkingen weer. Bij slechts 1 station zijn de data licht naar beneden bijgesteld, de andere zijn flink opgeschroefd.

nz3

Gevraagd naar het hoe en waarom van de sterke afwijking die de grafiek van het NIVA te zien geeft ten opzichte van de raw data, verklaarde een woordvoerder van NIWA dat de aanpassingen zijn gedaan voor bijvoorbeeld de verplaatsing van een meetpunt. Als voorbeeld gaf hij een verplaatsing van het Wellington meetpunt in 1928 naar een plaats die 122 m hoger ligt dan de oude.

Woordvoerder van NIWA, David Wratt,  vice-voorzitter van het  AR4 rapport 2007 van het IPCC, weigert tot nu toe gegevens te verstrekken over de wijze waarop de “aanpassingen ” van de andere stations zijn gedaan. De New Zealand Climate Science Coalition  merkt op:  “While such an adjustment is valid, it needs to be fully explained so other scientists can test the reasonableness of the adjustment.”

Maar ook over de gegevens  van het station Wellington die het NIWA verstrekte, is men erg ontevreden.  Het lijkt er sterk op dat het NIWA niet de noodzakelijke parallelmetingen heeft verricht om de verplaatsing zonder fouten te kunnen verrichten.
Lees de lopende discussie op de site TBR.cc .
Maart 2010: alweer een warmterecord,  of toch niet?

zon

 

De Volkskrantsite berichtte dat de afgelopen maart de warmste  maand op aarde was sinds 1880. Dat had de krant van de website van NOAA, de  National Oceanic and Atmospheric Administration van de Verenigde Staten  van Amerika.

Pikant detail van het Volkskrantbericht was dat het bijgevoegde plaatje van de zon was, inclusief een prachtige plasma-eruptie (zie bovenstaande foto,  overigens geleend van NASA).

NOAA schreef:  “The world’s combined global land and ocean surface temperature made last month the warmest March on record, according to NOAA. Taken separately, average ocean temperatures were the warmest for any March and the global land surface was the fourth warmest for any March on record. Additionally, the planet has seen the fourth warmest January – March period on record.” Onderstaand plaatje werd er bij afgedrukt.

temp maart 2010 noaa

NOAA beheert data zoals temperatuuranomalieën in het archief van de GHCN, de  Global Historical Climatology Network, dat haar data betrekt van een netwerk van meetpunten over de hele wereld. Althans wat betreft de data op het vasteland.  De data van de rest van de wereld (2/3 van het totale opppervlak, verkrijgt NOAA  van  ERSST,  Extended Reconstruction Sea Surface Temperature. Een andere verstrekker van globale  temperaturen, NASA/GISS, haalt haar data binnen via NOAA. Het zijn dus dezelfde data, maar de NASA/GISS  gebruikt wel haar eigen grafische weergave. Het is even schrikken: maart 2010 de warmste sinds 1880?

Maar dan komt er op 15-4 een bijzonder bericht binnen via de site van luis-in-de-pels Steven McIntyre, van climateaudit.com. Een opmerkzame lezer heeft ontdekt dat de temperatuurdata van Finland op de kaart van NOAA niet kloppen met de in Finland geregistreerde data:  “Well, according to the Finnish Meteorological Institute, March 2010 was colder than usual all over Finland, especially in the northern part. For instance, the mean temperature in Sodankylä was -10.3 °C, which is almost three degrees below the base period 1971-2000 average (-7.5 °C). So the GISS March value for Sodankylä is off by amazing 11.8 °C! Some quality control, please!” .

temp maart 2010 nasa ca

In Finland was het namelijk afgelopen maart bijzonder koud, zelfs voor Finse begrippen. Hoe kon dat? Het antwoord liet niet lang op zich wachten. Dezelfde dag nog verschijnt er op de site van NASA/GISS een berichtje dat de data voor Finland niet klopten.  Die data waren overgenomen van NOAA, en bij vergissing was het minteken verdwenen, zodat de Finse temperaturen veel hoger uitkwamen op de kaarten van NOAA en NASA/GISS dan ze in werkelijkheid waren. NASA/GISS schreef:  “The data shown between 4/13 and 4/15 were based on data downloaded on 4/12 and included some station reports from Finland in which the minus sign may have been dropped. NOAA updated GHCN on 4/13 by removing those data and we updated our displays today. The March 2010 global mean temperature was affected by about 2/100 of a degree Celsius, well below the margin of error (about 15/100 of a degree for monthly global means).” .

Gelukkig,  voor de opmerkelijke warmte van maart 2010 maakte het allemaal niet veel uit schrijft men. Men kan zich evenwel afvragen of de gebruikte data niet andere fouten bevat dan de Finse data, die niet opgemerkt worden door oplettende lezertjes. En de onjuiste data zijn  “removed” en blijkbaar niet gecorrigeerd. Hoe heeft men dan de grids boven Finland opnieuw in kunnen kleuren?  Het antwoord is te vinden in de manier waarop dergelijke kaartjes worden gemaakt.

temp maart 2010 nasa2

Op bovenstaand NASA/GISS-kaartje van de temperatuuranomalieën maart 2010  is de correctie van de “Finland”-fout uitgevoerd met behulp van de statistische methode waarmee dit soort kaarten wordt geproduceerd. Vanwege het feit dat de hoeveelheid meetpunten beperkt is en ruimtelijk ongelijk verspreid,  past men een zogenaamde “smoothing radius” toe. Daarbij gaat men ervan uit dat binnen een afstand van 1200 km van een meetpunt de temperatuur kan worden bepaald op basis van de data van het betreffende meetpunt, met een afnemende betrouwbaarheid met de afstand. Hanssen  heeft in 1999 deze werkwijze beschreven (Hansen et al:  GISS analyses of surface temperature change,  1999, NASA, New York).

Hij schrijft over deze methode: “ … the resulting data set is used to estimate regional temperature change on a grid with 2° x 2° resolution. Stations located within 1200 km of the grid point are employed with a weight that decreases linearly to zero at the distance 1200 km (HL87). We employ all stations for which the length of the combined records is at least 20 years; there is no requirement that an individual contributing station have any data within our 1951-1980 reference period. As a final step, after all station records within 1200 km of a given grid point have been averaged, we subtract the 1951-1980 mean temperature for the grid point to obtain the estimated temperature anomaly time series of that grid point. Although an anomaly is defined only for grid points with a defined 1951-1980 mean, because of the smoothing over 1200 km, most places with data have a defined 1951-1980 mean.  ”

Intussen is die referentieperiode verschoven van 1951-1980 naar 1971-2000. Men kan dus – zeker in Europa met zijn relatief dichte net van meetpunten – met behulp van deze smoothing-methode  toch een volledig “ingekleurd”  kaartje produceren, ook al ontbreken gegevens van een aantal meetpunten. Dat is dus gebeurd met de ontbrekende (lees:  foute)  Finse data.  De kaart die door NOAA is geproduceerd  (zie begin artikel)  heeft dezelfde smoothing-radius als de bovenstaande kaart van  NASA/GISS, namelijk 1200 km.

temp maart 2010 nasa

Op het NASA-kaartje hierboven  zijn ook de maart- anomalieën  weergegeven  , maar dan met een smoothing-radius van 250 km. Wat dat voor gevolgen heeft voor gebieden met een ruimtelijk wijdmazig meetnet  is goed te zien. Grote delen van Canada, Groenland,  Noordelijke IJszee, Afrika, Zuid-Amerika en Antarctica zijn grijs gekleurd:  no data available.

Deze methode van smoothing, die uit statistisch oogpunt bezien niet onomstreden is, krijgt een extra dimensie  als men beziet wat er de afgelopen decennia met het meetnet gebeurd is. Joseph D’Aleo en Anthony Watts schreven daar in 2009 een geruchtmakend artikel over  (Joseph D’Aleo and Anthony Watts: Surface temperature records: policy-driven deception?, 2009, SPPI).

meetstations1

Tussen ongeveer 1970 en 2010 is het aantal meetpunten in het Global Historical Climatology Network  teruggevallen van ruim 6000 tot ongeveer 1500. Op bovenstaande grafiek is die terugval goed te zien. D’Aleo en Watts hebben die sterke vermindering van meetpunten geanalyseerd en kwamen tot de ontdekking dat met name rurale  meetpunten en  meetpunten op hogere breedte het moesten ontgelden. Op de kaartjes hieronder is te zien hoe het netwerk in Canada is uitgedund, vooral op hogere breedten. Vandaar het ontbreken van data op het kaartje met de smoothing-radius van 250 km.

canada1
canada2

En dan is er nog de kwestie van de betrouwbaarheid van oude data. Rond 1900 was het aantal meetpunten in het meetnet van GHCN ongeveer zo groot als momenteel, ongeveer 1500. Maar de geografische spreiding was destijds een stuk onregelmatiger, zoals onderstaande kaartjes laten zien. Grote delen van continenten werden nauwelijks bemeten. Het is daarom uiterst twijfelachtig of op basis van een dergelijk wijdmazig netwerk een “global temperature”  te destilleren valt.

meetnet1
meetnet2
meetnet3

Conclusie: het lijkt me niet onverstandig om het nieuwe “record” (en de records die de komende jaren nog gaan komen) met de nodige scepsis te bekijken. In ieder geval staat één ding vast: de gemiddelde wereldtemperatuur bestaat niet, en is hoogstens een schatting. En aan de wijze waarop die schatting tot stand komt kleven statistische onvolkomenheden en menselijke fouten. Enige terughoudendheid bij harde conclusies over de globale  temperatuuranomalieën van maart is dus op zijn plaats, zeker omdat allerlei factoren van invloed zijn op dergelijke cijfers. Een daarvan noemt NOAA zelf al op haar site: “El Niño weakened to moderate strength in March, but it contributed significantly to the warmth in the tropical belt and the overall ocean temperature. According to NOAA’s Climate Prediction Center, El Niño is expected to continue its influence in the Northern Hemisphere at least through the spring.”. April kan dus ook nog gaan pieken, u bent gewaarschuwd!


Het warmste decennium ooit

Dat was het eerste decennium van deze eeuw volgens NASA-GISS. Althans in de zogenaamde “modern record”, de metingen vanaf 1880. In het hoofdstuk “De Dogma’s”  is onder “Unieke Temperatuurstijging”  al het een en ander geschreven over de temperaturen van vóór 1880. Zoals reeds hiervoor beschreven is NASA-GISS een van de organisaties die trachten de “globale temperatuur”  vast te stellen. Ik schreef op 22-1-2010 al een stukje over de GISS-benadering van de raw data van meetstation De Bilt.  GISS gebruikt daar een bijzonder rare manier van homogenisatie  en heeft dezelfde werkwijze ook toegepast bij een aantal andere Europese meetstations (wellicht bij alle meetstations, maar dat heb ik niet geverifieerd).  Over het homogeniseren van GISS en de wijze waarop men de meetstations heeft geselecteerd later zeker meer.

temp 1880 2010 GISS
De vraag is: is de strekking van het persbericht waar? Als je de GISS-data  betrouwbaar acht, en je ook het GISS-netwerk van meetpunten representatief acht voor het vaststellen van de “globale temperatuur”,  en je akkoord gaat met de methode die GISS hanteert om de data te “globaliseren”,  dan kun je na het bekijken van bovenstaande grafiek niet anders concluderen dan dat het de laatste decennia warmer was dan de periode daarvoor.  Over die homogenisatie die GISS toepast is al het een en ander geschreven. Conclusie voor de GISS-meetreeks van De Bilt van 1880-2010: broddelwerk en onbruikbaar (zie Opmerkelijk 22-1-2010).  Over het meetnetwerk van GISS zijn  op diverse klimaatsites al harde noten gekraakt (zie ook het verschil NH-ZH op bovenstaande grafiek), evenals de methode die GISS toepast om van een beperkt aantal meetpunten een “dekkende” temperatuur te verkrijgen. Laten we eens naar de GISS-data van de laatste 2 decennia kijken:

temp 1990 2010 b

Wat valt op? De trendlijn van het laatste decennium ligt iets vlakker dan die van het voorgaande decennium, maar er is volgens GISS nog steeds sprake van een stijgende globale temperatuur. Interessant wordt het als we de satellietdata van MSU-AMSU erbij pakken (zie hieronder). Niet alleen liggen de satellietmetingen lager dan die van GISS, maar er is ook duidelijk sprake van een trendbreuk. De trendlijn 2000-2010 stijgt nauwelijks meer,  in tegensteling tot  die van 1990-2000.

temp 1990 2010

Op onderstaande grafiek zijn beide meetreeksen weergegeven.

temp 1990 2010 a

Wat is betrouwbaar?  Vooralsnog heb ik de neiging om die van GISS minder betrouwbaar te achten, vanwege het homogenisatie-broddelwerk, het beperkte meetnetwerk en nog wat andere zaken. Laat ik er eens van uitgaan dat de grafiek van MSU-AMSU juist is (ik heb er althans meer vertrouwen in dan in de GISS-grafiek) ,  is dan de kop van het persbericht van NASA-GISS (nog) juist? De satellietmetingen startten in 1979, en van deze periode is het afgelopen decennium zeker de warmste geweest.  Ook andere meetreeksen, die redelijk betrouwbaar geacht worden, geven vanaf 1880 een gemiddeld stijgende trend.  En van 1980 tot 2000 steeg de gemiddelde temperatuur op aarde. Als de periode 1990-2000 een stijgende trend laat zien, en de periode 2000-2010 een vlakke trend, dan is het logisch dat de gemiddelde temperatuur van het laatste decennium hoger ligt dan die van het voorafgaande decennium. Maar is het  interessant dat het jongste decennium de warmste was?  Is het niet veel interessanter om je te verwonderen over de trendbreuk rond 2000?


Collega Jan Ruis uit Delft heeft onlangs een interessante presentatie van zijn hand opgestuurd, waarvan ik u de uitkomsten niet wil onthouden. Het betreft een analyse van het verloop van de globale temperatuur sinds het midden van de 19e eeuw tot heden. U herkent de grafiek wel. Hij is gebaseerd op de dataset HadCRUT3. Het betreft maandelijkse anomalieën (afwijkingen) ten opzichte van een bepaalde referentieperiode.

hadcrut

Deze grafiek werd in het laatste (4e) rapport van het IPCC ‘gebruikt’ om te bewijzen dat er sprake is van een versnelling in de opwarming op aarde:

ipcc grafiek

Het ziet er inderdaad indrukwekkend uit, maar is het juist? Om dat nader te kunnen analyseren moet je de grafiek enigszins manipuleren. Ik bedoel daar uiteraard niet mee op de manier “hide the decline”, maar door de grafiek uiteen te rafelen. In de periode 1856-2011 is een tweetal bewegingen te herkennen, namelijk een oscillerende (golvende) en een stijgende (trend).
jan 4
We gaan ons eerst richten op de oscillerende beweging in het signaal. Om die goed te kunnen onderscheiden van de trend moet je de grafiek ‘detrenden’, de trendlijn horizontaal leggen. Dat doe je door de waarden van de trendlijn af te trekken van de waarden van het signaal. De grafiek komt er dan zo uit te zien:

jan 5
Het toont de golvende beweging in het signaal, zonder dat je ‘last’ hebt van de stijgende trend. Wat is nu de oorzaak van die golfbeweging? Al langer gaat de aandacht uit naar de AMO, de Atlantische Multidecadale Oscillatie. Die zijn we ook al eens tegengekomen in het verhaal over het natter worden van de Sahel (zie onder De Dogma’s: De Sahara groeit). De AMO is een lange serie van veranderingen in de temperatuur van het oceaanwater van de Atlantische Oceaan tussen de evenaar en Groenland. Deze in 1994 ontdekte oscillatie heeft een periodiciteit van gemiddeld 45 jaar. De temperatuurvariatie is niet groot, ongeveer 1°C.

amo1

De AMO wordt al ruim anderhalve eeuw gemeten, maar uit paleoklimatologische onderzoeken is bekend dat het verschijnsel al minstens 1000 jaar werkzaam is. Hieronder is het verloop van de AMO gedurende de afgelopen 1000 jaar weergegeven.

raa1

Bron: Lienke te Raa

De figuur komt uit de studie van Lianke te Raa (IMAU) uit 2006. Zij schrijft:

De oceanen spelen een belangrijke rol in het klimaat. Door de grote warmtecapaciteit van water kunnen de oceanen enorme hoeveelheden warmte opslaan. Deze warmte wordt vervolgens over de hele aarde getransporteerd door de oceaanstromingen. Op andere plaatsen op aarde kan de warmte dan weer worden afgegeven aan de atmosfeer. Een voorbeeld is de Golfstroom, die voor de kust van Florida loopt en dan de Noord-Atlantische Oceaan oversteekt als de Noord-Atlantische Stroming. Het relatief warme water dat door deze stromingen richting West-Europa wordt gevoerd wordt gezien als een belangrijke oorzaak voor het relatief milde klimaat van Noordwest-Europa.

raa2Figuur 1

Ook in de diepzee (dieper dan ongeveer 1500 meter) stroomt het water, al zijn de snelheden daar extreem laag: een typische stroomsnelheid in de diepzee bedraagt enkele centimeters per seconde (tegen enkele tientallen centimeters per seconde tot maximaal 1 meter per seconde voor oppervlaktestromingen). Omdat het echter om zoveel water gaat, is dit transport wel degelijk van belang. Een schematische weergave van de oppervlakte- en diepzeestromingen in alle oceanen (figuur 1) laat zien dat in het noorden van de Noord-Atlantische Oceaan een bijzonder proces optreedt: de oppervlaktestroming ‘verandert’ hier in een diepzeestroming. Door de sterke afkoeling aan het oppervlak van het relatief zoute water dat door de Golfstroom wordt aangevoerd, treedt hier diepe convectie op. Hierbij wordt de hele waterkolom doorgemengd en ontstaat water met een hoge dichtheid, dat vervolgens aan een reis door de diepzee begint. Het koude, zware water stroomt in de diepzee naar de Zuid-Atlantische Oceaan en komt voor een groot deel in de Indische en Stille Oceaan terecht. In tegenstelling tot de atmosfeer komt zulke diepe convectie in de oceaan maar op enkele plaatsen ter wereld voor: naast de Labrador Zee en ten zuiden van Groenland zijn er nog slechts enkele belangrijke gebieden van zogenoemde diepwaterformatie rondom Antarctica.

currieBron: R.Currie
Globale oceaanstromingen zoals geschetst in figuur 1 worden aangedreven door de wind aan het oppervlak en door verschillen in dichtheid van het zeewater. De dichtheid van zeewater wordt bepaald door de temperatuur en het zoutgehalte van het water. Over het algemeen is het (oppervlakte)water op lage breedtegraden warm en zout, terwijl het op hoge breedtegraden koud en zoet is. Temperatuur en zoutgehalte hebben een tegengesteld effect op de dichtheid: hoe warmer, hoe lichter en hoe zouter, hoe zwaarder. Meestal wint het effect van de temperatuur: het zeewater rondom de evenaar is lichter dan dat op hoge breedtegraden. Dit soort dichtheidsverschillen in de oceaan zorgen voor drukverschillen, die op hun beurt stromingen aandrijven. Terwijl het effect van de wind op de oceaancirculatie zich beperkt tot ongeveer de bovenste kilometer (van de gemiddeld zo’n vier kilometer diepe oceaan), spelen stromingen als gevolg van dichtheidsverschillen zich af zowel aan het oppervlak als in de diepzee. Het hier geschetste beeld van de oceaanstromingen is een gemiddelde. De werkelijke stromingen kunnen sterk variëren, met als gevolg dat ook het warmtetransport verandert, evenals de afgifte van warmte aan en opname van warmte vanuit de atmosfeer. Ook de plaatsen waar opname of afgifte van warmte optreedt zijn aan dit soort veranderingen onderhevig. ”

raa3Figuur 5

Over de exacte oorzaken van het ontstaan van de AMO is de Raa resoluut:

Gemiddeld genomen is het zeewater in het noorden kouder dan in het zuiden, waardoor het zeeoppervlak in het noorden iets lager staat dan in het zuiden. De oppervlaktestroming is dan ook noordoostwaarts, terwijl de diepzeestroming vooral zuidwaarts is (zie ook figuur 1). Tijdens de fase waarin de AMO-index positief is, is de temperatuur in het noorden van de Noord-Atlantische Oceaan wat hoger dan gemiddeld. Hierdoor zet de waterkolom wat meer uit, en staat het zeeoppervlak wat minder laag dan gewoonlijk. Als we het verschil met de tijdsgemiddelde situatie bekijken, is er in het noorden dus een hogedrukgebied in de oceaan ontstaan, met een anticyclonale (afwijking van de gemiddelde) stroming als gevolg. De oost-west component van de stroming aan het oppervlak is minder sterk dan gewoonlijk: de afwijking van de tijdsgemiddelde oppervlaktestroming is westwaarts (figuur 5, linker schema).

Er gebeurt echter ook nog wat anders: omdat het zeewater, afgezien van de warme afwijking in het noorden, gemiddeld genomen steeds kouder wordt naar het noorden toe, zal de anticyclonale stromingsanomalie die ontstaat zorgen voor zuidwaarts transport van koud water in het noordoosten. In het noordwesten wordt juist warm water naar het noorden gebracht. Hierdoor schuift het gebied waarin het water abnormaal warm is, naar het westen toe. Dit is precies de westwaartse verplaatsing die we zagen in de computersimulaties.

amo2

Dit brengt ons een kwart periode verder (rechter schema in figuur 5), in de fase waarin de AMO-index overgaat van positief naar negatief. Nu is er met name een zeehoogteverschil in oost-west richting, en aan het oppervlak is er (gemiddeld over de oost-westrichting) een zuidwaartse stromingsanomalie. Omdat de gemiddelde stroming aan het oppervlak noordwaarts is, betekent dit dus een verzwakking van de noordwaartse stroming. Het uit fase zijn van de stroming in noord-zuid en oostwestrichting klopt ook met wat we in de computersimulaties gezien hebben. Weer een kwart periode later is de situatie precies omgekeerd als in het linker schema van figuur 5, met abnormaal koud water, en een cyclonale stromingsanomalie. Ook dit koude water beweegt zicht naar het westen voort, want de cyclonale stroming brengt dan koud water zuidwaarts in de noord-westhoek van het oceaanbekken. Zo kan dit proces blijven doorgaan. De periode van de Atlantische Multidecadale Oscillatie wordt dus bepaald door de snelheid waarmee de koude en warme gebieden in de oceaan westwaarts bewegen. Deze snelheid hangt op zijn beurt weer af van de sterkte van het noord-zuid temperatuurverschil, en van de tijdsgemiddelde stroming. ”

Kort samengevat: de AMO is het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht. De gevolgen van de AMO zijn groot. We hebben al gezien dat de AMO het neerslagregime van de Sahel bepaalt, en de droogtes in Noord-Amerika. En het is bekend dat het invloed heeft op de temperatuur in Europa en Noord-Amerika. Maar strekt de invloed van de AMO zich nog verder uit? Kijk eens naar de figuur hieronder.

jan 7

Hier zijn HadCrut3 en AMO + trend weergeven in 1 grafiek. Een verbazingwekkend goede correlatie, nietwaar? Maar liefst 62% van de variantie in de temperatuur wordt verklaard door de geringe lineaire stijging van 0,5°C per eeuw gecombineerd met de AMO. Kortom: de temperatuurvariatie op aarde wordt voor een flink deel bepaald door de temperatuur van het water van het noordelijk deel van de Atlantische Oceaan.

Een volgende keer kijken we naar de opwaartse trend en of de klimaatgevoeligheid er uit kan worden afgeleid.


Klimaatgevoeligheid

Nog even een opmerking over de misleidende grafiek uit het vierde rapport van het IPCC zoals getoond in de vorige bijdrage. Daarbij was duidelijk sprake van misleiding door gebruik te maken van de opwaartse trend in het AMO-signaal  vanaf 1976. Jan Ruis wijst er terecht op dat hier sprake is van cherry picking, het selecteren van gegevens op een zodanige wijze dat een bepaalde stelling of hypothese ondersteund wordt. De trendlijnen van het IPCC beginnen namelijk alle in een ‘dal’  van de AMO-reeks en eindigen op de piek rond 2005.

ipcc grafiek

Bron:  IPCC

Bij steeds korter wordende trendperiodes betekent dat automatisch dat de kortste (=jongste) periode de steilste trendlijn krijgt . Dat wijst op doelbewust geselecteerde trendlijnen. Als je in de AMO cyclus trendlijnen trekt van dal naar piek krijg je ook een artefact van versnelde opwarming die er natuurlijk niet is in de AMO want die vertoont geen trend. Zie de figuur hieronder.

amo3

En dan nu de klimaatgevoeligheid. In de vorige bijdrage is op basis van de   temperatuurreeks van HadCRUT3 vastgesteld dat de stijging van de globale temperatuur tussen 1856 en 2011 0,048 ºC/ decade was, en dat die trendmatige stijging lineair was.

Nu we de lineaire trend van 0,048 ºC/ decade van de afgelopen anderhalve eeuw te pakken hebben, is het wellicht mogelijk om daaruit de klimaatgevoeligheid ( climate sensitivity) te destilleren. Onder klimaatgevoeligheid verstaan we de verandering van de globale temperatuur als gevolg van een verdubbeling van het C02-gehalte. Zie ook in het menu onder “De feiten”  de paragraaf “CO2 sensitivity”. Hieronder is de klimaatgevoeligheid weergegeven volgens het IPCC (modellen) en diverse onderzoekers.

sens

De variatie van de klimaatgevoeligheid binnen de 20+ klimaatmodellen zoals gebruikt door het IPCC is groot, en loopt van 1,5 ºC  tot meer dan 4 ºC. het IPCC gaat uit van een gevoeligheid van 3 ºC  bij verdubbeling van CO2. Het wordt algemeen aanvaard dat – als alle andere factoren gelijk blijven – de klimaatgevoeligheid ~1,1 ºC is. Elke afwijking van deze waarde in de getoonde tabel is het gevolg van de werking van feeedbacks, met name van bewolking en waterdamp.

Alle door het IPCC gebruikte klimaatmodellen gaan uit van een positieve feedback van bewolking als gevolg temperatuurstijging.  Zoals wel vaker hier en elders beschreven is het gedrag van wolken wellicht de minst begrepen factor in de stralingsbalans van de aarde. Maar ook de aanname dat bij een stijgende temperatuur de relatieve vochtigheid van de troposfeer gelijk blijft is aan kritiek onderhevig, zoals in de studie van Solomon e.a. uit 2010.

Miskolczi, Idso, Lindzen en Spencer komen allen veel lager uit dan de 3 ºC  van het IPCC , en zelfs lager dan 1,1 ºC. Ze zijn dan ook niet populair bij IPCC-adepten. Alle in de tabel weergegeven waarden zijn op indirecte wijze verkregen. Ze zijn de uitkomst van een of meerdere runs van klimaatmodellen, of het resultaat van soms ingewikkelde wiskundige berekeningen, al of niet op basis van satellietgegevens.

Klimaatmodellen definiëren een klimaatgevoeligheid λ die de stralingsforcering ΔF vertaalt naar een verandering van de oppervlaktetemperatuur ΔT:    ΔT= λ ΔF.  De klimaatgevoeligheid λ is 0,8 ºC per Wm-2 stralingsforcering. Een verdubbeling van CO2 van het pre-industriële niveau van 280 ppm naar 560 ppm leidt dan volgens het IPCC tot +3,7 Wm-2 stralingsverandering. Dat leidt volgens het IPCC  inclusief feedbacks tot de temperatuurstijging van 3 ºC .

mauna

De lineaire trend zoals we die hierboven hebben geëxtrapoleerd uit de HadCRUT3 temperatuurreeks kan ook gebruikt worden om de klimaatgevoeligheid te berekenen. Daarvoor moet eerst uitgerekend worden op welk moment de verdubbeling van het CO2-gehalte ten opzichte van de pre-industriële waarde plaats zal vinden. De langste betrouwbare tijdreeks van het atmosferisch CO2-gehalte is die van Mauna Loa op Hawaï, van 1958 tot 2011.  De reeks stijgt exponentieel volgens y= 0,000086x^2 + 0,0066130x + 314,298300. Trekt men deze trend door in de tijd, dan komt  die trendlijn fraai overeen met die van scenario A1B  uit AR4 van het IPCC. In 2073 zou dan sprake zijn van verdubbeling van het CO2-gehalte ten opzichte van dat van het beginjaar van de AMO-reeks in 1856: 572 ppm vergeleken met 286 ppm uit 1856.

ipcc co2

Het scenario A1B uit het IPCC rapport wordt gekarakteriseerd door de volgende kenmerken:
Snelle economische groei
Maximale wereldbevolking van 9 miljard in 2050, daarna afname
Snelle verspreiding van nieuwe technologieën
Toenemende sociale , economische en culturele globalisering
Gebruik van zowel fossiele als niet-fossiele energiedragers

Op onderstaande figuur uit het syntheserapport van het IPCC uit 2007 is te zien dat op basis van de gebruikte klimaatmodellen  de temperatuur in 2090-2099  2,8 ºC zal zijn dan in de periode 1980-1999. Voor een vergelijking met de situatie  van 1850-1899 komt men op een toename van 3,3 ºC. Dat komt overeen met een klimaatgevoeligheid van ongeveer 3 ºC.

a1b

Uitgaande van 2073 voor verdubbeling van het atmosferisch CO2-gehalte en een  lineaire temperatuurtrend van 0,048 ºC/ decade kan men de klimaatgevoeligheid berekenen:

2073 – 1856 = 217 jaar = 21,7 decaden x 0,048 ºC = 1,0  ºC

Of:

ΔT = 1,0 x LOG (572/286) / LOG (2) = 1,0  ºC

In 2073 zou – als de lineaire trend zich voortzet – het dus op aarde gemiddeld 1 ºC warmer zijn dan in 1856. Bij een stijging van de wereldtemperatuur tussen 1856 en 2010  van ~0,7 ºC betekent dit dat vanaf 2010 tot 2073 er nog slechts 0,3 ºC bij komt.

Deze 1 ºC klimaatgevoeligheid is berekend op basis van de gemeten temperatuurwaarden van 1856 tot 2011, en is dus inclusief alle feedbacks!  Als er tussentijds dus geen gekke dingen gebeuren  (verandering in externe forcing bijvoorbeeld) dan is de klimaatgevoeligheid dus zo’n 2/3 lager dan het IPCC veronderstelt. En die door het IPCC voorspelde klimaatgevoeligheid van 3 ºC ( op basis van de gehanteerde klimaatmodellen) is óók inclusief feedbacks.

Zonder feedbacks leidt een verdubbeling van CO2 tot een temperatuurstijging van ~1,1 ºC. Dat betekent dat volgens de hier gepresenteerde klimaatgevoeligheid van 1 ºC de totale feedback 0 tot licht negatief moet zijn.

levitus6

Bron:  Levitus et al

Er is een aantal recente publicaties dat ook op een veel lagere klimaatgevoeligheid uitkomt dan het IPCC. Levitus et al hebben in 2009 gepubliceerd over de warmteopslag  in de bovenste 700 m van de oceanen (Ocean Heat Content) tussen 1955 en 2008. In de tabel hierboven is te zien dat de stijging van de OHC tussen 1969 en 2008 een temperatuurtoename heeft veroorzaakt van 0,168 ºC over 40 jaar.  Dus 0,168/40 levert toename op van 0,042 ºC/decade, een beetje minder dan de berekende trend voor de wereldtemperatuur. Hieruit volgt een klimaatgevoeligheid van 0,9 ºC.

Zoals in de tabel te zien is, is met name de Tchange in het noordelijk deel van de Atlantische Oceaan zeer hoog vergeleken met de temperatuurstijging in de andere oceaanbekkens. In onderstaande figuur van Bob Tisdale is dat goed te zien.

tisdale12

Bron:  Bob Tisdale

Dat laatste is niet zo verwonderlijk als men bedenkt dat de metingen van het OHC beginnen in 1955, tijdens het stijgende been van de AMO. Daardoor wordt de trend van de wereld-OHC  van 0,0073 GJm-2/jaar  ook nog eens overschat. In de bijdrage van 3 augustus j.l. heb ik hier aandacht besteed aan de publicatie van Palmer e.a.. Die toonden aan dat de OHC sinds 2003 geen stijging meer vertoont. Het is dus niet onmogelijk dat de OHC als interne forcing de klimaatgevoeligheid verder zal doen dalen.

Roy Spencer vergeleek de uitkomsten van de Levitus-publicatie met die van 2 klimaatmodellen die door het IPCC worden gebruikt.   IPSL-CM4 is een van de meest gevoelige modellen, NCAR PCM1 is een model met een lage klimaatgevoeligheid. Conclusie: de metingen (Levitus) wijzen op een veel kleinere klimaatgevoeligheid dan de door het IPCC gebruikte modellen hanteren.

spencer17
spencer18

Bron:  Roy Spencer

Spencer en Braswell hebben onlangs een publicatie het daglicht doen zien over natuurlijke variaties in bewolking die de feedback van wolken maskeren. De hypothese is dat gedurende de El Niño en La Niña fasen van de ENSO veranderingen in de gekoppelde oceaan-atmosfeercirculatie de bewolking stuurt. In de reguliere klimaatmodellen gaat men er van uit dat bewolking het gevolg is van verandering  in de stralingsbalans (als gevolg van een toegenomen CO2-gehalte). Over deze kwestie is een interessante polemiek gaande op  http://www.climateaudit.org/ ,  whatsupwiththat.comen http://www.drroyspencer.com/ .

Richard Lindzen van het MIT en Choi van het EWU in Korea hebben dit jaar gepubliceerd over klimaatgevoeligheid.  Hetonderzoek werd gedaan op basis van de  SST-data  (Sea Surface Temperature)   en de TOA  (Top Of Atmosphere) satellietdata  van de ERBE en CERES instrumenten tussen 1985 en 2008. Lindzen en Choi komen op basis van deze meetdata uit op een  klimaatgevoeligheid van 0,7 ºC.

lindzen1

Bron:  Lindzen en Choi

Tot slot nog het volgende: de hier berekende klimaatgevoeligheid van 1 ºC  is de resultante van alle forcings en feedbacks die de temperatuur aan het aardoppervlak bepalen. Professor Cees de Jager et al komen in een publicatie uit 2010 uit op een aandeel van de zon in de recente opwarming  van 0,3 ºC.  Die 0,7 ºC  klimaatgevoeligheid op basis van CO2-verdubbeling van Lindzen en Choi lijkt dus zo gek nog niet.

Temperatuur in De Bilt

De temperatuur in De Bilt is al jaren constant, net zoals overigens de gemiddelde temperatuur op aarde. Dat is opmerkelijk, omdat alle klimaatmodellen deze ‘stand still’  niet hebben voorzien.

Op basis van de gehomogeniseerde maandgemiddeldenvan meetstation De Bilt is bovenstaande grafiek gemaakt. Wat opvalt is dat de zomertemperaturen in 2011 wat achterblijven bij die van de afgelopen jaren. Ook zakt De Bilt heel slapjes de winter in, zeker vergeleken met wat we de afgelopen paar jaar gewend waren.

De zwarte lijn is de lineaire trendlijn voor de weergegeven periode. Zoals te zien is is er al 15 jaar lang geen enkele stijging of daling te bespeuren in De Bilt, terwijl ons toch een fikse opwarming beloofd is. Die vlakke trend van De Bilt komt overigens heel fraai overeen met de globale trend. In de data van BEST (zie oudere items) is de afgelopen 10 jaar geen statistisch significante temperatuurstijging waar te nemen op aarde. De CRU-meetreeks toont al 15 jaar geen opwarming, en de Remote Sensing Systemsversie van de satelliet-meetreeks MSU al 15,6 jaar.

Volgens Ben Santer et al in een recente publicatie tonen de resultaten van hun onderzoek aan dat temperatuurrecords van ten minste 17 jaar lang nodig zijn voor het identificeren van de menselijke effecten op de globale troposferische temperatuur. Kortere geven teveel ruis volgens Santer. Nog eventjes dus. Reinier van den Berg (zie item hieronder) probeerde op de KNAG-dag van 2011 nog een recordjaar voor de temperatuur in Nederland te maken, ter ondersteuning van zijn opwarmingsverhaal. Ik denk dat dat er niet in zit, 2011 past heel netjes in de trend van de afgelopen 15 jaar: géén opwarming.


In de bijdrage van 28 december 2012 beschreef ik al de licht dalende tendens in De Bilt. Dat was opmerkelijk, omdat in november het weerbureau MeteoVista nog een persbericht had rondgestuurd waarin stond dat de temperatuur in Nederland het afgelopen decennium met +0.42 °C zou zijn gestegen.

Zoals in de bijdrage van 28 december al is uitgelegd, heeft MeteoVista de verkeerde conclusies getrokken uit de data van het KNMI. Desondanks namen veel kranten het persbericht klakkeloos over.

Maar het is om nog een andere reden dat de steady state van de temperatuur in De Bilt opvallend is. Op 3 november 2010  publiceerden vrijwel alle dagbladen een bericht met als boodschap: Nederland is het afgelopen decennium ruim 0,4 °C warmer geworden:

vk                                                                                            Bron: Volkskrant
telegraaf                                                                                            Bron: Telegraaf

 

ad                                                                                     Bron: Algemeen Dagblad
De vrijwel identieke berichten waren afkomstig van het ANP, dat op zijn beurt citeerde uit het onderstaande persbericht van MeteoVista/weeronline.nl van 3 november 2010:

meteovista                                                                                         Bron:  MeteoVista
Het hele persbericht is hier te lezen. De vraag is hoe dit te rijmen valt met de grafiek van De Bilt hierboven, die uitkomt op een zeer lichte daling in plaats van de forse stijging van MeteoVista/weeronline.nl. Dat heeft te maken met de wijze van benadering van temperatuurreeksen en wat statistisch goochelen van de onderzoekers van MeteoVista. Ik zal dit nader verklaren. Hieronder ziet u het temperatuurverloop in De Bilt tussen 1-1-1971 en 31-12-2010.

de bilt 1971 2010                                                                                                     Bron: KNMI
Klimaat is het gemiddelde weer berekend over 30 jaar. Dus 1971-2000 is een klimaattijdvak, net zoals 1981-2010; vaste tijdvakken van 3 decennia.  In dit geval vergelijkt men de temperatuurreeksen van de periode 1971-2000 met die van 1981-2010. In bovenstaande grafiek zijn beide klimaatperiodes onderin weergegeven als gekleurde banden.

Een veel gebruikte techniek is dan om elke maand in 3 stukjes van (ongeveer) 10 dagen te knippen, de zogenaamde decaden. Daarna berekent men voor beide klimaattijdvakken voor elke decade de gemiddelde temperatuur, vergelijkt de beide verkregen waarden en berekent het verschil. In onderstaande tabel is een voorbeeld daarvan gegeven voor De Bilt.

decadetemp

Bron: KNMI

In bovenstaand voorbeeld is te zien dat de uitkomsten (verschillen) van alle decades bij elkaar worden opgeteld en gedeeld door 36. In het voorbeeld is de uitkomst 0,367 °C. De vraag is nu: wat zegt dit getal? Is het de afgelopen 10 jaar in De Bilt 0.367 °C warmer geworden? Natuurlijk niet, dat hebben we hierboven gezien. Wat het getal wil zeggen is dat dit het verschil is tussen de gemiddelde temperatuur In De Bilt van de periode 1971-2000 en 1981-2010.

Toch is het verschil tussen MeteoVista (≈  +0,4 °C)  en  Klimaatgek (≈  0 °C ) opmerkelijk. De waarde van MeteoVista wordt natuurlijk niet alleen bepaald door het laatste decennium, al suggereert men dat wel. Dat verschil (≈ +0,4 °C )wordt ook  bepaald door het decennium 1971-1980  dat in het klimaattijdvak 1981-2010 wegvalt.  De gemeenschappelijke decennia van beide klimaattijdvakken zijn die van 1981-1990 en 1991-2000.

Terug nu naar het persbericht van MeteoVista:

Nieuwe klimaatcijfers.  Nederland Op 1 januari worden de gemiddelden van het Nederlandse weer aangepast aan de nieuwe situatie. Het actuele Nederlandse weer wordt dan niet langer vergeleken met de periode 1971 t/m 2000, maar met 1981 t/m 2010. Tijd om de balans op te maken dus – en te kijken hoe in de afgelopen 10 jaar ook het Nederlandse klimaat verschoven is.

Nederland is in 10 jaar tijd flink warmer geworden.  Analyse van duizenden metingen van temperatuur, neerslag, zon en wind laat zien dat het Nederlandse weer flink is veranderd. Verdeeld over dag en nacht en de verschillende seizoenen zijn alle gemiddelde temperaturen flink gestegen – gemiddeld ongeveer 0,42 graden*: Nederland warmt ongeveer twee keer zo snel op als het mondiale gemiddelde. Het is in 10 jaar tijd gemiddeld 0,42 graden warmer geworden.”

De eerste alinea vertelt dat beide klimaattijdvakken met elkaar worden vergeleken.  Maar de crux zit hem natuurlijk in het laatste zinnetje: “Het is in 10 jaar tijd gemiddeld 0,42 graden warmer geworden”.  Ik hoop duidelijk gemaakt te hebben dat dit niet waar is. Sterker nog: het is in de afgelopen 10 jaar in ons land helemaal niet warmer geworden: het is ongeveer even warm/koud gebleven.

Men zou kunnen zeggen dat hier wellicht sprake is van slordige formulering, maar in dit geval  (een persbericht van een groot weerbureau)  zou dat een eufemisme zijn. Interessante vraag is waarom MeteoVista dit bericht de wereld in heeft gezonden. Natuurlijk bekt een zinnetje als “het is in 10 jaar tijd gemiddeld 0,42 graden warmer geworden”  veel beter dan iets in de trant van “de gemiddelde temperatuur van de periode 1981-2010 ligt 0,42 graden hoger dan die van de periode 1971-2000 ”.   Met dat laatste haal je wellicht de kranten niet. Of zou het zo zijn dat men willens en wetens “de opwarming van de aarde”  nog eens onder de aandacht wil brengen, zeker nu het de laatste tijd niet zo opschiet met die opwarming?

Tot slot nog de vraag waarom de kranten het bericht van MeteoVista klakkeloos hebben overgenomen. Ik vermoed dat daar geen kwaadwilligheid achter zit, men heeft wellicht (te veel) vertrouwen in persberichten van bekende weerbureaus. Het persbericht van MeteoVista is een goed voorbeeld van statistisch goochelen, en had natuurlijk nooit klakkeloos gepubliceerd mogen worden.


Er is in de wereld een handvol organisaties die zich bezig houdt met het verzamelen en publiceren van temperatuurdata en –grafieken, zoals HadCRUT, NOAA en NASA/GISS. De eerste is sinds enige tijd onderwerp van polemiek en onderzoek  vanwege de uitgelekte emails (Climategate). De tweede organisatie is enige dagen geleden in opspraak gekomen door een publicatie van klimatoloog Joseph d’Aleo en programmeur Ed Smith, waarover later meer.

Van de derde, NASA/GISS,  wil ik hier enkele grafieken laten zien die het temperatuurverloop betreffen van ons eigen De Bilt vanaf 1881. Alle drie genoemde organisaties houden zich bezig met de berekening en publicatie van het temperatuurverloop op aarde. Die publicaties vormen dan de basis voor publicaties van onder andere het IPCC, het KNMI, en onnoemelijk veel andere organisaties, regeringen, NGO’s en wetenschappers. En die basisgegevens staan al enige tijd onder druk.

Hoe zit het met de basisgegevens van ons eigen De Bilt? In het bericht van 29 december j.l. in deze rubriek heb ik de HadCRUT3 data van De Bilt verwerkt zoals die toen door MET Office in de UK werden vrijgegeven.  Door een Vlaamse bezoeker van deze site (Jan Peirs ) werd ik geattendeerd op de temperatuurreeksen van De Bilt zoals die door  NASA/GISS worden gegeven.

Hieronder ziet u een grafiek met de zogenaamde raw data (thermometergegevens) van de gemiddelde jaartemperaturen van De Bilt:

bilt2a

Opvallend is het tamelijk vlakke verloop van 1881 tot ongeveer 1950, een plotselinge daling van de temperatuur rond 1950 die vlak verloopt tot 1986, dan een snelle stijging van de temperatuur,  en vanaf 1987 weer een vlak verloop van de temperatuur, met 2 uitschieters in 1996  (laag) en 2006 (hoog). Het verloop van de temperatuur vanaf 1987 ligt ongeveer op het niveau van het verloop van 1881 tot 1950.

En dan nu de grafiek met de door NASA/GISS aangepaste  (adjusted) data:

Een opmerkelijk verschil met de raw data uit de eerste grafiek. Wat is er anders?  Allereerst zijn de data tot eind jaren ‘40 naar beneden bijgesteld. Waarom en op welke wijze?  NASA/GISS geeft op zijn website daarover geen uitsluitsel.
Bovendien zijn de data vanaf 1950 naar boven bijgesteld. Ook hier weer de (onbeantwoorde) vraag : waarom en op welke wijze? Bovendien is die laatste aanpassing vreemd:  men zou denken dat de meest recente data van De Bilt  juist naar beneden bijgesteld zouden moeten worden vanwege het toegenomen Urban-Heat-Island-effect .

Het effect van al deze “aanpassingen” is dat er op de tweede grafiek een spectaculaire temperatuurstijging in De Bilt plaats heeft gevonden, die i n de grafiek met de raw data volledig ontbreekt. Toeval?

In de laatste grafiek zijn beide eerste gecombineerd tot een GIF-animatie, om het verschil nog een duidelijk uit te laten komen.

biltani

Het adagium “meten is weten”  gaat in het geval van temperatuurreeksen niet op. Dat is om een aantal redenen het geval. In de eerste plaats betreft het veranderingen in het meten zelf. Gaan we even terug naar de raw data (onbewerkte meetgegevens) van De Bilt door GISS (zie hieronder), dan valt onmiddellijk de sprong in 1950 op.

bilt2a

Die sprong was het gevolg van de verplaatsing van de thermometer van een grote open meethut (de “pagode” ) vlak bij het hoofdgebouw (rood teken) naar een Stevensonhut op een graslandje op zo’n 300m daarvandaan (groen teken).

biltfoto3

Deze verplaatsing heeft dus een temperatuurdaling van ongeveer 1° C tot gevolg gehad! Overigens zijn er in de gegeven periode (vanaf 1881) nog meer veranderingen in  het meten geweest. In 1900 is de meting verplaatst van Utrecht  (nabij de Maliesingel)  naar De Bilt.  Dat heeft merkwaardigerwijs nauwelijks invloed gehad op het temperatuurverloop. Ook kleine veranderingen, zoals  een kleine verplaatsing op het grasveld in 1951 en overschakeling van Stevensonhut naar   schotelhut (1993) hebben blijkbaar weinig invloed gehad op de raw data (KNMI). Wel heeft de verlaging van de Stevensonhut  (1961) een lichte verhoging opgeleverd (KNMI).

screen1     screen2
Het is duidelijk dat “meten is weten” inderdaad niet zomaar opgaat in De Bilt. Maar er zitten nog meer adders onder het gras. Weerorganisaties zoals het KNMI  en GISS passen zogenaamde homogenisaties (adjustments) toe om meetfouten zoals hierboven beschreven te nivelleren. Die homogenisaties zijn niet alleen nodig om verplaatsingen van meetinstrumenten en veranderingen van instrumenten en screens te compenseren, maar ook om het zogenaamde Urban Heat Island-effect (UHI) te compenseren.

bilt3a

De raw data zijn door GISS gehomogeniseerd. Maar op welke wijze? Hansen geeft een kijkje in de homogenisatiekeuken van GISS (Hansen et al.: GISS analyses of surface temperature change, 1999, NASA Goddard Institute for Space Studies, New York). Allereerst compenseert GISS het UHI-effect  door de periode vóór 1950 te homogeniseren en de periode na 1950 te homogeniseren.  De gehanteerde methode daarbij is de hellingcorrectie  ( “ramp”) , dus een in de tijd geleidelijke correctie. Om het UHI-effect te corrigeren lijkt deze methode hanteerbaar, hoewel het urbanisatietempo uiteraard nergens lineair is. Daarom hanteert het GISS het jaar 1950 als herijkpunt om de hellinghoek van de correctie aan te passen. Het KNMI hanteert een UHI-effect correctie van 0,11° C per eeuw (KNMI).

Hansen:  “The slopes of the two straight line segments are chosen to minimize the weighted-mean root-mean-square difference of the urban station time series with the time series of nearby rural stations. An adjusted urban record is defined only if there are at least three rural neighbors for at least two thirds of the period being adjusted. All rural stations within 1000 km are used to calculate the adjustment, with a weight that decreases linearly to zero at distance 1000 km.”

Die homogenisatie van de De Bilt-cijfers op basis van deze GISS-methode wordt bemoeilijkt ( zie onderstaande tabel  GISS) vanwege het ontbreken van rurale stations  met een doorlopende meetreeks binnen een straal van 450 km van De Bilt. Het dichtstbijzijnde bruikbare rurale station is Hohenpeissenberg in Beieren, op ruim 600 km afstand van De Bilt.

gissrural
Bron: NASA/GISS

Wat heeft GISS gedaan met de temperatuursprong van 1950 toen het meetpunt werd verplaatst en de temperatuur met ongeveer 1° C zakte?  GISS heeft hierop blijkens de gehomogeniseerde grafiek geen stapcorrectie toegepast zoals van Engelen en Nellestijn   (voortzetting Labrijnreeks) wel hebben gedaan, maar hanteert voor de correctie van de 1950-sprong de reeds genoemde hellingcorrectie. GISS geeft -afgezien van het algemene verhaal van Hansen- geen inzage in de gebruikte correctiemethode, zodat deze afgeleid moet worden van de voorhanden zijnde temperatuurreeksen. Hieronder zijn diverse correcties weergegeven   (bron:Hans Erren).

erren1

 

Door het hanteren door GISS van die hellingcorrectie wordt de correctie over een langere periode “uitgesmeerd” , wat het temperatuurverloop “vervuilt”. Jan Peirs heeft wat noeste huisarbeid verricht met de volgende grafieken:

jan1

GISS adjusted ligt tussen 1900 en 1950 veel hoger dan de gehomogeniseerde Labrijnreeks. Ook tussen 1960 en 2000 ligt de GISS reeks hoger dan de Labrijnreeks. Pas in het afgelopen decennium worden de verschillen  kleiner. Heel interessant is onderstaande grafiek :

jan2

Door de raw data van de GISS adjusted data af te trekken krijgen  we inzicht in de hellingcorrecties die GISS toepast. Wat opvalt is dat er geen sprake is van een bilineaire correctie op UHI zoals beschreven door Hansen (zie hierboven). In de tweede plaats is er vanaf ongeveer 1980  een correctie toegepast op de hellingcorrectie zoals die door GISS sinds 1875 werd gebruikt. Die recente correctie is niet te zien in de figuur van Erren hierboven, waarschijnlijk als gevolg van het feit dat Erren destijds (2007) data gebruikte tot 2000. De correctie van GISS lijkt dus van latere datum. Die recente correctie komt overeen met die van Steve McIntyre  over dit onderwerp.

Voorlopige conclusies :
1)   GISS maakt merkwaardigerwijze geen gebruik van de kennis en data zoals die in Nederland aanwezig is over de temperatuur in De Bilt. Daardoor ontstaan fouten.
2)   De Labrijn-reeks  wordt algemeen gezien als een betrouwbare temperatuurreeks. De gecorrigeerde temperatuurreeks  van GISS ligt tussen 1900 en 2000 vrijwel voortdurend hoger dan de Labrijn-reeks, gemiddeld ongeveer 0,5° C. De temperatuurgegevens van GISS voor De Bilt zijn derhalve onbetrouwbaar.

Hoe betrouwbaar zijn de GISS-data van andere stations?


GISS creëert nogmaals extra opwarming in De Bilt

GISS Nasa, een van de 3 instituten die voor u en mij de opwarming van de aarde bijhouden, heeft  ergens in 2010 gemeend de temperatuurdata van De Bilt te moeten bijstellen. Dat weet ik niét vanwege een publicatie of persbericht van GISS,  dat instituut zwijgt in alle talen. Gelukkig hebben we overal kritische mensen die het klimaat volgen, zodat tegenwoordig weinig meer verborgen blijft.

Wat heeft men bij GISS gedaan? Zoals u wellicht nog weet heb ik in januari 2010 de temperatuurreeksen van De Bilt  onder de loep genomen, zoals die destijds door GISS zijn gepubliceerd. In de paragraaf Meten is Weten in het hoodstuk De Feiten  kunt u dat terugvinden.  Hieronder staat de temperatuurreeks uit januari 2010. De reeks loopt van 1880 tot 2009, en is gehomogeniseerd.

bilt3a

Homogenisatie is een techniek waarbij de ruwe meetdata (thermometergegevens) worden bijgesteld.  Dat is nodig als bijvoorbeeld een thermometer gedurende de meetperiode verplaatst is, wat in De Bilt het geval was. Ook houdt een goede homogenisatie rekening met UHI, het Urban Heat Island effect. GISS houdt er een hele vreemde manier van homogenisatie op na.  De hoofdlijnen van die techniek zijn wel omschreven, maar het protocol is in details volkomen duister. Om een idee te geven wat homogenisatie betekent voor de temperatuurreeks van De Bilt is hieronder een animatie te zien, waarbij de ruwe meetgegevens van De Bilt  vergeleken zijn met de gehomogeniseerde gegevens van GISS in januari 2010.    Duidelijk is te zien dat het effect van homogenisatie is dat de temperatuurreeks een veel steiler verloop krijgt. Een eventuele opwarming in De Bilt wordt door deze homogenisatie behoorlijk geaccentueerd.

biltani

Verbazing was er toen mij onlangs werd gewezen op het feit dat GISS tussen januari en oktober 2010 de homogenisatie van de temperaturen van De Bilt weer flink heeft opgeschud. Hieronder is een animatie te zien van die nieuwe ingreep in de reeks. Vergeleken worden de gehomogeniseerde temperaturen van De Bilt volgens GISS van januari 2010 en van oktober 2010. Alle gemiddelde jaartemperaturen tussen 1880 en 2006 werden in stappen naar beneden bijgesteld. De data vanaf 2007 zijn gelijk gebleven. Zoals op de animatie hieronder te zien is, wordt hierdoor de opwarming van De Bilt nog sterker geaccentueerd dan in de grafiek van januari.

biltani3

De verschillen tussen beide reeksen lopen in sommige jaren op tot wel 1° Celsius.  En dan te bedenken dat de hele discussie over de opwarming van de aarde gaat over een toename van 0,8 graden vanaf 1850! Ik was uiteraard nieuwsgierig naar de reden voor deze drastische bijstelling, maar de update-site van GISS Nasa zwijgt daarover in alle talen. Op een vriendelijke email van mijn kant om meer informatie werd tot  heden niet gereageerd.  Overigens is het wel pikant dat GISS in oktober 2010  (of wellicht eerder)  al een gemiddelde temperatuur voor 2010 in De Bilt heeft : 9,36 ° Celsius. GISS blijkt dus de jaartemperatuur voor De Bilt op 2 decimalen nauwkeurig  te kunnen inschatten  maanden voordat het jaar 2010 voorbij is!

Op onderstaande grafiek zijn beide gehomogeniseerde reeksen van elkaar afgetrokken om zo zicht te krijgen op de nieuwe correcties, met dank aan Jan Peirs:

jan3

Vergeleken met de data van januari  zijn vrijwel alle jaargemiddelden fors naar beneden bijgesteld. Het is onduidelijk waarom dat is gedaan.  Zoals reeds geconstateerd in de bijdrage van januari j.l. wijkt de GISS-reeks sterk af van de zogenaamde Labrijnreeks die van het KNMI afkomstig is.  In januari 2010 hebben we het verschil tussen de GISS-reeks en de Labrijnreeks in de volgende grafiek uitgedrukt:

jan1

De GISS-reeks zat toen grotendeels boven de Labrijnreeks, met uitschieters tot + 1,3 graden.  Om er achter te komen of GISS wellicht haar data heeft gestroomlijnd op basis van de Labrijnreeks heb ik hieronder het verschil aangegeven tussen de Labrijnreeks en de nieuwe GISS-data. Zoals te zien is zit de GISS-reeks nu grotendeels onder de waarden van Labrijn, met uitschieters tot -1,3 graden verschil.

lab min giss1

Tot slot nog even een animatie van het hele proces, dus van 1) de werkelijke thermometerdata  (raw combined) ,  2)  de gehomogeniseerde reeks in januari 2010  en tenslotte  3) de opnieuw gehomogeniseerde reeks in oktober 2010 :

biltani4

Conclusies:

GISS rommelt maar wat met de temperatuurreeksen.  Na de recente bijstellingen wijkt de GISS-reeks  nog steeds sterk af van de Labrijnreeks, maar nu naar beneden. Bovendien heeft men de gemiddelde temperatuur voor De Bilt al opgenomen ruim voordat het jaar voorbij is.  GISS zelf geeft geen openheid van zaken over de gehanteerde methoden en motieven. Ik kan niet anders stellen dan dat de betrouwbaarheid van de GISS-data voor De Bilt in mijn ogen eerder is afgenomen dan toegenomen.

De data van Ukkel in België zijn op soortgelijke wijze dit jaar opnieuw “aangepast”, dus ik denk dat veel meetstations onlangs door GISS onder handen zijn genomen. Wetenschappers gebruiken dagelijks deze data van GISS , en op basis van dezelfde data bepalen politici hun beleid. Gezien het volkomen gebrek aan transparantie over de gehanteerde methoden en motieven lijkt mij dat een gevaarlijke en ongewenste situatie. Nou ja, ongewenst…. wellicht is dat het juiste woord niet. Door de recente forse  bijstellingen wordt de opwarming van De Bilt immers sinds 1880 nog sterker geaccentueerd.


Nogmaals de temperatuur in De Bilt

In de vorige bijdrage heb ik aandacht besteed aan de opmerkelijke homogenisatie die GISS dit jaar heeft toegepast op (o.a.) de temperatuurreeks van De Bilt.  In deze bijdrage ga ik nader in op de manier waarop het KNMI de temperatuurgegevens van De Bilt benadert. Ook het KNMI ontkomt niet aan het homogeniseren van de ruwe meetdata. Homogeniseren is noodzakelijk omdat er in de loop van de meetreeks veranderingen plaatsvinden die van invloed zijn op  de temperatuurmeting.  Men kan dan denken aan de verplaatsing van meetinstrumenten, het wisselen van meetinstrument, veranderingen in de directe begroeide en bebouwde omgeving , en het oprukkende UHI  (urban  heat island).

Het KNMI heeft in de temperatuurreeks van De Bilt op een aantal momenten dergelijke inhomogeniteiten gehad:

1)  1950:  de verplaatsing van de thermometer van de meetplaats nabij het KNMI-gebouw naar een open veldje 300m verderop
2)  1950:  de gelijktijdige verandering van een open hut naar een Stevensonhut
3)  1951:  de verplaatsing van de Stevensonhut op het meetveldje
4)  1961:  de verlaging van de Stevensonhut van 2,2m hoogte naar 1,5m hoogte
5)  1993:  de verandering van Stevensonhut naar schotelscreen
6)  2009:  de verplaatsing van de thermometer over een afstand van 200m op het meetveldje  als gevolg van opgroeiende bomen
7)  De opwarming van het meetpunt als gevolg van het UHI-effect door oprukkende verstedelijking van Utrecht, De Bilt en Zeist. Het KNMI gaat uit van een UHI effect van 0,11° C/eeuw.

Met name de inhomogeniteiten met betrekking tot ad 1) en 6) hebben grote invloed gehad op de temperatuur. De verplaatsing van de thermometer in 1950 van de open pagodehut nabij het KNMI-gebouw naar de Stevensonhut op het meetveldje  introduceerde een meetfout van ongeveer 1° C naar beneden.   Maar ook het kleine schandaal vanwege de niet gemelde verplaatsing van de thermometer in 2009 had een niet gering effect: op zonnige dagen werd in de “oude”  situatie een extra opwarming opgewekt tot 0,5 ° C als gevolg van opschietende bomen.  Bedenk hierbij dat de globale opwarming sinds 1880 gaat over 0,8° C !

De gevoeligheid voor ogenschijnlijk onbetekenende lokale omstandigheden kan groot zijn. In een studie naar de verschillen tussen diverse temperatuurmeetsystemen ontdekten Bandsma en Können dat bij sneeuwbedekking en geringe windsnelheid de uitleesverschillen van diverse systemen wel tot 8° C konden oplopen.

knmi raw adj

Hierboven ziet u een grafiek waarop zijn afgebeeld de ruwe meetgegevens van de temperatuur van 1901 tot 2009, en de door het KNMI gehomogeniseerde meetgegevens. Duidelijk is te zien dat de homogene reeks veel minder sterk afwijkt van de ruwe data dan de gehomogeniseerde rees van GISS (zie bijdrage van 8 oktober j.l. hieronder).
Dat de verschillen in homogenisatie  tussen  het KNMI en GISS aanmerkelijk zijn  is te zien als de beide gehomogeniseerde temperatuurreeksen in een grafiek zetten, zoals hieronder:

knmi giss adj

Duidelijk is te zien dat de homogenisatietechnieken die GISS toepast tot gevolg hebben dat er een  stijgende trend te zien is vanaf 1901 tot 1950, en vanaf de jaren ’50 een verdere stijging tot heden.  De gehomogeniseerde KNMI-reeks laat een vrijwel vlak verloop van de temperatuur zien tot midden jaren ’80 van de vorige eeuw, waarna er een sprong omhoog volgt gevolgd door een vrijwel vlak verloop van de temperatuur tot heden.  De gemiddelde temperaturen tot nu toe in het huidige jaar 2010 versterken die laatste trend.

Wat kan men hier nu uit concluderen? Mij lijkt de gehomogeniseerde reeks van het KNMI betrouwbaarder dan die van het GISS, en wel om de volgende redenen:

–  de gehomogeniseerde reeks van het GISS wijkt ongelooflijk sterk af van de ruwe data
–  de gebruikte methode van homogenisatie is bij het GISS onduidelijk
–  GISS updates van homogenisaties vinden plaats zonder enig bericht en zonder toelichtende informatie
–  GISS extrapoleert het UHI-effect op basis van volstrekt ongeloofwaardige vergelijkingen met ver afgelegen rurale meetstations.
–  de GISS reeks laat voor de meest recente data  geen UHI effect zien in de gehomogeniseerde data

Hans Labohm heeft al meerder malen geschreven over ongeloofwaardige homogenisaties, zoals die in Nieuw Zeeland,Kiwigate genoemd. Er zijn veel meer van dergelijke “aanpassingen”  van ruwe meetdata, en ze hebben alle hetzelfde effect, namelijk een versterking van de opwarming van de aarde. Het wordt tijd dat er een grootschalig onderzoek komt naar de betrouwbaarheid van temperatuurreeksen van instituten zoals GISS Nasa en Hadcrut.  Maar Kiwigate leert dat ook sommige landelijke  weersinstituten vrolijk hebben meegedaan in die papieren opwarming van de aarde.


De Bilt revisited deel 1

Het KNMI heeft onlangs een rapport van de hand van Theo Brandsma uitgegeven, dat een beschrijving geeft van een locatieonderzoek van een aantal meetpunten in De Bilt tussen 2003 en 2005. Dat onderzoek leverde interessante informatie op. Over dit rapport de volgende keer meer. Om een en ander in perspectief te plaatsen gaan we even terug naar een onderwerp dat vorig jaar al eens aan de orde was: de temperatuurreeks van De Bilt, de gevolgen van verplaatsing van meetpunten en de gebruikte homogenisatietechnieken.

Ruimtelijke verplaatsing van een meetpunt in een meteorologisch meetnet kan vervelende gevolgen hebben. Bijna altijd ‘gebeurt’ er wat met het signaal dat gemeten wordt: er ontstaat een sprongetje in de tijdreeks.

bilt2a
Bron: GISS/KNMI

biltfoto3
Verplaatsing van meetpunt 260 van rode naar groene pijl in 1950

De meest opmerkelijke in ons land was de verplaatsing van het meetpunt in De Bilt in 1950. Hierboven ziet u de verplaatsing van de Stevensonhut van een plek vlakbij het hoofdgebouw van het KNMI naar een open grasveld zo’n 300m verderop. De temperatuurreeks ( boven de foto ) daalde met ongeveer 1°C. Als men bedenkt dat de globale temperatuurverhoging in de 20e eeuw 0,6 °C is geweest (bron: HadCRUT, KNMI), dan is duidelijk dat de betrouwbaarheid van meetgegevens cruciaal is.

In 1961 is de Stevensonhut (zoals alle meetpunten in ons land ) verlaagd van 2m. naar 1.50 m. Dat had in De Bilt een lichte verhoging van de temperatuur tot gevolg. De vervanging van de Stevensonhut in 1993 door een schotelhut had nauwelijks invloed.

Inhomogeniteiten die ontstaan door bijvoorbeeld verplaatsingen of verlagingen van meetpunten dienen gecorrigeerd te worden. Dat doet men vaak door de meetreeks van het betreffende station te vergelijken met die van nabijgelegen stations. Vaak ook zorgt men bij een verplaatsing voor een overlappingsperiode van de oude en de nieuwe meetplaats, zodat de oude meetplaats de nieuwe calibreert. Men zou er dan van uit moeten gaan dat de ‘oude’ meetreeks correct is.

Inhomogeniteiten in de meetreeks van De Bilt zijn van extra groot belang. Niet alleen is de meetreeks van De Bilt een van de oudste ter wereld, maar zij wordt ook gebruikt door grote organisaties zoals GISS/NASA, die zich bezig houden met de berekening van de globale temperatuur. Het is dus zaak om dergelijke inhomogeniteiten op de juiste wijze te corrigeren, te homogeniseren.

erren1
Bron: Hans Erren

Van Engelen en Nellestijn doen dat met de De Biltreeks in hun voortzetting van de bekende Labrijnreeks. Zij hanteren een zogenaamde staphomogenisatie: gaat de temperatuur in 1950 door verplaatsing van het meetpunt (ongeveer) 1 °C omlaag, dan corrigeren zij vanaf het moment van verplaatsing de reeks in één keer. Op de grafiek hierboven is dat goed te zien.

GISS pakt die homogenisatie heel anders aan. Zij maken gebruik van hellingcorrectie. Dat houdt in dat –in het voorbeeld van de sprong van 1 °C in 1950 – niet in één keer de fout wordt gecorrigeerd, maar in een heleboel kleine stapjes voor en na 1950. Weliswaar publiceert onderzoeker Hansen van GISS de algemene homogenisatietechnieken die gehanteerd worden, maar op welke wijze dat voor ieder individueel meetpunt is gebeurd blijft duister. Daar kan men alleen achter komen als men de gehomogeniseerde reeks van GISS aftrekt van de ruwe meetdata. Voor de gehomogeniseerde data van De Bilt van januari 2010 ziet het verschil er dan als volgt uit:

jan2
Bron: Jan Peirs

Wat voor gevolgen deze hellingcorrectie heeft op de temperatuurreeks van De Bilt volgens GISS is te zien op de volgende animatie:

biltani
Het beeld is duidelijk: door de sprong van 1950 op deze wijze te corrigeren krijgt de reeks een veel steiler verloop (het wordt alsmaar warmer!). Bovendien klopt de reeks nu eigenlijk vrijwel nergens meer: een eenmalige fout wordt over erg veel jaren uitgesmeerd. Wat dat voor gevolgen heeft is in onderstaande grafiek te zien. Hier is de gehomogeniseerde reeks van GISS (januari 2010) vergeleken met de gehomogeniseerde reeks van van Engelen en Nellestijn. 0= geen verschil.

jan1
Bron: Jan Peirs

Nog veel bonter maakt GISS het als in oktober 2010 wederom een bijstelling van de homogenisatie plaats heeft gevonden. Geen woord hierover te vinden op hun site over het hoe en waarom. Vragen van mijn kant hierover bleven onbeantwoord. Hieronder de animatie met 3 reeksen: de ruwe data, de gehomogeniseerd GISS-reeks van januari 2010 en die van oktober 2010.

biltani4

Vergelijken we de GISS data van januari 2010 met die van oktober 2010 dan is hieruit de correctie te halen die in oktober 2010 op de reeds gehomogeniseerde reeks is toegepast:

jan3

Bij deze homogenisatie ligt het kantelpunt ergens begin jaren ’30 van de vorige eeuw. De Bilt geeft voor deze periode geen bijzonderheden voor het meetpunt De Bilt, dus het is uitgesloten dat GISS deze correctie toepast vanwege een nog niet meegenomen correctie op dat punt. Waarom dan wel blijft volkomen duister. Wel gaat door deze wijziging de temperatuurreeks na 1950 wat steiler omhoog.

Als men kijkt naar homogenisatie ter compensatie van het UHI-effect dan is de methode van het KNMI veel nauwkeuriger dan die GISS toepast. Het KNMI maakt gebruik van meetgegevens in het eigen fijnmazige netwerk, voor De Bilt aangevuld met modelleren voor de situatie in De Bilt. GISS heeft tot voor kort gebruik gemaakt van de methode om temperatuurreeksen van een urbaan meetpunt te vergelijken met dichtbijgelegen rurale meetpunten. In het grofmazige netwerk dat GISS hanteert in het dichtbevolkte West Europa betekende dit dat de gegevens van De Bilt werden vergeleken met het dichtstbijgelegen rurale station, gelegen in Zuid Duitsland. Sinds kort gebruikt men een fraaiere manier, namelijk het schatten van de urbanisatiegraad aan de hand van satellietgegevens over lichtuitstraling ’s nachts. Wellicht wat beter dan de oude methode , maar veel minder nauwkeurig dan die van het KNMI.

hansen3
Bron: Hansen et al 2010

Kortom: de homogenisatiemethode van GISS laat voor wat betreft De Bilt erg te wensen over, met als gevolg dat hun temperatuurreeks onbetrouwbaar is. Marcel Crok schreef in zijn recente boek: “ GISS gebruikt vervolgens deze ruwe metingen en laat daar een computerprogramma op los dat de metingen moet ‘homogeniseren’. Dat mislukt volledig, want het eindresultaat lijkt in niets op dat van het KNMI zelf. 

Op de website van het PCCC wordt deze uitspraak van Crok in twijfel getrokken, waarbij men als ‘bewijs’ grafieken van het KNMI vergelijkt met die van o.a. GISS. Conclusie op de site: “ Maar belangrijker is dat deze passage tevens een verkeerd beeld geeft van de manier waarop correcties en individuele stationdata doorwerken in de mondiale temperatuurreeksen. De onderstaande figuren illustreren het correctief vermogen van de reconstructie van mondiale temperatuurreeksen en tonen aan dat de stelling dat de reconstructie ‘dus volledig is mislukt’ onjuist is. ”

Nu lijken de getoonde grafieken allemaal wel op elkaar, maar een dergelijke visueel ‘bewijs’ zegt op zich nog niet zo veel. Daarom heb ik hieronder het verschil weergegeven tussen de Labrijnreeks van van Engelen en Nellestijn en de gehomogeniseerde reeks van GISS op basis van hun laatste homogenisatie van oktober 2010:

lab min giss1

De gemiddelde afwijking tussen beide reeksen is in vele jaren van de periode 1880-2010 zeer groot, zeker vergeleken met de globale temperatuurstijging in deze periode. In deze periode zijn er maar liefst 40 jaren met een verschil tussen beide reeksen van 0,5 °C. Ik denk dus dat Marcel Crok met zijn forse uitspraak toch dichter bij de waarheid zit dan het PCCC.

 

debilt0

Meetapparatuur op DB260, links de schotelhut voor temperatuurmetingen. Bron KNMI

Dat het niet meevalt om de luchttemperatuur te meten komen we te weten uit het rapport van Theo Brandsma dat het KNMI onlangs liet verschijnen.

In de vorige bijdrage van 31-5-2011 schetste ik de problemen die ontstonden bij de verplaatsing van het meetpunt De Bilt in 1950, waarbij een plotselinge daling van de temperatuur plaatsvond van meer dan 1 °C. Dergelijke inhomogeniteiten die ontstaan door bijvoorbeeld verplaatsingen of verlagingen van meetpunten dienen gecorrigeerd te worden. Dat doet men vaak door de meetreeks van het betreffende station te vergelijken met die van nabijgelegen stations. Vaak ook zorgt men bij een verplaatsing voor een overlappingsperiode van de oude en de nieuwe meetplaats, zodat de oude meetplaats de nieuwe calibreert. Men zou er dan van uit moeten gaan dat de ‘oude’ meetreeks correct is.

Zoals reeds beschreven is de meetreeks van De Bilt van extra groot belang omdat het een van de oudste ter wereld is. Bovendien wordt zij ook gebruikt door grote organisaties zoals GISS/NASA, die zich bezig houden met de berekening van de globale temperatuur. Het is dus zaak om dergelijke inhomogeniteiten op de juiste wijze te corrigeren, te homogeniseren. Dat dat op een correcte wijze (KNMI) en op een foute wijze (GISS) kan, heb ik in die vorige bijdrage al beschreven.

debilt1

Het meetpunt DB260 was gelegen op het grote meetveld van het KNMI en is operationeel geweest van 27 augustus 1951 tot 25 september 2008. Zie de foto hierboven. In 2008 is het meetpunt verplaatst naar een nieuwe locatie, die op de foto is aangeduid als Test4.

Er was een aantal redenen voor het onderzoek. In de eerste plaats waren de bomen in de bomenrij ten ZZW van DB260 in de loop van de jaren flink gegroeid: er waren exemplaren bij van 30m hoog. Gezien de relatief kleine afstand tussen meetpunt en de bomenrij was te verwachten dat er sprake zou kunnen zijn van enige beïnvloeding. Bovendien lag het graslandperceel tussen DB260 en het bosperceel ten W van het meetpunt vanaf 1999 braak en was gaandeweg veranderend in een ruderaal terrein met opgaande bosjes tot wel 3m hoog.

debilt2
Het KNMI heeft daarom vanaf mei 2003 een drietal parallel meetpunten geïnstalleerd, genaamd Test1, Test2, Test3 en Test4. Test 1 ligt vlak bij de hoofdgebouwen van het KNMI, Test 2, 3 en 4 op het meetveld, en Test4 ten O van het volkstuinencomplex. Gedurende de testperiode is het ruderaal terrein aan de westzijde veranderd is in een soort van landschapspark inclusief een grote en kleine vijver. Op de foto hierboven zijn deze duidelijk waar te nemen. Reden voor het KNMI om de testfase te verlengen tot juni 2005 om ook deze omgevingsveranderingen mee te kunnen nemen in de metingen.

Mogelijke oorzaken van meetverschillen tussen de diverse meetpunten kunnen zijn: advectie (aanvoer van warmte van omgeving), verschillen in stabiliteit van de onderste luchtlagen, verschillen tussen de schotelhutten als gevolg van straling, schaduw, straling door omgeving, verschillen in bodemtype/GWS/albedo, en instrumentfouten.

debilt3
Zoals te verwachten waren de verschillen het grootst tussen test1 en de andere locaties, vanwege de nabijheid van gebouwen en hoge bomen bij Test1. Op bovenstaande figuur is dat te zien voor wat betreft het percentage schaduw. Duidelijk is dat Test4 het minst last heeft van nabijgelegen obstakels. De gemiddeld maandelijkse minimum temperatuur was op Test1 1,2 °C hoger dan bij Test4. Test4 was het referentiemeetpunt gedurende het onderzoek.

Een van de belangrijkste conclusies van het onderzoek is dat ‘sheltering’, beschutting door gebouwen, bomen en struiken een relatief grote invloed heeft op de meetresultaten, en dat niet alleen voor wat betreft de schaduwwerking zoals hierboven beschreven. Beschutting veroorzaakt ook het ontstaan van een stabiele grenslaag gedurende de nacht, vermindert de uitgaande langgolvige straling en vermeerdert de stralingsfouten van de schotelhutten als gevolg van een afname van de natuurlijke ventilatie.

debilt4

debilt4a

Een ander opmerkelijke zaak is dat de landschappelijke veranderingen op het ruderaal terrein invloed hadden op de dagelijkse gang van de temperatuur. Dat betekende dat bij homogenisatie het niet voldoende zou zijn om alleen de dagelijkse gemiddelde temperatuur te homogeniseren.

Het onderzoek toonde dat de verschillen tussen de meetpunten sterk afhankelijk waren van windsnelheid (afhankelijk van mate van beschutting) en bewolkingsgraad. In het algemeen namen de temperatuurverschillen toe met afnemende windsnelheid en afnemende bewolkingsgraad. De nachtelijke grenslaag verhinderde homogenisatie vanwege het feit dat daardoor de correlatie tussen de windsnelheid aan de grond en die op 10m hoogte gering was. Bovendien is het ontstaan en het verdwijnen van een dergelijke grenslaag een niet-lineair proces en derhalve moeilijk te vangen in een model.
Dat het KNMI uiteindelijk heeft besloten het meetpunt De Bilt te verplaatsen naar de locatie van Test4 is , gelet op het bovenstaande, begrijpelijk. Minder begrijpelijk is dat het KNMI aan deze verplaatsing geen ruchtbaarheid gaf. Natuurlijk een onvergeeflijke fout, zeker in de richting van de zakelijke klanten van het KNMI, zoals MeteoConsult in Wageningen. Daar had men in 2009 in de gaten dat het meetstation De Bilt, dat al jaren erg hoge temperaturen gaf in vergelijking met omliggende meetstations, plotseling in de pas liep.

Men nam de proef op de som en vergeleek de meetgegevens van De Bilt met die van Cabauw ten ZW van Utrecht. De gemiddelde maximumtemperatuur in de zomer van 2009 bleek in De Bilt slechts 0,02 °C hoger te liggen dan die van Cabauw, terwijl dat verschil in de zomer van 2008 nog 0,53 °C was in het voordeel van De Bilt. Kortom: de verplaatsing van DB260 naar de Test4 locatie was een juiste beslissing geweest, er niets over zeggen een onjuiste beslissing.

debilt5

Bron: http://www.surfacestations.org

Dat de ligging van meetpunt DB260 thans prima is en het voortdurend onderzoek naar de validiteit van de locatie de professionaliteit van het KNMI benadrukt, lijkt me evident. Hoe het anders kan bewijst een reeks van foto’s van officiële meetpunten van het Amerikaanse USHCN netwerk. Op de foto hierboven ziet u het meetpunt Forest Grove in Oregon. De foto spreekt voor zich.


Al 15 jaar lang geen opwarming De Bilt

 

de bilt 1997 2011 def

Nu het einde van 2011 met rasse schreden nadert ben ik maar weer eens in de temperatuurdatabank van het KNMI gedoken. Op basis van de gehomogeniseerde maandgemiddelden van meetstation De Bilt is bovenstaande grafiek gemaakt. Voor de lopende maand december heb ik gebruik gemaakt van de daggemiddelden t/m 9 december j.l. Het temperatuurverloop gedurende het resterende deel van de maand is gebaseerd op de maandverwachtingen voor De Bilt.

Wat opvalt is dat de zomertemperaturen in 2011 wat achterblijven bij die van de afgelopen jaren. Ook zakt De Bilt heel slapjes de winter in, zeker vergeleken met wat we de afgelopen paar jaar gewend waren.

De zwarte lijn is de lineaire trendlijn voor de weergegeven periode. Zoals te zien is is er al 15 jaar lang geen enkele stijging of daling te bespeuren in De Bilt, terwijl ons toch een fikse opwarming beloofd is. Die vlakke trend van De Bilt komt overigens heel fraai overeen met de globale trend. In de data van BEST (zie oudere items) is de afgelopen 10 jaar geen statistisch significante temperatuurstijging waar te nemen op aarde. De CRU-meetreeks toont al 15 jaar geen opwarming, en de Remote Sensing Systemsversie van de satelliet-meetreeks MSU al 15,6 jaar.

Volgens Ben Santer et al in een recente publicatie tonen de resultaten van hun onderzoek aan dat temperatuurrecords van ten minste 17 jaar lang nodig zijn voor het identificeren van de menselijke effecten op de globale troposferische temperatuur. Kortere geven teveel ruis volgens Santer. Nog eventjes dus.

Metingen

Meten is weten is een bekend adagium uit de natuurwetenschappen. Je kunt nog zo veel geavanceerde modellen hebben, het betrouwbaarste zijn nog steeds in situ metingen. Alhoewel over dat laatste nog wel een en ander te zeggen valt en te schrijven.  Anthony Watts heeft met zijn surfacestations.org geweldig werk verricht door reeds meer dan 80% van meetstations van het USHGN meetnet in de USA te bezoeken en te classificeren.

Watts onderzoek geeft een ontluisterend beeld van de kwaliteit van veel meetstations. Hij baseert zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDCClimate Reference Network Handbook uit 2002 ziet er als volgt uit:

class noaa
Bron:  NOAA

De indeling zelf is, als je deze nog niet eerder gezien hebt, enigszins onthutsend. Bestaan er inderdaad meetstations van de categorie 4 en 5, waarbij de meetfout respectievelijk ≥ 2°C en ≥ 5°C is?  En dan te bedenken dat de hele discussie over de opwarming van de aarde gaat over een gemiddelde stijging van 0,7°C in de 20e eeuw.

Het antwoord op die vraag is positief. Watts heeft met 650 vrijwilligers op basis van bovenstaande NOAA classificatie tot nu toe meer dan 80% van de stations in het meetnet bezocht en ingedeeld. Het bizarre resultaat is hieronder te zien:

ushcn stations

ushcn stations2
Bron:  Anthony Watts

Bovenstaande kaart is uit de paper van Watts “Is the US Surface Temperature Record Reliable?” uit 2009, toen ruim 70% van de stations geclassificeerd was.

Inmiddels is dat opgelopen tot ruim 80%, en het beeld is niet veranderd. Ruim 70% van de onderzochte stations in de USA valt  binnen klassen 4 en 5, met een afwijking van ≥ 2°C. In een cirkeldiagram ziet de procentuele verdeling van de 5 klassen er als volgt uit:

ushcn stations3
Bron:  Anthony Watts

Wie wil griezelen moet eens bladeren in de gallery die Watts heeft samengesteld van de bezochte meetpunten.

Hieronder  is een tweetal voorbeelden te zien van officiële USHCN meetstations die in de klasse 5 vallen. Naast de foto is steeds een infrarood opname te zien die een indicatie geeft van de infrarood (warmte-) straling in de directe omgeving van het meetpunt. De afbeeldingen komen uit Watts “Is the US Surface Temperature Record Reliable?”.

watts1
Bron:  Anthony Watts

Hieronder staan voor beide meetstations de meetreeksen weergegeven. Het zijn GISS-plots van de USHCN data.

watts2
watts3

De data in beide reeksen vallen dus in klasse 5, met meetafwijkingen van ≥ 5°C. Het is eenvoudig te zien waarom dat hier logisch is. Wat opvalt is dat de meetreeks van Perry sinds 1940 geen stijgende (of dalende) trend vertoont, terwijl de meetreeks van Glenns Ferry vanaf ongeveer 1980 wel een stijgende trend vertoont.

Perry en Glenns Ferry liggen in 2 verschillende klimaatgebieden, ruim 2000 km hemelsbreed uit elkaar. Het is derhalve niet vreemd dat de meetreeksen een verschillende trend vertonen. Maar temperatuurmetingen worden ook beïnvloed door de microklimatologische omstandigheden, zeker als het klasse 5 meetpunten betreft. Als je via Google Earth inzoomt op het meetpunt in Perry, op de hoek van de North 8th Street en Delaware Street, dan valt op dat de meeteenheid midden in een stedelijk bebouwde omgeving ligt.

watts6
Bron:  Google Earth

watts7
Bron:  Anthony Watts
De bevolkingsomvang van Perry was in 2010  5126 inwoners, en dat inwonertal is de afgelopen decennia nauwelijks veranderd  (US Census Bureau).  Dat gegeven plus de relatieve ligging van het meetpunt en de beelden van Street View maken het aannemelijk dat de directe omgeving van het meetpunt al decennialang stedelijk bebouwd is geweest.

Zoomen we in op het andere meetpunt, Glenns Fery in Idaho, dan zien we een geheel andere situatie:

watts4
Bron:  Google Earth
watts5
Bron:  Anthony Watts

Het meetpunt   ( rode x ) staat direct naast een tamelijk recent gebouw, dat onderdeel uitmaakt van een groter complex van bebouwing. In de onmiddelijke omgeving van de sensor is een grote transformator aanwezig. Het complex is het Oregon Trail History and Education Center,  onderdeel van het  Three Island Crossing State Park . Direct naast het gebouw ligt een grote parkeerplaats. Het gehele complex  is de afgelopen decennia aangelegd. Het lijkt derhalve niet onaannemelijk dat de stijging van de temperatuurtrend althans gedeeltelijk het gevolg is van de verstening van de directe omgeving van het meetpunt.