30-12-2012
Antarctica warmer!
Bron: Google Earth
Afgelopen week was het ongetwijfeld weer feest in huize Van Calmthout. De wetenschapsredacteur van de Volkskrant had een bericht gemaakt over een recente publicatie van Bromwich et al. in Nature.
Het verhaal begint in 2009, als Steig et al in Nature publiceren over recente temperatuurontwikkelingen op Antarctica. Steig et al vonden voor West Antarctica vanaf 1956 tot 2006 een temperatuurstijging van 0,17 °C/decennium (+/- 0,06 °C) , dus voor de gehele periode een stijging van 0,85 °C.
Reconstructed annual mean West Antarctic temperature anomalies 1957 - 2006
Bron: Steig et al 2009
De resultaten van Steig et al werden in datzelfde jaar nog door
O’Donnell et al gecorrigeerd. Ze stelden vast dat Steig et al op een aantal
cruciale punten fouten hadden gemaakt. Zo waren de satellietgegevens onjuist
gecalibreerd en was de ruimtelijke invulling onjuist gedaan (er zijn zeer weinig
meetpunten op Antarctica). O’Donnell en zijn team hanteerden een volgens hen
betrouwbaarder methode en kwamen tot de conclusie dat de opwarming van West
Antarctica eigenlijk alleen had plaats gevonden in haar uitloper, Peninsula. De
opwarming op het schiereiland bedroeg tussen 1957 en 2006 0,3 °C/decennium. Op
het overige deel van West Antarctica is de opwarming in genoemde periode gering.
Hieronder ziet men de dramatische bijstelling van de temperatuuranomalie voor het gehele continent als men de methode van O’Donnell et al toepast:
In de laatste figuur is met rode punt de ligging van Byrd Station
weergegeven, dat we later nog zullen tegenkomen. Grijs geleurd zijn de gebieden
die in genoemde periode geen statistisch significante trend laten zien.
De studie van O’Donnell was ongetwijfeld een domper voor allen die zo graag in
een stevige opwarming van de aarde willen geloven als gevolg van menselijk
gedrag. De opwarming van Antarctica viel allerzins mee en was eigenlijk alleen
zichtbaar op het schiereiland. Later bleek dat die opwarming vooral het gevolg
was van het opwarmen van de Kaap Hoornstroom en niets te maken heeft met ‘global
warming’.
En dan was er afgelopen week de publicatie van Bromwich et al. Bromwich et al in
hun abstract: “ West Antarctica has probably warmed since the 1950s, but
there is disagreement regarding the magnitude, seasonality and spatial extent of
this warming. This is primarily because long-term near-surface temperature
observations are restricted to Byrd Station in central West Antarctica, a data
set with substantial gaps. “.
Dat laatste klopt, kijk maar eens naar de GISS data van dit station:
Te zien is dat er eigenlijk geen sprake is van een meetreeks: er zijn grote
hiaten. Bovendien waren er sterke aanwijzingen dat de meetgegevens onjuist waren
vanwege verplaatsingen van apparatuur, veranderingen in apparatuur en
dergelijke. Kortom, eigenlijk deugt er van de data niet veel. En pas op: in de
eerste grafiek is er een sterke uitschieter te zien in 1970. De vertikale schaal
van deze grafiek verschilt echter van die van de tweede grafiek!
Wat hebben Bromwich et al nu gedaan? Zij hebben een van de sensoren opgehaald
die gebruikt is op Byrd Station en hem geijkt aan de Universiteit van Wisconsin.
Ze ontdekten een softwarefout die foute data had geïntroduceerd in de meetreeks.
Die fouten zijn door het team ‘hersteld’. Vervolgens hebben ze geautomatiseerde
analysedata van de atmosfeer gebruikt om de grote leemtes in de reeks op te
vullen.
Wat de uitkomst van deze grootschalige ‘homogenisatie’ van de temperatuurreeks
van Byrd Station is kunt u op de volgende grafiek zien:
Bromwich et al komen voor West Antarctica tot de volgende conclusies: “The
record reveals a linear increase in annual temperature between 1958 and 2010 by
2.4±1.2 °C, establishing central West Antarctica as one of the fastest-warming
regions globally.”. Dat is een conclusie die er niet om liegt.
Maar hoe ziet een en ander er uit als we alleen maar uitgaan van de GISS/NASA
data en geen gebruik maken van alle technieken die Bromwich et al toepassen? Dat
kunt u hieronder zien:
Als men alle bekende GISS/NASA data van Byrd Station in een grafiek plaatsen
en een lineaire trendlijn intekenen komt men uit op een temperatuurstijging van
1957 t/m 2012 van 2 °C, dat wil zeggen een stijging per decennium van 0,357 °C.
Dat ligt iets onder de raming van Bromwich et al van 0,4 °C/decennium.
Kijken we echter naar het verloop van de temperatuur in de periode 1957-2012,
dan zien we dat de temperatuurstijging vooral plaats heeft gevonden in de
periode vóór 1990. Voor de periode na 1990 is ook een trendlijn ingetekend. Het
is duidelijk: na 1990 is de trend in Byrd Station 0: er vindt sinds 1990
geen opwarming meer plaats. Bromwich et al corrigeren bovendien de data
vanaf 1988, zodat op basis hiervan de trend vanaf 1990 zelfs negatief is
vergeleken met de GISS/NASA data.
Conclusies: Bromwich et al maken van een zeer onvolledige meetreeks een
volledige record. Die ‘gemaakte’ meetreeks van slechts 1 meetstation dient dan
als basis voor een keiharde conclusie voor geheel West Antarctica: “….establishing
central West Antarctica as one of the fastest-warming regions globally. ” .
Daarbij gaat men volledig voorbij aan het feit dat men in Byrd Station al meer
dan 20 jaar geen opwarming meer meet. Bromwich noemt dit in een interview met
The New York Times “the weather in West Antarctica seems to have become
somewhat erratic.” (onregelmatig).
Kortom, voor Van Calmthout voldoende houvast om er in de Volkskrant weer stevig
tegenaan te gaan met de alarmerende kop: Antarctica in halve eeuw 2,5 graad
warmer. Het volk moest blijkbaar met kerst nog eens eventjes met de neus op
de 'feiten' gedrukt worden. En als die niet voorhanden zijn dan maken we die
toch? Saillant is dat in de Volkskrant van afgelopen weekeinde een prachtig
artikel stond met een top-10 van grootste wetenschappelijke blunders. Het
zelfreinigend vermogen van sommige wetenschappers is niet groot, maar van
wetenschapsjournalisten eigenlijk wel?
Bewerking naar Hamilton + Christiansen
De aardse geschiedenis kende veel langere perioden met hogere temperaturen dan met lagere, vergeleken met de huidige 15° C gemiddeld. Dat de grafiek in 0 BP veel lager eindigt dan de lijn van 15° C is het gevolg van het feit dat de gemiddelde temperatuur gedurende het Kwartair veel lager is dan de huidige, gevolg van relatief langdurige glacialen in vergelijking met de zeer korte interglacialen Zie de figuur hieronder die het gereconstrueerde temperatuurverloop van de afgelopen 350.000 jaar weergeeft (archief ijskern Vostok).
Bron: Sime et al 2009
In onderstaande grafiek is een reconstructie weergegeven van het atmosferisch CO2 op basis van het zogenaamde GEOCARB3 model en proxies.
Het GEOCARB3 model is een model waarin met behulp van een aantal parameters zoals verwering en temperatuur een reconstructie gemaakt is van het CO2-gehalte in de atmosfeer. Berner gaat uit van de veronderstelling dat er sprake is van een steady state van de koolstofstromen die tussen atmosfeer en oceanen aanwezig zijn. De verwering van silicaatgesteente is in het model de spil waar alles om draait. In onderstaande figuur is door Priem de diverse sinks en sources van CO2 weergegeven.
Bron: Harry Priem
Opvallend is dat het atmosferisch CO2 gedurende de laatste 700 miljoen jaar steeds tussen de 200 en 7500 ppm schommelde. Het merendeel van de tijd was het CO2-gehalte veel hoger dan het huidige niveau van 390 ppm,, dat in de geologische geschiedenis wordt alleen geëvenaard in het Laat Paleozoïcum. In onderstaande grafiek zijn temperatuur en CO2-gehalte samengebracht:
Alec verdedigt zijn actie als volgt:
“I believe that the leaking of this draft is entirely legal, that the
taxpayer funded report report is properly in the public domain under the Freedom
of Information Act, and that making it available to the public is in any case
protected by established legal and ethical standards, but web hosting companies
are not in the business of making such determinations so interested readers are
encouraged to please download copies of the report for further dissemination in
case this content is removed as a possible terms-of-service violation. My
reasons for leaking the report are explained below. ”
En:
“The ethics of leaking tax-payer funded documents requires weighing the
“public’s right to know” against any harm to the public interest that may
result. The press often leaks even in the face of extreme such harm, as when the
New York Times published details of how the Bush administration was tracking
terrorist financing with the help of the private sector Society for Worldwide
Interbank Financial Telecommunication (SWIFT), causing this very successful
anti-terror program to immediately collapse. That was a bad leak, doing great
harm to expose something that nobody needed to know about. With the UN’s IPCC
reports the calculus is reversed. UN “climate chief” Christina Figueres explains
what is at stake for the public: … we are inspiring government, private sector,
and civil society to [make] the biggest transformation that they have ever
undertaken. The Industrial Revolution was also a transformation, but it wasn’t a
guided transformation from a centralized policy perspective. This is a
centralized transformation that is taking place because governments have decided
that they need to listen to science.
So may we please see this “science” on the basis of which our existing energy
infrastructure is to be ripped out in favor of non-existent “green” energy? The
only reason for secrecy in the first place is to enhance the UN’s political
control over a scientific story line that is aimed explicitly at policy makers.
Thus the drafts ought to fall within the reach of the Freedom of Information
Act.
The Obama administration implicitly acknowledged this when it tried to evade
FOIA by setting up private “backdoor channels” for communications with the IPCC.
If NCAR’s Gerald Meehl (a lead author of AR5′s chapter on near-term climate
change), has working copies of the draft report (and he’s only one of dozens of
U.S. government researchers who would), then by law the draft report (now
finished) should be available to the public.
The IPCC’s official reason for wanting secrecy (as they explained it to Steve
McIntyre in January 2012) is so that criticisms of the drafts are not spread
out across the internet but get funneled through the UN’s comment process. If
there is any merit to that rationale it is now moot. The comment period ended
November 30th so the comment process can no longer be affected by publication.
As for my personal confidentiality agreement with the IPCC, I regard that as
vitiated by the systematic dishonesty of the report (“omitted variable fraud” as
I called it in my FOD comments). This is a general principle of journalistic
confidentiality: bad faith on one side breaks the agreement on the other. They
can’t ask reviewers to become complicit in their dishonesty by remaining silent
about it.
Then there is the specific content of the Second Order Draft where the addition
of one single sentence demands the release of the whole. That sentence is an
astounding bit of honesty, a killing admission that completely undercuts the
main premise and the main conclusion of the full report, revealing the
fundamental dishonesty of the whole. ”
Hier gaan we de komende maanden nog veel meer van horen.
De oorzaken van deze paradox zijn divers. De meest voor de hand liggende is het feit dat modellen de werkelijkheid niet zijn. Modellen zijn per definitie niet in staat om het zeer complexe systeem van het aardse klimaat betrouwbaar na te bootsen. Oreskes et al van de University of California hebben aangetoond dat het daarom onmogelijk is om de deugdelijkheid van klimaatmodellen vast te stellen en te valideren.
De tweede factor is dat de opzet van modellen sterk uitleen loopt, en dus ook de parameterisatie van belangrijke klimaatprocessen zoals wolkvorming. Met name de grote ruimtelijke variatie van de neerslag zorgt er al voor dat regionale voorspelling hoogst onzeker zijn. Zo levert een van de bekendste modellen, HadCM3 van Metoffice, een onnauwkeurigheid van de jaarlijkse afvoer van het stroomgebied van de Mekong Rivier van een afname van 5,4% tot een toename van 4,5%. De maandelijkse afvoer schommelt zelfs van -16% tot +55%. Waarden waar geen enkele beleidsmaker iets mee kan.
De derde oorzaak is dat de verwachte hoeveelheden broeikasgassen en aerosolen aan het einde van deze eeuw gebaseerd zijn op economische modellen die zonder twijfel maar een slag slaan naar het gebruik van fossiele energiedragers over 90 jaar. De energiemarkt is heftig in beweging: aan de ene kant zien we een toename van ‘groene’ energiebronnen, aan de andere kant worden steenkool en aardgas steeds goedkoper dankzij nieuwe wintechnieken. Er is niemand die kan overzien wat dat betekent voor de situatie over 10 jaar, laat staan over 90 jaar. Er is aan toe te voegen dat de invloed op het aardse klimaat van verandering van broeikasgassen en aerosolen nog lang niet duidelijk is.
De huidige generatie klimaatmodellen zijn goed in staat de onzekerheden van complexe factoren te kwantificeren. De chemie van de atmosfeer en de ruimtelijke resolutie van de nieuwe modellen zijn beter dan ooit. Maar tegelijkertijd betekent het incorporeren van complexe processen tevens het toevoegen van meer onbekenden. Analyse van deze nieuwste modellen toont bijvoorbeeld een grotere spreiding van de voorspelde globale temperatuur dan voorheen.
Een beetje vreemd is het als na het benoemen van al deze toenemende
onzekerheden in de nieuwe generatie modellen Maslin en Austin toch blijk geven
van een groot vertrouwen in diezelfde modellen. Ze maken zich zorgen over de
toegenomen scepsis ten aanzien van klimaatmodellen en geven zelfs aan op welke
manier het vertrouwen van het ‘publiek’ in de betrouwbaarheid van modellen
vergroot kan worden. Dat doet me denken aan de grote schrijver Gerard Reve, die,
toen hij werd aangevallen door vakbroeders vanwege zijn commerciële houding, de
kritiek pareerde door simpelweg te verklaren dat hij het inderdaad allemaal voor
de publiciteit en het geld deed, want "ik heb een winkel.". Zo openlijk heb ik
wetenschappers echter nog nooit horen spreken.
Hij bekijkt de problematiek vanuit wiskundig/statistisch oogpunt, en komt tot
opmerkelijke conclusies. In de figuur hierboven is dat weergegeven: voor de
wiskundige benadering is het klimaatsysteem een black box.
Het uitgangspunt is dat het klimaatsysteem een chaotisch systeem is. Een
dergelijk systeem heeft bepaalde eigenschappen die niet af te leiden zijn uit
die van de samenstellende delen. Een van de gevolgen daarvan is dat ze
niet-lineair zijn: kleine afwijkingen in het systeem kunnen tot zeer diverse
gevolgen leiden. Een ander kenmerk is dat het gedrag van een complex systeem op
een bepaald moment vooral bepaald wordt door de daaraan voorafgaande
gebeurtenissen. De combinatie van deze eigenschappen zorgt er voor dat het
nauwelijks mogelijk is om aan de hand van tijdreeksen voorspellingen te doen
voor de toekomst. Een aanwijzing daarvoor zijn de diverse temperatuurpredicties
in het 4e rapport van het IPCC en het werkelijke verloop van de globale temp
vanaf 2000 ( grafieken hieronder).
Het klimaatsysteem is vooral daarom chaotisch omdat we nog steeds geen
volledig zicht hebben op de afzonderlijke onderdelen van het systeem, met hun
specifieke werking. Een eigentijds voorbeeld is het gedrag van wolken in de
energiebalans van de aarde. Masson stelt dat vanwege het chaotisch karakter van
het klimaat het in feite onmogelijk is om voorspellingen te doen over de
temperatuur. Complexe systemen zijn sterk non-lineair, waardoor ze niet geschikt
zijn voor ‘klassieke’ regressie-analyse e.d. De gebruikelijke methoden om ruis
uit een meetreeks te verwijderen zijn gebaseerd op de vooronderstelling dat de
data Gausiaans verdeeld zijn rond een trendlijn. Volgens Masson levert een
dergelijke techniek vaak een zogenaamd hockey-stickeffect op zoals we dat ook
kennen van de publicaties van Mann et al.
De rechter grafiek toont een voorbeeld van een dergelijk signaal rond attractors. Het is de tijdreeks van de temperatuur van de bekende Vostok ijsboring op Antarctica.
Masson liet tijdens de lezing zien dat de functie
chaotisch kan worden afhankelijk van de grootte van de variabele α. De functie
kan dan van stabiel.....
licht chaotisch worden.......
en dan steeds chaotischer worden:
Bij een hele lichte wijziging van de variabele α verandert zelfs de positieve
trend in de vorige grafiek in bijna geen trend:
Het is daarom van het grootst belang om in tijdreeksen een methode toe te
passen om eventueel chaotisch gedrag te ontdekken. Masson maakt daarbij gebruik
van een aantal statistische technieken, waarvan de zogenaamde recurrence plots
mij het best bij zijn gebleven, al was het alleen al vanwege de wonderlijke
patronen die daarbij kunnen ontstaan. Recurrence plots vormen krachtig
kwalitatief visueel gereedschap om patronen in tijdreeksen te ontdekken.
Onderstaande plot betreft de temperatuurreeks van Ukkel sinds 1830. Volgens
Masson toont de plot dat er geen trend te ontdekken is in het signaal.
Masson concludeert :
De blauwe band toont het temperatuurverloop volgens de door het IPCC
gebruikte klimaatmodellen in de diverse regio’s als er geen ‘CO2-effect’
is. Het ziet er allemaal erg dramatisch uit, reden waarom deze figuur graag
gebruikt wordt om de rol van de mens op het klimaat te benadrukken. Dat deed Rob
van Dorland van het KNMI in zijn lezing.
Van Geel toont in zijn voordracht aan dat hier sprake is van onderschatting van
de rol van de zon. Dat de zon in de ogen van het IPCC een ondergeschikte rol
speelt is goed te zien op onderstaande figuur. De totale antropogene
radiative forcing wordt door het IPCC 15x groter ingeschat dan die van de
zon.
De activiteit van de zon is onder andere herkenbaar aan het aantal zonnevlekken aan het oppervlak. Bekend is dat het aantal zonnevlekken een zekere variatie in de tijd kent. In het menu onder “Nieuwe Inzichten” is in de hoofdstukken ‘De Zon’ en ‘Zonnecycli’ daarover al het een en ander geschreven.
Op de figuur is te zien dat vooral in de vorige eeuw de activiteit van de zon sterk is toegenomen. Van Dorland beweerde in een reactie dat na 1958 (de piek in de grafiek) de activiteit weer afgenomen is en dat invloed op de temperatuur meer gerelateerd is aan de toename van de activiteit dan aan de grootte ervan. Door Van Geel werd dat ontkend en ikzelf heb ook in de literatuur geen aanwijzing kunnen vinden dat Van Dorlands opmerking juist zou zijn.
Behalve waarnemingen van het aantal zonnevlekken worden ook kosmogene isotopen in natuurlijke archieven gebruikt om de veranderingen in de activiteit van de zon te meten. In planten wordt 14C gevonden, in ijskernen 10Be. In bovenstaande grafiek is te zien dat 14C en 10Be isotopen prachtig de periodische en aperiodische variaties van de zonneactiviteit volgen. In de grafiek zijn de waarden van 14C EN 10Be omgekeerd evenredig met de zonneactiviteit.
Vele voorbeelden laten volgens Van Geel zien dat het klimaat hypergevoelig is voor relatief kleine veranderingen in de activiteit van de zon. Die hypergevoeligheid alleen verklaard worden met versterkingsmechanismen. Op bovenstaande figuur is te zien dat in stalagmieten in Oman de correlatie tussen het 14C isotoop en de temperatuur zeer opvallend is. Het zuurstofisotoop 18O in neerslag wordt in de paleoklimatologie gebruikt om de temperatuur van neerslagwater vast te stellen.
Ook de opmerking van Van Dorland als zouden onderzoeksresultaten alleen regionaal correlaties vertonen lijkt geen hout te snijden: in een publicatie van Stuyver et al uit 1998 wordt een opmerkelijke synchrone correlatie gevonden in 14C gehalten tussen 1550 en 1750 op 3 continenten:
Bovenstaande data komen uit een studie van
Bond c.s. uit 2001, gepubliceerd in Science. Bond en zijn team onderzochten
de afzettingen die door ijsbergen op de bodem van het noordelijk deel van de
Atlantische Oceaan zijn afgezet vanaf het einde van de laatste ijstijd tot nu
toe. Behalve dat in koude periodes de sedimenten veel verder van de
landijsmassa's werden afgezet , varieert ook de dikte van de sedimenten
behoorlijk). In de grafiek is te zien dat er een nauwe correlatie is tussen
10Be en het voorkomen van dat zogenaamde ‘ice-rafted debris’. Zie ook verdere
informatie over deze studie onder 'Niwue Inzichten'.
De data uit de publicatie van Bond et al zijn ook gebruikt door Magny in 2007, waarin hij een verband aantoont met de waterstanden in Alpenmeren in Laat-Pleistoceen en Holoceen.
Er zijn nog vele andere onderzoeksresultaten die aantonen dat zonne-activiteit
van grote invloed is op het aardse klimaat. Zo is er de publicatie van
Sejrup uit 2010 over de respons van de temperatuur van de Noorse Zee sinds
1000 jaar...
......het eigen onderzoek van Van Geel aan veenafzettingen......
... die weer goed corresponderen met de meerafzettingen in het Meerfelder Maar,
een restant van en oude caldera in de Eiffel. Alhoewel de fluctuaties van de
totale zonnestraling gedurende het Holoceen relatief klein zijn geweest lijken
de gevolgen toch groot. Onderstaande grafiek is van de publicatie van
Steinhilber et al uit 2009.
Als we inzoomen op de ontwikkeling van de globale temperatuur van de afgelopen eeuw dan zien we een bekende dip in de temperatuur tussen 1940 en 1975. Menig wetenschapper wil ons graag doen geloven dat die het gevolg is van luchtvervuiling die inkomende zonnestraling hindert. Als je de totale zonnestraling aan buitenzijde van de atmosfeer (Hoyt + Schatten, 1997) vergelijkt met de temperatuur ontstaat een ander beeld:
Zonnecyclus 24 blijft lager dan enkele jaren geleden voorspeld, hetgeen een voorbode kan zijn voor een koelere periode in het wereldklimaat. Van Geel noemde dit het grootste experiment dat momenteel gaande is.
De globale temperatuur op aarde stijgt al meer dan een decennium niet meer. Niemand weet welke kant hij opgaat, maar als de invloed van de zon groter is dan die van CO2 is de mogelijkheid van afkoeling groot.
Toen enkele jaren geleden de opwarming van de aarde niet meer vol te houden was door klimaatalarmisten heeft men stilletjes het begrip klimaatopwarming vervangen door klimaatverandering. Een pleonasme lijkt me. Als blijkt dat afkoeling ons deel wordt (wat ik niet hoop) dan staat ons een nieuwe strategie van de klimaatalarmisten te wachten:
16-10-2012
Zeespiegel deel 3
Op 5-10-2012 schreef ik dat de zeespiegelstijging in Den Helder al 146 jaar
constant is. De afwezigheid van enige versnelling in de zeespiegelstijging is
niet in lijn met de opvatting dat de het globale zeeniveau gerelateerd is aan de
globale temperatuur. Vermeer en Rahmstorf schreven in 2009: “ When applied
to observed data of sea level and temperature for 1880–2000, and taking into
account known anthropogenic hydrologic contributions to sea level, the
correlation is >0.99, explaining 98% of the variance. For future global
temperature scenarios of the Intergovernmental Panel on Climate Change’s Fourth
Assessment Report, the relationship projects a sea-level rise ranging from 75 to
190 cm for the period 1990–2100. ”
Om een indicatie te krijgen van de geografische spreiding van de gezochte
data maakte ik gebruik van bovenstaande figuur uit de publicatie van Church en
White uit 2011. Duidelijk is te zien dat er aan het begin van de 20e eeuw
slechts een beperkt aantal meetstations was, met een sterke concentratie in
Nederland, Duitsland, Denemarken, Japan en de USA. Ik ben alle aangegeven
locaties in de databank nagegaan en heb naast Den Helder nog 7 andere
meetstations gevonden met een min of meer continue meetreeks vanaf 1910 tot
2010 :
Victoria, Canada
San Francisco, USA
New York, USA
Honolulu, USA
Balboa, Panama
Fremantle, Australië
North Shields, GB
Er zijn nog enkele meetstations met een meetreeks van (meer dan) een eeuw, maar die liggen dicht bij een van bovenstaande stations en leverden geen relevante meetgegevens op. Omdat ik niet in staat ben om sterke verticale bewegingen in de aardkorst statistisch te elimineren heb ik afgezien van meetstations die in sterke mate onderhevig zijn aan epirogenetische en tektogenetische bewegingen, zoals in Scandinavië en Japan. Omwille van de eenvoud ben ik ervan uitgegaan dat voor de overgebleven meetstations geldt dat bodembewegingen gedurende de afgelopen eeuw constant waren. Ik ben immers alleen geïnteresseerd in een eventuele versnelling van de zeespiegel. Dit zijn de resultaten:
Het beeld is in alle gevallen duidelijk: van een versnelling van de zeespiegelstijging is geen sprake. Omdat in alle grafieken te controleren heb ik behalve de lineaire trendlijn (zwart) ook de exponentiele trendlijn (rood) in elke grafiek weergegeven. Beide lijnen vallen in alle grafieken vrijwel geheel samen. Van beide trendlijnen zijn de R2 –waarden in de grafieken weergegeven. Om te laten zien wat de lineaire trendlijn en exponentiele trendlijn doen als er in een meetreeks sprake is van een versnelling heb ik een eenvoudige lineaire meetreeks gemaakt, met tussen de horizontale waarden 9 en 13 een versnelling in de reeks . Het resultaat ziet u hier onder:
Comclusie: in bovenstaande meetreeksen van tide-gauge-metingen over de gehele
aarde zijn geen versnellingen in de zeespiegelstijging waar te nemen. Dat staat
dus haaks op de gegevens van Church en White, Vermeer en Rahmstorf en
falsifieert de hypothese dat het globale zeeniveau sterk gerelateerd is aan de
globale temperatuur. De zeespiegelstijging lijkt zich niets aan te trekken van
relatief korte ( enkele decennia) perioden van temperatuurstijging zoals die
waargenomen zijn in de afgelopen eeuw.
Over de oorzaken van deze discrepantie graag een volgende keer.
Met Office in Groot Brittannië erkent nu ook dat de mondiale temperatuurstijging die in de jaren ’70 van de vorige eeuw begon, al meer dan 15 jaar geleden is geëindigd. Trouwe lezers van deze site weten dat ik al een jaar geleden liet zien dat er vanaf 1996 geen stijging meer te bekennen is in de gemiddelde temperatuur op aarde, en dat het in ons land ook al heel lang niet meer warmer wordt.
De klimaatmodellen die het IPCC hanteerde voor haar rapport uit 2007 hebben geen van alle deze standstil kunnen voorspellen. Die modellen worden weliswaar elk jaar verbeterd maar blijken tot nu toe niet goed in staat om ook maar bij benadering de temperatuurtrend juist weer te geven . Zie hiervoor ook de bijdrage van 28-8-9012.
Prof. Judith Curry van Georgia Tech University in de USA sei tegen een journalist van de Daily Mail: “ Climate models are very complex, but they are imperfect and incomplete. Natural variability [the impact of factors such as long-term temperature cycles in the oceans and the output of the sun] has been shown over the past two decades to have a magnitude that dominates the greenhouse warming effect. It is becoming increasingly apparent that our attribution of warming since 1980 and future projections of climate change needs to consider natural internal variability as a factor of fundamental importance. ”
Zelfs Phil Jones van de University of East Anglia, een van de belangrijkste
spelers in het Climategate schandaal geeft op bepaalde punten Curry gelijk: “
We don’t fully understand how to input things like changes in the oceans,
and because we don’t fully understand it you could say that natural variability
is now working to suppress the warming. We don’t know what natural variability
is doing. ”
Zie voor het hele artikel
hier.
Of de periode van 16 jaar lang genoeg is om van een trend te spreken is
onderwerp van discussie tussen klimatologen. Jones vindt dat nog te kort,
anderen niet. Overigens hoeft dit plateau waarop de wereldtemperatuur zich
bevindt niet te betekenen dat er van stijging in de nabije toekomst geen sprake
meer is. Wetenschappers die CO2 een grote rol toedichten in het klimaat menen
nog steeds dat de temperatuur wel moet stijgen gezien de stijging van het
atmosferisch CO2. Aan de andere kant zijn er astronomen zoal prof. De Jager die
menen dat de huidige zonneactiviteit wijst op een daling van de temperatuur op
aarde op korte termijn.
Een ding is al duidelijk: de activisten en organisaties die de mensheid willen
wijzen op de klimaat-Apocalyps, hebben er wijs aan gedaan om enkele jaren
geleden stilletjes het adagium ‘opwarming’ te verruilen voor ‘klimaatverandering’.
Nu steeds meer mensen inzien dat klimaatverandering in feite een pleonasme is,
is de nieuwe toverformule ‘duurzaamheid’. Het wordt tijd dat dit
laatste begrip een eenduidige omschrijving krijgt.
De meeste trendwaarden liggen ergens tussen 0 en 4. Opmerkelijk is dat er vrij veel stations zijn die over de gemeten periode een negatieve stijging vertonen, en relatieve zeespiegeldaling dus. Vooral aan het begin van de grafiek is een dergelijke cluster te zien. Dat zijn alle meetstations in Scandinavië. Scandinavië veert sinds het einde van de laatste ijstijd (10.000 jaar geleden) op als gevolg van het afsmelten van de Scandinavische ijskap. Dat effect, glacio-isostasie genoemd, is zo sterk dat het stijgen van het land sneller gaat dan de absolute zeespiegelstijging.
Ook sommige Candese meetstations vertonen dit beeld als gevolg van het
afsmelten van de Canadese ijskap. Verder is er nog een aantal meetstations dat
vanwege
subductie een sterke stijging van het land vertoont en derhalve een
negatieve zeespiegelstijging.
Voorbeelden daarvan zijn te o.a. vinden in Japan. Aan de bovenkant van de
grafiek zijn ook uitschieters te zien. Deze meetstations tonen een opvallend
grote relatieve zeespiegelstijging. Deze meetstations ondervinden een sterke
daling van het land als gevolg van subductie, of als gevolg van sterke
sedimentatie.
Probleem blijft dat alle meetstations op een of andere wijze beïnvloed worden door bodemdalingen en –stijgingen. Gemiddeld over de gehele aarde zou de bodemdaling theoretisch de 0 moeten naderen. Als we uitgaan van een perfect gelijkmatige geografische en geologische spreiding van alle meetstations dan zou de eerste grafiek bruikbaar zijn om de gemiddelde absolute zeespiegelstijging te berekenen. Die zou in dat geval 0,68 zijn, dus 6,8 cm/eeuw. Maar de meetstations liggen niet perfect gelijkmatig verspreid: er zijn relatief veel stations in Europa en Noord-Amerika, en relatief weinig in Afrika. Men kan er dus van uit gaan dat de ongelijkmatige spreiding de grafiek beïnvloedt.
Opvallend blijft dat de meeste stations een trend aangeven tussen 0 en 4. Ik vermoed daarom dat ergens in deze wolk de gemiddelde absolute zeespiegelstijging verborgen ligt. Daarom ga ik de extreem afwijkende stations buiten beschouwing laten. Ik heb alle stations met een negatieve waarde verwijderd, alsmede alle stations met een trend van > 4 . Dit is volkomen arbitrair en wetenschappelijk onverantwoord, daar ben ik me van bewust. Maar wil een beeld krijgen van de globale zeespiegeltrend. Het resultaat is dit:
Zeespiegel Den Helder stijgt al 146 jaar constant
De zeespiegel bij Den Helder wordt al vanaf 1865 meerdere malen per dag gemeten.
De gegevns zijn van
PSMSL, de instantie die de meetgegevens van vrijwel alle getijdemetingen
bijhoudt. Met behulp van deze gegevens berekent men dagelijkse, maandelijkse en
jaarlijkse gemiddelden. In bovenstaande figuur heb ik de jaarlijkse gemiddelden
uitgezet in een grafiek. Tevens heb ik een lineaire trendlijn door Excel laten
berekenen en tekenen. Dat is de zwarte lijn. Zoals u ziet is er geen versnelling
in de zeespiegelstijging te bekennen. De verticale schaal is gebaseerd op de
zogenaamde RLR,
Revised Local Reference, de standaardisatie die PSMSL toepast op de
meetgegegevens.
Waarom is het feit dat er geen versnelling te constateren valt bijzonder? Omdat
het IPCC in haar rapport uit 2007 stelde: “ Satellite altimetry... shows
that since 1993, sea level has been rising at a rate of around 3 mm/yr,
significantly higher than the average during the previous half century. Coastal
tide gauge measurements confirm this observation.”. Dat had het IPCC
natuurlijk niet zelf verzonnen, maar gehaald uit een toen recente publicatie van
Church en White uit 2006,
A 20th century acceleration in global sea-level rise. Natuurlijk kan men
tegenwerpen dat Den Helder niet de wereld is, maar ik zal een volgend keer laten
zien dat het verloop van de zeespiegelstijging in Den Helder eerder regel dan
uitzondering is op aarde.
De jaarlijkse schommelingen zijn tamelijk groot, zodat de R-kwadraat van de lineaire trendlijn niet groter is dan 0,7625. De blauwe lijn lijkt heel fraai de lineaire trendlijn te volgen. Om te zien of er in de data toch geen sprake is van een versnelling in de zeespiegelstijging zoals het IPCC en Church en White beweren, heb ik hieronder voor dezelfde date een exponentiele trendlijn ingetekend. Zoals te zien is, is deze vrijwel kaarsrecht, hetgeen ook bevestigd wordt door r2= 0,7624. Een afwijking van de r2 van de lineaire trendlijn van slechts 1/1000 !
Dat alarmisten ons graag willen laten geloven dat de zeespiegel vanwege AGW veel
harder stijgt dan vroeger heb ik hier al vaker aan de kaak gesteld. Ik denk
bijvoorbeeld aan professor Pier Vellinga uit Wageningen die op de televisie de
zeespiegelstijging van de afgelopen 80 jaar met een factor 7 (!) overdreef (zie
De Dogma’s, hoofdstuk De Zeespiegel Stijgt).
5-10-2012
Duurzame 100 van Trouw nader toegelicht
Het dagblad Trouw publiceert jaarlijks een top-100 van Nederlanders die getoond hebben dat ze duurzaam in het leven staan. Volgende week is het weer zo ver. Nu is duurzaamheid in wezen een deugdelijke eigenschap. Ik ben zelf ook het type dat iets dat kapot is probeert te repareren, had al 20 jaar geleden zonnecollectoren op mijn dak, scheid braaf het afval et cetera.
Maar nogal wat mensen die op het top-100 lijstje van Trouw staan vallen juist op door andere eigenschappen, zoals het schaamteloos omarmen van de AGW-theorie, geloven in een welvarende samenleving die uitsluitend draait op zonne- en windenergie, Fukushima een ‘ramp’ noemen terwijl er geen enkel slachtoffer gevallen is, gentech heel eng vinden (‘je weet nooit hoe het uit de hand kan lopen’, et cetera et cetera. Voor hen heeft duurzaamheid dus een andere betekenis.
Veel van deze lieden denken het morele gelijk aan hun kant te hebben (goede mensen) en verkondigen graag hun blijde boodschap. Een aantal van hen kunt u derhalve voor een aanzienlijk bedrag inhuren als spreker. De op deze wijze extra geëmitteerde CO2 wordt natuurlijk maatschappelijk verantwoord afgekocht door het laten planten van een boom.
Kortom, het werd tijd dat deze lieden eens nader onder het licht werden gehouden. En dat doen de initiatiefnemers van de site http://www.duurzame100.nl/ op humoristische wijze! Volg de link en geniet! Geniet met mate uiteraard, want het leven is geen lolletje.
28-9-2012
Klimaatmodellen zitten er flink naast
De geavanceerde klimaatmodellen die voorspellen wat de ontwikkeling van de
temperatuur op aarde zal worden de komende decennia zitten er flink naast. Dr.
John R.Christy, professor aan de University of Alabama Huntsville is op 20
september j.l. gehoord door de Energy and Power Subcommittee van het Congres en
heeft de meest recente cijfers eens voor de parlementariërs op een rijtje gezet.
Hieronder ziet u wat dat opgeleverd heeft.
Christy gebruikt voor de vergelijking 38 klimaatmodellen uit de CMIP5 dataset.
Meer hierover is te vinden in de
Climate Explorer van het KNMI.
Hij zette vervolgens de datareeksen op basis van metingen ook in de grafiek. Dat
zijn de reeksen van NCDC, NASA, HadCRUT4, RSSLT en UAHLT. De laatste zijn
datasets verkregen door satellieten. De referentieperiode is 1979-1983.
Conclusie: vrijwel alle modellen schatten de temperatuurontwikkeling op aarde
veel te hoog in.
De temperatuurstijging in het Arctische gebied is zoals bekend sterker dan de gemiddelde aardse temperatuur. De recente afname in het oppervlak van het zomerse drijfijs wordt vaak door alarmisten gebruikt om de ‘catastrofale gevolgen van de antropogene opwarming’ te duiden. Weliswaar doen de modelmatige voorspellingen het in het gebied tussen 70 °NB en 90 ° NB het wat beter dan voor de aarde als geheel, maar ook hier schatten de meeste modellen de temperatuurontwikkeling veel hoger in dan wat in werkelijkheid gemeten is.
Bekijken we dezelfde cijfers voor de regio met drijfijs rond Antarctica ( 60 ° ZB tot 75 ° ZB), dan is ook hier hetzelfde beeld als voor de aarde als geheel: de modellen voorspelen een flinke stijging van de temperatuur in het gebied, terwijl de gemeten waarden zelfs een lichte daling vertonen.
Modellen zijn dus tot nu toe slecht in het voorspellen van de temperatuurontwikkeling op aarde. Desondanks zijn ze zonder terughoudendheid gebruikt door het IPCC en andere instanties om ons er van te doordringen dat een grote opwarming gaande was met mogelijk desastreuze gevolgen.
Hawkins en Sutton hebben in 2009 onderzoek gedaan naar de onzekerheid in klimaatmodellen. Onderstaande figuur stamt uit de publicatie. De oranje kleur betreft de interne variabiliteit.
Mojib Latif van de universiteit van Kiel voegt aan de onzekerheid in het gebruik
van modellen om de temperatuur te voorspellen nog een extra factor toe: de
onvoorspelbare externe invloeden op het klimaatsysteem. Over wellicht de
belangrijkste, de zon, is hier al vaker geschreven.
Over het drijfijs graag een volgende keer.
23-9-2012
Het weer wordt steeds extremer
Dat is wat klimaatalarmisten de ‘gewone man’ graag willen laten geloven. Dat
idee is gevoed door het derde rapport van het IPCC en gebaseerd op
klimaatmodellen. Op basis van de gebruikte modellen werd een toename van
extremen gebeurtenissen in het weer voorspeld, als gevolg van stijgende
temperaturen. Ik heb hier al vaker laten zien dat die voorspelling tot op heden
niet bevestigd wordt door waarnemingen. Zie hiervoor 'Meer Naruurrampen' in het
hoofdstuk 'De feiten' in het menu.
Met name als het hier of daar de weersomstandigheden ‘records’ breken is het
weer tijd voor sommigen om het dogma van het extremer wordende weer uit de kast
te halen en op te poetsen. Nu zijn er in het weer een schier oneindig aantal
records om te breken, zodat er altijd wel ergens een sneuvelt. De aarde is
immers zeer groot en het weer zeer dynamisch.
Afgelopen zomer was het opmerkelijk droog in de Midwest van de USA. Er werd al rap gesproken van een ongekende droogte en een link met de vermeende antropogene opwarming werd snel gelegd. De vraag is natuurlijk of het inderdaad een zeer uitzonderlijke en ongekende situatie betrof. Daar heeft Christy vorige week enkele interessante dingen over gezegd. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres. Het verslag daarvan kunt u hier vinden.
In bovenstaande grafieken is de droogte in de Midwest weergegeven voor de periode van januari 1900 t/m juli 2012. Zoals te zien is is er wel sprake van meer dan gemiddelde droogte in de Midwest, maar van extreme omstandigheden is geen sprake. Duidelijk is ook te zien dat in de eerste helft van de periode grote droogte veel vaker voorkwam dan in de tweede helft. Bekijkt men dat voor de gehele USA dan is dit beeld hetzelfde:
Interessant is ook om te kijken naar records op het gebied van dagelijkse maximum en minimum temperaturen. Meehl et al (2009) hebben gepubliceerd over de records in dagelijkse maximum en minimum temperaturen in de USA. De studie, Relative increase of record high maximum temperatures compared, liet een onmiskenbare toename van de records van de dagelijkse maximum temperatuur zien ten opzichte van records in de dagelijkse minimum temperatuur.
Meehl et al : “The current observed value of the ratio of daily record high maximum temperatures to record low minimum temperatures averaged across the U.S. is about two to one. … Following an A1B emission scenario for the 21st century, the U.S. ratio of record high maximum to record low minimum temperatures is projected to continue to increase, with ratios of about 20 to 1 by mid-century, and roughly 50 to 1 by the end of the century. ”. A1B emission scenario slaat op de CO2-emissies door de mens en is terug te vinden in het vierde rapport van het IPCC.
Op onderstaande grafiek is van dezelfde 970 langjarige meetreeksen de records van de dagelijkse minimum temperatuur te zien. Er was een piek aan records te zien aan het begin van de vorige eeuw, en een lichte daling vanaf begin jaren ’80.
Voor de 704 USHCNv2 meetstations die een meetreeks van meer dan 100 jaar hebben heeft Christy de ratio record max.temp/min.temp in een grafiek weergegeven:
Vergelijk deze grafiek eens met die van Meehl et al. Het is duidelijk: als men een langere periode van waarnemingen aanhoudt wordt het beeld volledig anders. Christy zegt terecht: “…the claim of rapidly increasing ratios would not hold”. Ik ben met Christy van mening dat het beter is af te gaan op meetgegevens dan op de uitkomsten van modellen.
Gaan we even terug naar de “extreme” droogte van de zomer 2012 zoals die geclaimed wordt door klimaatalarmisten. Piechota et al ( 2004 , The Western U.S. Drought: How Bad Is It? ) reconstrueerden de droogte in het Upper Colorado River Basin (UCRB) vanaf 1500. Het resultaat is hieronder te zien. De grijze balken geven perioden weer met meer dan gemiddelde droogte. De lijn is het voortschrijdend gemiddelde van de zogenaamde Palmer Hydrological Drought Index (PHDI), een droogte-index gebaseerd op neerslag en temperatuur. Negatieve waarden zijn perioden met grote droogte. De 20e eeuw komt naar voren als een relatief natte periode. Zo wisselt het beeld dat men van droogte krijgt door te wisselen van tijdschaal. Mijns inziens wordt dat de afgelopen jaren veel te weinig gedaan.
Een volgende keer wellicht wat meer over het optreden van Christy voor het congrescomité voor Energy and Power.
7-9-2012
CO2 , de zon en de temperatuur op aarde
Een tijdje terug publiceerde Russ Steele op zijn weblog onderstaande grafiek van de hand van meteoroloog Joe Bastardi. Men ziet voor de periode 1979 tot heden het verloop van het CO2-gehalte in de atmosfeer zoals gemeten op Mauna Loa Observatory op Hawaii, de globale zee-en landtemperatuur volgens de datareeks HadCRUT3, en de SST (sea surface temperature) volgens de datareeks HadSST2.
Russ vraagt zich af: “ If the admission to the school of your choice, be it
Cornell, or lets say Columbia or Harvard, depended on you answering this
question — “Given the facts presented in the chart below, is CO2 driving the
Earth’s temperature?” — how would you answer it? ”
En bezie nu eens de figuur over de inkomende zonnestraling en de maximum
dagtemperaturen in de USA. De figuur is afkomstig van een onderzoek door Willie
Soon and William M. Briggs, waarvan de resultaten gisteren werden gepresenteerd
in de
Washington Times.
Het toont een sterke correlatie tussen inkomende zonnestraling en de
oppervlaktetemperatuur in de USA. Tot nu toe werden bij dergelijke onderzoeken
ook altijd de nachttemperaturen meegenomen, wat natuurlijk verwonderlijk is
omdat de zon dan niet schijnt. De variatie in inkomende zonnestraling (in W/m2)
is erg klein, maar de maximum dagtemperatuur in vooral wolkenloze regio’s volgt
die opvallend goed.
Soon: “Pictures like these cannot be drawn for temperature and CO2
concentration. There just is no such close match between the steady rise in
atmospheric CO2 concentration and the often dramatic ups and downs of surface
temperatures in and around the Arctic, China and the United States.” Waarvan
acte zou ik zeggen (zie eerste figuur).
Soon en Briggs hebben al eerder een dergelijke sterke correlatie tussen zonnestraling en maximum temperaturen waargenomen in diverse andere regio’s op aarde. Zo vonden ze een dergelijke correlatie ook bij hun onderzoeken in het Arctische gebied en China. Ook de onderzoekers Van Loon en Meehl hebben in een aantal recente publicaties (hier en hier) deze zonnestraling-oppervlaktetemperatuur-hypothese wetenschappelijk op de kaart gezet.
De verklaring voor de sterke relatie tussen zonnestraling en temperatuur is volgens Soon en Briggs te vinden in de conveyor belt, de grote thermohaline circulatie die grote massa’s water verplaatst in de oceaanbekkens. Hierbij is vooral de uitwisseling tussen Arctische Zee en tropen van belang.
Delhi en het UHI-effect
Een recent onderzoek van Javed Mallick en Atiqur Rahman toont een sterke correlatie tussen verstedelijking en oppervlaktetemperatuur in Delhi (India). Het is bekend dat de verwijdering van natuurlijke vegetatie en de vervanging daarvan door antropogene materialen als asfalt, steen, beton en dergelijke en aanwezigheid van warmtebronnen een temperatuurverhogende werking hebben. Omdat dit effect het grootst is in urbane gebieden wordt dit het Urban Heat Island-effect genoemd. Zoals bekend is er al een aantal jaren een levendige discussie hoe groot een dergelijk effect is en welke invloed het UHI heeft op de meetgegevens van meetstations. Zie hiervoor het hoofdstuk De Feiten en dan UHI.
De onderzoekers hebben met hun publicatie bijgedragen aan de kennis over de relatie tussen UHI en urbanisatiegraad. Ze maakten gebruik van datasets van de satelliet ASTER die de oppervlaktetemperatuur van Delhi weergeven, alsmede gegevens van de bevolkingsdichtheid in Delhi (Census of India 2001). De satelliet ASTER meet onder andere infrarood met een resolutie tot 15 m. Gebruikt zijn de nachtelijke gegevens van 7 oktober 2001. Op het kaartje hieronder ziet men de ruimtelijke variatie in oppervlaktetemperatuur in genoemde nacht.
Zoals te zien is is de ruimtelijke variatie in nachtelijke temperatuur erg groot, , en varieren van 23,9 °C tot 40 °C. Op onderstaande kaart is de bevolkingsdichtheid van Delhi weergegeven. Duidelijk is te zien dat de gebieden met de hoogste temperaturen ook de gebieden zijn met de grootste bevolkingsdichtheid.
Op het derde kaartje zijn beide gegevens in een kaart weergegeven:
Maar nog sprekender is de volgende grafiek, die aan duidelijkheid niets te wensen over laat:
De waarde van de logaritmische regressie (R2) is 0,748, wat wijst op een sterke correlatie tussen bevolkingsdichtheid en temperatuur.
De grote ruimtelijke variabiliteit van de temperatuur in Delhi is opvallend, en correspondeert niet met schattingen van het UHI door onder andere GISS-NASA, die op veel lagere waarden uitkomen. Natuurlijk zijn niet alle urbane gebieden vergelijkbaar met het urbane gebied Delhi. Omvang van steden en andere ruimtelijke factoren zullen vaak afwijken van die in India. Desondanks lijkt de uitkomst van dit onderzoek me een extra stimulans om het UHI en de problematiek van meetstationlocaties nog een keer serieus onder de loep te nemen.
In de vorige bijdrage schetste ik de problemen om bij een haffenkust zoals
die van North Carolina zeespiegelreconstructies te doen. Een dergelijke kust
(ook de Nederlandse kust is van oorsprong een haffenkust) is te dynamisch van
aard om betrouwbare data op te leveren. Kemp et al deden dat toch, in 2011, in
hun publicatie getiteld “Climate related sea-level variations over the past
two millennia”. Deze publicatie leverde zeedata over de afgelopen 2
millennia.
In deze bijdrage ga ik in op het door Kemp et al gebruikte wiskundige model om
met behulp van de gereconstrueerde zeespiegeldata van de afgelopen 2000 jaar een
voorspelling te doen voor de komende eeuwen. Tom Moriarty heeft in zijn weblog
climatesanity het gebruikte model aan een nadere inspectie onderworpen.
Moriarty is fysicus en Senior Scientist bij de US Department of Energy’s
National Renewable Energy Laboratory. Moriarty ploos het gebruikte wiskundige
model van Kemp et al uit en gebruikte daarvoor ook de modellen die de auteurs in
voorafgaande publicaties gebruikten. Zie hiervoor zijn
bijdragen. KMVR2011 is de bovengenoemde publicatie van Kemp:
“ Here is the KMVR2011 model:
where
Where H is the sea level, T(t) is the global temperature, Too, a1, a2, b and τ
are all constants and To(t) is a to-be-determined time varying function related
to T(t) as defined by equation Ia.
Now, consider the following temperature evolution. It is nearly the same as
equation II from my previous post, but has an additional unitless constant, γ
(a.k.a. “gamma”), in the exponential…
If equation II is inserted into equation I, then…
Rearranging terms in equation III gives…
H is the sea level. dH/dt, the derivative of the sea level, is the sea level
rise rate. d2H/dt2, the second derivative of the sea level, is the rate at
which the sea level rise rate changes. That is, d2H/dt2, is the acceleration.
If d2H/dt2, is positive, the sea level rise rate is increasing. Conversely, if
d2H/dt2, is negative, then the sea level rise rate is decreasing. Taking the
time derivative of equation IIIa gives…
Let’s also consider the difference in the sea level rise rates at some time, t,
for different values of γ. We can do this by analyzing the derivative of dH/dt
(equation IIIa) with respect to γ.
What does the math tell us? KMVR2011 does not conclude with specific values for
their model constants and their time varying T0(t). Instead, they present
probability density distributions for some constants, or combination of
constants. However, there are some definite constraints that can be noted about
the variables and their relationships to each other. These constraints are key
to my conclusions.
Constraints:
*) a1 + a2 = a, where a1 and a2 are defined in KMVR2011 (see equation I, above)
and a is defined in VR2009. VR2009 found a = 5.6 mm/yr/K.
*) a1 > 0 mm/yr/K and a2 > 0 mm/yr/K. KMVR20011 states that the distribution
of a1 for their Bayesian analysis varied between 0.01 and 0.51 mm/yr/K.
Needless to say, if either of these terms were less than zero the KMVR2011 model
would make even less sense that it does now. That would be a road that the
KMVR2011 authors do not want to travel.
*) b < 0 . VR2009 found b = -49 mm/K. KMVR2011 varied b about -49 mm/K with
σ2 = (10 mm/K)2 for their Bayesian analysis.
( VR2009 is de publicatie van Vermeer en Rahmstorf , 2009 PNAS paper, “Global sea level linked to global temperature“ ( Rob de Vos))
*) C > 0. C is a unitless constant that I introduced, and for the
purposes of this post I am constraining C to be greater than zero.
*) γ > 0. γ is a unitless constant that I introduced, and for the purposes of
this post I am constraining γ to be greater than zero.
*) Time, t, is restricted to about 1900 and later for my hypothetical
temperature (equation II). This insures that T(t) > T0(t), which in turn
insures that dT0(t)/dt > 0.
The equations above, coupled with the listed constraints guarantee the signs of
the derivatives shown in table 1, below.
As you can see from table 1, it gets little confusing for 0<γ<1. When a1,
a2, b, C, and γ conform to the listed constraints, the signs of the various
derivatives are known with certainty as long as…
But when …
at some point in time t- t’ will become large enough that d2H/dγdt will become
positive. When that time occurs depends on the choices of a1, a2, b and γ. If
we choose a1, a2 and b to agree with VR2009 (recall a1 +a2 = a = 5.6 mm/yr/K,
and b = -49 mm/K) and γ = 0.8, then d2H/dγdt will continue to be negative until
t – t’ = 44 years. “.
De conclusie van Moriarty uit bovenstaande exercitie in hogere wiskunde is nogal absurd: Het model van Kemp et al levert bij hogere temperatuurstijgingen geen stijging van het zeeniveau op maar een daling ervan! Deze grafiek geeft de temperatuurstijging weer bij verschillende scenario’s:
En dit zij de gevolgen voor de zeespiegel als men het model van Kemp et al
hanteert:
Conclusie: het gehanteerde model voorspelt zeespiegeldalingen bij
temperatuurstijgingen. Volgens Kemp is dit een gevolg van het feit dat de
constante b een negatief teken heeft.
Stefan Rahmstorf zei over Moriarty: “ Science progresses by peer-reviewed
publications, not blogs. We are well advanced in preparing a paper that includes
the latest sea level data and groundwater pumping estimates, as well as looking
at a number of other factors. That will be up for discussion once it appears in
the peer-reviewed literature. (Without giving away too much, I can probably
already say that we come to different conclusions from what you claim.) ”.
Dit commentaar van Rahmstorf deed hij vóór de laatste publicatie. Misschien zou
het voor de wetenschap goed zijn als Rahmstorf zijn academische arrogantie eens
opzij zou zetten. Moriarty is niet de eerste ‘leek’ die buiten het formele
circuit van publicaties om laat zien dat hij verstand van zaken heeft. Maar
helaas wordt hij , net als McIntyre, gezien als een gevaarlijke buitenstaander.
Dat dit tot verhitte debatten en ferme uitspraken leidt leest men in deze
blog.
Een volgende keer meer over de temperatuurreconstructie van de afgelopen 2
millenia door Mann et al.
Sterke zeespiegelstijging verwacht? Deel 2
In de vorige bijdrage heb ik een beeld geschetst van de opbouw van de publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin Vermeer, Long-term sea-level rise implied by 1.5°C and 2°C warming levels, in Nature Climate Change van 24 juni 2012. De publicatie leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”. Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is.
In deze bijdrage zal ik me richten op de lokatie van het onderzoek en de problemen en onzekerheden die daarmee samenhangen. Daarover heb ik a eerder op deze site geschreven. In een volgende bijdrage zal ik aandacht besteden aan het model dat de onderzoekers gebruikt hebben.
In het artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.
Een van die auteurs is Michael
Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de
publicatie op extra belangstelling mocht rekenen van diegenen die het
klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie
van het zeeniveau als op de gebruikte temperatuurdata.
Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn: a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel |
![]() |
Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal
sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de
oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was
men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk
kustonderzoek voor extra complicaties zorgt is bekend.
Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van
het zeeniveau langs de kust bondig samen in onderstaande figuur.
Bron:
Mörner
Zoals op het kaartje goed te zien is, is de kust van North Carolina een
sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf.
Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West
en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen
ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie
bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren.
Bovendien is het extra lastig op basis van de veenafzettingen dergelijk
onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken
hebben met inklinken, mar ook met andere geochemische reacties.
De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of
geological records with trends in regional and global tide-gauge data (Figs. 2B
and 3) validates the salt-marsh proxy approach and justifies its application to
older sediments. Despite differences in accumulation history and being more than
100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”
Bron: WUWT
Eschenbach heeft in een
bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie
inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande
figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijk
Hampton Roads en
Wilmington.
Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien
heeft Eschenbach de satellietgegevens van
TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data
bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3)
validates the salt-marsh proxy approach and justifies its application to older
sediments” zoals de auteurs beweren.
Bron: WUWT
Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is,
terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen
300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar
de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat
van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men
in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point
betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de
laatste.
Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.
" Opwarming van het klimaat zorgt de komende eeuwen voor een significante
stijging van de zeespiegel. Zelfs bij een succesvol klimaatbeleid met een
opwarming van minder dan 2 graden Celsius stijgt de zeespiegel deze eeuw 75 tot
80 centimeter ten opzichte van 2000. Rond 2300 is een verdere stijging tussen de
1,5 en 4,0 meter te verwachten, met als meest waarschijnlijke stijging 2,7
meter. Dat schrijven internationale klimaatonderzoekers, waaronder van
Wageningen University, in het wetenschappelijk tijdschrift Nature Climate Change
van 24 juni. Zij doen die uitspraken op basis van zeer uitvoerige berekeningen
van de zeespiegelstijging in de afgelopen duizend jaar en beleidsscenario’s rond
de uitstoot van broeikasgassen in de komende eeuwen.
Met een gericht klimaatbeleid kan de uitstoot van CO2 verder worden teruggebracht en daarmee de opwarming op max. 1,5 graad Celsius uitkomen. In die omstandigheden valt volgens de onderzoekers de meest waarschijnlijke stijging in 2300 lager uit, maar die is dan naar schatting nog altijd ruwweg 1,5 meter. Als de klimaatopwarming in de komende eeuwen uitkomt op 3 graden, dan is een stijging tussen 2 en 5 meter te verwachten, met een meest waarschijnlijke stijging van 3,5 meter."
Aan de aanhalingstekens en de cursieve letter is al te zien dat dit een citaat
is en dat dit niet uit eigen koker komt. Het is een deel van een
persbericht dat de WUR gepubliceerd heeft naar aanleiding van een nieuwe
publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin
Vermeer,
Long-term sea-level rise implied by 1.5°C and 2°C warming levels, in
Nature Climate Change van 24 juni 2012.
![]() |
Nu waren we al wat gewend na het
rapport van de Deltacommissie onder leiding van Cees Veerman. De
commissie bestond uit 10 mensen, van wie er zeggen en schrijven 3 iets
hebben gestudeerd dat met het onderwerp zeespiegel te maken heeft.
Conclusie van de commissie: rond 2100 is de zeespiegel tussen 65 en 130
cm gestegen. Hoon was hun deel, toen bleek dat die 130 cm bij elkaar
gerommeld was. Wat dat betreft vallen die 75 tot 80 cm in het jaar 2100
van het rapport van Schaeffer et al best wel mee. Maar is het reëel? Schaeffer et al zeggen dit: “Projecting sea level into the future is still associated with
large uncertainties. Physics-based models attempting to predict the
combined contributions from thermal expansion, glaciers and ice sheets
are not yet mature and underestimate the SLR observed in past decades.
One of the largest uncertainties at present is the response of the
Greenland and Antarctic ice sheets, where process-based models do not
capture the full response so far observed1, nor the timescales of
response seen in the palaeorecord. |
While these models are further developed, semi-empirical models have
emerged as a complementary approach and have shown their ability to reproduce
sea-level evolution over the past millennium and the modern tide-gauge record
well, leading to projections that are robust against different choices of input
data and statistical approach. It remains open, however, how far the close link
between global sea level and temperature found for the past will carry on into
the future.
Despite this caveat, the results presented here provide at least plausible
estimates for sea-level evolution in the coming centuries and a number of robust
insights into how it can be affected by mitigation measures. A key aspect of
this, irrespective of the exact numbers, is the long response time of sea level
that is physically expected from the slow response of large ice sheets and the
deep ocean to climate change, and also found in palaeoclimate data2. This slow
response means that about half of the twenty-first century SLR is already
committed from past emissions. ”.
Voorzichtigheid dus ook bij de auteurs, maar desalniettemin een voorspelling van een forse zeespiegelstijging voor de komende 90 jaar. Laat ik daarom eens enkele aspecten van de publicatie onder de loep nemen. In de publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels” maken de auteurs gebruik van een zogenaamd semi-empirisch model om toekomstige zeespiegelstijging te voorspellen. Voor het gebruik van dit model is een record van zeespiegeldata een voorwaarde. De publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels” leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”.
Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is. Michael Mann was nodig om de auteurs te voorzien van cijfers over de temperatuur van de afgelopen 2000 jaar. Die komen uit zijn publicatie uit 2008, getiteld “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia”.
Dus de opzet ziet er als volgt uit:
1) De publicatie van Schaeffer et al doet een voorspelling over de toekomstige
zeespiegel in 2012
2) Daarvoor is een reconstructie nodig van de zeespiegel over de afgelopen 2000
jaar, die wordt geleverd door Kemp et al in 2011
3) De reconstructie van de zeespiegel gedurende de afgelopen 2000 jaar kan niet
zonder een reconstructie van de globale temperatuur van de afgelopen 2000 jaar,
en die wordt geleverd door Mann et al in 2008
Volgende keer ga ik dieper in op de publicatie van Kemp et al.
Dit is de grafiek die bij de opdracht hoort. Trouwe lezers herkennen hem van een recente bijdrage over het examen havo van 2 weken geleden, en al wat langer van het hoofdstukje ‘De Sahara Groeit’.
Een leuke vraag: je test het lezen van de grafiek en de kandidaat moet het
verband begrijpen tussen neerslag en de verschuiving van vegetatiezones. En dit
is het antwoord uit het officiële correctiemodel:
Ik moest het antwoordmodel twee maal lezen, en begreep toen dat de examenmakers een enorme fout hebben gemaakt. Ziet u wat er fout is? Aan het antwoordmodel te zien zou er in 1965 sprake moeten zijn van een omslagpunt, waardoor vegetatiezones verschuiven. Ik pijnigde mijn hersens wat er in godsnaam aan de hand was met 1965. Toen begreep ik de absurde redenering die de examencommissie/CITO hier gevolgd heeft: tussen 1950 en 1965 waren de jaarlijkse hoeveelheid neerslag groter dan het langjarig gemiddelde, erna kleiner. De examenmakers denken dus dat het langjarig gemiddelde van de neerslag in de Sahel een omslagpunt is dat verschuiving van vegeatiezones triggert. Onbegrijpelijk.
Het gaat om het verschuiven van vegetatiezones. Die zones verschuiven vanwege
in dit geval veranderingen in het neerslagpatroon. Het is in het geheel niet
interessant of in bepaalde jaren de neerslag boven of onder het langjarig
gemiddelde ligt. Het gaat om de dynamiek, niet het absolute getal. Van 1950 tot
1985 neemt de jaarlijkse hoeveelheid neerslag in de Sahel af. Deze afname zorgt
voor een verschuiving van de vegetatiezones richting evenaar. Na 1985 nemen de
jaarlijkse hoeveelheden neerslag in de Sahel weer toe, met als gevolg een
verschuiving van de vegetatiezones naar het noorden.Of de jaarlijkse neerslag
boven of onder het gemiddelde ligt is zoals reeds gezegd in het geheel niet van
belang. Hoe zou zoiets überhaupt moeten? Een gemiddelde is een rekenkundige
waarde, niets meer dan dat.
Vegetatie reageert op veranderingen in de externe factoren, niet op een door de
mens berekend gemiddelde.
In het neerslagpatroon in de Sahel zit een periodiciteit, die waarschijnlijk
samenhangt met die van de AMO, Atlantic Multidecadal Oscillation. Dat is een
maat voor de natuurlijke variabiliteit van de SST (sea surface temperature) van
de noordelijke Atlantische Oceaan , met een periodiciteit van 60 tot 80 jaar.
Het dieptepunt in die periodiciteit hebben we rond 1985 gehad. Velen herinneren
zich nog wel de vreselijke beelden van verhongerende mensen in de Sahel. Vanaf
1985 neemt de neerslag weer toe, en met een periodiciteit van 60 tot 80 jaar is
te verwachten dat die neerslagtoename in de Sahel nog wel tot het midden van
deze eeuw zal doorgaan. Wat overigens niet wil zeggen dat het elk volgend jaar
natter is. Daarvoor is het neerslagpatroon in deze regio te wisselvallig.
Het eerste deel van het antwoord moet derhalve luiden: tussen 1950 en 1985
neemt de jaarlijkse neerslag af, met als gevolg naar het zuiden verschuivende
vegetatiezones. Na 1985 neemt de jaarlijkse neerslag toe, en verschuiven de
vegetatiezones naar het noorden.
Examencommissie/CITO : een dikke 1 dus voor het antwoord op vraag 16 !
![]() |
Het artikel van Pascal Bruckner in de
Volkskrant van 15-6-2012 over het gevaar van het moderne doemdenken is
mij uit het hart gegrepen. De planeet als het nieuwe proletariaat dat
moet worden gered van uitbuiting is exact wat de afgelopen jaren in het
westen is gebeurd.
Bruckner is filosoof en als associate professor verbonden aan het Institut d’Études Politiques de Paris. Dit instituut leidt van oudsher de Franse politieke en diplomatieke elite op. Het artikel van Bruckner is oorspronkelijk in het Engels verschenen in City Journal. |
Arabist Hans Jansen schreef al in 2007 in HP dat de mens een eigenaardig, mogelijk aangeboren, verlangen naar het einde der tijden heeft. Bruckners constatering dat schrijvers, politici, journalisten en wetenschappers wedijveren in het schilderen van de verschrikkingen als we ons leven niet beteren stemt me niet vrolijk. Hij schrijft: “ De angst die deze intellectuelen zaaien, is een soort vraatzuchtig enzym dat zorgen opslokt, zich ermee voedt en vervolgens op zoek gaat naar nieuwe zorgen. Toen de kerncentrale van Fukushima instortte na de enorme aardbeving in Japan van maart 2011, was dat niet meer dan een bevestiging van een reeds aanwezige angst die slechts wachtte op invulling. Over een half jaar zijn we weer in de greep van een andere angst: een pandemie, de vogelgriep, smeltende ijskappen of de straling van mobieltjes. Angst wordt ook een zichzelf vervullende profetie. De media berichten dat jonge mensen wakker liggen van de zorgen over de opwarming van de aarde. Alsof dat verbazing wekt; dezelfde media pompen die zorgen er voortdurend in. Als een echoput weerspiegelen opiniepeilingen de opvattingen die de media verspreiden. Zo worden we ingeënt tegen de vrees door het steeds weer herhalen van dezelfde thema's. ”
Diegenen die niet mee doen in deze apocalyptische stoelendans worden verketterd en verguisd: “De econoom Rajendra Pachauri, het hoofd van het Intergovernmental Panel on Climate Change van de VN, heeft de Deense statisticus en eco-scepticus Bjørn Lomborg zelfs vergeleken met de Führer. De Amerikaanse klimaatwetenschapper James Hansen heeft oliemaatschappijen die 'twijfel proberen te zaaien over de opwarming van de aarde' beschuldigd van 'ernstige misdaden tegen de menselijkheid en de natuur'. Hansen bestempelde treinen die kolen vervoeren als 'doodstransporten'. Ellen Goodman, columnist van The Boston Globe, schreef dat 'ontkenners van de opwarming op gelijke voet staan met ontkenners van de holocaust'. ”
Al Gore, de voormalige vice-president van de USA, is een prominente speler in het rondreizende circus van angstprofeten. In zijn documentaire ‘An Inconvenient Truth’ stelde hij: “ De mensheid zit op een tijdbom. Als de overgrote meerderheid van de wetenschappers gelijk heeft, hebben we nog maar tien jaar om een enorme catastrofe af te wenden die het hele klimaatsysteem van onze planeet in een duikvlucht van gigantische vernietiging zal storten. Dat zal gepaard gaan met extreem weer, overstromingen, droogte, epidemieën en dodelijke hittegolven die erger zijn dan we ooit hebben meegemaakt: een catastrofe die we zelf hebben veroorzaakt. ”. Dat een dergelijke voorspelling zelfs op de examencommissie en het CITO indruk maakte heb ik in de bijdragen van 6 juni en 8 juni j.l. duidelijk gemaakt.
Vanuit allerlei hoeken is al jaren sprake van een vloedgolf van propaganda over de opwarming van de aarde en voor de noodzaak om van buitenaf in te grijpen in de economie van de rijke landen. Een aantal kiezers in het Westen is extreem gevoelig voor zulke verhalen en omhelst deze nieuwe leer van harte. Hans Jansen constateerde dat de mens in zijn borst ‘een heftig heimwee naar het einde der tijden’ draagt. De VN en in het bijzonder het IPCC zijn daarmee voertuigen geworden om een nieuwe wereldorde tot stand te brengen. Arme landen vormen de meerderheid in deze organisaties, en veel leiders van die arme landen zien de rapporten van het IPCC en de klimaatconferenties als vehikels om Westerse geldstromen om te buigen naar hun eigen land. Het kapitalistisch productiesysteem wordt verantwoordelijk geacht voor de naderende ondergang, dan wel verantwoordelijk gesteld om opportunistische redenen. Maar er is hoop vanuit onverwachte hoek: het is op aarde de afgelopen 15 jaar niet warmer geworden. Of dat indruk maakt op de doemdenkers valt te betwijfelen.
Op deze site is al vaak aandacht besteed aan de temperatuurgang van de laatste ijstijd naar het Holoceen tot heden. Zie onder “De Dogma’s” het hoofdstuk “Unieke Temperatuurstijging”. De vermoedens dat de koudeperiode op de overgang van Weichselien naar Holoceen het gevolg was van een extraterrestrische gebeurtenis worden ondersteund door de uitkomsten van een recente publicatie van de Universiteit van Californië in Santa Barbara.
Op bovenstaande grafiek is die koudeperiode tussen 13.000 en 11.500 jaar BP duidelijk waar te nemen. De getoonde data komen van de GRID2 ijskern op Groenland (data hier). Proxies als ijs- en gasisotopen leverden een betrouwbare reconstructie op van de temperatuur op de overgang van Pleistoceen naar Holoceen. Een kleine 15.000 jaar BP steeg de temperatuur in Groenland sterk, een teken dat het Weichselglaciaal ten einde was. Maar rond 14.500 BP daalde de temperatuur trapsgewijze weer tot op glaciaal niveau, om pas vanaf 12.500 BP op te veren tot de bekende Holocene waarden. Van deze abrupte klimaatwijzigingen vinden we op veel plaatsen op aarde bewijzen.
Tot nu toe was de meest aangehangen theorie dat de afkoeling het gevolg was van het uitvallen van de warme zeestroom in het noordelijk deel van de Atlantische Oceaan. De gedachte was dat het Agassizmeer in Noord-Amerika, dat een enorme hoeveelheid smeltwater van het Canadese landijs bevatte, leeg liep in de Atlantische Oceaan. Die enorme hoeveelheid zoet water zou dan de thermohaline circulatie verstoord hebben, waardoor er geen warm tropisch water meer naar het noordelijk deel van de Atlantische Oceaan gevoerd zou zijn, met sterke afkoeling tot gevolg.
Ook theorieën over een zonnewind en over een langdurige verschuiving van de straalstroom deden de ronde, alsmede een grote vulkaanuitbarsting. Maar zoals het er nu naar uit ziet kunnen we al deze theorieën overboord zetten. De uitkomsten van de ploeg van professor James Kennett lijken tamelijk overtuigend. Het team deed onderzoek naar sedimentgesteenten uit de genoemde periode op een drietal plaatsen, namelijk Pennsylvania, South Carolina en Syrië. Op alle plaatsen werd een dun laagje sediment gevonden dat gevormd moet zijn bij temperaturen van 1700 tot 2200 °C. Het moet daarom wel het gevolg zijn van de botsing tussen de aarde en een lichaam dat vanuit de ruimte de aarde bereikte. De gevolgen voor flora en fauna waren groot: veel soorten, waaronder mammoeten, verdwenen definitief van de aarde.
Bron: UCSB
Het ontdekte laagje bestaat uit glasachtig materiaal, dat ontstaat als zand door enorme hitte smelt en gaat koken. Dergelijk materiaal is ook gevonden bij Meteor Crater in Arizona. Vergelijkbare onderzoeksresultaten uit Venezuela en Duitsland versterken het vermoeden dat de koudeperiode van het Younger Dryas geen terrestrische oorzaak heeft maar een kosmische.
De afvoerdata van de Maas (Eijsden) zijn het uitgebreidst en beginnen in 1950. Die van de Rijn (Lobith) zijn aanwezig vanaf 1989. Het meest recente jaar dat geheel in de database aanwezig is op dit moment is 2010. In bovenstaande grafiek heb ik de afvoer van de Maas weergegeven. De zwarte lijn is de lineaire trendlijn, de donkerblauwe lijn verbindt de data met de hoogste afvoer in elk jaar. Begin jaren ’90 en rond 2000 zijn er wel enkele jaren geweest met een verhoogde winterafvoer, na 2002 verdwijnen die extreme winterafvoeren weer.
De Rijn geeft hetzelfde beeld: enkele pieken in de jaren ’90 en rond 2000, na
2002 verdwijnen die piekafvoeren weer uit het beeld. Omdat van beide rivieren de
piekafvoer in de winter ligt, is het duidelijk dat deze gerelateerd moet zijn
aan het neerslagpatroon in NW Europa. Het is daarom te verwachten dat de
afvoergrafiek van de Rijn sinds 1950 eenzelfde patroon zal hebben als dat van de
Maas.
Conclusie: op basis van de meetgegevens vanaf 1950 is het antwoord op vraag 30
in het correctiemodel onjuist.
6-6-2012
HAVO examen aardrijkskunde goes climate
Ik ben de afgelopen tijd niet in staat geweest om bijdragen te schrijven voor de site: de examens slokten teveel van mijn (vrije) tijd op. Maar ook de eindexamens van het voortgezet onderwijs besteden aandacht aan klimaatverandering. Vorige week zaten de eindexamenleerlingen HAVO die het prachtige vak aardrijkskunde volgen achter de opgaven. Een aantal opgaven was klimatologisch van aard, bijvoorbeeld over de invloed van klimaatverandering vanaf het eind van de laatste ijstijd op het karakter van de Mississippi (zie plaatjes hierboven). Prima opdrachten.
Ook de vragen over het Tjaadmeer (hierboven) waren heel aardig. Wat wel opvalt
is het bovenschrift van de kaartjes: `Verdroging van het Tjaadmeer tussen 1963
en 2001´. De kaartjes tonen dat er sprake is van verdroging van 1963 tot 1987,
maar daarna gebeurt er eigenlijk weinig met de oppervlakte van het meer. Er zijn
wel kleine verschillen, maar men kan niet stellen dat er tot 2001 sprake is van
toenemende verdroging. Suggestieve kop derhalve. Trouwe lezers weten dat ik
onder het kopje `De Sahara groeit` onder `De Dogma´s` heb aangetoond dat vanaf
1984 de Sahel steeds meer neerslag krijgt, als gevolg van de AMO (Atlantische
Multidecadale Oscillatie). Zie in de betreffende paragraaf meer over dit
onderwerp. Het neerslagverloop is hieronder weergegeven. Fraai is te zien waarom
het aannemelijk is dat het Tjaadmeer na 1984 niet kleiner geworden is:
Opgave 30 is de klimaatopdracht waar ik de meeste moeite mee heb. Die luidt: “ Het veranderende klimaat is van invloed op het regiem van de Rijn en de Maas. Leg uit hoe het veranderende klimaat het regiem van de Rijn en de Maas beïnvloedt.” . Het probleem is de term ‘veranderende klimaat’. Daarmee hanteert men een proces dat niet gekoppeld is aan een bepaalde periode, dat wil zeggen het kan zowel slaan op het verleden als op wat komen gaat. Wat geweest is weten we min of meer, en van een eenduidige klimaatverandering in de stroomgebieden van Rijn en Maas is geen sprake. Bovendien: hoever moet men hier terugkijken? 10 jaar, 100 jaar, tot aan de laatste ijstijd?
Nog veel lastiger wordt het als we de term ‘veranderende klimaat’ in de toekomst plaatsen. Ook hier weer de vraag: over welke periode hebben we het? Nu zijn er wel wat voorspellingen gedaan door het IPCC, waarvan de gemene strekking is dat het allemaal wat woester en extremer zal worden. Het KNMI echoot dat regelmatig netjes na. Of dat ook zo zal zijn zal de toekomst leren, de ervaring van de laatste jaren geeft in elk geval geen aanleiding om dat met stelligheid te kunnen beweren.
En toch is dat laatste juist wat de examencommissie/CITO van de
HAVO-leerlingen verlangt. Het correctievoorschrift luidt namelijk: “ Een
voorbeeld van een juiste uitleg is: Klimaatverandering zal leiden tot een
onregelmatiger neerslagregiem / extremere weersomstandigheden waardoor het
regiem van de Rijn en de Maas onregelmatiger wordt.”. Dat is inderdaad een
voorbeeld van een juiste uitleg. Maar als een leerling het omgekeerde beweert is
dat ook juist. Maar dat staat niet in het correctievoorschrift. En ook het
verslag van het KNAG over dit examen ( advies hoe om te gaan met afwijkingen van
het correctiemodel) zwijgt hierover in alle talen. Wel adviseert men mijns
inziens ten onrechte docenten om de termen ‘hoger’ en ‘lager’ in verband met
het begrip regiem fout te tellen. Onjuist, omdat regiem slaat op de
schommelingen in de waterafvoer gedurende een bepaalde periode. Dat is dus de
amplitude, en die kan groter en kleiner worden.
Wat was dus het juiste antwoord? Dat klimaatveranderingen kunnen leiden tot
zowel het groter worden als het kleiner worden van het regiem van de Rijn en de
Maas, afhankelijk van de vraag in welke richting die veranderingen plaats zullen
vinden. En dat laatste weet niemand met zekerheid. Helaas zijn leerlingen in
ons voortgezet onderwijs op het gebied van klimaatverandering een beetje
voorgeprogrammeerd, zodat velen het ‘juiste’ antwoord gegeven hebben. Lees: het
‘gewenste’ antwoord. Jammer. Is hier sprake van opzet bij de
examencommissie/CITO ? Ik denk het niet. Ik vermoed dat er (te) weinig fysisch
geografen in de commissie/CITO zitten.
Voor diegenen die het allemaal eens na willen lezen hier de links:
Examen aardrijkskunde havo 2012 eerste tijdvak
Bijlage
Correctievoorschrift
KNAG advies
16-5-2010
De nieuwe hockeystick van Yamal
Wie kent er de hockeystick van Michael Mann niet? De grafiek die jarenlang het
boegbeeld is geweest van klimaatalarmisten en het IPCC.
Bron: IPCC
Een deel van de data die Mann gebruikte was gebaseerd op proxies van
jaarringen van de Bristle pine-tree. De grafiek had enkele grote manco’s. Zo
ontbrak het Middeleeuws Optimum zijn met name de data van de gebruikte
jaarringen omstreden. Van de gebruikte statistische methode is door McIntyre en
McKitrick gehakt gemaakt, bevestigd in o.a. het Wegman rapport dat elders op de
site uitgebreid behandeld is.
Velen van u zullen al min of meer op de hoogte zijn van de verwikkelingen rond
de zogenaamde Yamal data. Yamal is een schiereiland in het noorden van Siberie,
waar de grootste aardgasvelden van Rusland liggen. Maar het is ook de plek waar
paleoklimatologen proxies vandaan hebben gehaald. Ook daar is kort gezegd
commotie over ontstaan. Onderzoeker Briffa van CRU in Groot Brittannië heeft
namelijk een tijdje geleden een fraaie temperatuurgrafiek geproduceerd op basis
van een aantal bomen op Yamal. Ook deze grafiek heeft weer die onheilspellende
knik zoals we die al kenden van de hockeystick.
Bron:
CRU
Het grijze deel is het aantal bomen waarop de grafiek is gebaseerd. Voor de
meest recente jaren was dat aantal geslonken tot slechts 5. Zie de data van
NOAA. Nu is 5 wel erg weinig om een betrouwbare grafiek te krijgen.
McIntyre wilde de betrouwbaarheid van de grafiek natrekken, maar kon dat niet doen omdat Briffa weigerde de data te openbaren. Dat is uiteindelijk (gedeeltelijk) gelukt door gebruik te maken van een langdurige procedure die een beetje te vergelijken valt met onze Wet Openbaarheid Bestuur. Gelukkig was er ook hulp van de Russische onderzoeker Hantemirov. Wat bleek? Er waren destijds veel meer bomen ‘beschikbaar’ dan het handjevol dat Briffa had gebruikt voor zijn reconstructie, namelijk 120.
Zoals te zien is is de hockeystick helemaal verdwenen.
Lees voor de details deze sites:
Bishop Hill ,
Staatvanhetklimaat, ClimateAudit
.
De emoties laaiden de afgelopen
weken hoog op. Het alarmistenblog RealClimate viel McIntyre ongekend fel
aan. Zie
hier. Als we afzien van alle commotie rond het niet verstrekken van onderzoeksdata (schande) en de statistische gebreken van de Briffa’s publicaties, dan blijft er een belangrijke vraag over: zijn er betrouwbare thermometermetingen in de regio? Want dan kunnen we de proxy-data vergelijken met de meetgegevens. Die data zijn er. Er is in de regio (zie nevenstaand kaartje van de Yamal regio) 1 meetstation, namelijk Salehard (Salechard). Dat is het rode puntje op de kaart. Hieronder een detailweergave van Salehard. Het meetstation is zoals vaak gelegen op het vliegveld van de kleine nederzetting Salehard. |
|
En hieronder de gehomogeniseerde datareeks volgens GISS:
Zoals men kan zien is er geen enkele opwaartse trend aan het einde van de
meetreeks van Salehard waar te nemen. Ik zou zelfs zeggen dat de reeks opvallend
vlak is, als we in aanmerking nemen dat de temperatuurstijging van de afgelopen
decennia volgens de theorie versterkt in het temperatuursignaal boven de
poolcirkel is waar te nemen. Ik blijf de discussie met belangstelling volgen.
Dat voorspelde Jay Zwally, onderzoeker bij NASA in 2007. Dr. Jay Zwally is
project scientist bij NASA’s ICESat missie. Zwally zei in een
interview met National Geographic News:
"At this rate, the Arctic Ocean could be nearly ice-free at the end of summer
by 2012, much faster than previous predictions….At this rate, the Arctic Ocean
could be nearly ice-free at the end of summer by 2012, much faster than previous
predictions." En: "The Arctic is often cited as the canary in the coal
mine for climate warming," said Zwally, who as a teenager hauled coal. "Now as a
sign of climate warming, the canary has died. It is time to start getting out of
the coal mines."
Hieronder ziet u de meest recente gegevens van de ijsgang in de Arctische Zee:
Het ziet er niet naar uit dat Dr. Zwally gelijk krijgt. Dat weet hij zelf
intussen ook wel natuurlijk. In een
interview in 2010 met EarthSky durfde hij zijn voorspelling al niet meer
te herhalen. Wel haalde hij nog een keer de kanarie in de kolenmijn erbij om
zijn bezorgdheid kracht bij te zetten.
Bovenstaaande voorspelling is een fraai staaltje van overdrijving, niet geheel
onbekend in klimatologenland, helaas.
11-5-2012
De temperatuur in Madrid
De vorige bijdrage ging over CET, Central England Temperature. Net als voor De
Bilt zagen we dat de temperatuur daar de afgelopen 15 jaar niet meer is
gestegen. Er was zelfs sprake van een lichte daling. Op zich was dit niet zo
verwonderlijk, omdat centraal Engeland in dezelfde klimaatregio ligt als ons
land. Het is dus te verwachten dat de temperatuurtendens van de afgelopen 15
jaar in Engeland niet veel zal afwijken van die in Nederland.
Daarom vandaag een blik op Madrid, Spanje. Ik kom graag in Spanje. Het
meetstation ligt op het vliegveld Barajas, en zoals te zien is dicht bij de
start- en landingsbaan. Ik schat de afstand tot de baan zo’n 60 m. Barajas is
een WMO-station met de code: 8221 MADRID/BARAJA. Meer over dit meetstation
hier.
Dit is het temperatuurverloop gedurende de afgelopen 15 jaar:
De
data komen van GISS, omdat Climate Explorer van het KNMI niet geheel 2011
kon weergeven. Ook hier hetzelfde beeld: de afgelopen 15 jaar was er geen sprake
van temperatuurstijging. De lineaire trendlijn laat zelfs een daling zien. Die
daling is ruim 0,6 °C over 15 jaar. Vergelijk dit eens met de globale
temperatuurstijging van 0,7 °C over de gehele 20e eeuw die in 'brede kringen'
voor grote onrust heeft gezorgd.
Het vliegveld Barajas ligt op een steenworp afstand van de bebouwde kom van Madrid, zodat UHI-effecten ongetwijfeld aanwezig zijn. GISS corrigeert dit in de meetreeks, zoals bekend op een tamelijk onduidelijke manier. De ligging van het station vlak bij de start- en landingsbaan doet vermoeden dat ook hier effecten zullen zijn op de temperatuurmetingen. Informatie hierover van andere vliegveldstations wijzen uit dat toenemend vliegverkeer de metingen positief beïnvloeden. Mij is niet bekend dat GISS dit type lokale invloed ook meeneemt in haar homogenisaties. Het is derhalve aannemelijk dat de temperatuur op Barajas sterker is gedaald dan de grafiek aangeeft.
![]() Bron: Stormtrack |
Deze week was ik
enkele dagen in Engeland en verbaasde me over het gemak waarmee ook daar
‘de opwarming’ van Groot-Brittannië in de media een plaats heeft
gekregen. En dan heb ik het niet over The Guardian, een krant waar
klimaatalarmisten de afgelopen jaren vrij spel kregen, maar in een krant
als The Times. Ik was dan ook nieuwsgierig naar die opwarming, en kon me
niet indenken dat de Britse opwarming ‘dramatischer’ is verlopen dan die
in ons eigen land. Vandaar dat ik op onderzoek uit ben gegaan naar wat
meetgegevens. Het geluk wil dat men in Engeland veel eerder dan in andere landen begonnen is met het serieus meten van de temperatuur. De Central England Temperature-reeks is een van de oudste temperatuurmeetreeksen op aarde en begint al in 1659. In de jaren ’70 van de vorige eeuw heeft het Hadley Centre de meetreeks gecontinueerd tot op heden. Het betreft een beperkt aantal meetstations in de regio van zuidelijke Midlands tot Lancaster, zoals aangegeven op nevenstaand kaartje. |
Hieronder is de gang van de temperatuur te zien vanaf het begin tot en met 2010. Het zijn jaargemiddelden in °C.
De reeks vertoont een licht stijgende trend (zwarte lijn) vanaf het begin van
de metingen met een opwarming van 0,26°C per eeuw. Geen verrassing, de aarde en
dus ook Engeland warmt al sinds het einde van de Kleine IJstijd gestaag op. Dat
is in ieder geval ten dele het gevolg van veranderende zonneactiviteit, die een
zekere periodiciteit veroorzaakt in de temperatuur aan het aardoppervlak. Zie
hiervoor onder andere “Zonnecycli” in het hoofdstuk “Nieuwe inzichten”.
De temperatuurlijn toont ook dat de lichte stijging niet gelijkmatig is, de
temperatuur gaat op en neer gedurende soms langere periodes. Maar ook kortere
periodes geven soms een sterke variabiliteit: temperatuurvariaties tussen twee
opeenvolgende jaren van meer dan 2 °C zijn geen uitzondering. Een dergelijke
grote sprong in korte tijd is te zien in de tweede helft van de jaren ’80 van de
20e eeuw. De stijging van de temperatuur wordt nog steeds door een deel van de
wetenschappers gezien als een gevolg van antropogene factoren, vooral die van
CO2 als broeikasgas.
In bovenstaande grafiek is naast de CET-lijn de jaarlijkse emissies in miljoenen tonnen CO2 als gevolg van het verbranden van fossiele brandstoffen afgezet tegen de tijd. Vergelijk deze lijn eens met de temperatuurreeks van CET, en constateer dat er geen enkele correlatie is.
De klimaatsite c3headlines heeft enige tijd geleden al eens gekeken naar de CET en geconstateerd dat er in het afgelopen decennium erg veel records gesneuveld zijn op het gebied van gemiddeld hoogste temperaturen. Iedereen kent de gretigheid waarmee dit gebruikt wordt om de invloed van antropogeen CO2 ‘aan te tonen’. Als men naar het verloop van de CET grafiek kijkt vanaf 1659 dan is het niet meer dan logisch dat in een gestaag stijgende temperatuurreeks gedurende meer dan 350 jaar de hoogste temperaturen in het laatste stukje van de reeks zitten. De jaren uit het laatste decennium zijn steeds met rood aangegeven.
Interessante vraag is of de temperatuurvariaties in de CET groter zijn gedurende afgelopen decennia dan in de rest van de langdurige meetreeks. Met andere woorden: is de temperatuurgang van de afgelopen decennia afwijkend, zoals alarmisten vaak beweren? Hieronder is een aantal tabellen afgebeeld die antwoord geven op deze vraag. De eerste geeft de jaren weer met de grootste temperatuurverandering in 1 jaar:
Zoals is te zien zit geen enkel recent jaar in de top-10. Het dichtste bij komt
nog 2001, met een toename van 0,67 °C, waardoor dit jaar op de 71e plaats komt.
En hier de jaren met de grootste temperatuursprong over een periode van 10 jaar.
Het laatste jaar van elke decade is als teljaar genomen:
Ook hier geen enkel recent jaar in de top-10. De decade die eindigde in 2005 en
een temperatuurverandering van 1,24 °C vertoonde, komt op een 22e plaats. Nemen
we een periodelengte van 20 jaar dan valt 1 jaar uit het laatste decennium in de
top-10, namelijk 2006 met een 8e plaats:
Bij periodes van 30 jaar valt het afgelopen decennium weer buiten de prijzen. Het jaar 2006 werd 20e:
Tenslotte de cijfers voor periodes van 40 jaar en 50 jaar. Ook hier geen schokkkende extremen in de afgelopen decennia:
De Tjechische blogger Luboš Motl produceerde over de CET ook een aantal grafiekjes. Hij vergeleek de opwarmingtrends in periodes van 30 jaar, omdat deze de grootste kans zouden moeten geven op een extreem opwarmingssignaal:
Niets spectaculairs te zien in de laatste decennia. Eind 17e en begin 18 e eeuw
waren de periodes met opwarming langduriger dan de recente. Hieronder een
lijstje met de top-10:
1691 - 1720, 5.039 °C/eeuw
1978 - 2007, 5.038 °C/ eeuw
1977 - 2006, 4.95 °C/ eeuw
1690 - 1719, 4.754 °C/ eeuw
1979 - 2008, 4.705 °C/ eeuw
1688 - 1717, 4.7 °C/ eeuw
1692 - 1721, 4.642 °C/ eeuw
1694 - 1723, 4.524 °C/ eeuw
1689 - 1718, 4.446 °C/ eeuw
1687 - 1716, 4.333 °C/ eeuw
Als je voor alle zekerheid de periodes een lengte van 50 jaar geeft, levert dat
voor de afgelopen decennia nog steeds geen bijzonderheden op:
Ze kunnen in elk geval niet concurreren met de laat 17e en begin 18e eeuw: 1960 – 2009 met een stijging van 2.65 °C/eeuw valt zelfs buiten de top-10. Winnaar is 1688-1737 met een trend van 3.83 °C/eeuw. Als de periode 100 jaar is, dan zien we nog steeds geen uitzonderlijke situatie voor de afgelopen eeuw:
De opwarmingtrend voor 1909-2008 was 0.87 °C/eeuw, die van 1663-1762 was 0.86
°C/eeuw. Geen spectaculair verschil.
Tot slot was ik benieuwd of de CET een andere tendens zou aangeven voor de
temperatuur van de afgelopen 15 jaar dan De Bilt (zie ook “Temperatuur De Bilt”
in hoofdstuk “De Feiten”. Het resultaat ziet u hieronder:
De afgelopen 15 jaar is er in Midden Engeland, net als in Nederland, geen
opwarming meer maar zelfs een daling van 0,2 graden. Het wordt tijd dat Britse
media de feiten eens onder ogen zien.
20-4-2012
"Our planet is warming at a rapid rate"
De site ScepticalScience heeft een bijdrage gepubliceerd over de snelle opwarming van onze planeet. Daarin tracht men aan te tonen dat er momenteel geen sprake is van een stabilisering van de temperatuur op aarde, maar dat de opwarming onverminderd doorgaat, en wel in een rap tempo. Men bekijkt dan met name het globale temperatuurverloop van de afgelopen 30 a 35 jaar. In de grafiek hieronder zien we het verloop van de globale temperatuur zoals gereconstrueerd door Hadley Centre in Groot-Brittannië op basis van bestaande meetreeksen.
De temperatuurstijging vanaf 1975 is onmiskenbaar, en afgezien van (terechte) discussies over juistheid van metingen en legitimiteit van homogenisaties, wordt algemeen aanvaard dat de globale temperatuur gestegen is. Het artikel tracht de meningsverschillen wat aan te scherpen door te spreken van ‘climate deniers’, een beetje rare term voor diegenen die het klimaatdebat kritisch volgen en zich niet in de luren laten leggen door al te alarmistische verhalen. Ik ken niemand die de temperatuurstijging van na 1975 ontkent.
Het gaat dan ook niet om het ontkennen van de temperatuurstijging, maar om de stagnatie van de temperatuurstijging gedurende de afgelopen 15 jaar. In bovenstaande figuur is het verloop van de maandelijkse globale temperatuur volgens GISS weergegeven vanaf 1996. Alhoewel er formeel nog niet gesproken mag worden van een trendbreuk, is de stagnatie van de temperatuurstijging toch aardig persistent. Hansen neemt een termijn van 17 jaar om vast te stellen of een forcing natuurlijk is dan wel antropogeen.
De schrijver van ScepticalScience gebruikt bovenstaande grafiek van de global heat content om aan te tonen dat er nog steeds sprake is van opwarming. Er wordt gesteld: “ ….the continuing rise of both global and ocean heat content is probably the best indicator that global warming hasn’t even slowed down ” . Inderdaad is in de grafiek een sterke stijging te zien tussen 2000 en 2008, wat in tegenspraak lijkt met de afvlakking van de globale oppervlaktetemperatuur. De grafiek is een bewerking op basis van data die Church et al hebben gebruikt in hun publicatie uit 2011. Bekijken we echter de data tot 2012 van het NODC die de onovertroffen KNMI Climate Explorer ons aanreikt, dan zien we een ander beeld:
Vanaf 2003 is er geen sprake meer van een stijging van de heat content. De time lag tussen stagnatie van globale temperatuur en ocean heat content is makkelijk te verklaren vanwege het enorme bufferend vermogen van de oceanen en de menging van water tussen diverse niveaus. De heat content van land + atmosfeer en ijs speelt nauwelijks een rol van betekenis. Het lijkt er dus op dat de ‘best indicator’ van de site achterhaald is door de werkelijkheid.
Bovenstaande animatie laat zien wat die vreselijke klimaatontkenners doen met de
stijgende wereldtemperatuur: ze knippen de reeks in stukjes, die elk geen
stijging vertonen. Het is een beetje Donquichotte-achtige bewijsvoering, waarbij
de vijand gecreëerd wordt en daarna bestreden. Ik ken geen enkele kritische
klimaatvolger die op dergelijke wijze de recente temperatuurstijging benadert.
Wellicht nog belangrijker is dat het artikel suggereert dat het gebrek aan
opwarming van de afgelopen jaren het gevolg is van kortstondige effecten die
vrijwel alle afkoelend werken, zoals ENSO, vulkanisme en zonneactiviteit. In
onderstaande grafieken is af te lezen welke invloed volgens
Rahmstorf et al deze effecten hebben gehad op de oppervlaktetemperatuur.
MEI is Multivariate ENSO Index, een maat voor de invloed van ENSO, AOD is Aerosol optical depth, een maat voor de invloed van vulkanisme op inkomende kortgolvioge straling, en TSI staatvoor total solar irradiance. Het resultaat van de wijze van analyse door Rahmstorf et al voor 5 datareeksen ziet u hieronder:
Het ziet er indrukwekkend uit, maar is het dat ook? Daar zijn toch wat twijfels over gerezen. Die twijfels worden, ik ben daar eerlijk in, meteen getriggerd door de naam van de onderzoeker. De naam Rahmstorf is in klimatologenland immers niet onomstreden. Behalve dat hij bekend staat als een rasechte alarmist, is hij onlangs door het Kölner Landgericht veroordeeld vanwege het feit dat hij onwaarheden over een wetenschapsjournaliste had verkondigd die haar in de uitoefening van haar beroep hebben geschaad. Irene Meisscher had het namelijk gewaagd het IPCC te bekritiseren vanwege alarmistische passages over de toekomstige landbouwproduduktie in Afrika, als gevolg van de vermeende opwarming van de aarde. Deze waren niet op 'peer-reviewed' literatuur gebaseerd, maar toch in de samenvatting van het IPCC-rapport terecht gekomen en werden vervolgens in de klimaatalarmistische uitspraken van Pachauri en Ban Ki Moon hoog opgespeeld. Later zou dit bekend worden als 'Africagate'.
Bob Tisdale heeft wat kritisch noten gekraakt over het Rahmstorf artikel. Een ervan is dat Rahmstorf et al in hun publicatie behalve ENSO, zon en vulkanen nog een vierde ‘’externe” variabele mee laten doen in hun regressieanalyse, namelijk de lineaire temperatuurtrend. Afgezien van inhoudelijke bezwaren of de lineaire trend wel een externe variabele is, laat Tisdale zien wat het effect van die vierde factor is. De eerste grafiek is met , de tweede zonder de lineaire trend.
Dat komt omdat het mee laten wegen van de lineaire trend in de analyse grote effecten heeft op de schaal waarop de andere factoren van invloed zijn op de temperatuur, maar ook en in het bijzonder omdat daardoor invloed van de zonne-instraling omgekeerd wordt. Zie de grafieken hieronder:
Het tweede bezwaar is dat Rahmstorf et al de ENSO data gebruiken als externe
factor en te weinig rekening houden met de zeer complexe invloed van ENSO op de
oppervlaktetemperatuur. Daarover is al vaker gepubliceerd. De auteur van het
artikel in ScepticalScience stelt: “ Although the rate of warming of
surface air and lower troposphere temperatures appear to have slowed over the
past few years, the same could be said at any virtually any point in time by
cherrypicking short-term noise and ignoring the long-term trend ”. Het
lijkt me dat het artikel zelf een aardig bewijs levert van cherrypicking en en
veronachtzamen van langetermijntrends.
UHI deel 7: Roy Spencer toont sterk UHI-effect aan
Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in
Huntsville, heeft een interessant
onderzoek gedaan naar het UHI-effect, het effect dat stedelijke gebieden
leiden tot hogere luchttemperaturen. Op deze site is over het UHI-effect al
meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en
dan “UHI”. Wat heeft Spencer gedaan? Hij heeft de
Integrated Surface Database (ISD) van The National Climatic Data Center
gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan
20.000 meetstations. Eerst heeft Spencer die stations op het Noordelijk
halfrond geselecteerd die een ononderbroken temperatuurreeks hebben vanaf
minimaal 1973 t/m 2011. Daarvan heeft Spencer de unadjusted International
Surface Hourly (ISH) gebruikt, en wel op 4 momenten per etmaal.
Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is. Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks.
Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5x5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.
De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:
Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.
Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.
Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data. These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”
Temperatuurverloop in de 21e eeuw.
Bovenstaande grafiek stamt , zoals bekend, uit het laatste rapport van het
IPCC uit 2007. Het voorspelt het temperatuurverloop in de 21e eeuw volgens een
aantal scenario’s . De rode lijn geeft het voorspelde temperatuurverloop weer
volgens de IPCC scenariofamilie met een voortgaande economische groei en
grootschalig gebruik van fossiele brandstoffen. Het IPCC voorspelt een
gemiddelde temperatuurstijging in de 21e eeuw van 2,3 °C +/- 0,6 °C. Zie voor
een uitgebreide behandeling van de diverse scenario’s het betreffende
IPCC-rapport.
De voorspellingen zijn gebaseerd op de uitkomsten van een aantal
klimaatmodellen, GCM’s genaamd. De meest geavanceerde klimaatmodellen zijn een
koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest
complexe modellen die gebruikt worden en zijn voortdurend “under construction”.
Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn
HadAM3 van het Hadley Center in Groot Brittannië , GFDL CM2.X van NOAA
Geophysical Fluid Dynamics Laboratory in de USA en ModelE van GISS.
Nu is het interessant om te bezien of 12 jaar na de start van de voorspelling in 2000 de klimaatmodellen het goed gedaan hebben. Hieronder is het verloop van de globale oppervlaktetemperatuur weergegeven volgens Hadcrutv3. Zoals te zien is er sinds bijna 15 jaar geen opwaartse tendens meer te bespeuren in de grafiek.
De beide zwarte lijnen geven de grenzen aan van de voorspelling door het IPCC tot 2015. De temperatuur blijft vlak en is de laatste jaren onder de geprojecteerde temperatuur volgens de klimaatmodellen terecht gekomen. Blijkbaar hebben de klimaatmodellen grote moeite om het temperatuurverloop te voorspellen. Hoe is dat te verklaren?
Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn,
kennen ze een aantal tekortkomingen. De belangrijkste zijn:
• Bij koppeling van het atmosferische model aan het oceanische model moeten in
sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze
flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is
nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige
vulkaanuitbarstingen.
• Alle modellen schieten tekort in het voorspellen van de temperatuur in de
stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de
stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed
op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze.
Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C
lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben
grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal
waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat
modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”,
een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de
boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.
Maar er is nog een aspect waarin GCM’s tekort schieten. Nicola Scafetta heeft recent enkele opmerkelijke publicaties daarover het licht doen zien. Scafetta is onderzoeker aan de Duke UIniversity in North Carolina en een expert op het gebied van statistiek en nonlineaire modellen van complexe processen. Een prima specialisatie om klimaatmodellen aan de tand te voelen. Hij bestudeerde de invloed van astronomische oscillaties op de temperatuur en vergeleek de resultaten met de klimaatmodellen die door het IPCC gebruikt worden.
Het bleek dat de huidige klimaatmodellen onvoldoende de belangrijke decadale en multidecadale oscillaties kunnen reproduceren zoals die in het temperatuursignaal van 1850 tot 2011 te zien zijn. Zie de grafiek hieronder.
Scafetta onderscheidt een viertal oscillaties in de temperatuurlijn, namelijk een van 9,1 jaar, een met een lengte van 10 tot 11 jaar, een van ongeveer 20 jaar en een van ongeveer 60 jaar. De eerste lijkt gerelateerd aan de getijdencycli als gevolg van de aantrekkingskracht van Maan en Zon, de andere drie vinden hun oorsprong in de banen van met name Jupiter en Saturnus. In onderstaande grafiek is te zien dat er een opmerkelijke correlatie bestaat tussen het gemeten temperatuurverloop en de vier genoemde cycli.
Scafetti heeft op basis van de 4 oscillaties een model gemaakt en dat model gecalibreerd ten opzichte van een tweetal meetreeksen, namelijk de globale temperatuur van 1850-1950 ( blauwe lijn) en van 1950-2010 (groene lijn). Calibreren is een techniek met behulp waarvan men een tweetal reeksen vergelijkt, in dit geval de gemeten waarden van de globale temperatuur en de modelmatige berekeningen van de temperatuur. De lijnen in de grafiek zijn “detrended”, dat wil zeggen dat de lichte stijging vanaf het einde van de Kleine IJstijd tot heden eruit gehaald is. Zie hierover onder andere in het menu “De feiten” en dan “Temperatuur Wereld”.
Over de 60-jarige cyclus is op deze site al het een en ander geschreven in het kader van de AMO, de Atlantische Multidecadale Oscillatie. Volgens onderzoekster De Raa van het IMAU is de AMO het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht. Zie Onder “De Feiten” het hoofdstuk over “Temperatuur wereld” voor een uitgebreide bijdrage hierover. Scafetta meent echter dat deze oscillatie wellicht een astronomische oorzaak heeft (Mazzarella et al 2011).
Er is nog tenminste één oscillatie die in het model van Scafetta niet meegenomen is, en dat is de oscillatie met een periodiciteit van enkele eeuwen. In de grafiek hieronder is een viertal oscillaties weergeven met een periodiciteit van ongeveer 1000 jaar.
Zoals hiervoor al geduid zijn alle klimaatmodellen op een aantal punten geparameteriseerd. Dat geldt onder andere voor het antropogene aandeel in de temperatuurstijging van de afgelopen eeuw. Hoe sterk die antropogene invloed door de diverse modellen wordt ingeschat laat onderstaande figuur zien. De grafieken zijn afkomstig van de bijdrage van werkgroep 1 van het IPCC rapport uit 2007. Het zijn vergelijkingen tussen de globale gemiddelde oppervlaktetemperatuur (HadCRUT3, de zwarte lijnen) en de antropogene plus natuurlijke forcings (rode lijn in grafiek a) en alleen de natuurlijke forcings (blauwe lijn in grafiek b). De rode lijn is het gemiddelde resultaat van 58 simulaties die 14 modellen hebben geproduceerd. De blauwe lijn is het resultaat van 19 simulaties door 5 modellen.
Volgens het IPCC is er tussen 1970 en 2000 sprake van een afkoeling van 0 °C tot 0,2 °C als gevolg van natuurlijke forcings (in dit geval enkele vulkaanuitbarstingen). De gemeten temperatuurstijging in deze periode is 0,5 °C, dus de antropogene forcing tussen 1970 en 2000 is 0,5 °C tot 0,7 °C groot geweest. Op basis hiervan is de temperatuurprojecties tot 2100 gebaseerd zoals we die zagen in de eerste figuur.
Hiervoor is al opgemerkt dat de onderliggende natuurkundige mechanismen voor de 4 oscillaties nog onderwerp van wetenschappelijke discussies vormen. Scafetta stelt echter dat die onderliggende mechanismen niet echt nodig zijn: de oscillaties kunnen we volgens Scafetta beschouwen als een ‘description of the dynamical evolution of the climate system’. Klaarblijkelijk kun je de harmonische componenten van de klimaatdynamiek empirisch modelleren zonder dat je weet hebt van de onderliggende natuurkundige processen. Dat deed ook William Thomson, beter bekend als Lord Kelvin, bij het beschrijven en voorspellen van getijden. De beroemde getijdevoorspelmachine van Kelvin is daarop gebaseerd: zie onderstaande afbeelding.
Scafetta gebruikt dezelfde benadering als Kelvin destijds en werkt die op twee manieren verder uit:
1) Bezien of de door het IPCC gehanteerde modellen de temperatuuroscillaties
kunnen reproduceren
2) Bezien of er op basis van de oscillaties een model te ontwikkelen is om
klimaatverandering te voorspellen
Bij de vergelijking van klimaatmodellen om te bezien of deze de globale temperatuur goed weten te reproduceren maakte Scafetta onder andere gebruik van het ‘Coupled Model Intercomparison Project’ (CMIP3). Dat is bereikbaar en downloadbaar via de onovertroffen KNMI Climate Explorer. De resultaten van het ModelE van GISS zijn in de volgende grafiek te zien:
Vergelijking met de meetresultaten van HadCRUT3 levert het volgende beeld op:
De resultaten van GISS ModelE zijn 1 °C naar beneden verschoven om vergelijking mogelijk te maken. Zoals te zien is is de reproductie door ModelE verre van goed. Voor alle andere door het IPCC gehanteerde modellen gelden dezelfde tekortkomingen: weliswaar laat de reproductie een stijgende trend zien, maar van bijvoorbeeld de duidelijk zichtbare 60-jarige cyclus in meetreeks van HadCRUT is in de modelsimulatie niets terug te vinden. Voor alle andere klimaatmodellen geldt hetzelfde: geen enkel model is in staat om de oscillaties in de meetreeks te simuleren, en de grote vulkaanuitbarstingen hebben een te groot afkoelend effect. Zie voor de andere modellen deze bijlage.
Zoals hiervoor al was aangegeven wordt de opwarming sinds 1970 vanwege antropogene forcing door het IPCC geschat op 0,5 °C - 0,7 °C. Deze schatting vormt de basis voor de voorspellingen van het IPCC over het globale temperatuurverloop in de 21e eeuw volgens de diverse scenario’s. Scafetta toont aan dat wanneer rekening wordt gehouden met de 60-jarige cyclus de geschatte toename zeker met 0,3 °C naar beneden dient te worden bijgesteld over de periode 1970-2000.
23-9-2012
Het weer wordt steeds extremer
Dat is wat klimaatalarmisten de ‘gewone man’ graag willen laten geloven. Dat
idee is gevoed door het derde rapport van het IPCC en gebaseerd op
klimaatmodellen. Op basis van de gebruikte modellen werd een toename van
extremen gebeurtenissen in het weer voorspeld, als gevolg van stijgende
temperaturen. Ik heb hier al vaker laten zien dat die voorspelling tot op heden
niet bevestigd wordt door waarnemingen. Zie hiervoor
dit hoofdstuk.
Met name als het hier of daar de weersomstandigheden ‘records’ breken is het
weer tijd voor sommigen om het dogma van het extremer wordende weer uit de kast
te halen en op te poetsen. Nu zijn er in het weer een schier oneindig aantal
records om te breken, zodat er altijd wel ergens een sneuvelt. De aarde is
immers zeer groot en het weer zeer dynamisch.
Afgelopen zomer was het opmerkelijk droog in de Midwest van de USA. Er werd al rap gesproken van een ongekende droogte en een link met de vermeende antropogene opwarming werd snel gelegd. De vraag is natuurlijk of het inderdaad een zeer uitzonderlijke en ongekende situatie betrof. Daar heeft Christy vorige week enkele interessante dingen over gezegd. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres. Het verslag daarvan kunt u hier vinden.
In bovenstaande grafieken is de droogte in de Midwest weergegeven voor de periode van januari 1900 t/m juli 2012. Zoals te zien is is er wel sprake van meer dan gemiddelde droogte in de Midwest, maar van extreme omstandigheden is geen sprake. Duidelijk is ook te zien dat in de eerste helft van de periode grote droogte veel vaker voorkwam dan in de tweede helft. Bekijkt men dat voor de gehele USA dan is dit beeld hetzelfde:
Interessant is ook om te kijken naar records op het gebied van dagelijkse maximum en minimum temperaturen. Meehl et al (2009) hebben gepubliceerd over de records in dagelijkse maximum en minimum temperaturen in de USA. De studie, Relative increase of record high maximum temperatures compared, liet een onmiskenbare toename van de records van de dagelijkse maximum temperatuur zien ten opzichte van records in de dagelijkse minimum temperatuur.
Meehl et al : “The current observed value of the ratio of daily record high maximum temperatures to record low minimum temperatures averaged across the U.S. is about two to one. … Following an A1B emission scenario for the 21st century, the U.S. ratio of record high maximum to record low minimum temperatures is projected to continue to increase, with ratios of about 20 to 1 by mid-century, and roughly 50 to 1 by the end of the century. ”. A1B emission scenario slaat op de CO2-emissies door de mens en is terug te vinden in het vierde rapport van het IPCC.
Op onderstaande grafiek is van dezelfde 970 langjarige meetreeksen de records van de dagelijkse minimum temperatuur te zien. Er was een piek aan records te zien aan het begin van de vorige eeuw, en een lichte daling vanaf begin jaren ’80.
Voor de 704 USHCNv2 meetstations die een meetreeks van meer dan 100 jaar hebben heeft Christy de ratio record max.temp/min.temp in een grafiek weergegeven:
Vergelijk deze grafiek eens met die van Meehl et al. Het is duidelijk: als men een langere periode van waarnemingen aanhoudt wordt het beeld volledig anders. Christy zegt terecht: “…the claim of rapidly increasing ratios would not hold”. Ik ben met Christy van mening dat het beter is af te gaan op meetgegevens dan op de uitkomsten van modellen.
Gaan we even terug naar de “extreme” droogte van de zomer 2012 zoals die geclaimed wordt door klimaatalarmisten. Piechota et al ( 2004 , The Western U.S. Drought: How Bad Is It? ) reconstrueerden de droogte in het Upper Colorado River Basin (UCRB) vanaf 1500. Het resultaat is hieronder te zien. De grijze balken geven perioden weer met meer dan gemiddelde droogte. De lijn is het voortschrijdend gemiddelde van de zogenaamde Palmer Hydrological Drought Index (PHDI), een droogte-index gebaseerd op neerslag en temperatuur. Negatieve waarden zijn perioden met grote droogte. De 20e eeuw komt naar voren als een relatief natte periode. Zo wisselt het beeld dat men van droogte krijgt door te wisselen van tijdschaal. Mijns inziens wordt dat de afgelopen jaren veel te weinig gedaan.
Een volgende keer wellicht wat meer over het optreden van Christy voor het congrescomité voor Energy and Power.
13-6-2012
Koudeperiode in Younger Dryas gevolg van inslag
Op deze site is al vaak aandacht besteed aan de temperatuurgang van de laatste ijstijd naar het Holoceen tot heden. Zie onder “De Dogma’s” het hoofdstuk “Unieke Temperatuurstijging”. De vermoedens dat de koudeperiode op de overgang van Weichselien naar Holoceen het gevolg was van een extraterrestrische gebeurtenis worden ondersteund door de uitkomsten van een recente publicatie van de Universiteit van Californië in Santa Barbara.
Op bovenstaande grafiek is die koudeperiode tussen 13.000 en 11.500 jaar BP duidelijk waar te nemen. De getoonde data komen van de GRID2 ijskern op Groenland (data hier). Proxies als ijs- en gasisotopen leverden een betrouwbare reconstructie op van de temperatuur op de overgang van Pleistoceen naar Holoceen. Een kleine 15.000 jaar BP steeg de temperatuur in Groenland sterk, een teken dat het Weichselglaciaal ten einde was. Maar rond 14.500 BP daalde de temperatuur trapsgewijze weer tot op glaciaal niveau, om pas vanaf 12.500 BP op te veren tot de bekende Holocene waarden. Van deze abrupte klimaatwijzigingen vinden we op veel plaatsen op aarde bewijzen.
Tot nu toe was de meest aangehangen theorie dat de afkoeling het gevolg was van het uitvallen van de warme zeestroom in het noordelijk deel van de Atlantische Oceaan. De gedachte was dat het Agassizmeer in Noord-Amerika, dat een enorme hoeveelheid smeltwater van het Canadese landijs bevatte, leeg liep in de Atlantische Oceaan. Die enorme hoeveelheid zoet water zou dan de thermohaline circulatie verstoord hebben, waardoor er geen warm tropisch water meer naar het noordelijk deel van de Atlantische Oceaan gevoerd zou zijn, met sterke afkoeling tot gevolg.
Ook theorieën over een zonnewind en over een langdurige verschuiving van de straalstroom deden de ronde, alsmede een grote vulkaanuitbarsting. Maar zoals het er nu naar uit ziet kunnen we al deze theorieën overboord zetten. De uitkomsten van de ploeg van professor James Kennett lijken tamelijk overtuigend. Het team deed onderzoek naar sedimentgesteenten uit de genoemde periode op een drietal plaatsen, namelijk Pennsylvania, South Carolina en Syrië. Op alle plaatsen werd een dun laagje sediment gevonden dat gevormd moet zijn bij temperaturen van 1700 tot 2200 °C. Het moet daarom wel het gevolg zijn van de botsing tussen de aarde en een lichaam dat vanuit de ruimte de aarde bereikte. De gevolgen voor flora en fauna waren groot: veel soorten, waaronder mammoeten, verdwenen definitief van de aarde.
Bron: UCSB
Het ontdekte laagje bestaat uit glasachtig materiaal, dat ontstaat als zand door enorme hitte smelt en gaat koken. Dergelijk materiaal is ook gevonden bij Meteor Crater in Arizona. Vergelijkbare onderzoeksresultaten uit Venezuela en Duitsland versterken het vermoeden dat de koudeperiode van het Younger Dryas geen terrestrische oorzaak heeft maar een kosmische.
De afvoerdata van de Maas (Eijsden) zijn het uitgebreidst en beginnen in 1950. Die van de Rijn (Lobith) zijn aanwezig vanaf 1989. Het meest recente jaar dat geheel in de database aanwezig is op dit moment is 2010. In bovenstaande grafiek heb ik de afvoer van de Maas weergegeven. De zwarte lijn is de lineaire trendlijn, de donkerblauwe lijn verbindt de data met de hoogste afvoer in elk jaar. Begin jaren ’90 en rond 2000 zijn er wel enkele jaren geweest met een verhoogde winterafvoer, na 2002 verdwijnen die extreme winterafvoeren weer.
De Rijn geeft hetzelfde beeld: enkele pieken in de jaren ’90 en rond 2000, na
2002 verdwijnen die piekafvoeren weer uit het beeld. Omdat van beide rivieren de
piekafvoer in de winter ligt, is het duidelijk dat deze gerelateerd moet zijn
aan het neerslagpatroon in NW Europa. Het is daarom te verwachten dat de
afvoergrafiek van de Rijn sinds 1950 eenzelfde patroon zal hebben als dat van de
Maas.
Conclusie: op basis van de meetgegevens vanaf 1950 is het antwoord op vraag 30
in het correctiemodel onjuist.
6-6-2012
HAVO examen aardrijkskunde goes climate
Ik ben de afgelopen tijd niet in staat geweest om bijdragen te schrijven voor de site: de examens slokten teveel van mijn (vrije) tijd op. Maar ook de eindexamens van het voortgezet onderwijs besteden aandacht aan klimaatverandering. Vorige week zaten de eindexamenleerlingen HAVO die het prachtige vak aardrijkskunde volgen achter de opgaven. Een aantal opgaven was klimatologisch van aard, bijvoorbeeld over de invloed van klimaatverandering vanaf het eind van de laatste ijstijd op het karakter van de Mississippi (zie plaatjes hierboven). Prima opdrachten.
Ook de vragen over het Tjaadmeer (hierboven) waren heel aardig. Wat wel opvalt
is het bovenschrift van de kaartjes: `Verdroging van het Tjaadmeer tussen 1963
en 2001´. De kaartjes tonen dat er sprake is van verdroging van 1963 tot 1987,
maar daarna gebeurt er eigenlijk weinig met de oppervlakte van het meer. Er zijn
wel kleine verschillen, maar men kan niet stellen dat er tot 2001 sprake is van
toenemende verdroging. Suggestieve kop derhalve. Trouwe lezers weten dat ik
onder het kopje `De Sahara groeit` onder `De Dogma´s` heb aangetoond dat vanaf
1984 de Sahel steeds meer neerslag krijgt, als gevolg van de AMO (Atlantische
Multidecadale Oscillatie). Zie in de betreffende paragraaf meer over dit
onderwerp. Het neerslagverloop is hieronder weergegeven. Fraai is te zien waarom
het aannemelijk is dat het Tjaadmeer na 1984 niet kleiner geworden is:
Opgave 30 is de klimaatopdracht waar ik de meeste moeite mee heb. Die luidt: “ Het veranderende klimaat is van invloed op het regiem van de Rijn en de Maas. Leg uit hoe het veranderende klimaat het regiem van de Rijn en de Maas beïnvloedt.” . Het probleem is de term ‘veranderende klimaat’. Daarmee hanteert men een proces dat niet gekoppeld is aan een bepaalde periode, dat wil zeggen het kan zowel slaan op het verleden als op wat komen gaat. Wat geweest is weten we min of meer, en van een eenduidige klimaatverandering in de stroomgebieden van Rijn en Maas is geen sprake. Bovendien: hoever moet men hier terugkijken? 10 jaar, 100 jaar, tot aan de laatste ijstijd?
Nog veel lastiger wordt het als we de term ‘veranderende klimaat’ in de toekomst plaatsen. Ook hier weer de vraag: over welke periode hebben we het? Nu zijn er wel wat voorspellingen gedaan door het IPCC, waarvan de gemene strekking is dat het allemaal wat woester en extremer zal worden. Het KNMI echoot dat regelmatig netjes na. Of dat ook zo zal zijn zal de toekomst leren, de ervaring van de laatste jaren geeft in elk geval geen aanleiding om dat met stelligheid te kunnen beweren.
En toch is dat laatste juist wat de examencommissie/CITO van de
HAVO-leerlingen verlangt. Het correctievoorschrift luidt namelijk: “ Een
voorbeeld van een juiste uitleg is: Klimaatverandering zal leiden tot een
onregelmatiger neerslagregiem / extremere weersomstandigheden waardoor het
regiem van de Rijn en de Maas onregelmatiger wordt.”. Dat is inderdaad een
voorbeeld van een juiste uitleg. Maar als een leerling het omgekeerde beweert is
dat ook juist. Maar dat staat niet in het correctievoorschrift. En ook het
verslag van het KNAG over dit examen ( advies hoe om te gaan met afwijkingen van
het correctiemodel) zwijgt hierover in alle talen. Wel adviseert men mijns
inziens ten onrechte docenten om de termen ‘hoger’ en ‘lager’ in verband met het
begrip regiem fout te tellen. Onjuist, omdat regiem slaat op de schommelingen in
de waterafvoer gedurende een bepaalde periode. Dat is dus de amplitude, en die
kan groter en kleiner worden.
Wat was dus het juiste antwoord? Dat klimaatveranderingen kunnen leiden tot
zowel het groter worden als het kleiner worden van het regiem van de Rijn en de
Maas, afhankelijk van de vraag in welke richting die veranderingen plaats zullen
vinden. En dat laatste weet niemand met zekerheid. Helaas zijn leerlingen in ons
voortgezet onderwijs op het gebied van klimaatverandering een beetje
voorgeprogrammeerd, zodat velen het ‘juiste’ antwoord gegeven hebben. Lees: het
‘gewenste’ antwoord. Jammer. Is hier sprake van opzet bij de
examencommissie/CITO ? Ik denk het niet. Ik vermoed dat er (te) weinig fysisch
geografen in de commissie/CITO zitten.
Voor diegenen die het allemaal eens na willen lezen hier de links:
Examen aardrijkskunde havo 2012 eerste tijdvak
Bijlage
Correctievoorschrift
KNAG advies
16-5-2010
De nieuwe hockeystick van Yamal
Wie kent er de hockeystick van Michael Mann niet? De grafiek die jarenlang het
boegbeeld is geweest van klimaatalarmisten en het IPCC.
Bron: IPCC
Een deel van de data die Mann gebruikte was gebaseerd op proxies van
jaarringen van de Bristle pine-tree. De grafiek had enkele grote manco’s. Zo
ontbrak het Middeleeuws Optimum zijn met name de data van de gebruikte
jaarringen omstreden. Van de gebruikte statistische methode is door McIntyre en
McKitrick gehakt gemaakt, bevestigd in o.a. het Wegman rapport dat elders op de
site uitgebreid behandeld is.
Velen van u zullen al min of meer op de hoogte zijn van de verwikkelingen rond
de zogenaamde Yamal data. Yamal is een schiereiland in het noorden van Siberie,
waar de grootste aardgasvelden van Rusland liggen. Maar het is ook de plek waar
paleoklimatologen proxies vandaan hebben gehaald. Ook daar is kort gezegd
commotie over ontstaan. Onderzoeker Briffa van CRU in Groot Brittannië heeft
namelijk een tijdje geleden een fraaie temperatuurgrafiek geproduceerd op basis
van een aantal bomen op Yamal. Ook deze grafiek heeft weer die onheilspellende
knik zoals we die al kenden van de hockeystick.
Bron:
CRU
Het grijze deel is het aantal bomen waarop de grafiek is gebaseerd. Voor de
meest recente jaren was dat aantal geslonken tot slechts 5. Zie de data van
NOAA. Nu is 5 wel erg weinig om een betrouwbare grafiek te krijgen.
McIntyre wilde de betrouwbaarheid van de grafiek natrekken, maar kon dat niet doen omdat Briffa weigerde de data te openbaren. Dat is uiteindelijk (gedeeltelijk) gelukt door gebruik te maken van een langdurige procedure die een beetje te vergelijken valt met onze Wet Openbaarheid Bestuur. Gelukkig was er ook hulp van de Russische onderzoeker Hantemirov. Wat bleek? Er waren destijds veel meer bomen ‘beschikbaar’ dan het handjevol dat Briffa had gebruikt voor zijn reconstructie, namelijk 120.
Zoals te zien is is de hockeystick helemaal verdwenen.
Lees voor de details deze sites:
Bishop Hill ,
Staatvanhetklimaat,
ClimateAudit .
De emoties
laaiden de afgelopen weken hoog op. Het alarmistenblog RealClimate viel
McIntyre ongekend fel aan. Zie
hier. Als we afzien van alle commotie rond het niet verstrekken van onderzoeksdata (schande) en de statistische gebreken van de Briffa’s publicaties, dan blijft er een belangrijke vraag over: zijn er betrouwbare thermometermetingen in de regio? Want dan kunnen we de proxy-data vergelijken met de meetgegevens. Die data zijn er. Er is in de regio (zie nevenstaand kaartje van de Yamal regio) 1 meetstation, namelijk Salehard (Salechard). Dat is het rode puntje op de kaart. Hieronder een detailweergave van Salehard. Het meetstation is zoals vaak gelegen op het vliegveld van de kleine nederzetting Salehard. |
|
En hieronder de gehomogeniseerde datareeks volgens GISS:
Zoals men kan zien is er geen enkele opwaartse trend aan het einde van de
meetreeks van Salehard waar te nemen. Ik zou zelfs zeggen dat de reeks opvallend
vlak is, als we in aanmerking nemen dat de temperatuurstijging van de afgelopen
decennia volgens de theorie versterkt in het temperatuursignaal boven de
poolcirkel is waar te nemen. Ik blijf de discussie met belangstelling volgen.
Dat voorspelde Jay Zwally, onderzoeker bij NASA in 2007. Dr. Jay Zwally is
project scientist bij NASA’s ICESat missie. Zwally zei in een
interview met National Geographic News:
"At this rate, the Arctic Ocean could be nearly ice-free at the end of summer
by 2012, much faster than previous predictions….At this rate, the Arctic Ocean
could be nearly ice-free at the end of summer by 2012, much faster than previous
predictions." En: "The Arctic is often cited as the canary in the coal
mine for climate warming," said Zwally, who as a teenager hauled coal. "Now as a
sign of climate warming, the canary has died. It is time to start getting out of
the coal mines."
Hieronder ziet u de meest recente gegevens van de ijsgang in de Arctische Zee:
Het ziet er niet naar uit dat Dr. Zwally gelijk krijgt. Dat weet hij zelf
intussen ook wel natuurlijk. In een
interview in 2010 met EarthSky durfde hij zijn voorspelling al niet meer te
herhalen. Wel haalde hij nog een keer de kanarie in de kolenmijn erbij om zijn
bezorgdheid kracht bij te zetten.
Bovenstaaande voorspelling is een fraai staaltje van overdrijving, niet geheel
onbekend in klimatologenland, helaas.
11-5-2012
De temperatuur in Madrid
De vorige bijdrage ging over CET, Central England Temperature. Net als voor De
Bilt zagen we dat de temperatuur daar de afgelopen 15 jaar niet meer is
gestegen. Er was zelfs sprake van een lichte daling. Op zich was dit niet zo
verwonderlijk, omdat centraal Engeland in dezelfde klimaatregio ligt als ons
land. Het is dus te verwachten dat de temperatuurtendens van de afgelopen 15
jaar in Engeland niet veel zal afwijken van die in Nederland.
Daarom vandaag een blik op Madrid, Spanje. Ik kom graag in Spanje. Het
meetstation ligt op het vliegveld Barajas, en zoals te zien is dicht bij de
start- en landingsbaan. Ik schat de afstand tot de baan zo’n 60 m. Barajas is
een WMO-station met de code: 8221 MADRID/BARAJA. Meer over dit meetstation
hier.
Dit is het temperatuurverloop gedurende de afgelopen 15 jaar:
De
data komen van GISS, omdat Climate Explorer van het KNMI niet geheel 2011
kon weergeven. Ook hier hetzelfde beeld: de afgelopen 15 jaar was er geen sprake
van temperatuurstijging. De lineaire trendlijn laat zelfs een daling zien. Die
daling is ruim 0,6 °C over 15 jaar. Vergelijk dit eens met de globale
temperatuurstijging van 0,7 °C over de gehele 20e eeuw die in 'brede kringen'
voor grote onrust heeft gezorgd.
Het vliegveld Barajas ligt op een steenworp afstand van de bebouwde kom van Madrid, zodat UHI-effecten ongetwijfeld aanwezig zijn. GISS corrigeert dit in de meetreeks, zoals bekend op een tamelijk onduidelijke manier. De ligging van het station vlak bij de start- en landingsbaan doet vermoeden dat ook hier effecten zullen zijn op de temperatuurmetingen. Informatie hierover van andere vliegveldstations wijzen uit dat toenemend vliegverkeer de metingen positief beïnvloeden. Mij is niet bekend dat GISS dit type lokale invloed ook meeneemt in haar homogenisaties. Het is derhalve aannemelijk dat de temperatuur op Barajas sterker is gedaald dan de grafiek aangeeft.
![]() Bron: Stormtrack |
Deze week was ik enkele dagen in Engeland en verbaasde me over het gemak
waarmee ook daar ‘de opwarming’ van Groot-Brittannië in de media een
plaats heeft gekregen. En dan heb ik het niet over The Guardian, een
krant waar klimaatalarmisten de afgelopen jaren vrij spel kregen, maar
in een krant als The Times. Ik was dan ook nieuwsgierig naar die
opwarming, en kon me niet indenken dat de Britse opwarming
‘dramatischer’ is verlopen dan die in ons eigen land. Vandaar dat ik op
onderzoek uit ben gegaan naar wat meetgegevens. Het geluk wil dat men in Engeland veel eerder dan in andere landen begonnen is met het serieus meten van de temperatuur. De Central England Temperature-reeks is een van de oudste temperatuurmeetreeksen op aarde en begint al in 1659. In de jaren ’70 van de vorige eeuw heeft het Hadley Centre de meetreeks gecontinueerd tot op heden. Het betreft een beperkt aantal meetstations in de regio van zuidelijke Midlands tot Lancaster, zoals aangegeven op nevenstaand kaartje. |
Hieronder is de gang van de temperatuur te zien vanaf het begin tot en met 2010. Het zijn jaargemiddelden in °C.
De reeks vertoont een licht stijgende trend (zwarte lijn) vanaf het begin van
de metingen met een opwarming van 0,26°C per eeuw. Geen verrassing, de aarde en
dus ook Engeland warmt al sinds het einde van de Kleine IJstijd gestaag op. Dat
is in ieder geval ten dele het gevolg van veranderende zonneactiviteit, die een
zekere periodiciteit veroorzaakt in de temperatuur aan het aardoppervlak. Zie
hiervoor onder andere “Zonnecycli” in het hoofdstuk “Nieuwe inzichten”.
De temperatuurlijn toont ook dat de lichte stijging niet gelijkmatig is, de
temperatuur gaat op en neer gedurende soms langere periodes. Maar ook kortere
periodes geven soms een sterke variabiliteit: temperatuurvariaties tussen twee
opeenvolgende jaren van meer dan 2 °C zijn geen uitzondering. Een dergelijke
grote sprong in korte tijd is te zien in de tweede helft van de jaren ’80 van de
20e eeuw. De stijging van de temperatuur wordt nog steeds door een deel van de
wetenschappers gezien als een gevolg van antropogene factoren, vooral die van
CO2 als broeikasgas.
In bovenstaande grafiek is naast de CET-lijn de jaarlijkse emissies in miljoenen tonnen CO2 als gevolg van het verbranden van fossiele brandstoffen afgezet tegen de tijd. Vergelijk deze lijn eens met de temperatuurreeks van CET, en constateer dat er geen enkele correlatie is.
De klimaatsite c3headlines heeft enige tijd geleden al eens gekeken naar de CET en geconstateerd dat er in het afgelopen decennium erg veel records gesneuveld zijn op het gebied van gemiddeld hoogste temperaturen. Iedereen kent de gretigheid waarmee dit gebruikt wordt om de invloed van antropogeen CO2 ‘aan te tonen’. Als men naar het verloop van de CET grafiek kijkt vanaf 1659 dan is het niet meer dan logisch dat in een gestaag stijgende temperatuurreeks gedurende meer dan 350 jaar de hoogste temperaturen in het laatste stukje van de reeks zitten. De jaren uit het laatste decennium zijn steeds met rood aangegeven.
Interessante vraag is of de temperatuurvariaties in de CET groter zijn gedurende afgelopen decennia dan in de rest van de langdurige meetreeks. Met andere woorden: is de temperatuurgang van de afgelopen decennia afwijkend, zoals alarmisten vaak beweren? Hieronder is een aantal tabellen afgebeeld die antwoord geven op deze vraag. De eerste geeft de jaren weer met de grootste temperatuurverandering in 1 jaar:
Zoals is te zien zit geen enkel recent jaar in de top-10. Het dichtste bij komt
nog 2001, met een toename van 0,67 °C, waardoor dit jaar op de 71e plaats komt.
En hier de jaren met de grootste temperatuursprong over een periode van 10 jaar.
Het laatste jaar van elke decade is als teljaar genomen:
Ook hier geen enkel recent jaar in de top-10. De decade die eindigde in 2005 en
een temperatuurverandering van 1,24 °C vertoonde, komt op een 22e plaats. Nemen
we een periodelengte van 20 jaar dan valt 1 jaar uit het laatste decennium in de
top-10, namelijk 2006 met een 8e plaats:
Bij periodes van 30 jaar valt het afgelopen decennium weer buiten de prijzen. Het jaar 2006 werd 20e:
Tenslotte de cijfers voor periodes van 40 jaar en 50 jaar. Ook hier geen schokkkende extremen in de afgelopen decennia:
De Tjechische blogger Luboš Motl produceerde over de CET ook een aantal grafiekjes. Hij vergeleek de opwarmingtrends in periodes van 30 jaar, omdat deze de grootste kans zouden moeten geven op een extreem opwarmingssignaal:
Niets spectaculairs te zien in de laatste decennia. Eind 17e en begin 18 e eeuw
waren de periodes met opwarming langduriger dan de recente. Hieronder een
lijstje met de top-10:
1691 - 1720, 5.039 °C/eeuw
1978 - 2007, 5.038 °C/ eeuw
1977 - 2006, 4.95 °C/ eeuw
1690 - 1719, 4.754 °C/ eeuw
1979 - 2008, 4.705 °C/ eeuw
1688 - 1717, 4.7 °C/ eeuw
1692 - 1721, 4.642 °C/ eeuw
1694 - 1723, 4.524 °C/ eeuw
1689 - 1718, 4.446 °C/ eeuw
1687 - 1716, 4.333 °C/ eeuw
Als je voor alle zekerheid de periodes een lengte van 50 jaar geeft, levert dat
voor de afgelopen decennia nog steeds geen bijzonderheden op:
Ze kunnen in elk geval niet concurreren met de laat 17e en begin 18e eeuw: 1960 – 2009 met een stijging van 2.65 °C/eeuw valt zelfs buiten de top-10. Winnaar is 1688-1737 met een trend van 3.83 °C/eeuw. Als de periode 100 jaar is, dan zien we nog steeds geen uitzonderlijke situatie voor de afgelopen eeuw:
De opwarmingtrend voor 1909-2008 was 0.87 °C/eeuw, die van 1663-1762 was 0.86
°C/eeuw. Geen spectaculair verschil.
Tot slot was ik benieuwd of de CET een andere tendens zou aangeven voor de
temperatuur van de afgelopen 15 jaar dan De Bilt (zie ook “Temperatuur De Bilt”
in hoofdstuk “De Feiten”. Het resultaat ziet u hieronder:
De afgelopen 15 jaar is er in Midden Engeland, net als in Nederland, geen
opwarming meer maar zelfs een daling van 0,2 graden. Het wordt tijd dat Britse
media de feiten eens onder ogen zien.
20-4-2012
"Our planet is warming at a rapid rate"
De site ScepticalScience heeft een bijdrage gepubliceerd over de snelle opwarming van onze planeet. Daarin tracht men aan te tonen dat er momenteel geen sprake is van een stabilisering van de temperatuur op aarde, maar dat de opwarming onverminderd doorgaat, en wel in een rap tempo. Men bekijkt dan met name het globale temperatuurverloop van de afgelopen 30 a 35 jaar. In de grafiek hieronder zien we het verloop van de globale temperatuur zoals gereconstrueerd door Hadley Centre in Groot-Brittannië op basis van bestaande meetreeksen.
De temperatuurstijging vanaf 1975 is onmiskenbaar, en afgezien van (terechte) discussies over juistheid van metingen en legitimiteit van homogenisaties, wordt algemeen aanvaard dat de globale temperatuur gestegen is. Het artikel tracht de meningsverschillen wat aan te scherpen door te spreken van ‘climate deniers’, een beetje rare term voor diegenen die het klimaatdebat kritisch volgen en zich niet in de luren laten leggen door al te alarmistische verhalen. Ik ken niemand die de temperatuurstijging van na 1975 ontkent.
Het gaat dan ook niet om het ontkennen van de temperatuurstijging, maar om de stagnatie van de temperatuurstijging gedurende de afgelopen 15 jaar. In bovenstaande figuur is het verloop van de maandelijkse globale temperatuur volgens GISS weergegeven vanaf 1996. Alhoewel er formeel nog niet gesproken mag worden van een trendbreuk, is de stagnatie van de temperatuurstijging toch aardig persistent. Hansen neemt een termijn van 17 jaar om vast te stellen of een forcing natuurlijk is dan wel antropogeen.
De schrijver van ScepticalScience gebruikt bovenstaande grafiek van de global heat content om aan te tonen dat er nog steeds sprake is van opwarming. Er wordt gesteld: “ ….the continuing rise of both global and ocean heat content is probably the best indicator that global warming hasn’t even slowed down ” . Inderdaad is in de grafiek een sterke stijging te zien tussen 2000 en 2008, wat in tegenspraak lijkt met de afvlakking van de globale oppervlaktetemperatuur. De grafiek is een bewerking op basis van data die Church et al hebben gebruikt in hun publicatie uit 2011. Bekijken we echter de data tot 2012 van het NODC die de onovertroffen KNMI Climate Explorer ons aanreikt, dan zien we een ander beeld:
Vanaf 2003 is er geen sprake meer van een stijging van de heat content. De time lag tussen stagnatie van globale temperatuur en ocean heat content is makkelijk te verklaren vanwege het enorme bufferend vermogen van de oceanen en de menging van water tussen diverse niveaus. De heat content van land + atmosfeer en ijs speelt nauwelijks een rol van betekenis. Het lijkt er dus op dat de ‘best indicator’ van de site achterhaald is door de werkelijkheid.
Bovenstaande animatie laat zien wat die vreselijke klimaatontkenners doen met de
stijgende wereldtemperatuur: ze knippen de reeks in stukjes, die elk geen
stijging vertonen. Het is een beetje Donquichotte-achtige bewijsvoering, waarbij
de vijand gecreëerd wordt en daarna bestreden. Ik ken geen enkele kritische
klimaatvolger die op dergelijke wijze de recente temperatuurstijging benadert.
Wellicht nog belangrijker is dat het artikel suggereert dat het gebrek aan
opwarming van de afgelopen jaren het gevolg is van kortstondige effecten die
vrijwel alle afkoelend werken, zoals ENSO, vulkanisme en zonneactiviteit. In
onderstaande grafieken is af te lezen welke invloed volgens
Rahmstorf et al deze effecten hebben gehad op de oppervlaktetemperatuur.
MEI is Multivariate ENSO Index, een maat voor de invloed van ENSO, AOD is Aerosol optical depth, een maat voor de invloed van vulkanisme op inkomende kortgolvioge straling, en TSI staatvoor total solar irradiance. Het resultaat van de wijze van analyse door Rahmstorf et al voor 5 datareeksen ziet u hieronder:
Het ziet er indrukwekkend uit, maar is het dat ook? Daar zijn toch wat twijfels over gerezen. Die twijfels worden, ik ben daar eerlijk in, meteen getriggerd door de naam van de onderzoeker. De naam Rahmstorf is in klimatologenland immers niet onomstreden. Behalve dat hij bekend staat als een rasechte alarmist, is hij onlangs door het Kölner Landgericht veroordeeld vanwege het feit dat hij onwaarheden over een wetenschapsjournaliste had verkondigd die haar in de uitoefening van haar beroep hebben geschaad. Irene Meisscher had het namelijk gewaagd het IPCC te bekritiseren vanwege alarmistische passages over de toekomstige landbouwproduduktie in Afrika, als gevolg van de vermeende opwarming van de aarde. Deze waren niet op 'peer-reviewed' literatuur gebaseerd, maar toch in de samenvatting van het IPCC-rapport terecht gekomen en werden vervolgens in de klimaatalarmistische uitspraken van Pachauri en Ban Ki Moon hoog opgespeeld. Later zou dit bekend worden als 'Africagate'.
Bob Tisdale heeft wat kritisch noten gekraakt over het Rahmstorf artikel. Een ervan is dat Rahmstorf et al in hun publicatie behalve ENSO, zon en vulkanen nog een vierde ‘’externe” variabele mee laten doen in hun regressieanalyse, namelijk de lineaire temperatuurtrend. Afgezien van inhoudelijke bezwaren of de lineaire trend wel een externe variabele is, laat Tisdale zien wat het effect van die vierde factor is. De eerste grafiek is met , de tweede zonder de lineaire trend.
Dat komt omdat het mee laten wegen van de lineaire trend in de analyse grote effecten heeft op de schaal waarop de andere factoren van invloed zijn op de temperatuur, maar ook en in het bijzonder omdat daardoor invloed van de zonne-instraling omgekeerd wordt. Zie de grafieken hieronder:
Het tweede bezwaar is dat Rahmstorf et al de ENSO data gebruiken als externe
factor en te weinig rekening houden met de zeer complexe invloed van ENSO op de
oppervlaktetemperatuur. Daarover is al vaker gepubliceerd. De auteur van het
artikel in ScepticalScience stelt: “ Although the rate of warming of surface
air and lower troposphere temperatures appear to have slowed over the past few
years, the same could be said at any virtually any point in time by
cherrypicking short-term noise and ignoring the long-term trend ”. Het lijkt
me dat het artikel zelf een aardig bewijs levert van cherrypicking en en
veronachtzamen van langetermijntrends.
UHI deel 7: Roy Spencer toont sterk UHI-effect aan
Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in
Huntsville, heeft een interessant
onderzoek gedaan naar het UHI-effect, het effect dat stedelijke gebieden
leiden tot hogere luchttemperaturen. Op deze site is over het UHI-effect al
meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en
dan “UHI”. Wat heeft Spencer gedaan? Hij heeft de
Integrated Surface Database (ISD) van The National Climatic Data Center
gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan
20.000 meetstations. Eerst heeft Spencer die stations op het Noordelijk halfrond
geselecteerd die een ononderbroken temperatuurreeks hebben vanaf minimaal 1973
t/m 2011. Daarvan heeft Spencer de unadjusted International Surface Hourly (ISH)
gebruikt, en wel op 4 momenten per etmaal.
Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is. Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks.
Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5x5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.
De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:
Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.
Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.
Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data. These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”
Temperatuurverloop in de 21e eeuw.
Bovenstaande grafiek stamt , zoals bekend, uit het laatste rapport van het
IPCC uit 2007. Het voorspelt het temperatuurverloop in de 21e eeuw volgens een
aantal scenario’s . De rode lijn geeft het voorspelde temperatuurverloop weer
volgens de IPCC scenariofamilie met een voortgaande economische groei en
grootschalig gebruik van fossiele brandstoffen. Het IPCC voorspelt een
gemiddelde temperatuurstijging in de 21e eeuw van 2,3 °C +/- 0,6 °C. Zie voor
een uitgebreide behandeling van de diverse scenario’s het betreffende
IPCC-rapport.
De voorspellingen zijn gebaseerd op de uitkomsten van een aantal
klimaatmodellen, GCM’s genaamd. De meest geavanceerde klimaatmodellen zijn een
koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest
complexe modellen die gebruikt worden en zijn voortdurend “under construction”.
Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn
HadAM3 van het Hadley Center in Groot Brittannië , GFDL CM2.X van NOAA
Geophysical Fluid Dynamics Laboratory in de USA en ModelE van GISS.
Nu is het interessant om te bezien of 12 jaar na de start van de voorspelling in 2000 de klimaatmodellen het goed gedaan hebben. Hieronder is het verloop van de globale oppervlaktetemperatuur weergegeven volgens Hadcrutv3. Zoals te zien is er sinds bijna 15 jaar geen opwaartse tendens meer te bespeuren in de grafiek.
De beide zwarte lijnen geven de grenzen aan van de voorspelling door het IPCC tot 2015. De temperatuur blijft vlak en is de laatste jaren onder de geprojecteerde temperatuur volgens de klimaatmodellen terecht gekomen. Blijkbaar hebben de klimaatmodellen grote moeite om het temperatuurverloop te voorspellen. Hoe is dat te verklaren?
Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn,
kennen ze een aantal tekortkomingen. De belangrijkste zijn:
• Bij koppeling van het atmosferische model aan het oceanische model moeten in
sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze
flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is
nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige
vulkaanuitbarstingen.
• Alle modellen schieten tekort in het voorspellen van de temperatuur in de
stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de
stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed
op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze.
Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C
lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben
grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal
waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat
modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen
“geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de
boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.
Maar er is nog een aspect waarin GCM’s tekort schieten. Nicola Scafetta heeft recent enkele opmerkelijke publicaties daarover het licht doen zien. Scafetta is onderzoeker aan de Duke UIniversity in North Carolina en een expert op het gebied van statistiek en nonlineaire modellen van complexe processen. Een prima specialisatie om klimaatmodellen aan de tand te voelen. Hij bestudeerde de invloed van astronomische oscillaties op de temperatuur en vergeleek de resultaten met de klimaatmodellen die door het IPCC gebruikt worden.
Het bleek dat de huidige klimaatmodellen onvoldoende de belangrijke decadale en multidecadale oscillaties kunnen reproduceren zoals die in het temperatuursignaal van 1850 tot 2011 te zien zijn. Zie de grafiek hieronder.
Scafetta onderscheidt een viertal oscillaties in de temperatuurlijn, namelijk een van 9,1 jaar, een met een lengte van 10 tot 11 jaar, een van ongeveer 20 jaar en een van ongeveer 60 jaar. De eerste lijkt gerelateerd aan de getijdencycli als gevolg van de aantrekkingskracht van Maan en Zon, de andere drie vinden hun oorsprong in de banen van met name Jupiter en Saturnus. In onderstaande grafiek is te zien dat er een opmerkelijke correlatie bestaat tussen het gemeten temperatuurverloop en de vier genoemde cycli.
Scafetti heeft op basis van de 4 oscillaties een model gemaakt en dat model gecalibreerd ten opzichte van een tweetal meetreeksen, namelijk de globale temperatuur van 1850-1950 ( blauwe lijn) en van 1950-2010 (groene lijn). Calibreren is een techniek met behulp waarvan men een tweetal reeksen vergelijkt, in dit geval de gemeten waarden van de globale temperatuur en de modelmatige berekeningen van de temperatuur. De lijnen in de grafiek zijn “detrended”, dat wil zeggen dat de lichte stijging vanaf het einde van de Kleine IJstijd tot heden eruit gehaald is. Zie hierover onder andere in het menu “De feiten” en dan “Temperatuur Wereld”.
Over de 60-jarige cyclus is op deze site al het een en ander geschreven in het kader van de AMO, de Atlantische Multidecadale Oscillatie. Volgens onderzoekster De Raa van het IMAU is de AMO het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht. Zie Onder “De Feiten” het hoofdstuk over “Temperatuur wereld” voor een uitgebreide bijdrage hierover. Scafetta meent echter dat deze oscillatie wellicht een astronomische oorzaak heeft (Mazzarella et al 2011).
Er is nog tenminste één oscillatie die in het model van Scafetta niet meegenomen is, en dat is de oscillatie met een periodiciteit van enkele eeuwen. In de grafiek hieronder is een viertal oscillaties weergeven met een periodiciteit van ongeveer 1000 jaar.
Zoals hiervoor al geduid zijn alle klimaatmodellen op een aantal punten geparameteriseerd. Dat geldt onder andere voor het antropogene aandeel in de temperatuurstijging van de afgelopen eeuw. Hoe sterk die antropogene invloed door de diverse modellen wordt ingeschat laat onderstaande figuur zien. De grafieken zijn afkomstig van de bijdrage van werkgroep 1 van het IPCC rapport uit 2007. Het zijn vergelijkingen tussen de globale gemiddelde oppervlaktetemperatuur (HadCRUT3, de zwarte lijnen) en de antropogene plus natuurlijke forcings (rode lijn in grafiek a) en alleen de natuurlijke forcings (blauwe lijn in grafiek b). De rode lijn is het gemiddelde resultaat van 58 simulaties die 14 modellen hebben geproduceerd. De blauwe lijn is het resultaat van 19 simulaties door 5 modellen.
Volgens het IPCC is er tussen 1970 en 2000 sprake van een afkoeling van 0 °C tot 0,2 °C als gevolg van natuurlijke forcings (in dit geval enkele vulkaanuitbarstingen). De gemeten temperatuurstijging in deze periode is 0,5 °C, dus de antropogene forcing tussen 1970 en 2000 is 0,5 °C tot 0,7 °C groot geweest. Op basis hiervan is de temperatuurprojecties tot 2100 gebaseerd zoals we die zagen in de eerste figuur.
Hiervoor is al opgemerkt dat de onderliggende natuurkundige mechanismen voor de 4 oscillaties nog onderwerp van wetenschappelijke discussies vormen. Scafetta stelt echter dat die onderliggende mechanismen niet echt nodig zijn: de oscillaties kunnen we volgens Scafetta beschouwen als een ‘description of the dynamical evolution of the climate system’. Klaarblijkelijk kun je de harmonische componenten van de klimaatdynamiek empirisch modelleren zonder dat je weet hebt van de onderliggende natuurkundige processen. Dat deed ook William Thomson, beter bekend als Lord Kelvin, bij het beschrijven en voorspellen van getijden. De beroemde getijdevoorspelmachine van Kelvin is daarop gebaseerd: zie onderstaande afbeelding.
Scafetta gebruikt dezelfde benadering als Kelvin destijds en werkt die op twee manieren verder uit:
1) Bezien of de door het IPCC gehanteerde modellen de temperatuuroscillaties
kunnen reproduceren
2) Bezien of er op basis van de oscillaties een model te ontwikkelen is om
klimaatverandering te voorspellen
Bij de vergelijking van klimaatmodellen om te bezien of deze de globale temperatuur goed weten te reproduceren maakte Scafetta onder andere gebruik van het ‘Coupled Model Intercomparison Project’ (CMIP3). Dat is bereikbaar en downloadbaar via de onovertroffen KNMI Climate Explorer. De resultaten van het ModelE van GISS zijn in de volgende grafiek te zien:
Vergelijking met de meetresultaten van HadCRUT3 levert het volgende beeld op:
De resultaten van GISS ModelE zijn 1 °C naar beneden verschoven om vergelijking mogelijk te maken. Zoals te zien is is de reproductie door ModelE verre van goed. Voor alle andere door het IPCC gehanteerde modellen gelden dezelfde tekortkomingen: weliswaar laat de reproductie een stijgende trend zien, maar van bijvoorbeeld de duidelijk zichtbare 60-jarige cyclus in meetreeks van HadCRUT is in de modelsimulatie niets terug te vinden. Voor alle andere klimaatmodellen geldt hetzelfde: geen enkel model is in staat om de oscillaties in de meetreeks te simuleren, en de grote vulkaanuitbarstingen hebben een te groot afkoelend effect. Zie voor de andere modellen deze bijlage.
Zoals hiervoor al was aangegeven wordt de opwarming sinds 1970 vanwege antropogene forcing door het IPCC geschat op 0,5 °C - 0,7 °C. Deze schatting vormt de basis voor de voorspellingen van het IPCC over het globale temperatuurverloop in de 21e eeuw volgens de diverse scenario’s. Scafetta toont aan dat wanneer rekening wordt gehouden met de 60-jarige cyclus de geschatte toename zeker met 0,3 °C naar beneden dient te worden bijgesteld over de periode 1970-2000.
Temperatuurbepalende factoren aan het aardoppervlak
Bob en Sjors hebben getracht zich een beeld te vormen van de processen aan
het aardoppervlak die zorgen dat de aarde zijn overtolige warmte kwijtraakt. Een
belangrijk onderdeel van de energiebalans van de aarde zoals men weet, vandaar
dat deze bijdrage begint met de bekende figuur van Trenberth. Het gaat dus om de
processen die op de figuur zijn aangeduid met 'thermals', 'evapotranspiration'
en 'surface radiation'. Dit zijn de processen die de aarde afkoelen.
Sjors en Bob hebben zich eerst de theorie achter deze weerbarstige materie eigen
gemaakt en hebben toen, in navolging van wijlen Noor van Andel, een leuke proef
gedaan om de theorie te staven. Dat laatste stuk van hun werkstuk, het
practicum, geef ik hier onder integraal weer omdat het zo leuk gedaan is. Voor
de liefhebbers van het theoretisch kader is hier een link naar het
complete werkstuk.
-------------------------------------------------------------------------------------------------------------------------
Uitleg van ons practicum
Hoe willen we nou gaan bekijken wat nou de grootste invloed heeft op de
temperatuur aan het aardoppervlak? Doctor van Andel had een jaar voor zijn dood
een zeer interessant proefje gedaan: hij nam een paar Petri schaaltjes en
probeerde daarmee een aantal verschillende omstandigheden en factoren die van
invloed zouden kunnen zijn op de temperatuur, te creëren. Hij mat vervolgens de
temperatuur op gedurende 16 uur. Daarna moest hij stoppen omdat zijn dochter het
gazon wilde maaien. Dit inspireerde ons om een gelijkaardig practicum op te
zetten. Wij wilden onze meting langer laten lopen zodat we beter de opwarming
konden bestuderen, maar ook de afkoeling.
De effecten die wij wilden bestuderen zijn de effecten van waterdamp, convectie
en van broeikasgassen. Helaas kunnen we variaties in de zon niet goed genoeg
nabootsen om hier degelijke informatie uit te kunnen halen. Vooral het afkoelen
van onze kommetjes is interessant: welke omgeving voert de warmte het snelst
weg? Zou de waterdamp voor de meeste afkoeling zorgen, of misschien convectie?
En wat is het verschil tussen geen en wel broeikasgassen?
Opstelling
Algemene opstelling
We hebben de proef uitgevoerd met een opstelling die bij beide delen van het
practicum uit 4 glazen bakjes bestond. Deze bakjes stonden op een witte
ondergrond en er lagen watjes in, zodat er geen absorptie van zonlicht zou
plaatsvinden, die het practicumresultaat zou kunnen beïnvloeden. We hebben met
thermokoppels de temperatuur opgemeten. De seintjes die de thermokoppels gaven
gingen naar een ‘Ulab’, een datalogger die de temperatuur meet gedurende een
vooraf ingestelde tijd. Deze gegevens konden we dan later door middel van het
programma Coach verwerken tot grafieken.
Waterdamp
We hebben ervoor gekozen om de verschillen die waterdamp maken te simuleren met
het natmaken van de watjes. De rest van het water hebben we na het natmaken van
de watjes uit het bakje geschud, zodat in elk bakje evenveel water aanwezig was.
Broeikaseffect
Om het broeikaseffect te simuleren hebben we net als Dr. Van Andel voor PE en
PMMA gekozen. Een uitleg over deze stoffen komt later. Voor de bakjes met PE als
bedekking, hebben we een diepvrieszak (dit is LDPE) over twee houten latjes
gespannen, zodat we de bakjes eronder konden schuiven en de afstand tussen het
bakje en de diepvrieszak ongeveer 1 mm was. Dit hebben we gedaan zodat het water
dat verdampt er ook uit kan. De afstand is zo klein, omdat we op deze manier de
convectie wel zo veel mogelijk willen verhinderen. Voor de bakjes met PMMA als
bedekking hebben we hetzelfde gedaan, maar dan met PMMA (plexiglas) op de houten
latjes. Ook hebben we nog een los wit plankje gebruikt, waar we de open bakjes
op hebben gezet. Dit was dezelfde soort ondergrond als bij de andere bakjes,
waardoor er hierdoor geen ongelijkheid in temperatuur in zou moeten zitten.
Convectie
Om convectie te simuleren hebben we ook open bakjes getest. Aangezien de andere
bakjes zo goed als gesloten waren, kon de wind daar niet bij om de warme of
koude lucht weg te voeren. Bij open bakjes is dit wel het geval.
Verdeling van de bakjes
We hebben ervoor gekozen om de proef in 2 delen te doen, omdat de ‘U-lab’ maar 4
aansluitingen had, waardoor we niet alle 6 de verschillende bakjes tegelijk
konden meten. Op deze manier hoopten we door 2 referentiebakjes aan te houden,
indirect alsnog alle 6 de bakjes met elkaar te kunnen vergelijken. We hebben de
bakjes als volgt verdeeld:
Proefje 1:
PE droog
PE nat
PMMA droog
PMMA nat
Proefje 2:
Geen bedekking droog
Geen bedekking nat
PMMA droog
PE droog
PE
Metingen
Practicum 1
We hebben dit practicum uitgevoerd van 8 februari 2012 22:30 uur t/m 10 februari
2012 22:30 uur. Gedurende de eerste dag was het bewolkt, de tweede dag helder.
In deze grafiek zijn:
Roze de grafiek van PMMA nat
Groen de grafiek van PE nat
Rood de grafiek van PMMA droog
Blauw de grafiek van PE droog (werkelijke temperatuur was waarschijnlijk 1,5
graden warmer)
Practicum 2
We hebben dit practicum uitgevoerd van 23 februari 2012 22:30 uur t/m 25 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, op de tweede dag kwam de zon er af en toe door.
In deze grafiek zijn:
Roze de grafiek van Open nat
Groen de grafiek van PE droog
Blauw de grafiek van PMMA droog
Rood de grafiek van Open droog (werkelijke temperatuur was 1,5 graden warmer)
Analyse
Practicum 1
Kwaliteit van de meting
Onze grafiek lijkt vrij goed overeen te komen met wat het dichtstbijzijnde KNMI
station (in Arcen) heeft gemeten (zie bijlage). De tweede middag komt in onze
grafiek echter duidelijk boven de andere uit qua temperatuur, terwijl dit bij de
werkelijke temperatuur niet is. Waarschijnlijk komt dit doordat op de tweede dag
de zon veel harder scheen. De thermokoppels lijken dit heel duidelijk op te
pikken. Op de tweede dag meten de thermokoppels temperaturen van boven de 0
graden, terwijl de temperatuur volgens de KNMI niet boven de 0 uit waren
gekomen.
De roze grafiek lijkt een meetfout te tonen in het eerste anderhalve uur en
tussen 42 en 44 uur. De temperatuur blijft nagenoeg gelijk, terwijl dit totaal
onlogisch is op deze tijdstippen. Bovendien is de temperatuur waarop de grafiek
constant is in beide gevallen even hoog.
Waterdamp
In de nacht (tussen 0 en 9 uur en tussen 22 en 33 uur in onze grafiek) zijn de
grafieken van de schaaltjes met een natte bodem (de groene en paarse grafieken)
warmer dan de droge bakjes. Water geeft namelijk moeilijker warmte af aan de
lucht dan andere materialen. In de middag, wanneer de zon op de bakjes schijnt,
zijn de bakjes met water erin juist kouder dan de droge bakjes. Dit effect is op
de eerste dag minder groot dan op de tweede omdat de luchtvochtigheid hoger was
(zie bijlage). Het water kan dan namelijk verdampen en zo veel warmte meenemen.
Het verschil bij de tweede dag is, ongeveer 7 graden ’s middags en 1 graden ’s
nachts voor de PMMA bakjes. Opgeteld is dit 8 graden verschil. Na correctie is
het verschil bij de PE bakjes, ‘s middags ongeveer 3,5 graden. Als je daar de
4,5 graden verschil die er ’s nachts tussen de bakjes zit bij optelt, krijg je
een verschil van 8 graden. Waterdamp maakt de bakjes dus zo’n 8 graden koeler
overdag.
Broeikaseffect
Over de hele 48 uur lijkt er een constant verschil te zitten tussen de bakjes
met PE en PMMA. Bij de natte bakjes (groen en paars) is dit verschil ongeveer 1
graden en bij de droge bakjes (rood en blauw), na correctie voor het foutje met
de thermokoppels, 1,5 graden. PMMA behoort de warmste te zijn aangezien PMMA
infraroodstraling tegenhoudt. Dit betekent dat de warmte niet weg zou kunnen
gaan uit onze bakjes. Helaas is dit niet het geval bij de natte bakjes. Sterker
nog, bij de natte bakjes is de PE constant warmer dan de PMMA, al is het maar 1
graden. Wel lijken de PE bakjes lichtelijk sneller af te koelen dan de PMMA
bakjes, maar dit verschil is bijna niet merkbaar. Een mogelijke verklaring voor
het feit dat er bij de natte bakjes zo’n klein verschil zit tussen PE en PMMA is
dat de waterdamp zich op de PMMA en PE gecondenseerd kunnen hebben. Daar zouden
ze infraroodstraling omgebogen kunnen hebben naar de buitenkanten van de bakjes,
waar de infraroodstraling er wel door kan. Of de waterdamp zou dan weer met de
warmte die erin zit naar onder gevallen kunnen hebben, waardoor de warmte niet
uit het bakje gevoerd wordt. Een verklaring voor het feit dat het natte bakje
met PE constant warmer was, hebben we niet.
Practicum 2
De kwaliteit van de meting
Onze grafiek komt bijzonder goed overeen met de temperatuur die het KNMI
in Arcen heeft gemeten op 10cm hoogte boven gras. Vooral als je bij het open
bakje 1,5 graden optelt. Zie hieronder voor de vergelijking.
Convectie
In de nacht waar het zo koud is geworden daalt de temperatuur van het open,
droge bakje (de rode grafiek) harder dan de andere bakjes. Na de 1,5 graden
correctie wordt het open bakje 0,5 graden kouder dan de gesloten bakjes. Het
open bakje stond namelijk in contact met de open lucht. Rond dat tijdsstip kwam
er een koudefront aan. De gesloten bakjes houden dan hun warmte zo veel mogelijk
vast, totdat de warmte via straling en geleiding weg gaat. Uiteraard stijgt de
temperatuur dan ook harder wanneer er weer warme lucht voorbij komt. Dit
verschil is kleiner bij het natte, open bakje (de roze grafiek). In de middag
blijkt er een verschil te zitten van 0,5 graden tussen het open, droge bakje en
het bakje met PE (het afgedichte bakje dat alles doorlaat). In die middag kan
het open bakje dus makkelijker de warmte kwijtraken en blijft het iets koeler.
Waterdamp
Op de eerste dag lijkt het bakje met de waterdamp moeilijker op te warmen. De
reden hiervoor moet zijn dat er in de middag waterdamp gecreëerd is die dan
weggevoerd wordt. Deze waterdamp voert de warmte mee (latente warmte). In de
nacht die hierop volgt is de grafiek met waterdamp merkwaardig veel warmer dan
de andere grafieken. Dit komt waarschijnlijk wederom doordat water moeilijker
z’n warmte kwijt kan dan lucht. Vervolgens stijgt de temperatuur minder hard dan
in het droge open bakje. De warmte die er gecreëerd wordt, wordt door het
verdampte water meegevoerd. Op de tweede middag is het natte bakje even warm als
beide afgesloten bakjes. Dit kunnen we niet verklaren. Door de waterdamp zou dit
bakje juist kouder moeten zijn omdat het makkelijker zijn warmte kwijt kan. In
de nacht is er een temperatuurverschil, na correctie, van anderhalve graden, in
de middag geen enkele. Over het algemeen is het verschil dat waterdamp maakt,
dat het in de middagen zo’n halve graden warmer is en in een nacht waar het
sterk afkoelt, anderhalve graden.
Broeikaseffect
De eerste (bewolkte) dag is het bakje met PE (de groene grafiek) ongeveer 0,5
graden warmer dan het bakje met PMMA. Dit kan komen doordat de wolken het
zonlicht slechter doorlaten en er juist voor zorgen dat er meer IR straling van
de aarde wordt geabsorbeerd en weer gedeeltelijk naar de aarde wordt
uitgezonden. Omdat PMMA niet doorlaatbaar is voor IR straling, wordt deze bij
het PMMA buiten het bakje gelaten. PE laat IR straling echter wel door, waardoor
dit bakje wel door deze straling wordt opgewarmd. Als er na ongeveer 25 uur een
gebied met koude lucht voorbijkomt, wordt dit verschil kleiner en lopen de
grafieken zelfs bijna gelijk. In dit gedeelte koelt het bakje met PMMA iets
minder snel doordat de infraroodstraling van het bakje zelf het bakje niet uit
kan. Dit verschil is echter vrij klein. Nadat de kou voorbij is getrokken warmt
het bakje met PE harder op dan het bakje met PMMA. Wij denken dat dit wederom
komt doordat de wolken infraroodstraling terugkaatst die het PMMA niet doorlaat.
In de middag, wanneer de zon er zo af en toe doorheen komt, wordt dit verschil
weer kleiner en gaan de grafieken nagenoeg gelijk lopen. Als je inzoomt, valt te
merken dat het bakje met PMMA steeds een heel klein beetje warmer is dan het
bakje met PE. Dit verschil is echter vrij klein. We hadden verwacht en gezien in
het vorige practicum dat dit verschil groter zou zijn. Dit kan komen doordat de
zon er maar af en toe door is gekomen en niet zoals bij het eerste practicum de
hele tijd op de bakjes heeft geschenen. Ook in de tweede nacht koelt het PMMA
bakje minder hard af. Het verschil tussen PE en PMMA is dus ongeveer 0,5 graden.
Conclusie van het practicum
Uit onze practica blijkt dat er maar een miniem verschil zit tussen PMMA en PE
en dus ook tussen wel en niet broeikasgassen in onze atmosfeer. Bij het eerste
practicum is het verschil 1 graden, bij het tweede slechts 0,5 graden. We kunnen
dus concluderen dat het effect van broeikasgassen op microschaal bijzonder klein
is.
Het effect van convectie is niet veel groter. Alleen in de middag, bij warmte,
lijkt er een verschil van 0,5 graden te zitten tussen wel en geen convectie.
Het effect van waterdamp is veel groter, maar niet eenduidig. Bij ons eerste
proefje is het verschil zo’n 8 graden, bij het tweede 1 graden.
Waar broeikasgassen een relatief klein tot geen effect hebben, en waar convectie
ook maar een miniem verschil geeft, heeft waterdamp een groot effect op de
temperatuur van onze bakjes. Als er verdamping plaats kan vinden, zijn de bakjes
veel kouder als de zon er op schijnt, in de nacht heeft het een licht opwarmend
effect.
De verschillen die in ons practicum te zien zijn, zijn relatief kleine
verschillen doordat de bakjes niet volledig waren afgesloten, er niet veel
zonuren waren (hoewel 10 februari de zonnigste dag van de maand was), er een
hoge luchtvochtigheid was en doordat onze bakjes waarschijnlijk warmte geleid
hebben, zodat de warmte naar buiten kon ontsnappen.
Conclusie
We hebben nu van drie van de vier factoren door middel van een simpel
proefje weten te bepalen welke het sterkste effect heeft op de temperatuur op
aarde. In ons practicum, dus op micro schaal, is gebleken dat waterdamp een
grotere invloed op de temperatuur heeft dan broeikasgassen. Waterdamp geeft
immers een verschil van 1 tot 8 graden tussen dag en nacht en broeikasgassen en
convectie veel minder. Dit komt goed overeen met de theorie die we hadden.
Waterdamp is heel belangrijk voor de temperatuur op het aardoppervlak. Waterdamp
neemt de warmte mee naar boven waar de warmte gemakkelijker kan uitstralen.
Waterdamp is echter ook een broeikasgas en helpt dus onze aarde opwarmen. Het is
zelfs het meest actieve broeikasgas. Maar waterdamp kan ook wolken creëren en zo
de aarde óf verder opwarmen óf afkoelen. De mate waarin dit gebeurt ligt aan de
zon. Als de zon een zwak magnetisch veld heeft, zullen er meer lage wolken
gevormd worden die onze aarde afkoelen. Echter ook de vervuiling van de lucht
heeft invloed hierop. Als er veel vervuiling is, zijn er namelijk veel
condensatiekernen en kunnen zich veel wolken vormen. Ook bestaan deze wolken dan
uit veel waterdruppeltjes, waardoor het albedo relatief groot is ten opzichte
van wolken die ontstaan rond weinig waterdruppeltjes. Ook bestaan deze wolken
langer.
Wij denken dat de fluctuaties in de zon het grootste effect heeft op de
temperatuur aan het aardoppervlak. Niet zo zeer omdat de temperatuur zeer laag
zou zijn als er geen zon was, maar meer omdat het de motor achter het hele
mechanisme is in onze aardatmosfeer. Als de zon zwak is, zal ze zowel meer
wolken vormen als minder straling op de aarde zelf laten vallen. Als er minder
straling op de aarde valt, zal er ook minder straling naar de broeikasgassen
gestuurd worden. Deze broeikasgassen kunnen dan weer minder straling
terugkaatsen.
Waterdamp lijkt daarna het grootste effect te hebben. Waterdamp kwam ‘als beste
uit de bus’ in onze test en heeft meerdere mechanismes waarin het betrokken is.
Broeikasgassen komen naar onze mening op de derde plaats terecht. Ze bleken in
onze test vrij weinig effect te hebben. Onze theorie geeft aan dat ze een
behoorlijk groot effect moeten hebben en de aarde aardig moeten opwarmen, mede
doordat een hogere temperatuur veroorzaakt door broeikasgassen, meer waterdamp
laat verdampen, waardoor er meer broeikasgassen in de lucht komen die de aarde
nog verder kunnen opwarmen. Wel kan er zo weer meer warmte mee naar boven
gevoerd worden die dan kan uitstralen in de ruimte.
Convectie heeft vooral effect op de lokale temperatuur. De warmte wordt door
middel van convectie van de ene naar de andere plek vervoerd, maar koelt niet
echt het gehele aardoppervlak af. In de tropen is het effect van convectie
echter het grootst. Daar is het het warmst en wordt de meeste warmte afgevoerd.
UHI effect heeft groter ruimtelijk effect dan tot nu toe gedacht.
In een studie naar de lengte van het groeiseizoen in het NO van de USA hebben onderzoekers een belangrijke ontdekking gedaan. Steden hebben een opwarmend effect op de omliggende regio tot een afstand van 32 km van het stadscentrum. Tot nu toe werd aangenomen dat die invloed op de omgeving niet verder reikte dan zo’n 15 km. (Zhang et al, 2004).
Andrew Elmore et al maakten gebruik van recente satellietdata met een hoge resolutie om de bladontwikkeling bij loofbomen te onderzoeken. Daarbij keken ze naar een drietal aspecten van bladontwikkeling, namelijk de bladaanzet in de lente, de ‘summer greendown’ en de bladval in de herfst.
Het groeiseizoen is op continentale schaal goed te beschrijven aan de hand van klimatologische variabelen zoals breedte- en hoogteligging . Voor de ruimtelijke schaal waarop dit onderzoek is toegepast, een gebied van ~130 bij ~190 km, was een fijne dataresolutie noodzakelijk omdat de ruimtelijke patronen complexer zijn en een groter aantal processen omvatten.
De resultaten zijn deels niet verrassend en deels wel. Niet verrassend was dat er een drietal ruimtelijke variabelen van invloed bleek te zijn op de lengte van het groeiseizoen, namelijk hoogteligging, verstedelijking en nabijheid van grote watereenheden. Voor mij was verrassend dat de invloed van verstedelijking op het groeiseizoen ruimtelijk veel verder blijkt te reiken dan tot nu toe is aangenomen. Ook verrassend was dat die stedelijke invloed vooral effect heeft op het moment van bladval in de herfst en minder op de bladaanzet in de lente. Dat laatste kan te maken hebben met een zich wijzigende soortensamenstelling en irrigatie.
Zhang et al (2004) publiceerden in 2004 een onderzoek naar het effect van UHI op het groeiseizoen van planten. Dat deden ze aan de hand van MODIS-data (Moderate Resolution Imaging Spectroradiometer) voor verstedelijkte gebieden > 10 km2. in het oostelijk deel van de USA. Hun onderzoek wees uit dat de invloed van UHI-effect op de omgeving exponentieel afneemt met de afstand, en dat de invloed van steden op de temperatuur in de omgeving tot 10 km afstand van de rand van de stad substantieel is.
Als de invloed van steden echter veel verder reikt dan tot nu toe werd
aangenomen, zoals het onderzoek van Elmore et al uitwijst, dan betekent dit dat
stedelijke opwarming ruimtelijk bezien veel grotere effecten heeft dan tot nu
toe werd aangenomen. Peri-urbane meetstations die tot nu toe werden
geclassificeerd als ruraal zijn dan in werkelijkheid urbane stations.
Op onderstaande afbeelding zijn de geldstromen gevisualiseerd die de ‘angstmachine’ van de klimaatalarmisten aan de gang houden. Let eens op de rol van de main stream media (‘rubber stamp’) in de helse machine. De kritiek van onafhankelijke wetenschappers wordt genegeerd, of marginaal, extreem of verloochenend genoemd. Herkent u de meeste Nederlandse media ? Zie recente bijdragen op deze site.
![]() |
Gisteren was het weer eens raak met Martijn van Calmthout in de Volkskrant: in het artikel dat klimaatsceptici gefinancierd worden door de Heartland Foundation wordt de suggestie gewekt dat hier sprake zou zijn van ongeoorloofd gedrag. Geldbedragen worden genoemd, en mensen worden ‘geacht’ tegengeluid te geven in het klimaatdebat. Daarbij worden associaties opgeroepen met onoorbare praktijken en actiedwang die je eerder binnen sekten verwacht. |
De Heartand Foundation is echter een organisatie die zich bezig houdt met het lot van kinderen, dus ik denk dat de schrijver het Heartland Institute in Chicago bedoelt. Dat is niet de enige omissie in het artikel. De aantijgingen zijn merkwaardig, omdat het Heartland Institute al jaren openlijk kritische publicaties en onderzoek op het gebied van klimaatverandering financiert. Dat moet wel, want vrijwel alle publieke en niet-publieke geldstromen in de klimatologie gaan naar diegenen die een klimaatalarmistische visie aanhangen.
Voorpagina van de site van Heartland Institute
In de USA is het overigens veel gebruikelijker dan bij ons dat onderzoek en
publicatie ook door particuliere gelden worden gefinancierd. Een van de grootste
particuliere geldschieters voor alarmistisch onderzoek is het Rockefeller
Brothers Fund, dat vorig jaar meer dan 25 miljoen dollar uitgaf. Afgelopen
maandag reageerde van Martijn Calmthout in de krant ook al zo geprikkeld
richting klimaatsceptici. Het lijkt er op dat van Calmthout ‘a man with a
mission’ is.
Van Calmthout had het grote nieuws van Leo Hickman van The Guardian, een Britse
krant die op klimaatgebied het hart ook op de ‘goede’ plaats heeft. Helaas, het
uitgelekte document waar het hele verhaal van van Calmthout op gebaseerd is,
lijkt fake te zijn. Iemand heeft een zogenaamd belastend document nagemaakt.
Prof. Roy Spencer (enge man: kritische klimatoloog!) zei in een reactie op zijn website:
“The only document involved that could be viewed as damning in any way is
almost certainly a fake. The others are fairly boring, unless you really are
surprised that any organization would take (very modest) donations to explore
alternative hypotheses on the subject of global warming and climate change.
Supporting alternative hypotheses in science…what a scandal! Only fringe lunatic
save-the-Earth-by-killing-everyone-but-me types could really believe that any
organization would actually promote “dissuading teachers from teaching science”.
The person who wrote this obviously fraudulent Heartland goal clearly knows
little about science or what kind of organization Heartland is. That so many
media outlets (especially the Guardian) ran with the story without checking its
veracity is another black eye for what passes as journalism these days. ”.
Ik ben benieuwd of de Volkskrant hier op terug komt. En wat van Calmthout
betreft: ik heb met veel plezier zijn boek “Einstein in een notendop” gelezen,
maar zijn journalistieke opvattingen deugen niet.
De Volkskrant publiceert kritisch artikel van Richard Lindzen e.a..
Blij verrast was ik toen ik afgelopen zaterdag de Volkskrant opende en een vertaling aantrof van een artikel dat op 27 januari j.l. is gepubliceerd in de Wall Street Journal.
Het artikel is door 16 mensen ondertekend, waaronder prominente klimaatonderzoekers zoals Richard Lindzen van het MIT. Via bovenstaande link kunt u het origineel lezen, anders moet u het doen met de vertaling.
![]() |
Een bijgaande
video met een interview met prof. William Happer, een van de
ondertekenaars vindt u
hier.
Het artikel is helder en laat niets aan duidelijkheid te wensen over. Petje af voor de Volkskrant die zo nu en dan geen rekening houdt met de gevoeligheden van haar wetenschapppelijke redactie en soms ook een kritisch geluid uit klimatologenland durft te publiceren. Direct na deze publicatie een reactie van 2 wetenschapsjournalisten van de Volkskrant, nota bene op de opiniepagina. U vindt deze reactie hier. Over die reactie wil ik graag wat kwijt. |
‘Daar waren ze weer, de klimaatsceptici’. Dat is de openingszin van de reactie van Martijn van Calmthout en Maarten Keulemans op het artikel van Lindzen e.a. dat vergaande acties tegen opwarming onnodig zijn. Ze schieten in hun reactie in een bekende reflex: links ziet de gevaren van antropogene opwarming, rechts wil er niets van weten. Dat blijkt onder meer uit hun constatering dat een deel van de ondertekenaars ‘duidelijke banden met de industrie’ heeft. Je kunt je afvragen of een dergelijke kwalificatie van belang is bij de beoordeling van de argumenten die door de 16 ondertekenaars naar voren zijn gebracht.
Van Calmthout en Keulemans stellen dat klimaatsceptici vergeten dat de meeste aanwijzingen één kant op wijzen, namelijk opwarming door toename van CO2 als gevolg van menselijke uitstoot. Afgezien van het feit dat je met kwalificaties als ‘de meeste aanwijzingen’ je gelijk in de wetenschap niet kunt halen is het ook inhoudelijk onjuist. Er zijn de afgelopen jaren namelijk steeds meer aanwijzingen dat het klimaatsysteem veel complexer is dan tot nu toe aangenomen werd waardoor allerlei voorspellingen niet blijken uit te komen. Dat de globale temperatuur al minstens 15 jaar niet meer stijgt terwijl het CO2-gehalte toeneemt is er slechts een van.
Het grote manco van veel klimaatalarmistische doemscenario’s is dat ze gebaseerd zijn op modellen. Het voortdurend presenteren van de uitkomsten van die modellen als ‘feiten’ heeft er voor gezorgd dat het grote publiek niet anders weet dan dat we aan de vooravond staan van een Armageddon. Steeds vaker wijst onderzoek echter uit dat de werkelijkheid weerbarstiger is en dat er tot nu toe helemaal geen grootschalige natuurrampen zijn ontstaan als gevolg van verhoogd CO2. De temperatuur stijgt al 15 jaar niet meer, het aantal tropische stormen is niet groter geworden, windsnelheden in alle werelddelen zijn zelfs afgenomen, gletsjers blijken veel minder snel af te smelten dan vermeld , het zeeniveau stijgt niet harder dan 50 jaar geleden, enzovoorts. Hierdoor vallen klimaatalarmisten in hun eigen wapen: het grote publiek keert zich massaal van de overdreven alarmistische scenario’s af.
Het merkwaardige van het artikel is dat het aan de ene kant opvallend neutraal de grote onzekerheden beschrijft in de klimatologie, terwijl anderzijds gepleit wordt voor het nemen van verregaande maatregelen op basis van diezelfde grote onzekerheden. Van Calmthout en Keulemans hebben gelijk als ze stellen dat de klimaatdiscussie veel meer is dan een strijd om het wetenschappelijke gelijk. De titel, ‘Klimaatdiscussie is botsing van ideologieën’, geeft echter helaas ook de toon van het artikel weer. Een gemiste kans van beiden om een meer inhoudelijk commentaar te geven. Met de constatering dat een deel van de ondertekenaars ‘duidelijke banden met de industrie’ heeft maken ze misschien goede sier bij diegenen die nog de links-rechtsmaatlaat gebruiken om onderscheid te maken tussen goed en kwaad, met wetenschapsjournalistiek heeft het echter weinig te maken.
Een ingezonden-briefschrijver in de Volkskrant van vandaag meende dat de stilstand van de globale temperatuur het gevolg was van een statistische truc door het super El Ninojaar 1998 als ‘ijkpunt’ te nemen, wat dat ook mag betekenen. Dat de stilstand ook zonder cherry-picking aangetoond kan worden heb ik al diverse malen hier laten zien. Vervolgens bezondigt hij zichzelf aan statistische valsemunterij door de afgelopen 2 decennia met elkaar te vergelijken. Hij eindigt zijn brief met een verzoek aan de krant om niet alle onzin te publiceren. Als de krant dat zou doen was zijn eigen brief meteen in de prullenbak verdwenen. Maar dergelijke onwetendheid kun je leken in klimaatland niet kwalijk nemen.
![]() |
Kwalijker is
het als in dezelfde brievenrubriek ook een professor van de VU in de
fout gaat, J. van Huissteden. De prof meent in het Amerikaanse artikel
gelezen te hebben dat er geen sprake is van 'opwarming in de laatste
decennia'. Dat stond er natuurlijk niet. Er stond: "Perhaps the
most inconvenient fact is the lack of global warming for well over 10
years now." Ik heb onlangs laten zien dat het al 15 jaar lang niet
warmer meer wordt, en dat werd bevestigd door Met Office in de UK.
Vervolgens koppelt van Huissteden met gemak de Elfstedentocht aan de globale temperatuurstijging die ‘de laatste jaren wat minder snel lijkt te gaan’. De rest van zijn brief is sterk politiek gekleurd en opgehangen aan de presidentiele voorverkiezingen in de USA. Het is duidelijk: voor een gedegen studie klimatologie moet je niet bij de VU zijn. |
Frans Sluijter kraakt klimaatnoot
![]() |
Een merkwaardig fenomeen is dat het lijkt alsof de scheidslijn tussen een klimaatalarmistische en klimaatkritische houding samenvalt met de politieke verhouding links-rechts. Dat kan te maken hebben met de klassieke gedachte dat links de hoeder van levenskwaliteit is en rechts vooral rijkdom nastreeft, maar dit beeld is simplistisch en achterhaald. Het is ontegenzeggelijk zo dat links nog steeds veel mensen herbergt a la ex-minister Jaqueline Cramer en Wijnand Duyvendak, die krampachtig volharden in ‘the science is settled’, maar er zijn ook mensen in het linkse kamp die ik gerust tot de ‘verlichten’ kan rekenen. Een daarvan is emeritus-hoogleraar Frans Sluijter. Dat bewijst een recent artikel van de PvdA-prominent in het blad S&D van de Wiarda Beckmanstichting. Ik werd onlangs door André van den Berg op dit zeer lezenswaardige artikel geattendeerd. |
Sluijter stelt in zijn artikel de nog steeds breed aanvaarde hypothese dat 'de opwarming van de aarde' wordt veroorzaakt door menselijk handelen aan de orde. Hij neemt daarbij geen blad voor de mond. Als professor in de theoretische natuurkunde kan hij niet anders dan grote vraagtekens zetten bij een hypothese die door anderen al jaren wordt verkocht als feit. Hij herkent daarbij religieuze aspecten in de klimaatdiscussie, die ook al door anderen zijn waargenomen. Sluijter: “ Klimaatwetenschappen vormen een schoolvoorbeeld van een post-normale wetenschap, waarbij de toepassing op de publieke zaak geplaagd wordt doordat de feiten onzeker zijn, de waarden ter discussie staan, de belangen groot zijn en de gevraagde beslissingen door velen als spoedeisend ervaren worden. De klimaatverandering wordt soms ook gezien als een ethisch of zelfs theologisch probleem, met bijbehorend schuldgevoel en behoefte tot boetedoening. Deze religieuze component die de klimaatdiscussie is binnengeslopen, leidt behalve tot een gebrek aan rationaliteit ook tot verkettering van mensen die er anders over denken.”
Ook de kongsi van wetenschap en politiek, ultiem belichaamd door het IPCC ,
wordt door Sluijter feilloos gefileerd. Een uit wetenschappelijk oogpunt bezien
nadelige ontwikkeling hierbij is dat vanwege de verstrengeling van politiek en
wetenschap de geldstromen voor nieuw onderzoek zeer sterk gestuurd worden door
de politiek-maatschappelijke mores die de afgelopen jaren heeft geheerst in het
klimaatdebat. Sluijter: “ Heden ten dage kennen we echter een zeer
nadrukkelijk wetenschapsbeleid met een systeem van financiering van onderzoek
dat berust op het doen van voorstellen die beoordeeld worden door jury’s. Dat
heeft het wetenschappelijk leven grondig veranderd. Onderzoekers zijn voor hun
loopbaan zeer afhankelijk geworden van hun vaardigheid om voorstellen te
schrijven die genade kunnen vinden in de ogen van die jury’s. Daarnaast worden
op hoger niveau de budgetten vastgesteld die aan de verschillende vakgebieden
worden toegewezen. Bij dit laatste speelt het maatschappelijk belang dat
politici aan een vakgebied toekennen een belangrijke rol. Dat veranderingen in
het klimaat maatschappelijk belang hebben zal door niemand bestreden worden,
maar als je daar dan modellen voor maakt die dramatische veranderingen
voorspellen en die de mogelijke gevolgen breed uitmeten, blijkt het aanzienlijk
eenvoudiger om aan ruime fondsen te komen dan dat voor kritische onderzoekers
het geval is.”.
Wie het artikel van Sluijter in zijn geheel wil lezen klikt
hier.
De
University of Alabama Huntsville houdt al sinds jaar en dag de temperatuur
bij van de onderste troposfeer. Dat doet zij door de data van de NOAA
satellieten te bewerken tot de UAH dataset. Dat bewerken is noodzakelijk omdat
de meetgegevens van de satellieten geen temperatuurreeksen zijn. Zie de bijdrage
van 8-1-2012. De temperatuur is nu onder de 0-lijn gedoken, mede als gevolg van
de La Nina van afgelopen januari, volgens
Roy Spencer.
Voor de schaatsliefhebbers onder ons: hier kun je dus niet uit afleiden dat we
een Elfstedentocht krijgen ;-) !
Met Office bevestigt: geen opwarming afgelopen 15 jaar
Met Office in Groot Brittannië geeft nu toe dat de globale temperatuur al 15
jaar lang niet meer gestegen is, en dat we zelfs toe lijken te gaan naar een
koelere periode als gevolg van afnemende zonne-activiteit. Voor de lezers van
deze site geen nieuws, voor het grote publiek wel. Hieronder het bericht uit de
Mail Online van vandaag:
Forget global warming - it's Cycle 25 we need to worry about (and if NASA
scientists are right the Thames will be freezing over again)
• Met Office releases new figures which show no warming in 15 years
By David Rose
The supposed ‘consensus’ on man-made global warming is facing an inconvenient
challenge after the release of new temperature data showing the planet has not
warmed for the past 15 years. The figures suggest that we could even be heading
for a mini ice age to rival the 70-year temperature drop that saw frost fairs
held on the Thames in the 17th Century.
Based on readings from more than 30,000 measuring stations, the data was issued
last week without fanfare by the Met Office and the University of East Anglia
Climatic Research Unit. It confirms that the rising trend in world temperatures
ended in 1997.
A painting, dated 1684, by Abraham Hondius depicts one of many frost fairs on
the River Thames during the mini ice age
Meanwhile, leading climate scientists yesterday told The Mail on Sunday that,
after emitting unusually high levels of energy throughout the 20th Century, the
sun is now heading towards a ‘grand minimum’ in its output, threatening cold
summers, bitter winters and a shortening of the season available for growing
food.
Solar output goes through 11-year cycles, with high numbers of sunspots seen at
their peak. We are now at what should be the peak of what scientists call ‘Cycle
24’ – which is why last week’s solar storm resulted in sightings of the aurora
borealis further south than usual. But sunspot numbers are running at less than
half those seen during cycle peaks in the 20th Century. Analysis by experts at
NASA and the University of Arizona – derived from magnetic-field measurements
120,000 miles beneath the sun’s surface – suggest that Cycle 25, whose peak is
due in 2022, will be a great deal weaker still.
According to a paper issued last week by the Met Office, there is a 92 per cent
chance that both Cycle 25 and those taking place in the following decades will
be as weak as, or weaker than, the ‘Dalton minimum’ of 1790 to 1830. In this
period, named after the meteorologist John Dalton, average temperatures in parts
of Europe fell by 2C. However, it is also possible that the new solar energy
slump could be as deep as the ‘Maunder minimum’ (after astronomer Edward Maunder),
between 1645 and 1715 in the coldest part of the ‘Little Ice Age’ when, as well
as the Thames frost fairs, the canals of Holland froze solid.
Yet, in its paper, the Met Office claimed that the consequences now would be
negligible – because the impact of the sun on climate is far less than man-made
carbon dioxide. Although the sun’s output is likely to decrease until 2100, ‘
This would only cause a reduction in global temperatures of 0.08C.’ Peter
Stott, one of the authors, said: ‘Our findings suggest a reduction of solar
activity to levels not seen in hundreds of years would be insufficient to offset
the dominant influence of greenhouse gases.’
These findings are fiercely disputed by other solar experts. ‘ World
temperatures may end up a lot cooler than now for 50 years or more,’ said
Henrik Svensmark, director of the Center for Sun-Climate Research at Denmark’s
National Space Institute. ‘ It will take a long battle to convince some
climate scientists that the sun is important. It may well be that the sun is
going to demonstrate this on its own, without the need for their help.’
He pointed out that, in claiming the effect of the solar minimum would be small,
the Met Office was relying on the same computer models that are being undermined
by the current pause in global-warming.
CO2 levels have continued to rise without interruption and, in 2007, the Met
Office claimed that global warming was about to ‘come roaring back’. It said
that between 2004 and 2014 there would be an overall increase of 0.3C. In 2009,
it predicted that at least three of the years 2009 to 2014 would break the
previous temperature record set in 1998.
So far there is no sign of any of this happening. But yesterday a Met Office
spokesman insisted its models were still valid. ‘ The ten-year projection
remains groundbreaking science. The period for the original projection is not
over yet,’ he said. Dr Nicola Scafetta, of Duke University in North
Carolina, is the author of several papers that argue the Met Office climate
models show there should have been ‘steady warming from 2000 until now’. ‘ If
temperatures continue to stay flat or start to cool again, the divergence
between the models and recorded data will eventually become so great that the
whole scientific community will question the current theories,’ he said.
He believes that as the Met Office model attaches much greater significance to
CO2 than to the sun, it was bound to conclude that there would not be cooling. ‘
The real issue is whether the model itself is accurate,’ Dr Scafetta said.
Meanwhile, one of America’s most eminent climate experts, Professor Judith Curry
of the Georgia Institute of Technology, said she found the Met Office’s
confident prediction of a ‘negligible’ impact difficult to understand.
‘ The responsible thing to do would be to accept the fact that the models may
have severe shortcomings when it comes to the influence of the sun,’ said
Professor Curry. As for the warming pause, she said that many scientists ‘are
not surprised’.
Read more
here.
29-1-2012
Het drijfijs op de Noordpool
Het drijfijs op de Noordpool is een geliefd subject voor klimaatalarmisten om
‘aan te tonen’ dat er sprake is van ernstige opwarming als gevolg van
CO2-toename. Op deze site is daar al meermalen aandacht aan besteed, zie
daarvoor de paragraaf “Het drijfijs smelt” onder “De Dogma’s” in het menu. De
geliefde redenering is dan als volgt: omdat het warmer wordt vanwege het
versterkt broeikaseffect smelt het drijfijs op de Noordpool (en houden we
uiteindelijk niets meer over). Meteoroloog Reinier van den Berg van MeteoConsult
voorspelt dat over 4 jaar de Noordpool ’s zomers ijsvrij is. En mocht het een
beetje tegenzitten: in elk geval hebben we vóór 2020 een ijsvrije Noordpool. Zie
de bijdrage van 9 december j.l. Maar van den Berg is een klimaatactivist en
derhalve niet serieus te nemen.
Het KNMI schrijft op haar
site: “Oorzaak van die snelle afname van het zeeijs is vooral de grote
temperatuurstijging in poolgebieden, die meer is dan de stijging van het
wereldgemiddelde. Dat wordt veroorzaakt door zelfversterkende mechanismen in het
klimaatsysteem. Eén daarvan is dat ijs en sneeuw bijna al het zonlicht
terugkaatsen. Wanneer de temperatuur stijgt en een deel van het ijs en de sneeuw
smelt, worden land en zee ijsvrij. Zo’n oppervlakte zonder ijs neemt meer
zonnestraling op. Daardoor stijgt de temperatuur nog meer en smelt er nog meer
sneeuw en ijs.”.
Bron: NASA
Op bovenstaande kaartjes en grafiek is te zien dat die relatief grote temperatuurstijging vooral voor het Noordpoolgebied geldt, niet voor het Zuidpoolgebied. De fysische mechanismen die het KNMI verder beschrijft zijn natuurlijk bekend en hoeven hier niet besproken te worden. Die albedoverandering is natuurlijk vooral die van afnemend drijfijs in de zomer en een kortere en kleinere sneeuwbedekking van het land. Dat het land ijsvrij is geworden, zoals beweerd wordt, is nog niet waargenomen in het Arctische gebied (Groenland). Het KNMI zou mijns inziens de tekst moeten aanpassen en de slordigheden er uit halen.
Bron: University of Illinois
In bovenstaande grafieken is de afname van het drijfijs op de Noordpool te
zien, beginnend vanaf midden jaren ’80. De afgelopen jaren Tegelijk neemt
diezelfde periode de hoeveelheid drijfijs rond Antarctica toe. Totaal nam het
drijfijs in deze periode met ongeveer 0,5 miljoen km2 af. Zo op het eerste
gezicht lijken bovenstaande grafieken min of meer in harmonie met de
temperatuurtrend zoals we die zagen op de eerste kaartjes.
Interessant is het om een blik te werpen op onderstaande grafiek van het
Centre for Ocean and Ice van het DMI, Deens meteorologisch Instituut.
Bron: DMI
Het betreft de temperatuurtrend in 2001 van het gebied ten N van 80°NB (rode lijn). De groen lijn is de ERA40 temperatuurlijn, de klimatologische temperatuurlijn van hetzelfde gebied van 1957 tot 2002. Te zien is dat de rode lijn in de Arctische zomer zeer fraai het klimatologisch gemiddelde volgt. Het bijzondere is dat dat niet alleen voor 2011 geldt , maar voor alle jaren van de datareeks van het DMI vanaf 1958! Kijk maar eens naar de grafiek van 2007, het jaar met het minimum record aan drijfijs:
Bron:
DMI
Via de link naar het DMI kunt u alle jaren vanaf 1958 bekijken en steeds hetzelfde zien: de zomertemperatuur op de Noordpool wijkt nauwelijks af van het meerjarig gemiddelde volgens de ERA40 reeks. Wat opvalt als men de reeks bekijkt is dat met name gedurende het afgelopen decennium de wintertemperaturen hoger liggen dan het klimatologisch gemiddelde, en dat de wintertemperatuur grote fluctuaties laat zien, sterk afwijkend van de zomertemperatuur die nauwelijks afwijkingen kent van het langjarig gemiddelde. Er is dus geen sprake van een gelijkmatig opwarming van het Noordpoolgebied gedurende het jaar: opwarming vindt vrijwel uitsluitend plaats in het winterjaargetijde.
Bron: wikipedia
Nu is er met de seizoenen op zeer hoge breedte wat aan de hand: in het
koudste deel van het jaar komt de zon niet boven de horizon uit en is er sprake
van
poolnacht.
Voor het gebied dat het DMI observeert in haar temperatuurgrafieken, heeft die
periode zonder (direct) zonlicht een lengte van 77 dagen op 80° NB tot 183 dagen
op 90° NB. Dat betekent dat de luchttemperatuur volledig afhankelijk is van
advectie, de horizontale aanvoer van elders. Opwarming door zonlicht is
afwezig. Dat ‘elders’ zijn voor de Noordpool altijd gebieden die zuidelijker
liggen en vaak warmer zijn. In de dagen voorafgaande en na de periode met
poolnacht zijn de omstandigheden niet veel anders als gevolg van de zeer kleine
zonnehoek en de zeer korte duur van de dag.
Die advectie van warmte vindt op 2 manieren plaats: door luchtstromen en door
zeestromen. Aanvoer van warmte via luchtstromen is in de winter vooral
afhankelijk van de ligging van hoge- en lagedrukgebieden in en rond de
poolstreek. De veranderingen in luchtdruk in de winter van jaar tot jaar kent
een min of meer vast patroon, de AO (Arctische Oscillatie) genoemd.
De afgelopen twee Arctische winters werden gedomineerd door een negatieve fase van de AO. Gevolg: een warmere Noordpool en koudere omstandigheden in Europa en Noord-Amerika. Deze winter was tot nu toe anders: tot dit weekeinde was er sprake van een positieve fase van de AO. Enorme hoeveelheden zachte vochtige lucht werden vanuit de Atlantische Oceaan over Europa uitgestort, en vanuit de Grote Oceaan over de USA. De zeer koude lucht boven de Noordpool bleef gedurende al die weken als het ware opgesloten in het noordpoolgebied. Verschillende studies hebben aangetoond dat tijdens de positieve fase van de AO het dikke drijfijs de neiging om uit de Arctische Zee geblazen te worden via de Fram Strait tussen Spitsbergen en Groenland. Het gevolg is dat op de Noordpool dunner ijs achterblijft dat gemakkelijker smelt in de zomer.
Bron: DMI
Het DMI heeft van die verplaatsing van drijfijs door de wind ( ice drift) een
aardige interactieve animatie gemaakt. Klik
hier.
Een andere factor die van invloed kan zijn op de aanvoer van warmere lucht is de
oppervlakte en duur van de sneeuwbedekking in het noorden van Noord-Amerika,
Europa en Azië. Daarover graag een volgende keer.
Een nieuwe klimaattheorie?
Bron: C. Donald Ahrens, Essentials in Meteorology
Ned Nikolov en Karl Zeller, beiden gepromoveerde fysici en werkzaam bij de
Amerikaanse tegenhanger van ons Staatsbosbeheer, hebben onlangs een nieuwe
klimaattheorie het licht doen zien. De theorie wijkt wezenlijk af van de
huidige gangbare theorie. Nikolov en Zeller stellen dat de temperatuur aan het
aardoppervlak de resultante is van de luchtdruk en niet van de chemische
samenstelling van de atmosfeer (= broeikasgassen) . Ze noemen dat
Pressure-induced Thermal Enhancement (PTE). De gangbare theorie is dat er een
extra opwarming van het aardoppervlak is vanwege de aanwezigheid van zogenaamde
broeikasgassen. Zie voor de volledigheid eerst de paragraaf over de
broeikastheorie in het menu onder “De Feiten” .
De schrijvers baseren hun nieuwe theorie op de Ideale Gaswet PV = nRT, waarin P
de druk is, V het volume, n de moleculaire massa in mol, R de gasconstante en T
de temperatuur. Aan de gaswet is te zien dat P en T lineair van elkaar
afhankelijk zijn: wordt P 2x zo groot, dan wordt T ook 2x zo groot. Omdat de
druk in de atmosfeer toeneemt van boven naar beneden als gevolg van de
gravitatiekracht van de aarde zou alleen al daardoor de temperatuur onder in de
atmosfeer hoger zijn dan bovenin. Nikolov en Zeller spreken hier van kinetische
energie die als het ware ruimtelijk ongelijk verdeeld is. Die extra hoge
temperatuur aan het aardoppervlak als gevolg van de hoge luchtdruk zou dan
verantwoordelijk zijn voor het feit dat de temperatuur daar (veel) hoger is dan
de zogenaamde grey-body temperatuur van de aarde.
De theorie van Nikolov en Zeller lijkt sterk op die van de Zweedse fysicus
Hans Jelbring , die in 2003 in Energy & Environment zijn gedachten over het
voetlicht bracht. Ook Jelbring gaat er van uit dat de luchtdruk er voor zorgt
dat de temperatuur aan het aardoppervlak veel hoger is dan op grond van de wet
van
Planck en van Stefan-Bolzmann berekend is ( - 18 °C ). Net als Nikolov en
Zeller trekt Jelbring paralellen met andere planeten in ons zonnestelsel.
Ruim een jaar geleden heb ik met
John M. Wallace van de University of Washington de theorie van Jelbring via
email besproken. Wallace is een deskundige op het gebied van atmosferische
processen, en auteur van een standaardwerk op dit gebied, “Atmospheric Science:
An Introductory Survey “.
Hij schreef me op 4 december 2010: “ Hans Jelbring's article illustrates the
basic conceptual problem that's common to the article. Jelbring is correct when
he says that the adiabatic lapse rate is largely determined by the gravitational
acceleration and the chemical makeup of the gases in a planetary atmosphere. He
is also correct in noting the relevance of the adiabatic lapse rate to the
observed lapse rate in the Earth's atmosphere: the adiabatic lapse rate is the
upper limit on the observed lapse rate. It is realized in regions of the
atmosphere that are strongly heated from below.
To understand how radiative transfer influences surface temperature, one
needs to go beyond the concept of the adiabatic lapse rate and consider an
atmosphere in "radiative-convective equilibrium, as discussed on p.
421-422 of the 2nd edition of our textbook. In such an idealized
2-layer atmosphere, the lower layer, which is comparable in depth to the
troposphere, has a lapse rate equal to the adiabatic lapse rate . Two points
emerge from this simple analysis:
(1) Were there is no greenhouse effect, the lapse rate in a planetary atmosphere
would be isothermal (i.e., temperature would not change with height. In this
case, the dry adiabatic lapse rate would be unchanged from its present value,
but it would be completely irrelevant to the interpretation of the observed
lapse rate.
(2) Greenhouse gas concentrations have no effect on the adiabatic lapse rate in
the lower "convective" layer, but they determine the depth of that layer:
increasing greenhouse gases increases the surface temperature of the planet not
by changing the lapse rate, but by deepening the convective layer. “ .
Ik bespaar u hier de sneer van Wallace richting Energy & Environment, een gevoeligheid die bij meer gevestigde klimatologen voorkomt. Volgens mij is de uiteenzetting van Wallace juist. De bij de uiteenzetting behorende figuur heb ik hierboven afgebeeld. Hij komt uit het genoemde standaardwerk van Wallace.
De reactie van Roy Spencer, gekend kritisch klimaatprofessor, is ongeveer van hetzelfde laken een pak. Hij stelt: “ The average air temperature at any altitude (including the surface) is an energy budget issue, not an air pressure issue. In fact, energy budget considerations explain the average temperature of just about everything we experience on a daily basis: the inside of buildings, car engines, a pot on the stove, etc. .........Many years ago Danny put together such a model so we could examine global warming claims, especially the claim that increasing CO2 will cause warming. The model was indeed able to explain the average vertical temperature structure of the atmosphere. ” .
Dat laatste is een van de manco’s in de nieuwe theorie: waarom neemt de
temperatuur niet af met de hoogte, maar zien we in de stratosfeer hogere
temperaturen? In de gangbare stralingstheorie is dat makkelijk te verklaren: O3
absorbeert daar veel zonne-energie. Ik heb Nikolov gevraagd om een reactie op
dit punt, en hij emailde: “ Yes, you are correct that radiative exchange
dominates the thermodynamics of in the stratosphere. Convection is of secondary
importance there ... ” . Overigens beloofde hij met een officieel antwoord
te komen op de kritiek uit het blogveld.
Een ander probleem dat nog niet is opgelost met de nieuwe theorie zijn de
temperatuurschommelingen op geologische tijdschaal. De onderzoekers wijzen naar
periodes met extra tektonische activiteiten, waardoor wellicht meer gassen dan
normaal uit mantel en aardkorst naar de atmosfeer zijn getransporteerd. Dat is
echter speculatief en zal nader uitgewerkt dienen te worden. Overigens weten
trouwe lezers van deze site dat ook binnen de vigerende theorie de oorzaken van
temperatuurveranderingen op geologische tijdschaal niet zomaar een op een te
koppelen zijn aan de chemische samenstelling van de atmosfeer, noch aan
kosmische oorzaken.
Een ander probleem is dat in de gangbare theorie over de verticale
temperatuurverdeling in de atmosfeer de opwarming van de onderzijde van de
troposfeer een afkoeling van de bovenste troposfeer veroorzaakt. Die afkoeling
is gemeten. Hoe is dat in te passen in de nieuwe theorie?
Wat me wel intrigeert in verband met de nieuwe theorie is dat de helft van de
luchtdruk in het verticale profiel bereikt wordt op 5,5 km hoogte. Dat is ook
exact wat in de broeikastheorie het "average emission level" genoemd wordt. Ik
heb me altijd verbaasd over dit ‘level’, omdat het simpelweg gebaseerd is op
terugrekenen vanuit 239 W / m ^ 2 en de Stefan-Boltzmann vergelijking. Het
resultaat, -18 ° C, is de temperatuur op deze hoogte. Kan het zijn dat dit 50%
niveau van de luchtdruk tevens het gemiddelde niveau is van de door de
onderzoekers centraal gestelde kinetische energie van de atmosfeer? Of ga ik nu
teveel mee in de nieuwe theorie?
Hoewel ik de theorie van Nikolov en Zeller zeker interessant vind ben ik nog
niet overtuigd en kijk uit naar hun reactie op de kritieken uit het veld.
Bron: Dr. Roy Spencer
De
University of Alabama Huntsville houdt al sinds jaar en dag de temperatuur
bij van de onderste troposfeer. Dat doet zij door de data van de
NOAA satellieten te bewerken tot de UAH dataset. Dat bewerken is
noodzakelijk omdat de meetgegevens van de satellieten geen temperatuurreeksen
zijn.
In bovenstaande grafiek is de temperatuurgang in het onderste deel van de
troposfeer te zien sinds 1979, het jaar waarin de (bruikbare) meetreeks begon.
Door
Roy Spencer , die de dataset van UAH regelmatig publiceert, is de
uitbarsting van de Pinatubo en de super El Niño van 1998 aangegeven in de
grafiek.
De rode lijn is het 13-maands voortschrijdend gemiddelde, de zwarte sinusoïdale
lijn is de lineaire derde orde differentiaalvergelijking van de grafiek. Volgens
Spencer is die laatste lijn “ for entertainment purposes only, and should not
be construed as having any predictive value whatsoever ”.
Degenen die Spencer volgen (een erudiete dus kritische klimatoloog) zullen
begrijpen dat geen enkele zichzelf respecterende wetenschapper op basis van deze
lijn durft te voorspellen dat we een koudere periode inrollen. Toch zou dit ook
wel eens niet helemaal ‘spielerei’ kunnen zijn: de afnemende
zonneactiviteit die hier al vaker besproken is zou dan wel eens de afkoelende
factor kunnen worden.