Del 1
Justering
av temperaturer.
I 1938 stasjonerte man ut det første værskipet i
Nord-Atlanteren. Etter hvert økte antallet til 13 stykker. Men siden
værskip er dyre i drift, reduserte man antallet – det norske
værskipet «MS Polarfront» var det siste. Det ble tatt ut av drift 1. januar
2010. Værskipene ga gode observasjoner fra nordområdene. Nå har værtjenestene
derfor begynt å måle gjennomsnittstemperaturer i nord ved å benytte
temperaturen fra nærmeste landbaserte stasjon og «smøre den utover» som et
gjennomsnitt i nord. En relativt høy temperatur registrert på en
landbasert målestasjon kan på denne måten gi en høy temperatur langt ut i
Nordishavet, selv om temperaturen der i virkeligheten er langt under den
landbaserte. Dette kan være en av grunnene til at vi kan få en
forestilling om at temperaturene har steget mye i Arktis.
Men her finnes andre måter å ordne
temperaturstigning på, selv om den ikke er reell. Aktivisten James Hansen
som spådde den galopperende havstigningen, selv om den nå glimrer med sitt
fravær, har i sannhet også sagt mye om temperaturstigning. Siden spådommene
hans ikke har slått til her heller, har han funnet seg en alternativ
metode til å få disse til å gå i oppfyllelse. Mannen hadde en sentral
posisjon i Global Historical Climatology Network (GHCN) – som samler og
oppbevarer temperaturdata fra målestasjoner over hele verden. Dette er
data som oppbevares og benyttes til analyser, værvarsling og
klimaprognoser. Norsk Meteorologisk Institutt benytter seg også av disse
dataene.
I den senere tid er man blitt oppmerksom på at
disse dataene justeres ganske ofte. På fagspråket kalles det homogenisering.
Med andre ord: temperaturer som er blitt målt en gang i tiden, blir nå
forandret på (i et dataprogram). Ikke bare en gang men flere
ganger, stadig vekk. Hansen var her sentral i å «justere» ned tidligere
tiders målte temperaturer ganske kraftig, og i noen tilfeller «justerte»
han opp temperaturer målt i den senere tid for å få dette til å stemme med
skremselsscenarioene sine. Dette gjelder mange, og stadig flere måleserier,
også norske.
Og hvordan og hvor mye blir temperaturmåleseriene
endret? La oss ta et av de mest ekstreme eksemplene. Vi har ganske
gode og kvalitetssikrede grunndata fra Vestmannaeyjar (Island) helt
tilbake til 1884.
Hva gjelder dette aktuelle tilfellet, har han
«justert» de første 43 årene flatt med -1,55 grader C. Så fikk han et
problem med perioden 1927 til 1929, for da var de originalt målte temperaturene
ekstra høye. Disse har han like godt kuttet ut i «justeringen» sin, slik at de
ikke vises. Men det var også en varmeperiode fra 1939 til 1943.
Disse er «justert» slik:
Disse er «justert» slik:
1939: -1,63
1940: -1,80
1941: -1,80
1942: -1,34
1940: -1,80
1941: -1,80
1942: -1,34
Videre fremover til 1967 er «justeringen» bare på
– 0,7 grader C, og siste del er uendret (i håp om at ingen skulle oppdage
endringene?).
Slik ser disse temperaturgrafene ut, før og etter
«homogenisering»:
Målestasjoner som er homogenisert på tilsvarende vis er mange og spredt over hele verden. Her har vi mange stasjoner på Island, Ostrov Dikson i Russland, flere steder i Australia (f.eks. Darwin), Durban Louis i Sør-Afrika, Antananarivo på Madagaskar, Pudahuel og Punta Arenas i Chile, Upernavik på Grønland og Blindern i Norge. Men det er mange flere.
Link til flere eksempler på slike justeringer:
Del 2
Variasjoner av målestasjonsparametre.
Til tider har jeg lurt på hva som er hovedforskjellen på en meteorolog
og en klimaforsker. Her finnes det selvsagt ikke et standardsvar. Men en ting
er likevel nokså innlysende. Om en meteorolog begår faglige feil, får han/hun
tilbakemelding ganske umiddelbart. Dette gjør at vedkommende må være skjerpet i
forhold til faget.
Klimaforskere kommer ofte med prognoser om hva som skjer med værlaget
(klimaet) fra 25 til 100 år frem i tiden. Om vedkommende forsker begår
faglige feil, vil han/hun ventelig ikke få noen tilbakemelding før etter
vedkommende er gått av med pensjon eller er avgått ved døden. Vedkommende vil
med dette ikke bli gjort ansvarlig for feil/svakheter/omtrentligheter som er
begått.
For meg ser det også ut til at en del av klimaforskerne er redde for å
«skitne til hendene sine». Med det mener jeg at de heller benytter seg av
datamaskiner, modeller og teoretiske utlegninger i stedet for å sette seg inn i
hvordan måleutstyr virker, samt hvordan mulige feilkilder vil kunne virke inn
på målingene. En dreven meteorolog har imidlertid som regel et praktisk
innblikk i slike faktorer på en langt bedre måte enn den gjennomsnittlige
klimaforskeren – ser det ut som.
Det er derfor ikke til å undres over at de som har tatt arbeidet med å
gå gjennom kvaliteten av de meteorologiske bakkemålingsstasjonene i verden, er
to drevne meteorologer: Joseph D’Aleo og Antony Watts.
Joseph D’Aleo har over 40 års erfaring som profesjonell meteorolog og
var første direktør i den amerikanske kabel-TV-kanalen «TV Weather Channel».
Han har også undervist som college professor i meteorologi i 6 år ved Lyndon
State College.
Antony Watts er også amerikansk meteorolog, president i «IntelliWeather
Inc» og redaktør av den verdenskjente klimabloggen «Watts Up With That».
Joseph D’Aleo og Antony Watts har gått gjennom jordas
overflate-temperaturmålinger og sammenholdt det mot målestasjonenes kvalitet,
plassering og antall til enhver tid. De konkluderer følgende:
1. Instrumentelle
temperaturdata fra pre-satellitt eraen (1850-1980) har vært systematisk tuklet
med så mye at det ikke på en troverdig måte kan hevdes det har vært
noen vesentlig "global oppvarming" i det 20. århundre.
2. Alle
overflate-temperatur-databaser viser tegn til forurensning fra urban
oppvarmings-forurensning og etterjusteringer slik at de er upålitelige når det
gjelder å bestemme langsiktige trender nøyaktige temperatur.
3. Disse problemene
har forskjøvet dataene i så stor grad at den observerte oppvarmingen viser seg
å være overdrevet både regionalt og globalt.
4. Globale
temperaturdata er stilt i et dårlig lys (kompromittert) fordi mer enn tre
fjerdedeler av de 6.000 stasjoner som en gang ble benyttet ikke lenger blir
brukt i data-trendanalyser.
5. Det har vært en
betydelig økning i antallet manglende måneder der 40% av
GHCN (Global Historical Climatology Network) stasjonene rapporterer
at de mangler minst en måned. Dette medfører innfylling (av manglende data) som
bidrar til usikkerhet og mulige feil.
6. Forurensning i
form av urbanisering, endringer i arealbruk, feil lokalisering,
og mangelfullt kalibrerte instrumenter-oppgraderinger øker
usikkerheten ytterligere.
7. Mange
fagfellevurderte artikler i de siste årene har vist overvurderingen av den
observerte langterm-oppvarmingen på 30-50% fra urban-oppvarming og
varmeforurensnig fra endring i arealbruk.
8. En økning i
andelen av kompromitterte stasjoner med interpolering fra tilliggende måledata
kan gi oppvarmingen en skjevhet større enn 50% i det tyvende
århundre.
9. For havene er
manglende data og usikkerhetene betydelig. Endringer i datasett innførte et
(kunstig) oppvarmingssteg i 2009.
10. Satellitt-temperaturovervåking
har gitt et alternativ til bakkestasjoner når det gjelder å samle data for å
overvåke den globale temperaturen i den lavere troposfæren (http://no.wikipedia.org/wiki/Troposfæren ).
Funnene der avviker i stigende grad fra bakke-stasjonsbaserte
målinger på en måte som er forenlig med bevis for at bakkestasjonene
viser for høye temperaturmålinger.
11. Ytterligere
justeringer er utført på dataene som dermed resulterer i en tydelig
økende trend. I mange tilfeller er slike justeringer gjort ved å «kjøle ned»
tidligere målte temperaturer.
12. De historiske
datakildene har blitt forandret for å skjule sykliske endringer som
lett kan forklares med naturlige faktorer som multi-dekadiske hav- og
sol-endringer.
13. Grunnet nylig
økende frekvens av utkutting av rurale stasjoner og favorisering av urbane
flyplasser som primære temperaturdatakilder, er de globale temperatur-databaser
påført alvorlige feil, og kan ikke lenger være representative for både urbane
og rurale miljøer. De resulterende data er derfor problematiske når de brukes
til å vurdere klimatrender og validere modellprognoser.
14. En ekstern vurdering er avgjørende når det gjelder
overflatetemperatur-registreringer utført av CRU, GISS og NCDC .
Vurderingen bør gjøres av "et panel ledet av klimaforskere som ikke
har egeninteresse i utfallet av evalueringene."
CRU = Climatic Research Unit (CRU) er en del
av "University of East Anglia" og er en av de ledende institusjonene
som har ansvaret for studiet av naturlig og antropogent (menneskeskapt)
klimaforandring.
GISS =
Goddard Aeronautics and Space Administration (NASA).
NCDC = National Climatic Data Center.
18. Om man skal stole
på de globale dataene til IPCC og USA GCRP / CCSP (United States Global Change
Research Program or USGCRP coordinates and integrates federal research on
changes in the global environment and their implications for
society.) bør man først ha en gjennomgang av disse dokumentene
og vurdere den grunnleggende usikkerheten i prognoser og språket som benyttes
til å definere policy.
Artikkelforfatterne konstaterte altså også homogeniseringen som nevnt i Del 1
Problemet som er sentralt i denne saken er at antall
målestasjoner som blir benyttet til å regne ut den globale temperaturen
(eventuelt temperaturanomalien) falt drastisk etter år 1990.Dette blir i
artikkelen fremstilt slik:
Antall stasjoner endret seg vesentlig da Sovjetunionen falt. Sovjet betalte brennstoffet til utpostene sine avhengig av hvor kaldt det var. Da det ble slutt på denne policyen vistes dette som "oppvarming". I stor grad er stasjoner langt nord og i høyden blitt tatt ut av måleseriene. Det betyr i praksis at de "varmeste" stasjonene har mest å si etter år 1990.
Rapporten dokumenterer og illustrerer degraderingen av meteorologiske
målestasjoner i verden generelt og USA spesielt.
Her er et eksempel på hvordan den urbane oppvarmingen påvirker målingene:
Her er et eksempel på hvordan den urbane oppvarmingen påvirker målingene:
Alt i alt gir rapporten en god dokumentasjon på at påstanden om at dagens globale temperaturer er blant de høyeste som noen gang er målt, som svært tvilsom.
Del 3
Forskjellen på gamle og nye målestasjoner.
Den tyske
meteorologen Klaus Hager fra Lechfeld hadde i 2015 praktisert
meteorologi i 44 år og forelest ved Universitetet i Augsburg, Tyskland, i 10
år. Han betraktes som ekspert på meteorologisk instrumentering og målinger.
I et intervju med avisen Augsburger Allgemeine i januar 2015 kom det
frem at de nye, elektroniske termometrene (som erstattet de gamle glasstermometrene)
viste høyere temperaturer enn man hadde målt tidligere. Innføringen av slike
elektroniske termometre i værstasjonene startet i vesten på 1990-tallet. Hager
hadde benyttet gamle og nye termometre parallelt noen år og hadde dokumentert
at de nye viste i snitt 0,9 grader C høyere temperatur enn de gamle.
Forklaringen på dette kan være at elektroniske termometre reagerer
raskere enn gammeldagse termometre. Det betyr i praksis at om en bil eller fly
(mange målestasjoner er plassert på flyplasser) beveger seg i nærheten,
registreres dette umiddelbart – noe som ikke ville være tilfelle med de gamle
termometrene. Derfor må man følge en metodikk for å etablere et måleresultat ved å ta
gjennomsnittstemperaturen over en viss tid, f.eks 10 minutter, når temperaturen
skal registreres med det nye utstyret. Dette blir ikke praktisert på samme måte
rundt om i verden.
Den australske klimaforskeren Jennifer Marohasy har vært spesielt
kritisk til hvordan Australias meteorologiske institutt har neglisjert retningslinjene
for oppsett av slike elektroniske målinger. Det har gitt som utslag både for
høye maksimums- og gjennomsnitts-temperaturer. I tillegg har utstyret vært satt
opp slik ved noen stasjoner (kanskje mange) at temperaturer under -10 grader
C ikke ble registrert.
Alt i alt gir dette oss en god grunn til å anta at målingene av størrelsen av økningen av den globale gjennomsnittstemperaturen er umulig å stole på.
Fra UK Met Office – How
we measure temperature
Ingen kommentarer:
Legg inn en kommentar