Til tider har jeg lurt på hva som er hovedforskjellen på en
meteorolog og en klimaforsker. Her finnes det selvsagt ikke et standardsvar. Men
en ting er likevel nokså innlysende. Om en meteorolog begår faglige feil, får
han/hun tilbakemelding ganske umiddelbart. Dette gjør at vedkommende må være
skjerpet i forhold til faget.
Klimaforskere kommer ofte med prognoser om hva som skjer med
værlaget (klimaet) fra 25 til 100 år
frem i tiden. Om vedkommende forsker begår faglige feil, vil han/hun ventelig
ikke få noen tilbakemelding før etter vedkommende er gått av med pensjon eller
er avgått ved døden. Vedkommende vil med dette ikke bli gjort ansvarlig for
feil/svakheter/omtrentligheter som er begått.
For meg ser det også ut til at en del av klimaforskerne er redde
for å «skitne til hendene sine». Med det mener jeg at de heller benytter seg av
datamaskiner, modeller og teoretiske utlegninger i stedet for å sette seg inn i
hvordan måleutstyr virker, samt hvordan mulige feilkilder vil kunne virke inn
på målingene. En dreven meteorolog har imidlertid som regel et praktisk innblikk
i slike faktorer på en langt bedre måte enn den gjennomsnittlige klimaforskeren
– ser det ut som.
Det er derfor ikke til å undres over at de som har tatt
arbeidet med å gå gjennom kvaliteten av de meteorologiske bakkemålingsstasjonene
i verden, er to drevne meteorologer: Joseph D’Aleo og Antony Watts.
Joseph D’Aleo har over 40 års erfaring som profesjonell
meteorolog og var første direktør i den amerikanske kabel-TV-kanalen «TV
Weather Channel». Han har også undervist som college professor i meteorologi i 6
år ved Lyndon State College.
Antony Watts er også amerikansk meteorolog, president i «IntelliWeather
Inc» og redaktør av den verdenskjente klimabloggen «Watts Up With That».
Joseph D’Aleo og Antony Watts har gått gjennom jordas
overflate-temperaturmålinger og sammenholdt det mot målestasjonenes kvalitet,
plassering og antall til enhver tid. De konkluderer følgende:
- Instrumentelle temperaturdata fra pre-satellitt eraen (1850-1980) har vært systematisk tuklet med så mye at det ikke på en troverdig måte kan hevdes det har vært noen vesentlig "global oppvarming" i det 20. århundre.
- Alle overflate-temperatur-databaser viser tegn til forurensning fra urban oppvarmings-forurensning og etterjusteringer slik at de er upålitelige når det gjelder å bestemme langsiktige trender nøyaktige temperatur.
- Disse problemene har forskjøvet dataene i så stor grad at den observerte oppvarmingen viser seg å være overdrevet både regionalt og globalt.
- Globale temperaturdata er stilt i et dårlig lys (kompromittert) fordi mer enn tre fjerdedeler av de 6.000 stasjoner som en gang ble benyttet ikke lenger blir brukt i data-trendanalyser.
- Det har vært en betydelig økning i antallet manglende måneder der 40% av GHCN (Global Historical Climatology Network) stasjonene rapporterer at de mangler minst en måned. Dette medfører innfylling (av manglende data) som bidrar til usikkerhet og mulige feil.
- Forurensning i form av urbanisering, endringer i arealbruk, feil lokalisering, og mangelfullt kalibrerte instrumenter-oppgraderinger øker usikkerheten ytterligere.
- Mange fagfellevurderte artikler i de siste årene har vist overvurderingen av den observerte langterm-oppvarmingen på 30-50% fra urban-oppvarming og varmeforurensnig fra endring i arealbruk.
- En økning i andelen av kompromitterte stasjoner med interpolering fra tilliggende måledata kan gi oppvarmingen en skjevhet større enn 50% i det tyvende århundre.
- For havene er manglende data og usikkerhetene betydelig. Endringer i datasett innførte et (kunstig) oppvarmingssteg i 2009.
- Satellitt-temperaturovervåking har gitt et alternativ til bakkestasjoner når det gjelder å samle data for å overvåke den globale temperaturen i den lavere troposfæren (http://no.wikipedia.org/wiki/Troposfæren ). Funnene der avviker i stigende grad fra bakke-stasjonsbaserte målinger på en måte som er forenlig med bevis for at bakkestasjonene viser for høye temperaturmålinger.
- Ytterligere justeringer er utført på dataene som dermed resulterer i en tydelig økende trend. I mange tilfeller er slike justeringer gjort ved å «kjøle ned» tidligere målte temperaturer.
- De historiske datakildene har blitt forandret for å skjule sykliske endringer som lett kan forklares med naturlige faktorer som multi-dekadiske hav- og sol-endringer.
- Grunnet nylig økende frekvens av utkutting av rurale stasjoner og favorisering av urbane flyplasser som primære temperaturdatakilder, er de globale temperatur-databaser påført alvorlige feil, og kan ikke lenger være representative for både urbane og rurale miljøer. De resulterende data er derfor problematiske når de brukes til å vurdere klimatrender og validere modellprognoser.
- En ekstern vurdering er avgjørende når det gjelder overflatetemperatur-registreringer utført av CRU, GISS og NCDC . Vurderingen bør gjøres av "et panel ledet av klimaforskere som ikke har egeninteresse i utfallet av evalueringene."
- CRU = Climatic Research Unit (CRU) is a component of the University of East Anglia and is one of the leading institutions concerned with the study of natural and anthropogenic climate change.
- GISS = Goddard Aeronautics and Space Administration (NASA).
- NCDC = National Climatic Data Center
- Om man skal stole på de globale dataene til IPCC og USA GCRP / CCSP (United States Global Change Research Program or USGCRP coordinates and integrates federal research on changes in the global environment and their implications for society.) bør man først ha en gjennomgang av disse dokumentene og vurdere den grunnleggende usikkerheten i prognoser og språket som benyttes til å definere policy.
Artikkelforfatterne konstaterer at så lenge James Hansen hadde sentralt ansvar for de historiske klimadata, ble det foretatt stadige endringer i disse dataene. I stor grad ble dataene manipulert på en slik måte at tidligere tiders temperaturer ble justert ned og nyere tiders temperaturer ble justert opp eller holdt konstant. Dette blir på fagspråket kalt "homogenisering".
Her er et animert eksempel på hva slik homogenisering gjør:
Et annet problem som er sentralt i denne saken er at antall målestasjoner som blir benyttet til å regne ut den globale temperaturen (eventuelt temperaturanomalien) falt drastisk etter år 1990.Dette blir i artikkelen fremstilt slik:
I stor grad er stasjoner langt nord og i høyden blitt tatt ut av måleseriene. Det betyr i praksis at de "varmeste" stasjonene har mest å si etter år 1990.
Stasjonsdøden i animasjon (illustrasjon fra Joanne Nova):
Rapporten dokumenterer og illustrerer degraderingen av meteorologiske målestasjoner i verden generelt og USA spesielt.
Alt i alt gir rapporten en god dokumentasjon på at påstanden om at dagens globale temperaturer er blant de høyeste som noen gang er målt, som svært tvilsom.
---------------------------------------------------
Referanse: Surface Temperature Records - Policy-Driven Deception?
Referanse: Surface Temperature Records - Policy-Driven Deception?
Ingen kommentarer:
Legg inn en kommentar