I nesten fire tiår har verden blitt fortalt den samme historien: Jorden varmes opp i et alarmerende tempo, menneskeheten er ansvarlig for å forbrenne fossilt brensel, og med mindre vi investerer billioner av dollar for å forhindre det, truer katastrofe. Regjeringer har rettet økonomiene sine mot denne fortellingen. Barn vokser opp med frykt for den. Forskere som stiller spørsmål ved den blir utstøtt.
Det er bare ett problem. Det vitenskapelige grunnlaget for dette
argumentet – hvert eneste tall IPCC bruker – er fysisk meningsløst. Ikke
usikkert. Ikke diskutabelt. Fysisk meningsløst, akkurat som gjennomsnittet av
alle telefonnumre i Washington, D.C., er meningsløst. Du kan beregne det.
Beregningen er korrekt. Men resultatet sier absolutt ingenting om
virkeligheten.
Dette er ikke en usannsynlig påstand. Det er et matematisk og fysisk
bevis basert på vitenskapelige artikler og de grunnleggende prinsippene innen
termodynamikk. Og når du først har forstått det, kan du ikke ignorere det.
Den
første løgnen: En temperatur som ikke eksisterer
Det hele begynner med den globale gjennomsnittlige
overflatetemperaturen (GMST). Dette ene tallet – vanligvis uttrykt som et avvik
fra førindustrielle nivåer – danner grunnlaget for hele IPCC-studien. Når du
hører at jorden har varmet seg opp med 1,2 grader siden den industrielle
revolusjonen, snakker du om GMST. Når klimamodeller spår en oppvarming på 2, 3
eller 4 grader innen år 2100, refererer de til endringer i GMST. Når
Parisavtalen setter en grense på 1,5 grader, er dette en grense for GMST.
Hva
er egentlig GMST? Det er her historien begynner å rakne.
I fysikk er temperatur en såkalt intensiv størrelse. Dette betyr at den
beskriver tilstanden til et spesifikt fysisk system – et system med grenser som
er i eller nær termisk likevekt og hvis tilstandsligning er unikt definert. Det
er fornuftig å snakke om temperaturen til en kopp kaffe, et rom eller havet på
en viss dybde, siden hver av disse er et definert fysisk system. Det man
imidlertid ikke kan gjøre uten å bryte termodynamikkens lover, er å legge
sammen temperaturene til systemer som ikke er i termisk kontakt med hverandre
og kalle resultatet «temperatur».
Jordoverflaten er ikke et termodynamisk system. Den er et lappeteppe av
tusenvis av lokale systemer – ørkener og regnskoger, polare isdekker og
tropiske hav, fjelltopper og dalbunner – og ingen av dem er i termisk likevekt
med de andre. Gjennomsnittstemperaturene deres gir riktignok en verdi, men
denne verdien er ikke en temperatur i fysisk meningsfull forstand. Den styres
ikke av noen tilstandsligning. Det finnes ingen fysisk lov som knytter den til
noe som helst. Som fysikeren Christopher Essex og kollegene hans overbevisende demonstrerte
i en publikasjon fra 2007, er det rett og slett ikke en temperatur.
Dette
er ikke bare en formalitet. Det er en kategorifeil som umiddelbart ville
stoppet et forskningsprogram innen ethvert annet vitenskapelig felt. Å beregne
gjennomsnittet av intensive egenskaper på tvers av ikke-likevektssystemer er
som å beregne gjennomsnittet av postnumrene til alle innbyggere i New York City
og deretter bruke resultatet som veibeskrivelse. Beregningen gir et tall. Det
tallet er meningsløst.
Den
internasjonale standardiseringsorganisasjonen (ISO) anerkjente dette implisitt
for flere tiår siden. I 2002 fikk ISO i oppgave å definere alle nøkkelbegreper
knyttet til klimaendringer – og den dag i dag mangler begrepet «global
gjennomsnittstemperatur» i de endelige definisjonene. Denne utelatelsen er
ingen forglemmelse. ISOs mandat krever metrologisk nøyaktighet, og begrepet
«global gjennomsnittstemperatur» kan ikke oppfylle disse kravene.
Verken
IPCC eller noe annet klimabyrå har noen gang gitt en presis fysisk definisjon
av global gjennomsnittlig overflatetemperatur (GMST). De bruker begrepet
konstant – det dukker opp i så å si alle kapitler i IPCCs sjette hovedrapport –
men de har aldri definert hvilken fysisk størrelse den representerer fordi en
slik definisjon ikke er mulig.
Den andre løgnen: Modeller
som ikke er basert på noe
Hvis
GMST er fysisk meningsløs, hva er da det egentlige formålet med IPCCs
klimamodeller?
Svaret
er upraktisk. Hver av de viktigste klimamodellene som brukes av IPCC –
ensemblet CMIP (Coupled Model Intercomparison Project) – er utviklet for å
reprodusere historiske trender i gjennomsnittlig global overflatetemperatur
(GMST). Disse modellene har hundrevis av justerbare parametere som justeres for
å sikre at modellutdataene samsvarer med observerte GMST-data. Denne prosessen
kalles validering: modellen justeres til den passer til dataene, og deretter
erklæres den validert basert på observasjoner.
Men
hvis den globale gjennomsnittlige overflatetemperaturen (GMST) ikke er en
fysisk meningsfull størrelse, er det ikke validering å tilpasse en modell for å
reprodusere den. Det er bare å tilpasse en kurve til et tall uten fysisk
innhold. Modellen lærer å representere en matematisk artefakt, ikke fysisk
virkelighet. Og fordi dette er koblede globale sirkulasjonsmodeller – der
temperatur samhandler med nedbør, vind, havstrømmer, havis og dusinvis av andre
variabler – sprer denne forvrengningen seg overalt. Hver projeksjon generert av
modellen arver den opprinnelige meningsløsheten for hver variabel.
Implikasjonene
er skremmende. Hver temperaturprognose. Hver havnivåprognose. Hver prognose for
ekstremværhendelser. Hver CO₂-balanse.
Hver beregning av gjenværende utslipp. Alt dette er basert på modeller validert
med en fysisk ikke-eksisterende mengde.
Den tredje løgnen: Et hav
som aldri ble målt
Fordi
målinger av overflatetemperatur var kontroversielle og upålitelige, utviklet
IPCC en annen bevislinje: havets varmeinnhold (OHC). Resonnementet var enkelt:
hvis jorden lagrer energi gjennom drivhuseffekten, må denne energien gå et
sted, og mesteparten av den burde ende opp i havene. Å måle havets varmeinnhold
over en lengre periode gir et direkte mål på jordens energiubalanse.
Dette
argumentet høres overbevisende ut. Det er basert på Argo-programmet – et nettverk av omtrent 4400 robotbøyer fordelt over verdenshavene. Hver bøye
dykker ned til dybder på opptil 2000 meter og stiger opp til overflaten hver
tiende dag, og overfører temperatur- og saltprofiler. Argo er en sann
vitenskapelig bragd, et teknologisk mesterverk som har levert en enorm mengde
verdifulle oseanografiske data.
I følge stiftelsesdokumentene fra 1998 ble Argo opprinnelig utviklet for å observere den endrede fysiske tilstanden til de øvre havlagene, for å fange opp regionale varme- og saltinnholdsmønstre, for å støtte værvarsling og for å utfylle satellitthøydemålere. Havets globale varmeinnhold og jordens energiubalanse er ikke nevnt noe sted. Programmet var ikke ment for dette formålet og er fundamentalt uegnet for det.
Problemet
begynner med grunnleggende fysiske prinsipper. Når en Argo-bøye stiger fra en
dybde på 2000 meter til overflaten i løpet av seks til ti timer, samler den inn
omtrent 1000 temperaturmålinger. Bøyen driver imidlertid hele tiden. Når den
kommer til overflaten og overfører data via satellitt, kan den være opptil 50
kilometer unna der de dypeste målingene ble tatt. Disse målingene tilskrives
alle GPS-posisjonen på overflaten – det eneste kjente stedet. Den faktiske
undervannsbanen er fullstendig ukjent. Hvert eneste datapunkt under vann er
tilordnet feil sted.
Så
begynner interpolasjonen. De 12 000 månedlige målingene – som allerede er
romlig feiljustert – brukes til å fylle 45 000 tredimensjonale rutenettceller
som dekker det globale havet. Mesteparten av havet måles ikke i det hele tatt,
men beregnes. Polarområder, kystsoner og randhav er i stor grad ekskludert.
Omtrent halvparten av det totale havvolumet, inkludert alle vannmasser under
2000 meter, ignoreres rett og slett. Beregningene bruker korrelasjonsfunksjoner
som blander målinger fra vannmasser hundrevis eller til og med tusenvis av
kilometer fra hverandre, og dermed ødelegger all lokal informasjon som
målebøyene faktisk fanget opp.
Anomaliene
som beregnes fra denne prosessen – avvikene fra en historisk referanseverdi –
støter deretter på det samme grunnleggende fysiske problemet som GMST.
Temperatur er en intensiv størrelse. Temperaturavvik kan ikke meningsfullt
gjennomsnittsberegnes over ikke-likevektsvolumer av havet, like lite som over
jordoverflaten. Den resulterende verdien kan ha en enhet, og beregningen kan
være korrekt, men den representerer ikke den fysiske virkeligheten.
Hvis
alle relevante kilder til usikkerhet – uregistrerte baner, interpolasjonsfeil,
utilstrekkelig kunnskap om dyphavet, hull i polarområdene og inkonsistente
målerammer – kvantifiseres korrekt, er den faktiske usikkerheten til den
avledede verdien for jordens energiubalanse større enn ±1 watt per kvadratmeter
med en sannsynlighet på 95 %. IPCCs sjette vurderingsrapport angir den som 0,7
± 0,2 watt per kvadratmeter. Den faktiske usikkerheten er omtrent fem ganger
større enn det målte signalet. Resultatet er statistisk umulig å skille fra
null.
Den fjerde løgnen:
Satellitter ble tilpasset for å passe til fiksjonen.
IPCC
presenterer sine data om havets varmeinnhold og sine satellittbaserte data om
energiubalanse som to uavhengige, konsistente bevislinjer. Denne konsistensen
siteres som en sterk bekreftelse på at jorden lagrer energi i den grad som
hevdes.
Det
IPCC ikke fremhever tydelig, er hvordan denne avtalen ble til.
NASAs
CERES-instrumenter – satellitter for måling av strålingsbalansen øverst i
atmosfæren – gir rådata med en absolutt usikkerhet på omtrent tre til fem watt
per kvadratmeter. Målesignalet spesifisert av IPCC er 0,7 watt per
kvadratmeter. Satellittene alene kan ikke bestemme denne verdien.
Så hva
ble gjort? CERES-dataene ble justert – ved hjelp av minste kvadraters metode –
for å oppnå samsvar med estimatet av havets varmeinnhold utledet fra Argo-data.
Dokumentasjonen i IPCC-rapporten AR6 bekrefter dette eksplisitt: CERES-fluksene
«ble justert innenfor de estimerte usikkerhetene for å sikre at nettofluksen
øverst i atmosfæren er i samsvar med jordens energibalanse estimert på grunnlag
av målinger av havets varmeinnhold.»
Med
andre ord, de justerte satellittene slik at de falt sammen med drivbøyene, og
siterte deretter denne tilfeldigheten som uavhengig bekreftelse. Det er ikke
vitenskap. Det er sirkelformulering med unødvendige omveier.
Denne
oppførselen er ikke uten sidestykke i IPCC-økosystemet. Kevin Trenberth, en av
arkitektene bak modellen for beregning av havets varmeinnhold, skrev i en nå
beryktet e-post fra 2009, avslørt av ClimateGate-avsløringene: «Faktum er at vi
ikke kan forklare den nåværende mangelen på oppvarming, og det er en farse at
vi ikke kan det. CERES-dataene som ble utgitt i august viser at det faktisk
burde være enda mer oppvarming: men dataene er absolutt feil.» Hvis satellittdataene
ikke samsvarer med modellene, anses satellittene som feil. Hvis
satellittdataene justeres for å få dem til å samsvare, siteres denne samsvaren
som bekreftelse. Systemet er manipulert fra starten av.
Den femte løgnen:
CO2-fingeravtrykket ₂ som aldri eksisterte
Den
siste søylen i IPCCs argumentasjon gjelder tilskrivelsen av karbondioksid. Selv
om CO₂-konsentrasjonen
i atmosfæren faktisk har økt, og menneskelig industriell aktivitet slipper ut
CO₂, går
IPCC lenger og hevder at økningen i atmosfærisk CO₂ nesten utelukkende er menneskeskapt –
naturlige prosesser kan ikke forklare det, og den isotopiske sammensetningen av
atmosfærisk CO₂ gir et
tydelig menneskelig fingeravtrykk.
Denne
påstanden er basert på Bernmodellen, en matematisk modell som beskriver
fordelingen av CO₂ mellom
atmosfæren og naturlige utslipp. Bernmodellen har en spesielt alarmerende
egenskap: den spår at en betydelig andel av CO₂-utslippene som slippes ut i dag, vil forbli i atmosfæren i
århundrer eller årtusener. IPCCs femte vurderingsrapport (AR5) slår fast at 15
til 40 prosent av CO₂-utslippene
vil forbli i atmosfæren i over tusen år. Dette er grunnlaget for CO₂-budsjetter og klimanøytralitetsmål.
Bern-modellen har blitt tilbakevist av bevis som har vært
åpenbare i seksti år.
Da
atmosfæriske atomprøvesprengninger nådde sitt høydepunkt tidlig på 1960-tallet,
ble en massiv puls av radioaktivt karbon – atom-14-karbon (CO₂) – sluppet ut i atmosfæren. Denne pulsen
har blitt kontinuerlig sporet siden den gang. Hvis Bern-modellen var riktig,
burde denne pulsen avta sakte og etterlate en betydelig permanent fraksjon. I
stedet avta den eksponentielt med en elektronfoldingstid på omtrent sytten år.
Atom-14-karbonet har forsvunnet. Det passerte gjennom systemet og ble
fullstendig absorbert i løpet av omtrent et halvt århundre. Den
multieksponentielle Bern-modellen, med sin permanente fraksjon i atmosfæren, er
rett og slett feil. CO₂
forblir ikke i atmosfæren i årtusener. Det passerer gjennom systemet i løpet av
år til tiår.
Isotopanalyse
bekrefter dette. Karbonisotopforholdet i atmosfærisk CO₂ – den såkalte delta-13C-verdien – synker
fordi den isotopisk lettere CO₂ fra
fossilt brensel blandes med atmosfæren. IPCC anser denne nedgangen som et klart
bevis på menneskelig årsakssammenheng.
En
studie fra 2024 av professor Demetris Koutsoyiannis, gjennomgått av fagfeller,
undersøkte faktiske isotopdata i detalj og fant noe som var uforenlig med den
rådende vitenskapelige oppfatningen: Netto isotopsignaturen av atmosfærisk
tilførsel har i hovedsak holdt seg uendret siden den lille istiden. Verdien har
holdt seg stabil – over hele verden, på alle større målestasjoner og gjennom
hele industrialiseringsperioden. En skiftende menneskelig påvirkning bør
gjenspeiles i en skiftende nettosignatur. Dette er imidlertid ikke tilfelle.
Den isotopiske sammensetningen er i samsvar med dominansen av den naturlige
biosfæren og et uoppdagbart menneskelig bidrag.
Årsaken
til dette er ikke mystisk. Biosfæren – planter, jord, hav – sirkulerer omtrent
25 ganger mer karbon årlig enn menneskelige industriutslipp. Naturlige
prosesser er den klart dominerende faktoren. Menneskelige utslipp er bare støy
lagt oppå et massivt naturlig signal. Og temperatur, ikke menneskelig
aktivitet, er ansvarlig for mesteparten av dette signalet: Oppvarming fører til
at biosfæren slipper ut mer CO₂, noe
som øker atmosfæriske konsentrasjoner. Årsakssammenhengen går fra temperatur
til CO₂, ikke
omvendt.
5 x 0 = 0
Ta et
skritt tilbake og se på det større bildet.
IPCCs argument for en menneskeskapt klimakatastrofe hviler på fem
sammenkoblede indikatorer: den globale gjennomsnittlige overflatetemperaturen
(GMST), klimamodellene som er kalibrert etter den, varmeinnholdet i havene,
jordens energiubalanse som følge av havvarme og CO₂-tildeling. Hver av disse
indikatorene presenteres som uavhengig bevis. Sammen utgjør de, ifølge IPCC,
overveldende bevis .
De er
imidlertid ikke uavhengige. De danner en sirkel. Den globale gjennomsnittlige
overflatetemperaturen (GMST) er fysisk meningsløs. Modellene er kalibrert til
GMST og arver dens meningsløshet. Varmeinnholdet i havene beregnes ved hjelp av
en metode som bryter med lovene i målefysikk og er statistisk umulig å skille
fra null. Jordens energibalanse er avledet fra varmeinnholdet i havene og
bekreftet av satellitter som er kalibrert deretter. Tildelingen av CO₂ er basert på en modell som er blitt
tilbakevist av data fra atombombetester og et isotopisk fingeravtrykk som ikke
finnes i observasjoner.
Hvert
ledd i kjeden er avhengig av de andre. Ingen står alene. IPCC kaller dette
«flere beviskjeder». Men fem ganger null er fortsatt null.
Hva det betyr
Ingenting
av dette beviser at klimaet ikke endrer seg, eller at menneskelig aktivitet
ikke påvirker atmosfæren. Klimaet er i stadig endring, og har vært det i milliarder
av år. Det viser bare at de spesifikke indikatorene IPCC bruker for å
kvantifisere krisen – hvert tall som styrer politikk, hvert tall som
rettferdiggjør utgifter, hver prognose som skremmer offentligheten – hviler på
et grunnlag som ikke holder mål med fysikkens lover.
Den
internasjonale standardiseringsorganisasjonen (IOS) klarte ikke å definere en
global gjennomsnittstemperatur fordi den ikke oppfylte metrologiske krav. Fire
forskjellige AI-systemer, presentert med de matematiske argumentene, kom
uavhengig av hverandre frem til samme resultat. Keiseren har ingen klær – og
selv verktøyene hoffet hans skapte for hans beskyttelse vet det.
I 38 år
har en omfattende vitenskapelig og politisk infrastruktur blitt bygget på disse
indikatorene. De har rettferdiggjort utgifter for billioner av dollar.
Karrierer, institusjoner og internasjonale avtaler er avhengige av dem. Å
stille spørsmål ved dem har blitt behandlet som kjetteri.
Men
fysikk forhandler ikke. Et tall uten fysisk betydning får det ikke bare fordi
innflytelsesrike personer anser det som nyttig. En måling som ikke kan skilles
fra null blir ikke bevis på en krise bare fordi en satellitt har blitt justert
deretter. En modell som er tilbakevist av seksti år med karbondata fra
atombomber, blir ikke gyldig bare fordi den har blitt sitert ti tusen ganger.
Arbeidet
er gjort. Artiklene er publisert. De matematiske grunnlagene er tilgjengelige
for alle som ønsker å undersøke dem. Spørsmålet nå er ikke av vitenskapelig
art. Snarere er det om institusjonene som har bygget sin makt på disse tallene
endelig vil erkjenne det fysikken alltid har prøvd å fortelle dem.
Keiseren har ingen klær. Det har alltid vært tilfelle. Og det er
på høy tid å si det.
Artikkelen som PDF:
Ingen kommentarer:
Legg inn en kommentar