mandag 20. april 2026

5 løgner om klimaet

I nesten fire tiår har verden blitt fortalt den samme historien: Jorden varmes opp i et alarmerende tempo, menneskeheten er ansvarlig for å forbrenne fossilt brensel, og med mindre vi investerer billioner av dollar for å forhindre det, truer katastrofe. Regjeringer har rettet økonomiene sine mot denne fortellingen. Barn vokser opp med frykt for den. Forskere som stiller spørsmål ved den blir utstøtt.

Det er bare ett problem. Det vitenskapelige grunnlaget for dette argumentet – hvert eneste tall IPCC bruker – er fysisk meningsløst. Ikke usikkert. Ikke diskutabelt. Fysisk meningsløst, akkurat som gjennomsnittet av alle telefonnumre i Washington, D.C., er meningsløst. Du kan beregne det. Beregningen er korrekt. Men resultatet sier absolutt ingenting om virkeligheten.

Dette er ikke en usannsynlig påstand. Det er et matematisk og fysisk bevis basert på vitenskapelige artikler og de grunnleggende prinsippene innen termodynamikk. Og når du først har forstått det, kan du ikke ignorere det.

Den første løgnen: En temperatur som ikke eksisterer

Det hele begynner med den globale gjennomsnittlige overflatetemperaturen (GMST). Dette ene tallet – vanligvis uttrykt som et avvik fra førindustrielle nivåer – danner grunnlaget for hele IPCC-studien. Når du hører at jorden har varmet seg opp med 1,2 grader siden den industrielle revolusjonen, snakker du om GMST. Når klimamodeller spår en oppvarming på 2, 3 eller 4 grader innen år 2100, refererer de til endringer i GMST. Når Parisavtalen setter en grense på 1,5 grader, er dette en grense for GMST.

Hva er egentlig GMST? Det er her historien begynner å rakne.

I fysikk er temperatur en såkalt intensiv størrelse. Dette betyr at den beskriver tilstanden til et spesifikt fysisk system – et system med grenser som er i eller nær termisk likevekt og hvis tilstandsligning er unikt definert. Det er fornuftig å snakke om temperaturen til en kopp kaffe, et rom eller havet på en viss dybde, siden hver av disse er et definert fysisk system. Det man imidlertid ikke kan gjøre uten å bryte termodynamikkens lover, er å legge sammen temperaturene til systemer som ikke er i termisk kontakt med hverandre og kalle resultatet «temperatur».

Jordoverflaten er ikke et termodynamisk system. Den er et lappeteppe av tusenvis av lokale systemer – ørkener og regnskoger, polare isdekker og tropiske hav, fjelltopper og dalbunner – og ingen av dem er i termisk likevekt med de andre. Gjennomsnittstemperaturene deres gir riktignok en verdi, men denne verdien er ikke en temperatur i fysisk meningsfull forstand. Den styres ikke av noen tilstandsligning. Det finnes ingen fysisk lov som knytter den til noe som helst. Som fysikeren Christopher Essex og kollegene hans overbevisende demonstrerte i en publikasjon fra 2007, er det rett og slett ikke en temperatur.

Dette er ikke bare en formalitet. Det er en kategorifeil som umiddelbart ville stoppet et forskningsprogram innen ethvert annet vitenskapelig felt. Å beregne gjennomsnittet av intensive egenskaper på tvers av ikke-likevektssystemer er som å beregne gjennomsnittet av postnumrene til alle innbyggere i New York City og deretter bruke resultatet som veibeskrivelse. Beregningen gir et tall. Det tallet er meningsløst.

Den internasjonale standardiseringsorganisasjonen (ISO) anerkjente dette implisitt for flere tiår siden. I 2002 fikk ISO i oppgave å definere alle nøkkelbegreper knyttet til klimaendringer – og den dag i dag mangler begrepet «global gjennomsnittstemperatur» i de endelige definisjonene. Denne utelatelsen er ingen forglemmelse. ISOs mandat krever metrologisk nøyaktighet, og begrepet «global gjennomsnittstemperatur» kan ikke oppfylle disse kravene.

Verken IPCC eller noe annet klimabyrå har noen gang gitt en presis fysisk definisjon av global gjennomsnittlig overflatetemperatur (GMST). De bruker begrepet konstant – det dukker opp i så å si alle kapitler i IPCCs sjette hovedrapport – men de har aldri definert hvilken fysisk størrelse den representerer fordi en slik definisjon ikke er mulig.

Den andre løgnen: Modeller som ikke er basert på noe

Hvis GMST er fysisk meningsløs, hva er da det egentlige formålet med IPCCs klimamodeller?

Svaret er upraktisk. Hver av de viktigste klimamodellene som brukes av IPCC – ensemblet CMIP (Coupled Model Intercomparison Project) – er utviklet for å reprodusere historiske trender i gjennomsnittlig global overflatetemperatur (GMST). Disse modellene har hundrevis av justerbare parametere som justeres for å sikre at modellutdataene samsvarer med observerte GMST-data. Denne prosessen kalles validering: modellen justeres til den passer til dataene, og deretter erklæres den validert basert på observasjoner.

Men hvis den globale gjennomsnittlige overflatetemperaturen (GMST) ikke er en fysisk meningsfull størrelse, er det ikke validering å tilpasse en modell for å reprodusere den. Det er bare å tilpasse en kurve til et tall uten fysisk innhold. Modellen lærer å representere en matematisk artefakt, ikke fysisk virkelighet. Og fordi dette er koblede globale sirkulasjonsmodeller – der temperatur samhandler med nedbør, vind, havstrømmer, havis og dusinvis av andre variabler – sprer denne forvrengningen seg overalt. Hver projeksjon generert av modellen arver den opprinnelige meningsløsheten for hver variabel.

Implikasjonene er skremmende. Hver temperaturprognose. Hver havnivåprognose. Hver prognose for ekstremværhendelser. Hver CO-balanse. Hver beregning av gjenværende utslipp. Alt dette er basert på modeller validert med en fysisk ikke-eksisterende mengde.

Den tredje løgnen: Et hav som aldri ble målt

Fordi målinger av overflatetemperatur var kontroversielle og upålitelige, utviklet IPCC en annen bevislinje: havets varmeinnhold (OHC). Resonnementet var enkelt: hvis jorden lagrer energi gjennom drivhuseffekten, må denne energien gå et sted, og mesteparten av den burde ende opp i havene. Å måle havets varmeinnhold over en lengre periode gir et direkte mål på jordens energiubalanse.





Dette argumentet høres overbevisende ut. Det er basert på Argo-programmet – et nettverk av omtrent 4400 robotbøyer fordelt over verdenshavene. Hver bøye dykker ned til dybder på opptil 2000 meter og stiger opp til overflaten hver tiende dag, og overfører temperatur- og saltprofiler. Argo er en sann vitenskapelig bragd, et teknologisk mesterverk som har levert en enorm mengde verdifulle oseanografiske data.

I følge stiftelsesdokumentene fra 1998 ble Argo opprinnelig utviklet for å observere den endrede fysiske tilstanden til de øvre havlagene, for å fange opp regionale varme- og saltinnholdsmønstre, for å støtte værvarsling og for å utfylle satellitthøydemålere. Havets globale varmeinnhold og jordens energiubalanse er ikke nevnt noe sted. Programmet var ikke ment for dette formålet og er fundamentalt uegnet for det.

Problemet begynner med grunnleggende fysiske prinsipper. Når en Argo-bøye stiger fra en dybde på 2000 meter til overflaten i løpet av seks til ti timer, samler den inn omtrent 1000 temperaturmålinger. Bøyen driver imidlertid hele tiden. Når den kommer til overflaten og overfører data via satellitt, kan den være opptil 50 kilometer unna der de dypeste målingene ble tatt. Disse målingene tilskrives alle GPS-posisjonen på overflaten – det eneste kjente stedet. Den faktiske undervannsbanen er fullstendig ukjent. Hvert eneste datapunkt under vann er tilordnet feil sted.

Så begynner interpolasjonen. De 12 000 månedlige målingene – som allerede er romlig feiljustert – brukes til å fylle 45 000 tredimensjonale rutenettceller som dekker det globale havet. Mesteparten av havet måles ikke i det hele tatt, men beregnes. Polarområder, kystsoner og randhav er i stor grad ekskludert. Omtrent halvparten av det totale havvolumet, inkludert alle vannmasser under 2000 meter, ignoreres rett og slett. Beregningene bruker korrelasjonsfunksjoner som blander målinger fra vannmasser hundrevis eller til og med tusenvis av kilometer fra hverandre, og dermed ødelegger all lokal informasjon som målebøyene faktisk fanget opp.

Anomaliene som beregnes fra denne prosessen – avvikene fra en historisk referanseverdi – støter deretter på det samme grunnleggende fysiske problemet som GMST. Temperatur er en intensiv størrelse. Temperaturavvik kan ikke meningsfullt gjennomsnittsberegnes over ikke-likevektsvolumer av havet, like lite som over jordoverflaten. Den resulterende verdien kan ha en enhet, og beregningen kan være korrekt, men den representerer ikke den fysiske virkeligheten.

Hvis alle relevante kilder til usikkerhet – uregistrerte baner, interpolasjonsfeil, utilstrekkelig kunnskap om dyphavet, hull i polarområdene og inkonsistente målerammer – kvantifiseres korrekt, er den faktiske usikkerheten til den avledede verdien for jordens energiubalanse større enn ±1 watt per kvadratmeter med en sannsynlighet på 95 %. IPCCs sjette vurderingsrapport angir den som 0,7 ± 0,2 watt per kvadratmeter. Den faktiske usikkerheten er omtrent fem ganger større enn det målte signalet. Resultatet er statistisk umulig å skille fra null.

Den fjerde løgnen: Satellitter ble tilpasset for å passe til fiksjonen.

IPCC presenterer sine data om havets varmeinnhold og sine satellittbaserte data om energiubalanse som to uavhengige, konsistente bevislinjer. Denne konsistensen siteres som en sterk bekreftelse på at jorden lagrer energi i den grad som hevdes.

Det IPCC ikke fremhever tydelig, er hvordan denne avtalen ble til.

NASAs CERES-instrumenter – satellitter for måling av strålingsbalansen øverst i atmosfæren – gir rådata med en absolutt usikkerhet på omtrent tre til fem watt per kvadratmeter. Målesignalet spesifisert av IPCC er 0,7 watt per kvadratmeter. Satellittene alene kan ikke bestemme denne verdien.

Så hva ble gjort? CERES-dataene ble justert – ved hjelp av minste kvadraters metode – for å oppnå samsvar med estimatet av havets varmeinnhold utledet fra Argo-data. Dokumentasjonen i IPCC-rapporten AR6 bekrefter dette eksplisitt: CERES-fluksene «ble justert innenfor de estimerte usikkerhetene for å sikre at nettofluksen øverst i atmosfæren er i samsvar med jordens energibalanse estimert på grunnlag av målinger av havets varmeinnhold.»

Med andre ord, de justerte satellittene slik at de falt sammen med drivbøyene, og siterte deretter denne tilfeldigheten som uavhengig bekreftelse. Det er ikke vitenskap. Det er sirkelformulering med unødvendige omveier.

Denne oppførselen er ikke uten sidestykke i IPCC-økosystemet. Kevin Trenberth, en av arkitektene bak modellen for beregning av havets varmeinnhold, skrev i en nå beryktet e-post fra 2009, avslørt av ClimateGate-avsløringene: «Faktum er at vi ikke kan forklare den nåværende mangelen på oppvarming, og det er en farse at vi ikke kan det. CERES-dataene som ble utgitt i august viser at det faktisk burde være enda mer oppvarming: men dataene er absolutt feil.» Hvis satellittdataene ikke samsvarer med modellene, anses satellittene som feil. Hvis satellittdataene justeres for å få dem til å samsvare, siteres denne samsvaren som bekreftelse. Systemet er manipulert fra starten av.

Den femte løgnen: CO2-fingeravtrykket ₂ som aldri eksisterte

Den siste søylen i IPCCs argumentasjon gjelder tilskrivelsen av karbondioksid. Selv om CO-konsentrasjonen i atmosfæren faktisk har økt, og menneskelig industriell aktivitet slipper ut CO, går IPCC lenger og hevder at økningen i atmosfærisk CO nesten utelukkende er menneskeskapt – naturlige prosesser kan ikke forklare det, og den isotopiske sammensetningen av atmosfærisk CO gir et tydelig menneskelig fingeravtrykk.

Denne påstanden er basert på Bernmodellen, en matematisk modell som beskriver fordelingen av CO mellom atmosfæren og naturlige utslipp. Bernmodellen har en spesielt alarmerende egenskap: den spår at en betydelig andel av CO-utslippene som slippes ut i dag, vil forbli i atmosfæren i århundrer eller årtusener. IPCCs femte vurderingsrapport (AR5) slår fast at 15 til 40 prosent av CO-utslippene vil forbli i atmosfæren i over tusen år. Dette er grunnlaget for CO-budsjetter og klimanøytralitetsmål.

Bern-modellen har blitt tilbakevist av bevis som har vært åpenbare i seksti år.

Da atmosfæriske atomprøvesprengninger nådde sitt høydepunkt tidlig på 1960-tallet, ble en massiv puls av radioaktivt karbon – atom-14-karbon (CO) – sluppet ut i atmosfæren. Denne pulsen har blitt kontinuerlig sporet siden den gang. Hvis Bern-modellen var riktig, burde denne pulsen avta sakte og etterlate en betydelig permanent fraksjon. I stedet avta den eksponentielt med en elektronfoldingstid på omtrent sytten år. Atom-14-karbonet har forsvunnet. Det passerte gjennom systemet og ble fullstendig absorbert i løpet av omtrent et halvt århundre. Den multieksponentielle Bern-modellen, med sin permanente fraksjon i atmosfæren, er rett og slett feil. CO forblir ikke i atmosfæren i årtusener. Det passerer gjennom systemet i løpet av år til tiår.

Isotopanalyse bekrefter dette. Karbonisotopforholdet i atmosfærisk CO – den såkalte delta-13C-verdien – synker fordi den isotopisk lettere CO fra fossilt brensel blandes med atmosfæren. IPCC anser denne nedgangen som et klart bevis på menneskelig årsakssammenheng.

En studie fra 2024 av professor Demetris Koutsoyiannis, gjennomgått av fagfeller, undersøkte faktiske isotopdata i detalj og fant noe som var uforenlig med den rådende vitenskapelige oppfatningen: Netto isotopsignaturen av atmosfærisk tilførsel har i hovedsak holdt seg uendret siden den lille istiden. Verdien har holdt seg stabil – over hele verden, på alle større målestasjoner og gjennom hele industrialiseringsperioden. En skiftende menneskelig påvirkning bør gjenspeiles i en skiftende nettosignatur. Dette er imidlertid ikke tilfelle. Den isotopiske sammensetningen er i samsvar med dominansen av den naturlige biosfæren og et uoppdagbart menneskelig bidrag.

Årsaken til dette er ikke mystisk. Biosfæren – planter, jord, hav – sirkulerer omtrent 25 ganger mer karbon årlig enn menneskelige industriutslipp. Naturlige prosesser er den klart dominerende faktoren. Menneskelige utslipp er bare støy lagt oppå et massivt naturlig signal. Og temperatur, ikke menneskelig aktivitet, er ansvarlig for mesteparten av dette signalet: Oppvarming fører til at biosfæren slipper ut mer CO, noe som øker atmosfæriske konsentrasjoner. Årsakssammenhengen går fra temperatur til CO, ikke omvendt.

5 x 0 = 0

Ta et skritt tilbake og se på det større bildet.

IPCCs argument for en menneskeskapt klimakatastrofe hviler på fem sammenkoblede indikatorer: den globale gjennomsnittlige overflatetemperaturen (GMST), klimamodellene som er kalibrert etter den, varmeinnholdet i havene, jordens energiubalanse som følge av havvarme og CO₂-tildeling. Hver av disse indikatorene presenteres som uavhengig bevis. Sammen utgjør de, ifølge IPCC, overveldende bevis .

De er imidlertid ikke uavhengige. De danner en sirkel. Den globale gjennomsnittlige overflatetemperaturen (GMST) er fysisk meningsløs. Modellene er kalibrert til GMST og arver dens meningsløshet. Varmeinnholdet i havene beregnes ved hjelp av en metode som bryter med lovene i målefysikk og er statistisk umulig å skille fra null. Jordens energibalanse er avledet fra varmeinnholdet i havene og bekreftet av satellitter som er kalibrert deretter. Tildelingen av CO er basert på en modell som er blitt tilbakevist av data fra atombombetester og et isotopisk fingeravtrykk som ikke finnes i observasjoner.

Hvert ledd i kjeden er avhengig av de andre. Ingen står alene. IPCC kaller dette «flere beviskjeder». Men fem ganger null er fortsatt null.

Hva det betyr

Ingenting av dette beviser at klimaet ikke endrer seg, eller at menneskelig aktivitet ikke påvirker atmosfæren. Klimaet er i stadig endring, og har vært det i milliarder av år. Det viser bare at de spesifikke indikatorene IPCC bruker for å kvantifisere krisen – hvert tall som styrer politikk, hvert tall som rettferdiggjør utgifter, hver prognose som skremmer offentligheten – hviler på et grunnlag som ikke holder mål med fysikkens lover.

Den internasjonale standardiseringsorganisasjonen (IOS) klarte ikke å definere en global gjennomsnittstemperatur fordi den ikke oppfylte metrologiske krav. Fire forskjellige AI-systemer, presentert med de matematiske argumentene, kom uavhengig av hverandre frem til samme resultat. Keiseren har ingen klær – og selv verktøyene hoffet hans skapte for hans beskyttelse vet det.

I 38 år har en omfattende vitenskapelig og politisk infrastruktur blitt bygget på disse indikatorene. De har rettferdiggjort utgifter for billioner av dollar. Karrierer, institusjoner og internasjonale avtaler er avhengige av dem. Å stille spørsmål ved dem har blitt behandlet som kjetteri.

Men fysikk forhandler ikke. Et tall uten fysisk betydning får det ikke bare fordi innflytelsesrike personer anser det som nyttig. En måling som ikke kan skilles fra null blir ikke bevis på en krise bare fordi en satellitt har blitt justert deretter. En modell som er tilbakevist av seksti år med karbondata fra atombomber, blir ikke gyldig bare fordi den har blitt sitert ti tusen ganger.

Arbeidet er gjort. Artiklene er publisert. De matematiske grunnlagene er tilgjengelige for alle som ønsker å undersøke dem. Spørsmålet nå er ikke av vitenskapelig art. Snarere er det om institusjonene som har bygget sin makt på disse tallene endelig vil erkjenne det fysikken alltid har prøvd å fortelle dem.

Keiseren har ingen klær. Det har alltid vært tilfelle. Og det er på høy tid å si det.

 


Lenker:

https://eike-klima-energie.eu/2026/04/20/der-kaiser-ist-nackt-wie-der-ipcc-ein-38-jaehriges-klimaimperium-auf-einem-luegengebaeude-errichtete/

https://t.co/TiXR6dk7Uk


Artikkelen som PDF:

https://eike-klima-energie.eu/2026/04/20/der-kaiser-ist-nackt-wie-der-ipcc-ein-38-jaehriges-klimaimperium-auf-einem-luegengebaeude-errichtete/?print=pdf

 

 

 


Ingen kommentarer:

Legg inn en kommentar