mandag 20. april 2026

5 løgner om klimaet

I nesten fire tiår har verden blitt fortalt den samme historien: Jorden varmes opp i et alarmerende tempo, menneskeheten er ansvarlig for å forbrenne fossilt brensel, og med mindre vi investerer billioner av dollar for å forhindre det, truer katastrofe. Regjeringer har rettet økonomiene sine mot denne fortellingen. Barn vokser opp med frykt for den. Forskere som stiller spørsmål ved den blir utstøtt.

Det er bare ett problem. Det vitenskapelige grunnlaget for dette argumentet – hvert eneste tall IPCC bruker – er fysisk meningsløst. Ikke usikkert. Ikke diskutabelt. Fysisk meningsløst, akkurat som gjennomsnittet av alle telefonnumre i Washington, D.C., er meningsløst. Du kan beregne det. Beregningen er korrekt. Men resultatet sier absolutt ingenting om virkeligheten.

Dette er ikke en usannsynlig påstand. Det er et matematisk og fysisk bevis basert på vitenskapelige artikler og de grunnleggende prinsippene innen termodynamikk. Og når du først har forstått det, kan du ikke ignorere det.

Den første løgnen: En temperatur som ikke eksisterer

Det hele begynner med den globale gjennomsnittlige overflatetemperaturen (GMST). Dette ene tallet – vanligvis uttrykt som et avvik fra førindustrielle nivåer – danner grunnlaget for hele IPCC-studien. Når du hører at jorden har varmet seg opp med 1,2 grader siden den industrielle revolusjonen, snakker du om GMST. Når klimamodeller spår en oppvarming på 2, 3 eller 4 grader innen år 2100, refererer de til endringer i GMST. Når Parisavtalen setter en grense på 1,5 grader, er dette en grense for GMST.

Hva er egentlig GMST? Det er her historien begynner å rakne.

I fysikk er temperatur en såkalt intensiv størrelse. Dette betyr at den beskriver tilstanden til et spesifikt fysisk system – et system med grenser som er i eller nær termisk likevekt og hvis tilstandsligning er unikt definert. Det er fornuftig å snakke om temperaturen til en kopp kaffe, et rom eller havet på en viss dybde, siden hver av disse er et definert fysisk system. Det man imidlertid ikke kan gjøre uten å bryte termodynamikkens lover, er å legge sammen temperaturene til systemer som ikke er i termisk kontakt med hverandre og kalle resultatet «temperatur».

Jordoverflaten er ikke et termodynamisk system. Den er et lappeteppe av tusenvis av lokale systemer – ørkener og regnskoger, polare isdekker og tropiske hav, fjelltopper og dalbunner – og ingen av dem er i termisk likevekt med de andre. Gjennomsnittstemperaturene deres gir riktignok en verdi, men denne verdien er ikke en temperatur i fysisk meningsfull forstand. Den styres ikke av noen tilstandsligning. Det finnes ingen fysisk lov som knytter den til noe som helst. Som fysikeren Christopher Essex og kollegene hans overbevisende demonstrerte i en publikasjon fra 2007, er det rett og slett ikke en temperatur.

Dette er ikke bare en formalitet. Det er en kategorifeil som umiddelbart ville stoppet et forskningsprogram innen ethvert annet vitenskapelig felt. Å beregne gjennomsnittet av intensive egenskaper på tvers av ikke-likevektssystemer er som å beregne gjennomsnittet av postnumrene til alle innbyggere i New York City og deretter bruke resultatet som veibeskrivelse. Beregningen gir et tall. Det tallet er meningsløst.

Den internasjonale standardiseringsorganisasjonen (ISO) anerkjente dette implisitt for flere tiår siden. I 2002 fikk ISO i oppgave å definere alle nøkkelbegreper knyttet til klimaendringer – og den dag i dag mangler begrepet «global gjennomsnittstemperatur» i de endelige definisjonene. Denne utelatelsen er ingen forglemmelse. ISOs mandat krever metrologisk nøyaktighet, og begrepet «global gjennomsnittstemperatur» kan ikke oppfylle disse kravene.

Verken IPCC eller noe annet klimabyrå har noen gang gitt en presis fysisk definisjon av global gjennomsnittlig overflatetemperatur (GMST). De bruker begrepet konstant – det dukker opp i så å si alle kapitler i IPCCs sjette hovedrapport – men de har aldri definert hvilken fysisk størrelse den representerer fordi en slik definisjon ikke er mulig.

Den andre løgnen: Modeller som ikke er basert på noe

Hvis GMST er fysisk meningsløs, hva er da det egentlige formålet med IPCCs klimamodeller?

Svaret er upraktisk. Hver av de viktigste klimamodellene som brukes av IPCC – ensemblet CMIP (Coupled Model Intercomparison Project) – er utviklet for å reprodusere historiske trender i gjennomsnittlig global overflatetemperatur (GMST). Disse modellene har hundrevis av justerbare parametere som justeres for å sikre at modellutdataene samsvarer med observerte GMST-data. Denne prosessen kalles validering: modellen justeres til den passer til dataene, og deretter erklæres den validert basert på observasjoner.

Men hvis den globale gjennomsnittlige overflatetemperaturen (GMST) ikke er en fysisk meningsfull størrelse, er det ikke validering å tilpasse en modell for å reprodusere den. Det er bare å tilpasse en kurve til et tall uten fysisk innhold. Modellen lærer å representere en matematisk artefakt, ikke fysisk virkelighet. Og fordi dette er koblede globale sirkulasjonsmodeller – der temperatur samhandler med nedbør, vind, havstrømmer, havis og dusinvis av andre variabler – sprer denne forvrengningen seg overalt. Hver projeksjon generert av modellen arver den opprinnelige meningsløsheten for hver variabel.

Implikasjonene er skremmende. Hver temperaturprognose. Hver havnivåprognose. Hver prognose for ekstremværhendelser. Hver CO-balanse. Hver beregning av gjenværende utslipp. Alt dette er basert på modeller validert med en fysisk ikke-eksisterende mengde.

Den tredje løgnen: Et hav som aldri ble målt

Fordi målinger av overflatetemperatur var kontroversielle og upålitelige, utviklet IPCC en annen bevislinje: havets varmeinnhold (OHC). Resonnementet var enkelt: hvis jorden lagrer energi gjennom drivhuseffekten, må denne energien gå et sted, og mesteparten av den burde ende opp i havene. Å måle havets varmeinnhold over en lengre periode gir et direkte mål på jordens energiubalanse.





Dette argumentet høres overbevisende ut. Det er basert på Argo-programmet – et nettverk av omtrent 4400 robotbøyer fordelt over verdenshavene. Hver bøye dykker ned til dybder på opptil 2000 meter og stiger opp til overflaten hver tiende dag, og overfører temperatur- og saltprofiler. Argo er en sann vitenskapelig bragd, et teknologisk mesterverk som har levert en enorm mengde verdifulle oseanografiske data.

I følge stiftelsesdokumentene fra 1998 ble Argo opprinnelig utviklet for å observere den endrede fysiske tilstanden til de øvre havlagene, for å fange opp regionale varme- og saltinnholdsmønstre, for å støtte værvarsling og for å utfylle satellitthøydemålere. Havets globale varmeinnhold og jordens energiubalanse er ikke nevnt noe sted. Programmet var ikke ment for dette formålet og er fundamentalt uegnet for det.

Problemet begynner med grunnleggende fysiske prinsipper. Når en Argo-bøye stiger fra en dybde på 2000 meter til overflaten i løpet av seks til ti timer, samler den inn omtrent 1000 temperaturmålinger. Bøyen driver imidlertid hele tiden. Når den kommer til overflaten og overfører data via satellitt, kan den være opptil 50 kilometer unna der de dypeste målingene ble tatt. Disse målingene tilskrives alle GPS-posisjonen på overflaten – det eneste kjente stedet. Den faktiske undervannsbanen er fullstendig ukjent. Hvert eneste datapunkt under vann er tilordnet feil sted.

Så begynner interpolasjonen. De 12 000 månedlige målingene – som allerede er romlig feiljustert – brukes til å fylle 45 000 tredimensjonale rutenettceller som dekker det globale havet. Mesteparten av havet måles ikke i det hele tatt, men beregnes. Polarområder, kystsoner og randhav er i stor grad ekskludert. Omtrent halvparten av det totale havvolumet, inkludert alle vannmasser under 2000 meter, ignoreres rett og slett. Beregningene bruker korrelasjonsfunksjoner som blander målinger fra vannmasser hundrevis eller til og med tusenvis av kilometer fra hverandre, og dermed ødelegger all lokal informasjon som målebøyene faktisk fanget opp.

Anomaliene som beregnes fra denne prosessen – avvikene fra en historisk referanseverdi – støter deretter på det samme grunnleggende fysiske problemet som GMST. Temperatur er en intensiv størrelse. Temperaturavvik kan ikke meningsfullt gjennomsnittsberegnes over ikke-likevektsvolumer av havet, like lite som over jordoverflaten. Den resulterende verdien kan ha en enhet, og beregningen kan være korrekt, men den representerer ikke den fysiske virkeligheten.

Hvis alle relevante kilder til usikkerhet – uregistrerte baner, interpolasjonsfeil, utilstrekkelig kunnskap om dyphavet, hull i polarområdene og inkonsistente målerammer – kvantifiseres korrekt, er den faktiske usikkerheten til den avledede verdien for jordens energiubalanse større enn ±1 watt per kvadratmeter med en sannsynlighet på 95 %. IPCCs sjette vurderingsrapport angir den som 0,7 ± 0,2 watt per kvadratmeter. Den faktiske usikkerheten er omtrent fem ganger større enn det målte signalet. Resultatet er statistisk umulig å skille fra null.

Den fjerde løgnen: Satellitter ble tilpasset for å passe til fiksjonen.

IPCC presenterer sine data om havets varmeinnhold og sine satellittbaserte data om energiubalanse som to uavhengige, konsistente bevislinjer. Denne konsistensen siteres som en sterk bekreftelse på at jorden lagrer energi i den grad som hevdes.

Det IPCC ikke fremhever tydelig, er hvordan denne avtalen ble til.

NASAs CERES-instrumenter – satellitter for måling av strålingsbalansen øverst i atmosfæren – gir rådata med en absolutt usikkerhet på omtrent tre til fem watt per kvadratmeter. Målesignalet spesifisert av IPCC er 0,7 watt per kvadratmeter. Satellittene alene kan ikke bestemme denne verdien.

Så hva ble gjort? CERES-dataene ble justert – ved hjelp av minste kvadraters metode – for å oppnå samsvar med estimatet av havets varmeinnhold utledet fra Argo-data. Dokumentasjonen i IPCC-rapporten AR6 bekrefter dette eksplisitt: CERES-fluksene «ble justert innenfor de estimerte usikkerhetene for å sikre at nettofluksen øverst i atmosfæren er i samsvar med jordens energibalanse estimert på grunnlag av målinger av havets varmeinnhold.»

Med andre ord, de justerte satellittene slik at de falt sammen med drivbøyene, og siterte deretter denne tilfeldigheten som uavhengig bekreftelse. Det er ikke vitenskap. Det er sirkelformulering med unødvendige omveier.

Denne oppførselen er ikke uten sidestykke i IPCC-økosystemet. Kevin Trenberth, en av arkitektene bak modellen for beregning av havets varmeinnhold, skrev i en nå beryktet e-post fra 2009, avslørt av ClimateGate-avsløringene: «Faktum er at vi ikke kan forklare den nåværende mangelen på oppvarming, og det er en farse at vi ikke kan det. CERES-dataene som ble utgitt i august viser at det faktisk burde være enda mer oppvarming: men dataene er absolutt feil.» Hvis satellittdataene ikke samsvarer med modellene, anses satellittene som feil. Hvis satellittdataene justeres for å få dem til å samsvare, siteres denne samsvaren som bekreftelse. Systemet er manipulert fra starten av.

Den femte løgnen: CO2-fingeravtrykket ₂ som aldri eksisterte

Den siste søylen i IPCCs argumentasjon gjelder tilskrivelsen av karbondioksid. Selv om CO-konsentrasjonen i atmosfæren faktisk har økt, og menneskelig industriell aktivitet slipper ut CO, går IPCC lenger og hevder at økningen i atmosfærisk CO nesten utelukkende er menneskeskapt – naturlige prosesser kan ikke forklare det, og den isotopiske sammensetningen av atmosfærisk CO gir et tydelig menneskelig fingeravtrykk.

Denne påstanden er basert på Bernmodellen, en matematisk modell som beskriver fordelingen av CO mellom atmosfæren og naturlige utslipp. Bernmodellen har en spesielt alarmerende egenskap: den spår at en betydelig andel av CO-utslippene som slippes ut i dag, vil forbli i atmosfæren i århundrer eller årtusener. IPCCs femte vurderingsrapport (AR5) slår fast at 15 til 40 prosent av CO-utslippene vil forbli i atmosfæren i over tusen år. Dette er grunnlaget for CO-budsjetter og klimanøytralitetsmål.

Bern-modellen har blitt tilbakevist av bevis som har vært åpenbare i seksti år.

Da atmosfæriske atomprøvesprengninger nådde sitt høydepunkt tidlig på 1960-tallet, ble en massiv puls av radioaktivt karbon – atom-14-karbon (CO) – sluppet ut i atmosfæren. Denne pulsen har blitt kontinuerlig sporet siden den gang. Hvis Bern-modellen var riktig, burde denne pulsen avta sakte og etterlate en betydelig permanent fraksjon. I stedet avta den eksponentielt med en elektronfoldingstid på omtrent sytten år. Atom-14-karbonet har forsvunnet. Det passerte gjennom systemet og ble fullstendig absorbert i løpet av omtrent et halvt århundre. Den multieksponentielle Bern-modellen, med sin permanente fraksjon i atmosfæren, er rett og slett feil. CO forblir ikke i atmosfæren i årtusener. Det passerer gjennom systemet i løpet av år til tiår.

Isotopanalyse bekrefter dette. Karbonisotopforholdet i atmosfærisk CO – den såkalte delta-13C-verdien – synker fordi den isotopisk lettere CO fra fossilt brensel blandes med atmosfæren. IPCC anser denne nedgangen som et klart bevis på menneskelig årsakssammenheng.

En studie fra 2024 av professor Demetris Koutsoyiannis, gjennomgått av fagfeller, undersøkte faktiske isotopdata i detalj og fant noe som var uforenlig med den rådende vitenskapelige oppfatningen: Netto isotopsignaturen av atmosfærisk tilførsel har i hovedsak holdt seg uendret siden den lille istiden. Verdien har holdt seg stabil – over hele verden, på alle større målestasjoner og gjennom hele industrialiseringsperioden. En skiftende menneskelig påvirkning bør gjenspeiles i en skiftende nettosignatur. Dette er imidlertid ikke tilfelle. Den isotopiske sammensetningen er i samsvar med dominansen av den naturlige biosfæren og et uoppdagbart menneskelig bidrag.

Årsaken til dette er ikke mystisk. Biosfæren – planter, jord, hav – sirkulerer omtrent 25 ganger mer karbon årlig enn menneskelige industriutslipp. Naturlige prosesser er den klart dominerende faktoren. Menneskelige utslipp er bare støy lagt oppå et massivt naturlig signal. Og temperatur, ikke menneskelig aktivitet, er ansvarlig for mesteparten av dette signalet: Oppvarming fører til at biosfæren slipper ut mer CO, noe som øker atmosfæriske konsentrasjoner. Årsakssammenhengen går fra temperatur til CO, ikke omvendt.

5 x 0 = 0

Ta et skritt tilbake og se på det større bildet.

IPCCs argument for en menneskeskapt klimakatastrofe hviler på fem sammenkoblede indikatorer: den globale gjennomsnittlige overflatetemperaturen (GMST), klimamodellene som er kalibrert etter den, varmeinnholdet i havene, jordens energiubalanse som følge av havvarme og CO₂-tildeling. Hver av disse indikatorene presenteres som uavhengig bevis. Sammen utgjør de, ifølge IPCC, overveldende bevis .

De er imidlertid ikke uavhengige. De danner en sirkel. Den globale gjennomsnittlige overflatetemperaturen (GMST) er fysisk meningsløs. Modellene er kalibrert til GMST og arver dens meningsløshet. Varmeinnholdet i havene beregnes ved hjelp av en metode som bryter med lovene i målefysikk og er statistisk umulig å skille fra null. Jordens energibalanse er avledet fra varmeinnholdet i havene og bekreftet av satellitter som er kalibrert deretter. Tildelingen av CO er basert på en modell som er blitt tilbakevist av data fra atombombetester og et isotopisk fingeravtrykk som ikke finnes i observasjoner.

Hvert ledd i kjeden er avhengig av de andre. Ingen står alene. IPCC kaller dette «flere beviskjeder». Men fem ganger null er fortsatt null.

Hva det betyr

Ingenting av dette beviser at klimaet ikke endrer seg, eller at menneskelig aktivitet ikke påvirker atmosfæren. Klimaet er i stadig endring, og har vært det i milliarder av år. Det viser bare at de spesifikke indikatorene IPCC bruker for å kvantifisere krisen – hvert tall som styrer politikk, hvert tall som rettferdiggjør utgifter, hver prognose som skremmer offentligheten – hviler på et grunnlag som ikke holder mål med fysikkens lover.

Den internasjonale standardiseringsorganisasjonen (IOS) klarte ikke å definere en global gjennomsnittstemperatur fordi den ikke oppfylte metrologiske krav. Fire forskjellige AI-systemer, presentert med de matematiske argumentene, kom uavhengig av hverandre frem til samme resultat. Keiseren har ingen klær – og selv verktøyene hoffet hans skapte for hans beskyttelse vet det.

I 38 år har en omfattende vitenskapelig og politisk infrastruktur blitt bygget på disse indikatorene. De har rettferdiggjort utgifter for billioner av dollar. Karrierer, institusjoner og internasjonale avtaler er avhengige av dem. Å stille spørsmål ved dem har blitt behandlet som kjetteri.

Men fysikk forhandler ikke. Et tall uten fysisk betydning får det ikke bare fordi innflytelsesrike personer anser det som nyttig. En måling som ikke kan skilles fra null blir ikke bevis på en krise bare fordi en satellitt har blitt justert deretter. En modell som er tilbakevist av seksti år med karbondata fra atombomber, blir ikke gyldig bare fordi den har blitt sitert ti tusen ganger.

Arbeidet er gjort. Artiklene er publisert. De matematiske grunnlagene er tilgjengelige for alle som ønsker å undersøke dem. Spørsmålet nå er ikke av vitenskapelig art. Snarere er det om institusjonene som har bygget sin makt på disse tallene endelig vil erkjenne det fysikken alltid har prøvd å fortelle dem.

Keiseren har ingen klær. Det har alltid vært tilfelle. Og det er på høy tid å si det.

 


Lenker:

https://eike-klima-energie.eu/2026/04/20/der-kaiser-ist-nackt-wie-der-ipcc-ein-38-jaehriges-klimaimperium-auf-einem-luegengebaeude-errichtete/

https://t.co/TiXR6dk7Uk


Artikkelen som PDF:

https://eike-klima-energie.eu/2026/04/20/der-kaiser-ist-nackt-wie-der-ipcc-ein-38-jaehriges-klimaimperium-auf-einem-luegengebaeude-errichtete/?print=pdf

 

 

 


lørdag 18. april 2026

Elbilmarkedet

Amerikansk elbiletterspørsel er i utforbakke som følge av at statlige subsidieordninger er fjernet, og flere produsenter kaster inn håndkleet.


I 2024 nådde tapene i elbilsegmentet omtrent 60 milliarder euro (70 milliarder dollar). Store produsenter som Volkswagen, Ford og General Motors har måttet foreta betydelige nedskrivninger på grunn av overvurdering av markedet.

Forbrukerne samarbeider ikke

Bilprodusenter prioriterte politiske mål (som CO₂-reguleringer og forbud mot forbrenningsmotorer) fremfor markedsøkonomisk logikk. Denne «ideologiske feilretningen» førte til massive investeringer i produksjonskapasitet som markedet for øyeblikket ikke er villig til å støtte.

Som svar på disse tapene foretar selskaper kraftige kursjusteringer. For eksempel reduserer Ford investeringer i elbiler, General Motors justerer produksjonsmålene, og Volkswagen intensiverer kostnadskuttprogrammene.

De økonomiske konsekvensene er dyptgripende. Krisen fører til produksjonskutt, stansede prosjekter og økt usikkerhet for ansatte og leverandører. Høye råvarepriser og mangel på «stordriftsfordeler» (på grunn av lavt volum) betyr at produsentene sliter med lave marginer og overkapasitet.

Oppsummert er overgangen til elektromobilitet en «milliardgrav» forårsaket av at produsenter ignorerer forbrukernes preferanser til fordel for å følge politiske mandater og vrangforestillinger om grønne ideologier.

VWs elbilsatsing ble fiasko: Tar tap på flere milliarder
I første kvartal var salget av ID.4-modellen i USA ned hele 96 prosent. Nå stoppes produksjonen, fabrikken gjøres om, og Volkswagen varsler enorme nedskrivninger.
Den tyske bilgiganten Volkswagens beslutning om å stoppe produksjonen av sin eneste amerikanskproduserte elbilmodell vil koste konsernet opp mot 600 millioner dollar i nedskrivninger i første kvartal.


Det tilsvarer drøyt 5,6 milliarder kroner. En VW-talsperson forklarer overfor nyhetsbyrået at VW vil ta en kostnad som tilsvarer 60 til 75 prosent av deres opprinnelige investering på 800 millioner dollar for å omstrukturere Chattanooga-fabrikken i Tennessee, som produserer bilmodellen.

 

Salgsnedgangen for elbiler fortsetter i USA
Norge har gjennom sin omfattende subsidiering dannet et eget "suksesscase" for utbredelsen av elbiler. I tillegg er tilgangen på ladestasjoner omfattende. Men ute i verden har man ikke tatt seg råd til dette:

Tidligere denne måneden rapporterte VW-gruppen om en nedgang på 4 prosent i de globale leveransene i første kvartal, tynget av hard konkurranse og svak etterspørsel i Kina samt tollpress og avviklede elbilsubsidieordninger i USA.
I Kina falt leveransene med 15 prosent, og i USA var nedgangen på 20,5 prosent. Leveransene av helelektriske biler falt hele 64 prosent i Kina og 80 prosent i USA.
Totalt leverte VW-gruppen 2,05 millioner biler i løpet av januar, februar og mars.


Salgstallene i Nord-Europa viser at elbil-andelen fortsatt er ganske stor, med Norge, Sverige, Danmark og Nederland med en andel over 50%. Slik ser det ut (BEV=batterielektriske, PHEV=ladbare hybrider).

Europa (EU + EFTA + UK)

  • 2025 (fullt år): Ca. 19–20 % BEV-andel i nye personbiler.
  • EU27 alene: 17,4 % BEV.
  • EU + Norge: Opp mot 19 % for hele 2025, med rekord 24 % i Q4 2025.
  • Tidlig 2026 (jan–feb): Ca. 19–20 % BEV.

Noen enkelte land i Europa (2025, hovedsakelig BEV-andel):

  • Norge: Rundt 96 % (nesten alle nye biler er elbiler).
  • Sverige: Ca. 61–63 %.
  • Danmark: Ca. 68 %.
  • Nederland: Ca. 56 %.
  • Tyskland: Ca. 22–23 % (største markedet i Europa).
  • Frankrike: Ca. 20–28 % (avhengig av periode).
  • Storbritannia: Ca. 23 %.
  • Italia: Ca. 6–7 % (lavest blant store land).
  • Spania: Ca. 9 %.

Nord-Europa leder klart, mens Sør-Europa ligger lavere. Totalt sett er hybridbiler (ikke-ladbare) fortsatt den største gruppen i mange land, men BEV vokser raskt.

USA

  • 2025 (fullt år): Ca. 7,8–10 % andel av nye bilregistreringer (plug-in EV, hovedsakelig BEV). Noen kilder oppgir rundt 9–11 % inkludert estimater.
  • Salget var svakere enn i Europa, delvis på grunn av endringer i insentiver.

Canada

  • 2025 (fullt år): Ca. 10–11 % ZEV-andel (zero-emission vehicles, inkl. BEV og PHEV). Noen rapporter viser nedgang fra 2024 til rundt 10,3 % for plug-in.
  • Q4 2025: Opp mot 11–12 %.

Australia

  • 2025 (fullt år): Ca. 12–13 % EV-andel (BEV + PHEV).
  • Tidlig 2026: Vokser videre, med månedlige andeler på 11–15 % (f.eks. 14,5 % i mars 2026).


Andelen i bruk vokser mye langsommere enn andelen i nye salg, fordi biler har lang levetid (gjennomsnittlig 15–20 år i flåten).

Europa (EU + EFTA + UK)

  • Ca. 2024/2025: Rundt 4–5 % av total personbilpark er plug-in elbiler (BEV + PHEV). IEA anslår ca. 1 av 20 biler i Europa er elektrisk (ca. 5 %).
  • Totalt antall elbiler i Europa: Over 11–12 millioner plug-in biler ved utgangen av 2023/2024, med fortsatt vekst i 2025.

Noen enkelte land (ca. 2025/2026):

  • Norge: Rundt 32–33 % BEV alene i personbilflåten (over 950 000 BEV, og BEV har passert diesel som største gruppe). Inkl. PHEV nærmere 35–37 %. Norge er i en helt egen liga.
  • Sverige, Nederland, Danmark: Typisk 8–15 % (høyere enn gjennomsnittet i Nord-Europa).
  • Tyskland, Frankrike, Storbritannia: Ca. 3–6 %.
  • Sør-Europa (Italia, Spania): Lavere, ofte under 3 %.

Nord-Europa har klart høyest flåteandel takket være mange års høy salgsandel.

USA

  • Ca. 2023–2025: Rundt 2–3 % av total bilpark er plug-in elbiler. Cumulativt ca. 7 millioner plug-in biler registrert per midten av 2025, men det utgjør en liten del av den enorme totale flåten (over 280 millioner lette kjøretøy).

Canada

  • Ca. 2023–2025: Ca. 2–3 % av total bilpark. Rundt 550 000 plug-in biler i 2023, med moderat vekst siden. Noen kilder viser BEV alene rundt 2 % av registrerte kjøretøy.

Australia

  • Ca. 2025: Ca. 2 % av total bilpark. Flåten passerte 370 000–450 000 EVs i løpet av 2025 (av ca. 20 millioner totale biler). Veksten er rask i nye salg (12–13 %), men flåteandelen er fortsatt lav.

Sammendrag (ca. tall for 2025, total flåteandel)

Område

Andel elbiler i bruk (ca.)

Kommentar

Europa

4–5 %

Høyest i Norden; globalt ca. 1 av 20

Norge

32–37 %

Verdensledende (BEV alene ~32 %)

USA

2–3 %

Lav flåteandel til tross for salg

Canada

2–3 %

Lignende USA

Australia

~2 %

Rask salgsvekst, men liten flåte



Globalt (for sammenligning): Ca. 4 % av alle personbiler var elektriske ved utgangen av 2024 (ca. 58 millioner EVs totalt). Kina ligger på ca. 10 %.


mandag 13. april 2026

Sola og planetene har sterk innvirkning på klimaet

 

Beregnet global havoverflatetemperatur, 1900–2100. Neptunperioden (svart), Uranusperioden (grønn) og temperaturindeksen (rød), representert som summen av periodene.


En definisjon:

Et barysenter (massesenter) er det felles tyngdepunktet to eller flere himmellegemer (som planeter, måner eller stjerner) går i bane rundt. Det er et usynlig, dynamisk punkt der objektene balanserer hverandre, ofte nærmest det mest massive legemet. Jord-måne-systemet går i bane rundt et felles barysenter ca. 1710 km under jordoverflaten. 

 

Når planetene går i bane rundt solen, beveger solen seg rundt solsystemets barysenter. De elliptiske planetbanene forårsaker variasjoner i denne bevegelsen. Endringer i solens bevegelse kan påvirke soldynamoen. Dette kan igjen påvirke solinnstrålingen. Total solinnstrålings-minima (TSI-minima – Total Solar Irradiation minima) oppstår når Uranus og Neptun er nærmest solen. Dype minima oppstår når Saturn, Uranus og Neptun står på linje (Yndestad, 2022).

 

Atmosfæren påvirker strålingen som mottas fra solen. I 1978 startet NASA satellittbaserte målinger av total solinnstråling (TSI). Etter omtrent 30 år ble en rekonstruert TSI-dataserie publisert i 2014, som strekker seg tilbake til år 1700. Dataene indikerer at solstrålingen økte med omtrent 0,3 % over 300 år (Scafetta og Willson, 2014).

 

Disse resultatene bekrefter at TSI varierer over tid og kan påvirke variasjonene i klimaet. En 300 år lang TSI-registrering inneholder også informasjon om kildene til disse solvariasjonene. Hvis solstrålingen varierer med jevne mellomrom, kan det gi innsikt i både tidligere og fremtidige TSI-endringer.

 

 

Den siste lille istiden

 

Den siste lille istiden er beregnet til å strekke seg fra omtrent 1100 til 2200. Innenfor denne perioden beregnes TSI-minima for årene 1535 og 2035. Dype minima er estimert for årene 1214, 1384, 1710, 1889 og 2215. Disse dype minimaene sammenfaller med historiske rapporter om dårlige avlinger, pandemier og migrasjon. Minimumet rundt 1384 startet med Svartedauden og langvarig avkjøling. Minimumet rundt 1710 tilsvarer «The Deep Freeze». De kaldeste periodene i de siste årtusenene. Minimumet rundt 1889 sammenfaller med jordbruksstress og migrasjon til Amerika. Et TSI-maksimum er identifisert rundt 2018. Dette tilsvarer den nylige oppvarmingsperioden. Det neste estimerte minimumet rundt 2035 kan starte en avkjølingstrend mot 2074.

 

Mesteparten av jordoverflaten er dekket av hav. Havets varmekapasitet introduserer en forsinkelse mellom endringer i solstråling og observert temperatur. Globale data om havoverflatetemperatur (1850–2020) viser en slik forsinkelse. Et dypt TSI-minimum rundt 1889 etterfølges av et temperaturminimum rundt 1910. Et maksimum inntreffer rundt 1945, et minimum rundt 1970 og et nytt maksimum rundt 2018.

 

Beregnet havoverflatetemperatur

 

TSI-signaturen gjenspeiles i den globale havoverflatetemperaturen. Maksimal temperaturvekst skjer nær TSI-maksima, etterfulgt av forsinket oppvarming. Beregnede temperaturminima forekommer rundt årene 1248, 1383 og 1911. Dype minima rundt årene 1070, 1570, 1745 og 2071. Minimumet rundt 1745 sammenfaller med maksimal isbreutbredelse i Norge. Det beregnede minimumet i 1911 samsvarer med observerte data fra 1910.

 

Et temperaturmaksimum rundt 2025 fremstår som en 500-årshendelse, sammenlignbar med et maksimum rundt 1570. Dette kan forklare den raske oppvarmingen som er observert de siste tiårene. Et dypt minimum rundt 2071 representerer en tilsvarende storskala hendelse.

 

Endringene i havoverflatetemperatur inkluderer flere planetperioder. Summen av disse danner en temperaturindeks. Indeksen øker fra et minimum rundt 1908 til et maksimum rundt 1952. Den avtar mot 1960-tallet, stiger til et maksimum rundt 2025, og avtar deretter mot et dypt minimum rundt 2074.

 

Overgangen fra maksimum (2025) til dypt minimum (2074) strekker seg over omtrent 50 år. Dette kan virke raskt. Klimaendringer er imidlertid ikke lineære. Endringene i klimaet gjenspeiler summen av samvirkende periodiske prosesser med astronomisk opprinnelse.

 

Vendepunkter

 

Analyse av klimadata antyder en signatur knyttet til solsystemets dynamikk. Mønsteret indikerer at kalde perioder kan følge varme perioder. Resultatene antyder et vendepunkt rundt 2025 og en potensiell avkjøling de neste 50 årene.

 

Økosystemer har en tendens til å utvide seg i varme perioder og trekke seg sammen i kalde perioder. Hvis en klimatisk overgang nærmer seg, vil det være nødvendig med tilpasning i økosystemer, matproduksjon og energisystemer. Hovedspørsmålet er om samfunnet er forberedt på en langvarig kuldeperiode.



Kilde: – Harald Yndestad,
Professor emeritus NTNU-Ålesund, Norway,


fredag 10. april 2026

Verden trengte visst en Irankrig for å bli minnet på oljens betydning for alle samfunnsfunksjoner

 

Denne grafen sier omtrent det som trengs for å trenge bak klimaaktivistnarrativet om at fornybarkraft er i ferd med å overta verden - https://ourworldindata.org/energy-production-consumption

 

Sannheten er at ingen verdensdel lenger kan eksistere og utvikle seg uten stabil, kostnadseffektiv og funksjonell energi. Altså alle forutsetninger som foreliggende "fornybare" energiløsninger ikke tilbyr.


Derfor ser vi at verden øker sitt forbruk av fossile brensler på et langt høyere nivå enn ditto fornybart.

Teknisk energihorisont de neste 50 år: Kjernekraft i stedet for vind og sol
Verdens energipolitikere må slutte å dilte etter FNs selvdestruktive og subsidieforutsettende klimanarrativ og snarest mulig begynne å erstatte dysfunksjonell, arealødende, ulønnsom og ustabil sol- og vindenergi med kjernekraft.

Kort sagt: Hadde man brukt bare en brøkdel av det man allerede har kastet bort på dysfunksjonelle vind- og solanlegg til å optimalisere og videreutvikle kjernekraft hadde verdensøkonomien vært i mye bedre stand.

Fersk rapport: Det norske Kjernekraftutvalget avviser satsing på kjernekraft i Norge
Med fornybaraktivist og SV'er Kristin Halvorsen som utvalgsleder er det vel ikke akkurat overraskende at utvalget ikke vil ha kjernekraftutvikling i Norge.





Lenke: https://www.tu.no/artikler/spikeren-i-kista-for-kjernekraftdrommen/570500




onsdag 8. april 2026

Trump bygger en festning

 

En britisk nyhetsvert forklarte nettopp Trumps strategi bedre enn noen ameikanske media – og han er livredd for hva dette betyr for Europa.

GB News’ Alex Armstrong la frem det geopolitiske kartet som amerikanske medier nekter å tegne: denne krigen handler ikke om å styrte Iran. Den handler om omforme den globale orden – og Amerika vinner på alle fronter.

Start med olje. 45% av Kinas oljeforsyning går over Hormuzstredet. Trump erobret effektivt Venezuelas oljeforsyning i januar. Som Armstrong sa det: «Se hvem som plutselig har fått overtaket.  Amerika kontrollerer nå store deler av Kinas oljeforsyning». Kina er midt i en tollforhandling med Trump – og plutselig er hele energiforsyningen avhengig av amerikansk velvilje.

Så Europa. Med russisk energi av bordet og innenlandsk energi uthult av «venstreradikal besettelse av det grønne skiftet», er Europa i ferd med å bli et helt avhengig av amerikansk olje og gass. Armstrong: «De vil diktere vilkårene og bruke energi som pressmiddel, ikke bare økonomisk, men også geopolitisk.»

Armstrong koblet prikkene til det Pentagon kaller 𝐆𝐫𝐞𝐚𝐭𝐞𝐫 𝐍𝐨𝐫𝐭𝐡 𝐀𝐦𝐞𝐫𝐢𝐜𝐚 — Grønland gjennom Panamakanalen, hele den vestlige halvkule sikret som en selvforsynt amerikansk økonomisk og sikkerhetssone. «Ikke mer globalt politiarbeid, ingen mer endeløse utenlandske forpliktelser, bare en befestet, ressursrik maktbase som andre ikke har noe annet valg enn å stole på. Det er det nye Amerika.»

Den mest slående delen var advarselen hans til Storbritannia: «Vi har ingen energisikkerhet. Vi importerer rundt 60 % av maten vår. Vi har ingen storindustri. Militæret vårt er desimert

Han beskrev at Storbritannia beveger seg mot en mørketid som ikke er sett på over 1000 år etter hvert som Amerika trekker seg tilbake fra sin tradisjonelle rolle.

Når en utenlandsk allierts egne nyhetsankere offentlig innrømmer at Trumps strategi fungerer – og Storbritannia må stille i bakre rekke – sier det alt om hvem som har overtaket.

Resten av verden ser hva amerikanske (og norske) medier ikke vil innrømme: Trump starter ikke kaos. Han bygger en festning.

 

lørdag 28. mars 2026

Mobiltelefonen din blir snart satellitt-telefon.



SpaceX har utviklet og rullet ut Starlink Direct to Cell (nå også kalt Starlink Mobile), som gjør det mulig for vanlige mobiltelefoner å koble seg direkte til Starlink-satellitter uten ekstra utstyr eller spesielle satellittelefoner. Satellittene fungerer som «cellulære tårn i rommet» og bruker eksisterende 4G LTE-teknologi (4G) i telefonene dine.

Hva fungerer i dag (mars 2026)?

  • Tekstmeldinger (SMS/MMS), nødmeldinger og enkel posisjonsdeling er kommersielt tilgjengelig flere steder, blant annet i USA (via T-Mobile som «T-Satellite»), New Zealand og noen andre land gjennom partnere. Tjenesten har vært i bruk siden midten av 2025 og støtter allerede millioner av brukere månedlig.
  • Det kreves ingen ny telefon eller antenne – det funker med de fleste moderne LTE-kompatible mobiler, så lenge du har fri sikt til himmelen.
  • Full tale- og dataforbindelse (voice + begrenset internett) er fortsatt under utbygging. Førstegenerasjons-satellitter gir hovedsakelig tekst, mens neste generasjon (V2) som planlegges lansert fra midten av 2027 med Starship, skal gi 5G-lignende ytelse som kan sammenlignes med vanlig mobildekning.

Status i Norge og Europa

  • SpaceX samarbeider med mobiloperatører globalt (som T-Mobile i USA, Rogers i Canada, KDDI i Japan osv.), og det har vært interesse også fra norske operatører tidligere.
  • Per nå er det ikke bekreftet en full kommersiell lansering i Norge med en lokal partner som Telenor eller Telia. Tjenesten er primært tilgjengelig gjennom partnere i utvalgte land, og dekning utvides gradvis.
  • I praksis betyr det at hvis du er i et område uten vanlig mobildekning (f.eks. fjerntliggende steder, fjell eller til havs), kan telefonen din automatisk koble til Starlink-satellittene der det er støtte – akkurat som en satellittelefon, men med din vanlige mobil.

Oppsummert

Muligheten er på vei og delvis her allerede for tekstmeldinger via partnere. SpaceX har over 650 dedikerte Direct to Cell-satellitter i bane, og de jobber aktivt med å utvide til tale og data. For Norge avhenger det av avtaler med norske operatører – følg med på nyheter fra Telenor, Telia eller Starlink selv for oppdateringer.









Enkelte kan minke risikoen for å utvikle Alzheimers om de spiser rødt kjøtt.

 ApoE er et gen som hjelper kroppen med å lage en bestemt type protein som kan kombineres med fett for å lage molekyler kalt lipoproteiner som spiller en rolle i kolesterolkontrollen.

Det finnes tre forskjellige former, eller alleler, som ApoE kan ta: ApoE2, ApoE3 og ApoE4. Siden folk arver ett allel fra hver av foreldrene sine, betyr dette at det finnes seks forskjellige mulige varianter: 2/2, 2/3, 2/4, 3/3, 3/4 og 4/4.

ApoE4-allelet er den sterkeste risikofaktoren for å utvikle Alzheimers sykdom. Et betydelig antall personer med tilstanden har allelet i 4/4-genotypen.

Forskere i Sverige fulgte 2000 personer i 15 år, og forventet å finne at personer med høyrisikogenet ApoE4, som spiste mer rødt kjøtt, ville lide av en økning i demens. I stedet viste studien det motsatte. Personer med ApoE4-genet som hadde lavere inntak av rødt kjøtt, hadde «mer enn dobbelt» risiko for Alzheimers. Men ApoE4-personene med det høyeste kjøttforbruket hadde samme risiko som personer uten det risikable genet.

Det er en mørk mulighet for at alle de årene med vegansk arbeid som presset folk til å spise mindre rødt kjøtt for å «redde planeten», kan ha kommet på bekostning av en økning i Alzheimers.

ApoE4 er en variant, der omtrent 30 % av den svenske befolkningen har én eller to kopier av ApoE4. Dette gir dem stor risiko til å utvikle Alzheimers. Selv én kopi av varianten øker risikoen to eller tre ganger, og to kopier øker risikoen ti ganger, noe som er ganske ille. Blant personer med Alzheimers har omtrent 70 % ApoE4-genet.

For å være tydelig, det å spise mer kjøtt endret ikke risikoen for personer med ApoE3- eller E2-variantene. Og bearbeidet kjøtt hjalp ingen. Denne studien antyder at personer med ApoE4-genet trenger mer kjøtt enn andre. Kan det være at rødt kjøtt bare har høyere innhold av B12, sink, jern, B6, kreatin, karnitin, kolin og taurin, og at det løser en næringsmangel?

Men den gode nyheten i denne studien er at personer med ApoE4 kan redusere risikoen med en god biff eller ti.

Redusert dødelighet også?

Du lurer kanskje på om mer rødt kjøtt reduserte demens hos personer med høy risiko, men deretter økte hjerteinfarkt og kreft. Men ApoE4-personer som spiste de høyeste nivåene av kjøtt, hadde også større sannsynlighet for å leve lenger. Det tyder på at det er noe veldig reelt på gang.

Funnene strekker seg også utover hjernens helse. I en oppfølgingsanalyse observerte forskerne en betydelig reduksjon i total dødelighet hos bærere av ApoE 3/4 og 4/4 med høyere forbruk av ubearbeidet kjøtt.

Hva vil de grønne fanatikere gjøre når en tredjedel av befolkningen hevder at det å legge karbonavgifter på kyr, eller å gjøre kjøtt dyrere, kan øke risikoen for demens?

Hvem vil fortelle veganerne med ApoE4 hva fremtiden bringer?

 

Dette kan være begynnelsen (endelig) på tilpassede dietter.

 En dag kan leger og ernæringseksperter kanskje anbefale flere forskjellige typer dietter for forskjellige mennesker. Men for øyeblikket må vi bare stole på en halv milliard år med evolusjon som finjusterte smaksløkene våre i samspill med dopaminbelønningssystemet. Disse instinktene blir ødelagt av fabrikkmat og tilsetningsstoffer, men det ser i det minste ut til å fungere med ubearbeidet mat.

 

ApoE4 er den eldgamle genetiske varianten.

ApoE4 er den opprinnelige varianten i den menneskelige befolkningen som dateres tilbake millioner av år. ApoE3-varianten oppsto for omtrent 300 000 år siden, og deretter dukker ApoE2 og en sjeldnere type opp først etter det. De to sistnevnte typene har begge lavere risiko for demens.

 

«Denne studien testet hypotesen om at personer med ApoE 3/4 og 4/4 ville ha redusert risiko for kognitiv svikt og demens med høyere kjøttinntak, basert på det faktum at ApoE4 er den evolusjonært eldste varianten av ApoE-genet og kan ha oppstått i en periode da våre evolusjonære forfedre spiste et mer animalsk kosthold», sier førsteforfatter Jakob Norgren, forsker ved Institutt for nevrobiologi, vårdvitenskap og samfunn, Karolinska Institutet.

Studien fulgte mer enn 2100 deltakere i den svenske nasjonale studien om aldring og omsorg, Kungsholmen (SNAC-K) i opptil 15 år. Alle var 60 år eller eldre og hadde ingen diagnose av demens ved studiestart. Sammenhengen mellom selvrapportert kosthold og kognitive helsemål ble analysert, justert for alder, kjønn, utdanning og livsstilsfaktorer.

Det ser ut til at ApoE4-varianten kan hjelpe folk med bedre fettopptak og et sterkere immunforsvar, men den utviklet seg i en tid da hominider spiste mer kjøtt.

 

 

Referanse:  ”Meat Consumption and Cognitive Health by APOE Genotype”, Jakob Norgren, Adrián Carballo-Casla, Giulia Grande, Anne Börjesson-Hanson, Hong Xu, Maria Eriksdotter, Erika J Laukka, Sara Garcia-Ptacek, JAMA Network Open, online March 19, 2026,