Datacenter och AI driver snabbt ökande elbehov. Lär dig hur Google och Microsoft jobbar med fossilfri kraft, flexibilitet och AI-styrning för hållbar drift.
AI och datacenters energi: så pressas elnätet hållbart
USA:s datacenter drog 176 TWh el under 2023 – 4,4 % av landets totala elförbrukning. Prognoser pekar mot 580 TWh till 2028, alltså runt 12 %. Det är inte en kurva som ”planar ut”. Den drivs av AI: fler modeller, större modeller, fler användare, fler inference-körningar, mer lagring, mer nätverk.
Och här kommer en obekväm sanning: många företag pratar om ”grön IT”, men behandlar datacentret som en svart låda. Det funkar inte längre. När hyperscalers som Google och Microsoft ändrar hur de köper el, hur de designar serverhallar och hur de styr laster i realtid, blir det en mall för resten av marknaden – även för svenska verksamheter som kör kritiska system i molnet eller bygger egna AI-kluster.
Det här inlägget är en del av serien ”AI inom energi och hållbarhet”. Vi tar avstamp i hur Google och Microsoft nu tävlar om att lösa datacenters elproblem – och översätter det till praktiska lärdomar: vad som faktiskt sänker utsläpp, vad som minskar kostnader, och varför AI-styrning av energiflöden snabbt blir lika viktig som själva AI-modellerna.
Datacenterboomen skapar två problem samtidigt
Kärnpunkten: Datacenter växer så snabbt att elnät, elpriser och klimatmål kolliderar – om inte driften blir smartare.
För det första: effekt. Det är inte bara hur många TWh som förbrukas per år, utan hur mycket som krävs samtidigt. AI-träning kan innebära extrema toppar, och om många anläggningar toppar samtidigt får nätet problem. Konsekvensen i flera regioner (särskilt i USA) har varit planer på mer gaseldad kraft och förlängd drift av kol för att möta efterfrågan.
För det andra: resiliens och backup. Datacenter ska vara uppe oavsett storm, fel i nätet eller kapacitetsbrist. Traditionellt har det betytt dieselgeneratorer. De används sällan, men när de väl körs blir utsläppen och de lokala luftföroreningarna tydliga.
Här finns en viktig läxa för alla som jobbar med hållbarhet: ”100 % förnybart på årsbasis” räcker inte som mått. Det som betyder något för klimatet – och för elnätets stabilitet – är timme för timme och var elen kommer ifrån.
Google och Microsoft jagar ”ren, stabil” el – inte bara mer förnybart
Kärnpunkten: När AI ökar elbehovet räcker inte vind och sol ensamma; datacenter behöver också ren planerbar kraft.
På SOSV Climate Tech Summit beskrev Google hur man investerar i teknik som kan leverera ”clean firm power” – el som är fossilfri och tillgänglig dygnet runt. Två spår sticker ut:
Geotermi som passar datacenterlogiken
Google har tidigt stöttat nästa generations geotermi, där borrning och reservoarteknik används för att skapa stabil värme/ånga även där traditionell geotermi är svår. Poängen är inte att geotermi är ”nytt”, utan att det kan bli skalbart på fler platser och leverera jämn produktion som matchar datacenters dygnsprofil.
För ett datacenter är det här attraktivt eftersom:
- produktionen är jämn (mindre behov av överdimensionerad lagring)
- den kan byggas nära last (mindre nätträngsel)
- den fungerar vintertid när sol bidrar mindre (relevant även i Norden)
SMR och kärnkraftsavtal som ”kapacitetsförsäkring”
Google har också tecknat avtal kopplade till små modulära reaktorer (SMR). Microsoft har i sin tur stöttat en plan för återstart av en reaktor (Three Mile Island Unit 1) via ett långsiktigt elköpsavtal.
Man kan tycka olika om kärnkraftens roll, men här är sakfrågan: hyperscalers köper inte bara energi – de köper leveranssäkerhet och förutsägbarhet. När AI-laster växer är det inte konstigt att de söker kraftslag som kan minska beroendet av fossil ”toppkraft”.
Den snabbaste klimatvinsten: gör datacentret flexibelt
Kärnpunkten: Lastflexibilitet är ofta billigare och snabbare än att bygga ny elproduktion – och AI är nyckeln.
Det mest intressanta i kapplöpningen är inte bara vilka kraftslag som byggs, utan hur själva datorlasten börjar bete sig som en energiresurs.
Google har exempelvis samarbetat med ett elbolag i Nebraska för att minska maskininlärningslast under extrema väderhändelser. Det låter enkelt, men det kräver tre saker som många organisationer saknar:
- Förutsägelse: kunna estimera hur mycket last som kan flyttas utan att tjänsterna går sönder.
- Orkestrering: kunna pausa, flytta eller sänka prioritet på jobb (batch, träning, vissa inference-flöden) i realtid.
- Affärslogik: veta vad som är ”billigt att vänta” och vad som är dyrt.
Här spelar AI dubbla roller:
- AI driver efterfrågan (mer beräkning)
- men AI kan också optimera efterfrågan (smartare styrning)
Praktiskt: vilka AI-arbetslaster är faktiskt flyttbara?
Jag brukar dela in det så här, för att göra det konkret:
- Hög flyttbarhet: modellträning, dataförädling/ETL, rapportgenerering, vissa simuleringar.
- Medel: sökindexering, rekommendationsmodeller som kan uppdateras i fönster, vissa backoffice-inferenser.
- Låg: realtidsinference för kritiska tjänster, transaktionssystem, latency-känsliga API:er.
En hållbarhetsstrategi som inte skiljer på dessa tre kategorier blir ofta mest powerpoint.
Backup utan diesel: vätgas, bränsleceller och batterier
Kärnpunkten: Diesel är på väg att bli en reputationsrisk; alternativen handlar om teknik och driftmodell.
Microsoft har pekat ut vätgasbränsleceller och avancerade batterier som ersättare till diesel för backup. Det är logiskt, men det är inte ett ”byt aggregat”-projekt. Det kräver:
- bränslelogistik (hur säkras vätgasen, var lagras den, hur levereras den vid kris?)
- säkerhetsklassning och tillstånd
- testregimer som ger samma förtroende som diesel (driftpersonalens perspektiv är avgörande)
Batterier då? Dagens litiumjonbatterier räcker ofta i några timmar. För datacenter som vill hantera längre avbrott behövs antingen fler batterier (dyrt, yta) eller teknik för långvarig energilagring.
8–24 timmar är en brytpunkt
I praktiken är 8–24 timmars lagring en avgörande nivå för att:
- täcka kväll/natt när sol saknas
- hantera vindstilla perioder kortsiktigt
- låta datacentret ”rida ut” nätstörningar utan att starta fossil backup
Längre än så (t.ex. 100 timmar) är spännande, men för många verksamheter kommer den största nyttan först när man kan göra dygnsoptimering och avbrottsrobusthet utan diesel.
AI i energistyrning: från hållbarhetsrapport till driftbeslut
Kärnpunkten: Den stora förflyttningen är att hållbarhet blir en driftsparameter – styrd av data, prognoser och optimering.
Här är ett mönster jag ser hos organisationer som lyckas: de slutar prata om ”energi” som ett separat spår och börjar prata om styrning.
Tre AI-funktioner som gör verklig skillnad
-
Prognoser för belastning och elpris (15 min–7 dagar) Det möjliggör planerade ”lågintensiva” perioder för batchjobb och modellträning.
-
Koldioxidintensitet per timme Timstyrning gör att du kan flytta beräkning till tider med högre andel fossilfri produktion.
-
Optimering med begränsningar Målet är inte att minimera kWh till varje pris, utan att minimera klimatpåverkan och kostnad utan att bryta SLA, deadlines eller säkerhetskrav.
Ett bra riktmärke: Om ni inte kan beskriva vilka jobb som kan pausas i 30 minuter utan affärsskada, då har ni ingen lastflexibilitet – bara ambition.
Vad betyder detta för svenska företag och energibolag?
Kärnpunkten: Även om statistiken i artikeln är amerikansk är mekaniken densamma i Sverige: effekt, flexibilitet och fossilfrihet timme för timme.
Sverige har en stark bas av fossilfri el, men vi har också:
- regionala flaskhalsar i nätet
- perioder med höga priser och ansträngd effektbalans
- snabb tillväxt av elintensiva verksamheter (inklusive AI)
För svenska företag som bygger AI-kapacitet eller flyttar mer till molnet är lärdomen: ställ krav som driver rätt beteende. Några praktiska exempel att använda i upphandling och intern styrning:
- Kräv timvis redovisning av utsläpp kopplat till elanvändning (inte bara årsmedel).
- Fråga efter stöd för demand response: kan leverantören minska eller flytta last vid nätstress?
- Sätt mål för PUE (energieffektivitet) men komplettera med mål för CUE (koldioxid per använd energi) och realtidsprofil.
- Säkerställ att AI-projekt har en ”energy budget” och en plan för när jobb körs.
För energibolag och nätägare är budskapet lika tydligt: datacenter är inte bara ”kunder”, de kan bli styrbara resurser – om incitament, mätning och avtal är rätt designade.
Så kommer du igång: en 30-dagars plan för AI och energismart drift
Kärnpunkten: Du behöver inte vänta på ny kraftproduktion; börja med data, klassning och styrning.
-
Vecka 1: Kartlägg lasttyper Lista era största beräkningsjobb och kategorisera dem i hög/medel/låg flyttbarhet.
-
Vecka 2: Mät rätt saker Samla timdata för el, kostnad och (om möjligt) koldioxidintensitet. Koppla till jobb-id eller kluster.
-
Vecka 3: Inför styrregler Exempel: ”modellträning får inte starta 07:00–09:00 vardagar” eller ”batchjobb pausas vid pristopp”.
-
Vecka 4: Automatisera med AI/optimering Lägg på prognos + optimering. Börja enkelt: flytta jobb i tiden innan du flyttar mellan regioner.
Det här är också ett bra sätt att skapa interna wins: mindre kostnad, mindre klimatpåverkan, och ofta bättre robusthet.
Nästa kapitel i energikapplöpningen skrivs i mjukvara
Datacenterkapacitet växer för att AI-efterfrågan växer. Det går inte att förhandla bort. Men det går att styra hur dyrt, hur smutsigt och hur nätstressande det blir.
Google och Microsoft visar två saker samtidigt: investeringar i fossilfri planerbar kraft är en del av lösningen, men AI-driven lastflexibilitet och effektivare hårdvara är den snabbaste vägen till resultat här och nu.
Om du ansvarar för AI, IT-drift, energiinköp eller hållbarhet: vilken del av er beräkning kan ni faktiskt flytta redan denna vinter – och vad skulle det göra med både elräkning och utsläppsprofil?