AI för att hantera datacenters skenande elbehov

AI inom energi och hållbarhetBy 3L3C

Datacenter driver skenande elprognoser. Så kan AI ge bättre lastprognoser, lägre kostnader och mindre utsläpp med flexibilitet som standard.

DatacenterAIEnergiprognoserLastflexibilitetSmarta elnätEnergieffektivisering
Share:

Featured image for AI för att hantera datacenters skenande elbehov

AI för att hantera datacenters skenande elbehov

Elnätsplanerare i USA sitter just nu med prognoser som nästan känns som science fiction: toppeffekten i elnätet väntas öka med 166 gigawatt till 2030, enligt en sammanställning av nätbolagens egna femårsprognoser. Det är en siffra som är sex gånger högre än vad som förutsågs för bara tre år sedan. Och den största förklaringen är varken elbilar eller värmepumpar – utan datacenter, drivna av AI och molntjänster.

Det här är inte bara ett amerikanskt fenomen. Samma logik syns i Europa och Norden: när generativ AI, video, edge-tjänster och företagsmoln växer snabbt blir datacenter en ny “tung industri” – fast med kortare investeringscykler och mer osäker efterfrågan. För energisystemet är det en mardröm om man planerar fel: överinvesteringar, högre elpriser och i värsta fall en återkomst för fossil kraft “för säkerhets skull”.

I den här artikeln, som ingår i serien AI inom energi och hållbarhet, tar jag ställning för en enkel idé: vi kommer inte klara datacenterboomen med gårdagens prognosmetoder och gårdagens driftlogik. Det som behövs är smartare lastprognoser, flexibilitet som standard – och AI som faktiskt används för att minska både kostnader och utsläpp, inte bara för att skapa mer datorkraft.

Prognoserna rusar – men osäkerheten är större än många vill erkänna

Kärnpunkten: Elprognoserna för datacenter är extrema och kan vara kraftigt överskattade, vilket riskerar att driva fram dyra och smutsiga investeringar.

I underlaget som rapporteras från amerikanska elbolag syns en dramatisk kurva: till 2030 bedöms topplasten öka med 166 GW. Av detta bedöms cirka 90 GW komma från datacenter. För att sätta storleksordningen: det handlar om elbehov i nivå med hela länder, inte enskilda städer.

Samtidigt pekar analysen på att nätbolagens prognoser kan överskatta datacenterlasten med upp till 40 %. Det låter som en teknisk detalj, men konsekvensen är brutal. Om man bygger nät, transformatorstationer och kraftproduktion för en last som inte kommer – eller som bara finns i tre år innan nästa teknikskifte – hamnar notan hos kunderna.

Varför blir det fel? Dubbelräkning och “guldrush”-beteende

Det finns två tydliga mekanismer som gör datacenterprognoser svåra:

  • Dubbel- och trippelräkning: Datacenteraktörer kan ansöka om anslutning i flera regioner samtidigt för att jämföra villkor, ledtider och priser. I prognoserna ser det då ut som flera säkra projekt, fast det i praktiken är samma.
  • Spekulativa projekt: När marknaden är het kan utvecklare “säkra upp” mark och kapacitet tidigt. En del projekt blir aldrig av.

Resultatet blir att energisystemet riskerar att agera på önskelistor i stället för på verklig, kontrakterad efterfrågan.

När fel prognos blir dyr elräkning – och fossilgas som standardlösning

Kärnpunkten: Överdrivna lastantaganden driver upp kapacitetskostnader och skapar incitament att bygga fossil reservkraft.

I USA används de här prognoserna redan som argument för att investera massivt i ny produktion och nät. I flera regioner har detta kopplats till kraftigt ökade kapacitetskostnader – alltså de kostnader som ska säkerställa att det finns resurser för topplast. I en stor marknad ökade dessa kostnader från 2,2 miljarder dollar (2023) till 14,7 miljarder dollar (2024) och vidare till 16,1 miljarder dollar i nästa auktion.

Översatt till svensk verklighet: när topplast och systemstress stiger blir det dyrare att “försäkra” elsystemet. Det slår på nätavgifter, elprisområden och på industrins kalkyler. Och när tidspressen är hög väljer många beslutsfattare den snabbaste leveransen, inte den renaste.

Varför hamnar fossil kraft i centrum?

För många nätägare och politiker upplevs fossilgas som en trygg knapp att trycka på:

  • Den kan ofta byggas snabbare än stora nätförstärkningar.
  • Den är enkel att planera runt: kör vid topp, stå still annars.
  • Den passar ett tänk där last är “fast” och inte går att styra.

Problemet är att datacenterlast är styrbar – om vi designar den så.

Datacenter är inte en “fast last” – de kan bli en flexibel resurs

Kärnpunkten: Datacenter kan bidra till nätstabilitet och lägre systemkostnader genom lastflexibilitet, om incitament och teknik finns på plats.

Det största missförståndet är att datacenter måste dra maximal effekt dygnet runt. Vissa delar gör det. Men mycket kan optimeras:

  • AI-träning kan ofta schemaläggas när elen är billigare och renare.
  • Icke-kritiska batchjobb kan pausas korta perioder.
  • Kylsystem och energilager kan jämna ut toppar.
  • Geografisk lastbalansering kan flytta jobb mellan sajter beroende på nätläge.

I praktiken innebär det att datacenter kan bli en typ av “industriflex”, jämförbar med hur vissa svenska industrier deltar i stödtjänster – fast i mycket större skala.

Tre nivåer av flexibilitet som fungerar i verkligheten

  1. Operativ flexibilitet (minuter–timmar): Stäng av/ner vissa arbetslaster vid pristoppar eller nätlarm.
  2. Termisk flexibilitet (sekunder–minuter): Utnyttja kylsystem och värmetröghet för att kapa toppar utan att påverka SLA.
  3. Strukturell flexibilitet (dagar–veckor): Planera träningskörningar mot prognoser för elpris, väder och nätkapacitet.

Det här är exakt den typ av problem där AI passar bra – men då måste AI riktas mot energifrågan, inte bara mot fler GPU:er.

Så används AI för bättre energiprognoser i datacenter (och varför det ger leads)

Kärnpunkten: AI kan minska både prognosfel och energikostnader genom att koppla samman IT-last, kylning och elsystemdata.

När jag pratar med verksamheter som vill “göra något med AI” i energifrågor ser jag ett återkommande mönster: man börjar med en dashboard. Det är okej. Men den stora nyttan kommer när man bygger en styrmodell som tar beslut.

Här är fyra konkreta AI-tillämpningar som passar datacenter och energisystem – och som dessutom är lätta att motivera affärsmässigt:

1) Sannolikhetsprognoser i stället för punktprognoser

I stället för att säga “behovet blir 100 MW” bör man säga “behovet blir 60–110 MW med 80 % sannolikhet”. Det gör att investeringar kan fasas och att nätbolag kan planera efter risk, inte efter maximal gissning.

Praktiskt:

  • Kombinera pipeline-data (planerade rack, GPU-leveranser, kundkontrakt) med historiska driftmönster.
  • Använd modeller som ger osäkerhetsintervall, inte bara medelvärde.

2) Prediktiv styrning av kylning och PUE

Kylning är ofta den snabbaste vägen till effektkapning. Med AI-baserad prediktiv styrning kan man:

  • förutse värmelast 15–60 minuter framåt,
  • optimera fläktar, pumpar och setpoints,
  • minska toppeffekt utan att tumma på temperaturkrav.

3) Energioptimerad schemaläggning av AI-träning

AI-träning är energitung och ofta relativt flexibel. Nyckeln är att koppla jobbschemat till:

  • timpris,
  • CO₂-intensitet,
  • lokal nätbelastning,
  • egenproduktion och batteristatus.

Det ger en tydlig KPI: kronor per tränad modell och kg CO₂ per tränad modell.

4) Flexibilitet som produkt: delta i stödtjänster

Datacenter kan bli en aktiv aktör i flexibilitetsmarknader och stödtjänster genom:

  • snabb lastreduktion,
  • batterier,
  • UPS-system som redan finns onsite.

Men det kräver styrning, mätning och avtalslogik. AI kan hjälpa till att avgöra när det lönar sig att vara flexibel utan att riskera leverans.

En mening att bära med sig: Ett datacenter som kan kapa 10–20 % av toppeffekten vid rätt tillfällen är mer värdefullt för elsystemet än ett datacenter som “bara” köper grön el.

Policy och affärslogik: så undviker vi att hushållen betalar notan

Kärnpunkten: Kostnaderna ska hamna där besluten tas – och incitamenten måste premiera flexibilitet och verifierad efterfrågan.

Rapporteringen från USA visar hur snabbt kostnader kan vältras över på kunder när kapacitetsbehovet antas explodera. Det är en varningssignal även här.

Det som fungerar (och som jag tycker borde bli standard även i Europa) är en kombination av:

  • Bindande anslutningsavtal: Mindre utrymme för spekulativa ansökningar.
  • Kostnadsallokering: Den som orsakar nätförstärkning ska bära en större del av kostnaden.
  • Krav på lastflexibilitet: Nya storskaliga anslutningar ska ha dokumenterad förmåga att reducera last vid systemstress.
  • Transparens i prognoser: Redovisa intervall, antaganden och hur mycket som är “osäkert pipeline”.

För datacenterägare är detta inte bara “regler”. Det är en chans att vinna tid. Ett projekt med tydlig flexibilitetsplan och mätbar styrning får ofta lättare att motivera anslutning och villkor.

Vad du kan göra nu: en checklista för smartare datacenterenergi

Kärnpunkten: Börja med mätning och styrbarhet – först därefter kommer optimeringen.

Om du jobbar med energi, fastighet, IT eller hållbarhet och vill omsätta detta i praktik, här är en rak start:

  1. Kartlägg lastprofiler per system: IT-last, kylning, UPS, belysning, övrigt.
  2. Identifiera flex-laster: vilka jobb kan flyttas, pausas eller köras i lågprioritet?
  3. Sätt två KPI:er som styr beslut:
    • kW toppeffekt per MW IT-last
    • kg CO₂ per bearbetad enhet (t.ex. per träningskörning)
  4. Bygg en prognos med osäkerhet (intervall) och koppla den till affärsbeslut.
  5. Testa ett flex-scenario en gång i månaden: simulera nätstress och se vad som händer.

Det är inte glamoröst. Det är däremot det som brukar ge effekt på elräkningen.

Nästa steg: AI måste minska energitrycket, inte bara skapa det

Datacenter driver upp elbehovet snabbt, och prognoserna riskerar att bli självuppfyllande om de används för att motivera fel investeringar. När elbolag planerar för “stad-stora” laster som sedan uteblir får vi ett system som både är dyrt och svårt att ställa om.

Det finns en bättre väg: AI för prognoser, AI för styrning och AI för flexibilitet. Det handlar om att göra energianvändningen i datacenter lika optimerad som själva mjukvaran – med mätbara resultat i kW, kronor och CO₂.

Om 2026 blir året då fler verksamheter på allvar börjar bygga AI-lösningar för smarta elnät och energieffektivisering, så borde datacenter stå högst upp på listan. Frågan är inte om elbehovet växer. Frågan är: vem bygger intelligensen som gör att tillväxten inte knäcker systemet?

🇸🇪 AI för att hantera datacenters skenande elbehov - Sweden | 3L3C