Halvledarkrisen förklarad: ”AI dammsuger allt”
Det är inte en ny pandemilik chipkris som skakar marknaden. I stället är det AI-investeringarna som tömmer lagren på de mest avancerade halvledarna och minnena, enligt halvledarexperten Klas Moreau. Det skapar nya ekonomiska risker – inte främst för chipjättarna själva, utan för deras kunder. Samtidigt driver USA:s teknikrestriktioner Kina att snabbare bygga upp en egen chipindustri.

Under pandemin lamslogs globala leveranskedjor och stora delar av industrin stod plötsligt utan datorchip, vilket påverkade allt från bilar till hushållsapparater. Men så ser det inte ut i dag.
– Egentligen är det inte någon generell halvledarbrist. Det är brist på vissa halvledare inom specifikt AI-området, men i andra områden finns det gott om dem, säger Klas Moreau.
Han var tidigare vd för halvledarbolaget Zeropoint Technologies men arbetar idag som oberoende expert inom halvledare och AI. Han betonar att situationen skiljer sig tydligt från krisåren.
Tre flaskhalsar
Enligt Klas Moreau handlar dagens brist om tre tydliga flaskhalsar där efterfrågan rusat ifrån utbudet.
För det första gäller det de mest avancerade logikkretsarna som används i AI-acceleratorer och grafikprocessorer. Det tillverkas i de senaste noderna, två eller tre nanometer, och där finns det inte så gott om kapacitet.
För det andra rör det sig om specialiserat minne, så kallat HBM (High Bandwidth Memory), som behövs för att mata AI-modeller med enorma datamängder i hög hastighet.
– För att exekvera de här modellerna behöver du minne, och det är ett speciellt minne som används här. Det är också en resurs som det är ganska ont om, säger Klas Moreau.
Den tredje flaskhalsen finns i själva paketeringen, där chip och minne monteras ihop med avancerade metoder.
– När du monterar ihop de här chippen och minnena använder du en teknologi som också är ganska begränsad i kapacitet, säger Klas Moreau.

AI slukar minnesmarknaden
Effekterna stannar inte i AI-hörnet. HBM-minnen byggs i grunden av samma typ av komponenter som används i vanliga servrar, till exempel så kallade DDR5-minnen. Minnestillverkarna står därmed inför ett val: sälja standardminne till datacenter och konsumenter – eller packa ihop det i HBM-stackar till AI-acceleratorer, där betalningsviljan är betydligt högre.
– De kan sälja DDR5-minnen till en gamer eller till ett vanligt datacenter, eller packa ihop dem i en HBM-stack och sälja till AI-acceleratorer där de får väsentligt mycket mer betalt. Då blir beslutet ganska självklart, säger Klas Moreau.
Konsekvensen är att tillgången på nyare standardminne blir sämre, men även DDR4 har med ökad efterfrågan blivit svårare och dyrare att få tag på.
FAKTA om chipproduktion: Så mycket går till AI
Över 70 procent av produktionen av det mest avancerade minnet – som HBM och högpresterande server-DRAM – går nu till AI-relaterade datacenter. Källa: WSJ
AI-acceleratorer komma att stå för ungefär 50 % av chipanvändningen inom datacentersegmentet fram mot slutet av decenniet. Källa: PWC
Vinnare – och nya förlorare
De uppenbara vinnarna är bolagen som sitter närmast AI-efterfrågan. Tillverkare av avancerade chip och minnen har fulla orderböcker och stark prissättningsmakt. Men Klas Moreau pekar på att riskerna i stället växer hos deras kunder.
Många nya datacenteraktörer har byggt affärsmodeller på att köpa in stora mängder AI-hårdvara och hyra ut kapaciteten. Problemet är att teknikutvecklingen går så snabbt att hårdvaran behöver bytas ut oftare än kalkylerna byggt på.

– Om du har en affärsmodell där du hyr ut kapaciteten och skriver av hårdvaran på tre till fem år, men helt plötsligt måste byta den efter två år, då får du en helt annan ekvation. Det är jättebra att Nvidia snabbt lanserar ny hårdvara vartannat år, men det gör det väldigt jobbigt för deras kunder, säger han.
Klas Moreau menar att Nvidia är den tydligaste vinnaren – medan Intel har hamnat på efterkälken.
– Nvidia har gjort en extrem resa när det gäller GPU:er och att tillgodose behovet av beräkningskraft för AI. Men ett företag som inte har gjort samma resa är Intel. De har inte lyckats hänga med på det här tåget och är en av förlorarna, säger han.
FAKTA om flaskhalsarna: Därför är AI-chip så svåra att få tag på
Avancerade logikkretsar: Tillverkas i de mest avancerade tillverkningsnoderna (cirka 2-3 nanometer). Den globala kapaciteten i dessa noder är begränsad och koncentrerad till ett fåtal fabriker.
HBM-minne (High Bandwidth Memory): Ett specialiserat, staplat minne som krävs för att mata stora AI-modeller med data i mycket hög hastighet. Produktionen är tekniskt komplex och betydligt mer begränsad än för vanligt serverminne.
Avancerad paketering (t.ex. CoWoS): Själva monteringen där logikkretsar och HBM-minne kopplas ihop kräver avancerade paketeringstekniker, som också har kapacitetstak och långa ledtider.
Tillsammans skapar dessa tre led en strukturell flaskhals för produktionen av AI-acceleratorer.
Europa mindre utsatt
Trots den samhälleligt hårda retoriken om europeiskt beroende av utländska halvledare är effekten hittills begränsad för mycket av traditionell industri i Europa. Istället är det just datacenter som satsar på den allra senaste AI-tekniken som har utmaningar. Samtidigt menar Klas Moreau att frågan är större än dagens flaskhalsar.
– Halvledare är lika viktigt som el och internet för företag i dag. Det måste man ta i beaktande och ha en horisont som sträcker sig förbi en mandatperiod, säger han.
Sanktioner som drivkraft
Geopolitiken spelar också in. USA:s exportrestriktioner mot Kina syftade till att bromsa landets teknikutveckling. Enligt Klas Moreau har de dock samtidigt haft en annan effekt.
– Det har blivit en drivkraft för Kina att snabbare ta sig till en punkt där de blir oberoende. Det gör att halvledarmarknaden på sikt kan bli mer uppdelad, med parallella tekniska ekosystem, säger Klas Moreau.
Hur länge varar då dagens AI-drivna bristsituation? Klas Moreau tror att det dröjer bortåt 2027–2028 innan det blir någon form av balans. Samtidigt ser han att nästa våg av chipslukande utrustning redan är på väg.
– Det vi ser nu är bara den första vågen. Nästa steg är fysisk AI, med robotar och autonoma system, säger Klas Moreau.
FAKTA om bristen: Därför slår AI även mot vanligt minne
HBM-minne byggs av samma typ av DRAM-chip som DDR5. Det innebär att de konkurrerar om kapacitet i samma avancerade minnesfabriker.
Tillverkarna prioriterar HBM till AI eftersom de har betydligt högre marginaler och större långtidskontrakt än vanligt server- eller konsumentminne. Det gör att produktion styrs mot HBM framför DDR5.
När mer kapacitet går till HBM minskar utbudet av DDR5. Samtidigt används äldre DDR4 fortfarande i stora volymer i servrar och industriella system, trots att tillverkarna gradvis fasar ut tekniken. Det krymper tillgången ytterligare.
Mindre utbud ger bredare pristryck. När både DDR5 och DDR4 får lägre produktion påverkas hela marknaden. Resultatet blir sämre tillgång och högre priser även utanför AI-segmentet.


