Företagen bakom artificiell intelligens (AI) har skyhöga ambitioner när det gäller intelligensen hos sina skapelser – och potentialen att tjäna pengar på dem. Men dessa artificiellt intelligenta maskiner medför astronomiska elräkningar. OpenAI har nu planer på att bygga ett datacenter som potentiellt kommer att kräva lika mycket el som hela Indien!
I ett internt memo avslöjar OpenAI:s VD Sam Altman en ambition att bygga upp till 250 gigawatt datorkapacitet fram till 2033. Som jämförelse kommer datacentret att släppa ut dubbelt så mycket koldioxid som ExxonMobil, som annars är den största icke-statliga koldioxidutsläpparen på planeten.
30 miljoner GPU:er – per år
Datacentret kommer att rymma cirka 60 miljoner grafikprocessorer (GPU:er). Och detta är inte en engångsinvestering. För att upprätthålla sin datorkapacitet kommer centret att behöva byta ut 30 miljoner GPU:er varje år. Eftersom processorerna arbetar med full kapacitet dygnet runt kommer deras beräknade livslängd att vara bara två år, vilket kräver kontinuerligt utbyte.
Sam Altman har inte för avsikt att betala denna räkning själv. OpenAI har specifikt bett USA att utvidga den befintliga skattelättnaden i CHIPS Act till att även omfatta AI-infrastruktur. Sam Altman betonar att de inte ber regeringen om en påse med pengar för att täcka företagets enorma utgifter – de vill bara bli befriade från att betala skatt. Detta för att de ska kunna bygga den infrastruktur som kommer att säkra USA:s seger i AI-kapplöpningen.
Jensen varnar: Kina vinner på gratis energi
Den enorma tillväxten inom AI-infrastruktur sätter märkbar press på energiförsörjningen. Nvidias vd Jensen Huang har en knivskarp prognos: han tror att Kina kommer att vinna den globala AI-kapplöpningen.
Anledningen är Kinas energipolitik. Kinas elnät är mycket större och effektivare än USA:s och därmed bättre rustat för AI-tillväxt. Huang hävdar att kinesiska datacenter gynnas av energisubventioner – en politik som har fått honom att konstatera att ”i Kina är el gratis”. Dessa subventioner är endast tillgängliga för datacenter som använder kinesisktillverkade datorchips, vilket på ett bekvämt sätt främjar landets egen chipindustri.
Microsofts verklighet: chip utan ström
Denna energidebatt stöds av Microsofts VD, Satya Nadella. Han har uttalat att problemet inom AI-branschen inte är brist på datorkraft, utan snarare brist på ström för att driva alla AI-GPU:er som annars är redo att användas.

Nadella har förklarat att Microsoft för närvarande kämpar med att inte ha tillräckligt med ström för att ansluta vissa av de GPU:er som företaget har i lager. Bristen på färdiga datacenter med nödvändig kraft- och vatteninfrastruktur innebär att ”man faktiskt kan ha en massa chip i lager som man inte kan koppla in”. Det är alltså inte brist på datorkraft, utan snarare brist på fysisk infrastruktur och energiinfrastruktur.
Den stora frågan som återstår är inte om AI kan lösa komplexa problem. Snarare är det: Hur mycket mer ström kan planeten faktiskt leverera?
Källor: Toms Hardware, Gizmodo, Toms Hardware
Läs hela artikeln med LB+
Erbjudande - 1 månad 10:-
Prova LB+ i en månad för 10:-
LB+ Total 12 månader
Full tillgång till allt innehåll på Ljud & Bild och L&B Home i 12 månader
LB+ Total år!
Full tillgång till allt innehåll på Ljud & Bild och L&B Home i 6 månader
- Tillgång till fler 7 800 produkttester!
- Nyhetsbrev varje vecka med de senaste nyheterna
- Bra rabatter hos våra samarbetspartner i LB+ Fördelsklubb
- Tidningen i digitalt format – nytt nummer varje månad
- L&B TechCast – en podd från L&B
- Inaktiverade annonser
- L&B+ Video – häng med L&B-redaktionen bakom kulisserna på de stora teknikmässorna och mycket mer!



