WE 1
Med stärkt AI-kompetens fann Google att den väldi
ga komplexiteten i ett datacenter med så många olika variabler innebar att maskininlärda algoritmer var bättre än människor när det gällde att avgöra hur en nedkylning kunde åstadkommas med så låg energiförbrukning som möjligt. Omtanke om klimatet Sundar Pichai, VD Google. spelade säkert en betydelsefull roll – Google är utåt noga med att betona att företaget har ett ansvar för den globala miljön – men än mer viktig var förstås insikten om att det fanns stora pengar att tjäna i form av avsevärda kostnadsbesparingar. » TPU driver alla de produktförbättringar som vi ser idag.« – SUNDAR PICHAI VD GOOGLE TPU3 - GOOGLES NÄSTA GENERATION AV TPU-CHIPS (TENSOR PROCESSING UNITS) Algoritmer bättre än människor Google har gått betydligt längre och befinner sig i spetsen för utvecklingen när företaget först introducerat AI och nu övergår till vätskekylning för att få ned temperaturen i alla de datacenter som företaget har i en rad olika länder i Nordamerika, Sydamerika, Europa och Asien. Ett genombrott kom efter att Google för mer än en halv miljard dollar förvärvat det brittiska AI-företaget Deepmind. Syftet var först att dra nytta av Deepminds kompetens i Googles allmänna forskning och utveckling, men strävan efter ökad energieffektivitet banade snabbt väg för en mer praktisk tillämpning. 16 2014, året då Deepmind förvärvades, förbrukade Google trots allt lika mycket energi som 367 000 hushåll i USA. Det var uppenbart att även en mindre reducering av förbrukningen på sikt kunde minska energinotan med mycket stora belopp. Vinstlott Teknisk expertis i kombination med mänsklig intuition hade tidigare lett till den spridda uppfattningen att det bästa sättet att få ned energiförbrukningen i ett datacenter var att använda så få kylsystem som möjligt för att nå önskvärd effekt. Deepminds AI-styrning ställde sådana konventioner på huvudet. När den mänskliga faktorn var avförd från beslutsprocessen kördes istället alla kylsystemen samtidigt, men på lägre nivåer. Denna och andra förändringar gav ett resultat som överskred alla förhoppningar. Google, som redan stolt förkunnat att företagets energiförbrukning var betydligt lägre än branschgenomsnittet, kunde snart redovisa att med AI-systemets hjälp, så gick det åt 40 procent mindre energi för att kyla ned ett datacenter. Det innebar att Googles totala energiförbrukning reducerades med 15 procent. För företaget var det en vinstlott i form av både minskade utsläpp och lägre kostnader. TPU driver alla produktförbättringar Men i takt med att allt mer kraftfulla processorer introduceras i Googles datacenter krävs ändå mer långtgående åtgärder för att kyla ned ett datacenter utan att energiförbrukningen stiger på nytt. Tidigare i år presenterade företagets VD Sundar Pichai Googles nästa generation av TPU-chipet, Tensor Processing Units, som lanserades i sin första version 2016. TPU 3.0 är helt enkelt så kraftfulla chip att det är nödvändigt med ett skifte från att låta kall luft strömma genom dataservrarna till ett system med vätskekylning. Nedkyld vätska ska omge de nya datachipsen i tunna genomskinliga rör enligt en modell som delvis liknar vad som tidigare bara använts för att kyla ned superdatorer. Det sker mot bakgrund att TPU 3.0 har åtta gånger större kapacitet än sin föregångare och alltså genererar mer värme än vad de traditionella luftbärande kylsystemen skulle kunna hantera.