Googles hjemmebyggede datacentre

Fra starten har Google været præget af en gør-det-selv-tankegang. Er eksisterende teknologier ikke gode nok, laver man det selv. Det gælder søgeteknologi såvel som strømforsyninger.

Da Google startede som internetsøgemaskine, var der allerede  eksisterende søgemaskiner som Altavista, Yahoo, Lycos, Magellan, Excite og en lang række andre. Det afholdt dog ikke Google-stifterne, Larry Page og Sergey Brin, fra at starte endnu en søgemaskine. Vi kan gøre det bedre end de etablerede navne, var holdningen. Den samme holdning afspejles også i opbygningen af Googles datacentre. Hvis en teknologi ikke er god nok, går Googles ingeniører i gang med at lave noget bedre selv. Som en forbedret strømforsyning. Eller mere økonomisk rentable datacentre.

Dotcom-boblen og de ledige datacentre

I de første år af Googles levetid lejede søgeopkomlingen sig ind i eksisterende datacentre.
– Efter dotcom-boblen var der masser af billig serverplads til leje. Den første gang vi udvidede fra et datacenter til to, var det for at få en bedre oppetid. Det var ikke et failover-setup, så det ene datacenter kunne tage over, hvis det andet gik ned, men to datacentre, der begge var aktive. Vi havde så muligheden for at lukke et ned og foretage opgraderinger, mens der stadig var ressourcer nok til at håndtere søgninger, fortæller Urs Hölzle, der har været med i opbygningen af Googles infrastruktur de sidste 10 år.
I et stykke tid fungerede det fint at leje datacenterplads, men i længden var det ikke holdbart for Google.
– Det blev klart for os, at på et tidspunkt ville markedet løbe tør for datacenterplads til udlejning. Efterspørgslen på datacentre var begyndt at stige, og siden boblen bristede, var der ikke blevet bygget noget nyt. Med lille udbud og stigende efterspørgsel var der risiko for, at vi ville blive fanget af stigende priser og dermed stigende operationelle omkostninger, siger Urs Hölzle.
Der var dog også en anden vigtig faktor, der spillede ind. De eksisterende datacentre var ganske simpelt ikke gode nok.

Virksomheder forstår ikke de samlede omkostninger

– Vi fandt ud af, at datacentrene ikke var optimerede efter at minimere driftsomkostningerne. De spildte en masse energi, fordi tingene blev gjort, som de altid var blevet gjort. Folkene, der byggede datacentre, betalte normalt ikke el-regningen for driften, så de havde ikke noget incitament for besparelser. Det samme gælder eksempelvis for server-indkøb. I de fleste virksomheder er der ingen, der har en god forståelse for TCO. En afdeling køber serverne, en anden står for driften, og en tredje afdeling betaler elregningen. Så en afdeling kan tro, at man sparer måske hundrede dollars på at købe en ny server, men i virkeligheden er den dyr at sætte i produktion, den er dyr at vedligeholde, og energiforbruget er højere, så man mister måske i stedet for 500 dollars, fordi ingen har det samlede overblik, siger Urs Hölzle.
Derfor begyndte Google at designe og bygge sine egne datacentre i 2004, ligesom Google selv bygger servere og strømforsyninger. 

Egenudviklede strømforsyninger

– Vi begyndte at lave vores egne strømforsyninger et par år tidligere. Selvom det er lidt dyrere at fremstille egne strømforsyninger, tjener de sig hjem igen over et par år, fordi man sparer så meget energi, siger Urs Hölzle.
I en normal strømforsyning mister man nemlig omkring 30 procent af energien i varmeafgivelse. Googles egenfabrikerede strømforsyninger afgiver mindre end 10 procent i varme. Det betyder ikke alene en bedre energiudnyttelse, men også at udgifterne til køling af datacentret falder. Der genereres ikke så meget varme med de mere effektive strømforsyninger.

Operatører i badebukser?

Det er ikke kun den mindre varmeafgivelse fra strømforsyningen, der betyder, at Google kan spare på kølingen. I et typisk klassisk datacenter er temperaturen på mellem 18 og 20 grader, men hos Google holder man en temperatur, så operatørerne i princippet kan gå rundt i badebukser.
– Der er ingen grund til at holde temperaturen så lav. Det var måske vigtigt i 1960'erne og 1970'erne, men ikke i dag. Det er dyrt at generere kold luft. Hvis du går fra en temperatur på 18 til 25 grader, vil du spare 20-30 procent energi. Vi anvender en temperatur på 27 grader i vores datacentre. Elektronikken er ligeglad, det sparer os mange penge, siger Urs Hölzle.

Dyre og pålidelige servere  – eller billige og ustabile?

I forhold til andre datacentre har Google den fordel, at de selv bygger deres servere ud fra standardkomponenter fra tredjepartsleverandører. Dermed ved de, hvad de enkelte komponenter kan klare af temperaturer. Serverleverandører som IBM, Dell og HP er af hensyn til garantibetingelser nødt til at anbefale en forholdsvis konservativ temperaturangivelse for deres servere. Serverne, som Google anvender, er billige i anskaffelse og heller ikke så pålidelige som anerkendte mærker. Det gør dog ikke noget, da infrastruktur-softwaren som Google File System og BigTable er konstrueret ud fra antagelsen om, at hardwarefejl er noget, der forekommer dagligt.
– Der er to yderpunkter i spektret. Du kan købe meget pålidelige servere, der er meget dyre, eller meget billige servere, der ikke er pålidelige. Det gælder om at finde den gyldne middelvej, hvor der ikke sker for mange fejl, og serverne samtidig ikke er for dyre. Vi køber serverkomponenterne og samler dem selv. Vores servere er ikke så gode som eksempelvis Dell-servere, de har ikke redundante strømforsyninger og heller ikke redundante blæsere. Det er ekstra udgifter, som ikke giver nok pålidelighed i forhold til udgiften. Til gengæld har vi et softwarelag ovenpå, der håndterer servernedbrud, så det ikke får betydning for vores services, siger Urs Hölzle.

Billeder – containerbaseret datacenter

I et af Googles datacentre er der plads til i alt 45.000 servere fordelt på 45 containere. Google oplyser ikke det totale antal datacentre eller placeringen af datacentrene. På en slide over Googles datacentres energi-effektivitet er der vist ni datacentre, navngivet alfabetisk, Google A – Google I.
Billeder fra Googles officielle Datacentervideo: bit.ly/Ht1N2