Video: What's inside a Facebook Datacenter Open Compute Rack? (December 2024)
Hoewel veel minder prominent dan andere recente gebeurtenissen, kan de Open Compute Summit van vorige week uiteindelijk meer zeggen over de richting van grote computers dan aankondigingen van individuele leveranciers.
Facebook organiseerde aanvankelijk het Open Compute Project, en dit was de vierde dergelijke top van de groep in de afgelopen 18 maanden. Een aantal grote datacenters - variërend van hostingbedrijven tot grote financiële bedrijven - zijn nu lid en een groot deel van de industrie komt nu opdagen om te exposeren en ondersteuning te bieden. Het idee is om de moderne server opnieuw te ontwerpen - aanvankelijk voor computergebruik, maar mogelijk ook voor opslag - op een manier die de behoeften van de grootste datacenters weerspiegelt voor betere schaalbaarheid en minder bedrijfseigen oplossingen.
De eerste stap is een nieuw ontwerp voor racks, bekend als de Open Rack-specificatie. Dit maakt gebruik van rack-eenheden die breder en iets groter zijn dan in bestaande servers. Een standaard rack-eenheid vandaag (een 1U-server) is 19 inch breed; met Open Rack zou een enkele rack-eenheid 21 inch breed zijn. Het nieuwe formaat is ontworpen voor drie moederborden of vijf 3, 5-inch schijven naast elkaar, op weg naar nog dichtere servers. Merk op dat servers in het Open Rack-plan geen eigen voedingen hebben; in plaats daarvan heeft het rack meerdere benodigdheden om elke server van stroom te voorzien.
Het concept verschilt niet zo veel van bladeservers die tegenwoordig worden aangeboden door Cisco, Dell, HP en IBM, maar dit is een open specificatie, terwijl de oplossingen van tegenwoordig de neiging hebben om eigen te zijn. Dit zou tot meer kostenconcurrentie moeten leiden. (Houd er ook rekening mee dat het rackframe of chassis nog steeds ongeveer 24 inch breed is, dus Open Rack-producten moeten in bestaande datacenters passen.) HP en Dell hebben onder andere al producten getoond die in een Open Rack-ontwerp passen.
Binnen het Open Rack is het idee om uiteindelijk verschillende "sleeën" te hebben - een rekenmodule met twee processors en een kleine hoeveelheid geheugen en opslag, een DRAM-module, een opslagmodule en een flash-opslagmodule - die allemaal verbonden zijn bij zeer hoge snelheden. Deze modules moeten kunnen worden gemengd en op elkaar afgestemd; en nog belangrijker, elk kan volgens een ander schema worden vervangen. (Flash-geheugen verslijt meestal sneller dan bijvoorbeeld harde schijven, en CPU's worden vaak om de twee jaar geüpgraded omdat rekenvereisten echt voordeel halen uit de wet van Moore, maar andere componenten kunnen wel worden opgewaardeerd in een cyclus van vijf tot zes jaar.)
Een nieuwe specificatie wordt de Open Common Slot voor processors genoemd. Op basis van PCI-Express zou dit processors van elke leverancier die het ondersteunt in staat moeten stellen om naar een Open Rack-server te gaan. Traditionele x86-serverleveranciers Intel en AMD gaven beide ondersteuning, net als Applied Micro en Calxeda, die beide hun ARM-gebaseerde servers met laag vermogen lieten zien. Bovendien zeiden AMD en Intel dat ze Open Rack-moederborden hebben ontwikkeld: AMD's Roadrunner en Intel's Decathlete.
Veel vooruitgang lijkt te gebeuren in interconnects voor dergelijke servers. Intel zegt dat het monsters van een 100 Gbps silicium-fotonica-module verzendt en dat het specificaties ontwikkelt voor het gebruik van de interconnect voor CPU, geheugen en netwerkkaarten in een rack. Ondertussen toonde Mellanox een nieuw systeem met controllers en een top-of-rack-schakelaar die Infiniband met maximaal 56 Gbps kan draaien.
Andere delen van de OCP werken aan het Open Vault-opslagproject (bekend als Knox), dat maximaal 30 schijven in een 2U Open Rack-chassis toestaat. Een aantal van de grote namen in opslag ondersteunt ten minste een deel hiervan, waaronder EMC, Fusion-io, Hitachi Global Storage en SanDisk, waarbij Fusion-io een ioScale-kaart toont die maximaal 3, 2 TB flash-geheugen kan hebben.
Aanvankelijk kwam veel van de nadruk voor Open Compute van Facebook, dat het project startte om de enorme hoeveelheid gegevens aan te kunnen die het elke dag moet opslaan, verplaatsen en berekenen. Tijdens de top herhaalde Facebook enkele van zijn gebruiksstatistieken: –it heeft een miljard gebruikers, die ongeveer 4, 2 miljard likes, berichten en commentaren per dag uploaden, evenals ongeveer 350 miljoen foto's per dag. Als gevolg hiervan heeft Facebook nog eens 7 petabytes per maand nodig (en groeit) alleen om foto's op te slaan.
Facebook heeft ook gesproken over hoe het in feite ongeveer 40 grote en 200 kleinere diensten uitvoert, maar heeft ze nu opgesplitst zodat ze elk op een van de vijf standaard servertypen werken: Web, Database, Hadoop, Haystack (Foto's) en Feed (veel CPU en geheugen). Het concept achter Open Compute is om het zijn servers gemakkelijker aan te passen voor elke service, en om gemakkelijk componenten in en uit te kunnen wisselen, van verschillende leveranciers en volgens verschillende schema's, zodat het zowel flexibeler als kostenefficiënter is.
Natuurlijk hebben degenen onder ons die datacenters voor bedrijven runnen dezelfde algemene doelen, hoewel de meesten van ons niet bijna dezelfde schaal hebben. Voor nu denk ik dat de grote gebruikers van de Open Compute-concepten de grootste datacenters zullen zijn, vergelijkbaar met hoe de grote cloudproviders de aanzet zijn geweest voor het OpenStack-cloudplatform. Inderdaad, er is zeker overlap in het denken tussen deze groepen, maar na verloop van tijd moeten de concepten mainstream worden. Het zou me niet verbazen dat bedrijven van elke omvang Open Rack-servers kunnen bestellen en zo de kosten en wendbaarheid kunnen verbeteren die ze beloven. Het zal een paar jaar duren, maar het idee is zeker veelbelovend.