Video: Optimizing Databases with Intel Optane (November 2024)
Op de Storage Visions-conferentie voor CES deze week spraken een aantal sprekers over hoe opslag en computers dichter bij elkaar komen, met implicaties voor zowel systeemontwerp als software-creatie.
Ik was vooral geïntrigeerd door het onderwerp 'geheugen van opslagklasse' of 'permanent geheugen', dat de kloof opvult tussen conventioneel geheugen (dat erg snel is, maar informatie verliest wanneer het wordt uitgeschakeld) en conventionele opslag (of het nu schijfstations of NAND-flash-gebaseerde SSD's; die niet-vluchtig zijn maar veel langzamer).
Dit gebied heeft de laatste tijd veel aandacht gekregen, met producten zoals NVDIMM's (meestal pakketten met DRAM en NAND op batterijen) en nieuwe technologieën, zoals Intel en Micron's 3D XPoint-geheugen. Tijdens een keynote speech op de conferentie hield Bev Crair, VP en General Manager van de opslaggroep van Intel een 512 MB DIMM van het 3D XPoint-geheugen omhoog, wat de eerste keer was dat ik het zag verschijnen.
Crair zei dat met dergelijke DIMM's systemen met 2 sockets binnenkort in staat zullen zijn om 6 TB aan 3D XPoint-opslag te krijgen, wat enorme voordelen biedt in een verscheidenheid aan toepassingen. Ze zei dat dit ergens na de levering van 3D XPoint SSD's zou worden verzonden, die later dit jaar zijn beloofd. Ze herhaalde eerdere aankondigingen dat deze 3D XPoint SDD's, die Intel onder het merk Optane zal verkopen, een prestatieverbetering van 5 tot 7x zouden bieden ten opzichte van de snelste SSD's van vandaag.
Om de maximaal mogelijke prestaties van 3D XPoint DIMM's te krijgen, merkte ze op dat het softwarestuurprogramma's en platforms nodig heeft die het platform echt ondersteunen. Ze benadrukte specifiek het werk dat Intel doet voor zijn volgende generatie serverplatform en softwarestuurprogramma's die worden gemaakt voor zowel Windows als Linux.
Dit weerspiegelde een thema van veel presentatoren, dat de hele manier waarop we over computer denken zal veranderen met de acceptatie van geheugen in de opslagklasse. In een andere keynote speech op de conferentie legde Rob Peglar van Micron uit hoe het toenemende gebruik van persistent geheugen, of het nu 3D NAND is of dingen zoals 3D XPoint-geheugen, een verandering zal veroorzaken in de manier waarop we applicaties voor servers ontwikkelen.
Peglar legde uit hoe er in het traditionele computermodel een enorme straf (tot 100.000 keer het verschil) was bij de toegang tot DRAM, wat ongeveer 100 nanoseconden (ns) kan duren en toegang tot SATA-schijfstations, die 10 milliseconden (ms) kunnen duren.
Dit is veranderd met de toevoeging van NAND flash-gebaseerde solid state drives (SSD's), die toegankelijk zijn via een SATA-verbinding met 100 microseconden en via PCIe-verbindingen met 10 microseconden. Bovendien zien we nu meer niet-vluchtige DIMM's, die de neiging hebben DRAM op batterijen te combineren met NAND, en deze worden vaak benaderd met ongeveer 125ns, in de buurt van DRAM-snelheid. Het verschil tussen PCIe en NVDIMM kan nu maar 80 keer zijn.
In de toekomst verwacht hij dat een toekomstig niet-vluchtig geheugen zoals 3D XPoint op ongeveer 500 ns zal worden benaderd via een geheugen- of PCIe-verbinding. Het verschil tussen dat en een flashdrive kan maar liefst 20 keer zijn.
Als gevolg hiervan, zei hij, zal de manier waarop we programma's hebben geschreven - om gegevens in en uit het geheugen te verplaatsen en om te gaan met het grote verschil tussen geheugen en opslag - moeten veranderen. Hoe dit zal gebeuren, werd besproken tijdens een panel dat volgde.
Op dat paneel legde Andy Rudoff van Intel uit hoe we op de lange termijn "byte-adresseerbare" opslag willen, in tegenstelling tot de manier waarop we momenteel naar opslag kijken, in termen van blokken op een schijf. Doug Voigt van HP Enterprise legde uit dat de SNIA al een programmeermodel voor niet-vluchtig geheugen heeft gemaakt, hoewel er veel problemen zijn en het "niet zo eenvoudig is als het lijkt."
Jim Pinkerton van Microsoft legde uit hoe het bedrijf nieuwe stuurprogramma's voor opslagklasse-geheugen (SCM) heeft gemaakt en zei dat de traditionele SCSI-interfaces veel te traag waren. Het bedrijf heeft een nieuw SCM-busstuurprogramma en een SCM-schijfstuurprogramma gebouwd, dat deel zal uitmaken van een binnenkort te verschijnen technisch voorbeeld van Windows Server 2016. Hij merkte op dat dit opslag met blok- of directe toegang mogelijk maakt (wat anderen byte-toegankelijke opslag noemden), met een bepaling op het moment van formatteren. Blokkeeropslag bewaart achterwaartse compatibiliteit, terwijl opslag met directe toegang de laagste latentie biedt.
Hij zei eind vorig jaar een demo met HPE op een SQL-database met NVDIMM's, het voorspelde een verbetering van de doorvoer met 12 procent en een afname van de latentie met 52 procent wanneer slechts een kleine hoeveelheid persistent geheugen werd gebruikt; en met een simulatie toen het allemaal in een geheugen van opslagklasse werd geplaatst, kon het een verbetering van 53 procent in de doorvoer en een reductie van 82 procent in de latentie laten zien.
Maar Pinkerton erkende de beperkingen van deze aanpak. Direct access-opslag omzeilt het besturingssysteem en alle functies die het biedt voor gegevensbescherming en dit alles werkt tegenwoordig op een enkel knooppunt, niet via een netwerk, waardoor "betrouwbare opslag, geen beschikbare opslag" wordt geboden.
Later zei Peglar dat Micron met elke grote aanbieder van besturingssystemen en hypervisors samenwerkte om deze problemen aan te pakken.
Rob Davis van Mellanox Technology legde uit hoe hardnekkig geheugen een hoogwaardige performance nodig heeft en zei dat zijn bedrijf werkte aan oplossingen voor op NAND gebaseerde SSD's, maar er waren nog steeds behoefte aan wijzigingen in de low-level softwarestacks die de opslag regelen.