Huis Vooruit denken Supercomputing 15: grotere veranderingen aan de horizon

Supercomputing 15: grotere veranderingen aan de horizon

Video: SC19: NVIDIA CEO Jensen Huang on the Expanding Universe of HPC (November 2024)

Video: SC19: NVIDIA CEO Jensen Huang on the Expanding Universe of HPC (November 2024)
Anonim

Terwijl ik de aankondigingen en procedures van de Supercomputing 15 (SC15) -conferentie van afgelopen maand in Austin bekijk, lijkt het erop dat hoewel high-performance computing misschien een beetje saai is, het een markt is die klaar is voor een aantal grote veranderingen in het jaar om komen.

Als je kijkt naar de leiders op de top500-lijst, de tweejaarlijkse lijst van 's werelds snelste computers, is de leider voor de zesde opeenvolgende keer de Tianhe-2, een supercomputer gebouwd door de National University of Defense Technology van China. Volgens de top500-lijst levert deze machine 33, 86 petaflop / s (quadriljoenen berekeningen per seconde) aanhoudende prestaties op de Linpack-benchmark en 54, 9 petaflop / s aan theoretische piekprestaties. Dit is gebaseerd op Intel Xeon- en Xeon Phi-processors.

De tweede plaats gaat nog steeds naar Titan, een Cray XK7-systeem op basis van AMD Opteron CPU's en Nvidia K20x GPU's geïnstalleerd in het Oak Ridge National Laboratory van DOE, met 17.59 petaflop / s aanhoudende prestaties op de Linpack-benchmark.

Twee nieuwe machines hebben de top 10 gekraakt. De Trinity-computer van het Lawrence Livermore National Laboratory (LLNL) staat zesde met 8.1 petaflop / s, terwijl het Hazel-Hen-systeem op het Duitse Höchstleistungsrechenzentrum Stuttgart (HLRS) op de achtste plaats kwam met 5.6 petaflop / s. Beide zijn Cray XC-machines, gebaseerd op Intel Xeon-processors met de Ram-verbinding.

Grotere veranderingen treden verder op de lijst op, met name met een grote toename van het aantal Chinese systemen, dat groeide tot 109, vergeleken met slechts 37 in de vorige lijst. Gedeeltelijk lijkt dit afkomstig te zijn van meer Chinese systemen die de benchmarks uitvoeren en resultaten voor de lijst indienen. Als gevolg hiervan daalde het aantal Amerikaanse systemen van 231 naar 200, wat het laagste aantal is sinds de lijst in 1993 werd gestart; en het aantal Europese systemen daalde van 141 naar 108.

Een grote trend is een toename van het aantal systemen dat versnellers of coprocessors gebruikt, die steeg tot 104 systemen op de huidige lijst, tegen 90 in juli. Het merendeel van deze systemen maakt gebruik van Nvidia Tesla GPU's, gevolgd door Intel's Xeon Phi-coprocessors, waarvan enkele een combinatie gebruiken. Nvidia wees erop dat het in 70 van deze systemen stond, waaronder 23 van de 24 nieuwe systemen op de lijst.

Tijdens de show benadrukte Nvidia de groei van versnellers, en met name het aantal applicaties dat nu beschikbaar is geoptimaliseerd voor de CUDA-architectuur van het bedrijf. Het bedrijf zegt dat 90 procent van de top 10 high-performance computertoepassingen en 70 procent van de top 50 nu zijn versneld. Een intrigerend gebruik is voor systemen die weersimulaties uitvoeren, een belangrijke toepassing voor high-performance computing, omdat weersvoorspellingen worden geproduceerd door allerlei overheden. Cray had eerder gewezen op het gebruik van dergelijke versnellers bij het Zwitserse Meteorology Office (MeteoSwiss) en heeft gesproken over hoe het werkt met onderzoekers in Zwitserland bij het herschrijven van veel van zijn toepassingen. Nvidia wijst nu ook op het gebruik van versnellers door de National Oceanic and Atmospheric Administration (NOAA) voor sommige van haar weersvoorspellingen.

Onder andere aangeprezen Cray olie- en gastoepassingen, zoals het gebruik van 3D-geofysica om een ​​reservoir te simuleren, evenals financiële diensten, zoals risicobeoordeling. Dergelijke applicaties vormen zelden de snelste systemen ter wereld, maar zijn een indicatie dat high-performance computing een bredere rol speelt in meer bedrijfstoepassingen. Cray heeft gesproken over een gestage ontwikkeling naar het uitvoeren van grotere en meer gedetailleerde modellen in alle wetenschappelijke en technische disciplines, en het combineren van traditionele workloads met analyses.

Ik was ook geïnteresseerd in een aankondiging door de Linux Foundation van een nieuwe inspanning genaamd OpenHPC, ontworpen om meer open standaarden in de HPC-wereld te creëren. Het is een interessant idee, en het lijkt erop dat veel grote spelers zich aanmelden.

Er zijn een aantal nieuwe systemen in de maak. IBM bouwt een nieuwe machine genaamd Summit bij Oak Ridge National Laboratories (ORNL) en een andere genaamd Sierra bij Lawrence Livermore National Laboratory (LLNL), beide gebaseerd op IBM Power-architectuur CPU's, Nvidia Tesla GPU's en Mellanox interconnects. De top zal naar verwachting 150 tot 300 petaflop / s piek leveren, en Sierra meer dan 100 petaflop / s.

Bovendien bouwen Intel en Cray een nieuwe machine genaamd de Aurora, gebaseerd op de aanstaande Knights Hill Intel Xeon Phi-processors voor The Argonne Leadership Computing Facility (onderdeel van Argonne National Labs), die streeft naar 150 petaflops in 2018. Al deze maken deel uit van een Department of Energy-programma dat bekend staat als Collaboration of Oak Ridge, Argonne en Lawrence Livermore National Labs (CORAL), gericht op het versnellen van de ontwikkeling van high-performance computing, en specifiek het FastForward 2-project.

Toch hebben we nog een lange weg te gaan naar "exascale computing".

Ondertussen waren er verschillende processoraankondigingen die goed konden voorspellen voor de toekomst. Vooral Nvidia heeft het gebruik van supercomputers voor hyperscale webapplicaties gestimuleerd, met name machine learning. Het kondigde een paar ietwat mindere producten aan: het Tesla M40-bord met 3072 CUDA-kernen, waarvan het zei dat het in staat was tot 7 enkele precisie teraflop / s uit te voeren, voornamelijk gericht op "deep learning" training, en de M4, een lager voedingsbord met 1024 cores en 2.2 enkele precisie teraflop / s, die kan worden gebruikt voor diepgaande inferenties en dingen zoals beeld- en videoverwerking. Bovendien kondigde het bedrijf een nieuwe "hyperscale suite" aan met toepassingen die zijn gericht op de grootste computersites. Beide nieuwe hardwareproducten zijn gebaseerd op 28nm-procestechnologie en de Maxwell-architectuur van het bedrijf.

Het bedrijf heeft twee follow-on architecturen aangekondigd, bekend als Pascal, volgend jaar verwacht, en Volta, die het zullen volgen. Intel concentreerde zich op hoe HPC de wetenschap beïnvloedt en ik was geïntrigeerd door de beschrijving van hoe het zijn eigen supercomputer gebruikt - die momenteel op de top 500 staat - om zijn eigen processors te helpen ontwerpen. Het bedrijf zei met name dat het een miljoen CPU-uren gebruikt om de fotomaskers voor de volgende generatie processoren te ontwerpen.

Veel van Intel's activiteiten waren gericht op Knights Landing, de volgende versie van zijn Xeon Phi-chip, die kan worden gebruikt als een versneller maar ook kan worden opgestart; en zijn Omni-Path-materiaal. Hoewel Intel nu zegt dat de algemene beschikbaarheid in de eerste helft van 2016 zal zijn, hebben een paar klanten vroege toegang tot Knights Landing. Momenteel test Cray een groot ridders landingssysteem als voorbereiding op de levering van een nieuwe supercomputer genaamd Cori voor het National Energy Research Scientific Computing Center (NERSC), en Los Alamos National Laboratory en Sandia National Laboratories, volgend jaar. Bull, een eenheid van de Franse systeemintegrator Atos, heeft ook vroege versies van Knights Landing ontvangen ter voorbereiding op het Tera 1000-systeem dat het bouwt voor de Franse commissie Alternatieve Energieën en Atoomenergie. Argonne Leadership Computing Facility werkt aan een systeem genaamd Theta, dat volgend jaar moet worden opgeleverd, en Sandia National Laboratories werkt samen met Penguin Computing om verschillende systemen te upgraden die eerdere generaties van Xeon Phi co-processors gebruiken.

Intel heeft eerder gezegd dat er drie verschillende versies van Knights Landing zullen zijn: een basislijnhostprocessor (geschikt voor zelfstart), een gastheerprocessor met een geïntegreerde Omni-Path-fabric en een PCIe-versnellingskaart. De chip zelf zal bestaan ​​uit 36 ​​tegels met elk twee CPU-cores (in totaal 72 cores), vier vectorverwerkingseenheden (twee per core), 1 MB gedeelde L2-cache en een caching-agent voor het handhaven van de coherentie; en Intel heeft gezegd dat het ongeveer drie keer de scalaire prestaties van de Knights Corner CPU moet leveren, met 3 teraflop / s dubbele precisie en 6 teraflop / s enkele precisie piekprestaties. Het maakt ook gebruik van een nieuw geheugensysteem genaamd MCDRAM, on-pakket geheugen met meer dan 3x de beschikbare bandbreedte in vergelijking met uitgaan naar DDR4 dat een variant lijkt te zijn op de Hybrid Memory Cube-architectuur waarover Intel en Micron erover hebben gesproken. Tijdens de show had Cray een prototypesysteem met een opstartbare Knights Landing en een aantal andere leveranciers toonden systemen die zijn ontworpen voor Knights Landing. Deze versie van Xeon Phi is gepland om te worden gevolgd door een versie genaamd Knights Hill, die moet worden gebouwd op het aanstaande 10nm-proces.

Daarnaast heeft Fujitsu wat meer gesproken over zijn Flagship 2020-project, gebaseerd op een nieuwe chip die bekend staat als de FX100 met 32 ​​cores. Verwacht wordt dat dit ongeveer viervoudige drijvende-kommaprestaties ten opzichte van de huidige FX10 zal hebben, en net als Knights Landing zal de FX100 van Fujitsu ook een versie van de Hybrid Memory Cube-architectuur gebruiken. Bovendien heeft NEC een project met de codenaam Aurora (los van het CORAL-project), gebaseerd op de opvolging van de SX-ACE-chip maar met een grotere geheugenbandbreedte. Dit is bedoeld voor 2017.

Supercomputing 15: grotere veranderingen aan de horizon