Huis Vooruit denken Zullen alternatieve architecturen supercomputing regeren?

Zullen alternatieve architecturen supercomputing regeren?

Video: High Performance Computing (HPC) - Computerphile (November 2024)

Video: High Performance Computing (HPC) - Computerphile (November 2024)
Anonim

In de afgelopen jaren hebben we een aantal interessante nieuwe benaderingen voor high-performance computing gezien, met name een verschuiving van traditionele grote processors naar clusters van x86 CPU's met versnellers of coprocessors om bepaalde soorten berekeningen te versnellen. Toen we uit de Supercomputing-show van vorige week kwamen, zagen we Intel aandringen om zijn Xeon Phi-coprocessor te integreren met zijn traditionele Xeon-serverprocessor om het programmeren te vergemakkelijken; Nvidia introduceert een nieuwe versie van zijn Tesla GPU-versneller; en Micron ondersteunen een heel ander soort processor voor nog meer gespecialiseerde computing. En dit gebeurde allemaal in een tijd waarin versnellers en coprocessoren de Top 500-lijst van 's werelds snelste computers gaan domineren, waardoor enkele experts suggereren dat de bestaande benchmarks deze processors te zwaar wegen.

Nvidia prees zijn successen met zijn Tesla-versnellingsborden, grote clusters van GPU's verbonden met hoofdprocessors van Intel of AMD. Dergelijke chips worden gebruikt in een breed scala van systemen, waaronder het Titan-systeem in Oak Ridge National Laboratory en het nieuwe Piz Daint-systeem in het Zwitserse nationale supercomputing computing-centrum. Interessanter is dat het bedrijf zegt dat Tesla-boards in alle top 10-systemen staan ​​op de nieuwste Green 500-lijst van 's werelds meest energie-efficiënte supercomputers. Al deze systemen gebruiken ook Intel Xeons met uitzondering van de AMD Opteron-gebaseerde Titan, het op een na snelste systeem ter wereld in de Top 500, maar staat veel lager op de Green 500-lijst.

Daarnaast kondigde Nvidia een samenwerking aan met IBM om zijn Tesla-versnellers aan te bieden in systemen op basis van de IBM Power-architectuur. IBM heeft zijn seriële prestaties al lang aangeprezen en zijn BlueGene / Q-systeem op basis van Power-processors werkt onder andere met het Sequoia-systeem in het Lawrence Livermore National Laboratory en het Mira-systeem in het Argonne National Laboratory. Als IBM en Nvidia samenwerken, zou dit in de toekomst een aantal interessante systemen moeten opleveren.

Tijdens de show kondigde het bedrijf zijn Tesla K40 aan, de volgende generatie van zijn GPU-versnellingsbord. Het bedrijf zei dat het 1, 4 teraflops met dubbele precisieprestaties, 12 GB geheugen (288 GBps bandbreedte) en een GPU Boost-functie zal bieden, waardoor het in sommige situaties met een hogere kloksnelheid kan werken. Dit is een upgrade van de bestaande Tesla K20-serie, met hetzelfde basis GPU-ontwerp geproduceerd op 28nm-technologie.

Andere initiatieven omvatten manieren om GPU-programmering eenvoudiger te maken, waaronder CUDA 6, dat nu unified memory ondersteunt, waardoor ontwikkelaars het geheugen als één pool kunnen benaderen, hoewel CPU- en GPU-geheugen gescheiden blijven. Het bedrijf ondersteunt ook OpenACC, een standaardcollectie van compilerrichtlijnen die het systeem vertelt welke delen van het programma (geschreven in C / C ++ en Fortran) van de CPU naar een versneller kunnen worden verplaatst om de prestaties te verbeteren.

De aanpak van Intel, die het de Many Integrated Core (MIC) -architectuur noemt, is heel anders. Het combineert meerdere kleine x86-kernen in een enkele chip die de Xeon Phi wordt genoemd. In de afgelopen jaren heeft Intel geprezen dat het allemaal x86's is, waardoor het gemakkelijker te programmeren is, hoewel het duidelijk is dat ontwikkelaars zich nog steeds rechtstreeks op de architectuur moeten richten. De huidige versie van de Xeon Phi, Knights Corner genaamd, is ontworpen om te worden gebruikt als een versneller samen met meer traditionele Xeon E-serverchips en wordt gebruikt door verschillende topsystemen, waaronder het Chinese Tianhe-2 (momenteel het snelste systeem) in de wereld) en het Stampede-systeem in het Advanced Computing Center aan de Universiteit van Texas.

Tijdens de show kondigde Intel een nieuwe versie aan met de codenaam Knights Landing, die ook zal werken als een zelfstandige CPU die in een standaard rackarchitectuur past en het besturingssysteem rechtstreeks uitvoert, zonder dat een host-CPU (zoals de Xeon E) nodig is. Dit kan van groot belang zijn om de aantrekkingskracht van de Xeon Phi te vergroten, met name op de werkstationmarkt. Nogmaals, dit is ontworpen om het voor softwareontwikkelaars gemakkelijker te maken om het als een enkele CPU te bekijken. Knights Landing zal beschikbaar zijn als een zelfstandige CPU en als een PCI Express-kaart die in bestaande systemen past als een upgrade van Knights Corner.

Er zijn ook andere belangrijke wijzigingen in Knights Landing, waaronder het toevoegen van 'near memory', effectief DRAM dat wordt aangeboden op het pakket met de CPU en dus een veel hogere bandbreedte kan leveren dan het traditionele DDR-geheugen, dat wordt beperkt door de snelheid van de bus. (Dat wordt ook sneller, maar lang niet zo veel.) Dit is niet de eerste stap in deze richting; IBM heeft ingebed DRAM al jaren aangeprezen in zijn Power-architectuur en Intel zelf zet embedded DRAM voor grafische afbeeldingen in de Iris Pro-versies van zijn Haswell Core-familie. Toch denk ik dat we de komende jaren veel meer inspanningen in deze richting zullen zien.

Ondertussen komt een van de meest interessante nieuwe benaderingen van Micron, die een nieuwe versneller aankondigde, een Automata-processor genaamd, die vooral is ontworpen om complexe ongestructureerde gegevensproblemen aan te pakken.

Micron beschreef dit als het aanbieden van een weefsel bestaande uit tienduizenden tot miljoenen verwerkingselementen verbonden om specifieke taken op te lossen. Het bedrijf, een van de grootste makers van DRAM- en NAND-geheugen, zegt dat dit geheugengebaseerde verwerking zal gebruiken om complexe computerproblemen op te lossen op gebieden zoals netwerkbeveiliging, bio-informatica, beeldverwerking en analyse. Micron zal de Automata-processor in eerste instantie op een PCI-Express-kaart distribueren om ontwikkelaars ermee aan de slag te krijgen, maar het bedrijf is van plan de processors te verkopen op standaard geheugenmodules, DIMM's genoemd, of als individuele chips voor ingebedde systemen. In sommige opzichten klinkt dit vergelijkbaar met veld-programmeerbare gate-arrays (FPGA's), die zijn afgestemd om bepaalde toepassingen met patroonafstemming op te lossen.

Het bedrijf zei dat het samenwerkt met Georgia Tech, de Universiteit van Missouri en de Universiteit van Virginia om nieuwe toepassingen voor Automata te ontwikkelen. Hoewel het bedrijf geen datum voor eindproducten heeft aangekondigd, is het de bedoeling dat er volgend jaar een software-ontwikkelingskit uitkomt, samen met simulatiehulpmiddelen.

Automata klinkt als een werk in uitvoering en het is waarschijnlijk te vroeg om te weten hoe breed de applicaties zijn, maar het is een interessante aanpak.

Over het algemeen zien we de evolutie van high-performance computing. Nog niet zo heel lang geleden waren de snelste computers meestal slechts een groot aantal standaard serverprocessors. De IBM Blue Gene-systemen en die op Sparc (zoals de K-computer van het RIKEN Advanced Institute for Computational Science in Japan, die Fujitsu Sparc-processors gebruikt) zijn inderdaad nog steeds goed voor een groot deel van de markt, waaronder vijf van de 10 snelste systemen in de wereld. Maar in de afgelopen jaren is het momentum toegenomen in de richting van de coprocessor, waarbij systemen die Tesla gebruiken en meer recent Xeon Phi-versnellers meer van de nieuwere systemen vormen. Met verbeteringen in die systemen, nieuwe partnerschappen, betere software en enkele nieuwe benaderingen, kan de supercomputingsmarkt in de toekomst heel anders zijn.

Zullen alternatieve architecturen supercomputing regeren?