Video: Ster groote vergelijking (November 2024)
In zijn toespraak op het Common Platform Technology Forum vorige week, heeft Dr. Gary Patton, vice-president van IBM's Semiconductor Research and Development Center, zijn visie op een "sterk geïntegreerde chip" uiteengezet. Sindsdien heb ik nagedacht over hoe zo'n chip zou kunnen worden gebruikt.
Patton zei dat hij uiteindelijk graag nieuwe technologieën zoals 3D-productie en siliciumfotonica op één chip zou zien, en hij beschreef een 3D-chip met drie vlakken. Men zou logica hebben, met ongeveer 300 CPU-kernen. Een andere zou geheugen hebben, met ongeveer 30 GB ingebed DRAM, meestal gebruikt als een ander niveau van cache. En tot slot zou er nog een fotonisch vlak zijn, dat een on-chip optisch netwerk biedt, dat zorgt voor verbindingen binnen en buiten de chip, die werken met snelheden van meer dan 1 TB per seconde. Dat is nogal een chip.
Natuurlijk zou dit een serverchip zijn. Het is nu moeilijk na te denken over wat we eigenlijk zouden doen met 300 cores op een desktop of laptop, en het is waarschijnlijk veel te groot en te heet om in een mobiele telefoon te gaan. Zoals we weten, migreert technologie in de loop van de tijd, dus ik zeg nooit nooit. Toch is het vrij eenvoudig om je voor te stellen hoe zo'n chip zou kunnen worden gebruikt in supercomputers, vooral die met complexe berekeningen. (Je kunt hier en hier mijn recente berichten over supercomputing lezen.)
Ik zou helemaal niet verbaasd zijn om het te zien in een soort opvolger van IBM's Watson-project, dat oorspronkelijk werd gemaakt voor het gevaar! uitdaging, maar wordt nu gebruikt op gebieden als gezondheidszorg en financiën. Ik begrijp dat dit soort uitdagingen voor machine learning het meest geschikt lijkt voor redelijk krachtige cores, niet voor de SIMD (single-instruction, multiple data) soorten dingen die we zien met GPU computing. En als er een chip zou bestaan, zou IBM deze waarschijnlijk in de allerbeste mainframes gebruiken.
Zo'n chip zou kunnen worden gebruikt voor zaken als virtualisatie, waar het in theorie honderden, misschien duizenden virtuele machines zou moeten kunnen verwerken. Voor afzonderlijke toepassingen hebben we echter duidelijk nieuwe soorten parallelle programmering nodig, wat grote veranderingen betekent in de manier waarop mensen toepassingen schrijven.
Historisch gezien zijn er om de paar jaar meer krachtige machines binnengekomen en we lijken altijd nieuwe manieren te vinden om ze te gebruiken - vaak manieren waarop we niet hadden voorzien. Immers, tien jaar geleden dachten weinig mensen Watson of Hadoop trouwens. In elk geval is het leuk om na te denken over wat we kunnen doen met de chips van het volgende decennium.