Video: How to Set Nvidia Graphic as PC Default Graphic in Windows 10/8.1/7 (November 2024)
De nieuwe Titan X grafische processor van Nvidia is gebaseerd op de GM200-processor, een enorme chip, die de kracht van 8 miljard transistors, 3.072 verwerkingskernen en 12 GB ingebouwd GDDR5-geheugen gebruikt voor 7 teraflops van topprestaties met enkele precisie. Deze chip, die twee weken geleden op de Game Developers Conference werd bekeken, is gebaseerd op dezelfde Maxwell-cores die zich in de huidige processors van het bedrijf bevinden en is vervaardigd volgens hetzelfde 28nm-proces.
Maar Nvidia zei deze week dat zijn nieuwe vlaggenschip GeForce GPU twee keer de prestaties zou leveren en de energie-efficiëntie van zijn voorganger zou verdubbelen. Het is ook een zeer grote chip van 601 mm2, ongeveer de grootste chip die momenteel wordt geproduceerd, en verbruikt 250 watt vermogen. En natuurlijk zal het de duurste algemene grafische chip zijn met een adviesprijs van $ 999.
De meeste beoordelingen van sites als ExtremeTech, Anandtech en TechReport zijn vrij positief. Natuurlijk, in de echte wereld, ziet niemand de verdubbeling van prestaties die de verkoper beweert, hoewel er een aantal mooie voordelen zijn. Over het algemeen lijkt de Titan X duidelijk andere single-GPU-kaarten te verslaan en doet het een verdienste vergelijking met AMD's dubbele GPU Radeon R9 295X2 of Nvidia's dubbele GeForce GTX 980 SLI. In veel gevallen zal een dual-GPU-kaart van beide leveranciers sneller zijn dan een enkele GPU-kaart, maar veel spellen gebruiken niet beide kaarten, en in andere gevallen vertonen de dual-card-instellingen meer stotteren. In het bijzonder zijn veel beoordelingen gericht op hoe goed de Titan X presteert bij 4K.
Natuurlijk zal Nvidia's grootste rivaal in de competitieve wereld van pc-graphics waarschijnlijk niet strak blijven zitten - er wordt algemeen beweerd dat AMD een eigen nieuwe kaart in de lucht heeft.
Nogmaals, echter, wat ik het meest interessant vond aan de introductie van de Titan X op de GPU Technology Conference (GTC) op dinsdag, was de focus op het gebruik van de chip in deep learning-toepassingen, met Nvidia CEO Jen-Hsun Huang over hoe onderzoekers hebben ontdekt dat deep learning-technieken dramatisch kunnen worden versneld met behulp van GPU's.
Huang sprak met name over toepassingen variërend van beeldherkenning met geautomatiseerde ondertiteling tot medisch onderzoek tot autonome voertuigen. De automarkt was de belangrijkste focus voor Nvidia bij CES, omdat het zijn Tegra X1-chip en zijn Drive PX-oplossing voor de auto-industrie introduceerde. Het idee is om bestaande geavanceerde rijhulpsystemen (ADAS) uit te breiden zodat deze in de loop van de tijd slimmer en slimmer worden. "Ik geloof dat de Big Bang van zelfrijdende auto's in de komende jaren op komst is." Zei Huang.
Later voegde Tesla Motors CEO Elon Musk zich bij Huang op het GTC-podium om te zeggen dat het ontwikkelen van zelfrijdende auto's die eigenlijk veiliger zijn dan die met mensen die rijden niet zo ver weg is. Musk zei dat de huidige sensorsuites in een Tesla al in staat zijn om geavanceerde functies voor bestuurderondersteuning te bieden, maar zelf rijden in een stedelijke omgeving met snelheden van 10-40 mijl per uur vereist meer verwerkingskracht. Toch zei hij dat de overgang lang zal duren, omdat het wagenpark op de weg zo groot is. "Het is vreemd dat we zo dicht bij de komst van AI zijn, " zei Musk. "Ik hoop alleen dat er nog iets te doen is voor ons mensen."
Machine learning is anders dan bij de meeste HPC-toepassingen (high-performance computing) waarbij Nvidia zijn Tesla-versnellers pusht. Die toepassingen vereisen meestal een drijvende-komma met dubbele precisie, terwijl de toepassingen voor diep leren vaak slechts één precisie vereisen. De Titan X biedt slechts enkele precisie. Voor deep learning-toepassingen biedt Nvidia een nieuw framework genaamd DIGITS, de Deep GPU Training Systems voor datawetenschappers, en een nieuw $ 15.000-apparaat genaamd de DIGITS DevBox.
Vooruitkijkend zei Huang dat de Pascal GPU-architectuur, die volgend jaar zal worden geïntroduceerd, deep learning-applicaties tien keer sneller zal versnellen dan de huidige Maxwell-processors van de huidige generatie. Dit komt uit drie nieuwe functies: gemengde precisie (meer gebruik van 16-bit drijvende komma); 2, 7 keer de geheugencapaciteit met maximaal 32 GB door gebruik van 3D-gestapeld geheugen met drie keer de geheugenbandbreedte, en de NV Link-interconnect waardoor maximaal acht high-end GPU's in een DevBox of vergelijkbaar werkstation mogelijk zijn (in tegenstelling tot de vier Titan X GPU's in één verzending in mei). Het werd niet gezegd, maar het is waarschijnlijk dat chips die op deze architectuur zijn gebaseerd, procestechnologie van de volgende generatie zouden gebruiken. De eerste 28nm-chips werden immers in 2011 geïntroduceerd en begonnen in 2012 te verkopen, dus volgend jaar hoop ik dat we 16nm of 14nm grafische grafische chips zullen zien.