Nvidia-GeForce-900-Serie
Die GeForce-900-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-700-Serie. Die Serie sollte ursprünglich unter der Bezeichnung „GeForce 800“ veröffentlicht werden, aber nachdem diese Kennung für den jährlichen Release bereits bei der Nvidia-GeForce-M-Serie verwendet worden war, ließ Nvidia die Bezeichnung für die Desktopserie aus, um beide Reihen wieder anzugleichen. Die GeForce-900-Serie wurde von der GeForce-10-Serie abgelöst.
Laut Nvidia unterstützten sämtliche Grafikkarten der GeForce-900-Serie erstmals DirectX 12 mit dem „Feature-Level 12.1“ von Microsofts Betriebssystem Windows 10.[1]
Beschreibung
GeForce GTX 980 Ti und Titan X
Der GM200-Grafikprozessor fungiert als High-End-Chip der GeForce-900-Serie und löste in dieser Funktion die GK110-GPU der GeForce-700-Serie ab. Der GM200 besitzt 8 Milliarden Transistoren auf einer Chipfläche von 601 mm², womit er der bis dahin größte und komplexeste Grafikprozessor am Markt war. Aus technischer Sicht stellt der GM200 mit 96 Raster-, 3072 Shader- und 192 Textureinheiten eine um 50 % vergrößerte Variante des GM204 dar.[2] Damit unterscheidet er sich aber auch maßgeblich von seinen Vorgängern: Die GF100-, GF110- oder GK110-GPUs verfügten noch über erweiterte Double-Precision-Fähigkeiten (FP64) und wurde auch auf den Profiserien Quadro und Tesla eingesetzt. Dafür waren auf dem GK110 z. B. in jedem SMX-Block zusätzlich 64 separate ALUs verbaut, wodurch dieser eine DP-Rate von 1/3 erreicht hatte. Da auf den GM200 diese separaten ALUs fehlen (sie sind vermutlich aus Platzgründen gestrichen worden, da die Produktion von Grafikprozessoren mit einer Größe von über 600 mm² aus technischen und wirtschaftlichen Gründen kaum möglich ist)[2] verfügt dieser nur über eine DP-Rate von 1/32. Da Double-Precision-Operationen für 3D-Anwendungen nicht benötigt werden, spielte dieser Aspekt im Gamingsektor keine Rolle, machte den GM200 aber ungeeignet für die Profiserie Tesla. Deshalb wandte sich Nvidia von seiner bisherigen Strategie, einen High-End-/Enthusiasten-Chip für alle drei Serien zu entwickeln, ab, und setzte den GM200 nicht für die Tesla Serie ein. Für die Tesla-Beschleuniger wurde stattdessen eine verbesserte Version des GK110 entworfen, der GK210-Grafikprozessor.[3] Eine Quadro M6000 mit GM200 wurde am 19. März 2015 veröffentlicht und hat neben dem Vollausbau des Chips leicht niedrigere Taktraten als das Titan-Pendant.[4] Bei der double Precision Leistung stellt die Maxwell-Quadro somit einen Rückschritt gegenüber der Kepler-basierten Quadro K6000 dar, der erst zur GTC2018 mit der Quadro GV100 aufgeholt wurde, welche speziell für HPC Workloads in Workstations gedacht ist und auf dem Volta-Chip GV100 des Tesla-V100 Beschleunigers und der Titan V basiert.[5]
Am 17. März 2015 stellte Nvidia mit der GeForce GTX Titan X die erste Grafikkarte vor, die die GM200-GPU nutzt. Der GM200-400-A1 wird auf den Titan X im Vollausbau verwendet und mit einem 12 GB großen Videospeicher bestückt. Während frühere Varianten der Titan-Serie über separate Features gegenüber den restlichen GeForce-Modellen verfügten (z. B. erhöhte DP-Raten), war dies bei der Titan X aufgrund des Aufbaus der GM200-GPU nicht möglich. Stattdessen bewarb Nvidia die Titan X als „erste 4K-Grafikkarte“. Diese Bezeichnung war aber höchst irreführend, da auch frühere Grafikkarten Auflösungen von 4K darstellen konnten. Der Vorteil der Titan X war nur, dass sie erstmals ausreichend Rechenleistung besaß, um unter solchen Auflösungen auch relativ hohe Frameraten zu erreichen. So war sie unter 4K rund 40 % bis 45 % schneller als die GeForce GTX 980 und etablierte sich somit als schnellste Single-Chip-Karte auf dem Markt.[6] Bei geringeren Auflösungen nahm der Vorsprung allerdings wieder ab.[7] Trotz des hohen Listenpreises von 999 US-$, den Verbot von Eigendesignes der Boardpartner (es kam derselbe Kühler, wie bei den vorherigen Titan-Modellen zum Einsatz; er war nur dunkler eingefärbt), sowie das Fehlen extra Features, wurde die Titan X relativ positiv in der Fachpresse bewertet, bedingt durch die hohe Performance sowie durch die Vorteile der Maxwell-Architektur (DirectX 12 Support, Energieeffizienz etc.). Am Markt verkaufte sich die Titan X auf Anhieb recht erfolgreich und konnte sogar die Verkaufszahlen des ersten Titan-Modelles zwei Jahre zuvor übertreffen, obwohl der Straßenpreis aufgrund des schwachen Eurokurses rund 25 % höher lag.[8]
Am 1. Juni 2015 folgte mit der GeForce GTX 980 Ti das zweite Modell auf Basis der GM200-GPU. Der GM200-310-A1 wurde aber nun nicht im Vollausbau genutzt; zwei der 24 Shadercluster wurden nun deaktiviert.[9] Während die Taktraten der GeForce GTX Titan X unverändert übernommen worden waren, wurde der Videospeicher noch von 12 auf 6 GB reduziert. Mit diesen Daten erzielte die GeForce GTX 980 Ti eine Performance, die nur rund 5 % geringer war, als die der Titan X. In der Praxis zeigte sich, dass der auf 6 GB halbierte Videospeicher keinerlei Bedeutung hatte (nur bei großen SLI-Konfigurationen konnte hier eine Limitierung festgestellt werden) und die zwei deaktivierten Shader-Cluster durch teilweise real höhere Boosttaktraten wieder ausgeglichen werden konnte.[9] Angesichts der nur marginal geringeren Performance, aber einen 300 bis 400 € günstigeren Straßenpreises gegenüber der Titan X, wurde die GeForce GTX 980 Ti in der Fachpresse dementsprechend positiv bewertet. Dazu trug auch bei, dass die Konkurrenzserie von AMD, die Radeon R300, zu diesem Zeitpunkt immer noch nicht auf dem Markt war und dass Nvidia wieder Eigendesignes der Boardpartner zuließ.
GeForce GTX 980 und 970
Der GM204-Grafikprozessor war die erste GPU der GeForce-900-Serie und verwendet die „Maxwell-Architektur der zweiten Generation“. Wie bereits bei der ersten Kepler-Generation, der GeForce-600-Serie, schickt Nvidia den Performance-Chip (GM204) vor dem High-End-Chip (GM200) auf den Markt. Nachdem Nvidia genau wie AMD auf die 20-nm-Fertigung bei TSMC verzichtet hat, wird der GM204 entgegen ursprünglichen Planungen weiterhin in 28-nm-Fertigung hergestellt. Er besitzt 5,2 Milliarden Transistoren auf einer Chipfläche von 398 mm². Der grundsätzliche Aufbau ist mit dem der GM107-GPU der ersten Maxwell-Generation identisch: Die Shader-Cluster (SMM) enthalten weiterhin 128 Shader- und 8 Textureneinheiten, allerdings wurde der Level-1-Cache von 64 kByte auf 96 kByte und der Texturen-Cache von 24 kByte auf 48 kByte pro Cluster erhöht. Insgesamt besteht der GM204 aus 16 Shader-Clustern, wobei je vier Cluster an einer Raster-Engines hängen, womit der GM204 über 2048 Streamprozessoren, 128 Textureinheiten, 64 ROPs und einen 2 MB großen Level-2-Cache verfügt.[10] Neu ist dagegen die erstmalige Unterstützung des HDMI-Ausgang 2.0. Um das, im Verhältnis zu anderen GPUs dieser Klasse, kleine Speicherinterface von 256 Bit auszugleichen, führte Nvidia das Feature „Third Generation Delta Color Compression“ ein, wobei es sich um einen Bandbreitenschoner handelt, der die Speicherbelastung um rund 25 % senken soll. Nvidia führte zusammen mit dem GM204 noch zahlreiche weitere Features ein, wie zum Beispiel ein neuer Kantenglättungsmodus oder Downsampling, wobei diese nicht auf den GM204 beschränkt wurden, sondern nachträglich per Treiber auch älteren Karten zur Verfügung gestellt worden sind.
Die GeForce GTX 980 wurde von Nvidia am 19. September 2014 vorgestellt, wobei der GM204-400-A1 im Vollausbau verwendet wird. Die Karte weist gegenüber ihrem Vorgänger, der GeForce GTX 780, eine 24 % bis 30 %, der GeForce GTX 780 Ti eine 6 % bis 9 % und der AMD Radeon R9 290X eine 21 % bis 24 % höhere Performance auf.[11] Damit etablierte sich die GeForce GTX 980 als schnellste Single-GPU-Karte am Markt. Dementsprechend positiv wurde die Karte, trotz des relativ hohen Listenpreises von 549 US-$, in der Fachpresse bewertet, u. a. auch deshalb, weil die GeForce GTX 980 deutliche Vorteile im Bereich des Energieverbrauchs aufwies. Gegenüber der langsameren Radeon R9 290X verbraucht die GeForce GTX 980 unter Last 80 bis 120 Watt weniger, gegenüber der GTX 780 Ti rund 90 Watt. Der niedrige Energieverbrauch wurde auch deshalb in der Fachpresse so positiv bewertet, da solche Verbesserungen normalerweise über einen neuen Fertigungsprozess erreicht werden, der aber dieses Mal nicht zur Verfügung stand (alle Karten sind im 28-nm-Prozess bei TSMC hergestellt).
Genau wie die GeForce GTX 980 wurde am 19. September 2014 auch die GeForce GTX 970 präsentiert, wobei hier der GM204-200-A1 eingesetzt wird. Bei dieser wurden drei der 16 Shader-Cluster der GM204-GPU deaktiviert, wodurch noch 1664 Shader- und 104 Textureinheiten aktiv sind, sowie die Anzahl der Rastereinheiten von 64 auf 56 und der Level-2-Cache von 2048 kB auf 1792 kB reduziert (die letzten beiden Punkte waren bei der Markteinführung noch nicht bekannt). Damit erzielt die Karte eine rund 30 % höhere Performance gegenüber der GeForce GTX 770.[11] Gegenüber dem bei der Markteinführung gleich teurem AMD-Modell Radeon R9 290, konnte eine rund 12 % höhere Performance erreicht werden,[11] die deutlich teurere Radeon R9 290X konnte um 3 % bis 11 % überboten werden.[11] Da die Karte, wie die GeForce GTX 980, massive Vorteile im Energieverbrauch aufwies, die Konkurrenzmodelle in der Leistung bzw. im Preis-Leistungs-Verhältnis überbot, wurde die GeForce GTX 970 (zunächst) dementsprechend positiv von der Fachpresse bewertet. Nvidia trug auch mit dem heruntergesetzten Listenpreis von 329 US-$ zu der positiven Bewertung bei; die GeForce GTX 770 wurde noch mit einem Listenpreis von 399 US-$ auf dem Markt eingeführt. Im Januar 2015 wurde bekannt, dass bei der GeForce GTX 970 nur 3,5 GB des 4 GB großen Videospeichers mit höchster Geschwindigkeit verwendbar sind. Da dieser Umstand bei der Markteinführung von Nvidia nicht öffentlich kommuniziert worden war, führte dies zu entsprechend heftiger Kritik und zu einer Sammelklage in den USA (siehe Kontroverse um fehlerhafte Speicherangaben zur GeForce GTX 970). Dennoch war die GeForce GTX 970 am Markt höchst erfolgreich; so war diese z. B. im Sommer 2015 auf der Computerspiel-Vertriebsplattform Steam die am häufigsten genutzte diskrete Grafikkarte.[12]
GeForce GTX 960 und 950
Beim GM206-Grafikprozessor handelt es sich um das Performance-Modell der Maxwell-2-Generation. Er verfügt über 2 Raster-Engines, 1024 Streamprozessor, 64 Textur- und 32 Rastereinheiten mit einem 128 Bit DDR Speicherinterface.[13] Damit handelt es sich beim GM206 praktisch gesehen um eine halbierte Version des GM204, der dafür 2,94 Milliarden Transistoren auf einer Chipfläche von 227 mm² benötigt. Die technischen Daten stellten teilweise eine Überraschung dar, da im Vorfeld mit einer höheren Anzahl an Shadereinheiten und einem 192-Bit-Speicherinterface gerechnet worden war. Entsprechenden Spekulationen widersprach Nvidia aber und gab stattdessen an, dass die GM206-GPU auf der GeForce GTX 960 im Vollausbau aktiv sei und keine weiteren Einheiten physisch vorhanden sein.[14] Die einzigen Neuerungen gegenüber dem GM204-Chip ist der Videoprozessor VP7 des GM206-Chips, wodurch dieser als erste GPU den H.265-Codec (HEVC) de- und encodieren kann, während bisherige GPUs den Codec ausschließlich encodieren können.[14] Darüber hinaus ist der HDMI-Ausgang 2.0 nun auch mit dem Kopierschutz HDCP 2.2 ausgestattet, wodurch zukünftige Blu-rays mit Ultra-HD-Auflösung (4K) abgespielt werden können.[14]
Am 22. Januar 2015 präsentierte Nvidia mit der GeForce GTX 960 die erste Karte auf Basis des GM206-Grafikprozessors. Der GM206-300-A1 wird dabei im Vollausbau genutzt, womit die GeForce GTX 960 unter FullHD im Schnitt eine 9 % höhere Performance gegenüber ihrem Vorgänger, der GeForce GTX 760, erreicht und ist damit in etwa gleich schnell, wie die AMD-Konkurrenzmodelle Radeon R9 280 und 285. Der geringe Performancegewinn gegenüber dem Vorgänger wurde in der Fachpresse durchaus kritisch gesehen, insbesondere nachdem die GeForce GTX 970 und 980 hier deutlich bessere Werte erzielen konnten. Auch wurde aufgrund der Kombination aus dem nur 2 GB großen Videospeicher und dem kleinen 128-Bit-Speicherinterface die „Zukunftsfähigkeit“ der Karte hinterfragt, da hier bei steigenden Anforderungen schnell eine Speicherlimitierung erwartet wird. Positiv gesehen wurde dagegen wieder der geringe Stromverbrauch, der bei 3D-Anwendungen bei rund 109 Watt liegt,[15] wohingegen die gleichschnellen AMD-Modelle mit 189 Watt (R9 280) bzw. 183 Watt (R9 285) beinahe das Doppelte benötigen und auch der langsamere Vorgänger mit 155 Watt hier deutlich darüber liegt. Da Nvidia erneut auf ein Referenzdesign verzichtete, konnte zunächst keine allgemeine Aussage zur Lautstärke der Karte getroffen werden, allerdings ermöglicht die geringe Verlustleistung den Boardpartner sehr leise Kühllösungen zu verbauen.
Am 20. August 2015 präsentierte Nvidia mit der GeForce GTX 950 die zweite Variante mit einem GM206-Grafikprozessors. Auf dem GM206-250-A1 sind allerdings nun zwei der acht Shader-Cluster deaktiviert, womit nur noch 768 Streamprozessoren und 48 Textureinheiten zur Verfügung stehen. Damit erreichte die GeForce GTX 950 eine Performance, die in etwa zwischen der GeForce GTX 750 Ti und der GeForce GTX 960 lag. Gegenüber dem in etwa gleich teurem AMD-Modell, der Radeon R9 270X, war die GeForce GTX 950 rund 3 % langsamer (allerdings war die Radeon R9 270X zu diesem Zeitpunkt bereits im End-of-Life-Status, d. h. sie wurde abverkauft). Im Vergleich zum eigentlichen AMD-Konkurrenten, der Radeon R7 370, konnte die GeForce GTX 950 dagegen eine rund 10 % bessere Performance aufweisen. Dennoch wurde in der Fachpresse der Listenpreis von 159 US-$ in der Regel als zu hoch angesehen und dementsprechend kritisiert.[16]
Kontroverse um fehlerhafte Speicherangaben zur GeForce GTX 970
Anfang Januar 2015 berichteten Nutzer der GeForce GTX 970 in Internetforen, dass ihre Grafikkarte nur selten mehr als 3,5 GB Videospeicher belegt oder starke Geschwindigkeitseinbrüche auftreten, sobald die Speicherbelegung die Grenze von 3,5 GB überschritt. Daraufhin bestätigte Nvidia am 25. Januar 2015, dass die GeForce GTX 970 nur auf 3,5 des 4 GB großen Videospeichers mit höchster Geschwindigkeit zugreifen kann.[17][18] Der Grund dafür ist, dass die GM204-GPU auf der GeForce GTX 970 stärker beschnitten wurde, als ursprünglich von Nvidia angegeben. So sind nur 56 der 64 ROPs und nur sieben Achtel des Level-2-Cache aktiviert, wodurch sich der Level-2-Cache von 2048 kB auf 1792 kB reduziert.[18] Während die niedrigere Anzahl an ROPs in der Praxis kaum eine Bedeutung hat, können aufgrund des Wegfalls eines der Cache-Bereiche nicht alle acht Speichercontroller der GM204-GPU, denen jeweils ein 512-MB-Speicherbaustein zugeordnet ist, gleichzeitig genutzt werden; zwei Speichercontroller müssen sich einen Cache-Bereich und somit auch die Verbindung zum Grafikprozessor per wechselseitigem Zugriff teilen. Die Folge ist nun, dass der Speicher in zwei Bereiche aufgeteilt werden muss, auf die nur wechselseitig zugegriffen werden kann. Die Aufteilung auf der GTX 970 sieht nun vor, dass einer der beiden betroffenen Speichercontroller zusammen mit den übrigen sechs voll gecachet verwendet wird, indem ihm der zweite betroffene Speichercontroller die gemeinsame Crossbar-Anbindung und den Cache durch Brachliegen freihält.[19] Deshalb versucht der GeForce-Treiber bei der GTX 970 gezielt nur die voll gecacheten 3,5 GB des Videospeichers zu verwenden.[18] Nvidia dementierte damit auch zuvor gemachte Vermutungen, dass es sich bei dem beobachteten Speicherverhalten der GeForce GTX 970 um einen Treiber-Bug handeln würde.
Obwohl Szenarien, in denen dies zu messbaren Problemen führt, äußerst selten sind[20] löste der Umstand in der Fachpresse und in Internetforen massive Kritik aus. Die Kritik entzündete sich dabei weniger an der technischen Konfiguration der GeForce GTX 970, sondern an den festgestellten Abweichungen von den zuvor beworbenen Produkteigenschaften sowie dem zögerlichen Umgang von Nvidia mit den aufgeworfenen Fragen.[21] Einige Onlinehändler boten daraufhin selbständig Umtauschaktionen für die GeForce GTX 970 an. In den folgenden Wochen brachen die Verkaufszahlen der GeForce GTX 970 kurzzeitig um ca. 30 % ein.[22] In den Vereinigten Staaten wurde Ende Februar eine Sammelklage gegen Nvidia wegen der aus Sicht der Kläger irreführender Werbeaussagen eingereicht.[23] Am 24. Februar 2015 äußerte sich Nvidias CEO und Mitgründer Jen-Hsun Huang zu der Speicherproblematik. Laut Huang sei die Speicherkonfiguration der GeForce GTX 970 ein „Feature“, mit welchem es möglich sei, die Grafikkarte mit vier statt drei Gigabyte Grafikspeicher auszustatten.[24] Die Erklärung ist aus technischer Sicht höchst fragwürdig, da auch bei Notebook-Modellen die GM204-Grafikprozessoren teildeaktiviert verwendet wurde, aber dort dennoch Videospeichergrößen von bis zu 8 GB möglich waren, auf welche die GPU auch mit höchster Geschwindigkeit zugreifen konnte (siehe GeForce GTX 980M und 980MX). Am 28. Juli 2016 erklärte sich Nvidia in den Vereinigten Staaten bereit, betroffenen Kunden eine Entschädigung von 30 US-Dollar zu zahlen. Zudem werden die Anwaltskosten in Höhe von 1,3 Millionen US-Dollar der vorausgegangenen Sammelklage von Nvidia übernommen.[25]
Datenübersicht
Grafikprozessoren
Grafik- chip |
Fertigung | Einheiten | L2- Cache |
API-Support | Video- pro- zessor |
Bus- Schnitt- stelle | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess |
Transis- toren |
Die- Fläche |
ROP- Parti- tionen |
ROPs | Unified-Shader | Textur- einheiten |
DirectX | OpenGL | OpenCL | CUDA | Vulkan | |||||
SM | ALUs | |||||||||||||||
GM200 | 28 nm | 8 Mrd. | 601 mm² | 6 | 96 | 3072 | 24 | 192 | 3072 KB | 12.1 | 4.6 | 1.2 | 5.2 | 1.1.126 | VP6 | PCIe 3.0 |
GM204 | 5,2 Mrd. | 398 mm² | 4 | 64 | 2048 | 16 | 128 | 2048 KB | ||||||||
GM206 | 2,94 Mrd. | 227 mm² | 2 | 32 | 1024 | 8 | 64 | 1024 KB | VP7 |
Desktop-Modelldaten
Modell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | Leistungsaufnahme | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt [Anm. 3] |
Speicher- größe |
Speicher- takt[Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite (in GB/s) |
MGCP [Anm. 4] |
Messwerte [Anm. 5] | |||||||||
ROPs | SM | ALUs | Textur- einheiten |
Basis | Boost | 32 bit | 64 bit | Pixel (GP/s) |
Texel (GT/s) |
Idle | 3D- Last | ||||||||
GeForce GTX 950 (OEM)[26] | 1. Mrz. 2016 | GM206-251-A1 | 32 | 6 | 768 | 48 | 1026 MHz | 1190 MHz | 2 GB GDDR5 | 3306 MHz | 128 Bit | 1828 | 57,1 | 28,6 | 57,1 | 105,8 | 75 W | k. A. | k. A. |
GM206-300-A1 | 32 | 8 | 1024 | 64 | 937 MHz | 1203 MHz | 4 GB GDDR5 | 2506 MHz | 128 Bit | 2464 | 77 | 38,5 | 77 | 80,2 | k. A. | k. A. | k. A. | ||
GeForce GTX 950[27] | 20. Aug. 2015 | GM206-250-A1 | 32 | 6 | 768 | 48 | 1024 MHz | 1188 MHz | 2 GB GDDR5 | 3306 MHz | 128 Bit | 1825 | 57 | 28,5 | 57 | 105,8 | 90 W | 9 W[15] | 92 W[15] |
GeForce GTX 960 (OEM)[28] | 26. Nov. 2015 | GM206-300-A1 | 32 | 8 | 1024 | 64 | 1176 MHz | 1201 MHz | 4 GB GDDR5 | 3506 MHz | 128 Bit | 2460 | 76,9 | 38,4 | 76,9 | 112,2 | k. A. | k. A. | k. A. |
GM204-150-A1 | 48 | 10 | 1280 | 80 | 924 MHz | – | 3 GB GDDR5 | 2506 MHz | 192 Bit | 2365 | 73,9 | 37 | 73,9 | 120,3 | k. A. | k. A. | k. A. | ||
GeForce GTX 960[29] | 22. Jan. 2015 | GM206-300-A1 | 32 | 8 | 1024 | 64 | 1127 MHz | 1178 MHz | 2 GB GDDR5 | 3506 MHz | 128 Bit | 2413 | 75,4 | 37,7 | 75,4 | 112,2 | 120 W | 10 W[15] | 109 W[15] |
GeForce GTX 970[30] | 19. Sep. 2014 | GM204-200-A1 | 56 | 13 | 1664 | 104 | 1051 MHz | 1178 MHz | 4 GB GDDR5 (3584+512 MB)[31] |
3506 MHz | 224 + 32 Bit[31] | 3920 | 122,5 | 61,3 | 122,5 | 196 + 28[31] | 145 W | 12 W[15] | 161 W[15] |
GeForce GTX 980 | 19. Sep. 2014 | GM204-400-A1 | 64 | 16 | 2048 | 128 | 1126 MHz | 1216 MHz | 4 GB GDDR5 | 3506 MHz | 256 Bit | 4981 | 155,6 | 77,8 | 155,6 | 224,2 | 165 W | 12 W[15] | 174 W[15] |
GeForce GTX 980 Ti[32] | 1. Jun. 2015 | GM200-310-A1 | 96 | 22 | 2816 | 176 | 1002 MHz | 1076 MHz | 6 GB GDDR5 | 3506 MHz | 384 Bit | 6060 | 189,4 | 94,7 | 189,4 | 336,6 | 250 W | 13 W[15] | 236 W[15] |
GeForce GTX Titan X[33] | 17. Mrz. 2015 | GM200-400-A1 | 96 | 24 | 3072 | 192 | 1002 MHz | 1089 MHz | 12 GB GDDR5 | 3506 MHz | 384 Bit | 6691 | 209,1 | 104,5 | 209,1 | 336,6 | 250 W | 13 W[15] | 240 W[15] |
Notebook-Modelldaten
Modell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | MGCP [Anm. 4] | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt [Anm. 3] |
Speicher- größe |
Speicher- takt[Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite (in GB/s) | |||||||||
ROPs | SM | ALUs | Textur- einheiten |
Basis | Boost | 32 bit | 64 bit | Pixel (GP/s) |
Texel (GT/s) | ||||||||
Geforce 910M[34] | 13. Mrz. 2015 | GK208B | 8 | 2 | 384 | 32 | 641 MHz | – | 2 GB DDR3 | 1001 MHz | 64 Bit | 492 | 16,4 | 5,1 | 20,5 | 16 | 33 W |
Geforce 920M[35] | 13. Mrz. 2015 | GK208B | 8 | 2 | 384 | 32 | 954 MHz | – | 2 GB DDR3 | 900 MHz | 64 Bit | 732 | 24,4 | 7,6 | 30,5 | 14,4 | 33 W |
Geforce 920MX[36] | 25. Mrz. 2016 | GM108 | 8 | 2 | 256 | 24 | 965 MHz | 993 MHz | 2 GB DDR3 | 900 MHz | 64 Bit | 508 | 15,9 | 7,9 | 23,8 | 14,4 | 16 W |
Geforce 930M[37] | 13. Mrz. 2015 | GM108 | 8 | 3 | 384 | 24 | 928 MHz | 941 MHz | 2 GB DDR3 | 900 MHz | 64 Bit | 723 | 22,6 | 7,5 | 22,6 | 14,4 | 33 W |
Geforce 930MX[38] | 1. Mrz. 2016 | GM108 | 8 | 3 | 384 | 24 | 952 MHz | 1000 MHz | 2 GB DDR3 | 900 MHz | 64 Bit | 783 | 24,5 | 8,2 | 24,5 | 14,4 | 17 W |
Geforce 940M[39] | 13. Mrz. 2015 | GM108 | 8 | 3 | 384 | 24 | 1072 MHz | 1176 MHz | 2 GB DDR3 | 900 MHz | 64 Bit | 903 | 28,2 | 9,4 | 28,2 | 14,4 | 33 W |
GM107 | 16 | 4 | 512 | 32 | 1020 MHz | 1098 MHz | 1124 | 35,1 | 17,6 | 35,1 | 75 W | ||||||
Geforce 940MX[40] | 28. Jun. 2016 | GM108 | 8 | 3 | 384 | 24 | 1004 MHz | 1242 MHz | 2 GB DDR3 | 1001 MHz | 64 Bit | 954 | 29,8 | 9,9 | 29,8 | 16 | 23 W |
954 MHz | 993 MHz | 1 GB GDDR5 | 2506 MHz | 763 | 23,8 | 7,9 | 23,8 | 40,1 | |||||||||
GM107 | 4 | 512 | 32 | 795 MHz | 861 MHz | 2 GB GDDR5 | 882 | 27,6 | 6,9 | 27,6 | |||||||
Geforce 945M[41] | 8. Apr. 2016 | GM108 | 8 | 3 | 384 | 24 | 1006 MHz | 1189 MHz | 1 GB DDR3 | 1001 MHz | 64 Bit | 913 | 28,5 | 9,5 | 28,5 | 16 | 23 W |
27. Okt. 2015 | GM107 | 16 | 5 | 640 | 40 | 928 MHz | 1020 MHz | 2 GB DDR3 | 900 MHz | 128 Bit | 1306 | 40,8 | 16,3 | 40,8 | 28,8 | 75 W | |
Geforce GTX 950M[42] | 13. Mrz. 2015 | GM107 | 16 | 5 | 640 | 40 | 993 MHz | 1124 MHz | 4 GB DDR3 | 900 MHz | 128 Bit | 1439 | 45 | 18 | 45 | 28,8 | 75 W |
Geforce GTX 960M[43] | 13. Mrz. 2015 | GM107 | 16 | 5 | 640 | 40 | 1097 MHz | 1176 MHz | 4 GB GDDR5 | 2506 MHz | 128 Bit | 1505 | 47 | 18,8 | 47 | 80,2 | 75 W |
Geforce GTX 965M[44] | 12. Jun. 2016 | GM206 | 32 | 8 | 1024 | 64 | 935 MHz | 1150 MHz | 2 GB GDDR5 | 2506 MHz | 128 Bit | 2355 | 73,6 | 36,8 | 73,6 | 80,2 | k. A. |
9. Jan. 2015 | GM204 | 540 MHz | – | 1106 | 34,6 | 17,3 | 34,6 | ||||||||||
924 MHz | 950 MHz | 1946 | 60,8 | 30,4 | 60,8 | ||||||||||||
935 MHz | – | 4 GB GDDR5 | 1915 | 59,8 | 29,9 | 59,8 | |||||||||||
Geforce GTX 970M[45] | 7. Okt. 2014 | GM204 | 48 | 10 | 1280 | 80 | 924 MHz | 1038 MHz | 3 GB GDDR5 | 2506 MHz | 192 Bit | 2657 | 83 | 41,5 | 83 | 120,3 | ≈100 W |
6 GB GDDR5 | |||||||||||||||||
Geforce GTX 980M[46] | 7. Okt. 2014 | GM204 | 64 | 12 | 1536 | 96 | 540 MHz | – | 8 GB GDDR5 | 2506 MHz | 256 Bit | 1659 | 51,8 | 25,9 | 51,8 | 160,4 | k. A. |
1038 MHz | 1127 MHz | 3462 | 108,2 | 54,1 | 160,4 | ≈122 W | |||||||||||
GeForce GTX 980MX[47] | 1. Jun. 2016 | GM204 | 64 | 13 | 1664 | 104 | 1050 MHz | 1178 MHz | 8 GB GDDR5 | 3000 MHz | 256 Bit | 3920 | 122,5 | 61,3 | 122,5 | 192 | 148 W |
GeForce GTX 980 (Notebook)[48] | 22. Nov. 2015 | GM204 | 64 | 16 | 2048 | 128 | 1064 MHz | 1190 MHz | 8 GB GDDR5 | 3506 MHz | 256 Bit | 4874 | 152,3 | 76,2 | 152,3 | 224,4 | ≈200 W |
Anmerkungen
- ↑ a b Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
- ↑ a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
- ↑ a b c d Bei den angegeben Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
- ↑ a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
- ↑ Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Weblinks
- Produktübersicht auf der Herstellerseite (englisch)
Einzelnachweise
- ↑ NVIDIA schlüsselt DirectX-12-Unterstützung für eigene Grafikkarten auf. hardwareLUXX, 1. Juni 2015, abgerufen am 7. Juni 2015.
- ↑ a b Launch-Analyse: nVidia GeForce GTX Titan X. 3DCenter.org, 18. März 2015, abgerufen am 10. Juni 2015.
- ↑ Tesla K80 – Dual-Kepler mit bis zu 8,7 TFLOPS für Superrechner. ComputerBase, 17. November 2014, abgerufen am 6. August 2015.
- ↑ heise online: Quadro M6000: 6000 Euro teure High-End-Workstationkarte mit 12 GByte RAM. Abgerufen am 25. Januar 2020.
- ↑ Statt Geforce 2018: Nvidia Quadro GV100 bringt 32 GiByte HBM2 und Volta-GPU. 28. März 2018, abgerufen am 25. Januar 2020.
- ↑ GeForce GTX Titan X im Test: Nvidias 4K-Grafikkarte mit 12 GB Speicher (Seite 3). ComputerBase, 17. März 2015, abgerufen am 10. Juni 2015.
- ↑ GeForce GTX Titan X im Test: Nvidias 4K-Grafikkarte mit 12 GB Speicher (Seite 4). ComputerBase, 17. März 2015, abgerufen am 10. Juni 2015.
- ↑ GeForce GTX Titan X: Nvidias Flaggschiff verkauft sich besser als das Original. ComputerBase, 26. März 2015, abgerufen am 10. Juni 2015.
- ↑ a b Launch-Analyse: nVidia GeForce GTX 980 Ti. 3DCenter.org, 2. Juni 2015, abgerufen am 10. Juni 2015.
- ↑ Launch-Analyse: nVidia GeForce GTX 970 & 980. 3DCenter, 19. September 2014, abgerufen am 3. Februar 2015.
- ↑ a b c d Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test – Effizient viel Leistung (Seite 6). Computerbase, 19. September 2014, abgerufen am 3. Februar 2015.
- ↑ Steam Hardware-Umfrage: 1080p, zwei Kerne und Nvidia-GPU in Front. Computerbase, 12. August 2015, abgerufen am 24. September 2015.
- ↑ Launch-Analyse: nVidia GeForce GTX 960. 3DCenter, 23. Januar 2015, abgerufen am 3. Februar 2015.
- ↑ a b c Nvidia GeForce GTX 960 im Test – Maxwell für 200 Euro mit 128 Bit. Computerbase, 22. Januar 2015, abgerufen am 3. Februar 2015.
- ↑ a b c d e f g h i j k l m Stromverbrauch aktueller und vergangener Grafikkarten. 3DCenter.org, 23. Februar 2014, abgerufen am 7. Juni 2015.
- ↑ Launch-Analyse nVidia GeForce GTX 950 (Seite 2). 3DCenter.org, 23. August 2015, abgerufen am 24. September 2015.
- ↑ GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher. Computerbase, 25. Januar 2015, abgerufen am 5. März 2015.
- ↑ a b c nVidia räumt das „3,5-GB-Problem“ der GeForce GTX 970 ein. 3DCenter, 27. Januar 2015, abgerufen am 3. Februar 2015.
- ↑ GeForce GTX 970: Correcting The Specs & Exploring Memory Allocation. 26. Januar 2015, abgerufen am 4. November 2015 (englisch).
- ↑ Die GeForce GTX 970 und der limitierte Speicher – Eine Analyse. Computerbase, 29. Januar 2015, abgerufen am 3. Februar 2015.
- ↑ GeForce GTX 970: Nvidia lässt Händler und Kunden im Regen stehen. Heise online, abgerufen am 29. Januar 2015.
- ↑ GTX 970: Verkäufe sollen im Februar stark eingebrochen sein. PC Games Hardware, 9. Juni 2015, abgerufen am 10. Juni 2015.
- ↑ GeForce GTX 970: Sammelklage gegen Nvidia. Heise online, 24. Februar 2015, abgerufen am 4. November 2015.
- ↑ Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion. Computerbase, 24. Februar 2015, abgerufen am 3. Mai 2015.
- ↑ Michael Günsch: Falsche Spezifikationen: Nvidia entschädigt US-Käufer der GeForce GTX 970. Abgerufen am 28. Juli 2016.
- ↑ NVIDIA GeForce GTX 950 (OEM). Nvidia Corporation, abgerufen am 23. November 2017.
- ↑ NVIDIA GeForce GTX 950. Nvidia Corporation, abgerufen am 20. August 2015.
- ↑ NVIDIA GeForce GTX 960 (OEM). Nvidia Corporation, abgerufen am 23. November 2017.
- ↑ NVIDIA GeForce GTX 960. Nvidia Corporation, abgerufen am 22. Januar 2015.
- ↑ NVIDIA GeForce GTX 970. Nvidia Corporation, abgerufen am 19. September 2014.
- ↑ a b c Nvidia korrigiert die Spezifikationen der GeForce GTX 970. golem.de, 25. Januar 2015, abgerufen am 12. November 2015.
- ↑ NVIDIA GeForce GTX 980 Ti. Nvidia Corporation, abgerufen am 1. Juni 2015.
- ↑ NVIDIA GeForce GTX Titan X. Nvidia Corporation, abgerufen am 17. März 2015.
- ↑ NVIDIA GeForce 910M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 920M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 920MX. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 930M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 930MX. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 940M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 940MX. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce 945M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 950M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 960M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 965M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 970M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 980M. Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).
- ↑ NVIDIA GeForce GTX 980MX. Nvidia Corporation, abgerufen am 1. Juni 2016 (englisch).
- ↑ NVIDIA GeForce GTX 980 (Notebook). Nvidia Corporation, abgerufen am 15. Januar 2016 (englisch).