Nvidia GeForce

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von GeForce)
GPU einer GeForce2 MX
Geforc4 TV-Karte
Grafikkarte GeForce 6600 GT von Gigabyte Technology

GeForce (zusammengesetzt aus geometry, englisch für Geometrie und force, englisch für Stärke/Kraft; Wortspiel auf g force, englisch für Erdbeschleunigung) ist ein Markenname für Desktop-Grafikprozessoren des Herstellers Nvidia und Nachfolger der Riva-Familie.[1] Die GeForce-Grafikkarten sind seit 1999 auf dem Markt und konkurrieren hauptsächlich mit der Radeon-Produktfamilie[2]

Modellfamilie

Neben den Modellen für den Desktop-Einsatz gibt es auch GeForce-Karten für Notebooks (GeForce Go bzw. GeForce M) und Modelle für Mobiltelefone (GoForce). Nvidia-Grafikkarten für den professionellen Einsatz werden unter dem Namen Quadro vertrieben[3].

Geschichte

Mit der GeForce-Serie von der ersten bis zur vierten Generation konnte Nvidia die Performance-Führerschaft behalten und sich gegen Konkurrenten wie 3dfx, Matrox und ATI Technologies durchsetzen. Die mit FX 5xxx bezeichnete fünfte Generation hatte allerdings von Anfang an Schwierigkeiten und erreichte nicht die Leistung der Radeon-9000-Serie des Mitbewerbers ATI Technologies, wodurch Nvidia in Bedrängnis kam. Seitdem liefern sich ATI, inzwischen von AMD übernommen, und Nvidia einen wechselhaften Kampf um die „Performance-Krone“.

Der erste Vertreter der sechsten Generation, die GeForce 6800 Ultra mit dem neu entwickelten NV40-Chip, hat sich indes bei ersten Tests als deutlich leistungsfähiger als alle bisherigen Chips erwiesen, wurde jedoch wenige Tage später von ATIs Konkurrenzprodukt X800 XT PE wieder knapp von der Leistungsspitze verdrängt. Die beiden Karten sind in der Leistung in etwa ebenbürtig und unterscheiden sich nur in den verwendeten Techniken, ATIs nachgelegter Refresh-Chip R480 (unter anderem X850 XT PE) konnte sich allerdings später klar gegenüber der 6800 Ultra positionieren.

Die Reihe GeForce-FX-5 verwendet das Shader-Model Version 2.0a, während die vorherigen Modelle lediglich Version 1.3 unterstützen. Seit der GeForce-6-Reihe setzt Nvidia auf das Shader-Model Version 3.0, welches als erstes von dem Spiel Far Cry unterstützt wurde. Hauptkonkurrent ATI konnte erst im Herbst 2005 mit der Radeon-X1-Serie ein entsprechendes Konkurrenzprodukt mit Unterstützung für das Shader-Model Version 3.0 nachlegen. Ebenfalls seit der GeForce-6-Serie bietet Nvidia die Möglichkeit, Grafikkarten mithilfe der Scalable-Link-Interface-Technologie, kurz SLI, zusammenarbeiten zu lassen. Dabei teilen sich zwei identische Grafikkarten den Berechnungsaufwand, was zu Leistungssteigerungen von maximal 80 % gegenüber einer einzelnen Karte führt.

Mit der Einführung der GeForce-8-Serie im November 2006 bot Nvidia als erstes Unternehmen Grafikprozessoren mit DirectX-10-Unterstützung an. Damit verbunden ist auch eine Unterstützung des neuen Shader-Models Version 4.0.

Treiber-Unterstützung

Die Treiber für Nvidia-Grafikchips werden laufend weiterentwickelt und erscheinen in unregelmäßigen Abständen. Seit einigen Jahren werden neben den Treibern für Mac OS und Windows auch Treiber für Linux, FreeBSD und für Solaris bereitgestellt. Die Grafiktreiber hatten bis zur Version 4x.xx die Bezeichnung „Detonator“ (in Anspielung auf den Namen der Riva-TNT-Serie), von Versionsnummer 5x.xx bis 16x.xx wurden diese von Nvidia als „ForceWare“ bezeichnet (hier wird auf den Namen GeForce angespielt). Neuere Treiber werden nun unter der Bezeichnung „GeForce“ vertrieben. Die meisten Treiber werden auch WHQL-zertifiziert.

Auch unter ZETA werden mittlerweile alle bekannten GeForce-Grafikkarten unterstützt. Die Treiber werden im Haiku-Projekt ständig weiterentwickelt. Für alle GeForce-Grafikchips bis NV18 ist mittlerweile auch HW-OGL implementiert.

Stereo-3D-Treiber

Zusätzlich zu den eigentlichen Grafiktreibern existieren für GeForce-Grafikkarten auch Stereo-3D-Treiber. Diese ermöglichen im Zusammenspiel mit einem Grafiktreiber gleicher Version eine stereoskopische Ausgabe von OpenGL- oder DirectX-Grafik, was mit den meisten 3D-Anwendungen ohne Anpassungen genutzt werden kann. Um einen dreidimensionalen Eindruck zu erzeugen, produziert der Treiber bei einem gewöhnlichen Monitor anaglyphe Bilder (rot/cyan), die durch eine entsprechende Farbbrille betrachtet werden müssen. Alternativ kann bei einem Bildschirm mit kurzer Nachleuchtzeit (die meisten CRTs und spezielle 120-Hz-LCDs) eine Shutterbrille verwendet werden. Neuerdings gibt es aber auch Bildschirme (unter anderem von Zalman), die es dank geschickter Blickwinkelbegrenzung schaffen, ein räumliches Bild ohne Brille darzustellen.[4]

Auf der CES 2009 in Las Vegas stellte Nvidia eine drahtlose Shutterbrille mit dem Namen „3D Vision“ vor. Voraussetzung für den Einsatz sind eine GeForce-Grafikkarte sowie ein Display, das mindestens mit einer Bildwiederholrate von 100 Hz angesteuert werden kann. Dabei ist zu beachten, dass die meisten sogenannten 100-Hz-LCDs, vor allem Fernseher, 100 Hz nur durch das mehrfache Anzeigen von Bildern erreichen und nicht mehr als 60 Hz tatsächliche Bildinhalts-Wechsel unterstützen, um die es hier geht. Sie sind daher nicht geeignet für die Verwendung mit der 3D-Vision-Brille. Momentan gibt es die 3D-Brille in einem Set mit dem 3D Vision Kit. Mit diesem Kit kann man die Stärke des 3D-Effektes einstellen. Außerdem kann man mit der beigelegten Software auch das Rot-Grün-System aktivieren, die dazu benötigte Brille ist nicht im Set enthalten.

Grafikprozessoren

Die Codenamen der Grafikprozessoren (GPUs) haben eine Kennung der Form NVxx bzw. Gxx / Cxx. Die Nummerierung entspricht einem einfachen Schema: Ganze 10er-Stellen sind stets das erste Produkt einer Serie/Produktfamilie und meistens auch deren Flaggschiff. Bei Prozessoren mit höheren Nummern ist also nicht notwendigerweise die Grafikleistung verbessert worden, so ist der NV20 (GeForce 3 Titanium 200/500) in vielen Bereichen schneller als der NV34-Chipsatz, der in den GeForce FX 5200 Verwendung findet.

Teilweise basieren verschiedene Grafikkarten auf der gleichen GPU und werden nur durch interne Mechanismen eingeschränkt, so werden aufgrund von Produktionsfehlern z. B. Pipelines gesperrt oder die Taktfrequenz verringert (siehe Stepping). Häufig werden auch verschiedene GPUs für dasselbe Modell verwendet – z. B. wenn eine neuere Revision des Chips vorliegt bzw. überarbeitet wurde.

Zu beachten ist, dass sich alle GPUs mit nativer AGP-Schnittstelle problemlos auch bei PCI-Grafikkarten einsetzen lassen. Ähnlich verhält es sich mit GPUs mit nativer PCIe-Schnittstelle, diese lassen sich mittels eines Brückenchips (High-Speed Interconnect) auch für AGP-Grafikkarten und umgekehrt nutzen.

Modelle

GeForce-256-Serie
GeForce-2-Serie
GeForce-3-Serie
GeForce-4-Serie
GeForce-FX-Serie
GeForce-6-Serie
GeForce-7-Serie
GeForce-8-Serie
GeForce-9-Serie

GeForce-100-Serie (Tesla)
GeForce-200-Serie (Tesla)
GeForce-300-Serie (Tesla)
GeForce-400-Serie (Fermi)
GeForce-500-Serie (Fermi)
GeForce-600-Serie (Kepler)
GeForce-700-Serie (Kepler bzw. Maxwell)
GeForce-900-Serie (Maxwell)

GeForce-10-Serie (Pascal)
GeForce-16-Serie (Turing)
GeForce-20-Serie (Turing)
GeForce-30-Serie (Ampere)

Quadro-Serie
Titan-Serie (ab der 700-Serie)

Ranking der 10xx, 16xx und 20xx Grafikkarten-Generation (Pascal und Turing)

Die GT 1010 stellt in dieser Liste die leistungsschwächste Grafikkarte und die RTX 2080 Ti die leistungsstärkste Grafikkarte dar.
Pascal und Turing sind die Namen der Grafikkarten-Generationen (Pascal ist älter als Turing).
Hier sind nur die Gaming-Grafikkarten von Nvidia und AMD aufgelistet, die Titan-Grafikkarten wurden hier weggelassen.[5][6]
Zur Referenz: GTX 1060 < GTX 980 < RX 590 < GTX 1660 < GTX 980 Ti < GTX 1660 Ti

  • Rot: wenig Leistung
  • Orange: Leistung für 1080p@60FPS+ (Bei hohen Grafikeinstellungen in den meisten Videospielen)
  • Grün: Leistung für 1440p@60FPS+ (Bei hohen Grafikeinstellungen in den meisten Videospielen)
  • Weiß: Leistung für 2160p@~60FPS (Bei hohen Grafikeinstellungen in den meisten Videospielen)

Die Farben und das Ranking trifft in den überwiegenden Fällen zu, doch auch eine Grafikkarte mit einem niedrigeren Rang kann eine höher gestellte Grafikkarte in manchen Programmen und Spielen leistungsmäßig überlegen sein.

20xx
(RTX:
Turing)
 
16xx
(GTX: Turing
ohne RTX-
Features)
10xx
(GTX:
Pascal)
 
Grafikkartenname
(Architektur, Speicher,
Ersterscheinungsjahr)
 
Rang
2080 Ti RTX 2080 Ti (Turing, 11gb, 2018) 1
2080 Super RTX 2080 Super (Turing, 8gb, 2019) 2
2080 RTX 2080 (Turing, 8gb, 2018) 3
1080 Ti GTX 1080 Ti (Pascal, 11gb, 2017) 4
2070 Super RTX 2070 Super (Turing, 8gb, 2019) 5
2070 RTX 2070 (Turing, 8gb, 2018) 6
2060 Super RTX 2060 Super (Turing, 8gb, 2019) 7
1080 GTX 1080 (Pascal, 8gb, 2016) 8
2060 RTX 2060 (Turing, 6gb, 2019) 9
1070 Ti GTX 1070Ti (Pascal, 8gb, 2017) 10
1660 Ti GTX 1660 Ti (Turing, 6gb, 2019) 11
1070 GTX 1070 (Pascal, 8gb, 2016) 12
1660 Super GTX 1660 Super (Turing, 6gb, 2019) 13
1660 GTX 1660 (Turing, 6gb, 2019) 14
1060 GTX 1060 (Pascal, 3/5/6gb, 2016) 15
1650 Super GTX 1650 Super (Turing, 4gb, 2019) 16
1650 GTX 1650 (Turing, 4gb, 2019) 17
1050 Ti GTX 1050 Ti (Pascal, 4gb, 2016) 18
1050 GTX 1050 (Pascal, 2/3gb, 2016/2018) 19
1030 GT 1030 (Pascal, 2gb, 2017) 20
1010 GT 1010 (Pascal, 2gb, 2021) 21

Weblinks

Einzelnachweise

  1. Alexander Köpf: Woher kommen eigentlich die Namen Geforce und Radeon bei Nvidia und AMD? GameStar, 23. März 2022, abgerufen am 23. März 2022.
  2. Unternehmensgeschichte von NVIDIA: Innovationen im Laufe der Jahre. Abgerufen am 7. März 2022 (deutsch).
  3. NVIDIA RTX- und Quadro-Desktop-Workstations. Abgerufen am 7. März 2022 (deutsch).
  4. nvidia.com Nvidia: 3D-Stereo-Treiber
  5. GPU Performance Hierarchy 2019: Video Cards Ranked. Tom's Hardware, 12. Oktober 2019, abgerufen am 11. Mai 2022 (englisch).
  6. Video Card Benchmarks. PassMark® Software, abgerufen am 11. Mai 2022 (englisch, sortierbare Liste mit Rang/Preis- und Rang/Leistung-Werten).