Diskussion:Nvidia-Geforce-8-Serie/Archiv

aus Wikipedia, der freien Enzyklopädie

Quelle für Füllrate

Hallo - auf der NVIDIA-Homepage kann ich nur die Quelle für die Texelfüllrate finden, hat jemand einen Link auf die Pixelfüllrate? Danke, Gruß! 91.89.78.154 15:32, 25. Mai 2007 (CEST)

Für 8600er, Für alle 8800er. Kann man aber auch selber berechnen, Pixelfüllrate = ROPs * GPU-Takt; Texelfüllrate = TMUs * GPU-Takt. :-) Gruß, Ionenweaper 17:22, 25. Mai 2007 (CEST)
Danke! Benötige die Quelle für meine Diplomarbeit, daher habe ich auf eine NVIDIA-Quelle gehofft. Aber die "Formel" zum Selbstberechnen hilt auch schonmal. 91.89.78.154 16:57, 27. Mai 2007 (CEST)

Chiptakt der 8800GTS mit 640 MB Speicher

Habe die Karte selbst und sie läuft mit den nVidia Spezifikationen von 513 MHz Chiptakt.Hatte das gestern geändert, aber heute ist es wieder rückgängig gemacht worden. Liege ich denn falsch ? Ich habe keine andere Spezifikation gefunden.

http://www.nvidia.de/page/geforce8.html
Dass die Karte bei dir mit 513 MHz läuft, liegt am Mainboard, dadurch können geringe Taktschwankungen zustande kommen. Mein Athlon 64 X2 4600+ läuft auch mit 2,41 GHz und nicht mit 2,4; wie es laut Spezifikationen sein sollte. ;-) Ionenweaper 11:55, 13. Mai 2007 (CEST)
Kann auch am Hersteller der Karte liegen, manche geben halt ein klein wenig mehr um auch in Test einen Tick besser abzuschneiden. Oder aber NV hat die Standardtakte ein wenig angehoben aber die Specs auf der eigenen Website nicht aktualisiert. Wenn man ein wenig such dann findet man wohl diverse Hersteller mit 513 MHz Chiptakt. --Denniss 20:19, 13. Mai 2007 (CEST)
Auf lediglich 513 MHz werden die wenigsten Hersteller übertakten, und (1) hat ja auch eine Karte mit nvidia Spezifikationen. Und die ändern auf keinen Fall einfach den Chiptakt nach oben, damit reduziert man ja die Ausbeute ... bzw. sowas wird dann marketingtechnisch dargestellt. Soetwas erhöht ja z. B. auch den Stromverbrauch und kann andere unangenehme Eigenschaften haben. Das wird schon am Mainboard liegen, da gibt es immer Schwankungen im Bereich einiger Megahertz... Ionenweaper 22:22, 13. Mai 2007 (CEST)
Es stimmt einfach nicht, was Du schreibst, Ionenweaper. Die Karte hat einen Referenztakt von 513 Mhz, deswegen bitte ich Dich, diesen auch so im Artikel zu belassen.
Dann gib dafür bitte Quellen an. Ionenweaper 22:38, 1. Jun. 2007 (CEST)
Meine Quellen sind die Hardwarelisten in der PC-Games-Hardware, und ich bestreite Deine These vom mainboardabhängigen Takt, da die Karte bei mir jetzt schon auf dem dritten Board die gleichen Taktraten (ohne zu ocen natürlich) erbringt.
NVIDIA sagt aber selber 500 MHz, genau diese Taktrate haben auch etliche Webseiten im Netz niedergeschrieben - beim Test der Karte. Ansonsten kann man auch gerne in die englische oder andere anderssprachige Wikipedias schauen. Daher sind 500 MHz schon als die offiziellen Taktraten anzusehen. Eventuell liegt es ja wirklich an deinem Modell, bzw. den von PCGHW. Das heißt aber nicht, das NVIDIA diese Spezifikationen herausbringt. Ionenweaper 23:45, 1. Jun. 2007 (CEST)
Ich weiß, das es auf der Nvidia-Seite anders steht, aber das kann nicht die ultimative Ratio sein. ALLE Modelle der 8800GTS sind bei PCG-H mit 513 Mhz gelistet. Kannst Du nicht akzeptieren, auch mal Unrecht zu haben? Ich denke, es ist wichtiger, das Wikipedia die Wirklichkeit abbildet, als das sie die Nvidia Website widergibt. Und wie gesagt, meine Karte taktet reproduzierbar auf allen bisher getesteten Boards mit 513 Mhz. Aber, um das nicht ausarten zu lassen, was schlägst Du denn sinnvolles vor ? In den Artikel aufzunehmen, das Nvidia 500 Mhz als Referenztakt vorgibt, die Karte auch anscheinend mehrfach so ausgeliefert wurde, aber kein Modell mit 500 Mhz erhältlich ist ? Und noch was, fällt mir gerade ein. Als ich meine Karte gekauft habe, wurde sie bei Alternate auch mit einem angeblichen Takt von 500 Mhz verkauft. Hat sie aber eben nicht. Mayinx 01:51, 2. Jun. 2007 (CEST)
Naja, eben diese 500 MHz sind offiziell. Deswegen werden diese ja auch hier angegeben. Ist eben die NVIDIA-Spezifikation. Wenn man mehr bekommt, ist das ja auch kein Grund sich zu beschweren. ;-) Ionenweaper 11:06, 2. Jun. 2007 (CEST)
Also ist für Dich wichtiger, was auf der Nvidia Seite steht, als das was in der Wirklichkeit vorhanden ist ? Naja, wenn das für Dich der Sinn einer Enzyklopädie ist, könnte man ja auch einfach einen Link auf die Seite bei Nvidia setzen. Dann ändern wir das eben abwechselnd und verhalten uns weiter wie zwei Horste. Einen konstruktiven Vorschlag hast Du ja nicht zu bieten. Mayinx 17:08, 3. Jun. 2007 (CEST)
Na-ja, es steht doch im Hinweis, dass es sich um nVidia angaben handelt. Wenn du 513 Mhz angeben willst, musst du auch den Hinweis ändern. Macht aber imho keinen Sinn. Die 13 Mhz mehr würde ich nicht auf die Goldwaage legen. Solange es nicht weniger sind, sondern mehr, wird sich keiner über die Wikiangabe beschweren. Wenn nVidia so unschlau ist und weniger Takt angibt als sie anbietet ist nVidia selbst "Schuld". Vielleicht ist aber auch nur dein Taktausleseprogramm bisschen verbugt... wayne interessiert es? Auch die Händler halten sich an die nVidia angaben. http://www3.hardwareversand.de/8VxEGhNKPZWHom/2/articledetail.jsp?aid=9366&agid=554 Die Testseiten halten sich auch an nVidia Angaben: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten Die ganzen Angaben zu Füllrate und GFlops basieren ja auch auf den 500 Mhz Referencetakt. Es würde wirklich nichts bringen, wenn man jetzt hier 513 Mhz angeben würde. Ah übrigens, dass Ionenweaper immer gleich alles zurückeditieren muss ohne vollständig ausdiskutiert zu haben finde ich auch nicht gerade taktvoll. Kommt natürlich immer auf den Inhalt an. Aber da wird einfach darauf bestanden, dass die Tabelle so und so sein soll und die Überschrift so und so sein muss. Ein wenig mehr Zurückhaltung beim zurückeditieren würde da echt nicht schaden. Dieses Verhalten schadet dem Artikel enorm. Ich ändere auch nur das wirklich nötigste, weil ich einfach kein Bock auf den Mist habe. --Juri S. 17:51, 3. Jun. 2007 (CEST)

DirectX 10.1

Ich wusste gar nicht, dass schon DirectX 10.1 veröffentlicht wurde, wobei DirectX10 noch nicht ma richtig angefangen hat. Also DX10 gibt es zwar, aber (noch) kein Spiel. Wo wird das Update zu 10.1 erwähnt?

Nirgendwo, der Artikel DirectX ist auch nicht auf dem neusten Stand. Ich werf das 10.1 mal raus, oder sind die Spezifikationen für 10.1 bereits bekannt? Ionenweaper 22:41, 3. Feb. 2007 (CET)

"Quads" des G80

Ich zitiere mal den Artikel:

"Ein "Quad" besteht bei der GeForce 8 Serie also aus 32 Unified-Shader-Einheiten und 24 TMUs. Wobei die Grundkonfiguration immer 64 Unified-Shader-Einheiten und 24 TMUs umfasst. Je nach Ausbaustufe erhöht sich also die Ausstattung bei z.B. zwei Quads auf 96x48 und bei drei Quads auf 128x64 usw. So werden alle gewünschten Konfigurationen erreicht."

Das macht ja rechnerisch überhaupt keinen Sinn und inhaltlich ist es auch falsch. Wenn man nach klassischer Quad-Zählweise geht, wobei ein Quad 16 skalare Komponenten enthält (4 Pixel mit den jeweils 4 Komponenten Rot, Grün, Blau und Alpha-Kanal), dann hat der G80 maximal 8 Quads. Jedes Quad enthält dabei 16 skalare ALUs und eine vierfach ausgelegte TMU (bzw. 4 TMUs nach klassischer Zählweise). Da die G80-TMUs außerdem bei jedem Takt zwei bilineare Samples filtern können statt eines, kann man auch von 8 TMUs je Quad mit aber nur 4 Adressierungseinheiten reden. (Vorstehender nicht signierter Beitrag stammt von 84.160.39.72 (DiskussionBeiträge) Ionenweaper 22:28, 24. Jan. 2007 (CET))

Ich empfinde die Auflistung da auch nicht als besonders gelungen. Kannst du ruhig ändern, wenn du die entsprechenden Informationen hast, gecheckt wird der Artikel automatisch durch die Leser.
PS: Beiträge auf der Diskussionsseite bitte immer mit 4 Tilden (~~~~) unterschreiben. Ionenweaper 22:25, 24. Jan. 2007 (CET)
Mal schauen, vielleicht passe ich den Artikel noch an, aber heut abend nicht mehr. ;) Bei den anderen Grafikkartenartikeln sind mir auch schon Ungereimtheiten aufgefallen.
PS: Werde das mit den Tilden in Zukunft beachten. 84.160.39.72 22:31, 24. Jan. 2007 (CET)


Takte

Was ist denn der Unterschied zwischen Shadertakt, Chiptakt und Speichertakt? Shader werden doch vom Chip ausgeführt; müssten dann beide nicht denselben Takt haben? Wie/inwiefern werden/müssen die Takte miteinander synchronisiert werden? BTW: Kann jemand erklären, was ein "Thread processing cluster" macht? Zottie 13:39, 25. Jan. 2007 (CET)

Das ist nicht ganz so einfach zu beantworten, teilweise suche ich auch noch Antworten auf die Frage. Vielleicht hilft dir dieser Artikel erst einmal. Ionenweaper 18:22, 25. Jan. 2007 (CET)
Interessant dazu ist auch dieser Arikel von 3DCenter. Leider hab ich momentan nicht so die zeit mich da intensiv mit zu befassen :( --Stickedy 11:34, 5. Feb. 2007 (CET)
Danke, hat weitergeholfen! --Zottie 14:07, 5. Feb. 2007 (CET)

Kleine Variante der 8800 GTS?

Laut Gerüchteküche soll eine abgespekte Version der 8800 GTS mit nur 320 MB Speicher bereits mitte Feber 07 erscheinen. Weiß da jemand was genaueres? Ich wollte diesbezüglich nichts in den Artikel schreiben, weil Gerüchte nichts bringen. --Highdelbeere 11:28, 5. Feb. 2007 (CET)

Ja, die soll kommen. Im Artikel landet sie aber erst, sobald sie verfügbar ist (möglichst von mehreren Herstellern), weil wir keine Gerüchte sondern Fakten verbreiten wollen - und auch, weil nicht jede "Sonderversion" in die Wikipedia soll, im Laufe der Zeit gibts nämlich von fast jedem Modell "Sonderkarten". Ionenweaper 18:49, 6. Feb. 2007 (CET)

CUDA

Ich kann nicht beurteilen, ob CUDA gänzlich hier eingearbeitet werden sollte, eine Erwähnung ist zumindest notwendig. --32X 19:57, 27. Feb. 2007 (CET)

Schallmauer?

wieso gibt es eine schallmauer bei 500 Mio. Transistoren. - Gibts nicht schon eine bei 1 oder 10? - versteh ich nicht. hört sich eher an wie marketinggeschwätz. ansonsten informativ.

Geforce 8800 Ultra

Die Geforce 8800 Ultra war zwar am 2. Mai ein Paperlaunch, allerdings war sie noch vor der HD 2900XT bei online Händlern gelistet und als "lieferbar" gekennzeichnet. Siehe: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/mai/geforce_8800_ultra/ Hmm, wenn keiner was dazu sagt, werde ich den letzten Abschnitt mit dem Paperlaunch selbst ändern.

"Ionenweaper" Jetzt hast du den Text wieder auf die Ursprüngliche Form geändert ohne hier was dazu zu sagen. Als Kompromiss habe ich die explizite Erwähnung der HD-2000-Serie an dieser Stelle aus dem Text raus genommen und ein genaues Datum angegeben. 131.246.120.30 14:29, 18. Mai 2007 (CEST)

Entschuldigung, diesen Diskussionseintrag hier habe ich nicht gesehen. Ja, mir ist bewusst das die Karte vereinzelt schon eher lieferbar war. Ich füge das gleich noch in den Artikel ein. Aber wie schon eben in der Zusammenfassung geschrieben - dass die HD 2000 Serie die Konkurrenz zur Geforce 8 ist, sollte aus Gründen der Laienverständlichkeit rein. Ionenweaper 14:50, 18. Mai 2007 (CEST)

Füllrate

Warum wird nur eine "Füllrate" angegeben? Die Pixelfüllrate ist sehr viel niedriger als die Texelfüllrate bei der Geforce 8 Serie.

G80: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten

G84: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/2/#abschnitt_technische_daten

Beide Angaben sind heutzutage nicht mehr wirklich relevant, weil es mehr und mehr auf die Shader-Leistung ankommt. Die Texelfüllrate war aber noch nie wirklich sinnvoll oder aussagekräftig, deswegen ist es imho OK, das wir die Pixelfüllrate angeben. Das ist auch die gebräuchliche und allgemein übliche Methode, die Texelfüllrate findet man eigentlich nirgends, selbst NVidia wirbt afaik nicht damit. Aber vielleicht sollten wir klarer herausstellen, dass es die Pixelfüllrate ist? --Stickedy 20:24, 16. Mai 2007 (CEST)

Ja, man sollte schon dazu schreiben was man angibt, denn sonnst siehst du nicht mal selbst was angegeben ist :) Ihr habt die Texelfüllrate angeben und nicht die Pixelfüllrate. Schau mal bei CB, da steht bei der Geforce 8800 GTX: Texelfüllrate=36800 MTex/s ; Pixelfüllrate=13800 MPix/S ; Ihr habt angegeben: "Füllrate: 36800 MT/s" <= was ganz klar die Texelfüllrate ist, allein schon wegen der Einheit ;)

Außerdem finde ich, dass die Texelfüllrate und die Pixelfüllrate durchaus ihre Aussagekraft haben. Mehr als so viel Pixel bzw. Texel pro Sekunde kann die Grafikkarte nicht liefern, womit zumindest nach oben hin eine Leistungsschranke angeben ist. 131.246.120.30 22:18, 16. Mai 2007 (CEST)

Ups, ja stimmt. Ich werd das mal in den nächsten Tagen vertiefen... --Stickedy 00:25, 17. Mai 2007 (CEST)

Stromverbrauch?

Könnte man in dem Artikel noch angeben, was eine Geforce 8800 an Strom im IDLE Betrieb und unter Last benötigt? Auch wäre die Angabe sinnvoll, daß eine Geforce 8800 zum Betrieb ein Netzteil benötigt, daß auf der 12 V Schiene 28 A liefern kann. --84.56.167.175 06:56, 18. Mai 2007 (CEST)

So, ich habe jetzt mal angefangen die Tabellen bezügl. der Stromverbrauchswerte bei allen Geforce Karten zu ergänzen. Die Werte sind in der Regel nahezu alle aus den Heise News Artikel, bei denen der Stromverbrauch angegeben wurde. Die Geforce 8800 GTX benötigt übrigens 30 A auf der 12 V Schiene, bei der Geforce 8800 GTS reichen 26 A. Auch das stand in irgendso einem Heise News Artikel. --84.56.167.175 06:56, 18. Mai 2007 (CEST)

Ich bin da skeptisch. Was für Werte sind das genau. Gib doch mal bitte hier in der Diskussion ein paar Links an. Bei den meisten Tests, die ich kenne, wird nur die Stromaufname des gesamten Systems gemessen, so dass man nur die Differens als Mehrverbrauch von einer zur anderen Grafikkarte vergleichen kann. Es ist nämlich sehr schwierig den Strom, die die Grafikkarte über den PCIe-Anschluss bekommt, zu messen. Sind deine Angabe Herstellerangaben oder Pi-mal-Daumenwerte oder tatsächlich gemessene Werte? Wenn es Herstellerangaben sind, sollte man das auch angeben 131.246.121.38 08:43, 18. Mai 2007 (CEST)

Es gibt keine exakten Angaben über den Stromverbrauch. Herstellerangaben unterliegen dem Marketing, so verbraucht eine 8800 Ultra nach nvidia weniger als eine 8800 GTX, was Blödsinn ist. Daher sollten generelle Trends in den Fließtext, aber genaue Zahlen anzugeben ist wie gesagt nicht korrekt möglich. Und pi-mal-Daumen-Werte sollten nicht in die Wikipedia. Ionenweaper 11:32, 18. Mai 2007 (CEST)
Bei den Zahlen handelt es sich um TDP Werte und die sind offizielle Angaben. Falls ihr die also aus der Tabelle rausnehmen wollt, dann fügt sie wenigstens woanders im Artikel wieder ein. Von mir aus in einer separaten Tabelle. --84.56.140.211 19:00, 18. Mai 2007 (CEST)
Die TDP ist in vielen Punkten ein Marketinginstrument - und sagt nicht viel über die eigentliche Verlustrate aus, vorallem da auch die Hersteller die verschieden definieren. Und Wikipedia ist nicht der verlängerter Arm der Marketingabteilung der jeweiligen Hersteller. Ionenweaper 20:54, 18. Mai 2007 (CEST)
Ack. Bei Grafikkarten ist leider die einzig glaubhafte Angabe "mehr als die dazu passende CPU". Ob wir da über 150 oder 250W reden, ist da imho auch ziemlich egal. Highend-Karten ziehen unter Last ohne jede Ausnahme mehr, als der gesamte Rest-PC zusammen. TheK 14:43, 16. Jun. 2007 (CEST)
Ich hab hier mal ein Test mit modifiziertem Mainboard gefunden, wodurch es eben möglich war, nur die Leistungsaufnahme der Grafikkarte zu messen: http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0 Einzig unschöne an der Sache ist, dass dort noch ein alter Pentium 4 zum Einsatz kommt, der dann doch limitiert und damit die GPU nicht auf volle Pulle läuft, aber als Mindestwerte können diese Messungen durchaus herhalten. GeForce 8800 GTX über 130 Watt Leistungsaufnahme. Ich frage mich, warum es noch keine Messungen mit einer schnelleren CPU gibt... --Juri S. 12:16, 17. Jun. 2007 (CEST)
Versuch's mal damit: http://hardware.thgweb.de/2007/06/13/stromfresser-grafikkarte/page3.html - Den "Rest-PC" muss man dann eben entsprechend abziehen, nach einem c't-Test mit der 7600 GS wären das 74W Idle und 93W unter Last. Nach deiner Tabelle dort sieht es aber schon wieder etwas anders aus: demnach würde der Rechner zwischen 60 und 120W schwanken. Kurioserweise soll der "Rest-PC" bei der Radeon HD 2900 XT mehr verbrauchen, als bei Lowend-Karten inklusive der Grafikkarte ;) TheK 14:58, 17. Jun. 2007 (CEST)
??? Ich weiß gar nicht was du meinst. Ich hab keine Tabelle. Der Link den ich gegeben hab, zeigt nur die Leistungsaufnahme der Grafikkarte. Wie viel der restliche Rechner verbraucht ist dort gar nicht aufgelistet. Ich wollte eben einen Test wo nur die Grafikkarte vermessen wird und man nicht pi mal Daumen da den "Rest-PC" abziehen muss, den da kommen dann noch so Sachen wie unterschiedliche Effizienz des Netzteils und Spannungswandler bei unterschiedlicher Belastung hinzu, womit man das nicht einfach so runter oder hochrechnen kann. (Außerdem verstehe ich gar nicht, warum du für den Rest-PC den c´ts PC nimmst. ist doch ein ganz anderer PC.) --Juri S. 15:17, 17. Jun. 2007 (CEST)
Die Differenz sollte aber zwischen verschiedenen Grafikkarten zumindest ähnlich bleiben. Wenn sich dann sogar die Reihenfolge ändert, wird's seltsam. Und wenn der eine Test sagt "PC mit Karte X zieht 285W, mit Karte Y 117" und der andere "Karte X zieht höchstens 161W", ebenso. Weil: -7W zieht Karte Y sicher nicht ;) TheK 16:41, 17. Jun. 2007 (CEST)
Großer Trugschluss mein lieber TheK.
1. Die Grafikkarte verbraucht x Watt, wenn du den Stromverbrauch direkt vor der Grafikkarte misst. Wenn du aber wiederum theoretisch nur die Grafikkarte vermisst und vor dem Netzteil vermisst (was praktisch gar nicht geht ohne den restlichen PC), dann zieht die Karte (mit Netzteil eben) X+y Watt aus der Steckdose, da das Netzteil sagen wir mal optimistisch 80 Prozent Effizienz hat und der Rest in Wärme umgewandelt wird...
2. Das Netzteil hat nicht überall 80 Prozent Effizenz. Die Effiziens ist davon abhängig um wieviel du das Netzteil belastest.
3. Die Karte zieht nicht nur direkt über das Netzteil Strom, sondern eben auch über das Mainboard, wodurch wieder einiges an Effiziens verloren geht.
4. Verschiedene Netzteile haben unterschiedliche Effizienzen. Die Mainboards ziehen unterschiedlich viel Strom, deswegen kannst du eben nicht einen x-beliebigen PC nehmen und mit -7 Watt irgendwas argumentieren.
5. Das ganze ist auch noch Temperaturabhängig... usw... D.h. du machst Milchmädchenrechnungen, wenn du nicht alle Effekte mit einrechnest, was du aber gar nicht kannst, da dir die nötigen Parameter nicht gegeben worden sind --Juri S. 17:15, 17. Jun. 2007 (CEST)
@Juri S.: Ja, der Test ist ein guter Ansatz die Informationen unterzubringen. Ich denke man sollte sich hier aber nicht an fixen Zahlen festnageln, sondern entsprechende Ergebnisse als Referenz werten und die Leistungsaufnahme dann entsprechend vergleichend zu anderen Karten ergänzen.
@TheK: Das ist genau der Denkfehler, der eben angesprochen wurde. Nach deiner Logik widersprechen sich diese Tests. Müssen sie aber nicht. Wenn das Netzteil, aber auch Mainboard etc. bei Karte X 40W an höherem eigen Verbrauch haben, bleiben für Karte Y immer noch 33W übrig, was für eine Low-End-Karte auch völlig ausreicht. Deswegen kann man das mit dem Vergleichen durch Abziehen auch definitiv nicht als Referenz nutzen. Ionenweaper 17:06, 17. Jun. 2007 (CEST)
Ah und noch was. Der Test wo nur die Grafikkarte vermessen wird ist ganz gut, nur eben etwas blöd, dass es ein relativ langsamer Pentium 4 ist, wodurch doch die schnelleren Karten ausgebremst werden. Deswegen ist dieses Zitat "Karte X zieht höchstens 161W" eben falsch. Die Karte zieht bei Vollauslastung 161 Watt oder mehr. Würde man ihr mehr Freiraum geben, würde sie höchstwahrscheinlich noch mehr ziehen. Hab doch extra das Wort mindestens da oben ganz Fett markiert^^ --Juri S. 17:31, 17. Jun. 2007 (CEST)

Auf vielfachen Wunsch hab ich den Stromverbrauch in den Artikel eingearbeitet. Hab das ganze mal unter der Überschrift "Geschichte" untergebracht. Kritik mit Verbesserungsvorschlägen kann wie immer hier geäußert werden. :) --Juri S. 05:11, 18. Jun. 2007 (CEST)

Ich war mal so frei und habe den Abschnitt unter Technisches verschoben, passt meiner Meinung nach dort besser hin als unter Geschichte. Die restlichen Änderungen waren meist kosmetischer bzw. orthografischer Natur, bei der Leistungsfähigkeit des Netzteils habe ich noch eine weitere Information ergänzt. Ionenweaper 21:24, 18. Jun. 2007 (CEST)

Leistungswerte falsch?

Also im NVIDIA CUDA Programming guide wird von 350 GFLOP/s bei einem G80 chip gesprochen, bzw ist dies im Diagram auf Seite 1 ablesbar. Wobei hier als G80 eine Geforce 8800 GTX angegeben wird. [1]

Sehr schöne Frage. Ich könnte ja eventuell was dazu sagen aber ich warte noch auf eine Erklärung von den Leuten, die die Werte eingetragen haben. Falls dir in den nächsten paar Tagen keiner antwortet, lösche einfach die Werte aus der Tabelle, dann kriegst du bestimmt eine Antwort. --Juri S. 01:43, 13. Jul. 2007 (CEST)
@Juri S.: Wie wäre es, wenn du wenn dir bei den Angaben was passt konstruktiv mitarbeitest? Mit solchen Einstellungen lässt sich ein Artikel sich nicht verbessern, das Wiki-Prinzip basiert ja auf der Technik der Mitarbeit. Vielleicht hast ja DU diesen Eintrag übersehen? Zudem der wohl schon eine Weile drin steht und ohne Datierung wohl übersehen wurde.
@Thema: Die unterschiedlichen Zahlen entstehen durch die Nichtbetrachtungsweise der zweiten MUL-Operation eines ALUs. Denn diese Leistung lag auf jedem Fall zum Launchzeitpunkt braucht, der Multiplikator wäre hier also nur 2 statt 3. Technisch ist die aber nutzbar, müsste man sich eben mal aktuelle Treiber ansehen. Ionenweaper 15:32, 13. Jul. 2007 (CEST)
Ich arbeite konstruktiv mit und du brauchst mir das Wiki-Prinzip nicht zu erklären. Unter anderem ist mir aufgefallen, dass sich hier keiner dazu äußert und hab deswegen noch mal eure Aufmerksamkeit darauf gelenkt. Nicht mehr und nicht weniger. Wie kann ich den Eintrag übersehen haben, wenn ich euch doch darauf aufmerksam mache?! Was mir nicht passt, ist dass ihr irgendwelche Werte übernehmt ohne sie zu erklären. Das war ja auch einer der Gründe warum ich mich für den einen Hinweis zu "Leistungsdaten" eingesetzt habe. Du erinnerst dich bestimmt an die Diskussion. Es hat mich auch gewundert, dass ihr einfach die GFlops-Zahlen übernommen habt und den Hinweis zur zweiten MUL-Operation, der sonnst immer dabei steht einfach nicht übernommen habt.[Wie hier zum Beispiel][2]: Ganz unten steht der Hinweis.
Wobei, so weit ich das sehen kann, gilt der Hinweis nur für Grafikshaderleistung. Der zweite Mul wird nicht komplett für die Grafik verwendet, sondern soll eben auch noch für andere, spezifische Tätigkeiten bereit sein... Aber bei CUDA müsste auch der zweite MUL gleichberechtigt behandelt werden. Wenn ich das also richtig sehe, ist deine Begründung nicht korrekt, da er sich eben auf CUDA und nicht auf die Grafikleistung bezieht. Die Begründung für die abweichenden Zahlen liegt also ganz wo anders. NVIDIA gibt die Leistung der gesamten GPU an. Dazu gehört auch die Effektivität des Thread Execution Managers, der ganzen Caches auf der GPU und der restlichen Architektur. Ihr gebt dagegen nur eine rechnerische Leistung der Streamprozessoren an. Das ist wohl der Hauptunterschied, zumindest so weit ich das durchblickt habe. Vielleicht sollten wir in den Artikel noch einen Unterpunkt "Architektur" oder ähnliches einfügen und dort noch mal auf alles genaustens eingehen. GFlops des G80 ist für sich allein genommen auch nicht vergleichbar mit GFlops des R600, weil sie unterschiedlich aufgebaut sind und unterschiedlich skalieren. Das ist nämlich fast genau so als würde man einen Single-Core und einen Dualcore vergleichen, in dem man beim Dualcore einfach alles mal 2 nimmt. Rechnerisch mag das zwar stimmt. In Realität sieht es dagegen ganz anders aus und genau das ist das Problem der Angaben, wenn man so wenig auf die Architektur eingeht. --Juri S. 17:03, 13. Jul. 2007 (CEST)

Aussortierung der "Leistungswerte" und kürzung des Hinweises

Zitat aus Artikel: "Daraus ergeben sich folgende Leistungswerte" <-------Falsch! das stimmt so nicht!

Die Aussortierung der "Leistungswerte", die Überschrift und ein zu sehr gekürzter Hinweis suggerieren dem Leser, dass sich die "Leistungswerte" auf den kompletten Grafikchip beziehen. Tatsächlich beziehen sie sich jedoch nur auf bestimmte "Bauteile" (mir fällt gerade kein besseres Wort ein) des Grafikchips. Die ungekürzte Fassung des Hinweises verweist darauf hin, dass die Abstimmung, Ausnutzung und Einstellungen wichtig sind. Warum werden diese Informationen dem Leser vorenthalten? Warum wird der Hinweis nicht überarbeitet, sondern statt dessen nur auf den ersten Satz zu verkürzt? (Der vorstehende, nicht signierte Beitrag stammt von Juri S. (DiskussionBeiträge) 17:22, 25. Mai 2007)

Hallo,
Die Leistung einer Grafikkarte ist im Endeffekt ja von verschiedenen "Leistungswerten" einzelner Bauteile bzw. der entsprechenden Zusammenschlüsse abhängig. Daher ist ja auch ein direkter Vergleich möglich. Der restliche Hinweis ist an dieser Stelle nicht notwendig, da es hier um die Geforce-8-Serie geht und nicht zum Beispiel um die Speicherbandbreite. Das sollte in einen anderen Artikel, sonst entsteht unnötige Redundanz in der Wikipedia. Wenn es den nicht gibt, kannst du den auch gerne anlegen. ;-) PS: Diskussionseinträge bitte immer unterschreiben. Ionenweaper 17:29, 25. Mai 2007 (CEST)
Ja, sorry, hab die Unterschrift mal vergessen. /// Zitat: "Zusammenführung wegen Lesbarkeit nicht sinnvoll, sonst siehe Diskussion" Wieso den nicht lesbar? Es ist sehr gut lesbar. Die gesamte Tabelle ist sogar etwas kürzer als das "Blatt". Was hast du für eine Auflösung bei deinem Monitor? Mal davon abgesehen ist die inhaltliche Aussage wichtiger als das Erscheinungsbild. Letzteres ist Geschmacksache und ich kann sehr gut die größere Tabelle lesen und habe einen besseren Überblick als mit zwei Tabellen. Juri S. 17:44, 25. Mai 2007 (CEST)
Welchen Artikelnamen schlägst du den für diesen speziellen Hinweis vor? Ich wüsste nichts, wo man den sinnvoll unterbringen könnte, dass auch jeder Leser, der diese Seite besucht auch diesen Hinweis ließt und sich dann über die Situation im Klaren ist. "Hinweisredundanz" ist dagegen nicht so schlimm. Juri S. 17:52, 25. Mai 2007 (CEST)
Ah, Zwischeneinschübe ... Nunja, zum Thema: Generell Füllrate, da kann man die verschiedenen Punkte erklären (da fehlt sowieso noch ein Artikel). Zur Speicherbandbreite kann man im Artikel Bandbreite vielleicht was ergänzen, da habe ich aber die Leistungs-Tabelle auch noch einen Hinweis eingefügt. Ionenweaper 17:59, 25. Mai 2007 (CEST)
Guten Morgen. Ja, den Artikel Füllrate habe ich auch schon die ganze Zeit vermisst. Was das Anlegen des Artikels angeht, so muss ich dich leider darauf hinweisen, dass im Normalfall immer derjenige den Artikel anlegen muss, der dies auch Vorschlägt ;-) :) (Es sei den, er hat keine Ahnung von der Materie) Ich war schließlich auch mit dem ungekürzten Hinweis voll und ganz zufrieden. Vielleicht kannst du auch noch einen anderen Schreiber für dich gewinnen. Zum Beispiel die Leute, die was zu Texel geschrieben haben, müssten sich eigentlich mit der Texelfüllrate auch auskennen. Aber jetzt zurück zum Hinweis. Der Hinweis ist in der momentanen Form immer noch nicht ausreichend, auch wenn es den Artikel zur Füllrate geben würde. Ich werde mir das später noch mal anschauen Juri S. 09:54, 26. Mai 2007 (CEST)
Müssen tut man bei Wiki eigentlich gar nichts, außer sich an ein paar grundlegende Regeln zu halten. ;-) Wobei gewisse Dinge natürlich zum guten Ton gehören. Die Füllrate zu beschreiben ist aber nicht komplett mein Thema, das überlasse ich lieber anderen. Irgendwann wird sich schon wer finden. Ionenweaper 13:43, 26. Mai 2007 (CEST)


Die Tabelle sollte noch in 800*600 lesbar sein, aber spätestens 1024*768 ist ein Muss (Grenze vieler Laptops). Da sieht das jetzt schon nicht wirklich übersichtlich aus, und da werden wohl später noch mehr Modelle rein müssen... Inhaltlich dient aber die Aufsplittung genau so, da sich eine Vergleichsmöglichkeit weiterhin anbietet. Und auch die gesamte Grafikkarte hat eine Texelfüllrate, nicht nur die GPU. Ionenweaper 17:49, 25. Mai 2007 (CEST)
Meine momentane Monitorauflösung ist 1024*768 und ich kann die Tabelle sehr gut lesen und habe noch Platz! Natürlich hat die Grafikkarte eine Texelfüllrate. Angegeben wird aber nur die Texelfüllrate der GPU. Genau das ist ja das Problem. (PS: Schau mal, ich hab über dir noch ein Comment zum vorigen Beitrag hinzugefügt.) Juri S. 17:57, 25. Mai 2007 (CEST)
Hab noch einen Bezugshinweis in den Artikel eingebaut. Zur Lesbarkeit: Unter 1024*768 geht es zur Zeit noch, aber schau dir mal die große Version mit 800*600 an, da wird das so eng das man nur noch scrollt. Ist eigentlich nicht akzeptabel. Zwei einzelne Tabellen bekommt man aber auf den Bildschirm. Ionenweaper 18:03, 25. Mai 2007 (CEST)

Die Leistungswerte von Grafikkarten bzw. internen Grafiklösungen definieren sich maßgeblich über die Füllraten, der Speicherbandbreite und arethmetischen Leistung. Was also soll an der Formulierung und den Überschriften irreführend sein? Das es sich um theoretische Werte handelt, ist ja eindutig gekennzeichnet. --Stickedy 14:53, 30. Mai 2007 (CEST)

Die Bandbreite ist definitiv kein Leistungswert. Sie wird für die Leistung benötigt, ist aber kein Leistungswert. Genauso wie der Durchmesser der Spritleitung zum Motor nicht zu klein sein darf damit der Motor die Leistung bringen kann. Dennoch wird kein Mensch auf die Idee kommen, den Durchmesser als "Leistungswert" zu beizeichnen. Außerdem sind die Füllraten und Flops Zahlen nur auf die einzelnen Teile der Grafikkarte bezogen. Diese Werte entsprechen nicht dem theoretischen maximalen output der GESAMTEN Grafikkarte, was du aber in deiner Überschrift implizierst --Juri S. 15:02, 30. Mai 2007 (CEST)
Ich denke Leistungsdaten ist vom Begriff OK. Denn auch die Bandbreite ist verantwortlich für die Leistung, und kann genau so limitieren wie die Pixelfüllrate oder ähnliches. Worauf sich die einzelnen Rechenleistungen beziehen steht ja in der Tabelle, in der Überschrift muss das nicht als Info weitergegeben werden. Man kann in einem Artikel über einen chemischen Stoff unter Eigenschaften ja auch über Eigenschaften bei niedrigen Temperaturen oder einem hohen pH-Wert schreiben, ohne das man das konkret in der Überschrift äußert - dafür ist die einfach nicht da. Ionenweaper 15:44, 30. Mai 2007 (CEST)
Ich hab ja auch gesagt, dass die Bandbreite sehr wichtig ist, da sie für die Leistung benötigt wird. Da widerspreche ich auch niemanden. Dennoch ist sie kein Leistungswert. Ob das nun "OK" ist oder nicht, ist ja dann deiner Meinung nach "Ansichtssache"... Vielleicht solltet ihr aber mal doch lieber bei Wikipedia das Wort Leistung nachschlagen. ///Zitat:"In der Verkehrstheorie der Nachrichtentechnik ist die Leistung der Verkehrswert, den eine Anlage maximal verarbeiten kann." Zitat2: "Meistens ist mit Performance die Datenrate gemeint, also die Menge von Daten, die innerhalb einer bestimmten Zeitspanne verarbeitet werden kann." /// Die Bandbreite verarbeitet nichts, sie stellt nur Daten aus dem Speicher dem Grafikchip zur Verfügung. Da dies wichtig für die Leistung ist, sollte die Angabe auch nicht in der Tabelle fehlen, darf aber nicht als Leistungswert benannt werden. Was in der Überschrift als Infromation weitergereicht werden muss und was nicht, ist ja dann wieder deiner Meinung nach Ansichtssache, doch ich versteh nicht, was an der anderen "Definitions- und informationsrichtigen" Überschrift auszusetzen ist, das wir jetzt über eine andere Diskutieren müssen und abwägen müssen was "OK" ist und was den nun in der Überschrift "weitergegeben" werden soll und was man weglassen kann. Die ganze Diskussion ist damit vollkommen unnötig, da sie mit der anderen Überschrift erst gar nicht entsteht. Ich glaub, mehr werde ich dazu auch nicht sagen. --Juri S. 17:52, 30. Mai 2007 (CEST)
Man sollte aber beim Nachschlagen nicht den Kontext vergessen. Erstens steht unter Leistung „meistens“. Zweitens steht dort: „Speziell auf Computerspiele bezogen bezeichnet man mit Performance die erreichte Bildfrequenz, also die Anzahl von Bildern, die pro Sekunde gerendert werden.“ Und drittens: „Die Leistung bezeichnet in der Informatik den Ressourcenverbrauch und die Qualität der Ausgabe von Programmen und Hardware.“ All dies lässt sich konkret auf die Bandbreite anwenden. Daher kann man die Speicherbandbreite auch als Leistungswert definieren, und dies macht sich im Sinne eine kurzen, verständlichen Überschrift auch ganz gut. Die Definition aus der Verkehrstheorie interessiert in diesem Zusammenhang auch überhaupt nicht, da es hier nicht um Verkehrstheorie geht. Ionenweaper 18:02, 30. Mai 2007 (CEST)
Hmm, scheint ja doch eine interessante Diskussion zu werden. Wenn du schon zitierst, dann solltest du nicht gerade die umstrittensten Aussagen eines in Überarbeitung stehenden Artikels zitieren. Performance = Ressourcenverbrauch??? Der ganze Informatik-Perfomanceartikel ist noch nicht ausgereift, was auch das "meistens" erklärt. Leistung ist aber ein allgemeingültiger Begriff und die Nachrichtentechnik ist nun mal ein Teil der Datenverarbeitung und die wird nun mal auch in der Verkehrstheorie behandelt. Wie der Name schon sagt, ist es eine Theorie und dort kann man dann auch vom Verkehr der Daten reden... „Speziell auf Computerspiele bezogen bezeichnet man mit Performance die erreichte Bildfrequenz, also die Anzahl von Bildern, die pro Sekunde gerendert werden.“<-- Ja richtig, und dafür ist die Leistung des Grafikchips nötig, der wiederum auf die Daten aus dem Speicher und damit auch auf die Bandbreite angewiesen ist. (Genau so wie ein Motor auf einen Schlauch vom Benzintank zum Motor) Du kannst dir ruhig auch Leistung (Physik) durchlesen. --Juri S. 19:18, 30. Mai 2007 (CEST)
Na, wenn wir schon Vergleiche mit Autos machen, dann wenigstens richtig: Die Speicherbandbreite entspricht dann nämlich mitnichten dem Durchmesser der Kraftstoffleitung, sondern wohl eher der Förderleistung der Kraftstoffpumpe. Der Durchmesser wäre wohl eher äquivalent zur Busbreite des Speicherinterfaces und die Fließgeschwindigkeit zum Takt (OK, passt nicht ganz, aber ich denke es wird klar worauf ich hinaus will). Aber beide Werte stehen ja nicht in der Leistungswerte-Tabelle, sondern nur die daraus resultierende Speicherbandbreite. Und ja, zugegeben, die Förderleistung der Kraftstoffpumpe ist eine eher ungebräuchliche Angabe wenn es um Leistungswerte von Autos geht, aber ne Grafiklsöung ist ja auch kein Auto ;) Ich sehe jedenfalls kein Problem in der Beschriftung dieser Tabelle(n), da in allen online und gedruckten Magazinen die Leistung einer Grafikkarte über die Füllraten, die arithmetische Leistung und die Speicherbandbreite defniniert wird. Warum sollten wir in der Wikipedia von allgemein üblichen Vorgehensweisen und Formulierungen abweichen nur weil die Benutzung des Wortes "Leistung" nicht exakt der physikalischen Definition von "Leistung" entspricht? Die Wikipedia darf nicht am "Volk" vorbei reden... --Stickedy 08:40, 31. Mai 2007 (CEST)

8600er mit 512 MB

NVIDIA bietet kein Design für die GeForce-8600-Serie an, bei dem die 8600 GT und 8600 GTS mit 512 MB verbaut werden, vgl. [3]. Es gibt jedoch einige Sonderversionen von Drittherstellern. Üblicherweise werden diese bei Wikipedia nicht angegeben, vgl. z. B. die GeForce-6-Serie, dort gab es ja auch eine Sonderversion der 6800 GT mit 128 MB - oder die 7600 GT, hier gilt das gleiche. Stimmt auch für ältere Modelle: Beispielsweise wird auch keine 4800 Ti Se mit 250 MHz Chiptakt aufgelistet, die es vereinzelt auch gab - waren eben Sondermodelle. Zur Zeit gibt es von der 8600 GTS zwei 512-MB-Versionen, und zwar eine von Gainward und eine von Palit/XpertVision - welche zur gleichen Firmendivision gehören. Demgegenüber stehen 35 256-MB-Versionen der 8600 GTS verschiedenster Firmen (Zahlen sind von Geizhals und beziehen sich auf den europäischen Markt, eventuell gibt es in anderen Regionen geringe Abweichungen). Hier ist also von einem solchen Sonderfall auszugleichen. Ähnliches gilt für die 8600 GT. Daher verstehe ich jetzt nicht, wieso mehrmal 512-MB-Versionen der 8600er-Versionen wieder in den Artikel eingebaut werden bzw. meine Änderung revertet wurde. Habe ich irgendetwas übersehen? Ionenweaper 19:16, 29. Jun. 2007 (CEST)

Ich denke, gegen deine Argumentation ist nichts einzuwenden. Ich finde aber, dass das in diesen kleinen Hinweise-Unterpunkt rein sollte, der von herstellerabhängigen Taktraten spricht, denn da wird bisher nicht von variabler RAM-Ausstattung gesprochen. Ich hab daher mal diesen Unterpunkttext geändert und (beinahe) einheitlich in alle AMD/NVIDIA-Grafikkartenartikel ab GeForce4/Radeon9000 reingesetzt. --Uncle Pain 07:56, 30. Jun. 2007 (CEST)
Oh, hab vorhin den Diskussionseintrag übersehen. Aber es ist doch so, dass NVIDIA die Karten nicht selber herstellt und nur Referenzdesigns herstellt. Eine Verdoppelung der Speichergröße ist von daher nichts ungewöhnliches und muss von daher auch nicht unbedingt auf der Hompage stehen. NVIDA erlaubt den Herstellern die Ausstattung der Grafikkarte mit so viel Speicher. Das ist, was wirklich zählt. Bei der GeForce 8800GTX erlaubt NVIDIA zum Beispiel nicht eine Verringerung der Speichergröße, so dass es dieses Modell auch nicht gibt... Den unnötig verlängerten Hinweis hab ich mal gelöscht. Ist doch wohl besser die eine Zahl in die Tabelle einzufügen, als den Hinweis aufzublasen. Von mir aus kann man die 512MB Varianten auch in Klammern stehen lassen. Ihr klammert euch in diesem Punkt zu sehr an die Nvidia-Hompage und überseht die tatsächlichen Vorgänge im Grafikkartenmarkt. Nvidia hat die 8500 mit 512MB als Referncedesign gebastelt, dass dann die 8600 auch mit 512MB ausgeschattet werden kann ist selbstredend für die Hersteller und muss nicht extra von Nvidia angegeben werden.--Juri S. 15:01, 30. Jun. 2007 (CEST)
Um das vorab klarzustellen: Es geht hier meines Erachtens um das prinzipielle Vorgehen zur Modellproblematik. Wie man ja bei der GeForce4-Reihe und auch GeForce6-Reihe gut sehen konnte, gab es eine Vielzahl von Spezialmodellen einzelner Hersteller mit eigener GPU- bzw. Speichertaktfrequenz oder eben besonders dicke Speicherausstattung. Da wir hier aber genau sein wollen, haben wir die Wahl:
  1. Wir listen alle Varianten auf, die jemals existiert haben.
  2. Wir listen nur die Referenzvarianten auf und weisen darauf hin, dass in der Praxis noch weitere möglich sind.
Etwas dazwischen halte ich für unsinnig, weil es dann irgendwie haltlos wäre: Die Befürworter von Option 1 sähen zu viele Modelle gelistet, Anhänger von Option 2 fänden die Auflistung unvollständig.
Ich befürworte Variante 1, denn der Artikel behandelt die Modellserie an sich und nicht die Gesamtheit aller Herstellereskapaden drumherum. Wenn schon einzelne Modelle herausgestellt werden sollen, dann könnte man dafür ja sowas wie Liste der Grafikkarten mit einem Grafikchip der NVIDIA-GeForce-8-Serie aufmachen. Dagegen hätte ich absolut nichts, da darf auch gerne jedes Detail zu jedem Modell stehen.
In diesem Artikel sollten wir uns aber meiner Meinung nach auf die Referenzdesigns beziehen, die NVIDIA offiziell vorgibt - und das beinhaltet alle von NVIDIA genannten Eigenschaften und Größenangaben. Klarstellung zu Ende :)
Klar ist die Verdopplung der Speichergröße durchaus eine gängige Methode eines Graka-Herstellers, sich von der Masse abzuheben. Aber es ist damit eben nicht mehr das Referenzdesign, das ja schließlich auch die RAM-Größe vorgibt. Natürlich ist es lediglich das Austauschen der einzelnen Speicherchips durch doppelt so große, aber streng genommen ist das dann nicht mehr das Referenzdesign. Deine Behauptung, dass so eine Variante nicht unbedingt auf der NVIDIA-Homepage stehen muss, halte ich für gewagt: Was ist denn noch offiziell daran, wenn NVIDIA es nicht explizit als offiziell bezeichnet? Übrigens, ich bin mir ziemlich sicher, dass auch eine 8800GTX mit 384MiB RAM möglich wäre, das aber (noch?) niemand bauen will, weil zu nem Highend-Chip eben auch ne Highend-Speicherausstattung gehört und die kleineren RAM-Chips den Preis eh kaum senken würden, weil die GPU der Hauptkostenverursacher ist. (just my 5 cents!)
Jetzt zum Kernpunkt: Ich habe den Hinweis „aufgebläht“, damit er präziser formuliert ist und auch Speichergrößenvarianten miteinschließt. Natürlich wirkt das erst einmal länger als die kleine Erwähnung des 512MiB-Modells in der Tabelle, aber sobald wir damit anfangen, solche Varianten in die Tabelle einzutragen, haben wir gegen das oben genannte Prinzip verstoßen, entweder Option 1 oder Option 2 anzustreben und nicht irgendeine Zwischenlösung. Die Artikel sollen ja auch irgendwie konsistent sein, daher brauchen wir auch eine gewisse Disziplin, uns an Regeln zu halten. (womit ich nicht sagen will, dass die oben von mir aufgestellten Regeln jetzt allgemeingültig sind - sie sind lediglich mein Vorschlag!) Mag sein, dass das Ganze dann stark an die Theorie geklammert ist, aber mal hart formuliert: Was auf dem Markt passiert, hat in dem Artikel (fast) nichts verloren, hier wird die Serie vorgestellt, wie sie NVIDIA erdacht und veröffentlich hat. Wenn wirklich Bedarf oder der Wunsch nach Informationen zur Marktsituation besteht, dann schlage ich, wie oben formuliert, einen gesonderten Artikel dafür vor.
„Nvidia hat die 8500 mit 512MB als Referncedesign gebastelt“ (Juri S.) - kannst du dafür Quellen angeben? Die NVIDIA-Homepage erwähnt nur eine 256MiB-Variante.
„dass dann die 8600 auch mit 512MB ausgeschattet werden kann ist selbstredend für die Hersteller“ (Juri S.) - für die Hersteller bestimmt, aber für den Average User, der sich auf Wikipedia tummelt? Ich finde, in jedem Artikel sollte alles erklärt werden, was für das Begreifen der Zusammenhänge wichtig ist (im Fall von Redundanz ist Verlinken natürlich das Mittel der Wahl).
Ich werde diesen Artikel und den der Radeon-HD-2000-Serie erst einmal (bzgl. dieses Themas) nicht mehr anfassen, bis das hier geklärt ist: Ich mag Editwars nicht. Übrigens: Ionenweaper, was denkst du zu dem ganzen Problem? --Uncle Pain 12:43, 1. Jul. 2007 (CEST)
Ich stimme dir in dem Punkt überein, dass wir einen Konsens finden sollten - so ein bisschen Abweichung von den generellen Ideen führt zu haufenweise anderen Einträgen. Wenn man weitere Speichergrößen angibt, sollten wohl auch die Taktbereiche usw. angegeben werden. Bei der 2600 Pro von ATI hat sich jetzt auch ein Hersteller entschlossen, die Karte mit GDDR3- und nicht mit DDR2-Speicher auszustatten, usw. Das ist ja im Prinzip das gleiche und im Rahmen des Referenzdesign, wie auch höhere Taktraten. Entweder alles oder gar nichts. Falls die Option mit der Auflistung des Referenzdesigns gewählt wird, welche ich vorziehen würde weil der ganze Artikel sonst extrem aufgebläht wird, kann ich mir im Extremfall (z. B. 256 MB Referenz, aber es gibt praktisch genau so viele 512-MB-Versionen) auch eine Fußnote vorstellen, in der dann steht, dass es eben auch viele Versionen mit abweichenden Bauten gibt. So schlimm ist das aber bei den 8600er z. Z. nicht. Übrigens: Die 512 MB bei der 8500 GT sind wirklich Referenz, siehe den schon gegebenen Link: [4]. Daher habe ich zumindest die Speichergröße schonmal wieder normal dargestellt. ;-) Ionenweaper 15:02, 1. Jul. 2007 (CEST)
So "Selbstredend" ist es nicht, dass die Hersteller 512 statt 256 MB einbauen können, der Chip muss das ja auch ansteuern können. Wenn man der Gerüchteküche glauben kann, haben *eigentlich* alle Chips einen 256Bit-Speicherbus. Wenn jedoch weniger in der Standardversion vorhanden ist, kann ein Grafikkartenhersteller dies "aufbohren" (daher sind auch die Karten mit mehr Speicher 'nen Tick schneller).
Ansonsten Vorschlag für die Regelung: Speicher: alles auflisten, was vorkommt (dürften pro Chip 2, selten 3 Versionen sein). Speichertakt: Referenzwerte mit dem Hinweis. TheK 17:37, 1. Jul. 2007 (CEST)
Wieso sollte man denn verschiedene Regelungen mischen? Also zum Teil nvidia-Vorgaben, zum Teil Marktsituation. Das verstehe ich persönlich nicht - in einer Enzyklopädie sollte das schon korrekt sein. Ionenweaper 17:40, 1. Jul. 2007 (CEST)
Weil beim Speicher die Zahl der Varianten zum einen überschaubar ist und zum anderen nicht auch noch vom Benutzer selbst änderbar. TheK 18:53, 1. Jul. 2007 (CEST)
@Uncle Pain Richtig, die GeForce 8800GTX wäre mit weniger Speicher möglich, aber es gibt sie nicht, weil NVIDIA das (noch) nicht erlaubt. Genau aus diesem Grund hab ich die Graka ja als Beispiel genommen ;) Die GeForce 8800GTS gab es am Anfang auch nur mit 640MB, weil nVidia eben weniger nicht erlaubte (und nicht aus anderen Gründen, die du nennst) Das man sich in diesem Punkt nicht zu sehr an die Hompage klammern sollte, zeigt sehr eindrucksvoll der Vergleich der deutschen und engl. hompage (dein Link und Link von Ionenweaper)
@TheK Da ist nichts aufgebohrt. Das Speicherinterface ist das selbe und es werden nur größere Speicherbausteine verbaut, die auch problemlos erkannt werden. Das was du da erzählst ist einfach falsch.
@Ionenweaper Alle Taktraten anzugeben ist einfach kaum möglich. Die Speicherausstattung ist dagegen durch das Speicherinterface und die verfügbaren Speicherbausteine hinreichend eingrenzbar. Eine GeForce 8600GTS mit 512 ist weit sinnvoller als eine GeForce 8500 mit 512MB und du willst nur die 8500 mit 512MB angeben weil das auf der Hompage so steht? Das ist so sinnfrei wie die Werbung im "Blödmarkt" wo zu einer GeForce 6200 dann gesagt wird "TOP-Karte mit GIGANTISCHEM 512MB Speicher" So was werde ich hier bestimmt nicht unterstützen.
Wie schon gesagt, die 512MB Varianten sind von NVIDIA offiziell erlaubt und werden angeben. Für die Taktratenunterschiede ist weiterhin der Hinweis gültig, weil die Varianz viel zu groß ist.--Juri S. 18:18, 1. Jul. 2007 (CEST)
„dass dann die 8600 auch mit 512MB ausgeschattet werden kann ist selbstredend für die Hersteller“ (Juri S.) - "für die Hersteller bestimmt, aber für den Average User, der sich auf Wikipedia tummelt?" (Uncle Pain) Genau, weil für den Average User das nicht so selbstredend ist, geben wir die 512MB varianten auch an und lassen sie nicht einfach weg. --Juri S. 18:34, 1. Jul. 2007 (CEST)
Oh Mann, dass NVIDIA auf der englischen und der deutschen HP unterschiedliche Infos anbietet, finde ich fast schon peinlich. Danke euch für den Hinweis, also 8500GT auch mit 512MB :) Allerdings sind die HPs so ziemlich die einzigen wirklich verlässlichen Quellen, daher sollten wir uns wohl oder übel an diese „klammern“.
Von der offiziellen Existenz einer 8500GT 512MiB auf ne 8600GT/GTS 512MB zu schließen mag zwar naheliegen, aber wie gesagt, ich finde, dass das erst offiziell sein soll, bevor es hier aufgenommen wird. Ich bin bei sowas gerne prinzipientreu, Erklärung siehe mein voriges Posting. Ein Beispiel: Wenn man mal drei Speichergrößen (bspw. 128, 256, 512MiB) und zwei Speichertypen (DDR2, DDR3) annimmt, sind das bereits sechs Kombinationsmöglichkeiten für die Speicherausstattung. Sollen die jetzt alle in die Liste aufgenommen werden? Da ist es mir dann doch lieber, eine klare Linie zu verfolgen (nämlich rein NVIDIA-Vorgaben, ohne Marktsituation) und auf die Existenz solcher Modelle in nem Hinweis aufmerksam zu machen.
„Das ist so sinnfrei wie die Werbung im "Blödmarkt" wo zu einer GeForce 6200 dann gesagt wird "TOP-Karte mit GIGANTISCHEM 512MB Speicher"“ (Juri S.) - Diesen Vergleich verstehe ich nicht. Wir werten hier schließlich nicht, wir geben nur offizielle Informationen wieder.
„Genau, weil für den Average User das nicht so selbstredend ist, geben wir die 512MB varianten auch an und lassen sie nicht einfach weg.“ (Juri S.) - Und eben hier bin ich dafür, dass nicht die Speichergröße erwähnt wird, sondern ein Hinweis, dass noch weitere existieren (können) als die im Artikel angegebenen.
„Weil beim Speicher die Zahl der Varianten zum einen überschaubar ist und zum anderen nicht auch noch vom Benutzer selbst änderbar.“ (TheK) - Das mit der Überschaubarkeit kann nach hinten losgehen, siehe mein Beispiel. außerdem finde ich diese Idee irgendwie betont zweigleisig. Übrigens, inwiefern kann ein Benutzer denn überhaupt die Hardware modifizieren? Er kann doch lediglich Takt und Spannungen verändern; RAM-Ausstattung, Anschlüsse oder Interface nicht, die sind vorgegeben - aber eben vom Hersteller und nicht von NVIDIA! Und dieser Artikel geht doch über die NVIDIA-GeForce-8-Serie und nicht über Hersteller, die diese verbauen. Langsam gefällt mir meine Idee mit dem Grafikkartenmodelle-Artikel immer besser...
Halb offtopic: Ist es eigentlich schlimm, wenn ich die Diskussion auseinanderreiße, indem ich alle Antworten hier schreibe anstatt überall zwischenrein, wo's reingehört? --Uncle Pain 19:09, 1. Jul. 2007 (CEST)
Beim Vergleich "Blödmark" <-> Angabe in Wiki ging es mir um die Sinnhaftigkeit der Angabe und nicht um die Art der Angabe, also "Werbung", etc... Es geht mir auch ums Prinzip, dass eine schwächere Variante nicht mit mehr Speicher angegeben werden sollte nur weil die auf der Hompage steht und die stärkere Variante nicht angegeben wird obwohl sie in Realität mindestens genau so präsent auf dem Markt ist und wie schon zum hundersten mal gesagt von nVidia erlaubt ist und deswegen auch hergestellt wird.
Bei Varianten mit GDDR4 statt GDDR3 ist der Speicher nun mal ganz und gar nicht der Gleiche. Die Latenzzeiten sind anders, die Taktfrequenz ist anders und die Grafikkarte braucht einen Speichercontroller, der diesen Speicher unterstützt. Das ist was komplett anderes als einfach nur eine Verdopplung der Speichergröße und gehört hier also auch eigentlich gar nicht zur Diskussion. Wenn diese Versionen von NVIDIA oder ATI offiziell angegeben werden, werden wir sie auch angeben, was ja bei der HD2600XT GDDR4 bereits geschehen ist.--Juri S. 20:00, 1. Jul. 2007 (CEST)
Halb offtopic: Ne ist nicht schlimm, passt schon so.
Ah ja, den Grafkkartenmodelle-Artikel mit den ganzen Herstellern kannst du gerne auf einer eigenen Homepage machen. Für wiki ist so etwas aus meiner Sicht ungeeignet. Ich wäre der erste der bei einem Löschantrag mit "Ja, löschen" stimmen würde. Sorry, ich bin nur ehrlich. --Juri S. 20:12, 1. Jul. 2007 (CEST)
Aber gerade bei den schwachen Modellen mit wenig Speicher sollten doch entsprechende Hinweise in die Enzyklopädie rein, sozusagen ein Grund warum dieser Blödsinn passiert. Und das Verhältnis der 8500 GT mit 256 und 512 MB Speicher ist ja auch relativ ausgeglichen, wenn man mal auf den Markt schaut. Das dürfte sicher an der entsprechenden Vorempfehlung von NVIDIA liegen, denn bei der 8600 GT/GTS ist es ja eben nicht so. Und dieser Unterschied sollte deutlich sichtbar gemacht werden. Die möglichen schwankende Speicherbestückungen ziehen sich ja über viele Modelle. Vermutlich gibt NVIDIA bei den Modellen auch nur eine Mindestgrenze an, alla 256 MB+. Das heißt theoretisch wären da auch 1024 MB möglich, das Vorhandensein von Speichermodulen mit 1024 MBit-Kapazität vorrausgesetzt. Von daher würde ich das sein lassen, und mich auf offizielle Angaben berufen und bei deutlicher Flutung des Marktes mit anderen Modellen dies im Text erwähnen. Aber zu allererst sollten doch die offiziellen Modelle erwähnt werden, das ist doch kein Artikel über die Grafikkartenhersteller. Ionenweaper 20:21, 1. Jul. 2007 (CEST)
So so, wenn ATI also bei der HD2600Pro/XT, die 512MB-Variante auf die Homepage schreibt, so gibt es laut Wiki diese Karte und wenn NVIDIA das bei der GeForce 8600 nicht tut, so wird diese totgeschwiegen? Sinn=0. Prinzip=0. Die GeForce 8600 mit 512MB ist genau so offiziell wie die Radeon HD2600 mit 512MB oder die GeForce 8500 mit 512 MB und es gibt auch technisch gesehen keinen prinzipiellen Unterschied in der Speichervergrößerung bei den Modellen und die Karte wird auch genau so für den Retailmarkt in Serie produziert. Deswegen werden wir die GeForce 8600 512MB hier auch nicht verschweigen. Mit Verlaub, aber wenn ihr irgendwelche Homepage-Komplexe habt, dann schreibt doch eine e-mail an nVidia, die sollen doch mal die 512MB-Variante auf die Homepage hiefen, weil ihr es euch sonnst nicht erlauben könnt die Kate in Wiki aufzunehmen. Sorry, aber das ganze wird langsam lächerlich. Solange ihr meine Hauptargumente nicht widerlegt, braucht ihr euch nicht weiter an der Homepage aufzuziehen und mit irgendwelchen Prinzipien zu argumentieren. --Juri S. 12:21, 2. Jul. 2007 (CEST)
Was wäre denn dein Hauptargument? Ich sehe keines. ;-)
Im Übrigens gibt es durchaus einen wichtigen Unterschiede zwischen den PCBs der HD 2600 und der 8600, die HD 2600 hat nämlich doppelt so viele Steckplätze für RAM-Bausteiner als die 8600 (weitere auf der Rückseite), weswegen eine HD 2600 512 MB einfacher zu erstellen ist. Ionenweaper 13:29, 2. Jul. 2007 (CEST)
Wird bei der HD2600 die Speicherbausteinanzahl bei der Speichervergrößerung erhöht?Juri S. 13:59, 2. Jul. 2007 (CEST)
Genau, so passiert es. Die Anzahl wird bei der HD 2600 verdoppelt, mit 512 MB sitzen dann auch Bausteine auf der Rückseite. Ionenweaper 14:20, 2. Jul. 2007 (CEST)
Ok, dann ist das wohl ein weiterer Grund für ATI die Karte noch mal extra anzugeben. NVIDIA verdoppelt nur die Speichergröße und gibt die Karten auch nicht extra an. Ich muss dann mal die Aussage da oben von mir einschränken. "technisch gesehen kein Unterschied zwischen GeForce 8500 und GeForce 8600 bei der Speichervergrößerung." Damit wäre die Korrektheit wieder hergestellt. --Juri S. 15:37, 2. Jul. 2007 (CEST)
Oh jeh, sind die Argumente für dich wirklich so schwer zu sehen? Ich markier mal die wichtigsten für dich. Manche hab ich schon doppelt hier aufgeführt oder in einer etwas anderen Formulierung... ;-) Juri S. 13:59, 2. Jul. 2007 (CEST)
Ich bin auch keine Maschine. ;-) Aber gerade das Referenzdesign basiert doch auf 256 MB und andere Speichergrößen sind möglich, aber keine Empfehlung von nvidia. Und das merkt man doch auf dem Markt: Wie schon geschrieben, es gibt zur Zeit praktisch nur eine einzige 8600 GTS, die eine Firma unter zwei Firmennamen vertreibt (Gainward + Palit). Bei den 256-MB-Versionen sieht das ganz anders aus. Das hat nichts mit klammern an die Homepage zu tun, sondern ist direkt die aktuelle Marktsituation. Ich sehe da auch keine Bevorzugung von ATI, weil ja aufgrund der doppelte so hohen Steckplätze mehr RAM günstiger einzubauen ist und man daher auch 512 MB als Referenzdesign angibt... Ionenweaper 14:20, 2. Jul. 2007 (CEST)
Erstens meinst du, dass du keine Bevorzugung von ATI siehst, weil ja die Rambausteinanzahl erhöht wird. Doch dann muss ich direkt dazu sagen, dass aufgrund dieser Argumentation die GeForce 8500 gegenüber der GeForce 8600 bevorzugt wird, da hier die technische Umsetzung identisch ist. Mal davon abgesehen ist deine Argumentation auch ziemlich schwach, denn du argumentierst nur über den Preis. Wenn der Preis für die Speicherriegel teurer wird, kann im Gegenzug aufgrund weniger Bausteine bei nVidia die Herstellung der Platine billiger sein. Außerdem werden die großen Bausteine immer billiger. Ich hab jetzt auch keine Daten darüber um wie viel sich der Preis zwischen wenigen großen Bausteinen und vielen kleinen Bausteinen unterscheidet. Wird aber wohl nicht so riesig sein. Im Endeffekt ist der Preis ja auch egal, den der Kunde sieht beim Kauf den Preis. Tatsache bleibt aber das sowohl die eine als auch die andere Karte im Retailmarkt vorhanden ist. Ob die nun von 2 oder 5 Herstellern gefertigt wird, ist auch nicht grad das schlagende Argument. Ein Hersteller kann auch genau so viele Karten einer bestimmten Version herstellen wie fünf zusammen. Das ganze richtet sich eh nach der Nachfrage auf dem Markt. Es handelt sich ja hier nicht um eine Sonderanfertigung für irgend einen OEM-Hersteller wie zum Beispiel Dell oder HP oder sonnstigen... Es handelt sich hierbei um ganz gewöhnliche Retailkarten und zwar in beiden Fällen (HD2600 und 8600) --Juri S. 15:37, 2. Jul. 2007 (CEST)
Wieso argumentiere ich über den Preis? Ich wollte nur den technischen Unterschied zwischen 8600 / 2600 aufzeigen, der vermutlich der Grund für die unterschiedliche Unterstützungsweise der Hersteller bzgl. 256 <-> 512 ist. Ansonsten siehe unten. Ionenweaper 17:13, 2. Jul. 2007 (CEST)
„wenn ATI also bei der HD2600Pro/XT, die 512MB-Variante auf die Homepage schreibt, so gibt es laut Wiki diese Karte und wenn NVIDIA das bei der GeForce 8600 nicht tut, so wird diese totgeschwiegen?“ (Juri S.) - So unverständlich sich das auch für dich anhören mag: Ja! Auf die Seite gehört, was offiziell ist. Was offiziell ist, steht auf der NVIDIA-HP. Das ist kein Homepage-Komplex, sondern unsere verdammte einzige offizielle Quelle. Gib uns auch nur eine einzige offizielle Quelle, in der NVIDIA von der 512MB-Variante der 8600-Karten spricht und wir haben nix mehr dagegen. Aber ohne Offizielles wird hier nichts dazugedichtet, auch wenn der Markt wieder mal sein eigenes Süppchen kocht. Hier sollen die Informationen stehen, die NVIDIA betreffen. Im Umkehrschluss sollen Leser dieses Artikels wissen, was NVIDIA offiziell anbietet. Was andere Anbieter machen, kann und soll man woanders nachschauen.
Oder mal anders gefragt: Was verstehst du denn unter dem Begriff „offiziell“, wenn nicht Informationen direkt aus erster Hand? --Uncle Pain 14:59, 2. Jul. 2007 (CEST)
Laut meinem Wörterbuch aus Encarta heißt offiziell. Achtung, ich zitiere: "1. in der Öffentlichkeit, der Allgemeinheit bekannt; 2. amtlich, von e-r Behörde ausgehend, Ggs. → inoffiziell (1); 3. feierlich, steif, förmlich." Außerdem hab ich schon mehrmals gesagt, dass nVidia die Karte eben erlaubt und sie auch für den Retailmarkt hergestellt wird. Noch offizieller gehts wohl kaum. Habs auch noch mal dick markiert da oben^^ --Juri S. 15:37, 2. Jul. 2007 (CEST)
Es gibt einen Unterschied zwischen selbst entworfen, also Referenzdesign und das was hier dargestellt wird und erlaubt. Wenn ein Hersteller auf die Idee kommt, den Takt zu erhöhen, fragt er beim GPU-Hersteller an ob das geht bzw. findet eine Akzeptanz in seinen Dokumenten. Da wir hier aber die Referenz nvidias angeben, interessiert uns das nicht. Wenn ein Hersteller auf die Idee kommt, anderen Speicher zu verbauen, fragt er beim GPU-Hersteller an ob das geht bzw. findet eine Akzeptanz in seinen Dokumenten (aktuell z. B. Palit bei der 2600 Pro mit GDDR3). Da wir hier aber die Referenz nvidias angeben, interessiert uns das nicht. Aber wenn ein Hersteller auf die Idee kommt, mehr Speicher zu verbauen, dann soll das plötzlich angegeben werden? Das macht immer noch keinen Sinn, und darin ändern auch oben erwähnte Meinungen nichts. Dafür müsste man schon alle Modelle aufzählen. ;-) Ionenweaper 17:13, 2. Jul. 2007 (CEST)
Irgendwie hab ich das Gefühl, ich rede hier mit Bürokraten. Diese können laut meist verbreiteter Meinung auch nicht flexibel logisch entscheiden, sondern schauen nur auf irgendwelche Paragraphen. Jeder vernünfige Mensch, der diese Seite besucht trägt die 512MB Varianten für die 8600 ein. Die GeForce 8500 mit 512 MB gilt für die Hersteller quasi als Referenzdesign für die Speichererweiterung der GeForce 8600. Jedem, der sich auskennt ist klar, dass wenn die 8500 512 MB unterstützt, so unterstützt es auch die 8600. Nur ihr seht keine Zusammenhänge und wollt den Rest der Welt in eurem Glauben lassen. Jetzt wo ihr keine Argumente mehr habt, versucht ihre meine Argumente durch rethorische Maßnahmen zu umgehen. Ihr könnt euch ja gerne weiter in der Rhetorik üben, das ändert nichts an den Argumenten und so lange das so ist, bleiben die GeForce 8600 512MB Varianten stehen. "daran ändern auch oben erwähnte Meinungen nichts" ;-) --Juri S. 19:39, 2. Jul. 2007 (CEST)

Die Wirklichkeit ist: es gibt 512 MB 8600GT/GTS real zu kaufen. Was man jedoch nicht kaufen kann sind die Referenzkarten von nVidia, auf die sich die Infos von nV beziehen. Die 512 MB-Karten sind zudem bis auf die Speichermenge für den Gebrauch identisch mit den 256 MB Varianten. Ich habe bis jetzt noch keinen Grund gelesen, der es wirklich rechtfertigen würde, nicht einfach z. B. 256 - 512 MB zu schreiben. Und wenn es 128 MB-Versionen gibt, kann man ja auch 128 - 512 MB schreiben. Sollte sich die Wikipedia nicht lieber dem Anwender verpflichten, statt der theoretischen Marketingstrategie des GPU-Entwicklers, die den Anwender aber gar nicht betrifft, da er keine Referenzkarten kaufen kann, sondern nur bei Dritt-Kartenherstellern? Endorphine 11:30, 3. Jul. 2007 (CEST)

Einigungsvorschläge

Vorschlag: Warum geben wir nicht einfach beim Grafikchip mit an, wieviel Speicher dieser maximal unterstützt? Also die maximale Menge. Wieviel dann davon von wem auf welchen Karten verbaut wird, ist eigentlich erstens nicht unbedingt von Interesse (sprich, wenn 512 MB max. möglich dann könnens halt auch nur 256 oder 128 MB sein) und zweitens kanns uns auch egal sein. --Stickedy 18:27, 2. Jul. 2007 (CEST)

Weil es rein theoretisch keine festgelegte maximal unterstützte Speichermenge gibt bwz. wenn doch Aufgrund der verfügbaren Größe der Speicherchips, diese Größe total nichtssagend ist weil sie jenseits von gut und böse ist.. Es gibt nur eine maximal wirtschaftlich vertretbare Speichermenge und maximal sinnvolle Speichermenge oder ähnliches... --Juri S. 19:39, 2. Jul. 2007 (CEST)
Natürlich gibt es eine festgelegte maximale Speichermenge. Die ergibt sich aus der Auslegung des Speichercontrollers und der Speicherbusbreite. Das ist von Grafikchip zu Grafikchip unterschiedlich und wächst natürlich mit der Zeit an. --Stickedy 18:02, 3. Jul. 2007 (CEST)
Ich denke man sollte immer von der Realität und Praxis ausgehen bei Kauf-Hardware. Wenn der Speichercontroller beispielsweise auch 4096 MB-Versionen bei 66 MHz Takt unterstützen würde, diese Version aber auf dem Markt nicht erhältlich ist sollte imho darüber auch nicht unbedingt etwas in der WP stehen. Was aber in der WP stehen sollte ist meiner Meinung nach die Menge der sonst gleichartigen Versionen, die man als gewöhnlicher Anwender kaufen kann. Eine theoretisch und praktisch mögliche, aber nicht real existierende 8800 Ultra 32-MB TurboCache gehört daher imho genau so wenig in den Artikel wie 1024 MB 8600 GTS. Aber wenn es 512 MB 8600GT/GTS zu kaufen gibt, sollte man dies imho auch in einem Enzyklopädie-Artikel lesen können. Im Rechner normaler Anwender stecken ja keine theoretischen Möglichkeiten oder unverkäufliche Referenzkarten, sondern praktische Realisierungen von Karten-Drittherstellern. Endorphine 11:45, 3. Jul. 2007 (CEST)

OK, ich komm auch mal mit einem Vorschlag, eh wir uns totdiskutieren: In der Tabelle die normalen Speichergrößen (sprich NVIDIA-Referemz) angeben, per Fußnote falls vorhanden weitere verwendete Speichergrößen. Meinungen? Ionenweaper 20:50, 2. Jul. 2007 (CEST)

Oder wir schreiben sie einfach in Klammern dazu. Geht ja vom Platzverbrauch ganz gut. Siehe jetzigen Artikel. Juri S. 22:48, 2. Jul. 2007 (CEST)

Ich habe mir mal gestattet, die Vorschläge in einen extra Bereich abzutrennen. ;-)
Klammern geht sicher auch, ist ja im Endeffekt eine Design-Frage. Wichtig ist dann aber die Erwähnung des Umstandes, was die Klammern bedeuten. Ionenweaper 16:33, 3. Jul. 2007 (CEST)
Warum geben wir dann nicht die minimale und maximale kaufbare Version an? Also z.B. 128 - 512 MB. Was bei nVidia auf der Seite steht interessiert mich persönlich auch relativ wenig, wenn es definitiv Versionen mit mehr Speicher gibt, sollte das schon erwähnt werden, weil dann offensichtlich mehr möglich ist, auch wenn NVidia das nicht offiziell angibt --Stickedy 18:02, 3. Jul. 2007 (CEST)
Weil es teilweise seltene Versionen z. B. mit 128 MB und 512 MB gibt, diese aber extrem selten sind - z. B. bei der 7600 GT und massenhaft nur die 256 MB-Version verkauft wird (eben die nvidia-Referenz). Sowas fällt völlig bei einer Minimal-Maximal-Betrachtung weg. Ionenweaper 18:32, 3. Jul. 2007 (CEST)
Ja, aber ist wirklich relevant bzw. gesichert? Haben wir den Marktüberblick, dass wie das sagen können? Weisst du, oder jemand anderes hier, was in Südostasien in welchen Mengen verkauft wird? Also ich kann das nicht einschätzen, dafür bekommen wir einfach zu wenig Infos bzw. können sie einfach nicht lesen / vernünftig übersetzen lassen. Und dann stellt sich die Frage, was für Wikipedia relevanter ist: Die Tatsache, dass es entsprechende Modelle überhaupt gibt, oder welche davon am meisten verkauft wurden/werden? Ich würde ja zu ersterem tendieren...
Ich denke mal das mit den Klammern ist ein annehmbarer Kompromiss für alle. Den es werden alle auf dem Retailmarkt verfügbaren Speichergrößen angegeben und die Referenz hervorgehoben. Also eigentlich werden somit mehr Informationen überliefert als wenn man nur "von" "bis" angibt. Wenn es nach mir ginge, würd ich aber eigentlich nur die empfohlenen Speichermengen nicht in klammern schreiben und alles andere in Klammern. Das wären zur Zeit für alle Midrangekarten also 215 MB und alles andere dementsprechend in Klammern. Bei der 8800GTS kann man beide Speichergrößen als empfohlen ansehen, die größere für hohe Auflösungen und die kleinere für kleine Auflösungen. Aber wahrscheinlich lässt sich dafür keine breite Zustimmung finden? Deswegen wie schon gesagt einfach über das Referenzdesign entscheiden was in Klammern gehört und was nicht. Wenn ich mir die verschiedenen Meinungen hier anschaue, glaube ich, dass das als Kompromiss für alle eine annehmbare Lösung wäre. --Juri S. 08:19, 4. Jul. 2007 (CEST)

Ergebnis

So, mit dem aktuellen Status sowie den jetzt aktuellen Satz zu den Klammerangaben sollte hoffentlich alles beachtet sein. Gibt es noch irgendwelche Anmerkungen/Verbesserungen? Ionenweaper 20:37, 5. Jul. 2007 (CEST)

Betrachtungen zur Architektur in eigenen Artikel?

Tja, die Fragestellung steht in der Überschrift ... der Gedanke ist mir gerade so gekommen. Schließlich betrifft die Architektur ja nicht nur diesen Artikel, sondern auch den Artikel zur Nvidia-GeForce-8M-Serie und vermutlich (das ist jetzt lediglich Spekulation von mir) zumindest noch eine Nachfolgerserie im Form eines Refreshs. Allerdings ist mir der Name ... im Gegensatz zur Vorgängerarchitektur (CineFX - GeForce FX bis 7) auch nicht bekannt, die Artikel drehen sich ja meist um die Karten und betrachten die Architektur nur als „Beiwerk“... Ionenweaper 18:41, 3. Sep. 2007 (CEST)

Ich hätte auch nichts dagegen, wenn man hier im Artikel einfach einen Abschnitt "Architektur" anhängt. Bei der GeForce M steht ja bereits, dass die auf der GeForce basiert, da reicht dann auch einfach ein Hinweis so in der Form "Archiktur wird im GeForce 8 Artikel in allen Einzelheiten beschrieben" Bei der Nachfolgeserie kann man dann auch auf den GeForce 8 Artikel hinweisen und im GeForce 9 Artikel (oder wie der dann heißt) dann nur die Unterschiede zur GeForce 8-Architektur beschreiben. Also alles auch ohne einen zusätzlichen neuen Artikel lösbar. Juri S. 12:55, 12. Okt. 2007 (CEST)

G92

Es wird demnächst eine neue GraKa vom Typ GeForce 8800 GT kommen! Sie soll von der leistung her zwischen 8600 GTS und 8800 GTS sein!


Quelle: ComputerBase.de


LG (nicht signierter Beitrag von 83.215.182.42 (Diskussion) )

Demnächst wird dann erledigt, wenn demnächst eingetreten ist. ;-) Ionenweaper 16:17, 5. Okt. 2007 (CEST)
Die GeForce 8800GTS soll auch den neuen G92 Chip bekommen und überarbeitet werden. Außerdem soll die 320MB RAM Version entfallen, da die neue 8800GT diese ersetzt. Aber warten wir mal den offiziellen release ab... (nicht signierter Beitrag von 82.119.4.174 (Diskussion) )

8600 GS

ist hier nicht erwähnt, oder ist das sowas oem mäßiges ? [5] --88.76.217.10 15:30, 31. Okt. 2007 (CET)

soderle ^^ habs mir grade ma angeguckt...google liefert dazu keine ergebnisse...wenn man sich das mal anguckt widerspricht sich das ja auch vollkommen, da die GS nur für das low-end segment (84xx und 85xx zur verfügung steht und nich für die 8600 reihe...kP wo der fehler liegt...kann dazu nichts sagen sry! --Hellow 20:42, 23. Nov. 2007 (CET)
Das ist eine OEM-Karte, die wird unter anderem im neusten AlDI-PC eingesetzt. Sonst nicht für den Verkauf gedacht, ähnlich solchen Kombinationen wie der 8300 GS oder so ... gibt solche Modelle haufenweise, wies die Hersteller gerade möchten. Ionenweaper 20:52, 23. Nov. 2007 (CET)

G98

was heißt hier spekulationen -.- das nächste mal will ich ne ordentliche begründung...es wird diesen chip geben und ich habe es sogar mit quellen bestätigt...wird bis auf weiteres wieder eingeführt! --Hellow 20:25, 23. Nov. 2007 (CET)

Spekulationen gehören nicht in die Wikipedia, Quellen die darüber etwas meinen zu wissen helfen da auch nicht weiter. Siehe: Wikipedia:Was Wikipedia nicht ist. Ionenweaper 20:40, 23. Nov. 2007 (CET)

Fehler im Speichermanagement

Der G92 ist jetzt neu dazu gekommen. Der Text zum VRAM-Bug wurde allerdings nicht aktualisiert. Mir sind noch keine Quellen bekannt, die dem G92 auch den VRAM-Bug attestieren. Außerdem ist mir dieser Satz bishen suspeckt: "durch theoretische Überprüfungen ließ sich jedoch feststellen, dass jede Grafikkarte der Geforce-8-Serie diese Fehler besitzt." Wer hat die Überprüfungen durchgeführt? Wenn nVidia, dann sollte das dabei stehen, wenn jemand anderes, dann sollte ein Einzelnachweis eingefügt werden. --Juri S. 20:36, 26. Nov. 2007 (CET)

Computerbase sagt (Hervorhebung von mir): „Genauer gesagt handelt es sich um einen Fehler im Speichermanagement der kompletten GeForce-8x00-Serie, wobei der Bug bei den großen Karten mit 640 MB oder 768 MB logischerweise erst viel später (aktuell eben gar nicht) auftritt.“ Ich halte CB für eine seriöse Quelle, daher denke ich, dass man den Abschnitt generell stehen lassen kann. Ob der Bug bei der 8800 GT gefixed ist, wäre interessant zu wissen - wahrscheinlich ist es immerhin, weil der Bug schon ne Weile bekannt ist und nVidia beim G92 ja auch noch andere Veränderungen vorgenommen hat. --Uncle Pain 22:39, 26. Nov. 2007 (CET)

Es gibt Gerüchte, daß auch ältere Karten (bis hinab zur Geforce 6) von dem Problem betroffen sind. --88.73.17.70 20:39, 23. Dez. 2007 (CET)

Quelle für diese Gerüchte? Wäre übrigens sehr unlogisch, da sich a) Modelle der Geforce-7-Architektur in Tests bei gleichem Speicher und entsprechenden Situationen als nicht betroffen gezeigt haben, und b) die CineFX-Architektur (NV3x/4x inkl. G7x) nichts mit der US-Architektur (ab NV50 bzw. G80) zu tun hat. Ionenweaper 02:16, 25. Dez. 2007 (CET)

8800 GTS

nVidia hat scheinbar gefallen an dem Namen GeForce 8800 GTS gefunden. Alle Grafikkarten mit dem Namen in eine Spalte zu packen wird aber unübersichtlich und man weiß gar nicht mehr, was zu was gehört. Ich habe vorhin das ganze so sortiert, das man einen gewissen Überblick hat. Die Speichergröße ist nun mal bei allen GeForce 8800 GTS Karten ein wesentliches Merkmal und wird zur Unterscheidung auch immer angeben. Auch nvidia gibt auf ihrer Hompage die Speichergröße bei der GeForce 8800 GTS hinter dem Namen an, weil hier die Unterschiede doch sehr groß sind. Auch sortiert nVidia die alte GeForce 8800 GTS hinter der GT ein und die GT ist auch Leistungsmässig stärker weswegen diese Einsortierung seitens nVidia sinn macht. Deswegen finde ich als einigermaßen logische Sortierung diese hier: GeForce 8800 GTS 320
GEForce 8800 GTS 640 (<-mit 96 und 96+ Streamprozessoren)
Geforce 8800 GT
GeForce 8800 GTS 1024/512MB (<-die noch nicht offiziell vorgestellte GTS mit G92)

Bei den Leistungsdaten kann man dann die GTS 640 und 320 zusammen fassen (da wir scheinbar die Leistungsdaten der eingeklammerten Versionen nicht angeben, so wie ich das aus dem HD2000 Artikel entnehme.)
Einsortierung bei den den Leistungsdaten:

8800 GTS 640/320MB
8800 GT
8800 GTS 1024/512MB
--Juri S. 16:34, 29. Nov. 2007 (CET)


Erstmal: Entschuldige, habe den Beitrag vorhin übersehen.
Hier gibt Nvidia die 8800 GT aber eindeutig unter der 8800 GTS an, deswegen hatte ich es auch so einsortiert. Passt auch zur Benennung.
Sonst: Die unterschiedlichen Versionen (G80 u. G92) in unterschiedliche Zeilen zu packen, ist verständlich. Bei den gleichen würde ich die aber unbedingt in eine Tabellenspalte tun, sonst wird die Tabelle nur sehr unübersichtlich. Ionenweaper 22:05, 29. Nov. 2007 (CET)
Scroll mal weiter runter zu den Technischen Daten. Da ist die Karte gleich hinter der GTX eingeordnet, was auch logisch ist.
Sonst: Bei den 3 Spalten für die GTS wo jede Spalte noch mal irgendwie unterbrochen wird, blickt doch keiner mehr durch was zu welcher Karte jetzt irgendwie gehört. Was die Übersichtlichkeit angeht können wir gerne abstimmen. Meine Version findet man in der Versionsgeschichte. wenn ihr meint, das die Version von dir übersichtlicher ist, soll mir das auch recht sein. --Juri S. 00:34, 30. Nov. 2007 (CET)
OK, da kann sich Nvidia wohl nicht entscheiden. Kann ja auch sowohl eine als als auch die andere Karte schneller sein. Nunja, von mir aus können wir da auch gerne abstimmen, wie es notiert wird. Ich finde das wiegesagt so sinnvoller, da eine doppelte Auflistung von Karten die sich nur im Speicher unterscheiden in meinen Augen die Unübersichtlichkeit erhöht. Aber das ist wohl eine subjektive Meinung. Ionenweaper 00:57, 30. Nov. 2007 (CET)
Da die Geforce 8800 GTS 512 nun total unlogisch eingeordnet wurde, habe ich das nun nach der oberen Auflistung (sinnvoll nach Namen) orientiert, so wurde es in der Wikipedia ja bisher auch gehandhabt. Ionenweaper 18:08, 14. Dez. 2007 (CET)
Die G92- GT und GTS sind Refreshes der alten GTS 320 und GTS 640 und Refreshes wurden bisher immer "über" den "alten" Karten eingeordnet und genau so hab ich das hier auch eingeordnet. Nur weil die Karten jetzt weiterhin 8800 und nicht etwa 8850 heißen, müssen wir nicht unbedingt von diesem Vorgehen Abstand nehmen. Auch die Leistung der Refreshkarten ist oberhalb der alten Karten, wie auch in der Vergangenheit. Deine Einordnung ist unlogisch und wird noch unlogischer, wenn die G92-GTS mit 1024 MB erscheint. --Juri S. 00:15, 4. Jan. 2008 (CET)
Karten nach Leistung einzuordnen halte ich nicht für ratsam, da diese auf den betrachteten Fall ankommt. Sonst kommt beispielsweise immer wieder die Diskussion auf, ob die 8800 GTS 512 oder die 8800 GTX an die höhere Stelle zu setzen ist. Den Punkt kann man dann auch nicht klar beantworten, von daher ist eine solche Handhabung IMHO nicht ratsam. Eventuell sollte man die G80GTS noch zusammenpacken. Dazu muss man ja nichts am Prinzip der Einordnung nach Namen loslassen, die G80GTS heißt ja offiziell auch nur "8800 GTS" ohne jeglichen Zusatz. Dann entsteht die Reinfolge 8800 GT - 8800 GTS (G80) - 8800 GTS 512; das sollte wohl unter beiden Gesichtspunkten OK sein. Ionenweaper 02:02, 4. Jan. 2008 (CET)
Du hast doch selbst geschrieben: "Dieses Schema lässt sich allerdings nur begrenzt anwenden, da Nvidia unter den Namen „Geforce 8400 GS“ und „Geforce 8800 GTS“ verschiedene Grafikkarten vermarktet. So wurde der Name der 8800 GT auch im Bezug zur neueren Geforce 8800 GTS, die mit dem Zusatz „512“ (für 512-MiB-Speicher)versehen wurde, und nicht zu den älteren, G80-basierten 8800-GTS-Varianten gewählt." Der Name der neuen GT hat also nichts mit der alten GTS zu tun und deswegen bleiben wir auch am Namensschemaprinzip und ordnen sie unter die neue GTS und oberhalb der alten GTS. (Das mit dem 512-Anhängsel stimmt aber auch nicht wirklich und schon gar nicht bei der 1024MB Version. ;) Das muss auch noch geändert werden.) --Juri S. 11:30, 10. Feb. 2008 (CET)
Eine 1024-MiB-Version der 8800 GTS gibt es nicht (jedenfalls aktuell), und doch - der Name stimmt - siehe auf die offizielle Seite oder die Inf-Datei des Treibers, da ist immer von „8800 GTS 512“ die Rede. Man mag die 8800 GT vor oder nach die 8800 GTS (G80) stellen wollen können - das Namensschema ist jedenfalls zur neuen GTS gewählt wurden, passt aber durchaus über der alten - kommt wieder auf die Situation an. Im Zuge der Einheitlichkeit bevorzuge ich daher diese Variante klar nach Namensschema. Im übrigen habe ich die bis vorhin existente Variante mit der Ordnung als G80 wieder hergestellt, da sie deutlich übersichtlicher ist als eine weitere Trennung in 320 und 640 MiB (welche außerdem NICHT offizielle Namen sind!). Ionenweaper 15:23, 10. Feb. 2008 (CET)
8800 GTS 1024 wurde schon lange vorher angekündigt (hab grad keine Lust nach der Ankündigungsnews zu suchen) und es gibt sie auch zu kaufen. Danke für die Aufmerksamkeit und das Vertrauen in mich. http://www.alternate.de/html/product/details.html?articleId=247951&tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA Und das Namensschema passt durchaus nicht zu dem Alten. Ich kenne die nVidia Seite. Die 512 schreibt man als Erkennungsmerkmal dazu. Hat mit dem Namen an sich aber nicht wirklich was zu tun. Bei der 1024MB Version schreibt man eben 1024 MB dazu. So einfach ist das. Mach es dir nicht komplizierter als es ist und klammer dich nicht an die nVidia Homepage, sonnst können wir gleich den Artikel löschen und auf die nVidia Homepage verweisen. --Juri S. 16:37, 10. Feb. 2008 (CET)
@ Nomenklatur: Juri, woran sollen wir uns denn klammern wenn nicht an offizielle Daten (in diesem Fall von der nVidia-HP)? Ich jedenfalls finde es daneben, wenn wir (Wikipedianer) uns eigene Bezeichnungen zusammenreimen. Klar kann es ein Hersteller total verraffen und bescheuerte Namensschemata benutzen - aber genau so soll es dann hier niedergeschrieben werden, einfach weil es offiziell so heißt. Und auch, weil die Nachwelt dann sieht, dass das Marketing bewusst Kundenverwirrung miteinkalkuliert. Ein Artikel soll verständlich formuliert sein, aber nicht Fehler anderer geradebiegen.
Ich will auch nichts gerade biegen. Ganz im Gegenteil. Die Karte heißt eben nicht GeForce 8800 GTS 512, sondern einfach nur GeForce 8800 GTS und die Speichergröße wird einfach zur Erkennung von nVidia in der Tabelle und auch von den Verkäufern dazu geschrieben. Hat also nichts mit "eigene Bezeichnungen ausdenken" zu tun. Oder willst du mir sagen, dass eine GeForce 8800 GTS mit 1024 MB als 8800 GTS 512 bezeichnet werden soll? Das macht weder nVidia noch die Shops und hat auch nichts mit Kundenverwirrung zu tun, weil eben 1024 dran geschrieben wird und nicht 512. 512 gehört eben nicht zum Namen, sondern wird als Unterscheidungsmerkmal hinzugefügt, genau so wie die 1024...--Juri S. 18:06, 10. Feb. 2008 (CET)
@ Reihenfolge: Sollte die nicht primär lexikalisch und sekundär chronologisch sortiert sein? Zumindest habe ich das - im Gegensatz zu Juri - bisher immer so aufgefasst und halte es auch für am sinnvollsten. Demnach wäre die Reihenfolge wie von Ionenweaper vorgeschlagen (8800 GT - 8800 GTS (G80) - 8800 GTS 512 - 8800 GTX), wobei hier die chronologische Sortierung nicht mal zur Geltung kommt, weil "GTS" und "GTS 512" ja zwei verschiedene Namen sind (s. Begründung oben). Eine Sortierung nach Leistung(sdaten) sollte die Tabelle erst gar nicht vornehmen, denn die konkrete Leistung hängt sowieso immer vom Anwendungsfall ab. --Uncle Pain 17:38, 10. Feb. 2008 (CET)
Jo, die Chronologische Bezeichnung kommt nicht zur Geltung und braucht da auch nicht beachtet werden. Ein Refresh kommt über der alten Karte und gut ist. oder was versteht man unter einer "lexikalischen Einsortierung" und was ist an der Sortierung jetzt "unlexikalisch"? --Juri S. 18:06, 10. Feb. 2008 (CET)
Dir sollte bereits aufgefallen sein, dass die Karten nicht chronologisch sondern nach Namen sortiert sind. Die aktuelle Sortierung trennt die 8800-GTS-Karten, das ist Unfug. Ionenweaper 18:19, 10. Feb. 2008 (CET)
Ich habe geschrieben, dass es keine Chronologie der Namen gibt... Mal von der Einsortierung abgesehen, hast du gerade wieder die GTS 1024 gelöscht. Was soll das den jetzt? und die GTS heißt immer noch nicht GTS 512 sondern einfach nur GTS und die 512 oder 1024 werden je nach Ausstattung an den Namen angehängt. Wie wäre es denn, wenn du nicht einfach auf rückgängig klickst, sondern vorher schaust, was hier in der Diskussion gesagt wurde. --Juri S. 18:34, 10. Feb. 2008 (CET)
A) Wie man sicher aus den Zeiten der Aktionen sehen kann, habe ich zu eben erst auf die Diskussion geschaut und dann revertet.
B) Es gibt keine 8800 GTS 1024, nur eine 8800 GT mit 1024 MiB RAM. Ich habe vor dem ersten Bearbeiten extra nachgesehen, und keine gefunden - daher auch der Kommentar beim Bearbeiten. Und Nvidia bezeichnet die 8800 GTS 512 wirklich so, siehe den vorherigen Link. Die 8800 GTS (mit 320/640 MiB Speicher) hat in der Tat keinen weiteren Namen, daher ist die Bezeichnung als 8800 GTS 640 M(i)B auch falsch. Aus diesem Grund habe ich eine Klammer gesetzt und mit G80 auch die direkte Herkunft angedeutet. Ionenweaper 18:50, 10. Feb. 2008 (CET)
Wie, du konntest keine Finden? Ich habe doch schon ein Link hier gegeben, brauchst nur klicken, nichts suchen. Scheinbar hast du nicht wirklich hier was gelesen, auch wenn du hier vorher was geschrieben hast, bevor du reviertet hast. und auf der Seite von Nvidia steht
GeForce 8800 GTS (640 MB, 512 MB(3) & 320 MB) - NEU!
und
8800 GTS 512MB(3)
und nicht wie du behauptest 8800 GTS 512. Die 512MB wird eben einfach nur zur Unterscheidung angehängt, wie ich es hier schon mehrmals gesagt habe. Bei der GTS 640MB/320MB hat man in der Tabelle auf das anhängen verzichtet, weil es schon klar ist, da es bereits oben GeForce 8800 GTS (640 MB, 512 MB(3) & 320 MB) steht...
Die Einteilung findet sich auch auf der 8800er-Seite und im Treiber. Auf der Website mit "MB" dahinter, das ist richtig. Die "512" gehört aber auf jeden Fall in den Namen, im Unterschied zu den anderen Produkten.
Die 1024er-Version von Gainward ist auf deren Website noch nicht zu finden, was die G92-400 angeht bleibe ich aber sicher am Ball, eventuell kommt es dann ja zu einer Namensänderung. Ionenweaper 20:19, 10. Feb. 2008 (CET)

Na wunderbar, jetzt hast du endlich die "MB" auf der Webseite nach mindestens 3 unsinnigen Komplettreverts und ähnlich vielen Diskussionseinträgen erkannt. Was in der inf-Datei steht, ist völlig egal. Wenn nVidia will, können die sie dort auch "8800 ionenweaper" nennen. Hauptsache die Karte funktioniert dann mit dem Treiber. Die Karte heißt aber einfach nur "GeForce 8800 GTS", das steht auch auf jeder offiziellen Verpackung drauf. Die 512 MB werden einfach nur als Erkennungsmerkmal dazugeschrieben und genau so hab ich es auch hier bei Wiki gemacht, aber du musst dir ja ein extra Namen selbst ausdenken. Bei der alten GTS pochst du dadrauf, dass keine 640MB dahinter steht, schreibst aber selbst eine (G80) rein, was genau so wenig auf der hompage steht und auf dem Karton noch weniger. Auf dem Karton stehen die 640 MB wenigsten noch drauf, genau so wie die 512MB bei der GTS als ein wichtiges technisches Ausstatungsmerkmal. Ich frage mich wann diese unsinnigen Komplettreverts aufhören. --Juri S. 21:42, 20. Feb. 2008 (CET)

Die-Fläche G92

Die Angabe von 289 mm² schwirrt zwar besonders im deutschen Web oft herum, doch inzwischen mehren sich in mir Zweifel, dass die Angabe korrekt ist. In ihrem Review zur 8800 GT schreibt der recht anerkannte Techreport: „The G92 measures almost exactly 18 mm by 18 mm, or 324 mm².“ Bit-Tech.net misst in ihrem Review nach. Ergebnis: „The die size is around 330mm².“ Auch GPU-Z entnimmt seiner Datenbank (die immer mit gerundeten Werten arbeitet) 330 mm². Daher habe ich mich mal nach dem Ursprungsort dieser 289 mm² gemacht (der Wert war ja schon vor dem Release des G92 oft genannt wurden) und bin über diesen Forenpost gestoßen. Demnach steht nirgendwo etwas von diesen 289 mm²; sondern den Wert hat sich anscheinend jemand anhand der Relationen in dieser Dokumentation ausgerechnet und er hat sich sehr gut verbreitet. Da Falschaussagen allerdings durch Wiederholung nicht richtiger werden, nehme ich den 289-mm²-Wert erstmal raus und ersetze ihn durch die 324 mm² Quelle von Techreport. Neue Informationen zu dieser Thematik wären mir allerdings auch Recht, mich wundert die aktuelle Darstellung doch sehr. Ionenweaper 22:32, 3. Jan. 2008 (CET)

Warum G92?

^Sagmtmal, weiß jemand von euch, warum das ding G92, und nich G82, oder G88 heißt??? weil die namensgebung isn bissl unlogisch, das wäre ja dann schon der erste Chip der GeForce 9 serie... weil bis jetz wars ja immer so, dass halt immer G für GeForce, dann die Seriennummer, also bei der GF 8 halt 8 und noch ne zahl kam. nur hier is es ja G92... hat jemand ne idee warum?? Is das vllt noch keinem aufgefallen xD weil wie gesgat, laut bisheriger namensgebung wär das ja dann schon der erste GF9-Chip... -- Gruß Mihawk90 18:20, 4. Jan. 2008 (CET)

Das Zählkonzept von nVidia war noch nie wirklich konsistent. Früher hat nVidia sowohl bei Generationssprüngen als auch bei eingeschobenen Refreshzyklen lediglich um fünf NV-Nummern weitergezählt, z. B.: neue Generation NV30..34 -> Refresh NV35..39 -> neue Generation NV40..44. Der Refresh zur NV4x-Reihe war dann aber G7x. Die neue Generation war dann die G8x-Serie, der Refresh dazu die G9x-Reihe. Man könnte also sagen, mit der G-Zählweise wurden die 5er-Schritte durch 10er-Schritte ersetzt. So weit, so klar... damit dürfte ich deine Frage zu den Chipnamen beantwortet haben.
Wenn man bei der Betrachtung aber noch die Modellnummer miteinbezieht, stellt man schnell fest, dass nVidia hier gerne mal so und mal so vorging:
  • Die Refreshkarten der TNT1-Serie bekamen den Namen TNT2, also ne Nummer höher.
  • Die Refreshkarten der Geforce1-Serie bekamen den Namen Geforce2, also ne Nummer höher.
  • Die Refreshkarten der Geforce3-Serie bekamen den Namen Geforce4, also ne Nummer höher.
  • Die Refreshkarten der GeforceFX-5000-Serie behielten den Namen GeforceFX 5xxx (Bsp.: 5800 -> 5900/5950).
  • Die Refreshkarten der Geforce6-Serie bekamen den Namen Geforce7, also ne Nummer höher.
  • Die Refreshkarten der Geforce8-Serie behielten den Namen Geforce8, und das (zumindest bisher) sogar bei komplett gleichen Nummern (Bsp.: 8800GTS 320/640-> 8800GTS 512).
Konsistent ist was anderes und ich bin mir sicher, dass nVidia genau weiß, wie sehr sie den Kunden damit verwirren. Und um das Chaos perfekt zu machen, steht auch noch eine neue Zählweise der Chipnamen ins Haus: D8M für den bisherigen G98, D8P für den bisherigen G92 und D9x für die kommende GF9-Serie! (siehe DailyTech)
Die neue Zählweise macht immerhin deutlicher als die vorigen, womit man es zu tun hat, aber wie da Refreshchips gehandhabt werden, werden wir wohl noch sehen müssen. --Uncle Pain 22:52, 4. Jan. 2008 (CET)
Abgesehen davon könnte der G92 auch in der Geforce-9-Serie verwendet werden (inzwischen habe ich relativ viel Material zu einer Geforce 9800 GX2 gesehen). Ionenweaper 00:52, 5. Jan. 2008 (CET)
D8P heißt der doch jetzt, Mensch! Ich habe mir aber wegen der relativen Nähe von G92/D8P und D9M (9600GT) auch schon gedacht, dass die vielleicht auch einfach identisch sind, beim D9M aber ein paar Shadereinheiten und TMUs deaktiviert sind... time will tell :)
Ich habe mir übrigens auch schon überlegt, ob man allmählich genügend Informationen für nen Artikel zur Nvidia-Geforce-9-Serie zusammen hat... immerhin (sagt zumindest DailyTech) sind einige Infos auch schon offiziell und somit keine Gerüchte mehr. --Uncle Pain 12:54, 5. Jan. 2008 (CET)
Offiziell nur unter den Board-Herstellern. ;-)
Der korrekte Name ist übrigens weiterhin G92, so steht es auch auf dem Grafikchip selber. Dieser D9x-Namen u. ä. sind nur für die Partner gedacht, Nvidia selber soll weiterhin die Gxxx Namen nutzen (so habe ich zumindest gelesen). In der 9600 GT soll demnach der G94 verwendet werden. Naja, wir werden dann sehen was auf dem Chip draufsteht. Ionenweaper 13:07, 5. Jan. 2008 (CET)

Uaaahhh, "n bissl" verwirrend is das schon^^ naja, aber wie du schon sagtest, die werden genau wissen, DASS sie die kunden verwirren, was auch immer das ziel sein mag^^ nur die GeForce 7 war "nur" ein refresh der GeForce 6??? die hatte doch ganz andre leistungen... war das nich ne komplett neue Generation?? oder meinst du refresh = generation? aja, frage zu chip-namen geklärt -- gruß Mihawk90 19:07, 5. Jan. 2008 (CET)

Geforce 7 war ein einfacher Refresh der Geforce 6. Ist die selbe Architektur, man hat in den G70/71 einfach nur ein paar mehr Recheneinheiten gesteckt. Es gab auch keine Featureupdates (die Modelle hatten ja schon alles was es gab). Allerdings ist das nun keine Diskussion über diesen Artikel mehr. ;-) Ionenweaper 22:59, 5. Jan. 2008 (CET)

OpenGL

Ist OpenGL Version 2.1 ein Merkmal dieser Grafikkarte? Oder ist damit gemeint, dass Treiber mitgeliefert werden, die OpenGL-Befehle der Version 2.1 unterstützen? --Halbbruder 20:40, 17. Jan. 2008 (CET)

Beides, aber eher letzteres. Zur einfacheren Formulierung spricht man halt gerne von "OpenGL-2.1-Grafikkarten" bzw. "DirectX-10-Grafikkarten", obwohl diesbezüglich eigentlich der Treiber die wichtigste Aufgabe übernimmt. Trotzdem muss auch der Grafikchip selbst die Funktionalität anbieten, die damit erreicht werden soll, denn Softwareemulation ist eine hässliche Alternative. Gerade bei den großen Versionssprüngen bei DirectX sind ja immer wieder starke Funktionalitätsanforderungen eingeflossen; klar ist auch eine alte Karte DX10-compliant, aber sie und ihr Treiber implementiert nicht alle DX10-Features, damit gilt sie nicht als DX10-Graka. --Uncle Pain 15:39, 20. Jan. 2008 (CET)
Welche Anforderungen stellt den OpenGL 2.1 genau auf, damit die Hardware diese Schnittstelle unterstützen kann? Ionenweaper 22:08, 20. Jan. 2008 (CET)
Das müsste ich nachgucken, aber ich glaube, dass in irgendeiner 2.x-Version Shader dazukamen. Eben deswegen habe ich mich eher auf das DX10-Beispiel gestützt, da wusste ich das. --Uncle Pain 23:13, 20. Jan. 2008 (CET)

die 8800 gts gibt es inzwischen auch mit 1gb speicher , hab das mal hinzugefügt in der tabelle

GTS mit 1 GB V-RAM:

Es gibt bis zum heutigen Tage nur ein einziges Modell der GeForce 8800 GTS mit 1024 MB. Sie ist damit eine absolute Randerscheinung. Daher geht die Bezeichnung "8800 GTS 512 / 1024 MiB" komplett an der Realität vorbei. Wenn man sie schon unbedingt erwähnt, dann doch bittschön als explizites "Sondermodell" von Gainward. (-> zum Vgl. siehe GF7-Reihe [da war es tatsächlich noch üblich unter "Sonstiges" entsprechend bedeutende Ergänzungen vorzunehmen...]) Die Bezeichnungen in der 2. Tabelle (technische Leistungsdaten) sind ebenfalls mit Angaben zur variierenden Speicherbestückung bei den GT und GTS Versionen "gesegnet". Man sollte auch hier nur die offiziellen Bezeichnungen verwenden, denn sonst müsste man korrekterweise auch bei allen Mainstream- und Midrangemodellen sämtliche vom Standard abweichende Speicherbestückungen aufnehmen. Das wäre absurd. Die GeForce 7 Beschreibung sollte auch hier als leuchtendes Beispiel dienen... Einzig und allein die alten 8800 GTS Modelle hatten 2 offizielle Speicherbestücksgrößen, daher ist auch nur hier die Anfügung beim Namen gerechtfertigt. Alle schwächeren Grafikkarten sind überdies mit "GDDR2" bestückt und nicht mit "DDR2". Es gibt keinen DDR2 auf Grafikkarten.

Wenn es von der GTS mit 1GiB nur einen einzigen Hersteller gibt dann ist das durchaus ein Sondermodell und gehört hier nicht rein. GDDR2 ist was anderes als DDR2. GDDR2 wird schon lange nicht mehr eingesetzt, gab es nur auf der FX5800, FX5700 Ultra rev 1 und einer Sonderversion der 9800Pro. --Denniss 14:05, 11. Apr. 2008 (CEST)
Tschuldigung, das ist doch absoluter Blödsinn.
Wenn man deiner Logik konsequent folgt, dann hat die "Geforce 7900 GTO" im GF7-Artikel ebensowenig eine Daseinsberechtigung. Worin liegt denn der praktische Unterschied bei der GTO? Nur das "O" im Namen? Jetzt steht die 8800 GTS übrigens wieder als "(1024)" drin.
Das ist doch mindestens 3-mal so dämlich! Entweder die detaillierte Beschreibung als "Sondermoddell" unter Angabe von Chip-, Shader- und GDDR-Takt bleibt erhalten oder dann bitteschön die "1024" gleich ganz herauslöschen! Was ich hiermit auch tue um alles abzukürzen.
Nvidia selbst gibt übrigens auch nur den Standardspeicherausbau an (und das auch nur bei den GTS-Modellen) Quelle? -> NV-Homepage! Eben drum - GDDR2 ist was anderes als DDR2. Nichts anderes behaupte ich. GDDR2 wurde (meines wissens nach mindestens) bis zur GeForce 6800 genutzt. Sicher, dass auf der GF8 normaler DDR2 verwendet wird? Ich nicht.


Wo genau ist den nun das Problem? In den Klammern werden Speicherausführungen angegeben, die in den Retail-Versionen auftauchen. Nicht mehr und nicht weniger. Taktraten der overclockversionen werden nicht angegeben, weil es zu viele sind und das steht auch im Hinweis. Nur weil für andere Hersteller eine GTS mit 1024MB nicht profitabel erschien, ändert das nichts daran, dass die GTS mit 1024MB eine weitverfügbare Retail-Grafikkarte ist. Ich verstehe die ganze Aufregung nicht. --Juri S. 18:10, 11. Apr. 2008 (CEST)

BTW: http://www.palit.biz/main/vgapro.php?id=631 und der Test: http://www.legitreviews.com/article/683/1/ --Juri S. 07:56, 12. Apr. 2008 (CEST)

Ich glaube ich habe genau genug bechrieben wo mein "Problem" liegt. Lies alles nochmals, vergleiche es mit den Einträgen und Darstellungen bei den Vorgängerreihen und du wirst es hoffentlich verstehen... Ohne mir die Links nun ansehen zu müssen, garantiere ich dir hier vom Fleck weg, dass es sich bei der einen einzigen Karte von gainward (die offenbar unbedingt in der Namensspalte den überflüssigen Zusatz "1024" tragen muss) um eine absolutes Sondermodell handelt. Schnellerer GDDR3, der weit über dem Standardtakt liegt, Chip- und Shadertakt liegen ebenfalls weit außerhalb der Normalspezifikationen. Und der V-RAM wurde verdoppelt. Das einzige was die Karte mit anderen GTS noch gemein hat ist das PBC... Doch es geht hier nichtmal ums technische. Es geht mir nur darum, dass man sich an das bewährte Beschreibungs- und Namensgebungsszenario der GeForce Reihe auf Wikipedia hält. Nur die offiziellen NV Namen samt Beifügungen wurden bisher in der Ersten Spalte verwendet. Jetzt nichtmehr. Das schlimme an der Sache ist, dass der fachunkundige Leser bei deinem derzeitigen, tollen Beschreibungsszenario nun schlichtweg denkt, es gäbe mehrere - von Nvidia abgesegnete - Standardmodelle der GTS mit 1024 MB. Das dies nicht der Fall ist haben wir ja jetzt ausführlichst geklärt...

Und um es mal ganz klar zu sagen - von administrativer Gewalt wider den gesunden Menschenverstand halte ich übrigens herzlich wenig. So wie das jetzt dasteht wird der Leser de facto verar*cht.

Vergiss die Unterschrift nicht. (geht mit vier mal ~)
Bisher gab es auch nicht unterschiedliche Karten mit dem selben Namen von nVidia. Was soll ich also da mit den Vorgängerserien vergleichen?! Die Speichergröße wird nur zur Unterscheidung angegeben und das steht auch so über der Tabelle. Du musst schon den Artikel lesen und nicht nur die Tabellen vergleichen. Zu dem übertakten habe ich mich auch geäußert (steht übrigens auch im Hinweis) und es bringt auch kein Hersteller eine Karte solange nVidia das in der Form nicht erlaubt. Es gab sogar mal eine Präsentationsfolie von nVida wo die 1024MB draufstanden. Leider finde ich die zur Zeit nicht. Ist aber kein Beinbruch, da eben kein Hersteller eine 1024MB version gebracht hätte, wenn es nVida nicht erlaubt. Die 1024MB GTS ist nicht viel unterschiedlicher als die 1024MB GT, nur das es die von wenigeren Herstellern gibt. Die 1024MB GT wird übrigens auch übertaktet. Das ist auch logisch, den der größere Speicher bringt mehr, wenn der chip etwas mehr Leistung hat, so gewinnt man Kunden, nur das wir hier die Taktraten nicht angeben. Siehe Hinweis. Die 1024MB GTS Version ist eine Retailversion und wird als solche hier in Klammern wie die 1024MB Version der GT angegeben. Da ist nun wirklich kein Unterschied. Eventuell könnte man auch beim Namen die Klammer machen, wenn dir das weiterhilft. Aber eigentlich ist die Karte in den technischen Angaben durch die Klammer und den Hinweis so gekennzeichnet wie sie ist. Nämlich als Retailversion und nicht als Referenzmodell. Und warum du dir die Links nicht anschauen willst, ist mir auch schleierhaft --Juri S. 00:37, 15. Apr. 2008 (CEST)

GFlop angaben ?

Wie mir gerade eben durch Zufall aufgefallen ist gibt es auf Wikipedia teilweise sehr unterschiedliche Angaben was die Rechenleistung diverser Grafikkarten angeht..

nur als Beispiel:

http://de.wikipedia.org/wiki/Cell_%28Prozessor%29#Weitere_Informationen

hier wird für die 8800GTX ein Wert von 345,6GFlops angegeben, auf der Wiki Seite der 8er Serie allerdings von 518 GFlops.

Also, was stimmt nu ;D

In diesem Artikel wird die zweite MUL für die Berechnung mitverwendet, die aber anscheinend nur selten gebraucht wird. In dem von dir verlinkten Artikel nicht, das ist der Unterschied. Ionenweaper 16:28, 6. Jun. 2008 (CEST)
Die Angaben dort beziehen sich auf tatsächliche Maximalwerte. Die Angaben hier sind dagegen nur theoretische Maximalwerte, wie im Hinweis steht. Tatsächliche Werte liegen logischerweise unterhalb der theoretischen, da man es einfach nicht schafft einen Code so zu schreiben, das alle Resourcen zu 100 Prozent ausgenutzt werden und der Thread-Manager dann auch noch alles 100 prozentig auf alle SPs verteilt und dann auch noch bei allen Rechenoperationen (beide MUL...etc..) verwendet werden.... Da wir aber hier nicht die Möglichkeit haben alle Karten durchzutesten, geben wir hier nur die theoretischen Werte an. Mit einem Hinweis drunter. --Juri S. 16:33, 6. Jun. 2008 (CEST)

Die Angabe von 345,6 GFlops für die 8800GTX ist die korrekte [6], kann man auch ganz leicht selber ausrechnen. Takt=1,35GHz, Cores=128, 2 Anweisungen pro Takt => 2 * 1,350 * 128 = 345,6 GFLOP/s. D.h. es ist eine reine theoretische Angabe und hat nichts mit echten Tests zu tun und ist das absolute theoretische maximum. Erst ab dem GT200 Chipsatz (cuda 1.3) können maximal 3 Anweisungen pro Takt ausgeführt werden (multiplikation + addition + multiplikation), was dann die Angabe von 518 Gflop wäre, ist aber für alle anderen Chisätze falsch und ein Fehler in der Dokumentation. -- Gorgo 02:10, 17. Nov. 2008 (CET)

Leistungsaufnahme

Woher kommen denn die Daten für die Leistungsaufnahme? Was mich wundert ist, dass bei der Geforce 8800 GT 138 W steht, obwohl Nvidia nur 105 W angibt [7]. --DeffiSK 16:58, 22. Nov. 2008 (CET)

8400 GS mit 128 MB

Es git auch eine Version der 8400 GS mit nur 128 MB. Ich weiß aber nicht wann sie vorgestellt bzw. gebaut wurde. Ich weiß nur, dass die (laut Verpackung) in einigen PCs von Medion verbaut wurde ("128 MB DDR2")
Wichtig/nicht wichtige? Irgend eine Idee wie man es einbauen kann?
--Kuru 20:07, 9. Aug. 2009 (CEST)