Diskussion:Color Graphics Adapter
CGA 'More Color' Modus
Laut dem englischen Artikel ist es möglich, die aktuelle Palette zu ändern, während das Bild auf den Bildschirm gemalt wird. dadurch lässt sich fast EGA-Qualität erreichen. Allerdings ist dieser Modus extrem Timing-Sensibel und sehr stark von der CPU-Geschwindigkeit abhängig. Ein Beispiel für ein Programm, das diesen Tweak verwendet hat, ist California Games: http://www.mobygames.com/game/dos/california-games/screenshots/gameShotId,7722/ (nicht signierter Beitrag von 131.246.225.158 (Diskussion) 01:38, 6. Aug. 2010 (CEST))
Binärpräfixe
Was soll der Schmarrn? Langsam aber sicher wird die Wiki echt eine "traurige" Sache :(. Da ändern selbstherrliche und/oder selbst ernannte Spezialisten mit Halbwissen und ohne Hirn mal schnell historische Tatsachen ab, nur weil es ihnen so in ihr zu kleines Weltbild passt. Einheiten und Normierungen hin oder her! Nur weil bislang eine Zeitschrift - PCGH - in Deutschland KiByte schreibt, muss dies noch lange nicht korrekt sein. Wieso schreibt dies dann die renommierte Heise.de, c't und ALLE anderen Publikationen nicht so? Schon mal nachgefragt? Und das trotz "Normierung"? Historisch haben die CGAs jedenfalls 16 KByte drin und NICHT 16 KiByte! Ob Euch das nun passt oder nicht. Sowohl in den technischen Daten als auch durch die Kapazitäten der Chips ... Danke! 06:16, 30. Jun. 2008 (CEST) Manno
- Es ist richtig, als die Binärpräfixe der Form KiB festgelegt worden sind, waren die CGA-Karten schon längt nicht mehr auf dem Markt. Trotzdem ist es auch richtig die Speichergröße in der Form von 16 KiB anzugeben. Wir geben schließlich auch den Durchmesser der Kuppel des Pantheons in Rom in Meter an, obwohl die Maßeinheit Meter zu der Bauzeit noch nicht existierte. (Auch die Zeitrechnung v. Chr. gab es zu Bauzeit nicht.) Die Bauzeit ist also kein Grund zur Änderung von Binärpräfixe auf SI-Präfixe. --Fomafix 10:38, 30. Jun. 2008 (CEST)
- Es ist wunderbar in der IT zu beobachten, dass außer ein paar Erbsenzähler der Rest der vernünftig genkenden Welt KiB und MiB und GiB geflissentlich ignoriert. Diese Definitionen stammen von ein paar Wichtigktuern, die ihre Chance gewittert haben, hier einen neuen Standard zu etablieren, obwohl der Rest der Welt mit der kleinen "Unschärfe" sehr gut zurecht kommt. 79.212.186.230 02:13, 26. Dez. 2012 (CET)
- Ein Tipp am Rande: Fragen sie einen solchen "Wichtigtuer" und "Erbsenzähler" einmal nach der Leistung seines Autos. Und wenn er dasn mit "xxx PS" antwortet, dann fragen Sie ihn, warum er sich nicht an seine eigenen Regeln hält. Die Angabe der Motorleistung in PS ist seit 1978 durch Watt, respektive Kilowatt, abgelöst. Außer auf Wikipedia ist mir die Angabe "Mebibyte" oder "KibiByte" nirgends begegnet, weder in der IT-Praxis noch in der einschlägigen Literatur oder den IT-Fachmagazinen. Thomas Merbold (Diskussion) 02:49, 16. Jun. 2013 (CEST)
- Konstrukte wie "KiByte" sind natürlich Käse -- außer vielleicht in Einzelfällen, wenn die Verwechslungsgefahr mit Kilobits (fast egal, ob binär oder dezimal) groß ist.
- Ansonsten aber finde ich die Binärpräfixe durchaus sinnvoll; man weiß wenigstens definitiv, was gemeint ist. Ansonsten ist oft Raterei angesagt -- verwendet hier jemand aus Marketingerwägungen dezimale Präfixe, weil dann größere Zahlen herauskommen (wie die Festplattenhersteller es seit jeher tun, ungeachtet der Sektorgrößen), oder wird stillschweigend "binär" vorausgesetzt, weil fest etabliert? Bei KB kann ich mir noch denken, daß vermutlich Faktor 1024 gemeint ist, weil das ISO-Präfix für "kilo" das kleine "k" ist, aber beim MB hört es mit der Eindeutigkeit früh und endgültig auf. Es schadet nicht, ab und zu etwas dazuzulernen ... --Tobias (Diskussion) 22:39, 13. Aug. 2013 (CEST)
- Es ist wunderbar in der IT zu beobachten, dass außer ein paar Erbsenzähler der Rest der vernünftig genkenden Welt KiB und MiB und GiB geflissentlich ignoriert. Diese Definitionen stammen von ein paar Wichtigktuern, die ihre Chance gewittert haben, hier einen neuen Standard zu etablieren, obwohl der Rest der Welt mit der kleinen "Unschärfe" sehr gut zurecht kommt. 79.212.186.230 02:13, 26. Dez. 2012 (CET)
Grafikmodi
Ich habe die folgenden Passagen entfernt: "von denen aber nur zwei echten Einsatz fanden" und "Bei DOS-Computerspielen wurde meist die Farbpalette 1 mit Magenta und Cyan verwendet".
Ad 1: Der hochauflösende Modus wurde zwar sicher seltener verwendet, aber das heißt nicht, dass er keinen echten Einsatz gefunden hätte. Windows 1.0 hat zum Beispiel CGA unterstützt und dabei natürlich diesen Modus verwendet. Bei Spielen wäre zum Beispiel Ishido, Teenage Queen und Leisure Suit Larry 3 zu nennen.
Ad 2: Auch das läßt sich nicht unbedingt so sagen. Beide Paletten wurden verwendet, manchmal in ein und demselben Spiel (z.B. Alley Cat).--Austriacus 11:55, 15. Jun. 2009 (CEST)
- Spiele, die nicht Modus 1 verwendeten, waren die absolute Ausnahme - von dieser Seite her ist das "meist" sehr wohl gerechtfertigt. 80.129.237.158 09:41, 13. Sep. 2009 (CEST)
- Sehe ich genauso. Wenn dann die üblichen Beispiele für die Verwendung der andern Farbpallete genannt werden, frage ich gerne nach weiteren Beispielen - dann wir des in der Regel dünn mit der Argumentation. Mehr als 95% der Spiele verwendeten die Palette 1. "Meist" ist hier also mehr als gerechtfertigt. 79.212.186.230 02:18, 26. Dez. 2012 (CET)
Warum diese Palette?
Mich würde mal brennend interessieren, WARUM meist diese schreckliche Palette in rosa uns türkis verwendet wurde, obwohl es eine deutlich angenehmere Palette gab. Hatte die Verwendung der grausamen Palette irgendwelche technischen Vorteile? --79.203.64.137 13:27, 24. Jan. 2019 (CET)
- Jedes Pixel braucht 2 Bits im Video-RAM. Bit 0 schaltet den Grün-Kanal, Bit 1 schaltet den Rot-Kanal. Blau ist entweder stets aus (Palette: Schwarz,Grün,Rot,Gelb) oder es wird ODER-verknüpft aus den beiden Bits (Palette: Schwarz,Cyan,Magenta,Weiß). (Okay, es ist etwas komplexer, da man bei Farbe 0 halt aus den 16 Textmodus-Farben wählen kann, der Default ist aber schwarz) --RokerHRO (Diskussion) 17:27, 24. Jan. 2019 (CET)
- Sorry, aber das verstehe ich nicht. Warum genau sind deshalb die grausamen Farben vorteilhaft? - War es vielleicht so, dass diese auf den damals noch weit verbreiteten Monochrom-Monitoren ein deutlicheres Bild ergaben als die andere Farbpalette? --79.203.64.137 20:04, 24. Jan. 2019 (CET)
- Nein, das war nicht der Grund. Das hatte technische Gründe. Die ersten 8 Farben werden mir drei Bit codiert wobei das erste Bit für rot, das zweite für grün und das dritte für blau steht. Die nächsten 8 Farben der 16er Palette sind die gleichen nur doppelt so hell. Ein Bildpunkt würde also mit 3 Bit oder 4 Bit beschrieben, was ziemlich ungünstig ist, denn dafür bräuchte man 24-32kB Bildschirmspeicher für ein Bild bei 320*200. Deshalb nahm man nur die ersten beiden Bits und nahm zwei Paletten: Bei der ersten ist Blau auf 1, bei der zweiten Blau auf 0 gesetzt:
- in Palette 1 ist Blau auf 1, schaltet man nun grün dazu, gibt das Cyan; schaltet Rot zu, gibt das Magenta.
- in Palette 2 ist Blau auf 0, schaltet man nun grün dazu, gibt das grün; schaltet Rot zu, gibt das rot.
- Damit kam man mit zwei Bit je Pixel aus. Ein ähnliches Speichersparkonstrukt wurde auch beim Apple II verwendet - dort entschied die Spalte in welcher Farbe ein Bildpunkt dargestellt wurde. Sowohl der Apple II als auch CGA entstanden zu einer Zeit in der Speicher einfach nur teuer war - das Kilobyte (nicht Mega- oder Gigabyte) kostete 1981 umgerechnet rund 25€ - bei einer CGA-Karte kostete also schon alleine der verbaute Speicher 400€. Die meisten hatten eh nichts davon, denn ein Farbmonitor war fast unerschwinglich. Auch beim C64 wurde ein entsprechenden Konstrukt gewählt: Dort konnte man zwar alle 16 Farben in einem Bild darstellen - innerhalb eine Blocks von 8*8 Bildpunkten durften jedoch nur vier verschiedene Farben auftauchen. 2003:CB:A724:DB01:2401:F82C:1E16:1FD3 12:39, 23. Nov. 2019 (CET)
- Das beantwortet die Frage immer noch nicht. Laut Artikel hatten die Entwickler im Vier-Farb-Modus zwei Paletten zur Auswahl, wobei kein technischer Vorteil der Verwendung der einen gegenüber der anderen ersichtlich ist. Trotzdem wurde (das schreibt der Artikel sogar) fast immer Palette 1 verwendet, und die Frage ist nun, warum die Entwickler sich so selten für die Palette 2 entschieden, obwohl diese mit rot/grün/gelb für viele (vermutlich die meisten) Szenarien viel natürlichere Farben liefern könnte als magenta/cyan/hellgrau. Die Antwort dürfte darin liegen, dass bei Wahl der High-Intensity-Variante von Palette 1 aus dem Hellgrau weiss wurde, und mit schwarz-weiss plus zwei bunten Farben lässt sich halt vielfach besser arbeiten als nur mit schwarz plus drei bunten Farben. Lieber tauscht man halt rot und grün gegen cyan und magenta als weiss gegen gelb. --Karotte Zwo (Diskussion) 15:47, 5. Mai 2021 (CEST)
- Das könnte zwar eine brauchbare Erklärung sein, aber laut Artikel war eine Farbe frei wählbar. Man hätte also schwarz gegen weiß austauschen und so trotzdem weiß darstellen können. Ich denke daher, der Grund liegt woanders, als im weiß. Wollte man nämlich einen Himmel darstellen, dann müsste man für die Palette 2 die freie Farbe auf blau festlegen, womit dann schwarz wegfallen würde, während man bei Palette 1 in Form von Cyan blau immer dabei hat. Dann muss man zwar auf grün verzichten, aber es ist leichter einen bspw. Erdboden in Magenta darzustellen und auf Grün zu verzichten, als auf Blau zu verzichten. Für einen Tageslichthimmel ist nämlich keine der 3 festgelegten Farben aus Palette 2 brauchbar. Mehr als Abendrot geht da nämlich nicht und das ist vielleicht spielerisch nicht gewünscht. Cyan geht dagegen immer. --93.229.162.195 11:55, 14. Dez. 2021 (CET)
- Das beantwortet die Frage immer noch nicht. Laut Artikel hatten die Entwickler im Vier-Farb-Modus zwei Paletten zur Auswahl, wobei kein technischer Vorteil der Verwendung der einen gegenüber der anderen ersichtlich ist. Trotzdem wurde (das schreibt der Artikel sogar) fast immer Palette 1 verwendet, und die Frage ist nun, warum die Entwickler sich so selten für die Palette 2 entschieden, obwohl diese mit rot/grün/gelb für viele (vermutlich die meisten) Szenarien viel natürlichere Farben liefern könnte als magenta/cyan/hellgrau. Die Antwort dürfte darin liegen, dass bei Wahl der High-Intensity-Variante von Palette 1 aus dem Hellgrau weiss wurde, und mit schwarz-weiss plus zwei bunten Farben lässt sich halt vielfach besser arbeiten als nur mit schwarz plus drei bunten Farben. Lieber tauscht man halt rot und grün gegen cyan und magenta als weiss gegen gelb. --Karotte Zwo (Diskussion) 15:47, 5. Mai 2021 (CEST)
- Nein, das war nicht der Grund. Das hatte technische Gründe. Die ersten 8 Farben werden mir drei Bit codiert wobei das erste Bit für rot, das zweite für grün und das dritte für blau steht. Die nächsten 8 Farben der 16er Palette sind die gleichen nur doppelt so hell. Ein Bildpunkt würde also mit 3 Bit oder 4 Bit beschrieben, was ziemlich ungünstig ist, denn dafür bräuchte man 24-32kB Bildschirmspeicher für ein Bild bei 320*200. Deshalb nahm man nur die ersten beiden Bits und nahm zwei Paletten: Bei der ersten ist Blau auf 1, bei der zweiten Blau auf 0 gesetzt:
- Sorry, aber das verstehe ich nicht. Warum genau sind deshalb die grausamen Farben vorteilhaft? - War es vielleicht so, dass diese auf den damals noch weit verbreiteten Monochrom-Monitoren ein deutlicheres Bild ergaben als die andere Farbpalette? --79.203.64.137 20:04, 24. Jan. 2019 (CET)
8x8 Raster und Nachteile gegenüber MDA - Fotos wären hilfreich
Im Artikel steht die Aussage:
„Der Zeichensatz nutzt ein 8 × 8-Raster, wodurch Nachteile gegenüber den Monochrom-Standards MDA und HGC in Kauf genommen werden mussten: die Buchstaben sahen sehr rasterartig aus, und die Zeilenabstände waren so gering, dass Unterlängen (wie bei den Kleinbuchstaben g, j, p, q, y) die Großbuchstaben der nächsten Zeile berührten.“
Wenn hierzu jemand Fotos, idealerweise im Vergleich zum Textmodus in MDA oder VGA bereitstellen könnte, dann wäre das sehr hilfreich sich darunter etwas vorzustellen. Am besten wäre es, wenn man gezielt die Kleinbuchstaben zeigt und mit anderen Buchtstaben kombiniert, wo das geschilderte Problem deutlich hervortritt. Da ich keine echte CGA Karte und auch keinen passenden CRT Monitor habe, kann ich kein Foto davon machen. Gegen Fotofehler wegen der Zeilenfrequenz eines CRT Bildschirms könnte eventuell eine längere Belichtungszeit helfen und mit stativ wird das dann auch ein stabiles wackelfreies Foto. --93.229.162.195 11:30, 14. Dez. 2021 (CET)