Diskussion:Video Graphics Array

aus Wikipedia, der freien Enzyklopädie

Verschlimmbesserung meiner (IP) Änderungen

ich hatte mal den folgenden Absatz hinzugefügt: Der VGA-Anschluss war auf eine einfache und brauchbare Signalübertragung zu einem analogen Röhrenmonitor ausgelegt. Die Panels moderner Flachbildschirme werden allerdings nativ durch digitale Signale angesteuert. Bei einem Anschluss an die analoge VGA-Anschluss werden somit die digital vorhandenen Bilddaten für den VGA-Port in Analogsignale gewandelt und später im Flachbildschirm wieder digitalisiert. Zur Umgehung dieser doppelten Wandlung wurden mittlerweile Grafikschnittstellen entwickelt, welche die digitalen Bilddaten des Grafikprozessors direkt an Flachbildschirme übertragen, wie DVI-D, HDMI oder DisplayPort. Mit dem Siegeszug der Flachbildschirme ist der VGA-Anschluss immer seltener anzutreffen. Bei vielen Grafikkartenherstellern sank in den letzten Jahren damit auch die Bau- und damit auch die auf Röhrenmonitoren erreichbare Bildqualität des VGA-Anschlusses bei aktuellen Grafikkarten. In einigen Bereichen ist er aber auch heute noch verbreitet, beispielsweise bei fest installierten Projektoren in zahlreichen Konferenz- und Vortragsräumen. Mit den digitalen Grafikschnittstellen ändert sich jedoch nur der Anschluss für Bildausgabegeräte, intern beziehungsweise aus Softwaresicht sind die meisten Grafikkarten auch heute noch weitgehend VGA-kompatibel.

Ich gebe zu, etwas lang und ausführlich.

Dieser Absatz wurde am 4.8. duch 87.171.3.200 mit dem Verweis auf "Prosa" geändert in: Erst ein Jahrzehnt später hat sich die analoge Übertragung als Manko herausgestellt. Für TFT-Displays mit einzeln ansteuerbaren Pixeln führt sie bei hohen Auflösungen (spätestens bei 1600x1200 Pixeln) zu Unschärfe und Unruhe (Moiré) im Bild. Die Nachfolger heißen DVI-D, HDMI und DisplayPort.

Der neue Absatz ist m.e. aus folgenden Gründen problematisch:

  • Das Problem ist darin, dass TFTs digitale Signale erwarten und bei einer VGA-Ansteuerung doppelt gewandelt werden (also Grafikchip(digital)->VGA-Ausgang(analog)->im TFT(wieder auf digital). Das Anschlussverfahren ist somit für das "neue" Ausgabegerät TFT suboptimal.
  • "TFT mit einzeln anteuerbaren Pixeln"-> häh? Auf jedem grafikfähigen Monitor lassen sich die Pixel natürlich einzeln ansteuern, das gilt sowohl für einen CGA-Monitor, ein VGA-Monitor oder ein TFT.
  • Hohe Auflösungen müssen nicht zwangsläufig zu Unschärfe führen, es hängt davon ab, wie gut der VGA-Ausgang gebaut ist und wie der Signalweg zum Monitor ausgestaltet ist. Früher waren so die Matrox-Karten berühmt für ihre scharfe VGA-Qualität auch bei höchsten Auflösungen. Bildmatsch kommt bei theoretisch optimalen Komponenten auch bei analog nicht vor. Allerdings wird heute am VGA-Ausgang zunehmend gespart (da er auch immer weniger genutzt wird) und auch die Signalkabel zu den Monitoren werden immer preiswerter, so dass es in der Praxis zu Unschärfe kommt. Das liegt nicht am Verfahren an sich, sondern an der Implementation.
  • Aus dem Absatz geht nicht hervor, dass DVI-D, HDMI und Displayport digitale Schnittstellen sind und sich somit prinzipbedingt für TFTs besser eignen (bzw. wurden sie ja dafür gemacht).

War mein Entwurf vorher vielleicht zu prosahaft, ist die neue Variante teilweise verwirrend oder falsch. D.h. es müsste eine weitere Überarbeitung her. Allerdings ist es natürlich schwierig. Für VGA, DVI und HDMI gibt es ja seperate Artikel. Andererseits kamen die VGA-Karten seinerzeit natürlich mit dem VGA-Anschluss auf den Markt. VGA-Karte und -Anschluss waren bis vor 8-10 Jahren gewissermaßen fest miteinander "verheiratet", eine Einheit... Und der VGA-Anschluss hatte auch seinen Anteil am Erfolg der VGA-Karte. (nicht signierter Beitrag von 217.83.112.81 (Diskussion) 16:43, 16. Aug. 2011 (CEST))

Holla, die Waldfee....
Punkt 1: DVI und HDMI sind Anschlussarten und haben mit VGA erst einmal so nichts zu tun.
Punkt 2: Gespart wird weder an den VGA-Ausängen noch an den Signalpegeln - diese sind genormt. Gespart wird unter dem Schreibtisch am VGA-Kabel, gerne nimmt man das billig, das dem Monitor oder dem Rechner beiliegt. Ein gutes VGA-Kabel kostet rund 20€ für die beidem Stecker plus rund 10€ für den laufenden Kabelmeter dazwischen. Und wer bereit ist über 100 Öcken in ein hochwertiges VGA-Kabel zu investieren, der wird merken, dass Full-HD auch per VGA wunderbar über 10m vom Rechner an den Beamer oder einem Monitor geschickt werden können ohne Schlieren und Farbfehler und von HDMI nicht unterscheidbar.
Punkt 3: DA -> AD Wandlung bei TFT über VGA - kein Problem bei hochwertiger Verbindung. DVI und HDMI sind zwar digital, aber viele verwechseln digital mit verlustfrei. HDMI, DVI und Displaport bauen aufeinander auf und sind fehlertolerante Übertragungsverfahren. Auch bei HDMI spielt die Kabelqualität eine Rolle - glauben viele nicht, bis man es ihnen zeigt, dass die mittelmässige Bildqualität des Heimkinos nicht am Beamer liegt, sondern seine Ursache auf dem Weg dorthin hat. Vor allem bei Fernsehern werkelt im Hintergrund eine aufwändige Korrekturlogik, die nicht nur das aktuelle Bildsignal, sondern auch die Bildsignale der Frames davor beachtet. Das kostet etwas Zeit, weshalb gute Fernseher/Monitore mehrere Betriebsmodi anbieten. Maximale Korrektur bei Kinofilmen - in die Berechnung werden die letzen 6 Frames mit einbezogen. Im Sportmodus mit schnellen Bewegungen werden nur die letzten drei Bilder beachtet, weil das Bild -6 schon zu weit abweicht und bereits 1/10tel Sekunde alt ist. In beiden Fällen wird das Bild n erst nach Eingang von Bild n+6 bzw n+3 angzeigt wird. Für Spielekonsolen, die eine schnelle Reaktion erfordern, kann dies zu lange sein, weshalb man im Gamemodus die Korrektur auf einen Interpolationsmodus zurückschalten kann, die Bilder werden jedoch ohne Verzug angezeigt. Dann merkt man, ob das Kabel was taugt oder nicht. Wenn als das Bild der xbox schite aussieht und es zu Fehlern kommt, dann liegt das weder an Microsoft (oder Sony für die andere Religion) bzw. dem Fernsehhersteller, sondern eventuell am Kabel. 79.212.148.209 21:11, 13. Okt. 2016 (CEST)
Also dass heutige Flachbildschirme bis zu 6 Bilder zwischenspeichern und zur Kompensation von Übertragungsverlusten verwenden, dieses auch noch abschaltbar sein soll, dafür hätte ich gerne einen Beleg. Ich kenne es nur von LCD-Fernsehern, die die 2 Halbbilder bei Interlace-Videoformaten zu einem Vollbild zusammenfügen und dieses dann anzeigen. --RokerHRO (Diskussion) 21:59, 13. Okt. 2016 (CEST)
Dann ruf bei den Herstellern z.B. Samsung an. Meine Belege kann ich dir gerne nennen, nur findest du die nicht im Internet. Leider ist es mir nicht gestattet diese Doku hier zu veröffentlichen. Zwischen den logischen Anzeigemodi und der Signalinterpretation gibt es noch eine Zwischenschicht. 79.212.139.187 23:57, 15. Okt. 2016 (CEST)
Dass es im Gaming-Modus bei LCDs keinen Input-Lag gibt, stimmt nicht, das wurde in vielen Tests gezeigt. Der Input-Lag wird lediglich reduziert. Das wurde in vielen Tests, die sich leicht googeln lassen, gezeigt. Keinen messbaren Input-Lag (was in der Praxis heißt <1 ms) gibst lediglich bei CRTs (über den Input-Lag bei Plasmabildschirmen, OLED und diversen exotischen Technologien wie FED weiß ich nicht Bescheid), da LCDs egal wie man das Bild dorthin überträgt es immer in ein digitales Format umwandeln muss und selbst bei digitaler Übertragung muss das Signal immer noch umgewandelt werden (der genaue Grund dafür ist wie die Farbwechsel in den einzelnen Pixeln beim LCD funktionieren, das zu erklären würde aber den Rahmen dieses Diskussionsabschnittes sprengen). Außerdem aktualisieren LCDs üblicherweise das Bild ausschließlich im horizontal vertical blanking interval, wodurch bei 60 Hz schon mal ein Lag von bis zu 16,66 ms entsteht, im Mittel 8,33 ms. Der tatsächliche Input-Lag ist auch im Gaming-Modus oft über 20 ms, was bei schnellen Shootern schon ein entscheidender Nachteil gegenüber einem gleich guten Spieler ohne Input-Lag sein kann. Ohne Gaming-Modus ist der Input-Lag natürlich meist im total inakzeptablen Bereich. --MrBurns (Diskussion) 00:08, 15. Okt. 2016 (CEST)
Welche Tests? Jetzt verlange ich mal nach Quellen. Wiedereinmal: Eine Spezifkation gelesen, aber nicht verstanden! Wiedereinmal vom CRT auf LCD geschlossen - ist ja schließlich alles gleich. Die Ansteuerung von LDC funktioniert vollständig ander als bei CRT. Kein mir bekannter LCD arbeitet Zeilenweise. Gibt es eine belastbare Quelle neben Google? Google ist keine Quelle! 79.212.139.187 23:57, 15. Okt. 2016 (CEST)
"Welche Tests" - Mir ist nur eine zuverlässige Methode bekannt, den Input-Lag zu testen: man schließt an die selbe Grafikkarte den zu testenden LCD und einen CRT als Referenz an. Der CRT hat prinzipiell keinen messbaren Input-Lag. Danach starte man eine Stoppuhr und macht ein Foto oder nimmt ein Video auf (das sind dann ja nur mehrere Fotos, die man auch einzeln anschauen kann). Derartige Test findet man leicht hunderte mit google oder youtube indem man nach crt lcd input lag sucht. Das ist nur das erstbesten passenden youtube-Resultate: [1][2]. Man sieht da, dass es große Unterschiede gibt, beim ersten Beispiel sinds ca. 3-4 Frames (also so Größenordnung 50-60 ms), beim zweiten ca. 10 ms, also nahe am theoretischen Minimum.
"Wiedereinmal: Eine Spezifikation gelesen, aber nicht verstanden! [...] Kein mir bekannter LCD arbeitet Zeilenweise." - Stimmt nicht ganz, ich meinte natürlich das vertical blanking interval, hab nur vertikal mit horizontal verwechselt. Mir ist durchaus schon lange bekannt, dass LCDs üblicherweise das ganze Bild auf einmal aktualisieren. Das geht auch aus meinem vorherigen Kommentar hervor, wie wäre ich sonst auf "bei 60 Hz", "bis zu 16,66 ms" bzw. "im Mittel 8,33 ms" gekommen? Der zeitliche Abstand zwischen den einzelnen Zeilen ist ja nur im µs-Bereich... --MrBurns (Diskussion) 21:43, 17. Okt. 2016 (CEST)

384*564 mit 820 Farben?

Ich konnte es zwar noch nicht unter echtem DOS ausprobieren aber von dieser Demo [3] wird behauptet dass sie 385*564 Pixel bei 820 Farben auf allen VGA karten hinbekommt. Also ist es scheinbar irgendwie möglich die im Englischen Wikipedia Artikel aufgeführten Beschrenkungen zu Umgehen. Daher schlage ich vor das wenn man die übernimmt, man vielleicht anmerken sollte das auch andere Nodi durch den richtigen Zugriff möglich sind.

Nunja, der Trick ist, dass die 820 Farben ja nicht *gleichzeitig* dargestellt werden. Bei deiner angegebenen Demo wird einfach während des Bildaufbaus die Palette geändert, sodass der Eindruck entsteht, man hätte es mit beliebig vielen Farben zu tun. Technisch sind aber trotzdem nicht mehr als 256 Farben pro Zeile möglich. Man sieht auf dem Screenshot auch sehr schön, dass das Bild vertikal in mehrere Bereiche unterteilt ist. Dies wurde auch gern in Spielen praktiziert soweit es sich anbot, was aber in Emulatoren wie DOSBox durchaus Probleme bereiten kann, weil sie die Palette nur über das ganze Bild ändern können und nicht zeilenweise. --87.170.88.114 12:50, 19. Dez. 2008 (CET)
Nein, es geht nicht auf allen Karten. Es geht nur auf Karten, die über ein Dual-Port VRAM verfügen und die damit ein Ändern der DAC-Table während des Seitenaufbaus erlauben. Es geht auch noch bei ganz alten Karten, die ein Beschreiben überhaupt nicht kontrollierten und anfällig für "VGA-Snow" waren. Mit einer "normalen" VGA mit einfachem RAM im Bereich der DAC-Register geht es nicht. Der Trick ist - wie schon über mir geschrieben, die DAC-Register während des Bildaufbaus zu ändern. 84.170.87.67 23:13, 12. Jun. 2010 (CEST)
Es geht und ging auf allen Karten - auch under DOSBox geht es - zumindest in der Version 0.74. Mit VRAM hatte das auch nichts zu tun - eher mit einer sauberen Programmierung. Das Ganze hat mit VRAM nichts zu tun, weil die Farbregister nicht im Grafik-RAM liegen. Der Trick lag im korrekten Abpassen der RZI und der Tatsache, dass die Zeit vor allem auf langsameren Systemen nicht ausreichte, alle 256 Einträge zu tauschen. 79.212.186.230 02:29, 26. Dez. 2012 (CET)
Klasse, erklär doch mal einem altgedienten Democoder wie man bei VGA an den Raster-IRQ herankommt? Im Gegensatz zu einem Homecomputer ist die Graphiklösung auf der PC Architektur ein eigenständiges Subsystem, das dem Host nur das mitteilt, was es für richtig hält - und das ist bei einer gut gelaunten VGA mal bestenfalls der Vertical Reftrace. Einen RasterIRQ gibt es bei VGA nicht. Die Magie steckt im Input Status Register der VGA, bei dem (oh Mann ist das lange her) Bit 0 meine ich in der Zeit der vertical Retraces auf 0 springt. Im Gegensatz zu einem Homecomputer hat der PC zwei sehr präzise Timer und einen solchen zieht man auf mit der Formel "gewünschte Rasterzeile-1 mal 30µs (glaube ich waren es)" und zündet das Teil. Bei diesem Mist dann auch noch den Sound ruckfrei zu halten, sind schon höhere Weihen und außer Copper geht dann nicht mehr viel - deshalb hat man auf diesen Mist mit den "Copper-Balken" beim PC auch gerne verzichtet, das machte man lieber auf dem Amiga, bei dem das mit dem Copper-Listen recht einfach ging. Ach ja, und den Schnee gab es bei CGA und dort auch nur bei der Original IBM - VGA hatte das Problem nicht mehr. 79.212.148.209 20:45, 13. Okt. 2016 (CEST)
Es gibt bei VGA keinen Rasterinterrupt, wohl aber kommt man über Port 3dAh sowohl an einen horizontal retrace HRT (bit 0 = 1) als auch an einen vertical retrace VRT (bit 0 und Bit 3 = 1). Indem ich bei einem VRT einen Zähler aufziehe und mit jedem HRT hochzähle (und bei jedem VRT nulle), kann ich mir einen eigenen Rasterzähler bauen. Das Ganze funktioniert erst ab einem 386er oder höher, weil der schnell genug ist um keinen HRT zu versäumen. Durch das Aufziehen eines Timers - wie du schon korrekt erwähntest - kann man dabei ganze Blöcke überspringen. Dies ging, weil VGA ein extrem exaktes Timing hatte. Das Ganze funktioniert auch unter DOSBox wunderbar. Würde das nicht gehen, würden viele Spiele nicht laufen. Die 385*564 werden durch die Umprgrammoierung des Display Controllers erreicht. VGA ist relativ flexibel, die 640*480 z.B. sind nur ein "Vorschlag". Grundsätlich ist jede Auflösungskombination möglich, bei der Breite * Höhe * Wiederholrate mit der Zeilenfrequenz in Einklang zu bringen sind. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 19:27, 17. Okt. 2019 (CEST)

MCGA

wird hier als "Multicolor Graphics Array" bezeichnet. Ich habe es aber irgendwie als "Monochrome Color Graphics Array" in Erinnerung, irre ich mich? --KGF 02:38, 17. Mai 2006 (CEST)

Vermutlich meintest du den MDA = Monochrome Display Adapter beim "Uralt-PC", kann das sein?80.133.238.253 13:19, 13. Sep 2006 (CEST)

MCGA war AFAIK eine auf 64 KB Videospeicher verkrüppelte "onboard"-Variante von VGA. Damit war 640×480 nur noch mit 2 Farben möglich, aber der für Spiele beliebte 320×200 Modus mit 256 Farben war weiterhin möglich, sofern das Spiel sich nicht auf die 256 KB Videospeicher der Original-VGA verließ, um Double Buffering oder Sprites zu verwenden. --RokerHRO 18:14, 14. Apr. 2009 (CEST)

Fehler im Artikel

Die Aussage "..., wodurch es z. B. auch möglich wird, eine VGA-Karte an einen Fernseher mit SCART-Buchse anzuschließen..." widerspricht dem weiter unten folgenden Satz: " * Die Horizontalfrequenz beträgt stets 31.5 kHz." und ist meiner Ansicht nach falsch. Es mag zwar möglcih sein, einen Fernseher anzuschliessen, jedoch kann dieser nur die Bildformate PAL B/G oder NTSC 'verstehen' und das Bild nicht anzeigen. Aufgrund der Interlace-Technik beider Formate ist die Horizontalfrequenz bei PAL 15625 kHz und bei NTSC 15750 kHz. Die Horizontal- oder Zeilenfrequenz errechnet sich aus Zeilenzahl mal Vollbildwiederholungsrate. Die Vollbildwiederholungsrate ist bei PAL i. d. R. 25 pro Sekunde und bei NTSC 30. Ausnahmen mögen die neuen Multisync/HDReady Geräte sein.

Meiner Meinung gehört das auch nicht an die Stelle, auch wenn es machbar ist, da es keine breite Anwendung gefunden hat. 217.81.209.199 02:30, 17. Sep. 2007 (CEST)

VGA und Scart geht nicht. 79.212.186.230 02:30, 26. Dez. 2012 (CET)

VGA Maschinencode

Wo ist der link zu ner genauen beschreibung wie man VGA ansteuert? Oder die Beschreibung selbst?

Google kennst du? --RokerHRO 11:59, 27. Dez. 2009 (CET)
Ist Sarkasmus und keine Antwort der Frage! Vor allem, wenn man bedenkt, was Google alles an Müll zurückliefert. 79.212.186.230 02:31, 26. Dez. 2012 (CET)
Jetzt sei mir bitte nicht böse, aber mit besagter Suchmaschine wird man schon sehr schnell fündig. Wenn du mit "ansteuern" eigentlich "programmieren" meinst, dann würde ich es auch der Suchmaschine so sagen. Bei "ansteuern" kommt in der Tat nicht viel brauchbares zurück. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 18:56, 17. Okt. 2019 (CEST)

WVGA

Neue Geräte werden auch mit Seitenverhältnis 16:10, also 800x480 ausgeliefert, sollte vielleicht noch erwähnt werden.

Bilder

Da es im Artikel explizit um den Grafikstandard und nicht um den VGA-Anschluss geht, finde ich die Bilder hier fehl am Platz. Die Abgrenzung sollte auch im ersten Absatz deutlich gemacht werden.--87.162.11.40 17:44, 30. Nov. 2008 (CET)

Stimmt. Man sollte Bilder von einer originalen IBM-VGA-Karte (oder den entsprechenden On-Board-Chips) machen und einbauen. Die Bilder vom VGA-Anschluss gehören in den anderen Artikel. Daher erstmal entfernt. --RokerHRO 12:03, 27. Dez. 2009 (CET)

EISA, 1987 ???

Inwiefern ist VGA mit EISA verbunden? Die ersten VGAs waren doch 1.) von IBM und 2.) Onboard-Chips für den MCA PS/2, bzw. ISA-Karten für ältere PC/ATs, oder sehe ich das falsch? Die Angabe "fast identisch mit MCGA" stimmt so auch nicht. MCGA war von den nutzerrelevanten Fähigkeiten her doch eher eine aufgemöbelte CGA. -- 92.229.232.182 03:01, 25. Okt. 2009 (CET)

Stimmt, VGA wurde für ISA "erfunden". MCGA ist jedoch meines Wissens eine auf 64 KB Bildschirmspeicher abgespeckte Onboard-Variante der VGA-Chips. Damit waren keine 640×480 in 16 Farben mehr möglich, aber der für Spiele beliebte 320×200 in 256 Farben schon. Müsste man mal in alten PC-Hardwarebüchern schauen, worin man softwareseitig VGA von MCGA unterscheiden konnte... --RokerHRO 05:48, 25. Okt. 2009 (CET)
Nope. MCGA ist der Vorgänger von VGA und nicht eine abgespeckte Version von VGA, sondern eine aufgebohrte CGA, die auf dem Motorola 6845 basiert. Das erste Aufbohren war die enhanced CGA, die im IBM PcJr mit mässigem Erfolg, als Tandy-Color mit besserem Erfolg beschieben wurde. Durch eine Verdoppelung des Graphikspeichers waren nun 16 Farben bei 320*200 Bildpunkten möglich. Die MCGA bekam einen weiteren Adressierungsmode (8 bit per pixel) und die RAMDAC - damit ist sie aber noch ein Stück von einer VGA entfernt. EGA ist eine Paralellentwicklung mit eigenem BIOS und gaaaaanz grob kann man sagen, das EGA + MCGA = VGA. 79.212.148.209 20:21, 13. Okt. 2016 (CEST)
Lege ich ein klein wenig Veto ein. MCGA und CGA verwendeten den Motorola MC6845, EGA verwendete einen eigenen CRTC, der zwar auf dem MC6845 basierte, bezüglich seiner Register jedoch zu ihm inkompatibel war. Damit gab es auf einer EGA grundsätzlich Probleme, wenn CGA-Graphik dargestellt werden sollte und der Mist direkt und nicht über das BIOS programmiert wurde. Technisch ist der VGA-Chip eine vollständige Neuentwicklung, der von den Fesseln einer CGA oder EGA befreien sollte und eine völlig flexible Auflösungsprogrammierung ermöglichte. Im Gegensatz zu seinen Vorgängern war bei VGA das Timing technisch nicht festgelegt, wohl aber durch viele Monitore (vor allem Festfrequenzmonitore). Dazu kam noch die Möglichkeit eines Portrenamings weshalb die VGA zu allen Vorgängern kompatibel betrieben werden kann. Man kann sagen, dass VGA seine Vorgänger einfach emuliert. Das man dennoch meist mit bestimmten Auflösungen arbeitete, lag an den damals zur Verfügung stehenden Monitoren. Mit SVGA kam dann noch die Möglichkeit dazu auf die RAMDAC zu verzichten und die Farben über RGB direkt im Framebuffer abzulegen, was zu HighColor und zu TrueColor führte. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 20:03, 17. Okt. 2019 (CEST)

Modus nach dem Einschalten

Befindet sich die VGA-Karte nach dem Einschalten in einem definierten Textmodus oder muss erst ihr Initialisierungscode im VGA-BIOS ausgeführt werden, der die dann in den Textmodus versetzt? --RokerHRO 15:14, 31. Aug. 2010 (CEST)

Beim Einschalten startet jeder Grafikadapter (egal ob Hercules, CGA, EGA, VGA oder was auch immer - z.B. Textadapter) im Modus 0 (2h, 3h: Startadresse ab B8000h bei 80*25er Textmatrix), der von jeder Grafikkarte beherscht werden muss. Zu diesem Zeitpunkt weiß die Bootstrap-Logik noch nicht einmal welcher Adapter verbaut ist. Moderne Rechner schalten selbst gleich danach in einen Grafikmodus - in der Regel noch bevor das erste Bild auf dem Monitor erscheint. Thomas Merbold (Diskussion) 03:34, 16. Jun. 2013 (CEST)
Das beantwortet meine Frage nur zum Teil. Es wird ja beim Booten des PCs auch das VGA-BIOS "gestartet" (d.h. beim Booten wird vom System-BIOS an bestimmten, wohldefinierten Adressen nach "Adapter-ROM" gesucht, und wenn gefunden, wird da reingesprungen), welches auf der Grafikkarte ist und somit "weiß", wie es die eigne Karte initialisieren muss. Die Frage war, ob eben diese Initialisierung vom VGA-Bios beim Booten erfolgen muss, oder erzeugt jede Grafikkarte, wenn ich sie nur mit Strom versorge, bereits von sich aus ein valides Bild auf ihrem VGA-/DVI-Ausgang?
--RokerHRO (Diskussion) 15:41, 16. Jun. 2013 (CEST)
Die Initialisierung der Graphikkarte hat mit dem VGA-BIOS nichts zu tun. Eine VGA-Karte braucht zu seiner Initialisierung nicht die CPU des Hostsystems. Das Main-BIOS enthält Code für die MDA/CGA-Karte und hängt an - wenn ich mich noch recht erinnere - IRQ10. Enthält die Graphikkarte ein eigenes BIOS, so wird damit der CGA-BIOS-Bereich überblendet. EGA und VGA machen das so, nicht aber Hercules, weshalb es für HGA auch keine echte BIOS-Unterstützung gibt und die Programmierung vollständig über Ports geschehen muss. 79.212.148.209 20:08, 13. Okt. 2016 (CEST)
Liebe anonyme IP,
deine ausführliche Antwort geht leider an meiner Frage völlig vorbei. IRQ10 ist der API-Einsprungpunkt für (primitive) Text- und Grafikfunktionen, der hat mit dem Initialisierungscode, der vom System- und VGA-BIOS beim Booten ausgeführt wird, nichts zu tun (wobei natürlich der Boot-Code im VGA-BIOS die Zieladresse für IRQ10 auf einen Einsprungpunkt im VGA-BIOS umschreibt und der Boot-Code möglicherweise auch anschließend diese API für eigene Grafikausgaben nutzt. Aber das war nicht meine Frage.) --RokerHRO (Diskussion) 21:51, 13. Okt. 2016 (CEST)
Lieber RokerHRO
Ich empfehle dir die Lektüre des IMB BIOS Standards von 1986 (meine ich). Dort ist im Detail erläutert wie sich eine GraKa anzumelden hat und wie die Initialisierung erfolgt. Es gibt keine systemweite Initialiesung. Das BIOS beim Bootstrap interessiert sich nicht für die speziellen Eigenheiten einer Graphiklösung. Die Initialisieruung geschieht immer nach dem gleichen Schema. Vielleicht solltest du aber auch die Frage verständlicher stellen. 79.212.139.187 00:05, 16. Okt. 2016 (CEST)
Ich denke, er will folgendes wissen: [i]Wenn man die VGA-Karte in ein System steckt, das das VGABIOS ignoriert, die Karte mit Strom versorgt und auf dem Textpuffer schreiboperationen durchführt, sieht man dann ein stabiles 80x25 Bild und den geschriebenen Text?[/i] ; da "moderne" VGA-Karten (NV42 und so) eigene Computer sind ist die Frage auch gar nicht so dumm, es könnte wirklich sein, daß die den BIOS-Bootstrap Code brauchen, um überhaupt die GPU zu starten und/oder in einen Emulationsmodus zu versetzen. VGA gab es auch mit reinem PCI und die konnte man auch in irgendwelche POWER-Syteme mit PCI stecken, dort wurde also garantiert kein VGA Bios ausgeführt. --178.4.147.182 15:06, 20. Mär. 2017 (CET)
Nach weiterem Nachdenken lautet meine Antwort: nein, wahrscheinlich nicht. Bei meiner AGP-Karte bleibt der Schirm ohne Signal (also nicht nur dunkel), wenn sie wegen Kontaktvoodoo eingesteckt ist, aber nicht gefunden wird. Außerdem benutzten frühere Grafikkarten einen 6845 oder äquivalentes (die Register der VGA kommen einem auch bekannt vor), und dessen Register muß man eben erst mal programmieren, damit er irgendwas macht. Natürlich könnte man eine extra Logik bauen, die ihn nach Power on erstmal in Modus 0 bringt ohne Software, oder einen 6845 verbauen der hardwaremäßig in Modus 0 startet, aber das ist zusätzlicher Aufwand und war nie nötig, da diese Karten immer ein VGA BIOS hatten (und brauchten, wegen int 10 Funktionen, die ohnehin bereitgestellt werden mußten) --178.4.147.135 06:46, 21. Mär. 2017 (CET)

Stellung von Microsoft

Von 1981 bis etwa 1990 nahm IBM bezüglich der PC-Hardware eine ähnliche Stellung ein wie bis 2005 Microsoft bezüglich der PC-Betriebssysteme (vgl. Microsoft Windows)

mMn hat MS diese Stellung noch immer, der Marktanteil von Linux ist gering und Apple kocht trotz x86 noch immer softwaremäßig sein eigenes Süppchen, Software-Standards, die in Linux geschaffen werden, werden deshalb von Windows nicht übernommen, umgekehrt aber oft schon, Treiber für Linux sind Mangelware und stammen meist nicht vom Hardwarehersteller, für Windows muss natürlich praktisch jeder Hardwarehersteller Treiber programmieren, weil sonst kann er nicht viel verkaufen, komerzielle Spiele gibts praktisch nur für Windows wegen DirectX und auch viel andere Software ist nur für Windows verfügbar (das gilt insbesondere für kommerzielle Software, aber nicht ausschließlich), Software, die nur für Linux verfügbar ist gibts eher wenig, usw. --MrBurns (Diskussion) 17:42, 25. Mai 2012 (CEST)

Gemeint ist vermutlich, dass die verschiedenen DOS-Varianten (DR DOS, PC-DOS, PTS-DOS, FreeDOS) Kompatiblität zu MS DOS anstrebten, die aber ab dem Erscheinen von Windows 95 mehr und mehr zum Nischenprodukt wurden. Wirr und off-topic, daher entfernt. -- Sloyment (Diskussion) 15:50, 27. Mai 2012 (CEST)

Inhalt der Default 256-Farbpalette

Die ersten 16 Farben entsprechen den CGA-Farben, aber woher kommen die übrigen Farbwerte? --RokerHRO (Diskussion) 18:19, 4. Sep. 2016 (CEST)

Auch die CGA-Palette wurde nicht zufällig gewählt und ist auch nicht für CGA typisch - sie wurde also nicht von CGA übernommen. Die ersten 8 Farben bestehen aus den beiden Nichtfarben schwarz und weiß sowie je den drei Grundfarben des additiven Farbsprektrums rot, grün und blau sowie deren drei Komplementärfarben und Grundfarben des substraktiven Farbspektrums cyan, magenta und gelb. Die Farben 8-15 sind die gleichen Farben mit doppelter Helligkeit - schwarz und weiß ergibt dort zwei Graustufen. Es gibt einen Sonderfall: Da es nach diesem Muster keinen Braunton gibt, aber ein schmutzgelb, wird beim "halbe" gelb der Grünanteil erhöht womit sich ein braun ergibt. Die restlichen 240 Farbgrundwerte bei VGA sind nicht festgelegt - sie werden von den Programmen und Karten unterschiedlich zusammengesetzt, bestehen aber in der Regel aus einem gleichmässigen Einspreizen des Farbraums. Die Basisfarbpalette aus 8 Grundfarben, mit doppelter Helligkeit kombiniert zu 16 Basisfarben, ergibt eine eher harte Farbdarstellung, weshalb man z.B. beim C64 davon abwich, was zu seiner charakteristischen pastellartigen Darstellung führte, die auf Fernsehgeräten das Flimmern reduzierte. 79.212.148.209 19:55, 13. Okt. 2016 (CEST)
Es stimmt natürlich, dass die restlichen Farben nicht einheitlich festgelegt sind, normalerweise sind es aber einfach die selben wie bei der ursprünglichen VGA-Karte von IBM. Unter DOS haben einige Spiele eigene Paletten verwendet. Im ROM der Grafikkarte ist nur die Standardpalette der jeweiligen Karte gespeichert. --MrBurns (Diskussion) 20:00, 13. Okt. 2016 (CEST)
Liebe anonyme IP, du hast zwar viel geschrieben, aber dein langer Text geht an meiner Frage total vorbei.
Ich schrieb: "Die ersten 16 Farben entsprechen den CGA-Farben". Ich schrieb nirgends, dass diese zufällig gewählt worden wären. Deine überausführlichen Erklärungen, wieso die CGA diese 16 Farben benutzt sind richtig, aber waren nicht das Thema. Meine Frage war, nach welchen Kriterien die übrigen 240 Standard-Farben im 256-Farbmodus der VGA-Karte kommen. Dass man diese per Software änden kann, weiß ich. Aber auch das war nicht meine Frage, sondern ich fragte nach den Default-Farben.
Ach ja, generell: Wenn ich auf der DS etwas frage, dann eben nur, weil die Antwort darauf in den Artikel gehört aber dort leider fehlt.--RokerHRO (Diskussion) 21:44, 13. Okt. 2016 (CEST)
Lieber RokerHRO
Was hast du "Das macht jeder wie er lustig ist" nicht verstanden. Es gibt keine Festelegung der Farben jenseits des Index 15. 79.212.139.187 23:48, 15. Okt. 2016 (CEST)
VGA palette with black borders.svg
Soso, aber wieso sind dann alle VGA-Kartenhersteller "gleich lustig" und benutzen die gleiche "Standard-/Default-Farbpalette", wie sie in nebenstehender Grafik dargestellt wurde? --~~
Weil sie, wie ich schon oben erwähnt haben, eben die meisten nach der ursprünglichen VGA-Karte von IBM richten. --MrBurns (Diskussion) 06:59, 21. Mär. 2017 (CET)

DVI, HDMI sind Spezifkationen für Schnittstellen

Umfasst VGA nicht ebenfalls solch eine Schnittstelle? User:ScotXWt@lk 13:24, 16. Okt. 2017 (CEST)

Ah, es scheint dieser Teil der Spezifikation ist unter VGA-Anschluss zu finden. User:ScotXWt@lk 13:42, 16. Okt. 2017 (CEST)

VGA-Anschluss und hohe Auflösungen

"Für TFT-Displays mit einzeln ansteuerbaren Pixeln führt sie bei hohen Auflösungen (spätestens bei 1600×1200 Pixeln) zu Unschärfe und Unruhe (Moiré) im Bild." Nope - das hat nichts mit VGA zu tun. Bei uns wird FullHD über VGA über 10m vom Rechner an den Beamer übertragen und das Bild ist gestochen scharf. Ist bei uns noch so, weil ich keinen Bock habe den Putz aufzureißen und ein neues Kabel zu verlegen. Das Problem, das Viele haben mit verwaschenen, Moiré-lastigen Bildern mit Geisterbild liegt in aller Regel, dass beim Kabel mal wieder gespart wurde. Dieses Kabel hat damals 130 Euronen gekostet und die waren es wohl wert. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 19:34, 17. Okt. 2019 (CEST)