Z-Buffer

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Tiefenpuffer)
Ein computergeneriertes Bild (oben) und der Inhalt des dazugehörigen Z-Buffers (unten)

Das Z-Buffering (auch Depth Buffering, Tiefenpuffer-[1] oder Tiefenspeicher-Verfahren[2]) ist ein Verfahren der Computergrafik zur Verdeckungsberechnung, also um die vom Betrachter aus sichtbaren dreidimensionalen Flächen in einer Computergrafik zu ermitteln. Durch Tiefeninformationen in einem sogenannten Z-Buffer („Z-Puffer“) stellt das Verfahren pixelweise fest, welche Elemente einer Szene gezeichnet werden müssen und welche verdeckt sind. Praktisch alle heutigen Grafikkarten implementieren Z-Buffering direkt in Hardware. Als Entwickler des Z-Buffer-Verfahrens gilt Edwin Catmull[3]; allerdings beschrieb Wolfgang Straßer das Prinzip etwa zur gleichen Zeit in einem anderen Kontext[4][5]. Die wichtigste Alternative zum Z-Buffering ist der Raytracing-Algorithmus.

Funktionsweise

Das Prinzip des Z-Buffering ist sehr einfach. Neben dem sichtbaren Teil des Bildspeichers, der die aktuellen Farbwerte enthält, gibt es einen weiteren Speicher, den Z-Buffer, der die Tiefe des sichtbaren Objekts an jedem Pixel enthält. Alternativ können die Pixelwerte im Framebuffer um einen -Wert erweitert werden. Zu Beginn werden die Einträge im Z-Buffer auf einen Wert gesetzt, der für eine unendliche Entfernung steht (Backplane Distance). Der Framebuffer wird mit der Hintergrundfarbe initialisiert. Jedes Polygon wird nun gerastert. Nur wenn der aktuell gerasterte Punkt des Polygons näher am Betrachter liegt als der Punkt, dessen Entfernung im Z-Buffer eingetragen ist, werden die Werte im Z-Buffer und im Framebuffer durch die Entfernung beziehungsweise die Farbe des aktuellen Polygons ersetzt.

Prinzip des Z-Buffers am Beispiel zweier sich schneidender Polygone

Die Reihenfolge, in der die Polygone gerastert werden, ist im Prinzip beliebig. Nicht nur Polygone, sondern beliebige weitere grafische Primitive können mit Hilfe des Z-Buffers gerendert werden.

Die Speichergröße der Werte im Z-Buffer hat einen großen Einfluss auf die Qualität des gerenderten Bildes. Wenn zwei Objekte sehr eng beieinander liegen, können bei einem Z-Buffer mit 8 Bit pro Pixel leicht Artefakte entstehen. 16, 24 oder 32 Bit tiefe Z-Buffer erzeugen weniger Artefakte.

Auf aktuellen Grafikkarten beansprucht der Z-Buffer einen bedeutenden Teil des verfügbaren Speichers und der Datenübertragungsrate. Mit verschiedenen Methoden wird versucht, den Einfluss des Z-Buffers auf die Leistung der Grafikkarte zu reduzieren. Dies ist zum Beispiel durch die verlustfreie Kompression der Daten möglich, da das Komprimieren und Dekomprimieren der Daten kostengünstiger ist als die Erhöhung der Datenübertragungsrate einer Karte. Ein anderes Verfahren spart Löschvorgänge im Z-Buffer: die Tiefeninformation wird mit alternierendem Vorzeichen in den Z-Buffer geschrieben. Ein Bild wird mit positiven Vorzeichen gespeichert, das nächste Bild mit negativem, erst dann muss gelöscht werden. Eine weitere Möglichkeit zur Optimierung ist die Vorsortierung der Primitiven: Werden zunächst die näherliegenden Primitiven gerendert, kann bei den weiter entfernten später direkt entschieden werden, ob bzw. welche Pixel gerendert werden müssen und welche von Vordergrundobjekten verdeckt werden, wodurch Texturierungs- und Pixel-Shader-Vorgänge eingespart werden können.

Algorithmus

Pseudocode

Der Z-Buffer-Algorithmus löst das Sichtbarkeitsproblem, indem für jeden Pixel die Position des dargestellten Objektes und die Farbinformation gespeichert wird. Weil als Blickrichtung normalerweise die z-Richtung verwendet wird, entsprechen die x-Werte und y-Werte dieser Position denen der Abbildungsebene und es braucht nur der z-Wert gespeichert zu werden. Man braucht also zusätzlich zum Bildpuffer einen weiteren Speicherbereich, der für jedes Pixel einen Koordinatenwert (z-Wert) aufnehmen kann. Nun kann man alle Objekte in beliebiger Reihenfolge zeichnen. Die z-Werte des nächsten zu zeichnenden Objektes werden berechnet und mit den z-Werten der Pixel verglichen, in die das Objekt gezeichnet werden soll. Wenn der neue z-Wert näher zum Betrachter, also größer ist, dann wird das Objekt an dieser Stelle neu gezeichnet und der z-Wert im z-Puffer ebenfalls ersetzt. Andernfalls ist das neue Objekt verdeckt und an dieser Stelle wird nicht gezeichnet.

Der folgende Pseudocode zeigt die Struktur des Z-Buffer-Algorithmus:[6][7]

for all (x,y)   // Initialisierung des Hintergrundes
{
    depthBuff(x,y) = -1   // Setzt den z-Wert auf größtmögliche Entfernung
    frameBuff(x,y) = backgroundColor
}
for each polygon P   // Schleife, die alle Polygone durchläuft
{
    for each position (x,y) on polygon P   // Schleife, die alle Pixel des aktuellen Polygons durchläuft
    {
        calculate depth z
        if (z > depthBuff(x,y))   // Wenn der neue z-Wert näher zum Betrachter, also größer ist, dann wird das Objekt an dieser Stelle neu gezeichnet und der z-Wert im Z-Buffer ebenfalls ersetzt. Andernfalls ist das neue Objekt verdeckt und an dieser Stelle wird nicht gezeichnet.
        {
            depthBuff(x,y) = z
            frameBuff(x,y) = surfColor(x,y)
        }
    }
}

Codierung der Tiefeninformationen

Z-Fighting zweier Polygone

Der Bereich der Tiefeninformation im Kameraraum, der zu rendern ist, wird häufig durch den nah-Wert und fern-Wert von definiert. Nach einer Perspektivtransformation wird der neue Wert von , hier als bezeichnet, wie folgt berechnet:

Dabei ist der neue Wert von im Kameraraum. Manchmal werden auch die Abkürzungen und verwendet.

Die resultierenden Werte von werden auf Werte zwischen −1 und 1 normiert, wobei die Fläche bei nah den Wert −1 und die Fläche bei fern den Wert 1 erhält. Werte außerhalb dieses Bereichs stammen von Punkten, die sich nicht im Sichtbereich befinden, und sollten nicht gerendert werden.

Bei der Implementierung eines Z-Buffers werden die Werte der Scheitelpunkte eines Polygons linear interpoliert und die -Werte einschließlich der Zwischenwerte im Z-Buffer gespeichert. Die Werte von sind wesentlich enger an der Nah-Fläche verteilt und wesentlich mehr zur Fern-Fläche hin verstreut, was zu einer höheren Genauigkeit der Darstellung nahe dem Kamerastandpunkt führt. Je enger die Nah-Fläche an die Kamera gesetzt wird, desto geringer ist die Präzision im Fernbereich. Eine häufige Ursache für unerwünschte Artefakte bei entfernten Objekten ist, dass die Nah-Fläche zu eng an die Kamera gesetzt wurde. Diese als Z-Fighting (Z-Konflikt, Tiefenkonflikt) bezeichneten Artefakte treten insbesondere dann auf, wenn zwei koplanare Flächen sehr nahe beieinander sind, beispielsweise eine Wand und ein darauf angebrachtes Plakat. Welches von beiden Polygonen dann im Vordergrund liegt, ist im Wesentlichen zufällig und kann sich auch durch geringfügige Änderungen des Kamerastandortes ändern. Zur Abhilfe müssen vom Programmierer explizit Maßnahmen ergriffen werden, etwa indem die Z-Werte des Plakates künstlich verändert werden oder durch den Einsatz eines sogenannten Stencilbuffers.

Da die Abstandswerte nicht gleichmäßig im Z-Buffer abgelegt werden, werden nahe Objekte besser dargestellt als ferne, da ihre Werte genauer abgespeichert sind. Allgemein ist dieser Effekt erwünscht, er kann aber auch zu offensichtlichen Artefakten führen, wenn sich Objekte voneinander entfernen. Eine Variation des Z-Bufferings mit ausgeglicheneren Entfernungswerten ist das sogenannte W-Buffering. Um einen W-Buffer zu implementieren, werden die unveränderten Werte von bzw. in den Buffer gespeichert, im Allgemeinen als Gleitkommazahlen. Diese Werte können nicht linear interpoliert werden, sondern müssen invertiert, interpoliert und wieder invertiert werden. Die resultierenden -Werte sind, im Gegensatz zu , gleichmäßig zwischen nah und fern verteilt. Ob ein Z-Buffer oder ein W-Buffer zu besseren Bildern führt, hängt vom jeweiligen Anwendungszweck ab.

Vor- und Nachteile

  • Vorteile
    • einfache Implementierung (sowohl in Software als auch direkt in Hardware)
    • keine Vorsortierung der Eingabe nötig
    • sehr schnell
    • einfache Parallelisierung möglich (z. B. Unterteilung in kleinere Quadranten)
    • kein wahlfreier Zugriff auf die Szene nötig
  • Nachteile
    • jedes Polygon der Eingabe wird gerendert
    • die Laufzeit wächst linear mit der Eingabegröße
    • es werden keine Zusammenhänge der Objekte ausgenutzt

Randomisierter Algorithmus

Ein neuer, randomisierter Z-Buffer-Algorithmus erzeugt ein gerendertes Bild einer beliebigen dreidimensionalen Szene, die aus dreieckigen Figuren besteht. Dieser Ansatz ist unabhängig von der Topologie der Figuren. Die resultierende Laufzeit des Algorithmus wächst nur logarithmisch mit der Anzahl der Dreiecke in der Szene. Die automatische Identifizierung weniger detaillierter Komponenten stellt sicher, dass die Geschwindigkeit des randomisierten Algorithmus nicht unter den herkömmlichen Z-Buffer-Algorithmus fallen kann. Es gibt experimentelle und analytische Beweise dafür, dass die Bildqualität mit dem des herkömmlichen Algorithmus vergleichbar ist. Die vorübergehenden Datenstrukturen des randomisierten Z-Buffers ermöglichen interaktive dynamische Aktualisierungen der Szene. Ihre Speicheranforderungen wachsen nur linear mit der Anzahl der Dreiecke und ermöglichen ein Instantiierungsschema, um den Speicherverbrauch weiter zu reduzieren.

Der Algorithmus verwendet beliebige Modelle, die aus Dreiecken bestehen, als Eingabe. Die Wiedergabezeit für eine Szene, die aus Dreiecken besteht, die einen auf dem Bildschirm projizierten Bereich von Pixeln abdecken, liegt in . Das logarithmische Wachstum der Laufzeit erlaubt das Rendern hochkomplexer Szenen. Eine Caching-Strategie für Samplesets wird verwendet, um die Grafikhardware optimal zu nutzen. Der Algorithmus verwendet Speicher und benötigt Vorberechnungszeit. Das Einfügen und Entfernen eines Objekts kann in der Laufzeit durchgeführt werden, wobei die Höhe eines Octrees ist, der für die Objekte in der Szene erstellt wurde. Dies ermöglicht interaktive Aktualisierungszeiten für lokale Modifikationen der Szene.[8]

Siehe auch

Literatur

  • Tomas Akenine-Möller, Eric Haines: Real-Time Rendering. AK Peters, Natick Mass 2002, ISBN 1-56881-182-9
  • James D. Foley u. a.: Computer Graphics: Principles and Practice. Addison-Wesley, Reading 1995, ISBN 0-201-84840-6
  • David F. Rogers: Procedural Elements for Computer Graphics. WCB/McGraw-Hill, Boston 1998, ISBN 0-07-053548-5
  • Alan Watt: 3D Computer Graphics. Addison-Wesley, Harlow 2000, ISBN 0-201-39855-9

Einzelnachweise

  1. Hans-Joachim Bungartz u. a.: Einführung in die Computergraphik: Grundlagen, geometrische Modellierung, Algorithmen, S. 128. Vieweg, Braunschweig 2002, ISBN 3-528-16769-6
  2. Michael Bender, Manfred Brill: Computergrafik: ein anwendungsorientiertes Lehrbuch, S. 67. Hanser, München 2006, ISBN 3-446-40434-1
  3. Edwin Catmull: A Subdivision Algorithm for Computer Display of Curved Surfaces. Dissertation, Report UTEC-CSc-74-133, Computer Science Department, University of Utah, Salt Lake City 1974
  4. Wolfgang Straßer: Schnelle Kurven- und Flächendarstellung auf graphischen Sichtgeräten. Dissertation, TU Berlin 1974
  5. W. K. Giloi: Computer Graphics Pioneers: the Giloi’s School of Computer Graphics – Starting Computer Graphics in Germany. ACM SIGGRAPH Computer Graphics 35, 4 (Nov. 2001): 12–13, ISSN 0097-8930
  6. Werner Purgathofer, TU Wien: Sichtbarkeitsverfahren
  7. University of Washington: Hidden Surface Algorithms
  8. Michael Wand, Matthias Fischer, Ingmar Peter, Friedhelm Meyer auf der Heide, Wolfgang Straßer: The Randomized z-Buffer Algorithm: Interactive Rendering of Highly Complex Scenes