Texture Mapping

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 4. Dezember 2021 um 17:07 Uhr durch imported>Anonym~dewiki(31560) (→‎Perspektivenkorrektur: Austriazismus in Standarddeutsch gewandelt).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Texture Mapping der Vorderseite eines Würfels

Der Begriff Texture Mapping (deutsch etwa „Musterabbildung“) bezeichnet ein Verfahren der 3D-Computergrafik. Es dient dazu, die Flächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern – sogenannten „Texturen“ – und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder detailreicher und realistischer erscheinen, ohne dass das zugrundeliegende Modell selbst verfeinert werden muss.

Texturkoordinaten

Jedem Vertex eines 3D-Objektes kann zusätzlich zu seiner Position im xyz-Raum unter anderem noch eine Texturkoordinate im uvw-Raum zugeordnet werden. Anhand der Texturkoordinaten (auch uv- oder uvw-Koordinaten genannt) wird definiert, wie eine Textur (ein Bitmap oder eine mathematische Textur) auf einem Polygon abgebildet wird. Verwendet man eine zweidimensionale Bitmaptextur, so wie dies in Computerspielen der Fall ist, so werden lediglich die u- und die v-Koordinaten benötigt, um festzulegen, welcher Bildteil auf dem Polygon abgebildet werden soll. Bei mathematischen Texturen, wie z. B. 3D-Rauschen oder volumetrischen Texturen, wird oft zusätzlich noch die w-Koordinate benötigt.

Die uv-Koordinate (0,0) entspricht der unteren linken Ecke der Textur und die uv-Koordinate (1,1) der oberen rechten Ecke. Uv-Werte größer 1 und kleiner 0 sind möglich und führen zu Randwiederholungseffekten der Textur. Diese können in der Regel definiert werden. Zwei Möglichkeiten sind Randwiederholung oder Spiegelung. So lässt sich eine Textur über das Definieren der Texturkoordinaten über ein Polygon kacheln.

Außerdem ist es möglich, einem Vertex mehrere Texturkoordinaten zuzuweisen. Man spricht dann von mehreren Mapping-Channels. Auf diese Art und Weise kann man mehrere Bilder bzw. Bildausschnitte auf einem Polygon überlagernd darstellen.

In 3D-Modellen mit vielen Polygonen wird oft eine einzige Textur für das ganze Modell verwendet, sodass jeder Punkt des Modells nur einen Satz Texturkoordinaten hat (und nicht unterschiedliche Texturkoordinaten für die verschiedenen Polygone, die diesen Punkt verwenden), weil dieses Format für hardwarebeschleunigte 3D-Grafik und auch für den Designer des 3D-Modells besonders günstig ist.

Bei der einfachsten Variante des Texture Mapping werden die Texturkoordinaten entlang der schon vom 3D- in den 2D-Raum transformierten Randlinien des Polygons linear interpoliert. Dann werden sie entlang einer Bildschirmzeile (oder -spalte) von Randlinie zu Randlinie linear interpoliert, bei jedem Pixel wird der Farbwert des zu den interpolierten (u,v)-Koordinaten gehörenden Texels (Bildpunkt in der Textur) übernommen.

Perspektivenkorrektur

Bei Polygonen, die eine größere Ausdehnung in Sichtrichtung haben, führt das oben beschriebene Verfahren zu visuell unbefriedigenden Resultaten, weil die Texturkoordinaten nach der Projektion interpoliert werden und somit nicht berücksichtigen, dass eine Strecke im weiter entfernten Teil des projizierten Polygons einer größeren Strecke im originalen Polygon im 3D-Raum entspricht als eine Strecke im näheren Teil des Polygons. Dadurch ändert sich die Zuordnung von Texturkoordinaten zu Punkten im dreidimensionalen Raum, wenn sich die Perspektive ändert.

Um dieses Problem zu lösen, werden meist anstatt der Texturkoordinaten u und v die Werte von u/z und v/z und darüber hinaus auch 1/z linear interpoliert, wobei z die Koordinate im 3D-Raum in Sichtrichtung ist (z bzw. 1/z muss daher zu jedem projizierten Punkt des Polygons gespeichert werden). Um für ein Pixel die Texturkoordinaten zu berechnen, müssen nun Divisionen ausgeführt werden:

u = (u/z)/(1/z)

v = (v/z)/(1/z)

Weil Divisionen relativ langsame Operationen sind, werden sie meist nicht bei jedem Pixel gemacht; stattdessen werden u und v nur bei wenigen Pixeln, die auf das Polygon gleichmäßig verteilt sind, so berechnet. Bei allen anderen Pixeln werden die Werte von u und v zwischen denen jener Pixel interpoliert. So kann man die störenden Effekte stark reduzieren, ohne dass allzu viel Rechenleistung dafür aufgewendet werden muss.

Texturinterpolation

Die bisher beschriebenen Verfahren nehmen vereinfachend an, dass jeder Pixel exakt einem Texel zugeordnet werden kann. Betrachtet man aber sowohl Pixel als auch Texel als Punkte ohne Ausdehnung, so ist dies im Allgemeinen nicht der Fall. Vielmehr liegen die Texturkoordinaten eines Pixels in der Regel zwischen mehreren Texeln. Es gilt also, zu entscheiden, wie aus den Farbwerten der umliegenden Texel der Farbwert für den Pixel gewonnen wird: Man benötigt ein geeignetes Skalierungsverfahren.

Das einfachste und schnellste Skalierungsverfahren besteht darin, einfach den nächstliegenden Texel auszuwählen. Man nennt dieses Verfahren nearest neighbor („nächster Nachbar“) oder auch point sampling („punktweise Stichprobe“). Beim aufwendigeren bilinearen Filtern wird der gesuchte Farbwert aus den vier umliegenden Texeln in Abhängigkeit von ihrer Entfernung interpoliert. Noch aufwendigere Filter, etwa der Gauß-Filter, ziehen weitere Texel in die Berechnung mit ein oder gewichten die Entfernung anders. Da ungeeignete Interpolationsverfahren zu unerwünschten Alias-Effekten führen – beispielsweise Moiré-Effekte –, muss ein Kompromiss zwischen Geschwindigkeit und Artefaktbildung gefunden werden.

MIP-Mapping

Diese Techniken werden angewandt, solange der Rasterabstand der Pixel kleiner als jener der Texel ist, einem beliebigen Pixel also höchstens ein Texel zugeordnet wird. Ist der Rasterabstand der Pixel jedoch größer als jener der Texel, so entspricht einem Pixel gleich ein ganzer Bereich der Textur. Zwar ist es nicht weiter schwierig, den Farbwert als Mittelwert sämtlicher Texel zu bilden, aber dies ist sehr aufwendig – für einen einzigen Pixel müssen viele Rechenoperationen ausgeführt werden – und daher nicht praktikabel.

Stattdessen verwendet man MIP-Maps. Diese enthalten neben der Originaltextur Kopien der Textur mit abnehmender Größe, sogenannte „Detailstufen“ (level of detail, LOD). Man wählt daraus die größte Detailstufe aus, die den gewöhnlichen Zustand „Pixel kleiner als Texel“ wiederherstellt, und arbeitet darauf wie auf der Originaltextur. Zusätzlich zu den bisherigen Interpolationsverfahren bietet sich hier die Möglichkeit, zwischen zwei aufeinanderfolgenden Detailstufen eine weitere lineare Interpolation durchzuführen; in Kombination mit der bilinearen Filterung erhält man so eine trilineare Filterung. Der Einsatz von MIP-Maps in Verbindung mit point sampling reduziert Alias-Effekte bereits stark, in Verbindung mit aufwendigeren Filtern und Interpolation zwischen den Detailstufen können sie auf ein Minimum reduziert werden.

Anisotropes Filtern

Die oben beschriebenen Anwendungen betrachten Pixel und Texel als Punkte, also als eindimensionale Objekte ohne Ausdehnung. Stattdessen kann man sie aber auch als kleine Quadrate auffassen. Dann gilt es zu berücksichtigen, dass ein Pixel, den man auf die Textur projiziert, dort keine quadratische, sondern eine in eine Richtung gestreckte Fläche bildet, wenn das betrachtete Polygon sich in Sichtrichtung ausdehnt. Wird bei der Filterung diese unterschiedliche Ausbreitung in verschiedene Richtungen (Anisotropie) des Pixels im Texturraum berücksichtigt, spricht man von anisotropem Filtern.

Spezielle Verfahren

Es gibt verschiedene Verfahren, um eine von einer Textur bedeckte Oberfläche dreidimensional erscheinen zu lassen:

  • Beim Bumpmapping wird die Beleuchtungsberechnung mit einem über die Oberfläche variiertem Normalvektor gemacht.
  • Beim Displacement Mapping werden mit der Information aus der Textur zusätzliche Polygone erstellt.
  • Beim Environment Mapping wird mit Hilfe der Textur eine Spiegelung vorgetäuscht.

Weblinks

Commons: Textures – Sammlung von Bildern, Videos und Audiodateien