Login
Passwort vergessen?
Registrieren

Texturdarstellung: Hardware- und Grafikeffekte Glossar

Die moderne Texturdarstellung: Hardware- und Grafikeffekte einfach erklärt

Die gute alte Pixeltapete ist in aktuellen Spielen kaum noch als solche zu erkennen.

Die grundlegende Funktion einer Textur brauchen wir wohl nicht groß auszuwalzen, der prinzipielle Nutzen einer Pixeltapete, um damit ein Polygonnetz zu bekleiden, ist wohl jedem Spieler bekannt. Doch die Einsatzgebiete sowie die Art und Weise, wie das Texturmodell mit der Beleuchtung in Spielen interagiert, haben sich stark gewandelt - Stichwort Physically Based Rendering.

Physikbasiertes Rendermodell für mehr Realismus

      


43 Bilder Die moderne Texturdarstellung. Die moderne Texturdarstellung. [Quelle: PC Games]
Es klingt logisch und das ist es auch: Je näher ein Rendermodell der Wirklichkeit kommt, desto glaubhafter wirkt das Gesamtbild auf das menschliche Auge. Mit der deutlich gesteigerten Rechenleistung der aktuellen Konsolengeneration im Vergleich zu deren Vorgängern ergab sich für Entwickler die Möglichkeit, die Rendermodelle ihrer Engines umzustellen. Beinahe jeder aktuelle Titel nutzt Physically Based Rendering (PBR). Dabei hat Physically Based Rendering keine fest vorgeschriebenen Regeln, sondern ist eher ein loses Konzept. Jeder Entwickler und jede Engine kann ein solches anders umsetzen. Schauen wir uns zwei unterschiedliche Spiele(­Engines) mit PBR an, unterscheiden sich diese optisch trotz des Wirklichkeitsbezugs der Rendertechnologien höchstwahrscheinlich deutlich.

"Next-Gen"-Texturen

      

Prinzipiell funktioniert das Shadermodell der Texturen (Physically Based Shading, PBS) aber ähnlich: Gegenüber konventionellen Texturmodellen, bei denen ein vom Texture­Artist erstelltes Bild oder Foto einer Oberfläche samt einem Großteil statischer Beleuchtungs­ und Verschattungsinformationen über ein Polygonnetz gelegt wird, bekommen PBS­Texturen physikalische Attribute zugewiesen. Die drei Haupteigenschaften sind Albedo (Grundfärbung), Microsurface (Oberflächenbeschaffenheit) und Reflectivity (Reflexionsverhalten). Diese Eigenschaften formen ein PBR­Material, das sich je nach virtuellem Lichteinfall anders verhält und diesem anpasst. Dieses Verhalten macht es für die Entwickler nötig, ihre gesamte Arbeitsweise umzustrukturieren, kommt jedoch auch mit einer ganzen Reihe Vorteile.

Viele Elemente, die zuvor in statischen Maps gespeichert wurden oder von Artists direkt auf die Textur gemalt wurden, beispielsweise Schatten oder kleine Details, werden nun in Echtzeit von der Engine erzeugt. Die Rolle der Microsurfaces ist dabei eine sehr wichtige. So bestimmen sie, wie stark eintreffendes Licht gestreut wird. Eine raue Oberfläche streut das Licht stärker, das Material wirkt stumpfer, so als wäre die Oberfläche glatt. Viele kleine Details, beispielsweise feine rostige Kratzer im Lack einer Metalloberfläche, können anhand dieser Microsurfaces definiert werden und werden glaubhaft mit Hilfe des physikbasierten Ansatzes umgesetzt.

Außerdem können Daten aus der Realität ohne große Anpassungen in das Spiel integriert werden, darunter etwa Scans von Objekten oder Oberflächen. Ein sehr eindrückliches Beispiel für diese Techniken ist Star Wars Battlefront, das Scans der Filmrequisiten sowie Fotos der originalen Schauplätze nutzt, um die Star-Wars-­Atmosphäre glaubhaft wie nie zuvor einzufangen. Außerdem markiert das Spiel den Punkt, als DICE auf einen physikbasierten Renderer umschwang. Battlefield 4 nutzte noch konventionelles Renderering samt klassischem Texturmodell.

Battlefront nutzt außerdem Displacement­ Mapping. Diese Technik nutzt eine Höhentextur (Height ­Map), um mit Tessellation zusätzliche Geometrie zu erzeugen. Dies sorgt für ein sehr plastisches Bild, Texturen sind kaum noch als flache Pixeltapeten zu erkennen. Eine ähnlich gute Vorstellung liefert neben Battlefield 1 auch das grafisch außerordentlich beeindruckende Ghost Recon Wildlands ab, das neben Tessellation außerdem auf Parallax­-Occlusion­-Mapping setzt.

Philipps Tipp: Physically Based Rendering und die Umstellung des Texturmodells sind aus meiner Sicht die wohl wichtigsten Verbesserungen aktueller Rendertechniken. Neben dem generell gestiegenen Detailgrad und den größeren, offeneren Welten bringt PBR Glaubwürdigkeit in Spielwelten. Der Einsatz von Tessellation, um dynamisch Details zu erzeugen, ist nach vielen Jahren außerdem endlich überzeugend.


Das konventionelle Rendermodell in Battlefield 4

      

Battlefield 4 nutzt noch ein konventionelles Rendermodell. Gegenüber dem Nachfolger wirkt das Spiel optisch deutlich weniger überzeugend.

DICE' Frostbite-Engine gehört schon seit Jahren zu den fortschrittlichsten Grafikmotoren. Battlefield 4 nutzt indes noch keinen physikbasierten Renderer, sondern ein konventionelles Modell. Wenn wir das Spiel seinem Nachfolger gegenüberstellen, können wir uns einige Unterschiede beim Texturmodell ansehen. Achtet einmal ganz besonders auf das Waffenmodell. PBR zeigt sich am auffälligsten bei den Reflexionseigenschaften. Das Gewehr in Battlefield 4 wirkt grobflächig ausgeleuchtet und hebt sich aus der Szene ab, als wäre es ein Fremdkörper (1). Auch die Mauern wirken im Vergleich zu Battlefield 1 weniger glaubhaft (2). Feine Beleuchtungsübergänge und unterschiedliche Materialien sind mit dem Rendermodell nicht überzeugend umzusetzen, die Bodentextur ist noch klar als Pixeltapete zu identifizieren. Um die Illusion von Tiefe zu suggerieren, kommt eine Normal-Map zum Einsatz (3).


43 Bilder Konventioneller Renderer in Battlefield 4. Konventioneller Renderer in Battlefield 4. [Quelle: PC Games]


Physikbasiertes Rendering in Battlefield 1

      

Battlefield 1 wirkt auf das menschliche Auge deutlich glaubhafter als der Vorgänger. Das liegt am gesteigerten Detailgrad und dem physikbasierten Renderer.

Das Kopfsteinpflaster hier im Bild demonstriert auf gleich zwei eindrückliche Arten den technischen Vorsprung von Battlefield 1 gegenüber dem Vorgänger. Zum einen kommt Displacement- anstatt Normal- Mapping zum Einsatz. Via Tessellation und einer Height-Map werden zusätzliche Polygone generiert und tatsächliche Geometrie erzeugt (1). Zudem sind die Reflexionseigenschaften deutlich überzeugender und es werden die Microsurfaces offenbar: Steine sind offenkundig ein anderes Material als der Mörtel zwischen diesen oder das Geröll am Wegesrand (2). Das Waffenmodell fügt sich viel überzeugender in die Szene ein, da es die Beleuchtung natürlicher annimmt. Ein guter Anlaufpunkt, um einen physikbasierten Renderer zu identifizieren, ist neben Metall außerdem Stoff. Achtet mal auf den realistisch glänzenden Knopf am stumpfen Filzärmel unserer Spielfigur (3).


43 Bilder Battlefield 1 nutzt PBR. Battlefield 1 nutzt PBR. [Quelle: PC Games]


Texturen für mehr Dreidimensionalität

      

Seit vielen Jahre werden Texturen auch dazu genutzt, Oberflächen dreidimensional wirken zu lassen.

Der steigende Detailgrad moderner Spiele erfordert schon seit geraumer Zeit mehr als bloß flache Texturen. Seit Jahren ist daher zuerst Bump-, dann Normal-Mapping Bestandteil vieler Pixeltapeten. Diese Maps enthalten Höheninformationen in Form einer zusätzlichen Schwarzweiß- (Bump-Map) oder farbigen Dreikanal-RGB-Textur (Normal-Map). Letztere wird zumeist aus einem zugrundeliegenden, hochauflösenden Polygonmodell generiert und außerdem auch dazu genutzt, bei 3D-Modellen einen höheren Polygoncount zu suggerieren. Das nochmals aufwendigere Parallax-Mapping wirkt sehr dreidimensional (1), funktioniert jedoch nur aus bestimmten Perspektiven. Die Köngisklasse dieser Techniken ist das Displacement-Mapping, das eine Height-Map sowie Tessellation nutzt und daraus die beim Näherkommen der Kamera dynamisch echte Geometrie erzeugt (2).


43 Bilder Parallax- und Displacement-Mapping in Ghost Recon Wildlands. Parallax- und Displacement-Mapping in Ghost Recon Wildlands. [Quelle: PC Games]


Der Unterschied zwischen Parallax- und Displacement-Mapping

      

Die beiden Technologien sind nicht immer einfach zu unterscheiden. Wir zeigen euch, wo die größten optischen Unterschiede liegen.

Parallax-Occlusion-Mapping ist eine sehr interessante Technik, denn anders als beim Displacement- Mapping, welches zusätzliche Geometrie erzeugt, bleibt die Fläche zweidimensional. Dieser Umstand macht es auch möglich, die beiden Techniken zu unterscheiden. Blickt ihr in flachem Winkel auf eine betreffende Oberfläche oder nutzt eine Kante, um beispielsweise eine Mauer zu untersuchen, zeigt sich die Zweidimensionalität einer Parallax-Map. Kommt stattdessen eine Displacement-Map zum Einsatz, wie bei der Bodentextur im dritten Bild, könnt ihr im flachen Winkel zweifelsfrei die zusätzliche Geometrie erkennen. Diese Technik kann allerdings auch reichlich Leistung kosten, da die Grafikkarte viele zusätzliche Polygone berechnen muss, insbesondere wenn der Detail- beziehungsweise Tessellationsgrad hoch ausfällt. Die Parallax-Map kostet nur wenig Leistung und etwas Speicher.


43 Bilder Die beiden Technologien sind nicht immer einfach zu unterscheiden. Wir zeigen euch, wo die größten optischen Unterschiede liegen. Die beiden Technologien sind nicht immer einfach zu unterscheiden. Wir zeigen euch, wo die größten optischen Unterschiede liegen. [Quelle: PC Games]

Hardware- und Grafikeffekte einfach erklärt - Zeitplan

7. Mai 2017 - Teil 1 - Umgebungsverdeckung
20. Mai 2017 - Teil 2 - Spiegelungen und Reflexionen
3. Juni 2017 - Teil 3 - Die moderne Texturdarstellung
25. Juni 2017 - Teil 4 - Depth of Field oder Tiefenschärfe
9. Juli 2017 - Teil 5 - Moderne Kantenglättungsverfahren
30. Juli 2017 - Teil 6 - Globale Beleuchtung
13. August 2017 - Teil 7 - Voxel und Voxel-basierte Grafik in Spielen
27. August 2017 - Teil 8 - Schattendarstellung in Spielen
...Viele weitere Teile folgen!

e_gz_ArticlePage_Computer