Im letzten Oktober stellte NVIDIA die ersten Grafiktreiber der 310.xx Serie vor. Diese brachten zahlreiche Verbesserungen mit sich und vor allem Karten, die auf der Kepler-Architektur basieren, profitierten stark hinsichtlich Performance. Schaut man aber genauer hin, dann fällt auf, dass ein Feature komplett unter dem Radar durch huschen konnte. Dabei handelt es sich um den sogenannten "LOD bias". Vielen unter euch wird der "LOD" (Level of Detail) noch aus DirectX 9 Zeiten bekannt sein. In Kombination mit DirectX 10 und DirectX 11 verschwand diese Einstellung. Bis heute, denn NVIDIA hat nun einen Weg gefunden wie man den "LOD bias" manipulieren kann. In diesem Artikel werden wir zeigen welchen Einfluss Änderungen am "LOD bias" auf die Performancewerte in den Benchmarks haben, die bei HWBOT verwendet werden.
LOD bias: Was ist das?
Um zu verstehen was der LOD bias eigentlich wirklich ist, muss man wissen,
dass in einem Spiel verschiedene Textur-Level verwendet werden. Is die Kamera
beispielsweise 500 Meter von einem Objekt entfernt, wird eine andere Textur über
Plygone gelegt, als wenn die Kamera zwei Meter von einem Objekt entfernt ist. Je
weiter sich die Kamer von einem Objekt entfernt desto mehr verblassen die
Texturen und desto unschärfer wird die Textur. Durch diesen Trick konnte man die
Komplexität einer Szene verringern und Rechenleistung für andere Dinge zur
Verfügung stellen. Letztlich ist es dem Entwickler überlassen ab welcher Distanz
er welche Textur verwenden will und um einen sauberen Übergang zu gewährleisten
gibt es dann ein weiteres Feature, das auf den Namen
Mipmapping
hört. Dank Trilinearem Filtering werden die Übergänge schliesslich so gut wie
unsichtbar.
Der LOD bias (Level of Detail bias) kann diesen Vorgang nun beschleunigen.
Durch die Erhöhung des LOD bias werden einfachere Texturen verwendet, die
weniger Rechenlast zur Folge haben. Die Folge ist, dass Objekte verschwommener
erscheinen.
Senkt man den LOD bias, dann hat das den gegenteiligen Effekt. Es werden
qualitativ höherwertige Texturen verwendet und Objekte sind schärfer gezeichnet,
wobei sich aber recht schnell ein Verpixelungseffekt entsteht.
Das Herabsetzen des LOD machen nur bei wenigen alten Spielen Sinn wie
beispielsweise Quake 3, Serious Sam, ...
Heute sind es eigentlich nur noch die Overclocker, die mit diesem Feature
spielen, wenn sie maixmale Scores aus alten Benchmarks herausquetschen wollen.
Nun aber scheint NVIDIA die Spielregeln geändert zu haben, denn mittlerweile
kann man den LOD bias auch bei DirectX 10 und DirectX 11 Spielen und Benchmarks
ändern.
An dieser Stelle ein Bild, das den Unterschied zeigt:
LOD -20 |
|
LOD -10 |
|
LOD -3 |
|
LOD -1 |
|
LOD 0 |
|
LOD 1 |
|
LOD 3 |
|
LOD 10 |
|
LOD 27 |
|
Wie aktiviert man es?
NVIDIA scheint derzeit effektiv zu "cheaten" und ändert im Hintergrund die
Spielregeln, nach denen sich die Benchmarks und Spiele richten. Das LOD Setting,
das bislang sichtbar war, ist im aktuellsten 310.xx-Treiber nicht mehr vorhanden
und wurde durch etwas ähnliches ersetzt. Dabei handelt es sich um das sogenannte
"Sparse Grid SuperSample (SGSSAA)" Feature, das eine Form von AntiAliasing ist,
das während den Post-Processing-Vorgängen verwendet wird. Der optische Effekt
ist analog demjenigen, wenn man bei DX9 den LOD manipuliert.
Um den LOD bias bei den aktuellsten 310.xx Treibern einzustellen, muss man im
nVidia Inspector die folgenden Settings ändern.
Was haben wir getestet?
Wir wollten schliesslich wissen welche Auswirkungen die Änderung des
LOD-Wertes auf die Performance in 3D-Benchmarks hat, die bei HWBOT verwendet
werden.
Um die Performance zu messen, verwendeten wir das unten aufgeführte Testsetup
mit unterschiedlichen SGSSAA und LOD Werten. Die Resultate findet man auf den
folgenden Seiten.
Darüber hinaus haben wir die Benchmarks mittels Fraps aufgenommen. Dabei sieht
man wunderbar die Unterschiede zwischen LOD 0 und LOD 15/27. Die Videos findet
man jeweils auf der Seite des zugehörigen Benchmarks.
Einige Details:
Zwischen SGSSAA x8 und x2 gibt es einen äusserst geringen
Performance-Unterschied. Standardmässig verwendeten wir x8 in den
Resultate-Tabellen. Zudem testeten wir aber auch x2 Werte bei einigen
Benchmarks, denn gewisse Benchmarks reagieren gut messbar auf diese Einstellung.
Bencht man sein System für HWBOT, dann empfehlen wir x2 zu verwenden.
Der maximale LOD bias bei DX 10 und 11 liegt bei 27.
Der maximale LOD bias bei DX 9 liegt bei 9.
Des weiteren haben wir auch unterschiedliche Kombinationen getestet.
Beispielsweise kam bei DX9 Benchmarks NVIDIA's 30x.xx Treiber zum Einsatz. Diese
Kombination stellten wir einer weiteren Kombination mit 310.90 Treiber plus LOD
plus SGSSA gegenüber. Leider war der 310.90 Treiber grundlegend schneller als
der 306.xx Treiber, dementsprechend liessen sich keine Rückschlüsse auf den LOD
ziehen.
Testbedingungen
Mainboard |
- ASUS P8P67 Pro (BIOS 2303)
- ASUS Maximus V Gene (BIOS 1408) (3DMark01)
|
CPUs |
- Intel Core i7-2600K @ 3.4 GHz (Turbo Off / HT On)
- Intel Core i7-3770K @ 3.5 GHz (Turbo Off / HT Off / 2C/2T)
(3DMark01)
|
Speicher |
- G.Skill RipjawsZ Dual Channel 4x4GB CL9-9-9-24-DDR3-1600 MHz
- Crucial Ballistix Smart Tracer 2x4GB CL9-9-9-27-DDR3-1866 MHz
(3DMark01)
|
Grafikkarten (Driver) |
- nVidia GeForce GTX 680 (MSI Twin Frozr)
|
Treiber |
- ForceWare 310.90 WHQL (Windows 7 x64)
- ForceWare 310.90 WHQL (Windows XP) (3DMark01)
|
Software |
|
Festplatte |
|
Netzteil
|
- Seasonic Platinum SS-1000XP / 1000 Watts
|
Diesen
Artikel im Forum diskutieren.