En octobre l'année dernière nVidia a publié son premier driver série 310.xx qui apportait son lot d'amélioration surtout pour les utilisateurs de Kepler puisqu'ils amélioraient grandement les performances. Outre l'amélioration des performances ingame, l'ajout de profils SLI et la correction de bugs nVidia a 'rajouté' un paramètre plus ou moins intéressant à son driver qui est passé sous le radar. Le paramètre en question se nomme "LOD bias" et est certainement connu par la plupart d'entre vous puisqu'en fait il existe et est présent dans nos drivers et même dans les paramètres de certains jeux depuis longtemps. Cependant il n'avait effet que dans les jeux et applications 3D DirectX 9, le LOD bias ne fonctionnait pas avec DirectX 10 et 11. nVidia a trouvé un moyen de rendre le LOD bias possible sous DirectX 10 et 11 et nous allons voir ici son impact dans les Benchmarks 3D officiels HWBOT.
LOD bias: Kesako ?
Pour
comprendre, il faut savoir que dans un jeu par exemple un même objet possède
plusieurs niveau de texture pour une même surface. Si la camera se trouve à 500m
de l'objet la texture utilisée n'est pas la même que si la caméra se trouve à
2m. Plus la caméra est loin plus la texture utilisée sera petite et aura moins
de détails, cela permet de ne pas surcharger inutilement la carte graphique avec
des textures trop grosses.
Le développeur choisit quand aura lieu un changement de texture et les filtres
s'occupent de faire en sorte que la transition ne soit pas visible en filtrant
les deux niveaux consécutif pour en calculer la moyenne (
Mipmapping). La
transition devient pratiquement invisible, on parle de filtrage trilinéaire.
C'est bien beau tout ça mais et le LOD bias alors? Le LOD bias (pour Level Of
Detail bias) - pour influencer le niveau de détail en français - permet de
retarder ou d'accélérer ce processus. Augmenter le LOD bias aura pour effet
d'utiliser les niveaux de texture plus faibles alors que l'on est proche de
l'objet, l'objet est donc plus flou avec moins de détails.
Diminuer le LOD bias aura donc l'effet inverse, les niveaux de textures plus
fines seront utilisées, donnant l'impression d'avoir une plus grande netteté
mais avec un effet de pixellisation plus important.
Le diminuer permettait donc de rendre plus "beau" certain jeux qui avaient un
mipmapping important comme Quake 3, Serious Sam, ...
L'augmenter ne servait en fait que aux overclockeurs et bencheurs en diminuant
un peu la charge de la carte graphique grâce à des textures moins complexes à
calculer. Mais de nos jours le LOD bias avait disparu à cause de DirectX 10 et
11 qui donnent aux développeurs le control sur le mapping des textures.
En image ci-dessous:
LOD -20 |
|
LOD -10 |
|
LOD -3 |
|
LOD -1 |
|
LOD 0 |
|
LOD 1 |
|
LOD 3 |
|
LOD 10 |
|
LOD 27 |
|
Comment l'activer ?
Et bien nVidia triche en quelque sorte et change les
règles. Le LOD bias que nous connaissions à disparu dans les drivers série
310.xx et a été remplacé par un paramètre presque identique. Presque identique
car il n'a d'identique que le nom. En effet le LOD bias tout seul ne fonctionne
plus, il faut aussi changer un autre paramètre appelé Sparse Grid SuperSampling
(SGSSAA). Le Sparse Grid SuperSampling est un type d'AntiAliasing et agit au
niveau du post-processing. Le résultat visuel est le même que le celui du LOD
normal sur DX9.
Pour ajuster le "LOD bias" avec des drivers 310.xx il faut changer les deux
paramètres suivant dans nVidia Inspector.
Ce que nous avons testé:
Nous avons voulu
savoir si l'augmentation du LOD avait un impact
réel sur les performances dans tous les benchmarks 3D utilisés sur HWBOT et son
impact visuel.
Pour la mesure des performances nous avons utiliser la configuration ci-dessous
et avons lancé les différents benchmarks à la suite avec différents paramètres
LOD et SGSSAA. Les résultats se trouvent dans les pages suivantes.
Nous avons aussi capturé les différents benchmarks en vidéo grâce à Fraps pour
vous montrer l'impact visuel entre LOD 0 et LOD 15/27. Les vidéos se trouvent
dans les pages du benchmark correspondant.
Quelques précisions:
Il y'a une différence très minime de performance entre SGSSAA x8 et x2 dans la
plupart des benchmarks, par défaut j'ai utilisé x8 mais si dans le tableau des
résultats x2 aussi été benché c'est parce que j'ai observé une différence
importante de performance. Pour bencher nous vous conseillons d'utiliser par
défaut x2 qui donne toujours des performances égales ou meilleures.
Le LOD bias maximum pour DX10 et DX11 est 27.
Le max pour DX9 reste toujours 15.
J'ai aussi essayé de voir pour les benchmarks DX9 il y'avait une différence de
performance entre un driver 30x.xx + LOD bias et le 310.90 + LOD bias + SGSSAA.
Malheureusement les drivers 306.xx étaient toujours moins rapides que le driver
310.90 donc pas de comparaison possible avec LOD activé.
Configuration de test
Carte
Mère |
- ASUS P8P67 Pro (BIOS 2303)
- ASUS Maximus V Gene (BIOS 1408) (3DMark01)
|
CPUs |
- Intel Core i7-2600K @ 3.4 GHz (Turbo Off / HT On)
- Intel Core i7-3770K @ 3.5 GHz (Turbo Off / HT Off / 2C/2T)
(3DMark01)
|
Mémoire Vive |
- G.Skill RipjawsZ Dual Channel 4x4GB CL9-9-9-24-DDR3-1600 MHz
- Crucial Ballistix Smart Tracer 2x4GB CL9-9-9-27-DDR3-1866 MHz
(3DMark01)
|
Carte
Graphiques (Driver) |
- nVidia GeForce GTX 680 (MSI Twin Frozr)
|
Drivers |
- ForceWare 310.90 WHQL (Windows 7 x64)
- ForceWare 310.90 WHQL (Windows XP) (3DMark01)
|
Software |
|
Disque
Dur |
|
Alimentation |
- Seasonic Platinum SS-1000XP / 1000 Watts
|
Discutez
de cet article sur le forum