Ein paar Nachhilfe-Worte von euch zu DirectX..

Herby

Grand Admiral Special
Mitglied seit
18.02.2005
Beiträge
2.144
Renomée
12
Standort
Jena
Ich hoffe, dass ich hier mal ein paar klärende Worte finde.. (Und nicht im falschen Bereich bin.)


Das, was mich zum Grübeln bringt, ist, dass Crysis unterschiedlich "gut" aussieht mit einer 8800GT, HD2900XT und HD3870 (in dieser Reihenfolge von schlechter zu besser) bei gleichen Einstellungen.. Bei IAX-Tech steht z.B. dies dahinter:
We found ATi HD3870 is actually has better picture process while Crysis benching.

Specially the light refraction from water, HD3870 is very smooth but 8800GT is not. It is around frame 500 to 1000.

Nun habe ich mich auch schon mit dem Wikipedia Eintrag befasst, aber dafür keine wirklichen Gründe gefunden. Gerade warum die HD3870 nochmal ein besseres Bild liefert als die HD2900XT..

Dies kann ja nur an einem dieser Neuerungen liegen, wobei DX10.1 Hardware ja eigentlich bei einem DX10 Spiel nicht zu Geltung kommen sollte, oder?

* Shader Model 4.1
* 4x Anti-Aliasing mit veränderbaren Subpixel-Mustern
* durchweg mit 32-Bit-Gleitkommazahlen rechnen
* dynamisch adressierbare Cubemap-Arrays
* rendern in blockkomprimierte Framebuffer

Eine Erklärung für mich wäre, dass DX10.1 keine Neuerungnen mit sich bringt, sondern vorallem Verbesserungen, die sich auch auf DX10 Spiele niederschlagen..


Ich versuche da jetzt mal einen Vergleich zu ziehen (der so zwar nicht stimmt, aber an dem ihr mir hoffentlich die Problematik näher bringen könntet..)

Die Auflösung setzen wir fest und auch das Filtering ist gleich. (Oder hat das schonmal gar nix mit dem DX zu tun?)

Nehmen wir mal an, das auf einen Quadratzoll Display 10 Recheneinheiten gleichzeitig zu berechnen sind mit einer Genauigkeit von 1. Die Grafikarte kann nun auf eben dieser Fläche 10 berechnen mit einer Genauigkeit von 1, 20 mit einer Genauigkeit von 0,5 usw..

Das Spiel nutzt DX10. Ist es damit nun limitiert, dass es auf dem Quadratzoll auch nur max. 10 zu nutzen? Oder gibt es z.B. unterschiedliche Situationen, einmal braucht es nur 5, ein andres mal aber 15. Bei 5 kann jede natürlich mit einer Genauigkeit von 1 berechnet werden, bei 15 jede mit 0,5.

Dabei ist es in dem Denkansatz auch egal wie stark die Grafikkarte ist, da je nur 10 mit 1 max. gehen bei DX10.

Nun kommt eine GraKa mit DX10.1, welche eigentlich nur geupdated ist, also statt 10 eben 15 Recheneinheiten schafft mit der Genauigkeit von 1. Nun könnte diese ja das Spiel besser darstellen..


Kann man das so in etwas umschreiben? Oder geht es total an der Ursache vorbei?



Bzw. warum wird Crysis nun auf der HD3870 besser dargestellt als auf der HX2900XT bei gleichen Einstellungen? Liegt das überhaupt mit an DX10.1 oder kann die neue Karte einfach irgendwas anderes besser?
 
Zuletzt bearbeitet:
Zurück
Oben Unten