HDR (High-Dynamic-Range) Rendering Unterschiede zwischen GPUs von AMD und nVidia ?

Iscaran

Commodore Special
Mitglied seit
23.09.2007
Beiträge
381
Renomée
19
Hallo Leute,

die meisten kennen vermutlich diesen Artikel:
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

Im "Kern" ist die Aussage: HDR sieht cool aus, aber es kostet Leistung.

Die Überschrift von Computer-Bild (pardon Computerbase) trifft hier die Sachlage nur sehr am Rande:

HDR in Games kostet @AMD minimal Leistung (1-2%)
nur 2 von 12 Games zeigen hier deutliche Ausreisser (Destiny 2, Far Cry 5)

Auf nVidia Seite hingegen verliert man merkliche ca 11%, manchmal bis zu 25% und nur in 2 Fällen (Far Cry 5 und Mass Effect:Andromeda) kaum, wobei bei MEA wohl HDR @nVidia nicht "richtig" aktiv war (als HDR10, wohl nur HDR8+FRC verwendet oder so).

Das ganze wurde wohl auch schon mal (sehr fanboy bashend und biased) im 3DC "diskutiert":
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583928

Nachdem die Gamestar den Effekt schon bei Shadow Warrior 2 zeigen konnte 2016:
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html

Hier als Übersicht eine Zusammenstellung der Differenzen für die einzelnen Games aus dem CB-Artikel:

nVidia | AMD
ACO: -14% | 0%
BF1: -12% | 0%
CoDWWII: -11% | -4%
Destiny 2: -25% | -9%
F1 2017: -13% | 0%
FC 5: -2% | -6%
FF XV: -9% | 0%
MEAnd: 0% | 0%
MESoW: -16% | -2%
RE7 Bio: -8% | -4%
SW2: -18% | 0%
SWBF2: -11% | -1%

SW2 bei Gamestar 2016: -10% | -2%

Fassen wir also zusammen:
nVidia verliert in 10/12 Spielen mind. 8%/9% und 4 sogar mehr als 14% nur in 2/12 Spielen ist der Leistungsverlust nahe 0% (1x 0% in MeAnd und 1x 2% in FC5).
Besonders auffällig ist hier FC5 - da auf AMD Seite diese Engine am 2t-Schlechtesten Abschneidet. Was man als Hinweis auf Probleme bei der Implementierung oder dem "korrekten" aktiveren/verwenden von HDR werten könnte. Schade dass man keine BQ-Analyse machen konnte.

AMD hat in 6/12 Spielen absolut 0% Verlust und in weiteren 2 Spielen nur 1-2% was noch Messtoleranz ist. nur in 4/12 Spielen ist ein Leistungsverlust überhaupt sinnvoll feststellbar und davon sind ausgerechnet 2 Spiele die sich auch bei nVidia als "seltsam" erweisen, man also durchaus noch prüfen müsste ob es sich hier nicht um Engine/Implementierungs-Bugs seitens der Games handelt.

Für mich sieht das so aus als ob die Leistung bei nVidia in ALLEN Games einbricht. Allerdings sind wohl auch 1-2 dabei die sich hier seltsam Verhalten (Destiny 2, Far Cry 5). GGf. wäre MeAndromeda noch interessant. Aus den Kommentaren im Diskussionsthread bei CB entnehme ich aber dass hier wohl HDR auch nicht richtig aktiviert ist @NVIDIA. (siehe: https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21527439 und https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21515890 )
Denn wenn man das macht verliert man wohl ca 20% Leistung.

Was haltet ihr davon - ? Eigene Erfahrung jemand - gibt es da noch mehr Arbeiten zu dem Thema ?
Ursachen für diese Performance Differenz ?
 
Zuletzt bearbeitet:
Hat jemand wenigstens eine Ahnung warum es überhaupt Performance Differenzen mit HDR AN/AUS gibt ?
 
Bei den Kommentaren zum Computerbase Artikel wurde spekuliert das sich HDR mit der Farbkompression beißt und die Geforce Chips dann an ihrer mageren Speicherbandbreite verhungern.
Wenn das stimmt dann bestätigt sich mal wieder das die GPUs nicht für eine langlebige Betriebszeit entwickelt wurden....
 
Zuletzt bearbeitet:
In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen. Warum mit voller Genauigkeit rechnen, wenn es niedrigere auch tut. Lieber schnell als schön.

Passt ganz gut zu Intels "lieber schnell als sicher" bzw. "lieber sicher als stabil".
 
Ja die Kommentare bei CB hab ich auch gelesen - aber nach dem ganzen Hardcore Fanboyism und wenig sachlichen Infos hab ich mir mal gedacht ich frag hier mal nach. Die Diskussionen hier sind ja meist deutlich ruhiger :-).

--- Update ---

In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen.

Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?

--- Update ---

In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen.

Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
 
Das mit der Kompression klingt zumindest sehr plausibel denn wegen der stärkeren Kompression sparen sie ja beim Speicherinterface.
Da AMD deutlich mehr Speicherbandbreite auf den Weg mit gibt hat man natürlich auch mehr Reserven und knickt weniger bis garnicht ein, die Umsetzung wird aber mit Sicherheit auch eine Rolle spielen.

Zum Thema Bildqualität, meine letzte Geforce war die GTX 970 aus meinem kleinen Vergleich. Da war mir nichts offensichtliches aufgefallen allerding hatte auch nicht ins detail geguckt da es mir damals um etwas komplett anderes ging.
 
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?

Z.B. die Kontroverse bei AotS. Da hört man aber auch nichts mehr dazu.

Zuletzt ist mir das so stark aufgefallen, als PS3 und XBox 360 vorgestellt wurden. Gibt aber nur sehr wenige Vergleiche zu dem Thema.
 
Ach die Kontroverse um AotS war schon lustig.
Als bei der Präsentation auffiel das beid er Radeon viel mehr schnee zu sehen ist hatten sofort alle mit dem Finger auf AMD gezeigt das AMD schummeln würde aber als rauskam das die Geforce fehlerhaft arbeitet wurde rumgemosert dass das doch so viel besser aussehen würde und die Diskussion verlief recht schnell im Sande. Als dann auch noch gezeigt wurde das bei der Geforce eigentlich sichtbare Sachen überhaupt nicht dagestellt wurden war der Ofen schon aus und man ging so gut wie garnicht darauf ein. Nähere Untersuchungen bei dem und bei anderen Spielen? Fehlanzeige aber ich wette das heute noch behauptet wird das die Radeons wegen Unterfilterung mehr flimmern würden. *buck*
 
Trotz einer gewissen Affinität sollte man trotzdem mal überlegen, daß wenn es da wirklich was öfters greifbares gäbe, AMD das mit sicherheit aufgreifen würde und mindfestens viral oder auch halb offiziell es kleinwenig ausschlachten würde ;) Ich denke jedenfalls nicht die würden sich sowas entgehen lassen.

Die Überlegung, ob sie das denn mitbekommen haben sollte man vergessen. Die kriegen schon alles wichtige mit. Keine Bange. Die bekommen schon weit kleinere Sachen mit (eigene Erfahrung)
 
Zurück
Oben Unten