News AMD bittet um Feedback zum Catalyst-Treiber und kündigt Überraschung an [Update]

um das thema der schlechteren CPU-skalierung von AMD noch mal aufzugreifen:

http://www.computerbase.de/2014-11/cod-advanced-warfare-grafikkarten-test-vergleich-benchmark/

"Darüber hinaus gibt es noch zwei Auffälligkeiten: Es macht sich in Full HD auf einer High-End-Grafikkarte erneut bemerkbar, dass der GeForce-Treiber effektiver mit der vorhandenen CPU-Leistung umgehen kann – unabhängig davon, ob eine schnelle oder eine langsame CPU vorhanden ist."

es fällt also nicht nur mir auf.

mfg
 
Auf welchen Test bezieht sich eigentlich hier das "erneut"?

Es handelt sich ja hier um ein von NVIDIA gesponsertes Spiel. Ich würde mal den nächsten Catalyst-Treiber abwarten. Der verwendete NVIDIA-Treiber war ja der spezielle Performance-Treiber für dieses Spiel.

Bei Guru konnte man zudem lesen, dass die gemessenen Werte in diesem Spiel stark streuen.
 
ja, das hier evtl. treiberoptimierungen fehlen hab ich mir auch schon gedacht.

aber andererseits ist es eine alte aufgemöbelte engine, die ausgelutscht ist und weniger optimierungen bedarf.

warten wir es mal ab. dramatisch ist es am ende nicht.
immerhin skaliert sie besser mit den AA-modi.

mfg
 
Wenn dann ist es eine modifizierte die der Treiber vermutlich so noch nicht kennt und deshalb auch nicht darauf angepasst sein kann.
Unterm Strich können es bei nvidia aber auch schon die Treiberanpassungen enthalten sein die die CPU Last senken und/oder besser auf die Kerne verteilen und für jedes Spiel extra eingearbeitet werden müssen.

Angesichts der Testergebnisse beim CPU Benchmark tippe ich vor allem auf letzteres denn bei der Radeon brachte HTT nichts (na immerhin kein Leistungseinbruch), bei der Geforce hingegen 3%. Zur CPU Last könnte man nur etwas sagen wenn diese gemessen worden wäre.
 
Die einzige Schwäche die ich da erkennen kann ist HTT.
Mit 2 Kernen läuft das Spiel offenbar im CPU Limit denn hier gibt es keinen Unterschied zwischen der Radeon und der Geforce.
Die Aktivierung von HTT brachte bei der Radeon gerade einmal 9%, bei der Geforce satte 60% und damit fast so viel wie die Freischaltung der beiden physischen Kerne.....wie das? Oben riegelt wiederum die Grafikkartenlimitierung ab.

Alles in allem sprich das wieder nur für eine bessere Lastverteilung auf die Kerne denn auch dort fehlen wieder Zahlen zur CPU Auslastung.
 
Also ich seh da eher ein CPU Problem bei Nvidia laut den Messwerten. Das wurde auch dort in den Kommentaren festgestellt, dass der Schluß der Redaktion an den Haaren herbei gezogen ist. Während bei AMD eine schnellere Taktung des i7 8% Zugewinn bringt läuft die Nvidia 34% schneller mit 1 GHz mehr. Bedeutet für mich mehr CPU Hunger für Nvidia und schlechterer CPU Overhead. ebenso der Unterschied von 2 Kernen zu 4 Kernen - AMD +40% und Nvidia über 70%. Bedeutet ebenfalls mehr Abstriche mit schwächerer CPU für Nvidia. Also muss man um die volle Leistung der teureren Nvidia GPUs abzurufen auch eine teurere CPU kaufen.
 
Ein so direkter Vergleich läuft aber schon daran auf das sich die max. Framerate deutlich unterscheidet.
Läuft ein Spiel auf Grafikkarte A schlechter als auf Grafikkarte B dann rutsch Grafikkarte A auch schneller ins GPU Limit und die Leistungssteigerungen fallen entspreched geringer aus.

Da sich die Framerate bei der schwächsten CPU Konfiguration allerdings nicht unterscheidet denke ich eher das der CPU Overhead bei beiden gleich ist denn wo sollte sich dieser denn sonst bemerkbar machen? Wirklich aufschlussreich wäre nur ein Vergleich mit Einbeziehung der CPU Auslastung denn was ist wenn diese bei der schnelleren Geforce aufgrund besseren Multithreadings entsprechend höher ausfällt? Dann geht die ganze Argumentation mit einem Schlag den Bach runter denn wen wundert es dann noch das die Variante mit besserer CPU Auslastung (nutzbarer CPU Leistung) schneller ist?
 
Aber genau das meine ich. Das Ziel der CPU ist die GPU maximal auszulasten. Wenn das mit einer schwächeren CPU stattfindet, dann ist das ein Vorteil und kein Nachteil. Das Problem ins GPU Limit zu kommen, sprich die GPU voll auszulasten, hat hier die Nvidia GPU. Das mag an der höheren Leistung liegen, doch wie kann man auf diese Weise AMD ein Problem attestieren? Was hier mit "besser skalieren" beschrieben wird ist eben nicht besser, sondern zeigt einen Flaschenhals in der GPU/CPU Kombination. Das bedeutet höhere Systemanforderungen für das dortige Nvidia System um die maximale Leistung der GPU abzurufen.

Dies hätte ich gerne mal in Tests bis in den Bereich R7 270 und GTX750 runter gesehen. Wäre sicher interessant bei gleich schnellen GPUs zu vergleichen und auch was die nächst höhere an CPU Mehrleistung braucht.
 
Wenn du eine höhere Framerate erreichen kannst kommst du auch später ins GPU Limit weil dafür ganz einfach mehr CPU Leistung erforderlich wäre und ist die Spanne zwischen dem CPU und dem GPU Limit kleiner weil das Spiel auf der anderen Grafikkarte langsamer läuft dann kann man auch nicht die gleiche Leistungssteigerung durch eine schnellere CPU erwarten.
Das hat nichts mit Schwächen eines Treibers zu tuen sondern mit der normalen Leistungsentwicklung, wir reden schließlich noch immer über das gleiche Spiel und die gleiche Testszene.

Mit kleinere GPUs wäre das Verhalten vorhersehbar.
Das GPU Limit tritt noch früher ein bis es in die Region des CPU Limits vorstößt und die grafikkarte bei der gleichen CPU bereits limitiert.

Wenn es aber lt. der Spiele Entwickler so verdammt schwierig ist mit Directx die Last auf die Kerne zu verteilen liegt der Verdacht nahe das nvidia hier ihr eigenes Ding dreht und die "Optimierungen" deshalb für jedes Spiel einzeln vorgenommen werden müssen. Es wäre mal interessant ob sich der Treiber in diesen Fällen intern auch an die Direct3D Vorgaben hält oder ob sie hier ihr eigenes Ding unter dem DirectX Mantel drehen.
 
Zuletzt bearbeitet:
Natürlich, doch die Frage ist wieso eine 20% schnellere GPU mit höherem Takt der CPU 70% Leistung dazu gewinnt und warum die 20% langsamere 8% zulegt und dann am Maximum ist. Das legt eine bessere CPU Nutzung nahe. Es geht um das Verhältnis, daher wäre es interessant das mal auszuleuchten.
 
Weil die in dem Spiel langsamare Grafikkarte eher im GPU Limit hockt und die Framerate deshalb nicht mehr großartig steigen kann?
Schau mal in den unteren Teil der Auflistung. Sowohl die Radeon, als auch die Geforce legen beim Umstieg von den 2 Kernen @ 3,5 GHz auf die 4 Kerne @ 2,5 GHz um 30% zu.
Im oberen Teil ist bei der Radeon mit den 4 Kernen @ 3,5 GHz schluss. Das HTT bei der Radeon keine Vorteile bringt sah man ja bereits unten aber selbst die Übertaktung auf 4,4 GHz bringt keine Punkte. Hier hat die CPU offenbar nichts mehr zu melden.
Der geforce geht es da ähnlich, ist aber bei den 4 Kernen @ 3,5 GHz noch nicht ganz im Limit. Man sieht allerdings das die Zuschaltung vom HTT bei weitem nicht die Leistungssteigerung wie beim 2 Kerner @ 3,5 GHz bringt aber nahezu auf der gleichen Stufe wie bei der Übertaktung auf 4,4 GHz landet.
Dazu sollte man auch noch beachten das es nicht nur die beiden harten Limits gibt sondern auch einen Raum dazwischen bei der die Leistungssteigerung nach und anch abnimmt.

Kurzum es ist relativ sinnlos solche Vergleiche bei unterschiedlich schnellen Grafikkarten anzustellen solange man nicht in den harten Limits hockt.

--- Update ---

Dass das Spiel bei der Geforce deutlich besser mit dem Multithreading umgehen kann sieht man nirgendwo besser als bei dem FX denn dieser kann mit der Geforce eine fast 50 prozentig höhere Framerate erreichen. Alternativ können wir natürlich auch mit dem i7 mit 2 Kernen @ 3,5 GHz vergleichen.
Auf dieser Basis ist der FX bei der Radeon gerade einmal 12% schneller, bei der Geforce 52% schneller. Ein allgemeines CPU Limit kann es aber auch nicht sein denn warum sollten dann bei der Radeon die Kerne des i7 @ 2,5 GHz 16% schneller sein, bei der Geforce hingegen 15% langsamer? Die einzige sinnvolle Begründung liegt im Multithreading und damit in der Anzahl der effektiv genutzten Kerne die bei der Geforce aus welchen Gründen auch immer höher ausfallen dürfte.
Gleichzeitig spricht aber auch die hohe SMT Skalierung bei der Geforce entweder dafür das der Code verdammt ineffektiv sein muss das so viel Platz in der Pipeline ist das man damit komplette Kerne ausgleichen kann oder das hier auf andere Wege die Leistung der anderen Kerne genutzt wird. Ein Vergleich von dem gestutzten i7 mit einem i3 wäre hier aufschlussreich.
 
Zuletzt bearbeitet:
Zurück
Oben Unten