Warum ist Nvidias Performance/Watt besser ?

@Locuza

Lass es einfach bleiben. Deine Ignoranz und dein Verdrehen von Tatsachen hilft dir auch nicht. Ich habe einige Quellen genannt. Du selbst hast doch Quellen gepostet, die deine Märchen widerlegen, wie eben Tests zu Project Cars, welche klare Unterschiede zwischen CPU und GPU PhysX gezeigt haben.


Hier gibt's übrigens einen interessanten Beitrag zum Thema Async Shaders.

gfxcomputedx12pzu7w.jpg


Wie ich vermutete schrieb da AT einfach Müll. Somit sollte klar sein, dass Nvidia quasi keine Async Shaders untestützt, da sie lediglich eine Queue Engine besitzen. Auch Maxwell v2 ändert daran nichts. GCN unterstützt hingegen 8 Queue Engines, kann also problemlos mehrere Queues (Compute, Grafik, Copy) parallel verarbeiten. Das darf mit nicht mit parallelen Compute Engines verwechseln, die Nvidia auch schon länger unterstützt. Das sollte aber niemanden verwundern. Könnte Nvidia wirklich Async Shaders, dann hätten sie da sicherlich schon mehr Wirbel veranstaltet. Damit zerschlägt sich ein weiter Wunschtraum deinerseits. Da kann man für Nvidia nur hoffen, dass sie mit Pascal nachlegen, ansonsten fallen sie technologisch immer weiter hinter AMD zurück. Allerdings steht dann auch schon Arctic Islands bereit, was laut Gerüchten ja eine signifikante Weiterentwicklung sein soll, also die Messlatte für Nvidia erneut deutlich anheben wird.
 
Bleibt die Frage in wie weit Async Shaders genutzt werden. BF4 nutzt diese auf PS4 aber nicht auf dem PC.
Ohne finanzielle Zuwendungen wir da nix geschehen. Und AMD hat es nicht so dicke...
 
@ gruffi

User Werte vs. User-Werte, Aussage eines Studio-Mitarbeiters, eines IHV Mitarbeiters und einiger Redaktionen.
Da bin ich mir natürlich sicher, dass es ein Märchen ist, dass Project Cars kein GPU-PhysX verwendet.
Herr im Himmel.

Aber zum Thema Async-Compute, großer Applaus, endlich wird eine Quelle ordentlich verlinkt und gezeigt.
Die Tabelle stellt zwar nicht alles richtig dar, aber die Aussage mit einer Queue-Engine hat was.
Bei Nvidia gibt es nur eine Grid-Management-Unit, die sich um die Verteilung von bis zu 32 queues kümmert.
http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf

Seit Maxwell V2 soll auch parallel eine 3D-Queue funktionieren.
16 active grids und mögliche Konflikte zwischen 3D und Compute-State lassen bei mir aufhorchen, wie gut das ganze bei Maxwell funktionieren wird.
Der nette User schreibt folgendes:

Maxwell 2 has 1 Compute Engine, it can handle up to 32 compute threads when operating on full compute.

In mixed mode, this single engine can handle 1 rendering + 1 compute queue asynchronously.

Wie das ganze wirklich funktioniert, wissen vermutlich nur die Leute von Nvidia.
Wenn alles über die GMU geschliffen werden muss, dann sollte bei Nvidia das ganze deutlich starrer ablaufen, als bei AMD.
Hat Nvidia dagegen eine 3D-Engine + eine Compute-Engine mit bis zu 32 Compute-Queues, wäre das deutlich effizienter.
Man hätte zwar nicht wie AMD die Möglichkeit, mehrere Compute-Queues asynchron zu verteilen und zu priorisieren, aber immerhin mit der 3D-Engine zusammen, was ohne immer zu Stalls in der Ausführung führt.

-Update-

Bleibt die Frage in wie weit Async Shaders genutzt werden. BF4 nutzt diese auf PS4 aber nicht auf dem PC.
Ohne finanzielle Zuwendungen wir da nix geschehen. Und AMD hat es nicht so dicke...
Ich denke Async Compute wird in nächster Zeit von einigen wichtigen Spielen genutzt.
Bei BF4 wurde von Johan in einer Mantle PDF das Thema Async Compute angerissen.
Ich kenne nicht mehr den Grund, möglicherweise Stabilität, aber es war noch zu früh um es einzufügen.

Wir haben jetzt aber DX12, mit dem Feature Multiengine für parallelen queue-dispatch von 3D, Compute und Copy-Queues.
Die Xbox One verwendet mit dem PC gemeinsam praktisch die selbe API und fußt auf GCN Gen 2 auf.
AMD muss das das theoretisch nicht selber fördern, sondern nur abwarten, dass Entwickler vermehrt Gebrauch davon machen und bei den PC-Versionen nicht aus irgendwelchen Gründen das Feature streichen.
 
Zuletzt bearbeitet:
Bei HW-Luxx gibt es auch ein Artikel: http://www.hardwareluxx.de/index.ph...en-amd-grafikkarten-weiter-beschleunigen.html

Wird wohl vor allem für VR nützlich:

Eine möglichst hohe Auflösungen der Displays bei einer möglichst hohen Bildwiederholungsrate sind eine Herausforderung an die Rechenleistung als solches. Eine Auflösung von UltraHD pro Auge bei 90 Bildern pro Sekunde gelten momentan als das vorläufige Optimum. Die dazu notwenige Rechenleistung soll durch die Asynchronous Shader bereitgestellt werden.
 
Gibt's denn BF4 @ DirectX 12 auf dem PC?

Das ist eine gute Frage. Bisher hat DICE sich nicht dazu geäußert, welches Spiel genau DX12 und Vulkan unterstützen wird, nur die Frostbite-Engine allgemein. Ich würde mal auf den neuen Battlefront-Titel als Vorzeigeprojekt tippen?
 
Gibt's denn BF4 @ DirectX 12 auf dem PC?
Im HW-Luxx Forum sind sie auch hartnäckig und ändern die Queue Anzahl nicht, obwohl ein user auf den Umstand aufmerksam gemacht hat.

Das ist eine gute Frage. Bisher hat DICE sich nicht dazu geäußert, welches Spiel genau DX12 und Vulkan unterstützen wird, nur die Frostbite-Engine allgemein. Ich würde mal auf den neuen Battlefront-Titel als Vorzeigeprojekt tippen?
Hast du Win 8.1 und 3D Mark über Steam?
Schon mal den Overhead Test laufen lassen?
 
Zurück
Oben Unten