DirectX 12/Vulkan Benchmark und Diskussions Thread

vor allem liest man an vielen stellen, wie stolz plötzlich besitzer alter amd-grafikkarten sind. keine ahnung, ob es amd wirklich zu gute kommt, wenn durch dx12 plötzlich die lebensdauer der vergangenen grafikkarten-generationen verlängert wird.

Das bereitet mir, gerade in Bezug auf eventuelle Neuanschaffungen auch Sorgen. Klar der Markt sieht eh nicht gut aus für AMD aber wenn die Lebensdauer von "älterer" Hardware noch verlängert wird und die sich so gut unter dx12 schlagen wird wie vermutet, wird das noch schlimmer.

Die DX 11 Benches habe ich mir grad mal reingezogen. Klar ist der Unterschied enorm aber wenn ich mir die Daten der GPU's mal anschaue gerade was die Rohleistung angeht frage ich mich doch, wieso AMD es nicht hinbekommen hat es wie die grünen zu machen und dementsprechend zu optimieren.

Wie ich auf der ersten Seite schon mal schrieb provitiert AMD gerade von Mantle. Vulkan und dx12 agieren ja ähnlich, wenn nicht sogar gleich.

Das wird bei grün noch ein wenig dauern das zu optimieren, immerhin hat AMD da ja schon mindestens 2 Jahre vorsprung. Ich denke, auch deswegen steht AMD gerade so gut dar wie sie es tun.

Stellt sich die Frage, was unterstützt grün, was rot nicht hat. Glaube da wird dann wieder ein Benchmark oder Game auftauchen, indem die AMD GPU's wieder weit abgeschlagen sind und dann geht das getrolle wieder von vorne los.

Aber unter dem Strich bleibt einfach: Abwarten und Tee trinken.
 
schau dir mal die dx11 benches der fury x an (z.b. bei computerbase). die leistungssteigerung ist super, aber amd hat es vor dem hintergrund des ashes of singularity benchmark auch dringend nötig. denn beim mittleren preset unter 1080p erreicht selbst eine fury x nur rund 30fps, eine gtx 960 32fps.

AMDs DX11 Implementierung lässt viel zu wünschen übrig.

bleibt am ende wieder die frage, welche relevanz ein benchmark aus einem spiel im alpha-stadium ist.

Auch wenn es offiziell erst eine Alpha ist, scheint der Code doch weiter zu sein, als bei manchem finalem Release.
Details werden sich noch ändern, an der Kernaussage meiner Meinung nach nicht. AMD gewinnt viel, nVidia wenig.

Absolut gesehen, ist die Leistung der nVidia GPUs auch unter DX12 ordentlich. Nur war die Erwartung eben eine andere.
 
Das bereitet mir, gerade in Bezug auf eventuelle Neuanschaffungen auch Sorgen. Klar der Markt sieht eh nicht gut aus für AMD aber wenn die Lebensdauer von "älterer" Hardware noch verlängert wird und die sich so gut unter dx12 schlagen wird wie vermutet, wird das noch schlimmer.

Eher nicht. Auch wenn von den 20 kolportierten Prozent Marktanteil 50% der Halter keine neue Karte kaufen weil die alte einfach noch ausreicht, so hat ein positiver Effekt (deutlich besserer Leumund und auf Dauer sehr gute Benchmarkergebnisse, so es denn so kommt) immerhin das Potenzial von ~200% Marktanteilssteigerung. Da fallen die paar Nichtaufrüster hinten runter..
 
Eine allgemeine Stimmung pro AMD und contra NVidia kann man auf jeden Fall derzeit erkennen (zum Beispiel gut zu sehen an den Beitrag-Bewertungen auf Reddit). NVidia hat eine Menge verkackt in letzter Zeit, und immer mehr Leute werden kritisch. Ob sich das auch in Verkaufszahlen widerspiegelt, müssen wir abwarten bis es Zahlen für Q3 und Q4 gibt.
 
Wie war das nochmal mit der ach so veralteten Architektur von AMD weil diese noch kein so hohes Featurelevel wie Maxwell 2 bei DX12 unterstützen?
Wie sich da einige beim Fiji das Maul zerrissen, von den noch älteren GPUs ganz zu schweigen.
Was ist nach dieser Argumentation denn nun der Maxwell 2?
 
Async Shader sind immer erste Wahl, wenn es drum geht Latenzen zu verringern. Mehr FPS ist nur ein Abfallprodukt.
Wirklich Bedeutung gewinnt das Thema erst mit VR. nVidia hat also noch etwas Zeit.
 
Dat is aber die CPU Berechnung. ;)
Ja schon, ohne nvidia dGPU geht da kein GPU Physics.
Aber nett zu sehen wie die CPU die GPU FPS eingrenzen kann.
27FPS vs 400FPS :o

P.S. keine 87,5% Gesamt CPU Auslastung...
 
Ist ja nichts neues. Erinnere dich doch mal an die damaligen Batman Benchmarks bei denen mit aktiviertem Physx getestet wurde.
Da war es praktisch egal welche Radeon zum Einsatz kam denn da gab es von der Framerate her keinen Unterschied und die Geforce Karten zogen davon...welch ein Wunder. ;)
Das gleiche Spielchen hatte ich bei den Metro Teilen, wo die erweiterte Physik per default aktiv war. Da konnte ich einstellen was ich wollte, die Framerate war immer gleich mies und er Punkt zur Deaktivierung der GPU Physik lag natürlich etwas versteckt.
Abgeschaltet und die Party konnte steigen, bei Last Light war ich dann zumindest vorgewarnt.
 
Zuletzt bearbeitet:
3D Center Kommentar zu den AS/DX12 Stand:

Die Diskussion über die fehlenden Asynchronous Shader bei nVidia geht derzeit in diese Richtung, als daß nVidia hierbei wieder einmal seine Kunden hinters Licht geführt haben könnte. Dies ist eigentlich eine Frage, deren man sich aufgrund des Mißbrauchspotentials nur vorsichtig nähern sollte – und dennoch, die sich nun langsam entblätternden Details gehen schon verdächtig in diese Richtung: So ist inzwischen klar, daß "Async Compute" zwingender Teil von DirectX 12 ist – ohne dieses Feature kein Feature-Level 12_0 oder 12_1, sprich kein Hardware-Support von DirectX 12. Lustigerweise existiert sogar eine nVidia-Präsentationsfolie zur GeForce GTX 980 Ti, wo nVidia mit dem Support von "Asyc Compute" unter DirectX 12 angibt. Optional ist dann jedoch der direkte Hardware-Support, wie von AMDs GCN-Architektur her bekannt – nVidia löst das ganze hingegen über den Treiber und dann über die CPU. Das Feature ist damit nicht performant nutzbar, aber eben aus Sicht von DirectX 12 dennoch vorhanden, sprich notfalls abrufbar.

Ein echter Support des Features ist dies aber nicht, denn da der einzige Anwendungszweck von "Asyc Compute" in einer Performancebeschleunigung liegt, kann eine softwarebasierte Lösung Performancegewinn dem natürlich nicht entsprechen. Und auch wenn nVidia hiermit also die DirectX-Spezifikationen nicht wirklich verletzt, so fehlt doch die Hardware-Beschleunigung für ein wichtiges Teilfeature von DirectX 12, welches somit auf nVidia-Hardware rein praktisch unnutzbar wird. So ganz im Sinne der Spezifikation dürfte dies auch nicht sein – und wird nVidia-Hardware in jedem Fall behindern, wenn sich die Spieleentwickler eines Tages mehr auf DirectX 12 ausrichten werden. Die Frage ist natürlich, ob dann noch die Maxwell-2-Generation bei nVidia aktuell ist – oder ob man dann schon die Nachfolge-Generation "Pascal" im Markt stehen hat, mit wahrscheinlich einem Fix für dieses Problem. Daß es Maxwell-2-Beschleuniger mit einer gewissen Chance unter DirectX 12 schwerer haben werden als die AMD-Beschleuniger, daran würden aber auch neue nVidia-Grafikkarten dann nichts mehr ändern können.
 
@eratte
Damit hätten die Maxwell 2 Karten also streng genommen keinen hardwareseitigen DX12 Support weil ein Schlüsselfeature emuliert wird oder kann am sich damit raus reden das es zwar von der GPU berechnet werden könnte aber so mies läuft das selbst die CPU Emulation besser ist?

--- Update ---

@drSeehas
Ich vermute mal das er als DX11.3 Chip entwickelt und für DX12 zurecht gebogen wurde.
Vielleicht ein Anzeichen dafür das DX12 als ein Ableger von der Konsolen API doch relativ kurzfristig und ungeplant als Reaktion auf Mantle raus gebracht wurde? Pascal kann da schon weter sein.
 
... kann am sich damit raus reden das es zwar von der GPU berechnet werden könnte aber so mies läuft ...
D3D12 ist eine Programmierschnittstelle.
Was davon in Hardware gemacht wird und was in Software ist zunächst egal.

... die CPU Emulation besser ist?
Welche CPU-Emulation?
Da wird nichts auf der CPU emuliert. Denk doch nur mal an die Latenzen.

... Pascal kann da schon weter sein.
Pascal soll doch in 16/14 nm kommen?
Und mit HBM?
Das sind zwei völlig neue Gebiete. Da wird nVidia einen Teufel tun und noch eine weitere Änderung draufpacken.
 
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?

Das es der letztendlichen Software egal ist was auf der Hardware Ebene abgeht ist klar, dem Anwender dürfte dies weniger egal sein wenn wegen einer Emulation die Performance beschissen ausfällt.

Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? Der erste Maxwell kann seitens des DX Supports auch nicht mehr als die Vorgänger.
 
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?

Das es der letztendlichen Software egal ist was auf der Hardware Ebene abgeht ist klar, dem Anwender dürfte dies weniger egal sein wenn wegen einer Emulation die Performance beschissen ausfällt.

Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? Der erste Maxwell kann seitens des DX Supports auch nicht mehr als die Vorgänger.

Naja, jedenfalls haben einige beobachtet, dass die CPU-Last deutlich nach oben geht, wenn man bei Maxwell 2.0 Async Shader einsetzt. Entweder es ist komplett auf der CPU, oder der Scheduler ist einfach nur sehr schlecht programmiert. So oder so ist es auf jeden Fall unwahrscheinlich, dass man mit Context Switches eine so gute Performance wie AMD erreicht.
 

Da wäre es interessant wenn man Async Compute manuell aktivieren und deaktivieren könnte um zu sehen was die Verbesserungen nun bringen.
In jedem Falle wäre es aber sinnvoll die CPU Nutzung im Auge zu behalten, nicht das die Verbesserungen vor allem darauf beruhen das mehr Kerne der CPU dafür genutzt und entsprechend belastet werden.

Edit:
@BoMbY
Das letzte was ich dazu laß war das sich die CPU und GPU Last geradezu abwechseln sollten. Da ist der Zusammenhang schon recht eindeutig.
Wie ich bereits schrieb...ein Test bei dem man Async Compute manuell aktivieren und deaktivieren könnte wäre da ideal um die Auswirkungen zu untersuchen.
 
Zuletzt bearbeitet:
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird ...
So ein Blödsinn. Da wird nichts emuliert. Die Shader sind ja auf der GPU vorhanden und müssen überhaupt nicht emuliert werden.
Richtig ist, dass nVidia ab Kepler den Hardware-"sheduler" zum Stromsparen gestrichen hat und durch Software ersetzt hat. Bei GCN ist alles in Hardware realisiert.

Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? ...
Das habe ich schon beantwortet: Mit dem Shrink und HBM hat nVidia genug zu tun.

--- Update ---

Auch da wieder der Blödsinn mit der Emulation.

--- Update ---

... So oder so ist es auf jeden Fall unwahrscheinlich, dass man mit Context Switches eine so gute Performance wie AMD erreicht.
Ja, vor allem da nVidia für einen Context Switch/Preemption immer erst warten muss, bis der aktuelle "draw call" beendet ist. Ein langer draw verzögert einen context Switch enorm. Deswegen hat nVidia auch Probleme bei VR.
 
3DC schrieb:
So ist inzwischen klar, daß "Async Compute" zwingender Teil von DirectX 12 ist – ohne dieses Feature kein Feature-Level 12_0 oder 12_1, sprich kein Hardware-Support von DirectX 12. Lustigerweise existiert sogar eine nVidia-Präsentationsfolie zur GeForce GTX 980 Ti, wo nVidia mit dem Support von "Asyc Compute" unter DirectX 12 angibt. Optional ist dann jedoch der direkte Hardware-Support, wie von AMDs GCN-Architektur her bekannt – nVidia löst das ganze hingegen über den Treiber und dann über die CPU.
Es ist klar?! Leo lehnt sich mal wieder weit aus dem Fenster.
 
So ein Blödsinn. Da wird nichts emuliert. Die Shader sind ja auf der GPU vorhanden und müssen überhaupt nicht emuliert werden.
Richtig ist, dass nVidia ab Kepler den Hardware-"sheduler" zum Stromsparen gestrichen hat und durch Software ersetzt hat. Bei GCN ist alles in Hardware realisiert.

Postings nicht gelesen und deshalb keinen Plan davon worum es ging?
Wenn doch dann wäre dir eine unbeantwortete Frage wohl kaum entgangen.
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?

Aber OK, dann bist du also der Meinung das die Hardware so lahm ist dass sie nicht mit den ach so veralteten Radeon GPUs mithalten kann und für eine schlechtere Leistung sorgt als ohne.
Das respektiere ich natürlich.

Sofern du dich aber nicht als Mitarbeiter der nvidia GPU und Treiber Entwicklung outest kannst du dir Sprüche wie "Auch da wieder der Blödsinn mit der Emulation." sparen denn damit machst du dich letztendlich aufgrund fehlenden Einblicks in die Materie lächerlich.
 
Zuletzt bearbeitet:
Zurück
Oben Unten