DirectX 12/Vulkan Benchmark und Diskussions Thread

Ich habe mir Thief gekauft um meinen PC (Fury X mit fx 8320) mal mit mantle zu testen.

Ist jetzt nichts neues das bei ultra hd mantle nicht so viel bringt, aber benchmarks mit der Hardwarekombination gibt es ja nicht so oft und gibt mir Hoffnung das mein AMD FX 8320 Prozessor noch nicht in den Ruhestand muss.

Stimmt wohl, hauptsache die Minimum FPS sinken nicht zu sehr u. wenn kannst den 8320 auch noch OCn. ;)
Gruß
 
Stimmt wohl, hauptsache die Minimum FPS sinken nicht zu sehr u. wenn kannst den 8320 auch noch OCn. ;)
Gruß


Bei Thief 4 war Mantle sehr konstant. Der FX 8320 kann auch locker auf 4 GHZ übertaktet werden. Bloß damals beim testen mit GTA 5 haben die 500 MHZ mehr kein Frame mehr gebracht.
 
Hab den Ashes of Singularity Benchmark mal selbst gemacht.


Das erste Bild ist mit 1x MSAA und TAA (temporary anti aliasing) auf hoch, Rest auch hoch.

Das zweite Bild ist mit 4x MSAA und TAA auf Ultra und Rest auch hoch (wobei das nicht angezeigt wird)

Was mir aufgefallen ist, dass bei zugeschaltetem MSAA unter DX11 sogut wie keine Leistung verloren geht.

Die FPS unterscheiden sich ansonsten auch nur gering.

Beim DX11 Bench sind im Heavy Batches sogar identische FPS zu vermelden.

Test wurde mit einer r9 290x 1100 / 1400 (Catalyst 15.7.1.1004) gemacht auf einem i7 4790k bei 4.7 GHz. (belegt aber die Ergebnisse von PCGH recht gut)


Ich zitiere da mal die PCGH :

- Average CPU Framerate (DX12): Dies gibt einen synthetisch berechneten Wert zu der theoretischen CPU-Leistung an, wenn diese nicht durch die GPU ausgebremst werden würde.

- Percent GPU Bound (DX12): Zu welchem Prozentsatz die GPU die Frameraten bei verschieden anspruchsvollen Szenarien einbremst.

Die theoretischen FPS sind recht interressant, aber ich glaube selbst eine 980Ti im Sli würde noch ins Limit laufen. (zumindest mit einem Prozessor wie meinem)

Nun bleibt die Frage, wie oft kommt es später in Games vor, dass man Heavy Batches nutzt oder eher gesagt, wie häufig kommen diese vor.
Heavy Batches sind die durchschittlichen Frameraten der anspruchsvollsten Szenen bzw. die mit den leistungsintensivesten Drawcalls

Zumindest bin ich mir sicher, dass ich meine Karte wohl in den nächsten 1 - 2 Jahren, je nachdem was so an Karten kommt, aufrüsten muss, oder ich wage mal den Schritt zur Multi GPU.

Aber vorerst so wie es ist, bis es nicht mehr ausreicht. ;)
 
Zuletzt bearbeitet:
H
Was mir aufgefallen ist, dass bei zugeschaltetem MSAA unter DX11 sogut wie keine Leistung verloren geht.

Die FPS unterscheiden sich ansonsten auch nur gering.

Beim DX11 Bench sind im Heavy Batches sogar identische FPS zu vermelden.

Was auch nicht wirklich verwunderlich ist wenn die Karte im CPU Limit fest sitzt denn dann hat sie noch mehr als genug Reserven fürs FSAA.
Je härter das CPU Limit desto geringer der Einbruch beim Zuschalten vom FSAA.
 
Ich habe mir Thief gekauft um meinen PC (Fury X mit fx 8320) mal mit mantle zu testen.
Das sind meine Ergebnisse mit dem internen Benchmark im Spiel:

FULL HD Auflösung 42;6 frames ZU 58;5 frames 16 frames BESSER MANTLE

QHD Auflösung 43 frames ZU 55 frames 12 frames BESSER MANTLE

ultra HD Auflösung 35;7 frames ZU 29;9 frames 5 frames MANTLE SCHLECHTER


Ist jetzt nichts neues das bei ultra hd mantle nicht so viel bringt, aber benchmarks mit der Hardwarekombination gibt es ja nicht so oft und gibt mir Hoffnung das mein AMD FX 8320 Prozessor noch nicht in den Ruhestand muss.

Natürlich muß der FX nicht in den Ruhestand...Vulkan basiert auf Mantle und wird hoffentlich nicht limitieren wie DX 12 es macht. Bei DX 12 ist nach mehr als sechs Cores/Threads keine Steigerung möglich, bei Mantle schon.

Nun darf man sich ja Fragen, warum das so sein muß... *suspect*


Viele Grüße,
stolpi
 
gpuz_3dmark_apizmlm6.jpg


http://abload.de/image.php?img=3mark_api_oht_8kmfl3u.jpg

8K+ unter 3GByte VRAM? ???
 
Liegt halt daran, dass dieser API-Test nur die Geschwindigkeit zwischen CPU und GPU misst.

Soviel ist ja auch nicht in den Speicher zu laden, die paar Texturen macht der Chip ;)

Wie dir vielleicht auch aufgefallen sein sollte, sind deine Mantle Ergebnisse sehr nah bei einander, während dx12 von 4k auf 8k über 1 mio verloren hat.

Das liegt am fehlenden CF support derzeit.

Das wird aber an dem Bench liegen, denn egal welcher Treiber benutzt wird, dx12 nutzt bei dem Test kein CF, Mantle schon.

Siehe hier:
m3myY8l.jpg
 
Die Auflösung spielt auch praktisch keine Rolle bei den Draw Calls. Abgesehen davon spielt die Auflösung an sich kaum eine Rolle für den Speicherverbrauch (die Framebuffer haben nur ein paar MB), der Speicher wird hauptsächlich von Texturen und anderen Dingen belegt - je nachdem gibt es natürlich eventuell Dinge welche abhängig von der Auflösung proportional wachsen, anscheinen zum Beispiel der Speicherverbrauch bei manchen AA-Implementierungen.
 
Finde ich mal ne Interessante Info.




Natürlich muß der FX nicht in den Ruhestand...Vulkan basiert auf Mantle und wird hoffentlich nicht limitieren wie DX 12 es macht. Bei DX 12 ist nach mehr als sechs Cores/Threads keine Steigerung möglich, bei Mantle schon.

Nun darf man sich ja Fragen, warum das so sein muß... *suspect*


Viele Grüße,
stolpi
 
Zuletzt bearbeitet:
http://www.heise.de/developer/artik...Grafik-API-Vulkan-2790622.html?artikelseite=2

Interview mit Tobias Hector(IMG) über Vulkan

--- Update ---

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-1169294/

DirectX 12 Patch für Ark:Survival Evolved kommt diesen Freitag.

Das war wohl nichts: http://steamcommunity.com/app/346110/discussions/0/520518053440119300/

Aufgrund von unüberwindbaren Treiberproblemen wartet man nun auf AMD/NVIDIA. Das man dies nicht schon vor ein paar Tagen wusste erscheint mir allerdings recht fragwürdig. Miese PR Aktion trifft es wohl eher, so macht man sich keinen Namen.
 
Zuletzt bearbeitet:
Interessante Informationen von einem Oxide-Mitarbeiter (Auszug):

If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD

[...]

Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.

[...]

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC.
 

Get your Popcorn ready!!!
Oha! Das kann noch richtig lustig werden. ACE ist ein Bestandteil von DX12. Wenn das stimmt, hat nVidia versucht, sich besser darzustellen, als sie es wirklich sind.

Was bedeutet das? Async Shader ist als Feature nicht nutzbar. Es wird das passieren was nVidia "empfiehlt", nämlich es nicht zu nutzen. nVidia hat den mit Abstand größten Marktanteil und kein Studio wird Ressourcen in es etwas stecken, was bei der Mehrheit zu Leistungseinbrüchen führt.
Naja, es gibt ja noch Konsolen...
 
Zuletzt bearbeitet:
Alle Konsolen laufen auf GCN und dort wird es stark genutzt (laut Oxide). Da ältere GPUs das auch so oder so nicht können, muss es immer auch erstmal einen synchronen Pfad geben. Ich hoffe mal nicht, dass viele das Feature überhaupt nicht nutzen werden, nur weil NVidia dann ein bisschen weinen müsste.

Edit: Wobei es ja schon so zu sein scheint, als hätte NVidia explizit Oxide aufgefordert Async Compute komplett zu deaktivieren, weil es auf ihren GPUs nicht funktioniert. Wenn die einen Vertrag mit NVidia gehabt hätten, dann sähe das vielleicht jetzt anders aus.
 
Zuletzt bearbeitet:
Ich hoffe mal nicht, dass viele das Feature überhaupt nicht nutzen werden, nur weil NVidia dann ein bisschen weinen müsste.

Das wird vermutlich so sein. Battlefield nutzt auf der Konsole async Shader, auf dem PC aber nicht, obwohl Mantle dies bietet. Der Aufwand für die Implementierung steht eine kleine Zielgruppen entgegen die davon einen Nutzen hat. Die Konsolen haben andere APIs so dass dies nicht so ohne weiteres übertragbar ist.
 
Edit: Wobei es ja schon so zu sein scheint, als hätte NVidia explizit Oxide aufgefordert Async Compute komplett zu deaktivieren, weil es auf ihren GPUs nicht funktioniert. Wenn die einen Vertrag mit NVidia gehabt hätten, dann sähe das vielleicht jetzt anders aus.

Gabs doch:
In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)
Quelle

Damit hätten sich die DX12 Tier Diskussionen ja erübrigt. nVidia muss erstmal mit Maxwell 2 in Hardware nachbessern.
 
Oder so. War da nicht schon Tapeout? Wäre ja "praktisch", wenn der auch noch keine ACEs hätte..
 
Bin mir nicht sicher. Es entspricht nicht nVidias Geschäftsgebaren sich nach anderen zu richten.
Naheliegend ist sie werden versuchen das Problem treiberseitig irgendwie zu minimieren. An AMDs effizienten Contextswitch wird man nicht herankommen.
Das sie plötzlich einen Wundertreiber veröffentlichen ist unwahrscheinlich. Im Falle von Oxide hatte man 12 Monate Zeit das Problem zu beheben, was üppig ist. Wenn man das in dieser Zeit nicht schafft, wird man es wohl nie schaffen.

AMD hat schon vor längerer Zeit gesagt man sehe sich bei Async Shader vorn. Sie werden wissen von was sie sprechen.
nVidia ist auf DX12 nicht besonders gut vorbereitet. Sie können nur hoffen, dass die Entwickler dieses Feature nur sparsam einsetzen.
Aber selbst das scheint ja schon zu Problemen zu führen.

War das 3.5Gb Problem der GTX 970 eher theoretischer Natur, hat dieses Problem schon ein anderes Kaliber. Stand heute, würde ich keine nVidia Graka mehr kaufen.
Das nVidia gelegentlich etwas selbstgefällig agiert ist ja nicht neu, aber bisher konnten sie das mit Leistung rechtfertigen. Letzters sehe ich aber seit einiger Zeit bröckeln.
Mit G-Sync hat man sich auch auf das Abstellgleis manövriert. Vulkan und der Windows-Ableger DX12 sind GCN optimiert. Mantle hätte man nicht effektiver beerdigen können.
 
Zuletzt bearbeitet:
....

In der Vergangenheit wurden Features die nur von einem Hersteller unterstützt werden nur selten genutzt. Ich denke so wird es auch mit Async Shaders sein, bis es bei nVidia zufriedenstellend läuft.


Hmm zufriedenstellend läuft... hmm ich sag nur Physix oder Mantle. Beides Features die von nur einem Hersteller genutzt werden können...

Ich sag nicht, dass es notwendig ist, aber wenn AMD besseren nutzen aus Async Shaders ziehen kann..

Naja die Roten sind ja nicht so wie die grünen und sagen meistens die Wahrheit.

Auch der Kommentar von Hallock zeugt von Größe, kann mich nicht an eine deratige Äußerung seitens grün erinnern in der sie die Konkurrenz in Schutz nimmt.

Aber gut, da beide Hersteller noch keine Karten haben die volle Unterstützung leisten und bis jetzt auch noch keine Games da sind, welche dx12 brauchen (Fable Legends ist übrigens in der Closed Beta, hoffe da demnächst einige Tests zu lesen, oder selbst ausgewählt zu werden) wird das alles nur aufgebauscht durch die Community.

Klar steht grün gerade nicht gut da, aber da wird sicher was kommen, auch wenn es etwas dauert.


BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können. Immerhin sprechen wir hier von 300 Euro unterschied zu den beiden Karten.

siehe hier: Link
 
Zuletzt bearbeitet:
Auch der Kommentar von Hallock zeugt von Größe, kann mich nicht an eine deratige Äußerung seitens grün erinnern in der sie die Konkurrenz in Schutz nimmt.

Deswegen verkauft AMD nicht einen Chip mehr, auch wenn Hallock sympathisch wirkt.
Am Ende zählen eben lange Balken.

Klar steht grün gerade nicht gut da, aber da wird sicher was kommen, auch wenn es etwas dauert.

Frühestens nächstes Jahr mit Pascal. Für Maxwell erwarte ich nicht mehr viel.

BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können. Immerhin sprechen wir hier von 300 Euro unterschied zu den beiden Karten.

siehe hier: Link

So verwunderlich ist das garnicht, wenn man sich vor Augen hält wie Async Shader funktioniert und wenn man sieht, wieviel Rohleistung bei der R290 brach liegt.
 
Deswegen verkauft AMD nicht einen Chip mehr
vor allem liest man an vielen stellen, wie stolz plötzlich besitzer alter amd-grafikkarten sind. keine ahnung, ob es amd wirklich zu gute kommt, wenn durch dx12 plötzlich die lebensdauer der vergangenen grafikkarten-generationen verlängert wird.

BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können.
schau dir mal die dx11 benches der fury x an (z.b. bei computerbase). die leistungssteigerung ist super, aber amd hat es vor dem hintergrund des ashes of singularity benchmark auch dringend nötig. denn beim mittleren preset unter 1080p erreicht selbst eine fury x nur rund 30fps, eine gtx 960 32fps.

bleibt am ende wieder die frage, welche relevanz ein benchmark aus einem spiel im alpha-stadium ist.
 
AMD müsste den Engine-Schreiberlingen nur mal beibringen, wie man die Rohleistung ihrer Karten nutzt. Würden sie die Rohleistung auf die Straße bringen, würde Fiji wahrscheinlich sogar noch Pascal in weiten Teilen in Schach halten können.

Hier muss AMD da aufholen, wo nVidia seit langem führend ist - in der Lobbyarbeit. Der Grundstein ist gelegt, die Treiber von DX12 und Vulkan sind aufs nötigste beschränkt und vergleichsweise einfach zu warten. Die freigewordenen Reserven dürfen jetzt ruhig in Kooperationen fließen.

Auch wenn AoS noch Alpha ist, ist es trotzdem ein probates Mittel um Flaschenhälse zu identifizieren und anzugehen. Gerade jetzt, wo sich viele Entwickler neu einarbeiten müssen und es viel Optimierungspotenzial gibt, kann AMD noch viel ausrichten. In 2 Jahren, wenn die Engines fertig sind, kräht da kein Hahn mehr danach. Da werden die Engines verkauft und die Weiterentwicklung gestaltet sich zäh.
 
Zurück
Oben Unten