DirectX 12/Vulkan Benchmark und Diskussions Thread

Futuremark gibt offiziell zu, dass der Time Spy benchmark nur für Pascal optimiert ist.
Ich habe den Text nur überflogen (zu viel Pressemitteilungs-Gesülze für mich), nach "opti" und "Pascal" gesucht. Hierbei fand ich keine deratigen Äußerungen, eher im Gegenteil.
Kann bitte jemand die Stelle zitieren oder etwas spezifizieren?
 
Müssen wir über offensichtlich falsche Behauptungen von Kandidaten diskutieren, wo man sowieso immer weiß in welche Himmelsrichtung der Pfeil zeigen wird?
 
WIeso??

Stimmt doch, dass sich Futuremark vor nVidias Karren spannen ließ und AC eben NICHT vernünftig implementiert ist, zumindest nicht die parallele Version...
Und das war ja auch der Grund, warum sich viele schon gleich am ANfang so aufgeregt haben, neben dem PReis natürlich...
 
Ich habe den Text nur überflogen (zu viel Pressemitteilungs-Gesülze für mich), nach "opti" und "Pascal" gesucht. Hierbei fand ich keine deratigen Äußerungen, eher im Gegenteil.
Kann bitte jemand die Stelle zitieren oder etwas spezifizieren?

Hier:

The implementation is the same regardless of the underlying hardware. In the benchmark at large, there are no vendor specific optimizations in order to ensure that all hardware performs the same amount of work.

Sie haben sich für die Methode entschieden welche bei Pascal funktioniert, aber bei AMD deutlich weniger Vorteile bringt.
 
Wenn das der Massstab sein soll, dann dürften Entwickler auch nie ROVs und ähnliches Zeugs implementieren. :]
 
[3DC]Payne;5106881 schrieb:
WIeso??

Stimmt doch, dass sich Futuremark vor nVidias Karren spannen ließ und AC eben NICHT vernünftig implementiert ist, zumindest nicht die parallele Version...
Und das war ja auch der Grund, warum sich viele schon gleich am ANfang so aufgeregt haben, neben dem PReis natürlich...
Schön das der 3D Mark Time Spy ohne "parallele Version" laut CB 10-16% bei Radeons gewinnt, dass ist mehr als die Entwickler bei Hitman angeben mit 5-10% und mehr als CB bei Ashes of the Singularity im Schnitt misst, nämlich 6-12%.

Du bist seit 2001 angemeldet, ab wann willst du deine völlig verzerrte Sichtwiese auf die Dinge mal fixen?
Jeder Beitrag, geschwungen von einem Kreuzkrieger.

Sie haben sich für die Methode entschieden welche bei Pascal funktioniert, aber bei AMD deutlich weniger Vorteile bringt.
Da steht nur das jeder Hersteller das gleiche berechnet und man keine herstellerspezifische Optimierungen durchgeführt hat.
Dort steht überhaupt nicht, dass man nur die Methode verwendet die bei Pascal funktioniert und bei AMD weniger Vorteil bringt.
Du gehst mit deiner Behauptung 200 Meter zu weit.
 
Irgendwie scheinen die DX12 nicht zu können - eigentlich sollte DX12 niemals langsamer als DX11 sein, wenn es richtig implementiert wurde. Im schlechtesten Fall würde man keine Verbesserung erwarten auf dem Papier.
 
Ja, das geht es nur um die CryEngine.
 
Ja, das geht es nur um die CryEngine.
Danke, dann darf man gespannt sein, wenn der Treiber wirklich kein Mehraufwand hat, wenn es über die API läuft.

Der Crimson 16.9.2 macht bisher eine gute Figur: http://www.planet3dnow.de/vbulletin...fix-non-WHQL-verfuegbar?p=5117251#post5117251

Beim API Overhead Test schaut es viel versprechend aus.
DX12 sehr stark mit einer GPU dadurch auch weniger Verbrauch.
Mantle braucht 33% mehr Energie für 40% mehr "draw calls" mit zwei GPUs.
 
Microsoft bringt schon wieder ein total kaputtes DX12 Spiel raus: Forza Horizon 3 Benchmark : Die PC-Version macht einfach keinen Spaß.

Ich glaube die wollen mit aller Gewalt ihre eigene Plattform sabotieren ...
Hm, Wolfgang schreibt sogar, dass die CPU nicht mehr übertaktet ist, gilt das auch für den Speicher?
4 x 4.096 MB G.Skill RipJaws 4 DDR4-3.000 (15-15-15-35)
Kann der IMC die 3000 bzw. was wäre dort JEDEC Norm?

Klingt trotzdem gruselig, Halloween naht.
Würde evt. noch mit einem AMD System gegen testen, gabs ja auch schon mal bei CB ;)
 
Quantum Break DX12vsDX11+6700Kvs8370

Wie kommts das AMD Chips bei der Skalierung die Grätsche machen? Immerhin funktioniert die Entlastung des Prozessors, wie man wunderbar am Beispiel des FX beobachten kann. Aus welcher Mottenkiste die CB den wohl gefischt haben mag...
 
Welche Entlastung?
Die Geforce Modelle schneiden durch die Bank bei DX12 deutlich schlechter ab und lediglich die schnellen AMD GPUs können sich mit DX12 nennenswert absetzen.
Für mich sieht das eher nach eine Mischung aus verbesserten Multicore Support durch DX12 (beim i7 nehmen sich beide Version bei den Radeons nichts) und einer generellen Schwäche bei den Geforce Modellen aus.
 
Welche Entlastung?

Sry, da habe ich mich gestern abend etwas zu kurz gehalten. War auf die Testreihe mit DX12 und dem FX8370 gemünzt. Vor allem Polaris profitiert hierbei und liefert in etwa die selben FPS wie mit dem i7. Auch die Fury holt hier gegenüber DX11 noch ein paar mehr FPS raus. Das die Nvidia Chips mit DX12 nichts anzufangen wissen ist soweit klar. Was ich nicht verstehe sind die enormen Unterschiede mit aktivierten/deaktivierter Skalierung auf Seite 2 klick mich
 
Dann guck mal wie die Fury auf dem FX zulegt. ;)
Wie gesagt, das sieht mir bei DX11 eher nach der klassischen Leistungsbegrenzung durch einen mangelhaften Multicore Support aus denn bei ca. 34 FPS rennen die Radeons voll ins harte CPU Limit wärend der Einbruch bei den Geforce Karten ziemlich konstant bleibt.
 
Der MSI Afterburner bzw. RivaTunerStatisticServer kann nun DX12 OSD und zeigt auch den Render Modus an.
Bei ROTT ist es wohl AFR (D3D12AFR)

http://abload.de/img/rottr_2016_10_10_11_3y2r1k.jpg
http://abload.de/img/rottr_2016_10_10_11_4ixp8j.jpg

Sieht so aus, als könnte man wieder Frame Times aufzeichnen.

Games of Gear 4 mit DX12: http://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/
Warum eine GTX1080 nur mit einem I7-6700K schneller ist als eine GTX980 TI muss mann nicht verstehen.
Zumal die GTX960 mehr FPS auf dem FX-8370 erreicht. (Bezieht sich auf 1080p)
 
Miese Engine oder VRAM voll? So viele Ausreißer nach unten und oben lassen das Thema Mikroruckler wieder aufkommen.
 
Die letzten Monate waren nicht gerade aufregend, ein kleiner Griff in die Mottenkiste ;)


Vulkan und OpenGL auf der Switch
http://www.pcgameshardware.de/Nintendo-Switch-Konsolen-260784/News/setzt-auf-Khronos-APIs-1216429/

PCGH Benchmarks aus dem Januar(DX12/Vulkan)
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/

Sniper Elite mit DX12
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/

Cloud Imperium Games setzt bei StarCitizen zukünftig Vulkan ein und streicht DX12 Support
https://www.golem.de/news/cloud-imp...auf-vulkan-statt-auf-directx-1703-126823.html
 
Zurück
Oben Unten