App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
DirectX 12/Vulkan Benchmark und Diskussions Thread
- Ersteller Einbecker
- Erstellt am
Cappuandy
Grand Admiral Special
- Mitglied seit
- 30.01.2013
- Beiträge
- 3.636
- Renomée
- 168
- Standort
- Lübeck
- Mein Desktopsystem
- ROGi
- Mein Laptop
- MacBook Pro
- Prozessor
- AMD Ryzen 5 7600X
- Mainboard
- Asus ROG X670E-I Gaming WiFi
- Kühlung
- BeQuiet DarkRockPro 4
- Speicher
- Gskill Trident-Z5 RGB Black 32Gb 6000CL30
- Grafikprozessor
- iGP
- Display
- LG 27" UHD60 HDR
- SSD
- 980 Pro & T500
- HDD
- - none -
- Optisches Laufwerk
- - none -
- Soundkarte
- ROG Hive - ALC4050
- Gehäuse
- Fractal Design Torrent Nano
- Netzteil
- BeQuiet SP12 1kW Platinum
- Tastatur
- Razer Cynosa
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox | Safari@iPhone
- Internetanbindung
- ▼schneller ▲schnell
Ich habe mir Thief gekauft um meinen PC (Fury X mit fx 8320) mal mit mantle zu testen.
Ist jetzt nichts neues das bei ultra hd mantle nicht so viel bringt, aber benchmarks mit der Hardwarekombination gibt es ja nicht so oft und gibt mir Hoffnung das mein AMD FX 8320 Prozessor noch nicht in den Ruhestand muss.
Stimmt wohl, hauptsache die Minimum FPS sinken nicht zu sehr u. wenn kannst den 8320 auch noch OCn.
Gruß
Stimmt wohl, hauptsache die Minimum FPS sinken nicht zu sehr u. wenn kannst den 8320 auch noch OCn.
Gruß
Bei Thief 4 war Mantle sehr konstant. Der FX 8320 kann auch locker auf 4 GHZ übertaktet werden. Bloß damals beim testen mit GTA 5 haben die 500 MHZ mehr kein Frame mehr gebracht.
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
Hab den Ashes of Singularity Benchmark mal selbst gemacht.
Das erste Bild ist mit 1x MSAA und TAA (temporary anti aliasing) auf hoch, Rest auch hoch.
Das zweite Bild ist mit 4x MSAA und TAA auf Ultra und Rest auch hoch (wobei das nicht angezeigt wird)
Was mir aufgefallen ist, dass bei zugeschaltetem MSAA unter DX11 sogut wie keine Leistung verloren geht.
Die FPS unterscheiden sich ansonsten auch nur gering.
Beim DX11 Bench sind im Heavy Batches sogar identische FPS zu vermelden.
Test wurde mit einer r9 290x 1100 / 1400 (Catalyst 15.7.1.1004) gemacht auf einem i7 4790k bei 4.7 GHz. (belegt aber die Ergebnisse von PCGH recht gut)
Ich zitiere da mal die PCGH :
Die theoretischen FPS sind recht interressant, aber ich glaube selbst eine 980Ti im Sli würde noch ins Limit laufen. (zumindest mit einem Prozessor wie meinem)
Nun bleibt die Frage, wie oft kommt es später in Games vor, dass man Heavy Batches nutzt oder eher gesagt, wie häufig kommen diese vor.
Zumindest bin ich mir sicher, dass ich meine Karte wohl in den nächsten 1 - 2 Jahren, je nachdem was so an Karten kommt, aufrüsten muss, oder ich wage mal den Schritt zur Multi GPU.
Aber vorerst so wie es ist, bis es nicht mehr ausreicht.
Das erste Bild ist mit 1x MSAA und TAA (temporary anti aliasing) auf hoch, Rest auch hoch.
Das zweite Bild ist mit 4x MSAA und TAA auf Ultra und Rest auch hoch (wobei das nicht angezeigt wird)
Was mir aufgefallen ist, dass bei zugeschaltetem MSAA unter DX11 sogut wie keine Leistung verloren geht.
Die FPS unterscheiden sich ansonsten auch nur gering.
Beim DX11 Bench sind im Heavy Batches sogar identische FPS zu vermelden.
Test wurde mit einer r9 290x 1100 / 1400 (Catalyst 15.7.1.1004) gemacht auf einem i7 4790k bei 4.7 GHz. (belegt aber die Ergebnisse von PCGH recht gut)
Ich zitiere da mal die PCGH :
- Average CPU Framerate (DX12): Dies gibt einen synthetisch berechneten Wert zu der theoretischen CPU-Leistung an, wenn diese nicht durch die GPU ausgebremst werden würde.
- Percent GPU Bound (DX12): Zu welchem Prozentsatz die GPU die Frameraten bei verschieden anspruchsvollen Szenarien einbremst.
Die theoretischen FPS sind recht interressant, aber ich glaube selbst eine 980Ti im Sli würde noch ins Limit laufen. (zumindest mit einem Prozessor wie meinem)
Nun bleibt die Frage, wie oft kommt es später in Games vor, dass man Heavy Batches nutzt oder eher gesagt, wie häufig kommen diese vor.
Heavy Batches sind die durchschittlichen Frameraten der anspruchsvollsten Szenen bzw. die mit den leistungsintensivesten Drawcalls
Zumindest bin ich mir sicher, dass ich meine Karte wohl in den nächsten 1 - 2 Jahren, je nachdem was so an Karten kommt, aufrüsten muss, oder ich wage mal den Schritt zur Multi GPU.
Aber vorerst so wie es ist, bis es nicht mehr ausreicht.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.375
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
H
Was mir aufgefallen ist, dass bei zugeschaltetem MSAA unter DX11 sogut wie keine Leistung verloren geht.
Die FPS unterscheiden sich ansonsten auch nur gering.
Beim DX11 Bench sind im Heavy Batches sogar identische FPS zu vermelden.
Was auch nicht wirklich verwunderlich ist wenn die Karte im CPU Limit fest sitzt denn dann hat sie noch mehr als genug Reserven fürs FSAA.
Je härter das CPU Limit desto geringer der Einbruch beim Zuschalten vom FSAA.
stolperstein
Grand Admiral Special
- Mitglied seit
- 31.05.2004
- Beiträge
- 2.983
- Renomée
- 205
- Standort
- Europa/Ostfriesland
- Mein Laptop
- ÄischPii 625
- Prozessor
- AMD Phenom II X640@3,4Ghz
- Kühlung
- Heatpipe, Luft
- Speicher
- 4Gb DDR III 1333
- Grafikprozessor
- ATI RADEON HD4250
- Display
- 15,6", Anti Glare
- HDD
- 1000GB+500GB+30GB SSD
- Netzteil
- 65 Watt, 19 volt
- Betriebssystem
- XP Pro
- Webbrowser
- Firefox, Opera
- Verschiedenes
- Broadcom WLAN mit Bluetooth 3,0 , 2MP Webcam , USB 3.0 per ExpressCard (Fresco Chipsatz)
Ich habe mir Thief gekauft um meinen PC (Fury X mit fx 8320) mal mit mantle zu testen.
Das sind meine Ergebnisse mit dem internen Benchmark im Spiel:
FULL HD Auflösung 42;6 frames ZU 58;5 frames 16 frames BESSER MANTLE
QHD Auflösung 43 frames ZU 55 frames 12 frames BESSER MANTLE
ultra HD Auflösung 35;7 frames ZU 29;9 frames 5 frames MANTLE SCHLECHTER
Ist jetzt nichts neues das bei ultra hd mantle nicht so viel bringt, aber benchmarks mit der Hardwarekombination gibt es ja nicht so oft und gibt mir Hoffnung das mein AMD FX 8320 Prozessor noch nicht in den Ruhestand muss.
Natürlich muß der FX nicht in den Ruhestand...Vulkan basiert auf Mantle und wird hoffentlich nicht limitieren wie DX 12 es macht. Bei DX 12 ist nach mehr als sechs Cores/Threads keine Steigerung möglich, bei Mantle schon.
Nun darf man sich ja Fragen, warum das so sein muß...
Viele Grüße,
stolpi
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
Liegt halt daran, dass dieser API-Test nur die Geschwindigkeit zwischen CPU und GPU misst.
Soviel ist ja auch nicht in den Speicher zu laden, die paar Texturen macht der Chip
Wie dir vielleicht auch aufgefallen sein sollte, sind deine Mantle Ergebnisse sehr nah bei einander, während dx12 von 4k auf 8k über 1 mio verloren hat.
Das liegt am fehlenden CF support derzeit.
Das wird aber an dem Bench liegen, denn egal welcher Treiber benutzt wird, dx12 nutzt bei dem Test kein CF, Mantle schon.
Siehe hier:
Soviel ist ja auch nicht in den Speicher zu laden, die paar Texturen macht der Chip
Wie dir vielleicht auch aufgefallen sein sollte, sind deine Mantle Ergebnisse sehr nah bei einander, während dx12 von 4k auf 8k über 1 mio verloren hat.
Das liegt am fehlenden CF support derzeit.
Das wird aber an dem Bench liegen, denn egal welcher Treiber benutzt wird, dx12 nutzt bei dem Test kein CF, Mantle schon.
Siehe hier:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Die Auflösung spielt auch praktisch keine Rolle bei den Draw Calls. Abgesehen davon spielt die Auflösung an sich kaum eine Rolle für den Speicherverbrauch (die Framebuffer haben nur ein paar MB), der Speicher wird hauptsächlich von Texturen und anderen Dingen belegt - je nachdem gibt es natürlich eventuell Dinge welche abhängig von der Auflösung proportional wachsen, anscheinen zum Beispiel der Speicherverbrauch bei manchen AA-Implementierungen.
Finde ich mal ne Interessante Info.
Natürlich muß der FX nicht in den Ruhestand...Vulkan basiert auf Mantle und wird hoffentlich nicht limitieren wie DX 12 es macht. Bei DX 12 ist nach mehr als sechs Cores/Threads keine Steigerung möglich, bei Mantle schon.
Nun darf man sich ja Fragen, warum das so sein muß...
Viele Grüße,
stolpi
Cappuandy
Grand Admiral Special
- Mitglied seit
- 30.01.2013
- Beiträge
- 3.636
- Renomée
- 168
- Standort
- Lübeck
- Mein Desktopsystem
- ROGi
- Mein Laptop
- MacBook Pro
- Prozessor
- AMD Ryzen 5 7600X
- Mainboard
- Asus ROG X670E-I Gaming WiFi
- Kühlung
- BeQuiet DarkRockPro 4
- Speicher
- Gskill Trident-Z5 RGB Black 32Gb 6000CL30
- Grafikprozessor
- iGP
- Display
- LG 27" UHD60 HDR
- SSD
- 980 Pro & T500
- HDD
- - none -
- Optisches Laufwerk
- - none -
- Soundkarte
- ROG Hive - ALC4050
- Gehäuse
- Fractal Design Torrent Nano
- Netzteil
- BeQuiet SP12 1kW Platinum
- Tastatur
- Razer Cynosa
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox | Safari@iPhone
- Internetanbindung
- ▼schneller ▲schnell
mal was anderes abseits von Benchmarks.
Direckt X 11 > Direkt X 12 und AMD Radeon im CF von AFR > SFR !!!
Denke mal das passt hier rein.. (oder extra Thread @Mod ? )
Direckt X 11 > Direkt X 12 und AMD Radeon im CF von AFR > SFR !!!
Denke mal das passt hier rein.. (oder extra Thread @Mod ? )
Zuletzt bearbeitet:
Einbecker
Commodore Special
- Mitglied seit
- 18.06.2013
- Beiträge
- 450
- Renomée
- 30
- Prozessor
- FX 8350
- Mainboard
- Sabertooth 990FX R2.0
- Kühlung
- SA SB-E / 6x140 Luftzufuhr
- Speicher
- 8GBx2 Team Xtreem 2400
- Grafikprozessor
- HD 5870 OC
- SSD
- 2+1
- Gehäuse
- Custom
- Netzteil
- X-Series
- Webbrowser
- Seit 2003 FF
http://www.heise.de/developer/artik...Grafik-API-Vulkan-2790622.html?artikelseite=2
Interview mit Tobias Hector(IMG) über Vulkan
--- Update ---
http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-1169294/
DirectX 12 Patch für Ark:Survival Evolvedkommt diesen Freitag.
Das war wohl nichts: http://steamcommunity.com/app/346110/discussions/0/520518053440119300/
Aufgrund von unüberwindbaren Treiberproblemen wartet man nun auf AMD/NVIDIA. Das man dies nicht schon vor ein paar Tagen wusste erscheint mir allerdings recht fragwürdig. Miese PR Aktion trifft es wohl eher, so macht man sich keinen Namen.
Interview mit Tobias Hector(IMG) über Vulkan
--- Update ---
http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-1169294/
DirectX 12 Patch für Ark:Survival Evolved
Das war wohl nichts: http://steamcommunity.com/app/346110/discussions/0/520518053440119300/
Aufgrund von unüberwindbaren Treiberproblemen wartet man nun auf AMD/NVIDIA. Das man dies nicht schon vor ein paar Tagen wusste erscheint mir allerdings recht fragwürdig. Miese PR Aktion trifft es wohl eher, so macht man sich keinen Namen.
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Interessante Informationen von einem Oxide-Mitarbeiter (Auszug):
If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD
[...]
Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.
[...]
Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Hier noch eine gute Zusammenfassung auf Reddit: Get your popcorn ready: NV GPUs do not support DX12 Asynchronous Compute/Shaders. Official sources included.
mariahellwig
Grand Admiral Special
Hier noch eine gute Zusammenfassung auf Reddit: Get your popcorn ready: NV GPUs do not support DX12 Asynchronous Compute/Shaders. Official sources included.
Get your Popcorn ready!!!
Oha! Das kann noch richtig lustig werden. ACE ist ein Bestandteil von DX12. Wenn das stimmt, hat nVidia versucht, sich besser darzustellen, als sie es wirklich sind.
Was bedeutet das? Async Shader ist als Feature nicht nutzbar. Es wird das passieren was nVidia "empfiehlt", nämlich es nicht zu nutzen. nVidia hat den mit Abstand größten Marktanteil und kein Studio wird Ressourcen in es etwas stecken, was bei der Mehrheit zu Leistungseinbrüchen führt.
Naja, es gibt ja noch Konsolen...
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Alle Konsolen laufen auf GCN und dort wird es stark genutzt (laut Oxide). Da ältere GPUs das auch so oder so nicht können, muss es immer auch erstmal einen synchronen Pfad geben. Ich hoffe mal nicht, dass viele das Feature überhaupt nicht nutzen werden, nur weil NVidia dann ein bisschen weinen müsste.
Edit: Wobei es ja schon so zu sein scheint, als hätte NVidia explizit Oxide aufgefordert Async Compute komplett zu deaktivieren, weil es auf ihren GPUs nicht funktioniert. Wenn die einen Vertrag mit NVidia gehabt hätten, dann sähe das vielleicht jetzt anders aus.
Edit: Wobei es ja schon so zu sein scheint, als hätte NVidia explizit Oxide aufgefordert Async Compute komplett zu deaktivieren, weil es auf ihren GPUs nicht funktioniert. Wenn die einen Vertrag mit NVidia gehabt hätten, dann sähe das vielleicht jetzt anders aus.
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Ich hoffe mal nicht, dass viele das Feature überhaupt nicht nutzen werden, nur weil NVidia dann ein bisschen weinen müsste.
Das wird vermutlich so sein. Battlefield nutzt auf der Konsole async Shader, auf dem PC aber nicht, obwohl Mantle dies bietet. Der Aufwand für die Implementierung steht eine kleine Zielgruppen entgegen die davon einen Nutzen hat. Die Konsolen haben andere APIs so dass dies nicht so ohne weiteres übertragbar ist.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.761
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Edit: Wobei es ja schon so zu sein scheint, als hätte NVidia explizit Oxide aufgefordert Async Compute komplett zu deaktivieren, weil es auf ihren GPUs nicht funktioniert. Wenn die einen Vertrag mit NVidia gehabt hätten, dann sähe das vielleicht jetzt anders aus.
Gabs doch:
QuelleIn the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)
Damit hätten sich die DX12 Tier Diskussionen ja erübrigt. nVidia muss erstmal mit Maxwell 2 in Hardware nachbessern.
mariahellwig
Grand Admiral Special
nVidia muss erstmal mit Maxwell 2 in Hardware nachbessern.
Frühestens mit Pascal.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.761
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Oder so. War da nicht schon Tapeout? Wäre ja "praktisch", wenn der auch noch keine ACEs hätte..
mariahellwig
Grand Admiral Special
Bin mir nicht sicher. Es entspricht nicht nVidias Geschäftsgebaren sich nach anderen zu richten.
Naheliegend ist sie werden versuchen das Problem treiberseitig irgendwie zu minimieren. An AMDs effizienten Contextswitch wird man nicht herankommen.
Das sie plötzlich einen Wundertreiber veröffentlichen ist unwahrscheinlich. Im Falle von Oxide hatte man 12 Monate Zeit das Problem zu beheben, was üppig ist. Wenn man das in dieser Zeit nicht schafft, wird man es wohl nie schaffen.
AMD hat schon vor längerer Zeit gesagt man sehe sich bei Async Shader vorn. Sie werden wissen von was sie sprechen.
nVidia ist auf DX12 nicht besonders gut vorbereitet. Sie können nur hoffen, dass die Entwickler dieses Feature nur sparsam einsetzen.
Aber selbst das scheint ja schon zu Problemen zu führen.
War das 3.5Gb Problem der GTX 970 eher theoretischer Natur, hat dieses Problem schon ein anderes Kaliber. Stand heute, würde ich keine nVidia Graka mehr kaufen.
Das nVidia gelegentlich etwas selbstgefällig agiert ist ja nicht neu, aber bisher konnten sie das mit Leistung rechtfertigen. Letzters sehe ich aber seit einiger Zeit bröckeln.
Mit G-Sync hat man sich auch auf das Abstellgleis manövriert. Vulkan und der Windows-Ableger DX12 sind GCN optimiert. Mantle hätte man nicht effektiver beerdigen können.
Naheliegend ist sie werden versuchen das Problem treiberseitig irgendwie zu minimieren. An AMDs effizienten Contextswitch wird man nicht herankommen.
Das sie plötzlich einen Wundertreiber veröffentlichen ist unwahrscheinlich. Im Falle von Oxide hatte man 12 Monate Zeit das Problem zu beheben, was üppig ist. Wenn man das in dieser Zeit nicht schafft, wird man es wohl nie schaffen.
AMD hat schon vor längerer Zeit gesagt man sehe sich bei Async Shader vorn. Sie werden wissen von was sie sprechen.
nVidia ist auf DX12 nicht besonders gut vorbereitet. Sie können nur hoffen, dass die Entwickler dieses Feature nur sparsam einsetzen.
Aber selbst das scheint ja schon zu Problemen zu führen.
War das 3.5Gb Problem der GTX 970 eher theoretischer Natur, hat dieses Problem schon ein anderes Kaliber. Stand heute, würde ich keine nVidia Graka mehr kaufen.
Das nVidia gelegentlich etwas selbstgefällig agiert ist ja nicht neu, aber bisher konnten sie das mit Leistung rechtfertigen. Letzters sehe ich aber seit einiger Zeit bröckeln.
Mit G-Sync hat man sich auch auf das Abstellgleis manövriert. Vulkan und der Windows-Ableger DX12 sind GCN optimiert. Mantle hätte man nicht effektiver beerdigen können.
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Robert Hallock hat sich zu dem Thema geäussert und versucht die Wogen etwas zu glätten:
https://www.reddit.com/r/pcmasterra...aming_nvidia_gpus_do_not_support_dx12/cum3xow
In der Vergangenheit wurden Features die nur von einem Hersteller unterstützt werden nur selten genutzt. Ich denke so wird es auch mit Async Shaders sein, bis es bei nVidia zufriedenstellend läuft.
https://www.reddit.com/r/pcmasterra...aming_nvidia_gpus_do_not_support_dx12/cum3xow
In der Vergangenheit wurden Features die nur von einem Hersteller unterstützt werden nur selten genutzt. Ich denke so wird es auch mit Async Shaders sein, bis es bei nVidia zufriedenstellend läuft.
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
....
In der Vergangenheit wurden Features die nur von einem Hersteller unterstützt werden nur selten genutzt. Ich denke so wird es auch mit Async Shaders sein, bis es bei nVidia zufriedenstellend läuft.
Hmm zufriedenstellend läuft... hmm ich sag nur Physix oder Mantle. Beides Features die von nur einem Hersteller genutzt werden können...
Ich sag nicht, dass es notwendig ist, aber wenn AMD besseren nutzen aus Async Shaders ziehen kann..
Naja die Roten sind ja nicht so wie die grünen und sagen meistens die Wahrheit.
Auch der Kommentar von Hallock zeugt von Größe, kann mich nicht an eine deratige Äußerung seitens grün erinnern in der sie die Konkurrenz in Schutz nimmt.
Aber gut, da beide Hersteller noch keine Karten haben die volle Unterstützung leisten und bis jetzt auch noch keine Games da sind, welche dx12 brauchen (Fable Legends ist übrigens in der Closed Beta, hoffe da demnächst einige Tests zu lesen, oder selbst ausgewählt zu werden) wird das alles nur aufgebauscht durch die Community.
Klar steht grün gerade nicht gut da, aber da wird sicher was kommen, auch wenn es etwas dauert.
BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können. Immerhin sprechen wir hier von 300 Euro unterschied zu den beiden Karten.
siehe hier: Link
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Auch der Kommentar von Hallock zeugt von Größe, kann mich nicht an eine deratige Äußerung seitens grün erinnern in der sie die Konkurrenz in Schutz nimmt.
Deswegen verkauft AMD nicht einen Chip mehr, auch wenn Hallock sympathisch wirkt.
Am Ende zählen eben lange Balken.
Klar steht grün gerade nicht gut da, aber da wird sicher was kommen, auch wenn es etwas dauert.
Frühestens nächstes Jahr mit Pascal. Für Maxwell erwarte ich nicht mehr viel.
BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können. Immerhin sprechen wir hier von 300 Euro unterschied zu den beiden Karten.
siehe hier: Link
So verwunderlich ist das garnicht, wenn man sich vor Augen hält wie Async Shader funktioniert und wenn man sieht, wieviel Rohleistung bei der R290 brach liegt.
vor allem liest man an vielen stellen, wie stolz plötzlich besitzer alter amd-grafikkarten sind. keine ahnung, ob es amd wirklich zu gute kommt, wenn durch dx12 plötzlich die lebensdauer der vergangenen grafikkarten-generationen verlängert wird.Deswegen verkauft AMD nicht einen Chip mehr
schau dir mal die dx11 benches der fury x an (z.b. bei computerbase). die leistungssteigerung ist super, aber amd hat es vor dem hintergrund des ashes of singularity benchmark auch dringend nötig. denn beim mittleren preset unter 1080p erreicht selbst eine fury x nur rund 30fps, eine gtx 960 32fps.BTW. die Jungs auf ArsTechnica haben mal eine 980TI und eine 290x in dem Ashes integrierten Bench verglichen. Ist schon beeindruckend was die Async Shader da an Leistung gut machen können.
bleibt am ende wieder die frage, welche relevanz ein benchmark aus einem spiel im alpha-stadium ist.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.761
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
AMD müsste den Engine-Schreiberlingen nur mal beibringen, wie man die Rohleistung ihrer Karten nutzt. Würden sie die Rohleistung auf die Straße bringen, würde Fiji wahrscheinlich sogar noch Pascal in weiten Teilen in Schach halten können.
Hier muss AMD da aufholen, wo nVidia seit langem führend ist - in der Lobbyarbeit. Der Grundstein ist gelegt, die Treiber von DX12 und Vulkan sind aufs nötigste beschränkt und vergleichsweise einfach zu warten. Die freigewordenen Reserven dürfen jetzt ruhig in Kooperationen fließen.
Auch wenn AoS noch Alpha ist, ist es trotzdem ein probates Mittel um Flaschenhälse zu identifizieren und anzugehen. Gerade jetzt, wo sich viele Entwickler neu einarbeiten müssen und es viel Optimierungspotenzial gibt, kann AMD noch viel ausrichten. In 2 Jahren, wenn die Engines fertig sind, kräht da kein Hahn mehr danach. Da werden die Engines verkauft und die Weiterentwicklung gestaltet sich zäh.
Hier muss AMD da aufholen, wo nVidia seit langem führend ist - in der Lobbyarbeit. Der Grundstein ist gelegt, die Treiber von DX12 und Vulkan sind aufs nötigste beschränkt und vergleichsweise einfach zu warten. Die freigewordenen Reserven dürfen jetzt ruhig in Kooperationen fließen.
Auch wenn AoS noch Alpha ist, ist es trotzdem ein probates Mittel um Flaschenhälse zu identifizieren und anzugehen. Gerade jetzt, wo sich viele Entwickler neu einarbeiten müssen und es viel Optimierungspotenzial gibt, kann AMD noch viel ausrichten. In 2 Jahren, wenn die Engines fertig sind, kräht da kein Hahn mehr danach. Da werden die Engines verkauft und die Weiterentwicklung gestaltet sich zäh.
Ähnliche Themen
- Antworten
- 227
- Aufrufe
- 24K
- Antworten
- 1K
- Aufrufe
- 71K
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 611
- Aufrufe
- 46K