App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
DirectX 12/Vulkan Benchmark und Diskussions Thread
- Ersteller Einbecker
- Erstellt am
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
vor allem liest man an vielen stellen, wie stolz plötzlich besitzer alter amd-grafikkarten sind. keine ahnung, ob es amd wirklich zu gute kommt, wenn durch dx12 plötzlich die lebensdauer der vergangenen grafikkarten-generationen verlängert wird.
Das bereitet mir, gerade in Bezug auf eventuelle Neuanschaffungen auch Sorgen. Klar der Markt sieht eh nicht gut aus für AMD aber wenn die Lebensdauer von "älterer" Hardware noch verlängert wird und die sich so gut unter dx12 schlagen wird wie vermutet, wird das noch schlimmer.
Die DX 11 Benches habe ich mir grad mal reingezogen. Klar ist der Unterschied enorm aber wenn ich mir die Daten der GPU's mal anschaue gerade was die Rohleistung angeht frage ich mich doch, wieso AMD es nicht hinbekommen hat es wie die grünen zu machen und dementsprechend zu optimieren.
Wie ich auf der ersten Seite schon mal schrieb provitiert AMD gerade von Mantle. Vulkan und dx12 agieren ja ähnlich, wenn nicht sogar gleich.
Das wird bei grün noch ein wenig dauern das zu optimieren, immerhin hat AMD da ja schon mindestens 2 Jahre vorsprung. Ich denke, auch deswegen steht AMD gerade so gut dar wie sie es tun.
Stellt sich die Frage, was unterstützt grün, was rot nicht hat. Glaube da wird dann wieder ein Benchmark oder Game auftauchen, indem die AMD GPU's wieder weit abgeschlagen sind und dann geht das getrolle wieder von vorne los.
Aber unter dem Strich bleibt einfach: Abwarten und Tee trinken.
mariahellwig
Grand Admiral Special
schau dir mal die dx11 benches der fury x an (z.b. bei computerbase). die leistungssteigerung ist super, aber amd hat es vor dem hintergrund des ashes of singularity benchmark auch dringend nötig. denn beim mittleren preset unter 1080p erreicht selbst eine fury x nur rund 30fps, eine gtx 960 32fps.
AMDs DX11 Implementierung lässt viel zu wünschen übrig.
bleibt am ende wieder die frage, welche relevanz ein benchmark aus einem spiel im alpha-stadium ist.
Auch wenn es offiziell erst eine Alpha ist, scheint der Code doch weiter zu sein, als bei manchem finalem Release.
Details werden sich noch ändern, an der Kernaussage meiner Meinung nach nicht. AMD gewinnt viel, nVidia wenig.
Absolut gesehen, ist die Leistung der nVidia GPUs auch unter DX12 ordentlich. Nur war die Erwartung eben eine andere.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.763
- Renomée
- 287
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Das bereitet mir, gerade in Bezug auf eventuelle Neuanschaffungen auch Sorgen. Klar der Markt sieht eh nicht gut aus für AMD aber wenn die Lebensdauer von "älterer" Hardware noch verlängert wird und die sich so gut unter dx12 schlagen wird wie vermutet, wird das noch schlimmer.
Eher nicht. Auch wenn von den 20 kolportierten Prozent Marktanteil 50% der Halter keine neue Karte kaufen weil die alte einfach noch ausreicht, so hat ein positiver Effekt (deutlich besserer Leumund und auf Dauer sehr gute Benchmarkergebnisse, so es denn so kommt) immerhin das Potenzial von ~200% Marktanteilssteigerung. Da fallen die paar Nichtaufrüster hinten runter..
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Eine allgemeine Stimmung pro AMD und contra NVidia kann man auf jeden Fall derzeit erkennen (zum Beispiel gut zu sehen an den Beitrag-Bewertungen auf Reddit). NVidia hat eine Menge verkackt in letzter Zeit, und immer mehr Leute werden kritisch. Ob sich das auch in Verkaufszahlen widerspiegelt, müssen wir abwarten bis es Zahlen für Q3 und Q4 gibt.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Scheint übrigens so als wäre das "Async Compute" bei Maxwell 2 auf die CPU ausgelagert worden. *facepalm*
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.227
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Hehe, due Kapazitäten werden verlagert.Scheint übrigens so als wäre das "Async Compute" bei Maxwell 2 auf die CPU ausgelagert worden. *facepalm*
Richtung Greek. Alpha Centauri
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wie war das nochmal mit der ach so veralteten Architektur von AMD weil diese noch kein so hohes Featurelevel wie Maxwell 2 bei DX12 unterstützen?
Wie sich da einige beim Fiji das Maul zerrissen, von den noch älteren GPUs ganz zu schweigen.
Was ist nach dieser Argumentation denn nun der Maxwell 2?
Wie sich da einige beim Fiji das Maul zerrissen, von den noch älteren GPUs ganz zu schweigen.
Was ist nach dieser Argumentation denn nun der Maxwell 2?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.227
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Eigentlich sollte Async compute für nvidia kein Problem sein, immerhin nutzen sie es bei PhysX auch: http://abload.de/img/fluidmark_mt_async_coa0lar.jpg
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.880
- Renomée
- 2.823
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Die fehlenden Asynchronous Shader bei nVidia (3D Center)
Gut zusammen gefasst und die nächsten Monate/Jahre werden spannende Zeiten.
Gut zusammen gefasst und die nächsten Monate/Jahre werden spannende Zeiten.
Cappuandy
Grand Admiral Special
- Mitglied seit
- 30.01.2013
- Beiträge
- 3.640
- Renomée
- 168
- Standort
- Lübeck
- Mein Desktopsystem
- ROGi
- Mein Laptop
- MacBook Pro
- Prozessor
- -none
- Mainboard
- Asus ROG X670E-I Gaming WiFi
- Kühlung
- -none
- Speicher
- Gskill Trident-Z5 RGB Black
- Grafikprozessor
- -none
- Display
- LG 27" UHD60 HDR
- SSD
- 980 Pro & T500
- HDD
- - none -
- Optisches Laufwerk
- - none -
- Soundkarte
- ROG Hive - ALC4050
- Gehäuse
- Fractal Design Torrent Nano
- Netzteil
- BeQuiet SP12 1W Platinum
- Tastatur
- Razer Cynosa
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox | Safari@iPhone
- Internetanbindung
- ▼schneller ▲schnell
Die fehlenden Asynchronous Shader bei nVidia (3D Center)
Gut zusammen gefasst und die nächsten Monate/Jahre werden spannende Zeiten.
der Artikel ist auch wirklich gut geschrieben.
mariahellwig
Grand Admiral Special
Async Shader sind immer erste Wahl, wenn es drum geht Latenzen zu verringern. Mehr FPS ist nur ein Abfallprodukt.
Wirklich Bedeutung gewinnt das Thema erst mit VR. nVidia hat also noch etwas Zeit.
Wirklich Bedeutung gewinnt das Thema erst mit VR. nVidia hat also noch etwas Zeit.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Eigentlich sollte Async compute für nvidia kein Problem sein, immerhin nutzen sie es bei PhysX auch: http://abload.de/img/fluidmark_mt_async_coa0lar.jpg
Dat is aber die CPU Berechnung.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.227
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Ja schon, ohne nvidia dGPU geht da kein GPU Physics.Dat is aber die CPU Berechnung.
Aber nett zu sehen wie die CPU die GPU FPS eingrenzen kann.
27FPS vs 400FPS
P.S. keine 87,5% Gesamt CPU Auslastung...
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ist ja nichts neues. Erinnere dich doch mal an die damaligen Batman Benchmarks bei denen mit aktiviertem Physx getestet wurde.
Da war es praktisch egal welche Radeon zum Einsatz kam denn da gab es von der Framerate her keinen Unterschied und die Geforce Karten zogen davon...welch ein Wunder.
Das gleiche Spielchen hatte ich bei den Metro Teilen, wo die erweiterte Physik per default aktiv war. Da konnte ich einstellen was ich wollte, die Framerate war immer gleich mies und er Punkt zur Deaktivierung der GPU Physik lag natürlich etwas versteckt.
Abgeschaltet und die Party konnte steigen, bei Last Light war ich dann zumindest vorgewarnt.
Da war es praktisch egal welche Radeon zum Einsatz kam denn da gab es von der Framerate her keinen Unterschied und die Geforce Karten zogen davon...welch ein Wunder.
Das gleiche Spielchen hatte ich bei den Metro Teilen, wo die erweiterte Physik per default aktiv war. Da konnte ich einstellen was ich wollte, die Framerate war immer gleich mies und er Punkt zur Deaktivierung der GPU Physik lag natürlich etwas versteckt.
Abgeschaltet und die Party konnte steigen, bei Last Light war ich dann zumindest vorgewarnt.
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.880
- Renomée
- 2.823
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
3D Center Kommentar zu den AS/DX12 Stand:
Die Diskussion über die fehlenden Asynchronous Shader bei nVidia geht derzeit in diese Richtung, als daß nVidia hierbei wieder einmal seine Kunden hinters Licht geführt haben könnte. Dies ist eigentlich eine Frage, deren man sich aufgrund des Mißbrauchspotentials nur vorsichtig nähern sollte – und dennoch, die sich nun langsam entblätternden Details gehen schon verdächtig in diese Richtung: So ist inzwischen klar, daß "Async Compute" zwingender Teil von DirectX 12 ist – ohne dieses Feature kein Feature-Level 12_0 oder 12_1, sprich kein Hardware-Support von DirectX 12. Lustigerweise existiert sogar eine nVidia-Präsentationsfolie zur GeForce GTX 980 Ti, wo nVidia mit dem Support von "Asyc Compute" unter DirectX 12 angibt. Optional ist dann jedoch der direkte Hardware-Support, wie von AMDs GCN-Architektur her bekannt – nVidia löst das ganze hingegen über den Treiber und dann über die CPU. Das Feature ist damit nicht performant nutzbar, aber eben aus Sicht von DirectX 12 dennoch vorhanden, sprich notfalls abrufbar.
Ein echter Support des Features ist dies aber nicht, denn da der einzige Anwendungszweck von "Asyc Compute" in einer Performancebeschleunigung liegt, kann eine softwarebasierte Lösung Performancegewinn dem natürlich nicht entsprechen. Und auch wenn nVidia hiermit also die DirectX-Spezifikationen nicht wirklich verletzt, so fehlt doch die Hardware-Beschleunigung für ein wichtiges Teilfeature von DirectX 12, welches somit auf nVidia-Hardware rein praktisch unnutzbar wird. So ganz im Sinne der Spezifikation dürfte dies auch nicht sein – und wird nVidia-Hardware in jedem Fall behindern, wenn sich die Spieleentwickler eines Tages mehr auf DirectX 12 ausrichten werden. Die Frage ist natürlich, ob dann noch die Maxwell-2-Generation bei nVidia aktuell ist – oder ob man dann schon die Nachfolge-Generation "Pascal" im Markt stehen hat, mit wahrscheinlich einem Fix für dieses Problem. Daß es Maxwell-2-Beschleuniger mit einer gewissen Chance unter DirectX 12 schwerer haben werden als die AMD-Beschleuniger, daran würden aber auch neue nVidia-Grafikkarten dann nichts mehr ändern können.
Falls damit ein Hardware-Fix gemeint ist, bezweifle ich das. Dazu ist "Pascal" schon zu weit.3D Center Kommentar zu den AS/DX12 Stand:
... "Pascal" im Markt stehen hat, mit wahrscheinlich einem Fix für dieses Problem. ...
Aber wir werden sehen ...
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@eratte
Damit hätten die Maxwell 2 Karten also streng genommen keinen hardwareseitigen DX12 Support weil ein Schlüsselfeature emuliert wird oder kann am sich damit raus reden das es zwar von der GPU berechnet werden könnte aber so mies läuft das selbst die CPU Emulation besser ist?
--- Update ---
@drSeehas
Ich vermute mal das er als DX11.3 Chip entwickelt und für DX12 zurecht gebogen wurde.
Vielleicht ein Anzeichen dafür das DX12 als ein Ableger von der Konsolen API doch relativ kurzfristig und ungeplant als Reaktion auf Mantle raus gebracht wurde? Pascal kann da schon weter sein.
Damit hätten die Maxwell 2 Karten also streng genommen keinen hardwareseitigen DX12 Support weil ein Schlüsselfeature emuliert wird oder kann am sich damit raus reden das es zwar von der GPU berechnet werden könnte aber so mies läuft das selbst die CPU Emulation besser ist?
--- Update ---
@drSeehas
Ich vermute mal das er als DX11.3 Chip entwickelt und für DX12 zurecht gebogen wurde.
Vielleicht ein Anzeichen dafür das DX12 als ein Ableger von der Konsolen API doch relativ kurzfristig und ungeplant als Reaktion auf Mantle raus gebracht wurde? Pascal kann da schon weter sein.
D3D12 ist eine Programmierschnittstelle.... kann am sich damit raus reden das es zwar von der GPU berechnet werden könnte aber so mies läuft ...
Was davon in Hardware gemacht wird und was in Software ist zunächst egal.
Welche CPU-Emulation?... die CPU Emulation besser ist?
Da wird nichts auf der CPU emuliert. Denk doch nur mal an die Latenzen.
Pascal soll doch in 16/14 nm kommen?... Pascal kann da schon weter sein.
Und mit HBM?
Das sind zwei völlig neue Gebiete. Da wird nVidia einen Teufel tun und noch eine weitere Änderung draufpacken.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?
Das es der letztendlichen Software egal ist was auf der Hardware Ebene abgeht ist klar, dem Anwender dürfte dies weniger egal sein wenn wegen einer Emulation die Performance beschissen ausfällt.
Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? Der erste Maxwell kann seitens des DX Supports auch nicht mehr als die Vorgänger.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?
Das es der letztendlichen Software egal ist was auf der Hardware Ebene abgeht ist klar, dem Anwender dürfte dies weniger egal sein wenn wegen einer Emulation die Performance beschissen ausfällt.
Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? Der erste Maxwell kann seitens des DX Supports auch nicht mehr als die Vorgänger.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?
Das es der letztendlichen Software egal ist was auf der Hardware Ebene abgeht ist klar, dem Anwender dürfte dies weniger egal sein wenn wegen einer Emulation die Performance beschissen ausfällt.
Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? Der erste Maxwell kann seitens des DX Supports auch nicht mehr als die Vorgänger.
Naja, jedenfalls haben einige beobachtet, dass die CPU-Last deutlich nach oben geht, wenn man bei Maxwell 2.0 Async Shader einsetzt. Entweder es ist komplett auf der CPU, oder der Scheduler ist einfach nur sehr schlecht programmiert. So oder so ist es auf jeden Fall unwahrscheinlich, dass man mit Context Switches eine so gute Performance wie AMD erreicht.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Da wäre es interessant wenn man Async Compute manuell aktivieren und deaktivieren könnte um zu sehen was die Verbesserungen nun bringen.
In jedem Falle wäre es aber sinnvoll die CPU Nutzung im Auge zu behalten, nicht das die Verbesserungen vor allem darauf beruhen das mehr Kerne der CPU dafür genutzt und entsprechend belastet werden.
Edit:
@BoMbY
Das letzte was ich dazu laß war das sich die CPU und GPU Last geradezu abwechseln sollten. Da ist der Zusammenhang schon recht eindeutig.
Wie ich bereits schrieb...ein Test bei dem man Async Compute manuell aktivieren und deaktivieren könnte wäre da ideal um die Auswirkungen zu untersuchen.
Zuletzt bearbeitet:
So ein Blödsinn. Da wird nichts emuliert. Die Shader sind ja auf der GPU vorhanden und müssen überhaupt nicht emuliert werden.Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird ...
Richtig ist, dass nVidia ab Kepler den Hardware-"sheduler" zum Stromsparen gestrichen hat und durch Software ersetzt hat. Bei GCN ist alles in Hardware realisiert.
Das habe ich schon beantwortet: Mit dem Shrink und HBM hat nVidia genug zu tun.Und warum sollte Pascal bei den Fertigkeiten der Hardware nicht weiter sein? ...
--- Update ---
Auch da wieder der Blödsinn mit der Emulation.
--- Update ---
Ja, vor allem da nVidia für einen Context Switch/Preemption immer erst warten muss, bis der aktuelle "draw call" beendet ist. Ein langer draw verzögert einen context Switch enorm. Deswegen hat nVidia auch Probleme bei VR.... So oder so ist es auf jeden Fall unwahrscheinlich, dass man mit Context Switches eine so gute Performance wie AMD erreicht.
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Es ist klar?! Leo lehnt sich mal wieder weit aus dem Fenster.3DC schrieb:So ist inzwischen klar, daß "Async Compute" zwingender Teil von DirectX 12 ist – ohne dieses Feature kein Feature-Level 12_0 oder 12_1, sprich kein Hardware-Support von DirectX 12. Lustigerweise existiert sogar eine nVidia-Präsentationsfolie zur GeForce GTX 980 Ti, wo nVidia mit dem Support von "Asyc Compute" unter DirectX 12 angibt. Optional ist dann jedoch der direkte Hardware-Support, wie von AMDs GCN-Architektur her bekannt – nVidia löst das ganze hingegen über den Treiber und dann über die CPU.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
So ein Blödsinn. Da wird nichts emuliert. Die Shader sind ja auf der GPU vorhanden und müssen überhaupt nicht emuliert werden.
Richtig ist, dass nVidia ab Kepler den Hardware-"sheduler" zum Stromsparen gestrichen hat und durch Software ersetzt hat. Bei GCN ist alles in Hardware realisiert.
Postings nicht gelesen und deshalb keinen Plan davon worum es ging?
Wenn doch dann wäre dir eine unbeantwortete Frage wohl kaum entgangen.
Das geistert hier doch schon die ganze Zeit rum das Async Shader bei der Geforce nur emuliert, also von der CPU berechnet wird und ja, die Ergebnisse sollen bei dessen Einsatz beschissen sein.
Oder sind Async Shader und Async Compute wieder 2 verschiedene paar Schuhe die nichts mit einander zu tuen haben?
Aber OK, dann bist du also der Meinung das die Hardware so lahm ist dass sie nicht mit den ach so veralteten Radeon GPUs mithalten kann und für eine schlechtere Leistung sorgt als ohne.
Das respektiere ich natürlich.
Sofern du dich aber nicht als Mitarbeiter der nvidia GPU und Treiber Entwicklung outest kannst du dir Sprüche wie "Auch da wieder der Blödsinn mit der Emulation." sparen denn damit machst du dich letztendlich aufgrund fehlenden Einblicks in die Materie lächerlich.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 227
- Aufrufe
- 24K
- Antworten
- 1K
- Aufrufe
- 72K
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 611
- Aufrufe
- 46K