App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Warum ist Nvidias Performance/Watt besser ?
- Ersteller Night<eye>
- Erstellt am
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
@Locuza
Lass es einfach bleiben. Deine Ignoranz und dein Verdrehen von Tatsachen hilft dir auch nicht. Ich habe einige Quellen genannt. Du selbst hast doch Quellen gepostet, die deine Märchen widerlegen, wie eben Tests zu Project Cars, welche klare Unterschiede zwischen CPU und GPU PhysX gezeigt haben.
Hier gibt's übrigens einen interessanten Beitrag zum Thema Async Shaders.
Wie ich vermutete schrieb da AT einfach Müll. Somit sollte klar sein, dass Nvidia quasi keine Async Shaders untestützt, da sie lediglich eine Queue Engine besitzen. Auch Maxwell v2 ändert daran nichts. GCN unterstützt hingegen 8 Queue Engines, kann also problemlos mehrere Queues (Compute, Grafik, Copy) parallel verarbeiten. Das darf mit nicht mit parallelen Compute Engines verwechseln, die Nvidia auch schon länger unterstützt. Das sollte aber niemanden verwundern. Könnte Nvidia wirklich Async Shaders, dann hätten sie da sicherlich schon mehr Wirbel veranstaltet. Damit zerschlägt sich ein weiter Wunschtraum deinerseits. Da kann man für Nvidia nur hoffen, dass sie mit Pascal nachlegen, ansonsten fallen sie technologisch immer weiter hinter AMD zurück. Allerdings steht dann auch schon Arctic Islands bereit, was laut Gerüchten ja eine signifikante Weiterentwicklung sein soll, also die Messlatte für Nvidia erneut deutlich anheben wird.
Lass es einfach bleiben. Deine Ignoranz und dein Verdrehen von Tatsachen hilft dir auch nicht. Ich habe einige Quellen genannt. Du selbst hast doch Quellen gepostet, die deine Märchen widerlegen, wie eben Tests zu Project Cars, welche klare Unterschiede zwischen CPU und GPU PhysX gezeigt haben.
Hier gibt's übrigens einen interessanten Beitrag zum Thema Async Shaders.
Wie ich vermutete schrieb da AT einfach Müll. Somit sollte klar sein, dass Nvidia quasi keine Async Shaders untestützt, da sie lediglich eine Queue Engine besitzen. Auch Maxwell v2 ändert daran nichts. GCN unterstützt hingegen 8 Queue Engines, kann also problemlos mehrere Queues (Compute, Grafik, Copy) parallel verarbeiten. Das darf mit nicht mit parallelen Compute Engines verwechseln, die Nvidia auch schon länger unterstützt. Das sollte aber niemanden verwundern. Könnte Nvidia wirklich Async Shaders, dann hätten sie da sicherlich schon mehr Wirbel veranstaltet. Damit zerschlägt sich ein weiter Wunschtraum deinerseits. Da kann man für Nvidia nur hoffen, dass sie mit Pascal nachlegen, ansonsten fallen sie technologisch immer weiter hinter AMD zurück. Allerdings steht dann auch schon Arctic Islands bereit, was laut Gerüchten ja eine signifikante Weiterentwicklung sein soll, also die Messlatte für Nvidia erneut deutlich anheben wird.
mariahellwig
Grand Admiral Special
Bleibt die Frage in wie weit Async Shaders genutzt werden. BF4 nutzt diese auf PS4 aber nicht auf dem PC.
Ohne finanzielle Zuwendungen wir da nix geschehen. Und AMD hat es nicht so dicke...
Ohne finanzielle Zuwendungen wir da nix geschehen. Und AMD hat es nicht so dicke...
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
@ gruffi
User Werte vs. User-Werte, Aussage eines Studio-Mitarbeiters, eines IHV Mitarbeiters und einiger Redaktionen.
Da bin ich mir natürlich sicher, dass es ein Märchen ist, dass Project Cars kein GPU-PhysX verwendet.
Herr im Himmel.
Aber zum Thema Async-Compute, großer Applaus, endlich wird eine Quelle ordentlich verlinkt und gezeigt.
Die Tabelle stellt zwar nicht alles richtig dar, aber die Aussage mit einer Queue-Engine hat was.
Bei Nvidia gibt es nur eine Grid-Management-Unit, die sich um die Verteilung von bis zu 32 queues kümmert.
http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf
Seit Maxwell V2 soll auch parallel eine 3D-Queue funktionieren.
16 active grids und mögliche Konflikte zwischen 3D und Compute-State lassen bei mir aufhorchen, wie gut das ganze bei Maxwell funktionieren wird.
Der nette User schreibt folgendes:
Wie das ganze wirklich funktioniert, wissen vermutlich nur die Leute von Nvidia.
Wenn alles über die GMU geschliffen werden muss, dann sollte bei Nvidia das ganze deutlich starrer ablaufen, als bei AMD.
Hat Nvidia dagegen eine 3D-Engine + eine Compute-Engine mit bis zu 32 Compute-Queues, wäre das deutlich effizienter.
Man hätte zwar nicht wie AMD die Möglichkeit, mehrere Compute-Queues asynchron zu verteilen und zu priorisieren, aber immerhin mit der 3D-Engine zusammen, was ohne immer zu Stalls in der Ausführung führt.
-Update-
Bei BF4 wurde von Johan in einer Mantle PDF das Thema Async Compute angerissen.
Ich kenne nicht mehr den Grund, möglicherweise Stabilität, aber es war noch zu früh um es einzufügen.
Wir haben jetzt aber DX12, mit dem Feature Multiengine für parallelen queue-dispatch von 3D, Compute und Copy-Queues.
Die Xbox One verwendet mit dem PC gemeinsam praktisch die selbe API und fußt auf GCN Gen 2 auf.
AMD muss das das theoretisch nicht selber fördern, sondern nur abwarten, dass Entwickler vermehrt Gebrauch davon machen und bei den PC-Versionen nicht aus irgendwelchen Gründen das Feature streichen.
User Werte vs. User-Werte, Aussage eines Studio-Mitarbeiters, eines IHV Mitarbeiters und einiger Redaktionen.
Da bin ich mir natürlich sicher, dass es ein Märchen ist, dass Project Cars kein GPU-PhysX verwendet.
Herr im Himmel.
Aber zum Thema Async-Compute, großer Applaus, endlich wird eine Quelle ordentlich verlinkt und gezeigt.
Die Tabelle stellt zwar nicht alles richtig dar, aber die Aussage mit einer Queue-Engine hat was.
Bei Nvidia gibt es nur eine Grid-Management-Unit, die sich um die Verteilung von bis zu 32 queues kümmert.
http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf
Seit Maxwell V2 soll auch parallel eine 3D-Queue funktionieren.
16 active grids und mögliche Konflikte zwischen 3D und Compute-State lassen bei mir aufhorchen, wie gut das ganze bei Maxwell funktionieren wird.
Der nette User schreibt folgendes:
Maxwell 2 has 1 Compute Engine, it can handle up to 32 compute threads when operating on full compute.
In mixed mode, this single engine can handle 1 rendering + 1 compute queue asynchronously.
Wie das ganze wirklich funktioniert, wissen vermutlich nur die Leute von Nvidia.
Wenn alles über die GMU geschliffen werden muss, dann sollte bei Nvidia das ganze deutlich starrer ablaufen, als bei AMD.
Hat Nvidia dagegen eine 3D-Engine + eine Compute-Engine mit bis zu 32 Compute-Queues, wäre das deutlich effizienter.
Man hätte zwar nicht wie AMD die Möglichkeit, mehrere Compute-Queues asynchron zu verteilen und zu priorisieren, aber immerhin mit der 3D-Engine zusammen, was ohne immer zu Stalls in der Ausführung führt.
-Update-
Ich denke Async Compute wird in nächster Zeit von einigen wichtigen Spielen genutzt.Bleibt die Frage in wie weit Async Shaders genutzt werden. BF4 nutzt diese auf PS4 aber nicht auf dem PC.
Ohne finanzielle Zuwendungen wir da nix geschehen. Und AMD hat es nicht so dicke...
Bei BF4 wurde von Johan in einer Mantle PDF das Thema Async Compute angerissen.
Ich kenne nicht mehr den Grund, möglicherweise Stabilität, aber es war noch zu früh um es einzufügen.
Wir haben jetzt aber DX12, mit dem Feature Multiengine für parallelen queue-dispatch von 3D, Compute und Copy-Queues.
Die Xbox One verwendet mit dem PC gemeinsam praktisch die selbe API und fußt auf GCN Gen 2 auf.
AMD muss das das theoretisch nicht selber fördern, sondern nur abwarten, dass Entwickler vermehrt Gebrauch davon machen und bei den PC-Versionen nicht aus irgendwelchen Gründen das Feature streichen.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.189
- Renomée
- 532
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.01 Beta
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Bei HW-Luxx gibt es auch ein Artikel: http://www.hardwareluxx.de/index.ph...en-amd-grafikkarten-weiter-beschleunigen.html
Wird wohl vor allem für VR nützlich:
Wird wohl vor allem für VR nützlich:
Eine möglichst hohe Auflösungen der Displays bei einer möglichst hohen Bildwiederholungsrate sind eine Herausforderung an die Rechenleistung als solches. Eine Auflösung von UltraHD pro Auge bei 90 Bildern pro Sekunde gelten momentan als das vorläufige Optimum. Die dazu notwenige Rechenleistung soll durch die Asynchronous Shader bereitgestellt werden.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Gibt's denn BF4 @ DirectX 12 auf dem PC?Bleibt die Frage in wie weit Async Shaders genutzt werden. BF4 nutzt diese auf PS4 aber nicht auf dem PC.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Gibt's denn BF4 @ DirectX 12 auf dem PC?
Das ist eine gute Frage. Bisher hat DICE sich nicht dazu geäußert, welches Spiel genau DX12 und Vulkan unterstützen wird, nur die Frostbite-Engine allgemein. Ich würde mal auf den neuen Battlefront-Titel als Vorzeigeprojekt tippen?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.189
- Renomée
- 532
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.01 Beta
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Im HW-Luxx Forum sind sie auch hartnäckig und ändern die Queue Anzahl nicht, obwohl ein user auf den Umstand aufmerksam gemacht hat.Gibt's denn BF4 @ DirectX 12 auf dem PC?
Hast du Win 8.1 und 3D Mark über Steam?Das ist eine gute Frage. Bisher hat DICE sich nicht dazu geäußert, welches Spiel genau DX12 und Vulkan unterstützen wird, nur die Frostbite-Engine allgemein. Ich würde mal auf den neuen Battlefront-Titel als Vorzeigeprojekt tippen?
Schon mal den Overhead Test laufen lassen?
Ähnliche Themen
- Antworten
- 610
- Aufrufe
- 44K
- Antworten
- 2K
- Aufrufe
- 131K
- Antworten
- 680
- Aufrufe
- 86K
- Antworten
- 1
- Aufrufe
- 5K
- Antworten
- 0
- Aufrufe
- 1K