App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Zen - 14nm, 8 Kerne, 95W TDP & DDR4?
- Ersteller UNRUHEHERD
- Erstellt am
MR2
Vice Admiral Special
http://m.imgur.com/gallery/qheFr
Am4 Präsentation
Am4 Präsentation
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Nicht nur APU -Käufer. Den Link bitte schön merken für die Diskussionen über die bald wieder so wichtige Dual-GPU Konfiguration und warum AM4 mit 2 8XPCI3 unterlegen ist gegenüber der 2011 Quadchannel-Plattform von Intel. Man darf sich schon wappnen
Wenn man bedenkt, dass PCIe3 alleine durch den Wechsel von 8bit10 bei PCIe2 zu 128bit130bit 20% Overhead einspart im Protokoll sollte eigentlich klar sein dass selbst auf AM4 Boards keine Beeinträchtigungen für Crossfire/SLI besteht. Also auch für die Extrem Gamer und VR-Fans tauglich sollte Dual-GPU solanfähig werden mit DX12/Vulkan spielen.
Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.
Seit der R9 290X geht jedwede CrossFire-Kommunikation über die PCIe-Slots. Und auch bei NVIDIA geht, sobald GSync ins Spiel kommt, auch vieles über die Slots. Und da kann man sehr wohl Szenarien konstruieren, wo 20 oder 30 Prozent Leistung verloren gehen - manchmal sogar noch mehr.
Ich empfehle hierfür mal ein wenig Stöbern im 3DCenter-Forum, wo man solche Posts von Blaire findet.
Wenn ich mir dort mal die Vergleichsdiagramme für WatchDogs anschaue, dann finde ich:
- knapp 20 Prozent Vorteil bei den Min-FPS im Single-Karten-Betrieb zwischen PCIe x16 2.0 und x16 3.0
- knapp 100 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
Bei FallOut 4 finde ich
- knapp 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
StarWars Battlefront:
- knapp 10 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
The Witcher 3:
- etwas über 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
Klar sind das Extrembeispiele, aber sie existieren und lassen sich auch nicht wegdiskutieren. Je schneller die Grafikkarten, desto eher verschenkt man mit 2x PCIe x8 3.0 Leistung - nicht gegenüber 2x PCIe x16 2.0, sondern gegenüber 2x PCIe x16 3.0. Und das bei einer neuen Plattform ist imho äußerst ärgerlich.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.907
- Renomée
- 2.827
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Sehe ich für die Massen alles andere als kritisch an, und wenn du schon auf 3D Center verweist:
Hardware- und Nachrichten-Links des 26./27. November 2016
Umfrage-Auswertung: Welche Chance wird MultiChip-Lösungen noch gegeben?
Wer dann wieder der Vernunft auf Multi-GPU setzen will greift zu LGA2011-3 oder wenn verfügar einem entsprechenden Workstationchipsatz für ZEN (1 Sockelserver). Du selber bist doch ein bestes Beispiel dafür wenn Geld keine Rolle spielt
Da sind auch alle LGA 115x Intelchipsätze kritisch.
Hardware- und Nachrichten-Links des 26./27. November 2016
Umfrage-Auswertung: Welche Chance wird MultiChip-Lösungen noch gegeben?
Wer dann wieder der Vernunft auf Multi-GPU setzen will greift zu LGA2011-3 oder wenn verfügar einem entsprechenden Workstationchipsatz für ZEN (1 Sockelserver). Du selber bist doch ein bestes Beispiel dafür wenn Geld keine Rolle spielt
Da sind auch alle LGA 115x Intelchipsätze kritisch.
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Sehe ich für die Massen alles andere als kritisch an, und wenn du schon auf 3D Center verweist:
Hardware- und Nachrichten-Links des 26./27. November 2016
Umfrage-Auswertung: Welche Chance wird MultiChip-Lösungen noch gegeben?
Wer dann wieder der Vernunft auf Multi-GPU setzen will greift zu LGA2011-3 oder wenn verfügar einem entsprechenden Workstationchipsatz für ZEN (1 Sockelserver). Du selber bist doch ein bestes Beispiel dafür wenn Geld keine Rolle spielt
Da sind auch alle LGA 115x Intelchipsätze kritisch.
Mir ist bewusst, dass
1. Multi-GPU eine Nische ist und
2. immer weniger neue Spiele mGPU unterstützen.
Und dennoch sehe ich das kritisch.
Ich gebe dir recht: Alle LGA-115x-Chipsätze sind diesbezüglich kritisch. Aber bei Intel gibt es eben noch ein Marktsegment darüber, welches ich auch aktuell nutze. AMD wird aber in wenigen Wochen seine neue High-End-Plattform vorstellen (EDIT: die es in Sachen CPU-Leistung mit S2011-3 aufnehmen soll) - und da ist ein Chipsatz mit 2x PCIe x8 3.0 das höchste der Gefühle. Selbst wenn ich 3k Euro für ein Mainboard ausgeben könnte - die fehlenden Lanes kann ich mir dadurch nicht anlöten. Ob es jemals andere CPUs bzw. Chipsätze geben wird, die 2x x16 3.0 unterstützen und ob wir diese dann sogar in ausgewachsenen Desktop-Boards sehen, steht derzeit völlig in den Sternen. Was nutzt mir eine CPU-/Chipsatz-Kombi mit 2x x16 3.0, wenn die vielleicht auf einem Mainboard ohne OC-Funktionen läuft?
Sowas ist genau einer der Punkte, die ich vor Wochen schonmal angesprochen habe. AMD kann sich bei Zen eigentlich nur selbst ein Bein stellen. Und "nur" 2x x8 3.0 sind meiner Meinung nach schon ein ziemlich heftiger Ansatz dafür - Nische hin oder her. Wollen wir doch mal sehen, wieviele Redaktionen beim Launch darauf "herumreiten" werden.
Und um das nochmal klarzustellen: Geld spielt bei mir sehr wohl eine Rolle.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Hab zur Zeit kein HBB, nur eine CfX Bridge auf den Ladies hängenMir ist bewusst, dass
1. Multi-GPU eine Nische ist und
2. immer weniger neue Spiele mGPU unterstützen.
Und dennoch sehe ich das kritisch.
Ich gebe dir recht: Alle LGA-115x-Chipsätze sind diesbezüglich kritisch. Aber bei Intel gibt es eben noch ein Marktsegment darüber, welches ich auch aktuell nutze. AMD wird aber in wenigen Wochen seine neue High-End-Plattform vorstellen - und da ist ein Chipsatz mit 2x PCIe x8 3.0 das höchste der Gefühle. Selbst wenn ich 3k Euro für ein Mainboard ausgeben könnte - die fehlenden Lanes kann ich mir dadurch nicht anlöten. Ob es jemals andere CPUs bzw. Chipsätze geben wird, die 2x x16 3.0 unterstützen und ob wir diese dann sogar in ausgewachsenen Desktop-Boards sehen, steht derzeit völlig in den Sternen. Was nutzt mir eine CPU-/Chipsatz-Kombi mit 2x x16 3.0, wenn die vielleicht auf einem Mainboard ohne OC-Funktionen läuft?
Sowas ist genau einer der Punkte, die ich vor Wochen schonmal angesprochen habe. AMD kann sich bei Zen eigentlich nur selbst ein Bein stellen. Und "nur" 2x x8 3.0 sind meiner Meinung nach schon ein ziemlich heftiger Ansatz dafür - Nische hin oder her. Wollen wir doch mal sehen, wieviele Redaktionen beim Launch darauf "herumreiten" werden.
Und um das nochmal klarzustellen: Geld spielt bei mir sehr wohl eine Rolle.
@eratte
Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.
M-GPU wird nicht vernachlässigt, die Enthusiasten sind die Leader zur Zeit.
Minimum FpS sind nach wie vor wichtig, auch wenn es nur Nachlade-Ruckler sind.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Hab zur Zeit kein HBB, nur eine CfX Bridge auf den Ladies hängen
Du hast ja auch "nur" 7970er. Da läuft ja noch alles wie gehabt. Mit den 290ern kam dann der Wechsel zur Kommunikation über die Slots. Möglicherweise läuft das ja auch ohne Probleme - ich weiß es nicht. Ich will nur darauf hinaus, dass man sehr wohl Szenarien hat, die ein Limit darstellen - man kann leider nicht (mehr?) pauschal sagen, dass 2x x8 3.0 in allen Lebenslagen ausreichen.
@eratte
Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.
M-GPU wird nicht vernachlässigt, die Enthusiasten sind die Leader zur Zeit.
Minimum FpS sind nach wie vor wichtig, auch wenn es nur Nachlade-Ruckler sind.
eratte hat ja prinzipiell recht. mGPU ist eine Nische und wird irgendwie immer bedeutungsloser - übrigens bereits zum 2. Mal. Das kommt sicherlich nicht von Ungefähr.
Dennoch halte ich gerade einmal 16 PCIe-3.0-Lanes für ein theoretisches Multi-GPU-Setup im Jahre 2017 für deutlich zu wenig. Ich könnte aktuell x8 / x8 / x8 / x8 auf meinem S2011-3 fahren und schimpfe darüber - wohlweislich, dass ich 2x echte x16 habe und auch nutze. Und das seit mehr als einem Jahr. Da will es mir nicht in den Kopf, wieso AMD das in 2017 nicht hinbekommt (oder vielmehr hinbekommen will). AMD schneidet sich hier meiner Meinung nach mal wieder ins eigene Fleisch, indem man einem potenziellen Kundenkreis von vornherein signalisiert, dass die Plattform für sie nicht das Optimum darstellt. Und leider ist dieser Kundenkreis einer der zahlungskräftigeren und trotz seines Nischendaseins genau der Kundenkreis, der am lautesten schreit (sieht man ja irgendwie an mir)...
Mal abgesehen davon, dass ich seit dem versauten Patch von BF1, wo es extremes Flackern im mGPU-Betrieb gab, auch fast wieder zum sGPU-User geworden wäre. Mich hat nur der Preis der Titan X Pascal davon abgehalten - denn wie gesagt: Geld spielt auch bei mir eine Rolle. Ich hätte ~500 Euro draufgezahlt und wäre da, wo SLI ordentlich skaliert (z.B. in BF1) nur etwa gleich schnell gewesen wie jetzt - nur halt mit den Annehmlichkeiten von sGPU. Und das waren mir die über 50 Prozent Aufpreis dann nicht wert - bei weitem nicht...
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.734
- Renomée
- 435
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Wäre schön, wenn AMD und nVdia die mGPUs ganz streichen würden. Die freiwerdenden Ressourcen könnte man in den Treiber / neue Produkte stecken.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Wäre schön, wenn AMD und nVdia die mGPUs ganz streichen würden. Die freiwerdenden Ressourcen könnte man in den Treiber / neue Produkte stecken.
Ganz ehrlich: Ich hätte aktuell kein Problem damit. Denn wie gesagt: mGPU stirbt gefühlt gerade zum 2. Mal nach dem SLI von 3dfx.
Nur ist das eben bisher nicht der Fall - und solange etwas auf der Feature-Liste steht, sollte es meiner Meinung nach nicht an solchen "Kleinigkeiten" scheitern. Tut es aber irgendwie doch - und das ist traurig.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@Music
Spätesten bei zwei 7990 (X²) wird es lächerlich mit: 1x x 16 + 1x x8 PCIe 2.0.
Was ruckelt denn da so? Kein Software "Heini" am Start?
Spätesten bei zwei 7990 (X²) wird es lächerlich mit: 1x x 16 + 1x x8 PCIe 2.0.
Was ruckelt denn da so? Kein Software "Heini" am Start?
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
ich hätte die mehr pcie ehr für zusatzkarten was bei meinem z97 nie eine option war ...
das Asus Crosshair VI sieht ja auch sehr schick aus
das Asus Crosshair VI sieht ja auch sehr schick aus
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.450
- Renomée
- 2.011
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.
Seit der R9 290X geht jedwede CrossFire-Kommunikation über die PCIe-Slots. Und auch bei NVIDIA geht, sobald GSync ins Spiel kommt, auch vieles über die Slots. Und da kann man sehr wohl Szenarien konstruieren, wo 20 oder 30 Prozent Leistung verloren gehen - manchmal sogar noch mehr.
Ich sehe das ebenfalls als geringes Problem an da der Wert der min. FPS Wert genau wie die max. FPS ein einmaliger Wert und bei diversen Spielen nicht gerade reproduzierbar ist.
Da reicht schon ein einmaliger Absacker bei einem Nachladeszenario um diesen Wert festzulegen.
Des weiteren wird das Kommunikationsproblem entschärft sobald eine PCIe Bridge (wie bei den Doppelwopper Karten) im Spiel ist. Die beiden GPUs können dann ohne weiteres mit einander kommunizieren ohne den Weg über den Chipsatz zu nehmen. Der ist erst dann wieder im Spiel wenn es um Daten von der CPU oder dem Speicher geht.
Hat der externe Part des Chipsatzes eine solche Bridge integriert ist das Problem nur noch halb so wild.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.907
- Renomée
- 2.827
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Ich meinte das mit dem Beispiel auch eher das wenn einer Multi GPU haben will entsprechende Hardware kauft. Ich habe ja selber in LGA1366, 2011 und 2011-3 ordentlich € verbrannt nur nicht wegen Multi GPU. Ich sehe aber den AM4 als Gegenentwurf zum LGA115x und da ist er sogar besser aufgestellt nach dem jetzigen Stand. Nur weil es dafür einen 8 Kerner gibt und Intel das für seine Mainstreamplattform künstlich klein gehalten hat heisst es nicht das AM4 das Gegenstück zu LGA2011 ist.
Generell sind Mainboards für LGA2011 deutlich teurer als für LGA115x auch wenn selbst da Boards zu abstrusen Preisen gibt. Auf die kleine Nische mit Mutli GPU hat es AMD erst mal nicht abgesehen denke ich. Ich hoffe es gelingt im restlichen Markt ordentlich Hardware abzusetzen.
So war das nicht gemeint sondern was Leute die Multi GPU wirklich haben wollen an passender Hardware kaufen - eben meist keine LGA115x oder bald AM4 Plattformen.
Generell sind Mainboards für LGA2011 deutlich teurer als für LGA115x auch wenn selbst da Boards zu abstrusen Preisen gibt. Auf die kleine Nische mit Mutli GPU hat es AMD erst mal nicht abgesehen denke ich. Ich hoffe es gelingt im restlichen Markt ordentlich Hardware abzusetzen.
Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.
So war das nicht gemeint sondern was Leute die Multi GPU wirklich haben wollen an passender Hardware kaufen - eben meist keine LGA115x oder bald AM4 Plattformen.
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Ich sehe das ebenfalls als geringes Problem an da der Wert der min. FPS Wert genau wie die max. FPS ein einmaliger Wert und bei diversen Spielen nicht gerade reproduzierbar ist.
Da reicht schon ein einmaliger Absacker bei einem Nachladeszenario um diesen Wert festzulegen.
Hast du dir die verlinkten Diagramme angesehen?
Meine Aussagen beziehen sich zwar auf die Min-FPS, bei den Avg-FPS sieht es aber quasi genauso aus:
Bei FallOut 4 finde ich
- knapp 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- knapp 30 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
StarWars Battlefront:
- knapp 10 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- knapp 10 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
The Witcher 3:
- etwas über 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- etwas über 25 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
Bei den Watchdogs-Werten von oben muss ich mich in den Diagrammen vertan haben. Denn bei nochmaliger Betrachtung sind die Single-GPU-Werte gleich und die angesprochenen mGPU-Werte sind um etwas über 25 Prozent höher. Die Avg-FPS sind im gleichen Szenario knapp 25 Prozent höher.
Ich habe die Min-FPS nur deshalb angeführt, weil man diese in der Regel am heftigsten spürt. Was aber nicht heißt, dass die Situation beim Durchschnitt deshalb drastisch anders aussieht.
--- Update ---
So war das nicht gemeint sondern was Leute die Multi GPU wirklich haben wollen an passender Hardware kaufen - eben meist keine LGA115x oder bald AM4 Plattformen.
Aber die Argumentation ist doch irgendwie absurd, oder? AMD stellt eine High-End-Plattform vor, will wieder im High-End (Hochpreissegment) mitmischen, seine Marktanteile vergrößern und eine Plattform von klein bis groß anbieten. Intel benötigt zwei Plattformen, um alles abzudecken (sicherlich aus preispolitischer Sicht heraus gewollt), AMD will hingegen eine Plattform für alles. Und schon von Beginn an suggeriert man: Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....
Nur weil es dafür einen 8 Kerner gibt und Intel das für seine Mainstreamplattform künstlich klein gehalten hat heist es nicht das AM4 das Gegenstück zu LGA2011 ist.
CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.450
- Renomée
- 2.011
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Schlimmer als das, ich habe eigene Erfahrungen gemacht und da schwankt der min. FPS Wert zum Teil erheblich und genau darauf bezog ich mich auch. Auf die Festlegung an diesen Wert.
Ich habe aber eine Vermutung wo der Unterschied herkommen könnte denn diverse GPGPU Projekte reagierten zum Teil recht empfindlich auf eine geringere PCIe Bandbreite.
Bei wievielen dieser Extrembeispielen spielt das z.B. durch Gameworks eine definitive Rolle?
PS: Wo hatte AMD gesagt das sie ein Desktop Gegenstück für den 2011-3 Sockel planen würden?
Ich habe aber eine Vermutung wo der Unterschied herkommen könnte denn diverse GPGPU Projekte reagierten zum Teil recht empfindlich auf eine geringere PCIe Bandbreite.
Bei wievielen dieser Extrembeispielen spielt das z.B. durch Gameworks eine definitive Rolle?
PS: Wo hatte AMD gesagt das sie ein Desktop Gegenstück für den 2011-3 Sockel planen würden?
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Schlimmer als das, ich habe eigene Erfahrungen gemacht und da schwankt der min. FPS Wert zum Teil erheblich und genau darauf bezog ich mich auch. Auf die Festlegung an diesen Wert.
Ich bin mir bewusst, dass der Min-FPS-Wert stark schwankt. Aber ich habe ja bereits geschrieben, dass es bei den Avg-FPS fast 1:1 so aussieht. Und damit gilt deine Argumentation bezüglich einmaliger Ausreißer nicht mehr.
Ich habe aber eine Vermutung wo der Unterschied herkommen könnte denn diverse GPGPU Projekte reagierten zum Teil recht empfindlich auf eine geringere PCIe Bandbreite.
Bei wievielen dieser Extrembeispielen spielt das z.B. durch Gameworks eine definitive Rolle?
Mir ist es relativ egal, woran es liegt - ob jetzt Gameworks daran Schuld ist oder Windows oder die Treiber oder die Mondphasen. Fakt ist (ich wiederhole mich), dass es definitiv Szenarien gibt, wo 2x PCIe x8 3.0 in der heutigen Spielewelt limitieren. Und es gibt sehr wohl technische Möglichkeiten, 2x PCIe x16 3.0 zu bieten. AMD wird dies bei einer brandneuen Plattform nicht tun - warum auch immer. Das ist mindestens kritikwürdig, meiner Meinung nach aber sogar kritisch - weil man (ich wiederhole mich erneut) sich von vornherein einer kleinen, aber finanzkräftigen Kundengruppe verschließt.
PS: Wo hatte AMD gesagt das sie ein Desktop Gegenstück für den 2011-3 Sockel planen würden?
Ich habe nicht gesagt, dass AMD gesagt hätte, man plane ein Sockel-2011-3-Gegenstück. Ich habe nur gesagt, dass AM4 CPU-seitig soetwas wie das Gegenstück zu 2011-3 darstellt - schließlich wird AMDs dickster Desktop-CPU darin laufen. Wie es später mit Naples und seinen Derivaten aussieht wird man sehen. Bis dahin ist AM4 aber alles, was AMD in die Waagschale wirft - und da fehlt meiner Meinung nach ein nicht unbedeutendes Feature.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.
Wo sollen denn die Daten herkommen um mehr als 16+4+4PCIe 3.0 Leitungen zu bedienen?
16 PCIe schaffen 32GB/s https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/
Nach Aida64 sind dualChannel DDR4 2400 zwar 34GB/s drin, DDR4 3000 bis 42,7GB/s https://www.computerbase.de/2015-10/speicher-fuer-skylake-ddr3-1333-ddr4-3000-vergleich/3/#diagramm-aida64-speichertest-read
aber praktisch hat die CPU ja noch was anderes zu tun als nur die Daten sequentiell aus dem RAM zu lesen und auf den PCI zu schieben.
Für mehr PCIe 3.0 Lanes sind also auch mehr Speicherkanäle notwendig.
Ich meine also, bei 2 Speicherkanälen sind die 16PCIe 3.0 für GPU passend.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.578
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Wo sollen denn die Daten herkommen um mehr als 16+4+4PCIe 3.0 Leitungen zu bedienen?
16 PCIe schaffen 32GB/s https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/
Nach Aida64 sind dualChannel DDR4 2400 zwar 34GB/s drin, DDR4 3000 bis 42,7GB/s https://www.computerbase.de/2015-10/speicher-fuer-skylake-ddr3-1333-ddr4-3000-vergleich/3/#diagramm-aida64-speichertest-read
aber praktisch hat die CPU ja noch was anderes zu tun als nur die Daten sequentiell aus dem RAM zu lesen und auf den PCI zu schieben.
Für mehr PCIe 3.0 Lanes sind also auch mehr Speicherkanäle notwendig.
Ich meine also, bei 2 Speicherkanälen sind die 16PCIe 3.0 für GPU passend.Zudem erledigt sich das Nachladen, wenn Vega mit SSD unterstützung kommt.
Punkt 1:
Multi-GPU hat einen Verwaltungsaufwand, wodurch die beteiligten GPUs auch untereinander kommunizieren (müssen) - nicht immer nur ausschließlich RAM -> CPU -> GPU und umgekehrt.
Punkt 2:
Multi-GPU krankt an einigen Problemen, die nahezu alle mit der AFR-Technik zu tun haben. SFR würde Vieles vereinfachen. Doch SFR verlangt - hört hört - eine höhere Bandbreite, da der Kommunikationsaufwand zwischen den CPUs deutlich höher liegt als bei AFR.
Da entsteht ein Teufelskreis, der das Sterben von mGPU zur Folge haben wird. SFR wäre besser, benötigt aber mehr Bandbreite. Weder AMD noch Intel scheinen gewillt, dieses Mehr an Bandbreite flächendeckend bereitzustellen. Also bleibt allen nichts anderes übrig, als bei AFR zu bleiben. Da AFR aber Nachteile hat, wird in mGPU nichts mehr investiert. Und weil niemand mehr in mGPU investiert, sind Intel und AMD scheinbar nicht mehr gewillt, flächendeckend mehr Bandbreite bereitzustellen.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Na, wenn die Kommunikation der GPUs untereinander mehr Bandbreite benötigt, warum muß dann die CPU mit mehr Leitungen angebunden sein?
Da liegt dann das Nadelöhr im System, wenn alles über die CPU läuft.
Da liegt dann das Nadelöhr im System, wenn alles über die CPU läuft.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich denke die Vergleichsbasis hinkt hier. Die Performancegewinne waren alle SLI Systeme, was eine Schwäche der Nvidia Technik offenbart. AMD hat XDMA eingeführt und die Bridges obsolet gemacht, die eben die zusätzliche Bandbreite (eigentlich eher Latenz Reduzierung) ermöglichen. Siehe:
https://community.amd.com/community/gaming/blog/2015/05/11/modernizing-multi-gpu-gaming-with-xdma
Somit könnte AMD hier XDMA dafür nutzen auf AM4 Systemen auch AMD GPUs in größeren Stückzahlen zu verkaufen - könnte auch anders herum ein Argument werden. Mit einer AMD GPU brauche ich kein 2011 Quadchannel System als Unterbau wie mit einer Nvidia SLI Konfiguration, da spart der Enthusiast gleich mehrfach weil sich dann auch mit einem Freesync-Monitor günstiger und mit mehr Auswahl eindecken kann zu seinem AM4/Vega/Freesync Bundle rechnet man da ein 2011(doppelt RAM)/GTX/Gysnc dagegen sind da schnell ein paar hundert Euro Vorteil beim AMD System zu finden.
https://community.amd.com/community/gaming/blog/2015/05/11/modernizing-multi-gpu-gaming-with-xdma
http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/4At a principle level, XDMA dispenses with the external bridge by opening a direct channel of communication between the multiple GPUs in a system. This channel operates over the very same PCI Express® bus in which your AMD Radeon graphics cards are currently installed. The exclusive function of that bus is to shuttle graphics data between GPUs and your processor, so it’s already well suited to the new task of collecting and showing the data each GPU is working on when playing games.
It just so happens that the PCI Express bus also provides a tremendous amount of bandwidth—far more than can be allocated to today’s external bridges! As noted by Anandtech in their comprehensive analysis of XDMA, the bandwidth of an external bridge is just 900MB/s, whereas PCI Express® can provide up to 32GB/s with a PCIe 3.0 x16 slot (about 35x more bandwidth).
Ultimately AMD’s goal with the XDMA engine is to make PCIe based Crossfire just as efficient, performant, and compatible as CFBI based Crossfire, and despite the initial concerns we had over the use of the PCIe bus, based on our test results AMD appears to have delivered on their promises.
Somit könnte AMD hier XDMA dafür nutzen auf AM4 Systemen auch AMD GPUs in größeren Stückzahlen zu verkaufen - könnte auch anders herum ein Argument werden. Mit einer AMD GPU brauche ich kein 2011 Quadchannel System als Unterbau wie mit einer Nvidia SLI Konfiguration, da spart der Enthusiast gleich mehrfach weil sich dann auch mit einem Freesync-Monitor günstiger und mit mehr Auswahl eindecken kann zu seinem AM4/Vega/Freesync Bundle rechnet man da ein 2011(doppelt RAM)/GTX/Gysnc dagegen sind da schnell ein paar hundert Euro Vorteil beim AMD System zu finden.
Zuletzt bearbeitet:
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Wer sagt denn, dass es nicht eine Enthusiasten-Plattform wie den FX auf Sockel 940 geben wird. Bei den MCM-Zens mit >8 Kernen gibt es ja kein Problem, dass zu wenig PCIe-Lanes vorhanden sind.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.907
- Renomée
- 2.827
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
Nein ist es im Grunde nicht, nur weil es bei Intel max. 4K/8T auf der Mainstreamplattform gibt muss man das ja nicht bei AMD auch so sehen. Der LGA2011 ist ein "Serverabfallprodukt" und die Plattform ist mit den 40 PCIe 3.0 Lanes und Quadchannel RAM teuer - Features die viele Anwender nicht brauchen aber "bezahlen" müssten. Auch ein i7 7700k auf Z270 gilt als "Highend".
Bisher gibt es nur den Blendertest, der zeigt nur das er unter den gestellten Bedingungen gleiche Performance wie ein 6900k liefert. Der 6900k wurde aber auch auf Dualchannel RAM gesetzt so wie Ryzen sie auch maximal bietet.
Ich hoffe das Ryzen und AM4 ein Erfolg wird auch weil es dann die Latte im Mainstream über 4K/8T nach oben verlegt. Dazu braucht es einen Unterbau zu möglichst vernünftigen Preisen.
Ob aus dem Bereich 1 Sockelserver für ZEN auch entsprechenden Consumer Desktop/Workstation Produkte entstehen bleibt abzuwarten.
Für dieses Jahr gilt es AM4 und Vega erfolgreich in den Markt zu platzieren. Man sollte da auch Ressourcen und Budget die zur Verfügung stehen bedenken.
Zuletzt bearbeitet:
AM4 ist eindeutig nicht als So2011 Konkurrenz entwickelt worden, sondern als Konkurrenz für die So 115x Plattform. Man erweitert einfach Mainstream nach oben statt in direkte Konkurrenz zu Intels 6C/8C zu treten. Das macht unter Berücksichtigung von AMDs finanzieller Situation durchaus Sinn.Aber die Argumentation ist doch irgendwie absurd, oder? AMD stellt eine High-End-Plattform vor, will wieder im High-End (Hochpreissegment) mitmischen, seine Marktanteile vergrößern und eine Plattform von klein bis groß anbieten.
Es lohnt sich nicht, so einfach ist das. Sie können nicht die Plattform für 99% der Kunden teuer machen nur damit 1% in einigen wenigen Fällen etwas mehr Leistung bekommen. Dieses Segment wird man, wenn überhaupt, erst mit einem Ableger der Server-Plattform adressieren.Intel benötigt zwei Plattformen, um alles abzudecken (sicherlich aus preispolitischer Sicht heraus gewollt), AMD will hingegen eine Plattform für alles. Und schon von Beginn an suggeriert man: Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....
Wer sagt, das es überhaupt einen direkten So2011 Konkurrenten im Desktop-Segment geben muss? Selbst bei Intel ist dieses Segment nur Resteverwertung. Ähnlich könnte es AMD machen.CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.907
- Renomée
- 2.827
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
... AMD stellt eine High-End-Plattform vor, ...
Offizieller Link von AMD bitte.
Ja, aber nicht mit AM4.... will wieder im High-End (Hochpreissegment) mitmischen, ...
Das kommt eben darauf an, wie man High-End definiert. Zwei Speicherkanäle und die PCIe-Lanes sind für mich nicht High-End.
AM4 soll ja auch die Katzen ersetzen und die Katzen sind ja nicht gerade High-End.
Auf die paar CPUs, die AMD für Multi-GPU-Systeme verkaufen würde, kann AMD am Anfang locker verzichten.... Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....
Da kommt höchstwahrscheinlich noch ein anderer Sockel, der dann auch für Multi-GPU geeignet ist.
Nein.CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3.
Hat AM4 4 Speicherkanäle?
Hat AM4 40 PCIe-Lanes?
Aber das hatten wir ja alles schon einmal.
In der Mache.Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.215
- Renomée
- 71
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Chefin Lisa Su sagte, dass Anfang März 2017 die Verfügbarkeit der neuen Ryzen-CPUs gegeben sein soll. Der Hersteller möchte sowohl Endkunden für DIY-Systeme als auch Komplett-PC-Fertiger beliefern. Su betonte, dass die Ryzen-Chips zwar anfangs gegen Intels Core i7 mit acht Kernen antreten werden, es aber mittelfristig noch weitere Modelle geben soll, die dann das komplette Desktop-
Lisa bei Bekanntgabe der Quartalszahlen
Quelle
http://www.golem.de/news/amd-ryzen-...-maerz-vega-karten-in-q2-1702-125920-rss.html
Edit
Sorry übersehen das was ähnliche verlinkt wurde
Ähnliche Themen
- Antworten
- 118
- Aufrufe
- 10K
- Antworten
- 14
- Aufrufe
- 958
- Antworten
- 102
- Aufrufe
- 11K
- Antworten
- 3
- Aufrufe
- 2K