App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD EPYC Rome Server CPUs - Zen 2 in 7nm TSMC
- Ersteller Complicated
- Erstellt am
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Wenn der MC auf einem Extra-Die sein soll, und kein Interposer verwendet wird, dann kann man das praktisch garantiert in der Pfeife rauchen. Dann hat man auf allen Dies eine hohe Speicherlatenz, und dazu noch die zusätzliche Die-to-Die-Latenz durch noch mehr Verbindungen. Aktuell hat jeder Die drei Verbindungen zu den jeweils anderen Dies. Sollen die in Zukunft dann 7 Verbindungen haben?
Das sieht jetzt wohl schon so aus:
Das sieht jetzt wohl schon so aus:
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Geh mal davon aus, das der Memmory Controler im I/O Chip sitzt. Dann brauchen die Chiplets je nur eine Verbindung zum I/O und keine Untereinander.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
So oder so bräuchte man dann aber einen Switch mit 8x 50-100 GBit/s Ports plus mind. 2-4x 50-100 GBit/s Ports für eine Verbindung zu mindestens einem anderen Sockel, d.h. der müsste auch eine Backplane/Switching Capacity von mind. 1 TBit/s mitbringen der Chip. Da sehe ich wirklich nicht warum man das nicht gleich als Interposer oder Bridge Chiplet auslegen sollte.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Ein normaler Ryzen hat doch schon 4XIFOPs und IFOB over PCIe als Verbindung zum anderem Sockel. Versteh jetzt dein Problem nicht.
Der I/O Chip oder Bridge Chiplet bräuchte grad mal doppelt so viele IFOPs und wenn man am Sockel nichts ändert auch nur vier mal soviele PCIe wie Ryzen.
Kann mir vorstellen, dass bei einer 4 Sockel Lösung weniger Verbindungen zwischen den Sockeln haben, dafür über PCIe 4.0 doppelt so schnelle.
--- Update ---
Interposer benötigt man doch eigentlich nur, wenn viele Verbindungen zwischen den Chips bestehen.
Der I/O Chip oder Bridge Chiplet bräuchte grad mal doppelt so viele IFOPs und wenn man am Sockel nichts ändert auch nur vier mal soviele PCIe wie Ryzen.
Kann mir vorstellen, dass bei einer 4 Sockel Lösung weniger Verbindungen zwischen den Sockeln haben, dafür über PCIe 4.0 doppelt so schnelle.
--- Update ---
Interposer benötigt man doch eigentlich nur, wenn viele Verbindungen zwischen den Chips bestehen.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Jeder CPU-Die braucht eine Verbindung zu den anderen CPU-Dies. Cache Coherent, usw. Dann hast Du immer noch mehrere Memory Controller auf dem Die, plus PCIe, etc. pp. Wie willst Du das ohne geswitchtes Netzwerk ordentlich hinbekommen?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Ich denke wir drehen uns im Kreis. Warten wir also ab, was AMD uns präsentieren wird. Sind ja nur noch ein paar Monate.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Für Gaming oder Anwendungen, die niedrige Latency benötigen, wäre das Konzept sicherlich nicht geeignet. Andererseits wäre es wohl sehr wünschenswert, wenn nur noch die Strukuren, die nur für die CPU selbst gebraucht werden, auf dem Chiplet sind, also die Cores, der Cache und eine einzige Anbindung an das System. Dann wäre das Chiplet genau auf das reduziert, was früher in eine CPU war, also ganz ohne North- und Southbridge. Packt man entsprechend viel L2-Cache mit drauf, wird das Chiplet nicht mehr ganz so klein ausfallen.
Zudem könnte dann ein solches Chiplet auch in einer zukünftigen APU Verwendung finden, die allerdings dann wohl auch nicht super für Games wäre. Aber AMD könnte argumentieren: für Gaming gibt es eine eigene CPU nach dem bisherigen Konzept. Den Rest (Server und APU: beide benötigen vor allem Effizienz!) könnte AMD aus den Chiplets zusammen mit einem IGP-IO-Chip je nach Bedarf aufbauen.
Zudem könnte dann ein solches Chiplet auch in einer zukünftigen APU Verwendung finden, die allerdings dann wohl auch nicht super für Games wäre. Aber AMD könnte argumentieren: für Gaming gibt es eine eigene CPU nach dem bisherigen Konzept. Den Rest (Server und APU: beide benötigen vor allem Effizienz!) könnte AMD aus den Chiplets zusammen mit einem IGP-IO-Chip je nach Bedarf aufbauen.
Zuletzt bearbeitet:
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Schau dir die Chips ohne Memmory Anbindung beim Threadripper an. Nur Cores und IFOPs werden verwendet.
--- Update ---
Wäre mal interessant wie die Chips ohne Memmory Anbindung performen, wenn die Cores der Chips mit Memmory Anbindung abgeschaltet wären.
--- Update ---
Wäre mal interessant wie die Chips ohne Memmory Anbindung performen, wenn die Cores der Chips mit Memmory Anbindung abgeschaltet wären.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Wäre mal interessant wie die Chips ohne Memmory Anbindung performen, wenn die Cores der Chips mit Memmory Anbindung abgeschaltet wären.
Weniger gut, vor allem wenn der Scheduler nichts davon weiß: https://www.anandtech.com/show/1344...-scheduler-wars-with-amds-threadripper-2990wx
Edit: Angeblich soll heute auch der "Dynamic Local Mode" für die Threatripper WX veröffentlicht werden. Da dürfte ein On/Off-Vergleich schon gute Hinweise liefern.
Edit: Bei PC Perspective haben sie das DLM getestet, den deutlichsten Unterschied sieht man bei IOMeter auf einer RAMdisk (logisch), macht immerhin 22% Unterschied.
Zuletzt bearbeitet:
hier gibts auch einige Benchmarks mit und ohne DLM: https://www.computerbase.de/2018-10/ryzen-threadripper-2000-test-2920x-2970wx-quartett/
--- Update ---
zwischen windows und Linux scheint es beim 64c TR nen giantischen Unterschied zu geben: https://www.phoronix.com/scan.php?page=article&item=2990wx-linwin-scale&num=1
--- Update ---
zwischen windows und Linux scheint es beim 64c TR nen giantischen Unterschied zu geben: https://www.phoronix.com/scan.php?page=article&item=2990wx-linwin-scale&num=1
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Also realistisch betrachtet müsste der Controller Die sogar ein 3.2 TBit/s Switch sein (ist technisch machbar, siehe zum Beispiel Broadcom, aber aufwendig). 100 GBit/s pro CPU-Die (8x), 100 GBit/s pro MC (DDR5 Dual Channel, 4x), 50 GBit/s pro PCIe 4.0 x16/xGMI (8x), und das Full Duplex. Eventuell auch noch mehr wenn z.B. ein L4-Cache drauf ist.
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Die paar TBit/s sollten technisch kein Problem darstellen.
Die bringt man heute in der Netzwerktechnik locker, obwohl man es über eine riesige Backplane schleifen muss.
Siehe: https://www.cisco.com/c/en/us/produ...00-series-switches/Data_Sheet_C78-437762.html
"scales beyond 17 terabits per second"
Höchstens die Engergiemenge die man für sowas braucht ist "etwas" höher.
Die bringt man heute in der Netzwerktechnik locker, obwohl man es über eine riesige Backplane schleifen muss.
Siehe: https://www.cisco.com/c/en/us/produ...00-series-switches/Data_Sheet_C78-437762.html
"scales beyond 17 terabits per second"
Höchstens die Engergiemenge die man für sowas braucht ist "etwas" höher.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Erster znver2 Patch für GCC: https://gcc.gnu.org/ml/gcc-patches/2018-10/msg01982.html?print=anzwix
Via Phoronix: https://www.phoronix.com/scan.php?page=news_item&px=AMD-znver2-GCC-Patch
Zen2 ist Family 17h Model >= 30h
Neu sind praktisch bisher nur die Instruktionen "Cache Line Write Back (CLWB)", "Read Processor ID (RDPID)" und "Write Back and Do Not Invalidate Cache (WBNOINVD)"
Via Phoronix: https://www.phoronix.com/scan.php?page=news_item&px=AMD-znver2-GCC-Patch
Zen2 ist Family 17h Model >= 30h
Neu sind praktisch bisher nur die Instruktionen "Cache Line Write Back (CLWB)", "Read Processor ID (RDPID)" und "Write Back and Do Not Invalidate Cache (WBNOINVD)"
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.450
- Renomée
- 2.011
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Also realistisch betrachtet müsste der Controller Die sogar ein 3.2 TBit/s Switch sein (ist technisch machbar, siehe zum Beispiel Broadcom, aber aufwendig). 100 GBit/s pro CPU-Die (8x), 100 GBit/s pro MC (DDR5 Dual Channel, 4x), 50 GBit/s pro PCIe 4.0 x16/xGMI (8x), und das Full Duplex. Eventuell auch noch mehr wenn z.B. ein L4-Cache drauf ist.
Nicht wirklich denn ich könnte mir auch vorstellen das einfach nur ein BUS System dahinter stehen könnte denn wann benötigt man schon von allen DIE die volle Bandbreite? Die Speicherbandbreite hält sich in Grenzen und bei DMA Zugriffen der Geräte sind die CPU Kerne weitestgehend raus. Da spielt sich die Kommunikation dann weitestgehend im IO Chip statt. Die Kommunikation zwischen den Kernen sollte man per OS eingrenzen können, erste Schritte sieht man ja bereits beim "Dynamic Local Mode". Ja man könnte es sich einfach machen und alle Kerne gleichrangig behandeln aber man könnte sie auch in Blöcke aufteilen und dafür sorgen das die Kerne des Blocks vorrangig genutzt werden, ähnlich dem wie es heute bei SMT gehandhabt wird um die einhergehenden Leistungseinbrüche abzufangen. Da bis heute nur wenige Alltagsprogramme mehr als 8 Kerne nutzen und der Allcore Leistungsgewinn mit den zusätzlichen DIE erheblich größer ausfallen dürfte sollten die Vorteile die Nachteile überwiegen.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Man könnte vielleicht, aber, das ist relativ sicher alles fully-switched Netzwerk basiert. Der ganze Kram (Infinity Fabric) basiert ziemlich sicher auf Ethernet-PHY-Technologie. Der Sinn ist die Skalierbarkeit on- und off-chip. Intern wie extern. Vega und Ryzen setzen bereits intern voll da drauf. Das ganze ist z.B. auch QoS-fähig etc. Siehe auch die ganzen Exascale Papers, etc.
Stefan Payne
Grand Admiral Special
Das Problem, welches du anscheinend übersiehst ist, dass 7nm sau teuer ist.
Und für den I/O Bereich ists einfach verschwendet.
Das heißt also dass man entweder eine Hybridbelichtung bräuchte, ie 16nm oder whatever für I/O und eben 7nm für die Cores. Hat bisher niemand vorgestellt.
Oder man schmeißt den I/O Teil aus dem CPU die raus und macht nur einfache IF on Chip Verbindungen, die sich auch noch schrinken lassen.
Punkt ist, dass das ganze eine loose/loose Situation ist!
Man kann also einerseits die Yieldraten erhöhen und kosten senken, indem man CPU und I/O Die trennt.
Oder man könnte das aktuelle Design beibehalten und den I/O Teil im CPU Die behalten, dann hätte man aber deutlich schlechtere Yields, würde die Kosten deutlich steigern...
Da kann man nur eines sagen:
Müll ist beides.
und eine "beste Lösung" gibt es hier nicht.
Und für den I/O Bereich ists einfach verschwendet.
Das heißt also dass man entweder eine Hybridbelichtung bräuchte, ie 16nm oder whatever für I/O und eben 7nm für die Cores. Hat bisher niemand vorgestellt.
Oder man schmeißt den I/O Teil aus dem CPU die raus und macht nur einfache IF on Chip Verbindungen, die sich auch noch schrinken lassen.
Punkt ist, dass das ganze eine loose/loose Situation ist!
Man kann also einerseits die Yieldraten erhöhen und kosten senken, indem man CPU und I/O Die trennt.
Oder man könnte das aktuelle Design beibehalten und den I/O Teil im CPU Die behalten, dann hätte man aber deutlich schlechtere Yields, würde die Kosten deutlich steigern...
Da kann man nur eines sagen:
Müll ist beides.
und eine "beste Lösung" gibt es hier nicht.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.309
- Renomée
- 1.897
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Hybridbelichtung stelle ich mir ziemlich unpraktisch vor.Das heißt also dass man entweder eine Hybridbelichtung bräuchte, ie 16nm oder whatever für I/O und eben 7nm für die Cores. Hat bisher niemand vorgestellt.
Oder man schmeißt den I/O Teil aus dem CPU die raus und macht nur einfache IF on Chip Verbindungen, die sich auch noch schrinken lassen.
Dadurch wirds nicht billiger und der teure Platz auf dem Wafer wird noch mehr verschwendet als wenn man I/O dann gleich ebenfalls mit 7nm macht, wenn man schon mal dabei ist.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.450
- Renomée
- 2.011
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@ Stefan Payne
Sofern es korrekt ist das der IO Part wegen der benötigten Treiber Bausteine nur schlecht bei Shrinks skaliert dürfte der größte Vorteil im getrennten Aufbau darin liegen dass man mehr CPUs auf den teuren 7 nm Wafer bekommt und den IO Part mit bestehenden, billigeren Fertigungsprozessen fahren und damit auch diese Fertigungskapazitäten nutzen kann. Bei den großen IO lastigen Multicores wie Threadripper und Epyc dürfte das durchaus sinnvoll sein, bei den kleinen IO armen Modellen für den AM Sockel halte ich einen Multichip Aufbau hingegen für fraglich. Zum einen hat der Sockel eine erheblich kleinere Fläche, zum anderen könnte sich die Platzersparnis so gering sein das der Multichip Aufbau mehr kostet als man dadurch einspart.
An der Stelle sollte man aber auch nicht vergessen das jeder zusätzliche Arbeitsschritt auch eine zusätzliche Fehlerquelle sein kann, weshalb ich so meine Probleme mit der aktuellen Spekulation habe. Ein 9 Chip MCM Package halte ich ganz einfach für den absoluten Overkill. Da muss die 7 nm Ausbeute schon verdammt lausig sein, was wiederum ein sehr schlechtes Zeichen für entsprechende GPUs wäre. Wie dem auch sei, ich bin gespannt was am Ende dabei raus kommt.
Sofern es korrekt ist das der IO Part wegen der benötigten Treiber Bausteine nur schlecht bei Shrinks skaliert dürfte der größte Vorteil im getrennten Aufbau darin liegen dass man mehr CPUs auf den teuren 7 nm Wafer bekommt und den IO Part mit bestehenden, billigeren Fertigungsprozessen fahren und damit auch diese Fertigungskapazitäten nutzen kann. Bei den großen IO lastigen Multicores wie Threadripper und Epyc dürfte das durchaus sinnvoll sein, bei den kleinen IO armen Modellen für den AM Sockel halte ich einen Multichip Aufbau hingegen für fraglich. Zum einen hat der Sockel eine erheblich kleinere Fläche, zum anderen könnte sich die Platzersparnis so gering sein das der Multichip Aufbau mehr kostet als man dadurch einspart.
An der Stelle sollte man aber auch nicht vergessen das jeder zusätzliche Arbeitsschritt auch eine zusätzliche Fehlerquelle sein kann, weshalb ich so meine Probleme mit der aktuellen Spekulation habe. Ein 9 Chip MCM Package halte ich ganz einfach für den absoluten Overkill. Da muss die 7 nm Ausbeute schon verdammt lausig sein, was wiederum ein sehr schlechtes Zeichen für entsprechende GPUs wäre. Wie dem auch sei, ich bin gespannt was am Ende dabei raus kommt.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Unter Umständen könnte es sich auch anbieten für einen IO-Chip auf einen Prozess wie 22FDX oder 12FDX zu setzen. Ansonsten würde sich natürlich auch 14LPP oder 12LP anbieten. Jedenfalls würde ich es für wahrscheinlich halten, dass man so einen IO-Chip (sollte es einen geben) bei GloFo fertigt, um möglichst viel vom WSA zu erfüllen.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
FDX wäre wenn es um den Energieverbrauch geht wohl am optimalsten?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Aus dem Wiki Artikel zur Cache Kohärenz:
Ob da AMD auf Verzeichnisbasierter Kohärenz geht mit dem IOX?Die Wahl zwischen verzeichnis- und snoopingbasiert hängt u. a. auch von der Anzahl der beteiligten Prozessoren (Cache Controller) ab. Spätestens ab 64 Prozessoren müssen üblicherweise verzeichnisbasierte Protokolle benutzt werden, da die Bandbreite des Busses nicht ausreichend skaliert. Bei kleineren Installationen ist der snoopingbasierte Ansatz aufgrund der fehlenden zentralen Instanz etwas performanter.[2]
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Du meinst so: Network-aware cache coherence protocol enhancement ?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Nein, soweit hatte ich noch nicht gedacht. Ist jedoch schön zu sehen, woran AMD arbeitet und welche Möglichkeiten sich durch einen IOX ergeben.
Ich hatte nur diesen Artikel: https://de.wikipedia.org/wiki/Cache-Koh%C3%A4renz
Ich hatte nur diesen Artikel: https://de.wikipedia.org/wiki/Cache-Koh%C3%A4renz
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das ist doch schon mit HBCC umgesetzt wenn ich das richtig interpretiert habe. Oder meint ihr etwas anderes? Ich denke hier muss man sich CCIX und GenZ anschauen wo AMD hin will mit den Interconnects.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Mir gehts nur um die Cache Kohärenz. Hab da bisher nur etwas von "snooping" gelesen. War deshalb überrascht wegen der Tabellenlösung. Mit dem Patent, Latenzen über mehrere Sockel in einer Tabelle zu verwalten, macht die 9 Chip Lösung für Rome noch mehr Sinn. Im IOX eben auch die ganze Latenz und Kohärenz Geschichten für einen Sockel abzuhandeln.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 396
- Antworten
- 4
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 566