App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Kabini APU / Jaguar CPU + Graphics Core Next GPU, 2-4 Kerne, 28nm TSMC, 2013
- Ersteller Duplex
- Erstellt am
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Nun, aber was hat das beim HSA-Level für eine Bedeutung, ob der FCH jetzt im die ist oder nicht?
Bezüglich der Aussage von Roy.
Yes, es liest sich praktisch eindeutig nach Kabini, aber man will ja nie aufgeben sich da mehr zusammen zu phantasieren, als es im Endeffekt sein könnte.
das ganze würde dann auch bedeuten, dass Kaveri Ende 2013 technisch weiter ist, als die PS4.
Bezüglich der Aussage von Roy.
Yes, es liest sich praktisch eindeutig nach Kabini, aber man will ja nie aufgeben sich da mehr zusammen zu phantasieren, als es im Endeffekt sein könnte.
das ganze würde dann auch bedeuten, dass Kaveri Ende 2013 technisch weiter ist, als die PS4.
Markus Everson
Grand Admiral Special
2 Compute Units und kein "nativer 8-Kerner".
Worin besteht die Differenzierung?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Vom Technischen her anscheinend schon. Jedoch werden wir da wohl noch keine 8 Kerne und entsprechende GPU Leistung sehen. Könnte mir vorstellen, dass die PS4 APU bis zu 200W zieht. Im PC werden wir wohl erst mit 20nm vergleichbare APUs sehen.das ganze würde dann auch bedeuten, dass Kaveri Ende 2013 technisch weiter ist, als die PS4.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Das war zugegeben dünnes Eis und hat so etwas von Bulldozer mit "echter Octo-Core oder Quadcore?".Worin besteht die Differenzierung?
Um es mal bildlich zu verdeutlichen, was mir bei einem "nativen 8-Kerner" vor sich schwebte.
Anhang anzeigen 27159
Somit hätten alle Kerne mit gleicher Latenz Zugriff auf den 4mb großen L2-Cache und nicht wie es bisher ist 17 vs. ~ 100 Takte.
Das würde aber natürlich auch bedeuten, dass man das Front-End hätte anders gestalten müssen und die restliche Verdrahtung ebenfalls anders ausgefallen wäre.
Das hätte sehr kompliziert ausfallen können.
Das ist leider klar.Vom Technischen her anscheinend schon. Jedoch werden wir da wohl noch keine 8 Kerne und entsprechende GPU Leistung sehen. Könnte mir vorstellen, dass die PS4 APU bis zu 200W zieht. Im PC werden wir wohl erst mit 20nm vergleichbare APUs sehen.
Da müsste man ja bis Ende 2015 darauf warten.
Problematisch ist auch, wie man eine hohe Bandbreite erreichen will?
DDR4 selbst im Quad-Modus würde nur ~100 GB/s bringen können.
AMD müsste da sich irgendetwas interessantes einfallen lassen müssen, um eine deutlich dickere GPU wie bei der PS4 auch beim PC-Anwender füttern zu können.
Das sind genauso echte Octo-Core wie der C2Q ein Quad war, sollte es als MCM realisiert sein.
AMD hat das bei den 16 Core Teilen doch auch gemacht ( Codename gerade nicht präsent).
Die Frage ist letztlich wie die Verbindung zwischen beiden Modulen realisiert ist? HT hat der Jaguar nicht vermutlich was mit PCIe.
AMD hat das bei den 16 Core Teilen doch auch gemacht ( Codename gerade nicht präsent).
Die Frage ist letztlich wie die Verbindung zwischen beiden Modulen realisiert ist? HT hat der Jaguar nicht vermutlich was mit PCIe.
ONH
Grand Admiral Special
Die Frage ist letztlich wie die Verbindung zwischen beiden Modulen realisiert ist? HT hat der Jaguar nicht vermutlich was mit PCIe.
Woher kommst du auf die Idee das die 2 CU auf verschiedenen Chips liegen? Beide zusammen mit den GPU CU auf einem Chip und analog zu Bobcate bei Zacate mit der NB verbinden, den die CU sind ja nur die 4 Kerne und L2.
Verbaut wird wohl was weniger Kosten verspricht und da denke ich das AMD genug verlangen wird das es sich für Sony lohnt das OS an die HW anzupassen.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Scheint so, als hätten wir 3 Fälle zur Spekulation:
1.) 2X CU 4Core als getrennte Einheiten verbunden über NB. Programmiert sich wie zwei seperate PCs mit einer schnellen Verbindung, Programmierer haben sich um koköränz und Syncronisation zu kümmern.
2.) 2X CU 4Core kohärent Verbunden. Programmiert sich wie ein Multiprozessorsystem. Programmierer müssen sich aus Performancegründen um Threadverteilung kümmern. Datenlokalität auf einem CU ist zu bevorzugen.
3.) 1X CU 8Core. Alle Cores gleichberechtigt. Programierer haben nichts zu tun mit Threadverteilung und kohärenz der Daten. Wäre der erste "echte" 8 Kerner von AMD.
Zu 2 und 3 sollte es keine Probleme mit dem OS geben.
Mit HSA strebt AMD 3 an.
Bin mal gespannt, wann man näheres erfährt.
1.) 2X CU 4Core als getrennte Einheiten verbunden über NB. Programmiert sich wie zwei seperate PCs mit einer schnellen Verbindung, Programmierer haben sich um koköränz und Syncronisation zu kümmern.
2.) 2X CU 4Core kohärent Verbunden. Programmiert sich wie ein Multiprozessorsystem. Programmierer müssen sich aus Performancegründen um Threadverteilung kümmern. Datenlokalität auf einem CU ist zu bevorzugen.
3.) 1X CU 8Core. Alle Cores gleichberechtigt. Programierer haben nichts zu tun mit Threadverteilung und kohärenz der Daten. Wäre der erste "echte" 8 Kerner von AMD.
Zu 2 und 3 sollte es keine Probleme mit dem OS geben.
Mit HSA strebt AMD 3 an.
Bin mal gespannt, wann man näheres erfährt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Programmierer werden in keinem Fall etwas mit der mit Threadverteilung und kohärenz der Daten zu tun haben. Dafür ist die HSA API doch da, unabhängig der unterliegenden Hardware. Ich denke das war auch der ausschlagegebende Punkt für den Zuschlag AMDs im Konsolengeschäft.
Anstatt eine Handvoll Ninja-Programmierer teuer bezahlen zu müssen, können Horden von 08/15 x86 Programmierer, Massen von Spielen in kürzester Zeit für einen Appel und ein Ei raus hauen. Ob die Qualität stimmen wird, wird sich zeigen. Doch derzeit hat man das Gefühl dass die Leute eher die Zahl der vorhanden Software zählen anstatt zu schauen ob sie was taugt - siehe App-Biotop Mentalität.
Anstatt eine Handvoll Ninja-Programmierer teuer bezahlen zu müssen, können Horden von 08/15 x86 Programmierer, Massen von Spielen in kürzester Zeit für einen Appel und ein Ei raus hauen. Ob die Qualität stimmen wird, wird sich zeigen. Doch derzeit hat man das Gefühl dass die Leute eher die Zahl der vorhanden Software zählen anstatt zu schauen ob sie was taugt - siehe App-Biotop Mentalität.
ONH
Grand Admiral Special
Muss meine Aussage konkreter schreiben alle CU (GCN oder x86) gleichberechtigt an einem CI wie bei Zacate die BC Core an der NB angebunden sind. Bleibt gegenüber von 1x8 nur der geteilte L2 übrig und der sollte sich doch analog wie heute zwischen den CPU Kernen handhaben lassen.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Nicht ganz. Bereits bei Magny Cours / Interlagos hat AMD den shared Cache direkter verbunden (HT-Bridge). Beim C2Q ging es ja noch über den FSB zum Mainboard.Das sind genauso echte Octo-Core wie der C2Q ein Quad war, sollte es als MCM realisiert sein.
Ist aber echt interessant, ob Jaguar vielleicht vergleichsweise einfach in ein Design mit 8 Kernen und 4 MiB L2 gepresst werden kann. Das würde in der Tat für einen sehr modularen Aufbau sprechen. Aber selbst 2 4-Kern CUs mit jeweils 2 MiB L2 sollten kein Problem für die Performance sein. An MCM glaube ich nicht. Wird wohl alles auf einem Die untergebracht sein.
Opteron
Redaktion
☆☆☆☆☆☆
VGleaks beschreibt hier die angebliche Durange Einheit:
http://www.vgleaks.com/durango-cpu-overview/
Sind 2x4 Kerne, kohärenter Zugriff auf den jeweils anderen Modul-Cache ist möglich, aber ziemlich langsam.
http://www.vgleaks.com/durango-cpu-overview/
Sind 2x4 Kerne, kohärenter Zugriff auf den jeweils anderen Modul-Cache ist möglich, aber ziemlich langsam.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ehrlich gesagt glaube ich davon recht wenig. Was soll denn remote L1 heissen?
Welchen Sinn ergibt das denn:
Und wenn der Code dort gefunden wird gibt es 20 cycle penalty? Wofür?
Der L1 Cache ist ja exklusiv für den jeweiligen Core.
Durango ist zudem Xbox und nicht PS4.
Welchen Sinn ergibt das denn:
Wenn der benötigte Code im L2 gefunden wurde, wozu dann den L1 durchsuchen?Remote L2 hit, remote L1 miss 100 Required line is in the other module’s L2
Remote L2 hit, remote L1 hit 120 Required line is in the other module’s L2 & in remote ore’s L1
Und wenn der Code dort gefunden wird gibt es 20 cycle penalty? Wofür?
Der L1 Cache ist ja exklusiv für den jeweiligen Core.
Durango ist zudem Xbox und nicht PS4.
Opteron
Redaktion
☆☆☆☆☆☆
Na der L1 ist doch auch im L2 gespiegelt. Zuerst wird der remote L2 beschnüffelt, wenn es dort nen Hit gibt, dann wird nachgeschaut ob die Daten auch noch in nem L1 stehen, da man die dort dann auch "sicher" muss. 20 Takte Penalty sind zwar ne Menge, aber vorstellen kann ich mir das bei dem ganzen Koheränzgedöns schon, das ist kompliziert und für die Spielkonsole haben sie sicher nur ne Quick n Dirty Lösung genommen.Und wenn der Code dort gefunden wird gibt es 20 cycle penalty? Wofür?
Der L1 Cache ist ja exklusiv für den jeweiligen Core.
Durango ist zudem Xbox und nicht PS4.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das macht doch nur Sinn für den Core dem der L1 Cache gehört. Was nutzt dem Remote Core der Zugriff auf den Remote L1 eines anderen Cores nur um dann festzustellen dass er in manchen Fällen 20 cycles penalty hat und Keinerlei nutzen aus dem remote L1? Besser er schaut erst gar nicht dort nach und behandelt alle remote L2 anfragen wie einen remote L1 miss. Ist 20% schneller falls es im L1 vorhanden ist.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Dann wäre es ja ein L2 miss. Also nicht die benötigten Daten im L2 Cache gefunden.
Zudem wäre mir keine CPU bekannt die einen shared L1 Cache hat für read Zugriffe. Ich kenne nur Core exklusiven L1 Cache- Das wäre ja eine Weltneuheit, oder irre ich mich?
Ich habe zumindest mal nicht einen Hinweis bei Google auf die Existenz solcher L1 Cache Modelle gefunden. Wieso auch. Sollten die Daten im L1 cache von Core0 liegen und der Zugriff 3 cycles brauchen, wie sollte dann Core1 in 120 cycles mit diesen Daten noch was anfangen können? Was für ein scheduler würde denn so arbeiten?
Auch steht im Link an Anfang dass L1 Cache read exklusiv ist für den jeweiligen Core - also was nun? Das widerspricht sich ja.
Zudem wäre mir keine CPU bekannt die einen shared L1 Cache hat für read Zugriffe. Ich kenne nur Core exklusiven L1 Cache- Das wäre ja eine Weltneuheit, oder irre ich mich?
Ich habe zumindest mal nicht einen Hinweis bei Google auf die Existenz solcher L1 Cache Modelle gefunden. Wieso auch. Sollten die Daten im L1 cache von Core0 liegen und der Zugriff 3 cycles brauchen, wie sollte dann Core1 in 120 cycles mit diesen Daten noch was anfangen können? Was für ein scheduler würde denn so arbeiten?
Auch steht im Link an Anfang dass L1 Cache read exklusiv ist für den jeweiligen Core - also was nun? Das widerspricht sich ja.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
@Complicated
Fürs Lesen hast du recht. Da macht es keinen Sinn. Anders schaut das beim Schreiben aus. Wenn die Daten in Remote L1 und Remote L2 vorhanden sind, müssen diese abgeglichen werden. Read only ist übrigens nur der L1I, nicht der L1D.
Fürs Lesen hast du recht. Da macht es keinen Sinn. Anders schaut das beim Schreiben aus. Wenn die Daten in Remote L1 und Remote L2 vorhanden sind, müssen diese abgeglichen werden. Read only ist übrigens nur der L1I, nicht der L1D.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Naja das macht doch aber nicht der Remote Core. Warum sollte der nicht in den eigenen L1 und L2 schreiben? Und wie sollte ein Remote L1 beschrieben werden wenn der exklusiv dem anderen Core gehört?
Ist dir irgendein Chip bekannt der das macht?
In dem Link steht übrigens sowohl für L1I und L1D "dedicated to 1 core"
Ist dir irgendein Chip bekannt der das macht?
In dem Link steht übrigens sowohl für L1I und L1D "dedicated to 1 core"
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Hab ich mir ja schon angeschaut, doch das setzt ja voraus dass ein Cache auch von mehreren Cores geteilt wird
Bei L1 ist mir das bisher nicht untergekommen.
Das einzige wie das Sinn ergeben könnte, wäre wenn das nicht nur ein MCM Chip Package wäre, sondern tatsächlich eine Konfiguration mit 2 seperaten CPUs.
Edit:
Achso Quelle:
http://de.wikipedia.org/wiki/MOESI
Bei L1 ist mir das bisher nicht untergekommen.
Das einzige wie das Sinn ergeben könnte, wäre wenn das nicht nur ein MCM Chip Package wäre, sondern tatsächlich eine Konfiguration mit 2 seperaten CPUs.
Dann gebe es diesen Remote L1 Cache, weil eine Remote CPU vorhanden ist und der Arbeitspeicher umgangen wird.Außerdem kann die Kommunikation zwischen zwei oder mehreren CPUs bzgl. Latenz und Übertragungsrate signifikant besser sein als zwischen CPU und Hauptspeicher. Bei Multicore-CPUs mit jeweils eigenen Caches pro Core ist dies meist der Fall.
Edit:
Achso Quelle:
http://de.wikipedia.org/wiki/MOESI
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
@Complicated
Wie die konkreten Implementierungsdetails ausschauen, kann dir nur AMD verraten. In der Theorie ist es aber in der Tat so, dass bei einem WB-Cache zusätzlicher Aufwand notwendig ist, wenn die geschriebene Daten in Remote L1 und Remote L2 vorhanden sind. Der Remote Kern kann den Abgleich ja nicht einfach übernehmen. Der bekommt davon gar nichts mit. Das muss schon über das CCI gesteuert werden. Ein Kern selbst gleicht L1 und L2 nur ab, wenn dies die eigene Pipeline veranlasst. Und mal davon abgesehen, 120 Takte sind ja immer noch weniger als die 144-160 Takte, die für den Zugriff auf den Hauptspeicher notwendig sind.
Wie die konkreten Implementierungsdetails ausschauen, kann dir nur AMD verraten. In der Theorie ist es aber in der Tat so, dass bei einem WB-Cache zusätzlicher Aufwand notwendig ist, wenn die geschriebene Daten in Remote L1 und Remote L2 vorhanden sind. Der Remote Kern kann den Abgleich ja nicht einfach übernehmen. Der bekommt davon gar nichts mit. Das muss schon über das CCI gesteuert werden. Ein Kern selbst gleicht L1 und L2 nur ab, wenn dies die eigene Pipeline veranlasst. Und mal davon abgesehen, 120 Takte sind ja immer noch weniger als die 144-160 Takte, die für den Zugriff auf den Hauptspeicher notwendig sind.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
@gruffi
Nur hat das ja AMD bisher bei Opterons in 2-4P Systemen über HT realisiert. Kann das PCIe leisten?
Nur hat das ja AMD bisher bei Opterons in 2-4P Systemen über HT realisiert. Kann das PCIe leisten?
Opteron
Redaktion
☆☆☆☆☆☆
Macht doch keinen Unterschied, das ist nur das Verbindungsmedium, mit der Speicherkohärenz ansich hats doch nichts zu tun. Egal ob man auf der Landstraße oder Autobahn nach Rom fährt, das Ziel ändert sich nicht.Das einzige wie das Sinn ergeben könnte, wäre wenn das nicht nur ein MCM Chip Package wäre, sondern tatsächlich eine Konfiguration mit 2 seperaten CPUs.
Oder meinst Du mit seperat 2 getrennte Speicherbereiche?
In dem Studentenpaper hier sind ab Seite 15 ein paar Infos zu Multi-levelcache Kohärenz:
http://www.di.unipi.it/~vannesch/SPA 2010-11/Silvia.pdf
@Locuza:Considering requests from other nodes, some, but not all, of these requests relevant to the L2 cache are also relevant to the L1 cache and must be prop-agated to it. For example, if a block is invalidated in the L2 cache, the invalidation must also be propagated to the L1 cache if the data is present in it. Inform the L1 cache of all actions that were relevant to the L2 cache is the easiest solution but in many cases it is useless. A more attractive solution is for the L2 cache to keep extra state (inclusion bit) with cache blocks; which record whether the block is also present in the L1 cache. It can then suitably lter interventions to the L1 cache at the cost of a little extra hardware and complexity.
Was meinst Du da genau? Wenn der Speicher so schnell ist, brauchst Du keinen L3. Aber lass Dich da mal nicht von der Bandbreite täuschen, das wichtige bei Cachezugriffen ist die Zugriffszeit, die Datenblöcke selbst sind ja relativ klein.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 976
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 49
- Aufrufe
- 12K
- Antworten
- 413
- Aufrufe
- 82K
- Antworten
- 26
- Aufrufe
- 7K