App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMDs "Excavator" - 4. Modul Generation Spekulation
- Ersteller Complicated
- Erstellt am
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Und da reichen dann 8 Kern Kabinis
Wohl eher nicht da selbst mit Mantel/DX12 nicht so sehr auf die HW Optimiert werden kann.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Das dachte ich mir auch schon, muss wohl auch der Auslöser für Mantle gewesen sein.Wohl eher nicht da selbst mit Mantel/DX12 nicht so sehr auf die HW Optimiert werden kann.
Nicht die API (DX) ersetzen, sondern vorhandenes mit nutzen.
OpenGL wird zur Zeit als sehr heißes Eisen spekuliert: http://www.extremetech.com/gaming/1...team-up-demonstrate-ultra-low-overhead-OpenGL
Markus Everson
Grand Admiral Special
Dass derzeit 4 Kerne ausreichen liegt einzig und allein an der vorherigen Konsolengeneration.
...weil ja bekanntlich "Spielen" die einzige Anwendung am PC ist. Schön zu sehen dass das egozentrische Weltbild so tief im Menschen verwurzelt ist.
Wo ist die Kirchentür wenn man mal seine Gegenthese dran nageln will?
Das derzeit 4 Kerne ausreichen liegt, nicht einzig und allein aber überwiegend, daran dass Spezialeinheiten der CPU so viele Aufgaben abgenommen haben. Media encoder wenns um Streaming geht, Coprozessoren fürs Rechnen, GPUs wenn es mal wirklich parallel wird.
Das AMD jederzeit einen 8 Kerner bauen kann hat es bereits bewiesen. Bleibt also noch den passenden Zeitpunkt abzuwarten an dem das Mehr an Aufwand sich auch in ein mehr an Gewinn umsetzen läßt.
Viel interessanter als vier weitere untätige Kerne wäre für mich ein funktionierender L3 Cache. Der bisherige der FX war in meinen Augen eher eine Lachnummer. (FX - Desktop, nicht zu verwechseln mit Opteron - Server wo der L3 afaik durchaus seinen Zweck erfüllt)
Night<eye>
Fleet Captain Special
- Mitglied seit
- 23.07.2006
- Beiträge
- 292
- Renomée
- 0
was war an dem L3 in zambezi und Vishera schlecht ?
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
was war an dem L3 in zambezi und Vishera schlecht ?
Der niedrige Takt.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Latenz ist nicht alles. Das wird erst dann zum Problem, wenn interne Puffer nicht ausreichend dimensioniert sind. Der Orochi L3 hat deutlich besseren Read und Copy Durchsatz als der K10 L3. Daher ist der Orochi L3 auch insgesamt besser. MMn braucht ein Desktopprozessor aber keinen L3. Sieht man ja sehr gut an den APUs. Die Chipfläche sollte man besser für ein oder zwei zusätzliche Module oder zusätzliche Shader nutzen. Davon hat man effektiv mehr.
Night<eye>
Fleet Captain Special
- Mitglied seit
- 23.07.2006
- Beiträge
- 292
- Renomée
- 0
so wie ich das sehe würde amd mit einem FX Excavator ohne igpu die chipfläche mit L3 auch bei einem 4 moduler nicht ausnutzen. chipfläche hat amd mehr als sie wirklich brauchen. (außer bei apu,s).
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Der L3 ist mMn gar nicht so entscheidend, die Architektur des I/O-Bereiches aber schon. AMD hat seit dem K8 Rev.F einen I/O-Hub, an dem Kerne, MC und L3 hängen. Der ist mit der Zeit immer komplexer geworden, z.B. separate Taktdomänen beim K10. Auch die Breite ist immer weiter gewachsen. Bei Excavator müsste man jedes Modul mit 512Bit anbinden, um AVX2 voll auszunutzen. Deswegen vermute ich, dass Kaveri, vllt. auch Carrizo, die letzte CPU sein wird, die mit dieser internen Hub-Architektur läuft. Ab einer gewissen Komplexität wäre es mit einem Ringbus, wie bei Intel, effizienter, zumal man dann sicherlich weniger Probleme mit dem Takt hätte, was bei AMDs Hub immer ein Problem war. AMD wollte beim K10 ja schon p-States für die interne NB einführen, das hat ja bis heute nicht geklappt.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@hot
du weist aber schon das AVX2 und AVX512 zweierlei sind: http://en.wikipedia.org/wiki/Advanced_Vector_Extensions
AVX2 hat erst 256Bit bekommen, von 512Bit sind wir noch ein paar Codezeilen entfernt.
du weist aber schon das AVX2 und AVX512 zweierlei sind: http://en.wikipedia.org/wiki/Advanced_Vector_Extensions
AVX2 hat erst 256Bit bekommen, von 512Bit sind wir noch ein paar Codezeilen entfernt.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Welche Chipfläche nicht ausnutzen? Die 315 mm² eines Orochi? Wer sagt denn, dass man die ausnutzen muss? 315 mm² ist für einen Mainstream Desktop Chip eigentlich zu gross. Da wäre es sinnvoller, die Chipfläche zu verkleinern, um bessere Margen zu erzielen. Propus ohne L3 hatte genügsame 170 mm² und war kaum langsamer als sein 50% grösserer Bruder Deneb mit L3.so wie ich das sehe würde amd mit einem FX Excavator ohne igpu die chipfläche mit L3 auch bei einem 4 moduler nicht ausnutzen.
War der Propus nicht auch vom Verbrauch besser? abgesehen von 1-2 Spielen die stark profitiert haben hatte ich den Propus als bessere Alternative in Erinnerung vermutlich hat man aber Angst das sich so ein Experiment nicht verkaufen lässt.
Schlagzeilen wie "Neuer Bulldozer rollt noch langsamer" oder "AMD Sparbaufahrzeug" machen es wohl unwahrscheinlich.
Schlagzeilen wie "Neuer Bulldozer rollt noch langsamer" oder "AMD Sparbaufahrzeug" machen es wohl unwahrscheinlich.
Night<eye>
Fleet Captain Special
- Mitglied seit
- 23.07.2006
- Beiträge
- 292
- Renomée
- 0
Schlagzeilen wie "Neuer Bulldozer rollt noch langsamer" oder "AMD Sparbaufahrzeug"
achja ich genieße diese Bulldozer Ära
wie wir uns in 10-20 jahren an diese lahme architektur zurück errinern werden und denken werden, "man war das damals ein flop"
obwohl ich die idee hinter der architektur super finde !
bulldozer steckt halt noch immer im anfangs stadium. Die 3te Generation ist noch lange nicht gut genug um zu zeigen, wie gut das konzept wirklich sein kann.
ich frage mich ob amd in 10 jahren noch auf eine erweiterte Bulldozer architektur setzen wird, oder ob nach BD Mark 4 schluss sein wird.
eine weiter entwicklung des Excavator ist ja noch nicht angekündigt. wobei ich mal schwer hoffe das sie nach excavator mindestens noch 3 weitere Bulldozer generationen bauen werden.
Ich finde das Konzept nicht nur innovativ sondern war in Vorfeld auch völlig überzeugt, leider gab/gibt es massig Kinderkrankheiten dazu kommt sich Hardware deutlich schneller entwickelt als Software, aber das hatten wir alles schon. Die Idee ohne L3 finde ich auch interessant aber ich hab den Verdacht man kann es nicht verkaufen.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Wieso nicht? Am Ende schauen die meisten doch eh nur auf Benchmarkergebnisse. Zumindest die, die überhaupt genauer hinschauen. Und da bringt ein L3 halt nicht so viel bei Desktops. Da kann man mehr über Takt oder Architektur rausholen. Und da der L2 bei Bulldozer schon recht üppig ausfällt, bringt L3 noch weniger als beim K10.
Weil ich den Verdacht habe das Produkt wäre negativ vorbelastet, an saubere Kernkraft glaubt doch auch keiner . Man müsste den Servermarkt mit bedienen und das würde ganz schwer und paar Enthusiasten reichen nicht.
Aber selbst wenn das klappen könnte vermute ich die AMD Strategen sehen das ähnlich wie ich. Entweder kommt nie wieder was in die Richtung oder es wird noch ein paar Jahre dauern. Gibt doch mit ARM,HSA und Mantle genug Baustellen die das knappe Kapital wollen und (mMn) interessanter sind.
E: Aber das geht dann eher Richtung Strategie und gehört in den anderen Thread kurz Gewinn&Risiko passen meiner Meinung nach nicht.
Aber selbst wenn das klappen könnte vermute ich die AMD Strategen sehen das ähnlich wie ich. Entweder kommt nie wieder was in die Richtung oder es wird noch ein paar Jahre dauern. Gibt doch mit ARM,HSA und Mantle genug Baustellen die das knappe Kapital wollen und (mMn) interessanter sind.
E: Aber das geht dann eher Richtung Strategie und gehört in den anderen Thread kurz Gewinn&Risiko passen meiner Meinung nach nicht.
Zuletzt bearbeitet:
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Markus, du bist nicht Martin Luther.
Da wir grade bei Thesen sind, welche anderen "Alltagsanwendungen" außer Spielen brauchen denn überhaupt mehr Leistung als ein zeitgemäßer Low-End-Prozessor zu leisten imstande ist?
Dass immer mehr Teile spezialisiert werden ist schon aus Sicht der Energieeffizienz mehr als logisch. Den selben Trend findet man ja auch in Smartphones etc.
Aber Hoschi_tux hätte deutlicher sagen sollen "Dass derzeit 4 Kerne zum spielen ausreichen liegt an der virherigen Konsolengeneration"
Oder anders ausgedrückt, es bestand für die Entwickler weder die Notwendigkeit, noch ein merklicher Zugewinn durch Nutzung von Parallelisierung. Also ist man als Entwickler natürlich faul und lässt das weg. - Zukünftig geht diese Strategie nicht mehr auf.
Auch Mantle und DX12 sind keine allheilmittel, aber sie lindern die Symptome. Wie das "Kind" nachher heißt spielt dabei nichtmal eine Rolle, die Quintessenz ist, dass aktuelle Grafik-APIs anscheinend massenhaft CPU-Overhead fabrizieren, obwohl es auch schlanker ginge.
Nun ist es nur eine simple Frage des (Leidens-)Drucks, inwieweit sich die Zustände ändern.
Da wir grade bei Thesen sind, welche anderen "Alltagsanwendungen" außer Spielen brauchen denn überhaupt mehr Leistung als ein zeitgemäßer Low-End-Prozessor zu leisten imstande ist?
Dass immer mehr Teile spezialisiert werden ist schon aus Sicht der Energieeffizienz mehr als logisch. Den selben Trend findet man ja auch in Smartphones etc.
Aber Hoschi_tux hätte deutlicher sagen sollen "Dass derzeit 4 Kerne zum spielen ausreichen liegt an der virherigen Konsolengeneration"
Oder anders ausgedrückt, es bestand für die Entwickler weder die Notwendigkeit, noch ein merklicher Zugewinn durch Nutzung von Parallelisierung. Also ist man als Entwickler natürlich faul und lässt das weg. - Zukünftig geht diese Strategie nicht mehr auf.
Auch Mantle und DX12 sind keine allheilmittel, aber sie lindern die Symptome. Wie das "Kind" nachher heißt spielt dabei nichtmal eine Rolle, die Quintessenz ist, dass aktuelle Grafik-APIs anscheinend massenhaft CPU-Overhead fabrizieren, obwohl es auch schlanker ginge.
Nun ist es nur eine simple Frage des (Leidens-)Drucks, inwieweit sich die Zustände ändern.
Zuletzt bearbeitet:
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Markus, du bist nicht Martin Luther.
Da wir grade bei Thesen sind, welche anderen "Alltagsanwendungen" außer Spielen brauchen denn überhaupt mehr Leistung als ein zeitgemäßer Low-End-Prozessor zu leisten imstande ist?
Du darfst nicht von Deinem "Alltag" auf den "Alltag" anderer Menschen schließen (gerade in Hardware-Foren der erst Ansatz um Missverständnisse zu erzeugen). In meinen Alltag brauche ich teilweise (viel) mehr Leistung weil ich tatsächlich häufig mit meinem PC arbeite.
Das kommt sehr auf die Anwendung an, insbesondere wie gut sie sich parallelisieren lässt. Mehrkernprozessoren abseits von Servern arbeiten in der Regel an nur einer Aufgabe, die auf x Threads verteilt wird. Je höher die Kernzahl, desto größer ist bei einigen Anwendungen der Kommunikationsbedarf zwischen den Threads. Um schnell zu kommunizieren ist es besser, wenn die Zwischendaten über den L3 anstatt über den RAM ausgetauscht werden. Das hängt aber sehr von der Anwendung ab.MMn braucht ein Desktopprozessor aber keinen L3. Sieht man ja sehr gut an den APUs. Die Chipfläche sollte man besser für ein oder zwei zusätzliche Module oder zusätzliche Shader nutzen. Davon hat man effektiv mehr.
Man kann nicht sagen, Desktop-Rechner brauchen generell keinen L3-Cache. Man hätte vielleicht nur den L2-Cache nicht so monstermäßig und etwas schneller auslegen können.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Die Kommunikation der Kerne ist für typische Client Tasks aber nahezu vernachlässigbar. Eben weil nur relativ wenige Lastthreads zur gleichen Zeit laufen. Da bringt selbst ein geringes Taktupdate meist mehr als L3. Bei Servern mag das sicherlich anders ausschauen. Zudem ist der L2 in Bulldozer ja bereits shared. Also zwei Threads können bereits darüber Daten austauschen. Und Jaguar zeigt, dass man den L2 bei Bedarf sogar auf 4 Threads erweitern könnte. MMn ist L3 einfach verschwendete Chipfläche bei Client Prozessoren, wenn bereits ein üppiger L2 vorhanden ist. Entweder darauf verzichten, um die Herstellungskosten zu senken. Oder eben für zusätzliche Kerne oder Shader nutzen. In Zukunft wird die Rolle des L3 bzw LLC bei AMD sowieso Stacked Memory übernehmen.
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.294
- Renomée
- 1.423
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.4355 / Server 20348.2402
- Webbrowser
- Edge 124.0.2478.51
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Naja eigentlich sollte Stacked Memory als L4-Cache dienen ?!?
Opteron
Redaktion
☆☆☆☆☆☆
Naja eigentlich sollte Stacked Memory als L4-Cache dienen ?!?
Bei AMDs Latenzen kann er auch als L3 herhalten Der L3 hat(te) bei AMD ja auch nen eigenen (niedrigeren) Takt.
L3 verbrät viel Fläche, die will man in der APU - Zukunft sicherlich für GPU-Shader nutzen.
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.294
- Renomée
- 1.423
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.4355 / Server 20348.2402
- Webbrowser
- Edge 124.0.2478.51
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Ich bezog mich nicht auf APUs sondern auf "richtige" Opterons (MP)
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wieso nicht den GDRR5 der GPU nutzen? HT-Link und Speicheranbindung sind doch Bidirektional.
Das sollte doch wie ein großer "Ringbus" agieren können.
http://www.extremetech.com/extreme/...tically-improve-performance-power-consumption
Das sollte doch wie ein großer "Ringbus" agieren können.
http://www.extremetech.com/extreme/...tically-improve-performance-power-consumption
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Interessante Forschungsstudie. Aber bis sowas serienreif ist, können locker erst mal 5-10 Jahre vergehen. Und ob in der Praxis das übrig bleibt, was die Theorie hergibt bzw durch Simulationen berechnet wird, ist auch ungewiss.
Ähnliche Themen
- Antworten
- 1
- Aufrufe
- 307
- Antworten
- 2
- Aufrufe
- 263
- Antworten
- 0
- Aufrufe
- 565
- Antworten
- 0
- Aufrufe
- 889
- Antworten
- 0
- Aufrufe
- 236