AMDs "Excavator" - 4. Modul Generation Spekulation

Dass derzeit 4 Kerne ausreichen liegt einzig und allein an der vorherigen Konsolengeneration.

...weil ja bekanntlich "Spielen" die einzige Anwendung am PC ist. Schön zu sehen dass das egozentrische Weltbild so tief im Menschen verwurzelt ist.

Wo ist die Kirchentür wenn man mal seine Gegenthese dran nageln will?

Das derzeit 4 Kerne ausreichen liegt, nicht einzig und allein aber überwiegend, daran dass Spezialeinheiten der CPU so viele Aufgaben abgenommen haben. Media encoder wenns um Streaming geht, Coprozessoren fürs Rechnen, GPUs wenn es mal wirklich parallel wird.

Das AMD jederzeit einen 8 Kerner bauen kann hat es bereits bewiesen. Bleibt also noch den passenden Zeitpunkt abzuwarten an dem das Mehr an Aufwand sich auch in ein mehr an Gewinn umsetzen läßt.

Viel interessanter als vier weitere untätige Kerne wäre für mich ein funktionierender L3 Cache. Der bisherige der FX war in meinen Augen eher eine Lachnummer. (FX - Desktop, nicht zu verwechseln mit Opteron - Server wo der L3 afaik durchaus seinen Zweck erfüllt)
 
Selbst im Vergleich zum K10 hatte der L3-Cache vom Zambezi (älter)/Vishera (neuer) schlechtere Latenzen (1,2, [...]) ... vom Vergleich zu Intel-Konkurrenten wollen wir lieber erst gar nicht sprechen!

MFG Bobo(2014)
 
Zuletzt bearbeitet:
Latenz ist nicht alles. Das wird erst dann zum Problem, wenn interne Puffer nicht ausreichend dimensioniert sind. Der Orochi L3 hat deutlich besseren Read und Copy Durchsatz als der K10 L3. Daher ist der Orochi L3 auch insgesamt besser. MMn braucht ein Desktopprozessor aber keinen L3. Sieht man ja sehr gut an den APUs. Die Chipfläche sollte man besser für ein oder zwei zusätzliche Module oder zusätzliche Shader nutzen. Davon hat man effektiv mehr.
 
so wie ich das sehe würde amd mit einem FX Excavator ohne igpu die chipfläche mit L3 auch bei einem 4 moduler nicht ausnutzen. chipfläche hat amd mehr als sie wirklich brauchen. (außer bei apu,s).
 
Der L3 ist mMn gar nicht so entscheidend, die Architektur des I/O-Bereiches aber schon. AMD hat seit dem K8 Rev.F einen I/O-Hub, an dem Kerne, MC und L3 hängen. Der ist mit der Zeit immer komplexer geworden, z.B. separate Taktdomänen beim K10. Auch die Breite ist immer weiter gewachsen. Bei Excavator müsste man jedes Modul mit 512Bit anbinden, um AVX2 voll auszunutzen. Deswegen vermute ich, dass Kaveri, vllt. auch Carrizo, die letzte CPU sein wird, die mit dieser internen Hub-Architektur läuft. Ab einer gewissen Komplexität wäre es mit einem Ringbus, wie bei Intel, effizienter, zumal man dann sicherlich weniger Probleme mit dem Takt hätte, was bei AMDs Hub immer ein Problem war. AMD wollte beim K10 ja schon p-States für die interne NB einführen, das hat ja bis heute nicht geklappt.
 
so wie ich das sehe würde amd mit einem FX Excavator ohne igpu die chipfläche mit L3 auch bei einem 4 moduler nicht ausnutzen.
Welche Chipfläche nicht ausnutzen? Die 315 mm² eines Orochi? Wer sagt denn, dass man die ausnutzen muss? 315 mm² ist für einen Mainstream Desktop Chip eigentlich zu gross. Da wäre es sinnvoller, die Chipfläche zu verkleinern, um bessere Margen zu erzielen. Propus ohne L3 hatte genügsame 170 mm² und war kaum langsamer als sein 50% grösserer Bruder Deneb mit L3.
 
War der Propus nicht auch vom Verbrauch besser? abgesehen von 1-2 Spielen die stark profitiert haben hatte ich den Propus als bessere Alternative in Erinnerung vermutlich hat man aber Angst das sich so ein Experiment nicht verkaufen lässt.
Schlagzeilen wie "Neuer Bulldozer rollt noch langsamer" oder "AMD Sparbaufahrzeug" machen es wohl unwahrscheinlich.
 
Schlagzeilen wie "Neuer Bulldozer rollt noch langsamer" oder "AMD Sparbaufahrzeug"

achja ich genieße diese Bulldozer Ära :D

wie wir uns in 10-20 jahren an diese lahme architektur zurück errinern werden und denken werden, "man war das damals ein flop" :D

obwohl ich die idee hinter der architektur super finde !

bulldozer steckt halt noch immer im anfangs stadium. Die 3te Generation ist noch lange nicht gut genug um zu zeigen, wie gut das konzept wirklich sein kann.

ich frage mich ob amd in 10 jahren noch auf eine erweiterte Bulldozer architektur setzen wird, oder ob nach BD Mark 4 schluss sein wird.

eine weiter entwicklung des Excavator ist ja noch nicht angekündigt. wobei ich mal schwer hoffe das sie nach excavator mindestens noch 3 weitere Bulldozer generationen bauen werden.
 
Ich finde das Konzept nicht nur innovativ sondern war in Vorfeld auch völlig überzeugt, leider gab/gibt es massig Kinderkrankheiten dazu kommt sich Hardware deutlich schneller entwickelt als Software, aber das hatten wir alles schon. Die Idee ohne L3 finde ich auch interessant aber ich hab den Verdacht man kann es nicht verkaufen.
 
Wieso nicht? Am Ende schauen die meisten doch eh nur auf Benchmarkergebnisse. Zumindest die, die überhaupt genauer hinschauen. Und da bringt ein L3 halt nicht so viel bei Desktops. Da kann man mehr über Takt oder Architektur rausholen. Und da der L2 bei Bulldozer schon recht üppig ausfällt, bringt L3 noch weniger als beim K10.
 
Weil ich den Verdacht habe das Produkt wäre negativ vorbelastet, an saubere Kernkraft glaubt doch auch keiner ;-) . Man müsste den Servermarkt mit bedienen und das würde ganz schwer und paar Enthusiasten reichen nicht.

Aber selbst wenn das klappen könnte vermute ich die AMD Strategen sehen das ähnlich wie ich. Entweder kommt nie wieder was in die Richtung oder es wird noch ein paar Jahre dauern. Gibt doch mit ARM,HSA und Mantle genug Baustellen die das knappe Kapital wollen und (mMn) interessanter sind.

E: Aber das geht dann eher Richtung Strategie und gehört in den anderen Thread kurz Gewinn&Risiko passen meiner Meinung nach nicht.
 
Zuletzt bearbeitet:
Markus, du bist nicht Martin Luther.
Da wir grade bei Thesen sind, welche anderen "Alltagsanwendungen" außer Spielen brauchen denn überhaupt mehr Leistung als ein zeitgemäßer Low-End-Prozessor zu leisten imstande ist?

Dass immer mehr Teile spezialisiert werden ist schon aus Sicht der Energieeffizienz mehr als logisch. Den selben Trend findet man ja auch in Smartphones etc.

Aber Hoschi_tux hätte deutlicher sagen sollen "Dass derzeit 4 Kerne zum spielen ausreichen liegt an der virherigen Konsolengeneration"
Oder anders ausgedrückt, es bestand für die Entwickler weder die Notwendigkeit, noch ein merklicher Zugewinn durch Nutzung von Parallelisierung. Also ist man als Entwickler natürlich faul und lässt das weg. - Zukünftig geht diese Strategie nicht mehr auf.
Auch Mantle und DX12 sind keine allheilmittel, aber sie lindern die Symptome. Wie das "Kind" nachher heißt spielt dabei nichtmal eine Rolle, die Quintessenz ist, dass aktuelle Grafik-APIs anscheinend massenhaft CPU-Overhead fabrizieren, obwohl es auch schlanker ginge.
Nun ist es nur eine simple Frage des (Leidens-)Drucks, inwieweit sich die Zustände ändern. *noahnung*
 
Zuletzt bearbeitet:
Markus, du bist nicht Martin Luther.
Da wir grade bei Thesen sind, welche anderen "Alltagsanwendungen" außer Spielen brauchen denn überhaupt mehr Leistung als ein zeitgemäßer Low-End-Prozessor zu leisten imstande ist?

Du darfst nicht von Deinem "Alltag" auf den "Alltag" anderer Menschen schließen (gerade in Hardware-Foren der erst Ansatz um Missverständnisse zu erzeugen). In meinen Alltag brauche ich teilweise (viel) mehr Leistung weil ich tatsächlich häufig mit meinem PC arbeite.
 
MMn braucht ein Desktopprozessor aber keinen L3. Sieht man ja sehr gut an den APUs. Die Chipfläche sollte man besser für ein oder zwei zusätzliche Module oder zusätzliche Shader nutzen. Davon hat man effektiv mehr.
Das kommt sehr auf die Anwendung an, insbesondere wie gut sie sich parallelisieren lässt. Mehrkernprozessoren abseits von Servern arbeiten in der Regel an nur einer Aufgabe, die auf x Threads verteilt wird. Je höher die Kernzahl, desto größer ist bei einigen Anwendungen der Kommunikationsbedarf zwischen den Threads. Um schnell zu kommunizieren ist es besser, wenn die Zwischendaten über den L3 anstatt über den RAM ausgetauscht werden. Das hängt aber sehr von der Anwendung ab.
Man kann nicht sagen, Desktop-Rechner brauchen generell keinen L3-Cache. Man hätte vielleicht nur den L2-Cache nicht so monstermäßig und etwas schneller auslegen können.
 
Die Kommunikation der Kerne ist für typische Client Tasks aber nahezu vernachlässigbar. Eben weil nur relativ wenige Lastthreads zur gleichen Zeit laufen. Da bringt selbst ein geringes Taktupdate meist mehr als L3. Bei Servern mag das sicherlich anders ausschauen. Zudem ist der L2 in Bulldozer ja bereits shared. Also zwei Threads können bereits darüber Daten austauschen. Und Jaguar zeigt, dass man den L2 bei Bedarf sogar auf 4 Threads erweitern könnte. MMn ist L3 einfach verschwendete Chipfläche bei Client Prozessoren, wenn bereits ein üppiger L2 vorhanden ist. Entweder darauf verzichten, um die Herstellungskosten zu senken. Oder eben für zusätzliche Kerne oder Shader nutzen. In Zukunft wird die Rolle des L3 bzw LLC bei AMD sowieso Stacked Memory übernehmen.
 
Naja eigentlich sollte Stacked Memory als L4-Cache dienen ?!?
 
Naja eigentlich sollte Stacked Memory als L4-Cache dienen ?!?

Bei AMDs Latenzen kann er auch als L3 herhalten ;) Der L3 hat(te) bei AMD ja auch nen eigenen (niedrigeren) Takt.

L3 verbrät viel Fläche, die will man in der APU - Zukunft sicherlich für GPU-Shader nutzen.
 
Ich bezog mich nicht auf APUs sondern auf "richtige" Opterons (MP)
 
Interessante Forschungsstudie. Aber bis sowas serienreif ist, können locker erst mal 5-10 Jahre vergehen. Und ob in der Praxis das übrig bleibt, was die Theorie hergibt bzw durch Simulationen berechnet wird, ist auch ungewiss.
 
Zurück
Oben Unten