Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Ich vermute dass es der gleiche ist. Sonst würde man es 2017 zeitlich kaum schaffen.
 
@Onkel_dithmeyer : Wenn alles für Interposer ausgelegt ist, könnte man auch den Speichercontroller und Chipsatz auf einem seperatem Chip fertigen, eventuell sogar in günstigen 40nm oder 28nm.
Ist halt eine reine Kostenfrage, ob viele kleine Chips mit hohem Yield günstiger sind wie mehrere monolitische Chips.

--- Update ---

Wenns der gleiche ist, müssten die CPUs auch mit Interposer kommen.
 
@Onkel_dithmeyer : Wenn alles für Interposer ausgelegt ist, könnte man auch den Speichercontroller und Chipsatz auf einem seperatem Chip fertigen

Kostensparend wäre es allemal, aber dagegen steht die damit gestiegene Leitungslänge und Latenz, gerade zum Speichercontroller.
 
ZEN + GPU auf Interposer wurde für 2017 als APU angekündigt, wenn ich nicht irre.
Meine Frage ist: Ist das das der gleiche Chip wie auf den CPUs oder wird es mehrere verschiedene geben?

Aus Kostengründen wäre es vermutlich schlau die normale CPU mit einer normalen GPU auf einem Interposer als APU zu verkaufen. Dadurch wird zwar das eigentliche Produkt ein paar Prozent teurer, aber es spart die komplette Entwicklung eines eigenen Kombi-Chips.
 
Das hatten wir ja schon länger so spekuliert. Auch Multisource funktioniert dann leichter und man kann die passenden Prozesse für die verschiedenen Chips verwenden.

Eine ähnliche Zielrichtung sieht man z.B. bei Marcells MoChi

Dann wäre Semicustom ein Kinderspiel, v.a. wenn noch HSA von allen Teilen unterstützt wird. Auch dazu passend: Neue HSA Hardware
 
Aus Kostengründen wäre es vermutlich schlau die normale CPU mit einer normalen GPU auf einem Interposer als APU zu verkaufen. Dadurch wird zwar das eigentliche Produkt ein paar Prozent teurer, aber es spart die komplette Entwicklung eines eigenen Kombi-Chips.

Ja, außerdem kann man dann auch CPUs untereinander verschalten und Opterons mit ~32Kernen auf den Markt bringen.

Bei den K10 gabs auf dem Die auch immer 3-4 Hypertransportanschlüsse. Brauchte man nicht im Desktop,aber soviel machte das nicht aus.

--- Update ---

Dann wäre Semicustom ein Kinderspiel, v.a. wenn noch HSA von allen Teilen unterstützt wird. Auch dazu passend: Neue HSA Hardware
HSA mit MIPS und PowerVR ... schon witzig ;)
 
ZEN soll als CPU Desktop (4,6,8 Kerne 2 Kanal DDR4 ), für Server (16 Kerne 4Kanal DDR4) und für APU (4,8 Kerne + GPU + HBM + 2Kanal DDR4?) erscheinen.
IIRC war bei APUs bisher nur von maximal 4 Kernen die Rede. Kann in Zukunft mit kleineren Fertigungsstrukturen aber sicherlich auch mehr werden.
 
IIRC war bei APUs bisher nur von maximal 4 Kernen die Rede. Kann in Zukunft mit kleineren Fertigungsstrukturen aber sicherlich auch mehr werden.

Ja, aber bei 14nm sollten 4 Zen Kerne schon reichen. Das wäre schließlich noch zuzüglich SMT. Ggü den 4 Kernen von 2 BD-Modulen der bisherigen APUs wäre das schon ne Steigerung.
 
Gegen eine Deskop-GPU auf dem
Interposer spräche für mich der dann
überflüssige Speichercontroller.
 
Welcher überflüssige Speichercontroller?
Meine aktuelle Vorstellung Betreffs ZEN APU ist dahingehend, dass die GPU mit HBM versorgt wird und die CPU noch über 2 DDR 4 Channels verfügt.
Fiji sollte mit 14/16nm halb so groß ausfallen, da wär noch Platz für die CPU auf dem Interposer.
Dürfte dann aber immer noch 100W für die GPU alleine benötigen (Nano ca. 180W, im neuem Prozess dann etwa 100W.
Da denke ich mehr an einen halben Fiji mit ca. 50 Watt TDP, ca. R-380 X Leistung, 4GB HBM und 4/8 ZEN Kernen. Dürfte Flotter sein als aktuelle Konsolen.
Wäre eine nette APU.

Ich denke auch, dass ab Radeon 470 Interposer verwendet werden, somit die größeren GPUs eh nur noch für Interposer entwickelt werden.
 
Ja gut, wenn HBM nur für die
GPU da sein sollte. Mir würden
schon 1024 Shader und 2 GB
für nicht ganz taufrische Spiele
reichen.
 
Ach so meintest du das, dass die CPU vom HBM mitversorgt wird und dann die Speicherkontroller der CPU brachliegen.
Das wäre die Laptopvariante, 4/8GB HBM 2/4 Kerne, kleine GPU (1024+ Shader), eventuell noch mit 128/256GB SSD. Wäre dann der Chip für Mobilgeräte bei denen eh nie einer den Speicher erweitert, weil es sowieso nicht geht.
 
Wenn man das aktuelle Gerücht über angeblich (für AMD) knappe HBM Ressourcen bedenkt...

Aber mal eine andere, dumme Frage: Bis jetzt weiß man nur von 3 FinFet Tape-outs. Wie sollen die die nächste Grafikkarten Generation (welche doch mindestens aus 3 versch. Dies besteht) und wenigstens einen ZEN CPU Die abdecken können?
Setzt man etwa wieder auf teilweises rebranding?
 
Es soll wohl drei Arctic Islands geben, Greenland, Baffin und Ellesmere, für das erste Release denke ich mal auf zwei davon beschränkt, jeweils mit Pro und XT Variante. Prinzipiell würde ein CPU-Die mit z.B. 4 Kernen ausreichen, der Rest kann dann per 2.5d Stacking und Selektion erledigt werden. Das würde für eine komplette Reihe an CPU/GPU/APU-Produkten reichen.
 
Wahrscheinlich wird es einen 8-Kerner mit L3 und einen 4-Kerne mit oder ohne L3 geben - zudem wird man dann den 4-Kerner auf Raven Ridge einfach mit Ellesmere zusammen mit HBM2 auf einen Interposer platzieren.
Sind dann insgesamt 5 14nm Dies: Die 3 Arctic-Chips einen nativen 4-Kerner und einen nativen 8-Kerner.
Im Serversegment könnte man dann 2 Summit Ridge auf einen Interposer kleben. Längerfristig dürfte man noch an einer big-Chip-GPU arbeiten.
 
Zuletzt bearbeitet:
Wahrscheinlich wird es einen 8-Kerner mit L3 und einen 4-Kerne mit oder ohne L3 geben

Hätte früher Sinn gehabt. Durch den Interposer verändert sich das alles etwas. Warum nicht einen 4 Kerner mit single Channel DDR4 und L3?
Klebt man 2 davon für Summit Ridge auf einen Interposer und 4/6/8 Stück für den Serverchip.
Raven Ridge bekommt einen + GPU + HBM für günstige single Channel Systeme.
Für ganz billige Systeme gibt es dann einen Teildefekten 2Kerner + teildefekter GPU + HBM ohne DDR4 Speicherinterface.

Oder gar NB+SB+Speicherinterface und L3 Cache auf einen extra Chip?
Der Interposer erlaubt neue Varianten.
Vielleicht auch 2 GPU auf einen Interposer anstatt einen BigChip? Für VR vielleicht nicht ganz so unsinnig.

Wären 3 Chips in 14/16nm + SB/NB/MC.. in 40 oder 28nm um alle xPU Varianten abzudecken.
 
Zuletzt bearbeitet:
HBM auf CPU-Produkten halte ich derzeit für suboptimal.

HBM-RAM funktioniert nur deswegen so gut, weil das Interface extrem breit ist - aber der Preis dafür ist extrem geringe Taktfrequenz (HBM1 derzeit max 500 MHz).

Geringer Takt (-> hohe Latenzeit), eher serielle Abarbeitung der CPU-Tasks (gegenüber massiv parallelen Tasks bei GPUs), sprechen GEGEN HBM.
Intel bevorzugt da Hybrid Memory Cube von Systempartner Micron.

Man muss abwarten wie "günstg" AMDs APUs werden, wenn tatsächlich einzelne Module wie CPU-, GPU, L3-Cache, HBM-RAM auf einem Interposer "zusammengeklatscht werden. Noch bin ich nicht davon überzeugt, dass da auch 50 US$-Produkte demnächst (2016/2017) in der Produkt-Pipeline des Athlon-Erfinders vorbereitet werden.

Für den Servermarkt halte ich hingegen schon jetzt CPU/GPU/APU-Produkte mit HBM/HMC für interessant, weil bei entsprechender Rechenpower und gedeckeltem Strombedarf ein Markt da ist.

MFG Bobo (2015)
 
Zuletzt bearbeitet:
Geringer Takt (-> hohe Latenzeit), eher serielle Abarbeitung der CPU-Tasks (gegenüber massiv parallelen Tasks bei GPUs), sprechen GEGEN HBM.
Intel bevorzugt da Hybrid Memory Cube von Systempartner Micron.
Ich denke nicht, dass dies technisch korrekt ist. Zumal mir nicht klar ist ob du meinst HBM hätte höhere Latenz als HMC oder höher als derzeitiger DDR?
HBM hat auf jeden Fall kürzere Latenzen als DDR trotz niedrigerdem Takt.
http://www.extremetech.com/computin...-between-wide-io-hbm-and-hybrid-memory-cube/2
Many of the new standards explicitly allow for multi-threading and simultaneous accesses to different banks of memory which could drastically cut latency on common operations.
Das ist mit HBM auch der Fall.
http://www.xilinx.com/support/documentation/white_papers/wp456-DDR-serial-mem.pdf
On the engineering design side,of course, HBM latency would be extremely low because the die resides inside the package with the user device
Und für den Consumer Bereich halte ich eine JEDEC-Ratifizierung für zwingend. Intel scheint dies für HMC noch nicht vor zu haben. HBM ist schon JEDEC-Standard.

--- Update ---

Man muss abwarten wie "günstg" AMDs APUs werden, wenn tatsächlich einzelne Module wie CPU-, GPU, L3-Cache, HBM-RAM auf einem Interposer "zusammengeklatscht werden. Noch bin ich nicht davon überzeugt, dass da auch 50 US$-Produkte demnächst (2016/2017) in der Produkt-Pipeline des Athlon-Erfinders vorbereitet werden.
Ich sehe keine Grund HBM im 50$ Bereich zu benötigen. Da gibt es einen Preisbereich zwischen 100$ und 300$ der mit HBM besser bedient ist. Die kleinen Lowend Produkte werden irgendwann folgen. Zumal man den Speicherpreis auch mit rein rechnen sollte der ja ansonsten separat dazu kommt für die Plattform.
 
Ich schließe mich hier Complicated an, die 500MHz sehen auf dem Papier nur schlecht aus gegen die "3,6GHz" von DDR4, intern arbeitet aber in beiden nur DRAM:
211-640x634.jpg

http://www.extremetech.com/extreme/...g-ddr4-to-3200mhz-improve-overall-performance

Bzw. auch hier die Latenzen von DDR3 und GDDR5 vs HBM. DDR4 besitzt laut Datenblat auch eine tRC von 40-48ns (skhynix DDR4 Datasheet)
500x1000px-LL-bc204dd3_Hynix-HBM-15-635x490.jpeg


Code besteht In der Regel auch nicht nur aus Sprüngen, da wird einiges sequenziell abgearbeitet, es dürften sich die 1024bit Zugriffe also auch nicht als schlecht erweisen.

Ein weiterer Vorteil von HBM könnte auch sein, dass der gesamte Speicher nicht mehr auf einmal refreshed werden muss, sondern dies blockweise geschehen kann. Wenn sowieso immer andere Threads an anderen Adressen und vermutlich auch Blöcken ausgeführt wird. Ich muss aber zugeben, dass ich nicht weiß, ob DDR4 das auch beherrscht.
 
HBM-RAM funktioniert nur deswegen so gut, weil das Interface extrem breit ist - aber der Preis dafür ist extrem geringe Taktfrequenz (HBM1 derzeit max 500 MHz).

Geringer Takt (-> hohe Latenzeit), eher serielle Abarbeitung der CPU-Tasks (gegenüber massiv parallelen Tasks bei GPUs), sprechen GEGEN HBM.

MFG Bobo (2015)

2 mal Fail.
Der Takt ist so niedrig damit sparsamer gearbeitet werden kann. Durch das breite Interface ergibt sich dennoch eine hohe Bandbreite. Bei HBM ist es möglich mit einem breitem Inteface zu arbeiten, bei "normalem" Ram ist es kaum machbar soviele Leitungen auf dem Board zu verlegen.

Die Latenz, Zugriffszeit bis das erste Byte eintrudelt, ist bei HBM genau so hoch wie bei DDR/2/3. Nicht umsonst werden die Latency Zeiten mit zunehmender Taktfrequenz beim Ram immer größer. Sind intern alles die selben RAM Strukturen.

Zur seriellen Abarbeitung mußte ich auch schmunzeln. Das war einmal. Aktuelle Prozessoren adressieren den Speicher nur noch bei abgeschalteten Caches Byteweise.
Ein Cache pfeift sich immer eine ganze Cacheline rein oder raus, auch wenns nur ein Byte betrifft.
Bei Cachelinegrößen von 64 oder 128Byte sind bei DDR 4 bzw. 8 Takte nötig, bis die Cacheline gefüllt ist. Bei HBM eben nur einen Takt für die 128 Byte.

Durch die Caches eignet sich HBM genauso gut für CPUs wie für GPUs.
 
@amdfanuwe

schau mal " ... HBM-RAM funktioniert nur deswegen so gut, weil das Interface extrem breit ist - aber der Preis dafür ist extrem geringe Taktfrequenz ... " -> ich sehe da keinen Widerspruch.
Geringerer Takt = potenziell weniger Interferenzen (was durch mehr Leitungen wieder aufgefressen wird) und potenziell geringere Betriebsspannung.

schau mal " ... eher serielle Abarbeitung der CPU-Tasks (gegenüber massiv parallele ... " -> das ist keine absolute Aussage, sondern eine abschwächende.

MFG Bobo(2015)
 
Der Preis dafür ist nicht die geringe Taktfrequenz. Bei HBM 2 gehts ja wieder auf 1GHz. Du solltest nach dem Designziel fragen: Hohe Bandbreite bei geringem Verbrauch.
Bandbreite = Frequenz X Bits, Verbrauch proportional zur Frequenz. Bei Grafikkarten sieht man ja auch, dass bei entsprechendem Aufwand 512 Bit Speicherinterfaces auch mit hoher Frequenz gehen und Quad Channel DDR sind auch nicht grad wenig Leitungen.
Ein großer Vorteil von HBM betrifft auch die Bustreiber. Da diese nur kurze Wege über Interposer treiben müssen, können diese sowohl im HBM als auch auf der GPU entsprechend stromsparender ausgelegt werden.

...eher serielle Abarbeitung trifft es auch nicht ganz, vielleicht eher wahlfreie Speicherzugriffe (Random Access Memory) ;) man weiß halt nie so richtig, welches Byte als nächstes angefordert wird.

Es bleibt aber dabei, dass HBM gleiche bzw. verbesserte Zugriffszeiten hat und eine Cacheline genauso schnell oder schneller füllt wie herkömmlicher Ram auf dem Board und dabei Energiesparender arbeitet. Erkauft wird sich das ganze dadurch, dass man einen Interposer verwenden muß.
 
Ich sehe keine Grund HBM im 50$ Bereich zu benötigen. Da gibt es einen Preisbereich zwischen 100$ und 300$ der mit HBM besser bedient ist. Die kleinen Lowend Produkte werden irgendwann folgen. Zumal man den Speicherpreis auch mit rein rechnen sollte der ja ansonsten separat dazu kommt für die Plattform.

Letztendlich ist das eine Kostenabwägung: Wieviel kostet HBM incl. Interposer und dem Zusammenbau gegenüber externen RAM und der entsprechenden Platinenfläche und Platinenlagen?

BTW: Wieviele Platinenlagen haben die HBM Grakas gegenüber Grakas mit normalen RAM?
 
AMD scheint endlich mal Nägel mit Köpfen zu machen und was bis zum Ende durchzuziehen. Die Furys haben sie schon mit VR Gaming beworben, nun legen sie nach.

Jetzt muss sich nur noch VR Gaming durchsetzen *buck*

Mir scheint, dass AMD unter Su endlich mal klare Wege einschlägt und weniger auf zig Hochzeiten zugleich tanzen will. Hoffe, das schlägt sich demnächst auch in den Bilanzen nieder.
 
Zurück
Oben Unten