Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Ne, das wird nicht passieren. Warum sollte man das auch machen? Das Chiplet Design funktioniert und bescheinigt AMD vermutlich eine sehr hohe Ausbeute.
Es gibt schlicht keinen Druck irgendein separates Design zu machen.

Tja, es gab ja auch spekulationen über APU oder Konsolenchips mit Chiplet. Sind trotzdem monolithisch geworden und die Konsolenchips gar nicht mal so klein.
Muß also seinen Vorteil haben gegenüber Chipletdesign.
 
Tja, es gab ja auch spekulationen über APU oder Konsolenchips mit Chiplet. Sind trotzdem monolithisch geworden und die Konsolenchips gar nicht mal so klein.
Muß also seinen Vorteil haben gegenüber Chipletdesign.
Ja hat es und zwar bessere Energieeffizienz.
Dazu kommt, dass AMD bislang im Notebookmarkt überhaupt nicht angekommen ist und daher stand man hier deutlich mehr liefern muss als am Desktop.
Am Desktop sind die Ryzen aktuell ja praktisch konkurrenzlos was Energieeffizienz, Preis/Leistung und Performance angeht, wenn man von Spezialanwendungen absieht.

Und zu guter letzt scheint das mit den Chiplets bei den GPUs nicht ganz so einfach zu sein, da die noch mehr als CPUs auf eine schnelle Datenanbindung mit geringer Latenz angewiesen sind.
Gut möglich, dass AMD mittelfristig auch APUs mit Chiplets baut, aber dafür muss wohl noch etwas mehr Entwicklung stattfinden um die Energieeffizienz zu verbessern.
Sowas wie bei Ryzen auf dem Desktop mit grob 10-12W im Idle kann man sich da einfach nicht erlauben.
 
Am Desktop sind die Ryzen aktuell ja praktisch konkurrenzlos was Energieeffizienz, Preis/Leistung und Performance angeht, wenn man von Spezialanwendungen absieht.
Und sie werden es bleiben wollen.
Ich seh es halt so:
Ein eigenständiger Chip lohnt sich erst, wenn genügend Chips produziert werden können um mindestens einen Maskensatz über die Lebensdauer auszunutzen, also ein paar Millionen Chips.
Zudem benötigt man Ressourcen um die Designs zu entwickeln.
AMD war vor ein paar Jahren arg angeschlagen und könnte es sich kaum noch leisten einen Chip zu entwickeln. Kamen nur noch APU und ein eingeschränktes GPU Portfolio.
Man konzentrierte sich auf die Entwicklung eines neuen CPU Kerns, ZEN.
Für den Serverbereich braucht es viele Kerne. Ein großer Chip hat schlechten Yield und die Absatzzahlen waren für AMD vorraussehbar gering. Wäre also verdammt teuer der Chip.
Zum Glück hatte einer die Geniale Idee mit Infinity Fabrik, die es erlaubt für Server ein MCM aufzulegen.
Jetzt kommt der Desktop ins Spiel. Etwas I/O hinzu und der Chip läßt sich auch im Desktop durch die neuen Kerne konkurrenzfähig verkaufen. Das gibt Stückzahlen. Voila, eine eierlegende Wollmilchsau namens Summit Ridge ist geboren.
Dank MCM ein Multicore für Server und als konkurrenzfähige 8C/16T CPU im Desktop werden die nötigen Stückzahlen erreicht.
Nach dem Schema weitermachen? Nein, man geht auf Chiplets um die Serverperformance zu verbessern.
Da kündigt GloFo an keine 7nm zu produzieren und das AMD auf 7nm TSMC wechseln darf ohne Konsequenzen.
AMD stoppt die aktuelle Entwicklung, bringt Pinnacle Ridge in 12nm als Lückenfüller und konzentriert sich auf 7nm.
Geniale Entscheidung: der I/O in bewährter 14/12nm Technik und nur ein "Risikochip" in 7nm. Für Desktop gibt es halt einen extra I/O Die. Reicht erstmal, ist relativ günstig, geht schnell, summa summarum ein ordentlicher Kompromiss.
Als nächstes geht es an die integration des I/O in 7nm. Ergebnis: Renoir mit bewährter VEGA GPU, sparsamen ZEN2 Kernen, und 7nm I/O.

Was kommt jetzt?
Klar, die Kerne werden mit ZEN3 verbessert. Die Chiplets braucht man weiterhin für Server. AMD hat Patente für integrierte Spannungsregulatoren auf einem extra Chip in 3D Technik und die Anbindung der Chiplets an den I/O läßt sich durch einen Bridge Chip in 3D Technik auch verbessern.

Für Desktop hingegen nicht das optimum. Wer weiß, wann die Konkurrenz wieder aufwacht. Da muß man noch eine Schippe drauflegen und billiger werden damit noch Marge übrig bleibt. Ich denke halt, die Komponenten sind vorhanden ( 7nm I/O, ZEN3 Kerne ) wodurch es kein Problem sein sollte eine günstige, schnelle, effiziente monolithische 7nm Desktop CPU aufzulegen. Billiger und schneller als ein Chiplet Design. Wie bei den GPUs mit CDNA und RDNA hätte man dann auch Spielraum für Server und Desktop entsprechend zu optimieren und muß nicht wieder nur Kompromisse schließen.
Lassen wir uns überraschen.

Chiplets für viele Kerne, monolithisch für wenige. Irgendwo gibt es ein Crossover ab welcher Chipgröße welches Design günstiger ist.

--- Update ---

Und zu guter letzt scheint das mit den Chiplets bei den GPUs nicht ganz so einfach zu sein, da die noch mehr als CPUs auf eine schnelle Datenanbindung mit geringer Latenz angewiesen sind.
Es wäre ja auch I/O mit GPU in einem Chip + einem CPU Chiplet möglich.
Anscheinend ist der Yield bei den Konsolenchips aber gut genug dass sich das nicht lohnt. Ist anscheinend billiger die paar Chips mit defekten im CPU Teil wegzuschmeißen als ein Boarddesign mit IF aufzulegen. Halt schade, dass die Konsolenchips als 6 Kern APUs keine Zweitverwendung finden.
 
Und sie werden es bleiben wollen.
Es wäre ja auch I/O mit GPU in einem Chip + einem CPU Chiplet möglich.
Anscheinend ist der Yield bei den Konsolenchips aber gut genug dass sich das nicht lohnt. Ist anscheinend billiger die paar Chips mit defekten im CPU Teil wegzuschmeißen als ein Boarddesign mit IF aufzulegen. Halt schade, dass die Konsolenchips als 6 Kern APUs keine Zweitverwendung finden.

Die Herstellung eines Chips ist teuer, da kann man defekte CPUs nicht einfach wegschmeißen. Jede CPU muss verkauft werden.
 
Erzähl das mal MS und SONY. Oder glaubst du, die haben keine Defekte?
 
Die Herstellung eines Chips ist teuer, da kann man defekte CPUs nicht einfach wegschmeißen. Jede CPU muss verkauft werden.
Wenn der Kunde es so wünscht und der Ausschuss entsprechend eingepreist werden kann bei bekanntem yield, dann kann man auch problemlos wegschmeißen.
Die Automobilindustrie hat da noch ganz andere Anforderungen. Selbst wenn der Chip am Ende voll funktionsfähig ist, darf er z.B. nicht ins Auto, sofern zwischendurch irgendwelche Unstimmigkeiten, wie z.B. rework oder leichte Parameterabweichungen stattfanden. Und auch wenn es keine Unstimmigkeiten gab, alle Chips am Anfang funktionierten und dann während der Garantiezeit systematisch ausfallen, kann das schon mal dazu führen, dass die gesamte Charge geschreddert wird, sofern noch im Lager vorhanden. Womöglich folgt dann auch noch eine Rückrufaktion für die Steuergeräte, wenn es z.B. das ABS betrifft.
 
Es wäre ja auch I/O mit GPU in einem Chip + einem CPU Chiplet möglich.
Anscheinend ist der Yield bei den Konsolenchips aber gut genug dass sich das nicht lohnt. Ist anscheinend billiger die paar Chips mit defekten im CPU Teil wegzuschmeißen als ein Boarddesign mit IF aufzulegen. Halt schade, dass die Konsolenchips als 6 Kern APUs keine Zweitverwendung finden.
Ne, bei den Konsolen ist es eher so, dass man hier halt das gleiche Design über mehrere Jahre hinweg produzieren wird (eben über die Lebensdauer der Konsole).
Da fällt das Design vermutlich nicht so stark ins Gewicht.
Abgesehen davon haben auch die Konsolen ja ein Limit bzgl. Leistungsaufnahme und ein integriertes Design hilft da auch, da die IF schon Leistung frisst.

--- Update ---

Für Desktop hingegen nicht das optimum. Wer weiß, wann die Konkurrenz wieder aufwacht. Da muß man noch eine Schippe drauflegen und billiger werden damit noch Marge übrig bleibt. Ich denke halt, die Komponenten sind vorhanden ( 7nm I/O, ZEN3 Kerne ) wodurch es kein Problem sein sollte eine günstige, schnelle, effiziente monolithische 7nm Desktop CPU aufzulegen. Billiger und schneller als ein Chiplet Design. Wie bei den GPUs mit CDNA und RDNA hätte man dann auch Spielraum für Server und Desktop entsprechend zu optimieren und muß nicht wieder nur Kompromisse schließen.
Lassen wir uns überraschen.
Klar, möglich wäre das, aber ich bezweifle es dennoch. Eher wird man ggf. den unteren Desktopbereich bis 8C einfach nicht mehr mit "echten" Desktop CPUs bedienen, sondern nur noch mit APUs, welche ja aus dem Notebookgeschäft eh anfallen werden.
Und, dass man nicht in Zukunft doch noch APUs mit Chiplets anbietet ist ja auch nicht ausgeschlossen.

Mindestens bis Zen 4 dürfte sich am Desktop nichts grundlegend verändern. Was danach kommt weiß keiner von uns.
Evtl. fangen sie dann schon mit 3D Stacking o.ä. an.
 
Bei den Konsolen handhabt man den Ausschuss, indem man genügend Redundanzen einbaut. Die werden dann zwar immer eingebaut und sind unnötig, sofern allas funktioniert. Aber dadurch erhält man genügend Yield und vernachlässigbar viel Ausschuss. Eventuell wird der dann auch auf die Halde gelegt, weil später eine Light-Version der Konsole rauskommt, für die der Ausschuss teilweise auch noch genügt.

Notebook APUs landen in der Regel nicht als Desktop Prozessoren am Markt. Das Zielfenster für die Takte ist ja ein ganz anderes, und nicht nur das.
MfG
 
Mit Renoir hätte man nun alles für eine monolithische Desktop-CPU. Statt der iGPU könnte ein zweites CCX hinhein kommen, sodass dann eine 16-Core-Zen3-CPU auch nur etwa 150sqmm messen sollte und die Zen3-APU erhält dann wieder nur ein CCX und die neue Navi-iGPU dazu...läge irgendwie recht nahe.
 
Notebook APUs landen in der Regel nicht als Desktop Prozessoren am Markt. Das Zielfenster für die Takte ist ja ein ganz anderes, und nicht nur das.
Ich bezweifle, dass man für Renoir Mobile und Renoir Desktop unterschiedliche Designs aufgelegt hat. Die hätten dann wohl auch unterschiedliche Codenamen.
Ne, das dürfte der gleiche Chip sein, nur eben mit einer höheren TDP (und damit höheren Taktraten).

--- Update ---

Mit Renoir hätte man nun alles für eine monolithische Desktop-CPU. Statt der iGPU könnte ein zweites CCX hinhein kommen, sodass dann eine 16-Core-Zen3-CPU auch nur etwa 150sqmm messen sollte und die Zen3-APU erhält dann wieder nur ein CCX und die neue Navi-iGPU dazu...läge irgendwie recht nahe.
Renoir ist für sowas nur mäßig geeignet, da nur 8 PCIe 3.0 Lanes bereitgestellt werden. Das ist für einen 16 Core Desktop einfach zu wenig.
Und wenn man schon die PCIe Lanes beschränkt, dann wird es wohl auch keine nach außen geführte IF geben.

Zukünftig wäre sowas bei neuen Designs natürlich denkbar.
Glaube trotzdem nicht, dass man eine 16C in der Form baut, wird wohl wie bislang auf 2 8C Chiplets ohne iGPU hinauslaufen, zumindest bei Zen 3.
 
Ich sehe hier ebenfalls nicht den Druck das machen zu müssen, solange das nicht in Notebooks benötigt wird. Oder besser gesagt, solange AMD sich nicht entscheidet diesen kleinen Markt bei Notebooks dem TAM zuzufügen. Möglicherweise wird das mit 5nm Fertigung ein Thema, doch das wird eher von dem Bedarf der OEMs abhängen.

Edit: Ich denke es wird auch mit der Wafer-Verfügbarkeit zusammenhängen, da ja doch mehr Fläche benötigt wird, verglichen mit Chiplets. Die Chiplet-Strategie hat um so weniger Wirkung, je mehr eigene Dies benötigt werden.
 
Bei den Konsolen handhabt man den Ausschuss, indem man genügend Redundanzen einbaut. Die werden dann zwar immer eingebaut und sind unnötig, sofern allas funktioniert. Aber dadurch erhält man genügend Yield und vernachlässigbar viel Ausschuss. Eventuell wird der dann auch auf die Halde gelegt, weil später eine Light-Version der Konsole rauskommt, für die der Ausschuss teilweise auch noch genügt.

Notebook APUs landen in der Regel nicht als Desktop Prozessoren am Markt. Das Zielfenster für die Takte ist ja ein ganz anderes, und nicht nur das.
MfG

Im GPU Teil kann man ein paar CUs als Reserve verbauen, im CPU oder I/O Teil ist das schlecht machbar bei Konsolen.
Die APUs sind aktuell noch für Mobile und Desktop gleich, nur etwas anders selektiert.
 
Notebook APUs landen in der Regel nicht als Desktop Prozessoren am Markt. Das Zielfenster für die Takte ist ja ein ganz anderes, und nicht nur das.
MfG
Beim Desktop ist das doch egal, da kann man die auch in einem anderen Zielfenster betreiben, ohne dass 2-3W zu viel auffallen würden.
 
Um das nochmal auszuführen:
In der APU der PlayStation 4 machen Kerne und Caches ca. 15% der Chipfläche aus. Die Caches sind in der Regel auch mit Redundanzen versehen. Von den 20 Compute Units der GPU sind zwei redundant ausgelegt. Der I/O Teil muss in jedem Fall funktionsfähig sein. Nachfolgeversionen, die mit teildeaktivierten Anteilen auskommen, hat es nicht gegeben. Im Gegenteil wurden die Nachfolgemodelle technisch verbessert.
MfG
 
Um das nochmal auszuführen:
In der APU der PlayStation 4 machen Kerne und Caches ca. 15% der Chipfläche aus. Die Caches sind in der Regel auch mit Redundanzen versehen. Von den 20 Compute Units der GPU sind zwei redundant ausgelegt. Der I/O Teil muss in jedem Fall funktionsfähig sein. Nachfolgeversionen, die mit teildeaktivierten Anteilen auskommen, hat es nicht gegeben. Im Gegenteil wurden die Nachfolgemodelle technisch verbessert.
MfG

In allen Chips ( CPUs, GPUs, ...) sind Redundanzen vorhanden. Anders könnte man diese gar nicht effizient herstellen, die Anzahl guter Dies läge bei weit unter 30%. Selbst in DRam-Chips sind haufenweise Redundanzen vorhanden.
 
Ein gut abgehangener Prozess schafft unter 10 Fehler auf dem Wafer. Wenn die Chips klein genug sind, hat man damit locker 99% yield und kann sich Redundanzen sparen. Gerade bei Logik-Chips kann ich mir nicht vorstellen, dass da viel Redundanz drin ist. Caches vielleicht noch. Aber alles kann man eh nicht abdecken, das würde den Chip nur unnötig vergrößern und damit noch fehleranfälliger machen.
 
Wer braucht die neuen 4-Core 3100 und 3300X?
Jemand, der die 24 PCie Lanes vs. 16 braucht und gern PCIe 4.0 hätte.
Zum Beispiel für einen (Headless) Fileserver...

--- Update ---

Mit Renoir hätte man nun alles für eine monolithische Desktop-CPU.
Ja und nur 16 Lanes max, 8 für die GPU.
Und ob Renoir PCIe 4.0 kann ist auch noch unbekannt. Möglich, dass das gar nicht drin ist und auch Renoir nur PCIe 3.0 beherrscht - aber dafür ists ja auch sparsamer.
Das ist, was gerne ausgeblendet wird, die Anzahl der PCIe Lanes und die Unterschiede beim I/O zwischen APUs und CPUs.
 
Ich würde postulieren, dass kein APU-NUtzer aktuell oder in naher Zukunft PCIe 4.0 benötigt. Natürlich werden sich dann 5 Leute hier und 15 Leute dort melden, dass es exotische Anwendungsgebiete geben könnte, die eventuell, aber nicht von ihnen selbst, davon profitieren könnten...

Anyway. PCIe 4.0 ist ein Marketing Feature was AMD gerne nutzt. Es bringt den meisten Nutzern wenig, aber das zählt da nicht, solange es ausreichend viele Leute als wichtig erachten.

Seitennote: 3DFX hat verloren, weil es keine 32-bit darstellen konnte und als sie es konnten, war es längst völlig normal. Sehen konnte man das Feature auf den üblichen 17" Röhren Monitoren selten.

So hat auch 64-bit AMD die ersten 5 Jahre nichts genützt, so ist Raytracing im Moment weitestgehend nutzlos. Aber wir Freaks steigern uns halt gerne in jedes noch so nutzlose Zahlengedöns rein und zahlen lächerliche Aufpreise für ein paar FPS o.ä. mehr...

Cheers
 
Ich würde postulieren, dass kein APU-NUtzer aktuell oder in naher Zukunft PCIe 4.0 benötigt.
Das nicht zwangsläufig, aber die zusätzlichen 8 Lanes für PCIe sind schon sehr nützlich...

Anyway. PCIe 4.0 ist ein Marketing Feature was AMD gerne nutzt. Es bringt den meisten Nutzern wenig, aber das zählt da nicht, solange es ausreichend viele Leute als wichtig erachten.
Nein, ist es nicht.
Dass es (noch) nicht viele Geräte gibt, die das nutzen, macht es nicht zu einem Marketing Feature. Auch dass Intel es nicht hat, macht es nicht zu einem Marketing Feature.
Eben weil es effektiv die Bandbreite verdoppelt. Und selbst wenn es nur die Bandbreite zwischen CPU und X570 Chipsatz ist, so dass du dann 2x PCIe 3.0 SSDs nutzen kannst...
Und genau DAS macht es NICHT zu einem Marketing Feature, weil es eben schon heute hier und da einen Einsatzzweck gibt!

Effektiv hast du nämlich beim X570 x8 in PCie 3.0. Praktisch sind es dennoch nur 4 Lanes (8 für Threadripper)

Und mit PCie 4.0 wären dann auch mit PCIe x1 auch S-ATA Controller mit 4 Ports möglich - die jetzt über 2 Lanes verbunden werden.

Leider sind PCIe Switches nicht mehr gebräuchlich bzw sau teuer...

Seitennote: 3DFX hat verloren, weil es keine 32-bit darstellen konnte und als sie es konnten, war es längst völlig normal. Sehen konnte man das Feature auf den üblichen 17" Röhren Monitoren selten.
Blödsinn.
3DFX hat verloren, weil sie gepennt haben und lange Zeit keine guten 2D/3D Kombi Chips gebaut haben, keine guten OEM Deals gehabt haben (das hat ATi damals den arsch gerettet!)
Und weil die "Elektronikpresse" nVidia wie blöd gehypt hat.

32bit Rendering war, bis zur V3, das geringste Problem...
 
Ich möchte Shearer beipflichten, dass PCIe4 für APUs in nächster Zeit in der Breite keine Rolle spielen wird. Allerdings sollten die SSDs innerhalb der nächsten 12 Monate für höchste Leistung auf 2-4 Kanäle PCIe4 setzen. Neben der höheren Bandbreite reduziert sich ja auch die Latenz bei schneller getaktetem PCIe.
Tendenziell wird ein APU-System kein PCIe4 zu dGPU benötigen. Man darf das aber auch nicht unterschätzen wenn dGPU als Compute-Beschleuniger verwendet wird.

SATA hingegen kann man völlig in der Diskussion ignorieren. Das ist viel zu langsam um bei modernen Speichertechnologien neben dem TB-Datengrab noch eine Rolle zu spielen.

Tom von Moores Law is Dead spekuliert übrigens für künftige dGPUs ab RDNA3, dass die SSG Technologie, also SSD auf der Grafikkarte, eingeführt wird um mit der PS5 gleichzuziehen.

--- Update ---

Also um es klarer zu machen, besser wäre Renoir-Nachfolger würden im SoC und passendem Chipsatz auf SATA komplett verzichten um NVME in Laptops jeglicher Kategorie zu erzwingen.
 
Ich möchte dem widersprechen, dass APUs kein PCIe 4.0 benötigen. Ich hätte lieber eine iGPU in meinem 3700X, als Fallback. Ich habe auch früher immer Boards mit onChip GPU gekauft um noch ein Bild darstellen zu können wenn die dGPU mal abraucht. Nichts blöderes als JETZT eine GPU kaufen zu müssen und jeden Preis zahlen zu müssen weil sonst nix geht. Jetzt liegt meine HD 5770 als Fallback bereit für so einen Fall.
 
Ich möchte dem widersprechen, dass APUs kein PCIe 4.0 benötigen. Ich hätte lieber eine iGPU in meinem 3700X, als Fallback. Ich habe auch früher immer Boards mit onChip GPU gekauft um noch ein Bild darstellen zu können wenn die dGPU mal abraucht. Nichts blöderes als JETZT eine GPU kaufen zu müssen und jeden Preis zahlen zu müssen weil sonst nix geht. Jetzt liegt meine HD 5770 als Fallback bereit für so einen Fall.

Das ist wohl war.. :]

Zum Thema PCIe 4.0 in APUs:
Das kann interessant werden, um PCIe-Lanes zu sparen: SSDs, die bisher mit 4 (oder nur 2) PCIe 3.0 Lanes angebunden sind/waren, könnten dann mit nur 2 (oder gar einer) PCIe-Lanes angebunden werden - und so ggf. wieder Strom sparen und/oder Mainboard-Layouts vereinfachen...
Bei Mobile-CPUs ist das ja ein relativ wichtiger Punkt.
Und man kann PCIe 4.0 auf die Pappschachtel drucken ;)
 
Ich würde postulieren, dass kein APU-NUtzer aktuell oder in naher Zukunft PCIe 4.0 benötigt. Natürlich werden sich dann 5 Leute hier und 15 Leute dort melden, dass es exotische Anwendungsgebiete geben könnte, die eventuell, aber nicht von ihnen selbst, davon profitieren könnten...
Wenn du dich auf die beschränkst die aktuell eine APU konfigurieren, dann stimme ich zu.
Aber hier (und in anderen Foren) wird ja gerne suggeriert, dass man eigentlich alles mit <= 8C mit APUs abbilden könnte und das stimmt halt nur, wenn die APUs nicht bei den PCIe Lanes (und Norm) hinterherhinken, wie das bei Renoir der Fall ist.
Wie es bei Renoir auf dem Desktop aussieht wissen wir derzeit nicht, aber bislang scheint es so, dass Renoir max. 8 Lanes mit 3.0 Norm bietet und das ist für viele Dinge einfach zu wenig.
(für viele andere natürlich absolut ausreichend, keine Frage …)
 
Gute PCIe 4.0 SSDs werden bald™ kommen, dank Sony's Playstation5...
5,5GB/sec ist vorgeschrieben, da kann es ev. also sein, dass bald die 7GB/sec ausgereizt werden.

Immerhin eine Sache, die Sony bei der PS5 macht: SSDs schneller machen...
 
Gute PCIe 4.0 SSDs werden bald ein neuer Marketinggag. Wenn ein System da einen Unterschied gegenüber guten PCIe 3.0 SSDs hervorbenchen kann, dann wird es Spezialfälle betreffen, die für Normalanwender nicht relevant sind, und weder braucht man dieses überteuerte System noch die Spezialsoftware dazu, die dann drei Prozent schneller ist.
Nicht aufregen - die Zeit wird es zeigen.
MfG
 
Zurück
Oben Unten