Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Dass das Wachstum von AMD zur Zeit nur beschränkt erfolgen kann, sehe ich genauso. Leider erscheinen dieses Jahr alle neuen Produkte (CPUs, GPUs, Konsolen) zur gleichen Zeit. Man wird also nicht alle Produkte in ausreichender Menge anbieten können.

Warum man eine APU im Desktopsegment verkaufen will, werde ich wohl nie verstehen. Ich denke APUs wird man lieber im Notebook-Markt verkaufen wollen.
 
Ich will auch ne APU - Vielleicht wird die Lieferbarkeit mit den Embedded Renoir endlich besser.

Wer nicht zockt braucht die Grafik nur als Mediaplayer. Für eine kleine aktuelle günstige stromsparende Grafikkarte ist bestimmt auch ein Nischenmarkt da.
 
Bin mir nicht sicher, ob AMD mit dem Chiplet Ansatz so weitermacht.
Es gibt in 7nm die Konsolenchips, die deutlich größer sind und anscheinend auch ein ordentliches Yield haben, sonst wären die Konsolen nicht wirtschaftlich. Dann kommt in 5nm Apple mit dem M1, der zeigt, dass im nächsten Node auch mit vielen Transistoren gute Yields möglich sind. Bis AMD in dem Node ankommt, ist der weitgehend ausgereift, auch wenn AMD höhere Takte fahren will.
MfG
 
Die Kosten steigen mit jeder weiteren Fertigungsnode deutlich an und der Chiplet-Ansatz bringt eine Mengen Flexibilität. Je nach Aufgabe des Chiplets läßt sich so die optimale Fertigung (auch aus Kostensicht) wählen. Aus wenigen verschiedenen Chiplet so eine Vielzahl verschiedener Prozessoren konfigurieren. Das wird wohl eher noch weiter ausgefeilt werden. Wenn sich so auch eine bereits gute Ausbeute weiter erhöhen lässt - warum nicht?
 
Wenn die deutlich größeren Konsolenchips schon eine Ausbeute von, frei erfundenen, 90% haben, dann müssen die Chiplets eine Ausbeute von, nicht ernstnehmen, 140% haben, um die Kosten des Packaging, etc. wieder reinzuholen.
Jenseits der von mir fabulierten Prozentangaben - es gibt wohl einen Grenz-Yield, oberhalb dessen es wenig Sinn macht, die Chips in kleineren Portionen zu fertigen. Natürlich ist das Chiplet Konzept insgesamt gerade für Server gut, wo man Chiplets aus dem gleichen Binning zusammennehmen kann. Aber anscheinend hat sich AMD bei der APU ja schon gegen ein Chiplet Konzept entschieden, und warum braucht Apple das bei 5nm nicht zu machen?
MfG
 
Wenn die deutlich größeren Konsolenchips schon eine Ausbeute von, frei erfundenen, 90% haben, dann müssen die Chiplets eine Ausbeute von, nicht ernstnehmen, 140% haben, um die Kosten des Packaging, etc. wieder reinzuholen.
Nein müssen sie nicht. Man bekommt mit Chiplets aus einem Wafer viel mehr Chips. Damit steigen zwar die Kosten für das Packaging/Wafer aber man verkauft auch mehr Chips und holt damit die Mehrkosten locker wieder rein.

Ich denke nicht dass sich AMD bei den APUs gegen ein Chiplet Konzept entschieden hat, sondern erwarte erst mit RDNA3 Chiplets im GPU-Bereich.

Warum Apple das bei 5nm nicht tut ist eine gute Frage. Genau so interessant ist auch warum Intel das bei 14nm nicht tut.

Vielleicht haben die Entwickler das zu Beginn der Entwicklung nicht auf dem Schirm gehabt oder es ist technologisch nicht so einfach umsetzbar oder ...
 
Meinst du mit dem Mehr an Chips jetzt den geringeren Randverschnitt? Dass kleinere Chips in größerer Anzahl auf dem Wafer daherkommen als größere, wird ja niemanden wundern...
Intel hat es bei 14nm nicht gemacht, weil es noch keinen Grund dazu gab. Es hat ja bei 14nm industrieweit auch sonst niemand gemacht. Man muss das ja auch beizeiten planen, wenn man noch keine so großen Erkenntnisse über den Prozess hat. M.E. ist AMD bei 7nm vorsichtig pessimistisch gewesen. Im Gegensatz zu z.B. Apple bei 5nm.
MfG
 
Meinst du mit dem Mehr an Chips jetzt den geringeren Randverschnitt? Dass kleinere Chips in größerer Anzahl auf dem Wafer daherkommen als größere, wird ja niemanden wundern...
Intel hat es bei 14nm nicht gemacht, weil es noch keinen Grund dazu gab. Es hat ja bei 14nm industrieweit auch sonst niemand gemacht. Man muss das ja auch beizeiten planen, wenn man noch keine so großen Erkenntnisse über den Prozess hat. M.E. ist AMD bei 7nm vorsichtig pessimistisch gewesen. Im Gegensatz zu z.B. Apple bei 5nm.
MfG
Die Fläche des Wafers nutzt man bei beiden gut aus. Bei kleineren Chiplets etwas besser, aber das ist das vorrangige Problem. Der wesentlichere Vorteil ist, dass du beim Chipletansatz einen großen Teil der finalen Fläche nicht im High-End Node produzieren musst (nämlich den IO Die) und das spart massiv Chipfläche ein.

Dazu kommt, dass man im Design wesentlich Kosten einspart. AMD bietet derzeit auf Basis der Chiplets 4C, 6C, 8C, 12C, 16C, 24C, 32C, 64C an.
Alles mit einem Chiplet, d.h. einem Waferdesign. Natürlich dann noch + 2 weitere Designs für die IO Dies.
Würde man wie Intel monolithisch verfahren bräuchte man mindestens 5 Designs um das halbwegs vernünftig abzudecken und ob man so wirklich gut einen 64C hinbekommen würde (also bei gutem Yield etc.) steht in den Sternen.
Mit Chiplets ist im Grunde jeder dieser Prozessoren ein garantierter Gewinn, egal ob man nun 2, 4 oder 8 davon auf das Package packt.

Theoretisch könnte man natürlich hergehen und nur für den Desktopmarkt monolithische Designs herstellen, z.B. mit 8C.
Nur: wozu? Letztendlich macht es sich eigentlich nur im Idle-Verbrauch wirklich bemerkbar und da vermutlich auch eher weil der IO Die noch nicht wirklich perfekt ausoptimiert ist (die ca. 10W kommen hauptsächlich daher).
Ich denke das wird über die nächsten 2-3 Generationen noch deutlich verbessert.
Unter Volllast sieht Intel doch eh nur die Rücklichter.

Ansonsten bleibt als Argument eigentlich nur noch die Sache mit den Latenzen. Aber mal ehrlich: außer ein paar Über-Nerds interessiert das einfach niemanden, also sehe ich da auch nicht wirklich viel Grund deshalb was zu ändern.
Zumal das auch immer besser wird, trotz Chiplets.
 
Die Konsolen sind auch ein denkbar schlechter Vergleich/Maßstab mit der großen integrierten GPU. Da müsste bei Chiplets noch die GPU angebunden werden, was wiederum Kosten verursacht. Zudem bezahlen das Sony und MS, die keine Zweit-Verwendung für Chiplets haben und auch nicht für diskrete GPUs.
Die Kalkulation sieht da anders aus wenn nur eine SKU aus dem Design entsteht.

Die Chiplet-Strategie kann nur unternehmensweit im Mix beurteilt werden, und nicht auf SKU Ebene.
 
Das Konzept hinter den Chiplets hatte ich bereits verstanden.
Die Konsolen sind auch insofern ein schlechter Vergleich, weil bisher niemand anderes GPU Chiplets mit CPU Chiplets mixt. Da ist es die Frage, ob das nicht generell Schwierigekeiten macht. Ganze GPUs aus einzelnen GPU-Chiplets herzustellen, schafft ja auch keiner, obwohl es ökonomisch von großem Vorteil wäre.
Wenn man allerdings bei den Konsolenchips schlechte Yields hätte und es technisch möglich wäre, könnte man seine Yields durch Trennung von CPU, GPU und IO Die deutlich steigern.
Ansonsten gilt die Argumentation bei Apple sicher auch, dass man ein IO-Die in einem günstigeren Node herstellen könnte als 5nm. Und Apple hat da noch viel mehr Bausteine auf dem Chip, das schreit geradezu nach einem Multi-Node-Ansatz.
Hier zieht dann eher Complicates Gegenargument, dass Apple (bisher) kein M1 Portfolio mit unterschiedlichen SKUs hat. Aber das kann ja noch kommen, schließlich sind wir erst am Anfang der Mac-ARM-Aera, und bei den iPhone/iPad Chips bringt Apple auch immer verschiedene Modelle raus, die dann teilweise einen Chip aus dem Vorjahr beherbergen. So weit ist das nicht entfernt.
Aber da lohnt sich der Chiplet Ansatz bisher offensichtlich nicht.
Ich denke, man muss es so sehen, dass AMD seine Chiplets für die Server Prozessoren ohnehin braucht und die Verwendung bei den Desktop CPUs der Beifang davon ist. Bis zur APU will man aber auch nicht gehen.
MfG
 
Chiplets sind designbedingt auch mit einem Mindest-Stromverbrauch durch den Interconnect im Nachteil, je stromsparender das Endgerät sein muss. Es gibt einen Breakeven den AMD ja auch mit seinen APUs beschreitet, wie man an den Renoirs im Notebook sehen kann. Hier wird Apple, die ja aus der mobile Seite kommen, einen größeren Headroom haben, solange sie nicht vor haben mit den 32-Kern Server CPUs zu konkurrieren. AMD nutzt die Chiplets in Märkten, die ausser Intel niemand übergreifend bedient. Daher sind auch die Vorteile eines solchen Chipletsdesign geringer für andere.
 
Jetzt wo Apple erfolgreich On-Package RAM eingeführt hat, wäre das ja auch eine Idee für AMD, zumindest bei den Mobile APU´s. Gleich 16GB LPDDR 4 oder 5 mit drauf löten und zufrieden sind die OEM´s. Der Performance und dem Stromverbrauch dürfte das auch gut tun.

Glaube BavarianRealist hat sich das bereits für Renoir gewünscht.

Konkurrenz belebt das Geschäft.
 
Würde ich mir auch wünsche. Dann müßte allerdings AMD den RAM einkaufen und den Preis entsprechend höher ansetzen um bei den OEMs deren Preis erhöhen - ich denke es hängt hier an Preisschwankungen des RAMs (Kaufzeitpunkt wenn der OEM es braucht oder mit der Bestellung der CPU von AMD gekauft inkl. Packaging)
Apple hat diesen Faktor nicht. Ich denke der x86-OEM-Markt hat mit den Komponenten bestimmte eigene Preisdynakmiken und Kalkulationsvorlaufzeiten. Technisch ist glaube ich nicht das Problem. Doch wollen die Ram-Hersteller nur noch 3 Kunden im Mobile bedienen? Intel, Apple und AMD?
 
AMD würde sowas vermutlich eh nur auf Kundenverlangen entwickeln. D.h. wenn die großen OEM´s sagen, ja RAM on Package das wollen wir, dann würde es AMD ggfs. entwickeln und anbieten und dann auch nur den OEM´s.

Und für den Einkauf gibt es garantiert entsprechende Möglichkeiten. Ein Smartphonehersteller muss ja auch seinen Flash-Speicher einkaufen und macht das bestimmt zu fixierten Preisen und nicht volatil je nach Marktlage. Und den OEMs gehts ja beim RAM auch nicht anders.
 
Ja da gibt es sicherlich Möglichkeiten, nur das sind eben dann benötigte Absprachen die man treffen muss, die oft wenig mit der Technik selber zu tun haben.
Wenn die großen OEMs den Speicher billiger bekommen als AMD, da sie die ja noch für die Intels mit nutzen, dann wird es sich vielleicht mit mehr Marktanteil von AMD an einem bestimmten Punkt lohnen, wenn AMD dann für 3-4 große 20-30% des Speichers und für alle kleinen OEMs zusammen die entsprechende Mengen ordern kann um die selbe Preise zu bekommen mit Rabatt.

Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
 
Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
Auf der anderen Seite fällt für die OEM's das Design der Hauptplatine einfacher aus, wenn viele Leiterbahnen erst gar nicht gezogen werden müssen. Und so ein bereits zusammengelötetes Konstrukt wäre so leichter auf andere Hauptplatinen einsetzbar.
 
Ganze GPUs aus einzelnen GPU-Chiplets herzustellen, schafft ja auch keiner, obwohl es ökonomisch von großem Vorteil wäre.

Ich denke, man muss es so sehen, dass AMD seine Chiplets für die Server Prozessoren ohnehin braucht und die Verwendung bei den Desktop CPUs der Beifang davon ist. Bis zur APU will man aber auch nicht gehen.
Ich glaube GPUs auf Chiplet-Basis kommen mit der nächsten Generation von AMD. Dann sehen wir auch Chiplets mit GPU und CPU bei den APUs.
 
Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
Auf der anderen Seite fällt für die OEM's das Design der Hauptplatine einfacher aus, wenn viele Leiterbahnen erst gar nicht gezogen werden müssen. Und so ein bereits zusammengelötetes Konstrukt wäre so leichter auf andere Hauptplatinen einsetzbar.
Auf jeden Fall.
Doch der HBM Speicher ist dann wiederum teurer als GDDR6+Interposer+Packaging für HBM. Da kommt es dann darauf an wann die Balance in die richtige Richtung kippt. Das kann sich durch plötzlich schwankenden Preis und Steigerung der Speichermenge schnell verschieben, wenn es knapp ist. Möglichweise warten die OEM erst auf einen deutlichen und dauerhaften Vorteil um das ganze dann insgesamt auf onPackage-RAM umzustellen. Du brauchst ja sonst auch beide Designs/Board-Fertigungen parallel. Damit geht dir viel Ersparnis durch simplere Boards wieder flöten, wenn du weiter komplexe Boards bauen musst mit weniger Stückzahlen - das ganze Portfolio betrachtet könnte das insgesamt mehr Unternehmenskosten bedeuten für GPU AIBs.
Doppelposting wurde automatisch zusammengeführt:

Huawei mit AMD-Desktop:
 
Zuletzt bearbeitet:
APU´s auf Chiplet Basis kann ich mir nur schwer vorstellen, zumindest nicht von AMD... AMD braucht effiziente Mobile APU´s, die Desktop APU´s sind nur "Abfall" der mobilen Entwicklung.

Zudem, ist es fraglich, wieviel "mehr" an Grafikpower eine APU benötigt. Würde das ein Chiplet rechtfertigen? Die meisten APU´s gehen doch in Maschinen, die kaum Grafikpower benötigen.

On Package RAM, klingt für mich am spannensten. Energieeffizieter LPDDR4 oder 5, direkt auf dem Package.
 
HBM ist für APUs viel zu teuer, dort tut es LPDDR auch.
Zu Vega Zeiten war die Hoffnung auf HBM Cache von 2-4 GB. Das hätte schon das Bandbreitenproblem gelöst. Jetzt mit RDNA wird man wahrscheinlich einen grossen L3 Cache nehmen um das Bottleneck zu entschärfen. Auch Intel hatte mit dem Shared Cache sehr gute Ergebnisse erzielt. Ich finde es heute noch unverständlich, dass man davon wieder abrückte.
 
Ich denke mal das es bei der APU hauptsächlich um Sparsamkeit geht, was an Hardware nicht verhanden ist kann auch nichts verbrauchen.

Einfacher Aufbau, kurze Wege. Sieht man ja am Verbrauch bei den Laptops. Trotzdem sehr Leistungsfähig.
 
Zurück
Oben Unten