Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Kommt immer darauf an welchen Antrieb die Entwickler bekommen. Wenn man mit Mining Geld verdienen kann ist der sehr groß und der Treiber für Vega wurde sehr schnell auf Linux angepasst das alles sauber läuft. Meine Navi1 ist bei Einstein sogar schneller als die Vega56 obwohl sie 16 CU weniger hat und im gedrosseltem Betrieb läuft.

Das man am Nachfolger der Vega arbeitet dürfte klar sein da Navi doch um einiges ausgereifter ist. Auf was man letztendlich in der Softwareentwicklung setzt ist die Frage. Vom Namen wäre LLVM (Kronos group) von der Hackordnung über MS angesiedelt. Da ging die Entwicklung von LLVM 5 zu jetzt LLVM 10 sehr schnell. Auf eine freie Schnittstelle auf der man längerfristig aufbauen kann wird das Ziel sein.
 
Wenn ich mir so die Verkaufszahlen bei Mindfactory ansehen, drängt sich mir das Gefühl auf, dass der Verkauf von CPUs ohne iGPU ziemlich eingebrochen zu sein scheint, seit es keine bezahlbaren Grakas mehr gibt...das gefällt mir gar nicht, weil das die Produkte mit den höchsten Margen sind. Aktuell hat AMD damit reichlich Zen3-Chiplets womöglich gar übrig...

Jetzt wäre ein GPU-Chiplet oder ein neues I/O-Chiplet mit zusätzlicher iGPU wohl die richtige Lösung...
 
Zur Zeit kann man ja kaum eine Grafikkarte kaufen. Wenn der Kryptoboom länger andauert, wer kauft dann noch Ryzen Prozessoren ohne IGP?
AMD sollte seine Chiplets vor allem für die Server verwerten und ansonsten lieber Prozessoren mit IGP fertigen.
MfG
Jo, das war ja abzusehen.
MfG
 
CPU Leistung hat man ja eigentlich seit ZEN2 genug, da ist der Bedarf nicht so gross und solange man kein ZEN3 auf den 300er Chipsätze supported, fördert man das ganze ja auch nicht gerade.
Hätte es mir ev. überlegt mein 3600er abzulösen, aber ein Mainboardwechsel kommt vor dem neuen Socket nicht in Frage.
Ev. kann man ja mit der neuen 6700XT Karte bessere Verfügbarkeit bieten, dank schlankem Chip und "schwacher" Hashrate.
 
Ja hier kam gerade die Pressemitteilung auch per Mail rein.

Nächsten Montag ab 16:00 Uhr, da am Sonntag in den USA die Sommerzeit beginnt.
 
Irgendwie ist es sehr ruhig um neue Produkte oder Roadmaps überhaupt geworden. Von VanGogh hört man gar nichts mehr (vermutlich erstmal aufgeschoben) und auch kaum was davon, was Navi23 und -24 wirklich sind. Was AMD bei GPUs braucht, sind aktuell sehr kleine Dice, also nix mehr Infinity-Cache etc. Z.B. einen Nachfolger für Navi12 mit sehr kleinem Die.

Bis 5nm ist es noch lange hin. Dazwischen kommen wohl vor allem Shrinks von N7P auf N6, was das Die etwas kleiner macht (ca.12%) und aufgrund von EUV viele Steps einspart, sodass die Wafer etwas billiger werden bzw. man mehr raus bekommt.

UND hier wird es spannend:

Wenn AMDs Rembrandt eine APU in N6 werden soll, muss AMD dafür alle seine Elemente auf N6 portiert haben. War es bisher nicht immer so, dass man zuerst die einfachsten Bausteine als Pipe-Cleaner voraus schickte, wenn man viel auf einen neuen Prozess portieren will? Das Einfachste war hier immer die GPU, sodass ich auch in N6 als erstes eine GPU erwarte, zumal hier nun auch noch der Druck extrem ist.

Könnte Navi23 oder Navi24 eine erste GPU in N6 sein? Navi23 in N6 mit 32CU und 192bit-Interface sollte selbst mit 32MB-Infinity-Cache <200mm² in N6 werden und eher noch höher als Navi22 takten, sodass damit locker 10TFlops drin wären. Und das Ding soll ja bei Tesla landen und angeblich >10Tflop haben...

Weiter:

Seitdem die Konsolen-SoCs fertig sind, sollten die daran beteiligten Ingenieure von AMD sich anderen Aufgaben widmen können. Durch die Wafer/Substrate-Knappheit dürften die Prioritäten bei AMD aktuell komplett anders gelagert sein, als noch vor einem Jahr => die Roadmap dürfte sich entsprechend verändert haben. Neue Priorität dürfte effiziente Nutzung der knappen Resourchen sein, zumal diese Knappheit wohl noch länger bleiben wird.

Und: N5 dürfte auf weiteres extrem teuer bleiben, sodass N6 plötzlich deutlich interessanter werden dürfte, als zuvor gedacht:

D.h: jetzt geht es primär um hohe Yields und kleine Dice. Portierungen auf N6 bei zusätzlicher Optimierung dürften nun auch für Produkte eingefügt werden, für die das vorher nicht vorgesehen war. Und in der Präsentation bei Morgan-Stanley sprach Papermaster auch explizit von N6, der den 7nm-Prozess für AMD zu einem long-lasting Prozess macht => was alles kommt auf N6? Auch TSMC spricht davon, dass sie erwarten, dass viele Produkte jetzt auf N6 übergehen.

Wenn AMD seine APUs auf N6 hat, warum dann nicht auch die Konsolen-SoCs auf N6 portieren? Die Nachfrage nach beiden Konsolen scheint die Planungen auch weit zu übertreffen, sodass auch Sony/MicroSoft mit AMD alle Wege überdenken muss, um an zusätzliche Kapazitäten zu kommen.

Neue Produkte sind in der aktuellen Knappheit wohl eher hinten angestellt, vor allem N5-Produkte dürften sich verzögern....
 
Durch die Wafer/Substrate-Knappheit dürften die Prioritäten bei AMD aktuell komplett anders gelagert sein, als noch vor einem Jahr => die Roadmap dürfte sich entsprechend verändert haben. Neue Priorität dürfte effiziente Nutzung der knappen Resourchen sein, zumal diese Knappheit wohl noch länger bleiben wird.
Das glaube ich eher nicht, da AMD schon zuvor um jeden Wafer kämpfen musste und die ganze Strategie mit Chiplets auf die eben beste Ausnutzung der Wafer ausgelegt ist. Ich will damit sagen, dass die Prioritäten sich nicht geändert haben und AMD daher auch am besten positioniert ist für die aktuelle Situation. Änderungen an der Roadmap wären genau das falsche Signal für die neu gewonnenen OEM-Kunden.
 
Interessantes Video von Coreteks heute auf youtube.

Meine Überlegung:
Könnte AMD ein GPU-Chiplet für eine Chiplet-based APU entwickeln? Statt einem zweiten Zen3-Chiplet wird ein GPU-Chiplet montiert, womit aus einer CPU eine APU würde. Sinn macht da aber wohl erst, wenn das I/O-Chiplet die Video-Einheit mit drauf hat. Genau an sowas könnte AMD arbeiten, weshalb womöglich das neue I/O-Chiplet immer noch fehlt. Der Socket-AM4 ist ja für APUs ausgellegt. Die Video-Blocks dürften in 12nm nicht so viel größer werden als in 7nm, d.h. deren Auslagerung von 7nm auf 12nm böte sich an.

Pakt man nun noch einen ordentlichen Infinity-Cache auf das I/O-Chiplet, der dann quasi für CPU und GPU fungiert, könnte auch das Bandbreiten-Problem ordentlich reduziert werden. Die reduzierten Ram-Zugriffe würden auch viel Energie sparen. Wirklich hoch interessant wäre so ein Ding für die Gaming-Notebooks, wo es nicht auf maximale Effizienz ankommt, sondern auf ein passendes Package: man spart sich die gesamte GPU, deren GDDR-Speicher und das zusätzliche Kühlsystem. Und für AMD wäre es maximale Wert-Schöpfung, ohne dass man viel mehr 7nm-Kapazität bräuchte. Wachsen würde wohl vor allem das I/O-Chiplet, das man aber noch unterbringen müsste.
 
RDNA3 kommt mit GPU-Chiplets. Ob es davor noch eine GPU mit Chiplets geben wird?
Die Überlegung finde ich daher interessant, weil AMD mit einer durchgängigen Chiplet-Strategie viel unabhängiger von den einzelnen Foundries würde, weil man kleine Dice hat (=man ist unemfindlicher gegen niedriges Yield neuer Prozesse und erhöht das Yield), weil man quasie für jedes Chiplet den geeignetsten und günstigsten Prozess wählen kann und somit theoretisch eine APU mit Chiplets dreier Foundries aufbauen könnte: I/O von GF, Zen3 von TSMC und womöglich RDNA3 von Samsung?
 
Umdenken in der Chipentwickllung wird immer wichtiger, sofern es nicht schon passiert ist: es zeichnet sich bereits bis über 2022 nicht nur eine Knappheit für Highend-Prozesse ab, sondern auch kräftig steigende Wafer-Preise.

Als Folge heißt das: Diesize matters! Kleine Dice werden wieder sehr wichtig. Ein Redesign eines aktuellen Produktes im selben Prozess wird damit wieder interessanter, sobald man das Die etwas kleiner bekommt oder den ASP etwas steigern kann. D.h. AMDs bisherige Roadmaps werden sich ziemlich sicher ändern, vor allem die großen Navi21/22 sind hier eine Entwicklung an diesem Markt vorbei, der große Infinity-Cache ist viel zu teuer. AMD braucht hier ganz schnell Redesigns ohne diesen Cache mit viel kleinerem Die. Womöglich gibt es bald eine erste GPU auf N6 ohne diesen Cache....
 
Der Infinity-Cache ist aber zentraler Bestandteil der aktuellen Grafikkartengeneration. Den kann man nicht einfach rausnehmen ohne dass die Performance total in den Keller geht. Zudem glaube ich nicht, dass das Grafikkartendesignteam mal einfach so nebenbei eine neue Grafikkarte auf gleichem Performanceniveau nur ohne den Infinity-Cache und kleinerem Die rausbringen kann. Das dauert Jahre bis man so etwas entwickelt hat.
 
Wär es nicht möglich, den IF-Cache als ein HBM-Plättchen auszulagern? Oder werden dann die Datenwege zu lang?
 
Da könnte man eher schon die GPU im Chiplet-Design auflegen und den Cache wie bei Rizen in ein eigenes Chiplet gießen. Aber da ist AMD ja dran, wird aber sicher noch zwei Jahre dauern.
 
IF-Cache in 7nm-Chiplet(Kosten) und GPUs in 5->3->nm (Performance) skalierbar nach belieben.
Für Produktsegmentierung machst du dann 3 verschiedene IF-Chiplets, die du auch in Server Produkten nutzen kannst.
Je nach Kosten/Performance-Lage schiebst du dann in den nächst kleineren node.
 
IF-Cache in 7nm-Chiplet(Kosten) und GPUs in 5->3->nm (Performance) skalierbar nach belieben.
Für Produktsegmentierung machst du dann 3 verschiedene IF-Chiplets, die du auch in Server Produkten nutzen kannst.
Je nach Kosten/Performance-Lage schiebst du dann in den nächst kleineren node.

Als eigenes Chiplet? Klingt ja nach Intel Magic Tiles ;)


Nein, ernsthaft: Bekommt man da nicht wieder Latenzprobleme? Wobei ich keine Ahnung habe, ob das bei Grafikkarten eine Rolle spielt.
 
Die Zielsetzung ist ja eigentlich CPU-Chiplets, CPU-Chiplets und dann auch IF-Chiplets zu nutzen. Ein I/O mit IF kombiniert ist sicherlich preislich machbar in 7nm in 2 Jahren. CPU und GPU können unterschiedliche nodes nutzen (Verfügbarkeitsthema) und je nach Bedarf auch mit älteren Generationen kombiniert werden (Preisthema) ohne auf verfügbare Highend-Performance zu verzichten. Das geht ja sogar überkreuz, je nach dem ob mehr CPU oder GPU Leistung gefordert ist im Produkt.

Je nach Fortschritt des Packaging könnete das auch in 3D-Stapel passieren.
 
Die Zielsetzung ist ja eigentlich CPU-Chiplets, CPU-Chiplets und dann auch IF-Chiplets zu nutzen. Ein I/O mit IF kombiniert ist sicherlich preislich machbar in 7nm in 2 Jahren. CPU und GPU können unterschiedliche nodes nutzen (Verfügbarkeitsthema) und je nach Bedarf auch mit älteren Generationen kombiniert werden (Preisthema) ohne auf verfügbare Highend-Performance zu verzichten. Das geht ja sogar überkreuz, je nach dem ob mehr CPU oder GPU Leistung gefordert ist im Produkt.

Je nach Fortschritt des Packaging könnete das auch in 3D-Stapel passieren.

Da müssen wir mal schauen was passiert. An den IO-Die muss AMD ja eh dran, weil der bei Milan einfach schon zu viel Energie frisst.

Die Frage ist halt, wie geht es bei den Chiplets generell weiter. MCM bei GPUs? Und was für Interconnects kommen bei den CPUs?

Nach meinem Wissen soll Genoa zwei verschiedene Interconnectstandards unterstützen.

Viel klüger werden wir aber dieses Jahr nicht werden, weil maximal MI200 und eventuell sogar noch MI300 anstehen.

Zen 4 dann wohl erst Q1 oder Q2 2022.
 
Also man muss doch mal die zeitlichen Dimensionen beachten.

Vom Whiteboard eines revolutionären Chipdesigns bis in die Regale im Einzelhandel vergehen grob 5 Jahre.
Ein Redesign von einer Node in eine neue Node dauert so etwa 1 Jahr. (Intels 14nm Backport).

Das von langer Hand vorbereitete Chiplet-Konzept Zen von AMD war dafür gedacht den Nachteil mit GloFo Verfahren ausgleichen zu können. (Jim Keller 2012, Zen 2017). Man kann mit Chiplets gegenüber dem Monolithen in besserer Fertigung unter Latenz-Einschränkungen gleichziehen mit weniger Spannung und besseren Yields.

Man hat damals schon den Wechsel zu TSMC geplant und konnte den erfolgreich bewerkstelligen mit dem Misch-Konzept der Verfahren bei Core TSMC und IO GloFo. Der entscheidende IF Anteil im IO Die verbesserte die Latenzen trotz eines Hops mehr Die2Die und Speicheranbiendung war dennoch unproblematisch.

Gerade AMD kann nur geringfügig die eigene 5 Jahres-Strategie anpassen. Was man da hat nicht kommen sehen kann nicht revolutionär mal eben so auftauchen. Die SSG von Koduri bei Vega war da schon eine riesige Überraschung und es war auch "nur" ein anderes PCIe Device am Onboard PCIe Switch. In der Regel plant man mehr und verschiebt Teile der Innoation auf die nächste Gen.

AMDs Devise bei der Wiederauferstehung war Custom SemiCondutor Business. Es gab Gerüchte um eine Compute-APU mit HBM. Wahrscheinlich als Konzept aber ohne Custom Kunden in der Ausprägung. Die künftigen Spezial-Chips für den Exascale Supercomputer sind noch nicht klar. Die Vermutung war, dass das solche APUs wären. Bis heute ist es eine EPYC&CDNA/Vega Kombo.

Ich denke AMD wird sich bei Server und Desktop und Pro-GPU an den generellen Trends orientieren müssen weil man noch lange davon entfernt ist allein ein Software-Ökosystem in neue Richtungen zu bewegen. Das hat man mittlerweile begriffen.

----

Mit Zen4, DDR5 und PCIe5 braucht es kein HBM on-die und keine separaten Caches. Es genügt zunächst der Shrink und die gestiegenen Bandbreiten.
Bei GPUs kann man sich bei CDNA mit Chiplets vielleicht hervortun und versuchen gegen die CUDA-Beschleuniger von Nvidia zu punkten. Hier braucht es Bandbreite pro CU. Das spricht für Chiplets wie beim ersten Zen. Beim Gaming braucht es das nicht, das spricht für Monolithen mit hohem Takt und IF-Cache.

Für alles andere müsste doch ein grosser Custom Kunde kommen mit angepasstem Softwarestack, der den Mehraufwand rechtfertigt. Mega-Caches für Cloudanbieter? Eher nicht. Relevante Stückzahlen für SSG gabs auch nicht, Supercomputer Spezialchips? Am ehesten noch dort falls man die in mehreren Designs unterbringen kann. Zumindest ist die Software dort immer Custom-Made.
 
Supercomputer Spezialchips? Am ehesten noch dort falls man die in mehreren Designs unterbringen kann.

Die kommen dieses Jahr mit Trento als Milan-Derivat für Frontier doch bereits.
 
IF-Cache in 7nm-Chiplet(Kosten) und GPUs in 5->3->nm (Performance) skalierbar nach belieben.
Für Produktsegmentierung machst du dann 3 verschiedene IF-Chiplets, die du auch in Server Produkten nutzen kannst.
Je nach Kosten/Performance-Lage schiebst du dann in den nächst kleineren node.

Als eigenes Chiplet? Klingt ja nach Intel Magic Tiles ;)


Nein, ernsthaft: Bekommt man da nicht wieder Latenzprobleme? Wobei ich keine Ahnung habe, ob das bei Grafikkarten eine Rolle spielt.
Ich vermute dass ein Teil des Caches im GPU-Die verbleiben wird ähnlich wie bei CPUs der L2-Cache man kann dann aber einen größeren L3-Cache im IO-Chiplet unterbringen. Im Vergleich zum RAM ja aber immernoch vielfach schneller. Wenn man das auf das schon angesprochene 3D-Stacking geht kann man jedem Shadercluster direkt an dedizierte Bereiche anbinden, dann wäre die Latenz gering.

Ein neuer Interconnect ist für mich neu, vielleicht bietet er genau das was aktuell für den GPU-Einsatz noch fehlt. Wobei ich gerade sehe wurde das schon für Rome spekuliert.
 
Zurück
Oben Unten