Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Für Sicherheit, SIMD und AI besteht jedenfalls Normierungsbedarf.
Richtig aber die juengste Inititative nennt sich Advisory Board ('Beratungegremium'). Es soll keine Institution fuer Normierungen zur Standardisierung sein.
Ich denke, es ist eher eine Plattform auf der sich die Kunden von x86, die es in Software und Hardware verwenden und die Hersteller/Entwickler von x86 Tech (Intel, AMD, [Where is VIA?]) regelmaessig austauschen koennen/werden.
Man koennte es auch Kundenbindung Programm mit Kuchen an das x86 Oekosystem nennen ;-).

Einen direkten/indirekten Austausch zwischen Intel und AMD gibt es ohnehin schon in den verschiedenen Gremien.
Erst recht, wenn man sich alle Jahre wieder tief in die Augen schaut, wenn die Patentvereinbarungen untereinander erneuert werden muessen.

Es ist erst einmal ein noch nicht bewaehrter zahnloser Tiger, aber dass die vermeintlichen scharfen Konkurrenten Intel und AMD sich gemeinsam hinter diese Idee (von Intel? Intel hat es zuerst vorgestellt AFAIK oder gar grosse Anwender?) stellen ist dann schon bemerkenswert. Dass gleich ein ganzer Schwung namhafter Anwender/Nutzer von x86 mit an Board sind, unterstreicht die Ernsthaftigkeit des Unterfangens.
Es ist also kein purer Marketinggag und keine Idee, die erst am letzten Wochenende auf dem Golfplatz geboren wurde.

Das Programm hat Potenzial IMHO. Aber mal sehen, wie viel man dann von hoeren wird.
Lass uns das mal in 8-12 Monaten checken ;-) .

Gruss,
TNT
 
Für Sicherheit, SIMD und AI besteht jedenfalls Normierungsbedarf.
Nicht nur das. Die Dominanz von Nvidias proprietären Vorstößen im Software Ökosystem kann auf diese Weise eingedämmt werden.
 
Ach wccftech kann man bei vielem doch nicht ernst nehmen.
Ich persoenlich halte das immer noch fuer die Phantasie einiger weniger Akteure.
Ich dachte allerdings auch erst, dass die Quelle selbst Wccftech/ein Szenen Leaker sei aber sie beziehen sich Artikel selbst auf einen Bloomberg Beitrag:


Die sind etwas mehr vom Fach an dieser Stelle und daher fand ich das erwaehneswert.
1729251976990.png

Something is cooking aber ob es Qualcomm wirklich an Intel knabbern will/kann. NoAhnung.

Gruss,
TNT
 
Zuletzt bearbeitet:
Klingt einfach nur nach den gleichen hohlen Übernahmegerüchten die es früher alle Nase nach über AMD gab.
 
Klingt einfach nur nach den gleichen hohlen Übernahmegerüchten

Ich weiss nicht ob sie hohl sind aber sie haben sich nicht verloren. Ich kann mir das zwar immer noch nicht vorstellen wie es sinnvoll sein kann aber gut.
Sprich es ist mehr als die Fantasie eines Forums geworden.


Wird sich AI ev everywhere hier doch so langsam durchsetzen?
Gibt es dann Zen6 auch mit einer NPU (Intel hat's bald)?
Muss es ja fast ;-)

Vielleicht wird es Zeit fuer AMD verschiedene IO-Dies aufzulegen (einmal mit NPU und/oder dickerer IGPU und einmal ohne) oder die Chiplet Konfiguration zu erweitern IMHO.

Gruss,
TNT
 
Es läuft am Ende auf das gleiche Problem wie bei den AMD Übernahmegrüchten hinaus.
Die x86er Basis ist einfach bis heute eine zu große Nummer um sie in ein Monopol abrutschen zu lassen, durch die Übernahme den Verfall der Lizenzen zu riskieren oder zur Umgehung die Weiterentwicklung der Produkte fortzuführen die so garnicht zur Produktpalette des übernehmenden passen würden. Mit anderen Worten es würde am Ende mehr kosten als es bringt.
Hinzu kommt noch das gerade Intel in ziemlich vielen Bereichen die Finger drin hat und dadurch ungewollte Konkurrenzsituationen zu anderen Herstellern entstehen könnten.
[automerge]1729583647[/automerge]
Gibt es dann Zen6 auch mit einer NPU (Intel hat's bald)?
Ich könnte mir eher vorstellen das der NPU Support allgemein in die GPU wandert.
Diese könnte als zusätzliche Grafikkarte auf erheblich mehr Rechenleistung zugreifen und würde bei den APUs so oder so mit wandern.
 
NPU Support allgemein in die GPU wandert.
Das denke ich auch (und dafuer muesste die IGPU aufgebohrt werden - BTW weiss jemand wie viele TOPS eine CU einer 3.5 RDNA leisten kann?) - aber verlangt Microsoft nicht nach einer dezidierten NPU?

Und ich bin mir nicht sicher, ob das nicht ein sehr gewichtetes Woertchen in den Designentscheidungen der nahen Zukunft darstellt.
Aktuell setzen alle Akteure im (Desktop)Markt auch auf dezidierte NPUs in den juengsten Produkten.

Hier hinkt AMD ein wenig hinterher mit Zen5 aktuell. Die aktuelle AMD APUs sind da schon weiter.
AMD hat es selbst gesagt - AI everywhere (or not ;-) ).
u.a.
“AMD is fostering AI everywhere – from the cloud, to the enterprise and end point devices – all powered by our CPUs, GPUs, accelerators and AI engines,” said Vamsi Boppana, Senior Vice President"
Quelle: [1]

Wie man da hinkommt wird sich noch zeigen. Aktuell scheint es ohne NPU nicht ganz zu gehen.

Gruss,
TNT
 
Ich würde eher davon ausgehen das eine NPU vorhanden sein muss, ob sie eigenständige Einheit funktioniert oder Teil einer anderen Komponente ist die deren Recheneinheiten mit nutzt halte ich eher für zweitrangig.
 
Das kann auch sein (Mobile wohl weniger - nix full AVX512) aber ob der Weg ueber AI spezifische CPU Instruktionen (s.a. Zen5 -> AVX512 VNNI (AI-optimized instruction set)) oder eine etwas bei AMD aufgebohrte IGPU (2 CU sind da zu wenig?) geht im Desktopbereich, wird sich noch zeigen.
Wobei ich denke, dass letzteres eher kommen wird bzw. sich durchsetzen wird.

UDNA zeigt ohnehin gedanklich, wo die Reise mittel- bis langfristig hingehen soll bei AMD.

Gruss,
TNT
 
Zen5-CPUs werden ja nur zusammen mit einer leistungsfähigen Graka verwendet, für alle anderen Einsätze werden sich die APUs durchsetzen.
Im Falle der Zen5 gehe ich davon aus, dass die neuen RDNA4 hier eine entsprechende integrierte NPU mitbringen, sodass die kleine N44 überhaupt auch Sinn macht, einfach schon, weil der Rechner damit dann auch KI-fähig wird. Das Vorbild dürfte hier die PS5-Pro sein, denn ohne NPU würde dann das PSSR auf RDNA4 nicht funktionieren. Vermutlich wartet AMD mit RDNA4 bis alle RDNA3 weitgehend verkauft sind, weil die keine KI-Einheit haben.
 
Zen5-CPUs werden ja nur zusammen mit einer leistungsfähigen Graka verwendet,
Das gilt fuer Intel allerdings auch; dennoch verbauen sie eine (kleine) NPU in die grosse Desktop Chiplet CPU und AMD seit einiger Zeit auch eine (sehr kleine) iGPU ueberall deren Peripherie ziemlich viel Die Space im IO-Die einnimmt (aber vielleicht DIE-Estate eh noch frei).
Dass dGPU in der Regel jede CPU/APU/NPU TOP(s)'en ist klar aber dennoch gibt es (kleine) NPUs im Desktopbereich.

Warum sollte AMD sich nicht aehnliche Gedanken machen. Das Desktop Dies versorgt auch das Segment der mob. Workstations/rechnenstarken Notebooks aber nicht alle benoetigen eine sehr starke Grafik - da waere dann eine schicke starke RDNA4/UDNA 0.1 iGPU unterhalb APU Levels vielleicht ganz genehm und zusammen mit einer kleine NPU koennten im Verkaufsprospekt alle Checkboxen gefuellt werden.

Wo ist der Good Enough Punkt wo eine iGPU/NPU vielen (Endanwender-)Anforderungen genuegt in ein bis drei Jahren?
Oder kann es nur ein echte APU mit dicker iGPU/NPU? Wo sind die AI-Killeranwendungen/Benchmark Tools fuer die breite Masse?

Logisch bei stark grafik/stark AI-lastigen Dingen sind dGPU das Mass aller Dinge und werden es auch bleiben.
Da es Qualcomm und Intel tun, vermute ich, dass sich AMD hier nicht komplett heraushalten wird und ich erwarte mittelfristig dickere NPUs/iGPUs von AMD.
AI everywhere (o. UDNA everywhere - who knows) - ob man es selbst braucht oder nicht.

Ach ja, Software, Software, Software - sonst nuetzen die ganzen smarten Transistoren wenig.

Aber dann landet man wieder beim Thema - wann ist eine CPU noch eine CPU und wann ist eine APU eine APU oder schwinden die Grenzen alsbald voellig (was sie bei Intel und AMD schon tun - da auch Zen5 Bilder auf den Schirm malen kann und mit der iGPU auch rechnen kann).

Gruss,
TNT
 
Es ist wirklich schwierig zu antizipieren was AMD wirklich vorhat. Die XDNA-NPUs haben zu GPU und CPU einen dritten völlig abweichenden Ansatz für die Programmierung. Am ehesten könnte da mit Work-Graph für GPUs in Zukunft eine Annäherung kommen.
Wie bei Vulkan/DX12 lässt sich aber erkennen, dass auch für AI sich Softwarestacks etablieren, die unabhängig von den ISAs/APIs der Chiphersteller von der breiteren Masse der Programmierer bzw. Entwickler eingesetzt werden. Es bleibt dann nicht die Frage ob CUDA oder nicht, sondern ob die Chips und API vom jeweiligen Framework optimiert unterstützt werden.

Gerade das Thema AI ist aber die grösste Unbekannte. Microsoft wird mit dem OS nicht so gerne drei oder gar vier völlig unterschiedliche Architekturen mit Qualcom, Intel und AMD und evtl. Nvidia/Mediatek für eine NPU hardwarenah unterstützten wollen. Ich erwarte eine HAL, aber die Eigenheiten einzelner NPU-Konzepte könnten da dennoch in der Software in Funktion und Performance durchschlagen. Die HAL könnte dann aber via einem virtuellen Device sowohl AVX, NPU und GPU nutzen.

Man sollte nicht vergessen, dass Vega als Hardware sich im Nachhinein nicht schlechter als Pascal erwiesen hat, eher besser und das obwohl einiges geplantes nicht funktionierte. Während der Marktrelevanz war aber die Software für Pascal immer die besser angepasste. Darauf kommt es letztlich an.
Ich wiederhole mich. Was AMD braucht ist eine moderne Version von Steve Ballmer mit seinem "Developer-Developer-Developer" Tanz.
Wenn AMDs VPs wiederholen, dass die Game-Entwickler von selbst nur bei 40% Marktanteil sich für AMD-GPUs mehr Mühe geben, dann muss AMD mit Marketing-Geld dort eigene Entwickler hinschicken oder Optimierungen bezahlen. Letzteres will man sich nicht wirklich antun. Nvidia hat sich schon vor Jahren für "intensiven support" von Game-Entwicklern entschieden. Die Strategie von AMD über die Konsolen-APUs die Optimierungen auch auf PC dGPUs zu sehen bringt bisweilen keine Früchte. Bei DirectX und UE sehe ich da schon etwas Bewegung. Nvidia macht aber den konsequenteren direkten Schluss von Marketing, HW-Features und optimierten Games. Dabei sind und waren die Vorteile für den Durschnittsuser doch eher marginal, nur wird er das bei dem Hype nicht feststellen können solange er nicht selbst die Atlernativen testet.

Mit dem "Markterfolg" von Navi31 sehe ich sehr viele Parallelen zu Vega, so auch in der Folge in der Positionierung von RDNA4 ähnlich RDNA1. Scott Herkelman als ex-Nvidia hat es von 2016 bis 2023 nicht geschafft für Radeon Marktanteile zu gewinnen. Man hat sich immer zu sehr auf die neue Hardware verlassen, mit Vega und Navi3x ging es beidermale nicht auf. Man wird sehen ob AMD jemals den Hebel bei PC-Gamesoftware ansetzen vermag.
Es würde IMHO genügen sich gegen die Konsolen zu vergleichen um den Mainstream zu überzeugen. USPs (unique selling points) braucht es aber dennoch das ist aber nicht HBM oder RT-Cores, der Mainstream hat kein Technik-Knowhow und will keine Specs, sondern etwas besonderes auf dem Bildschirm erleben.

Von daher, die Zen-Reise geht weiter im Windschatten der Serveroptimierungen und die Radeon-Technology-Group muss/wird sich bei Software und deren verbreiteten Einsatz viel mehr anstrengen oder bleiben wo sie ist. Vielleicht kommt dann auch AMD mal auf den Trichter, dass 2CUs je Ryzen zu wenige sind, damit eine AMD-API von Entwicklern für Anwendungssoftware auch mal berücksichtigt wird. Wenn die CUs in Edge-Cases aber mehr als 8-16 Cores mit AVX leisten könnten sähe das anders aus, bei CPUs hat man doch bereits einen relevanten Marktanteil ;).
 
Strategie von AMD über die Konsolen-APUs die Optimierungen auch auf PC dGPUs zu sehen bringt bisweilen keine Früchte.
Da bin ich ehrlich und habe mir da mehr Synergieeffekte oder ein Abfaerben eines Konsolenerfolgs auf die Radeon Produktreihe im Markt/Marktwahrnehmung erhofft.
Den hat es aber nie gegeben, es liegt nicht zuletzt daran, dass kaum jemand wahrnimmt, welche Technikhersteller da die Pixel auf den Konsolenbildschirm pustet, abseits der Marken Microsoft und Sony natuerlich.
Aber wir wissen auch nicht, inwieweit die Konsolenchips nicht doch die Grafiksparte bzw. AMD stellenweise nicht mal glatt am Leben erhalten haben in den bitteren Zeiten. Vielleicht gaebe es die Grafiksparte so gar nicht mehr, Who knows/

NPUs und Co. sind noch ziemlich unbekannte Dinge im breiten Einsatz, die noch gar nicht richtig greifen (Software, Software).
Was,wie und ob sich da etwas durchsetzen wird, wird erst die Zukunft zeigen.
Bei einer breiten Anwendung in der Flaeche wird es CUDA aber vermutlich nicht sein (koennen).

Von daher, die Zen-Reise geht weiter im Windschatten der Serveroptimierungen und die Radeon-Technology-Group muss/wird sich bei Software und deren verbreiteten Einsatz viel mehr anstrengen oder bleiben wo sie ist.
Ganz genau bloss AMD muss aufpassen. Die Trumpfkarte 3DCache kann im (Gaming)Desktop nur einmal gezogen werden und Intel ist in Schlagdistanz geraten. Intel wird lernen vom massiven Einsatz von Tiles und Co im Desktop und besser werden.
Das Alleinstellungsmerkmal in der Technik in x86 Masse hat AMD nicht mehr allein.

Es wird sich also zeigen muessen wie flexibel und variabel AMD hier bei seinen Chiplets sein kann und will. Man darf gespannt bleiben.
Die Aufgabe von Zen6/RDNA4/5/UDNA1 wird nicht kleiner.

Gruss,
TNT
 
Ich hatte durch Konsolen wegen DirectX mit UWP oder Ultimate mehr erwartet. Wenn heute in der Regel die Ziel-Entwicklungsplattform PS5 ist oder UE4/Unity, dann wird die für AMDs APU optimierte Ultimate-Variante nicht Basis eines PC-Ports sein, UWP ist ohnehin Geschichte. Async-Compute ist heute nach Pascal zwar etabliert, dafür pushed in DX Ultimate Nvidia erfolgreich "deren" NvRTX, DLSS Anpassungen, vermutlich sind Ai Tools/Libs das nächste Gimmik falls UE Megalights das Pathtracing-Marketing beenden vermag. fVDB könnte auch für Gaming einmal relevant werden.
 
Da bin ich ehrlich und habe mir da mehr Synergieeffekte oder ein Abfaerben eines Konsolenerfolgs auf die Radeon Produktreihe im Markt/Marktwahrnehmung erhofft.
Bezüglich RDNA4 hoffe ich, dass da schon etwas Synergie-Effekte mit Sony heraus springen, insbesondere das PSSR, welches ja auf Basis von KI die Visualisierung verbessern soll. Ähnlich der PS5pro erwarte ich von N44/48, dass diese auch die KI-Einheiten drin haben; der Besitz dieser KI-Einheiten könnte letztlich der Unterscheidungsgrund für RDNA3.5 und RDNA4 sein...hoffentlich!
 
https://wccftech.com/intel-core-ult...e-cores-huge-gaming-uplift-up-to-gtx-1050-ti/
But take w/ a grain of salt!

Aber hier bitte mehr iGPU von AMD und auch mehr AI ermoeglichen, da der Markt es einfach im Moment und morgen verlangt.

Dies und das Aufkommen von sehr schnellen Speichertakten (-> CUDIMMs) zeigen, dass AMD aktuelle IO-Die im Desktopbereich so langsam aber sicher fertig hat. Es ist schon erstaunlich, dass Zen5 Server Chips offiziell einen hoheren Speichertakt erlauben als aktuell die Desktop-Generation ;-) .

Zen6 braucht was neues IMHO (und dann gern u.a. den IDLE Verbrauch wieder senken, der zuletzt wieder gestiegen ist, ein Bereich den Intel weiter deutlich besser beherrscht).

Gruss,
TNT
 
Ich glaube das zeigt, dass AMD strategisch die richtige Entscheidung getroffen hat mit der APU Linie und dem verbleiben bei monolitischen Chips. Hier hat man die Hürden für Intel hoch gesetzt und eine Flanke zu gemachte, die Intel nutzen wird nach einem gescheiterten dGPU-Versuch. Intel wird versuchen die iGPU im low Level nun zum Kaufargument zu machen.
 
Ich glaube das zeigt, dass AMD strategisch die richtige Entscheidung getroffen hat mit der APU Linie und dem verbleiben bei monolitischen Chips.
Ja, ganz richtig. Aber der Weg ist nicht unendlich nutzbar fuer alle Bereiche. Fuer die Butter und Brot Chips wird es vermutlich noch lange so sein.
Aber in der gehobenen Mittelklasse wird das in Zukunft schwieriger werden und der Spitzenklasse (-> AMD Strix Halo) ist auch AMD schon (ganz) anders geplant unterwegs.

Man sieht ja, dass Intel an eigenen Massstaeben gemessen deutlich an der IGPU Schraube dreht und AMD da stellenweise auch mit den aktuellen Notebookchips zumindest in Benchmarks leicht verliert bei ein paar Metriken. Das war bis vor kurzem noch ziemlich unmoeglich fuer Intel.

Morgen beginnt vielleicht das AI TOPs Rennen, was AMD noch im Moment bei den Notebook APUs fuer sich entscheiden kann.

Gruss,
TNT
 
Ich denke dass das eher eine Frage der Chipgröße ist. Wo mehr ist kann mehr kaputt gehen.
Dies Strukturgröße ist natürlich noch ein weiterer Faktor denn wo bei gröberen Strukturen ein Defekt nur geringfügige Auswirkungen hätte könnte die gleiche Fehlergröße bei feineren Strukturen zum Totalausfall führen, erst recht wenn der Chip nur eine geringe Redundanz im Aufbau bietet.
Darum fängt man für gewöhnlich bei neuen Fertigungsprozessen mit kleinen Chips an.
 
Angefangen mit Cypress 334mm² auf Cayman 389mm² auf Tahiti 352mm² auf Grenada 438mm² auf Fiji 596mm²!
Beim Sprung von kleinen Polaris 10 232mm² auf großen Vega10 484mm² 14nm auf 7nm hat AMD zwei "kleine" 7nm-Zwischenschritte gemacht mit Vega20 331mm² und bzw. zu Navi10 251mm² und dann Navi21 520mm² und Navi31 529mm² gemacht.
Jetzt kommt Navi48 mit ~ 270mm²

In der Siliziumgrößenkurve würde das so aussehen:

Screenshot 2024-10-27 171833.png

Der Siliziumschnitt von Navi31 529mm² zu Navi48 270mm² ist der zweitgrößte Cut der näheren Geschichte von AMD seit dem Abgang von Raja mit dem Cut von Fiji 596mm² auf Polaris 10 232mm².

Der "Fortschritt" ist, dass in der Mittelklasse statt Polaris 232mm² bzw. Navi10 251mm² nun der "größte" Mittelklassechip in Masse verkauft wird mit Navi 48 270mm². Wird vermutlich der mittelteure 4nm Prozess, also ein verbesserter 5nm Prozess.

Bei der Berechnung der Waferpreise 300mm und eines rechteckigen 16mm x 16,875mm ~ 270mm² und der Kalkulation von

300mm wafer_png 270mm CHIP.png
212 Stück Ausbeute pro Wafer 4nm für ~ 20.000 USD
Das Stück kostet ~ 20.000 USD / 212 ~ 94,34 USD pro 270mm² 4nm AMD-TSMC Navi48

Das gibt wirtschaftlich einen möglichen Angriff auf die Mittelklasse für Marktanteile in hohen Stückzahlen (Ausbeute).

Die Konkurrenz braucht AD103 ~379mm² "4N" und ebenfalls 16GB VRAM und vergleichbaren Cache. Die Ausbeute ist wesentlich schlechter und unwirtschaftlicher. ein 25,09mm x 15,09mm schafft nur eine Ausbeute von 148 Chips. Pro Stück also ~ 135 USD Kosten.#

300 wafer_png 379mm CHIP.png

Mal Hochskaliert auf 1 Mio. GPUs sind das alleine 94,34 Mio. USD Kosten bei AMD und 135 Mio. USD Kosten bei der Konkurrenz.
Auf 10 Mio. GPUs sind es schon 943,4 Mio. USD kosten für AMD und mindestens 1,35 Mrd. USD bei der Konkurrenz.

Wenn AMD es schafft mit der RDNA4 uArch-Verbesserung(en) mit 270mm² gegen 379mm² zu konkurrieren, dann ist AMD erfolgreich und kann immensen Druck aufbauen. Rund ~400 Mio. USD günstiger in der Herstellung sind ne Menge Einsparung an Holz für AMD.

Zusätzlich zu der GPU kommen ja die ganzen Nebenkosten (Package, VRAM, Elkos, PCB usw...) in Millionen hochskaliert.

In der derzeitigen Einsteigerklasse schafft AMD ja Navi33 204mm² gegen Intel DG2-512 406mm² und AD106 188mm² / AD107 159mm² zu bestehen. Mit der günstigsten Fertigung 6nm und der relativ kleinen Chipgröße.

Diese Strategie bei RTG bringt mittelfristig Erholung bei den Marktanteilen und wenig Kostendruck ohne HIgh-End für eine Generation.
 
Man darf gespannt bleiben IMHO.

Die Idee/Vorstellunbg steht und faellt mit der Leistungsfaehigkeit von Navi48. Zum Abdecken der gesamten Mittelklasse muss schon ganz gut in die Haende gespuckt werden.

Wait on RDNA4.

TNT
 
Bei den Spekulationen zu den Navi 4 Grafikkarten bin ich allgemein eher vorsichtig da ich davon ausgehe das es auf ein Multi Chip Design hinauslaufen wird, allerdings nicht wie bei der dritten Geheration wo ich die Cache/Speichercontroller Chiplets als sinnfrei ansehe und eher für einen Praxistest für die Breitbandkommunikation zwischen GPUs ansehe. Die wäre schließlich für die Koppelung mehrerer GPU Dies zwingend erforderlich.
Mit einem solchen Design wäre aber auch die ganze Spekulation anhand der Chip Bezeichnungen sinnfrei weil man nicht wüßte wieviele GPU Dies auf einem Träger sitzen würden.
 
Zurück
Oben Unten