AMD APUs (Strix Halo, Strix Point, Hawk Point, Phoenix, Rembrandt, Cezanne, Renoir, Mendocino)

Damit bekommst du vielleicht die Bumps kleiner aber der Stromfluss benötigt dennoch einen Mindestquerschnitt, wodurch mehr von diesen Bumps erforderlich wären. Man würde also lediglich bei den Bumps für die Daten Fläche sparen, hätte es aber mit einem deutlich teureren Design zu tuen welches die Produktionskosten hoch treibt. Zudem stellt sich noch die Frage ob überhaupt genügend Produktionskapazitäten für den Zusammenbau verfügbar wären.
Das wären dann auch schon die beiden Hauptprobleme. Die Endprodukte würden ohne ernsthaften Nutzen einfach nur teurer.
 
1. Stromversorgung:
Diese sollte nicht den Großteil der Fanouts ausmachen. Der Querschnitt der Bumps ist dabei auch weniger ein Problem, da der Widerstand trotzdem vor allem von der Leitungslänge abhängt.
2. Kosten:
Passive Interposer sind prinzipiell günstig und Intel hat diese mittlerweile in allen CPUs in allen Leistungsklassen im Einsatz.
3. Kapazität:
Nicht ohne Grund baut TSMC schon seit einer Weile an neuen packaging Anlagen und zu Zen 6 könnte die neue Kapazität voll bereit stehen (wenn sich AMD hier Kapazitäten gesichert hat, wovon ich aber ausgehe) .
4. Kein ernsthafter Nutzen:
Interposer bieten geringere Latenzen und eine deutlich effizientere Datenübertragung. Beides sind im Moment die größten Nachteile von AMDs Chiplet Ansatz auf organischem Träger.
5. Die Gerüchte stammen von MLID und nicht mir :)
 
Und der Leiterwiderstand hängt wovon ab?
Richtig, der Länge des Leiters und dessen Querschnitt. (beim gleichen Material)
Dementsprechend fällt dann die Verlußtleistung und der Spannungsabfall in Abhängigkeit vom Stromfluss darauf aus. Beides sollten wiederum möglichst gering ausfallen weil es Störfaktoren sind.

Mit dem Interposer fährst du immer teurer weil dieser noch zu den Package Kosten noch hinzu kommt und die Microbumps mit ziemlicher Sicherheit auch teurer sind und bei der Rechnung ebenfalls noch oben drauf kommen. Da das Endprodukt sonst keine Vorteile davon hat wäre es nur komplizierter und teurer. (mehr Teile und Bearbeitungsschritte -> zusätzliche Ausfallmöglichkeiten weit hinten in der Produktionskette)

Warum sollte der Interposer bei einem solchen Produkt bessere Latenzen bieten? Die Signalwege bis zum Sockel sind mindestens gleich lang und für die Kommunikation innerhalb des CPU Chiplets wäre es irrelevant. Die Kommunikation zwischen den Chiplets hängt wiederum nicht nur von der Entfernung ab sondern auch von den zusätzliche Schnittstellen die dafür erforderlich sind und daran würde sich letztendlich nichts ändern.
Würde man mit den einzelnen Chiplets weiter zusammenrücken darf man wiederum noch zusätzliche Spacer mit einrechnen um eine möglichst ebene Fläche zu erhalten und die weiter zusammen gerückten Chips heizen sich durch die größere Nähe gegenseitig stärker auf.

Ja, es sind Gerüchte und als solche muss man sie ach behandeln denn bei Gerüchten ist auch immer viel Unsinn mit dabei.
Im Embedded Bereich könnte es sinnvoll sein wenn man einen großen Chip aus vielen kleinen zusammensetzen und so z.B. den RAM mit aufbringen will. Die liegen dann aber auch in anderen Preisbereichen, erst recht bei Kleinserien. Aber bei einem gesockelten Standard Prozessor der im hart umkämpften Preisbereich liegt und es am Ende keine ernsthaften Vorteile gibt sondern nur Zusatzkosten? Wohl kaum.
 
So ein Mikrobump ist aber entspannend auch sehr kurz und damit bleibt dessen Widerstand trotz kleinem Querschnitt verschwindend gering.

Den Informationen nach die ich finden konnte kann Advanced Packaging aufgrund höherer Automatisierung sogar günstiger sein als herkömmliches. Im Moment sind die mangelnden Kapazitäten wohl Kostentreiber Nummer 1. Bleibt der Interposer selbst, bei einem passiven Silizium Interposer mit 180nm Technik ist wohl nicht viel mehr als 1 Dollar pro Chip anzusetzen. Desweiteren soll es bald auch noch Glas Substrat Interposer geben. Das yield von 2.5D packaging sollte gerade durch die Automatisierung einfach hoch zu halten sein, solange man nicht am Prozess Limit arbeitet. Wenn du genauere Informationen zu den Preisen hast wäre ich dafür aber sehr dankbar.

Die Chip to Chip Latenzen sinken vor allem durch kürzere Signalwege. Das ist im organischen Package wegen der nötigen Leitungsabstände so nicht erreichbar. Abgesehen davon reduziert sich aber eben vor allem noch die Energie pro übertragenen Bit extrem, wodurch Chiplets für Mobile erst sinnvoll werden. Und im Desktop hätte man zumindest noch weniger idle Verbrauch und etwas mehr Energie für die eigentlichen CPU Chiplets unter Last. Das ist unter Umständen schon mehr als das was man im Moment von einem half node Sprung erwarten kann.

Gerade embedded kommt es doch eher auf Cent Beträge im Preis an und nicht anders herum. Deswegen werden da auch nur winzige monolithische SOCs oder alte Technik wie Zen 1 verkauft. Für Kleinserien wird dann entweder mit Standard Hardware gearbeitet oder man landet gleich bei FPGAs und damit einer ganz anderen Produktkategorie.
Was genau von den Gerüchten stimmt ist durchaus noch sehr fraglich, aber wenn nur die Hälfte davon korrekt ist wären das schon die größten Veränderungen am Chiplet-Design seit Zen 2.
 
Die Hölle ist zugefroren: DELL setzt 8 Jahre nach dem Start von Ryzen erstmals "ernsthaft" AMD APUs (mehr als einzelne Alibi-Geräte) in Notebooks und Workstations ein. Plötzlich reden sie über "flexibility" und "choice".
 
Zuletzt bearbeitet:
Dafür ist das neue Dell-Namensschmea der letzte Mist. Undurchsichtiger geht's nicht...
 
Asus ROG Flow Z 13:
 
Strix Halo ist echt beindruckend, schade daß er noch nicht mehr zeigen darf
 
Mit all den neuen APUs ist AMD für den Notebook-Markt nun so mega-breit aufgestellt, dass es mich nicht wundert, dass Dell plötzlich mit von der Partie ist. Gleichzeitig fällt Intel mit seinen Produkten im Notebook plötzlich auffällig zurück.

Insbesondere bei AI sehe ich AMD ungleich besser aufgestellt: selbst die kommenden "billigen" AI-APUs ("Krakan") liefern 40Tops und liegen auch sonst in allen Dimensionen in etwa auf Lunar-Lake-Niveau, dürften aber zu einem Bruchteil des Preises für den OEM zu haben sein, sofern er ein entsprechendes Mix an APUs nimmt, also dann auch Strix und Strix-Halo abnimmt. Hier hat Intel das Problem der hohen Herstellungskosten insbesondere bei Lunar-Lake. All dass dürfte den Notebook-Herstellern nicht entgangen sein.

Endscheidend dürfte aber sein, dass AMDs Image im CPU-Bereich bereits so gewaltig zugenommen hat, dass langsam jeder mitbekommen hat, dass AMD-CPUs nun das Maß aller Dinge sind. Das dürfte sich mit der Zeit auch auf die Notebooks übertragen, insbesondere bei den aktuellen Produkt-Portfolios. Wer in so einem Umfeld keine AMD-Notebooks anbietet, läuft Gefahr, bald schnell an Marktanteil zu verlieren, wenn sich dieser Trend entwickeln sollte.
 
Für den Endkunden der AI nicht so auf dem Radar hat, ist es praktisch, dass die weiterhin leistungsfähigen 8000er APUs (Zen 4 Cores / Hawk Point), nun die niedrigen Preisbereiche abgrasen... auch als rebranded als Ryzen 200.

Andere Frage zu Strix Point Halo: die beiden Dies mit den Zen 5 Cores, sind das "normale" CPU Chiplets wie sie auch für die Desktop CPU´s verwendet werden? Oder sind das spezialisierte Chiplets für die APU´s?
 
Soweit ich das bislang verstanden habe, sind das die bekannten Zen5 CCD, die die APU antreiben.

Gruss,
TNT
 
Danke, dann ist es eine 1A Verwendung dieses Chiplet-Typs in x-Produktkategorien (Server, Desktop, HX-Mobile und Halo-APU)
 
Endscheidend dürfte aber sein, dass AMDs Image im CPU-Bereich bereits so gewaltig zugenommen hat, dass langsam jeder mitbekommen hat, dass AMD-CPUs nun das Maß aller Dinge sind.
Ja, es ist inzwischen doch die Regel, dass AMD bei sonst baugleichen Notebooks günstiger UND technisch spürbar besser ist.
Da musste AMD bestimmt nicht lange betteln, damit Dell ihre Angebotslücke mal langsam schließt. Auch wenn Volker Rißka von IntelBase natürlich wieder einen tendenziösen Artikel schreiben musste, weil für ihn und den "Sponsor" nicht sein kann, was nicht sein DARF. [klingt, als hätte er noch nie eine CES-Präsentation gesehen. Wen hätten sie denn sonst auf die Bühne holen sollen?].

Bei Krackan sind es 50 TOPS, und selbst in der 3. Riege der APUs bekommt man schon ZEN 5 + RDNA 3.5, das kann man rundum empfehlen.

ASRock hat den DeskMini X600 mit USB4 aufgewertet, der den alten VGA-Port ersetzt. Damit gibt es 3 digitale Display-Anschlüsse und insgesamt 7 USB-Ports.

DeskMini_X600_USB4.webp
 
Zuletzt bearbeitet:
In Anbetracht dass in allen neuen APUs RDNA3.5 steckt, halte ich es für sehr unglücklich dass FSR4 nur für RDNA4 kommen soll.
Gerade bei weniger Leistung ist ein qualitativ gutes Upsampling wertvoll.

Nichtsdestotrotz bleiben die Chips im mobilen Umfeld fast konkurrenzlos. Wenn Dell diesmal wirklich mit größerem Volumen einsteigt, könnte sich das für AMD auch langsam in höheren Marktanteilen auszahlen.
 
dass FSR4 nur für RDNA4 kommen soll.
Da die nötige Hardware in RDNA 4 steckt, geht das nicht anders. AMD bringt neue Grafik-Cores aber immer schnell in die APUs, die nächste Generation wird das haben.
 
Das es nicht geht halte ich für fraglich. GPUs sind schließlich frei programmierbar. Das es zu langsam wäre könnte sein, aber selbst daran hätte ich Zweifel. XESS läuft sogar ohne besondere Optimierung auch auf RDNA.
WMMA bleibt bei RDNA3 bisher quasi ungenutzt.

Die nächste Generation APUs ist auf alle Fälle aber erst mal RDNA3.5. ein Strix Halo Nachfolger könnte noch 2 Jahre entfernt sein. Bisher ist ausschließlich Strix Point auf dem Markt.
 
Du brauchst halt KI-Einheiten dafür.
 
XeSS ist ein KI Algorithmus der ohne KI Einheiten per GPU compute läuft.
RDNA3 hat laut AMD first Gen KI-Einheiten, RDNA4 second Gen.
Die APUs haben sogar noch eine XDNA2 NPU als KI Einheit.
 
Ich weiß, dass die APUs eine NPU haben, aber Du weißt doch überhaupt nicht, wie FSR 4 technisch umgesetzt ist. So lange Du keine Ahnung davon hast, kannst du nicht einfach behaupten, das es gehen würde.

Das ist unseriös, und auch unplausibel. AMD wird sich kaum einbilden, dass die RDNA3-Käufer alle auf RDNA 4 umsteigen, sobald man ihnen ein "exklusives" Feature gibt. Ab RDNA2 hätten die User schon wegen der Leistung einen Grund, diese Generation künstlich für FSR 4 zu "sperren", macht also auch keinen Sinn.
 
RDNA3 kann "nur" KI-SuperResolution durch "rapid packed math" fp16.

RDNA4 macht das per fp8 / int8, was schneller ist und gleichzeitig mehe Bandbreite spart.

Mike Mantor, Corporate Fellow and Chief GPU Architect at AMD said: “This 8-bit floating point format will allow AMD to deliver dramatically improved training and inference performance for many types of AI models. As a strong supporter of industry standards, AMD is advocating for the adoption as the new standard for 8-bit floating point notation with IEEE.”

Vermutlich kann RDNA4 nicht nur schneller KI, sondern auch mehr KI als RDNA3.

Die inference Leistung dürfte deutlich verbessert haben.
 
Zuletzt bearbeitet:
Ich wäre vorsichtiger. Wenn sie so klar sagen "Wir versuchen es, der Wille ist da, aber wir versprechen nichts", dann ist das auch nicht einfach.
Und da im Raum steht, dass es ohne Hardware nur die schnellsten RDNA3-Karten schaffen, kann man wohl sicher sein, dass es bei APUs nicht gehen wird.

Das Thema bleibt wichtig für Steam Deck und Notebooks, aber das was später für normale APUs kommt, muss nicht so vom Hocker hauen wie das, was große Grafikkarten erreichen können. Strix Halo schafft das sicherlich eher.
 
Zuletzt bearbeitet:
Würde ich so pauschal nicht sagen.
Kommt drauf an welche APUs und welche Auflösung.

Bei 1080p 50% ist die internal resolution 540p, also sehr wohl für APUs nutzbar, auch mit geringerer Rechenleistung.

Bei FSR4 ist derzeit alles auf 4K konzentriert, was schön ist, aber die anderen Auflösungen 1440p, 1080p, 720p existieren auch und sind für APUs viel interessanter.

Für Gaming Handhelds wäre FSR4 der absolute Durchbruch was BQ angeht.

Es geht wahrscheinlich um den Pixel-Shader, der muss halt die Pixel irgendwann dann auch zeichnen.
 
RDNA3 hat gegenüber RDNA2 den BF16 Support hinzubekommen. Vermutlich wird RDNA4 noch effizientere Datentypen für AI unterstützen, aber letztlich scheint es mir eher eine Frage der Optimierten NN je Architektur und Cache zu sein.
Bei den AI APUs greifen afaik die NPUs auf den gleichen Speicherbereich wie die iGPU zu. Prinzipiell würde ich erstmal nicht ausschließen das die wiederum mit angepassten NN gleiche Funktionaltät ermöglichen. Am Ende wird es ein Abwägen zwischen Zugewinn an Bildqualität vs. Performance vs. Treiberaufwand.
Bei Snapdragon hat man mit deren NPU auch bereits Scaling implementiert, AMD sollte mindestens ein PoC als Beta für die AI APUs veröffentlichen können.
 
Zurück
Oben Unten