AMD RDNA 4 - 144CU, 48GB VRAM, 3nm + 4nm

Eigentlich

Hatte AMD seine SKUs immer an Zielgruppen nach Monitorauflösung, Refreshrate, DX Features und dazu passender HW/Preisdimemsionierung ausgelegt.
Zumindest wurde das in den GPU Vorstellungen so rübergebracht.

Weil wir mit 4K 120Hz schon genügend Raster-Leistung haben könnte ein Shrink mit Bugfixes und doppelter RT Unit je CU genügen.
 
AMD hat mit RDNA3 uArch die 8K Monitore von Samsung G9 vorgestellt...
Allerdings mit dem FSR 2.X bzw. FSR 3.0 Tricks und 8K als 32:9 Format mit 7680 x 2160 Pixel statt den echten 8K 7680 x 4320.

Display-Port 2.1 bietet ja max. mit Kompression 8K @ 240hz an. Nur die Monitore müssten auch mal kommen. Ankündigung letztes Jahr, jetzt ist April und noch nichts zu sehen am Markt.

8K @ 240hz braucht massivst Rohleistung.
 
Ich denke 8k ist für Schreibtischmonitore sinnfrei und wird viel länger Nische bleiben als es 4k noch immer ist. Sieht man gut an den tatsächlich lieferbaren Modellen auf Geizhals. (Anekdote: für HD+ sind stagnierend nur 1/3 der Haushalte in D bereit extra zu bezahlen, die anderen gucken das Zeug gar nicht oder in 576 auf dem 4k TV).
Bei VR scheint es auch im Äquivalent bis zu stereo 4k zu bleiben, Eyetracking und VRS löst das Leistungsproblem dort voraussichtlich generell.

Dem Marketingstrategen wird wohl auch klar sein, dass die 8k-Desktop-Fetischisten eher technisch nicht durchblicken. Dafür genügt den Produktmanagern voraussichtlich FSR3 und DLSS3 mit 8k Sticker auf der Box.
 
Zuletzt bearbeitet:
. (Anekdote: für HD+ sind stagnierend nur 1/3 der Haushalte in D bereit extra zu bezahlen, die gucken das Zeug gar nicht oder in 576 auf dem 4k TV).
Aus eigener Erfahrung kann ich nur sagen das HD+ noch einen deftigen Nachteil hat. Im Gegensatz zu der freien SD Variante kam kann zu viele Sendungen nicht aufzeichnen weil sie mit einem Kopierschutz versehen sind.
Zusätzlich bezahlen und dann nicht aufzeichnen dürfen? Eine schlechte Kombination....
 
Nach neuesten Leaks soll AMD angeblich N41 und N42 gecancelt haben.

Ich halte es für unwahrscheinlich.

RDNA4 N41XTX in N3E mit 120CU sind die letzten Gerüchte über N41.
 
Wenn ich mir den ganze Hype um KI ansehe, dann ergibt das für mich Sinn: MI300 geht erst in 2024 in Serie und AMD will hier womöglich auch maximal in den Markt. Nachdem gerade die Kapazitäten für diese Multichips, aber auch N5/N4 knapp sind und man zuletzt womöglich schnellstmöglich MI400 realisieren und auf den Markt bringen will, kann ich mir vorstellen, dass man jetzt alle diese Highend-Kapazitäten, die man geordert hat, einfach ausschließlich für MI300/400 reserviert und somit an die Graka-Hersteller mal komuniziert, dass es vermutlich keine RDND4 als Highend gibt. Zuletzt konzentrieren sich vermutlich erstmal alle AMD GPU-Ingenieure um MI300/400 und wurden von RDNA4 womöglich abgezogen, sodass RDNA4 womöglich nicht viel mehr als ein kleines "Update" von RDNA3,5 wird.
 
Auch für Moore ist dabei der Blick auf die Prognose der Knackpunkt. Der Experte schreibt aber, dass die etwas negativen Datacenter-Kommentare des Managements nichts mit der Nachfrage nach dem KI-Beschleuniger MI300 zu tun hätten.

„Wir hören innerhalb der Lieferkette von hohen Zahlen was die Auslieferung im nächsten Jahr angeht“, schreibt Moore in seiner Studie. Allerdings gebe es Probleme beim Timing. So habe der Chip mit acht Monaten eine sehr lange Fertigungsvorlaufzeit, welche nun auf ein sehr hohes Kundeninteresse trifft.

Positiv für Anleger: Denn ist die Produktion erst einmal hochgefahren, klingelt – nachdem ChatGPT und Co die Nachfrage angekurbelt haben – die Kasse. Laut dem Analysten von Morgan Stanley soll ab dem nächsten Jahr sogar ein Umsatz von zwei Milliarden Dollar allein vom MI300 generiert werden.
 
Positiv für Anleger: Denn ist die Produktion erst einmal hochgefahren, klingelt – nachdem ChatGPT und Co die Nachfrage angekurbelt haben – die Kasse. Laut dem Analysten von Morgan Stanley soll ab dem nächsten Jahr sogar ein Umsatz von zwei Milliarden Dollar allein vom MI300 generiert werden.
Die Dinger für diesen Umsatz müssen dann auch erstmal hergestellt werden. Wenn dem wirklich so ist, dass man schon jetzt von etwas 2Mrd für Mi300 in 2024 ausgeht, dann könnte das ja noch mehr werden...dann verwundert es nicht, dass man die Highend-GPUs gleich ganz streicht, da diese eh kaum Rendite erwirtschaften, zumal diese kaum einen Umsatz machen: aktuell verkaufen sich ja vor allem die Grakas knapp unter 1000€/$, vor allem GTX4070 und RX7900.
 
Das Nadelöhr ist das Packaging - TSMC baut ja schon aus. Mal sehen wann AMD dann die ganze Nachfrage befriedigen kann.
 
MI300 ist 5nm TSMC
N41XTX 120CU wird für 3NE spekuliert.
Da sehe ich keine Konflikte für eine kleine Auflage von Grafikkarten für den Desktop GPU-Markt Q3 / Q4 2024 wenn MI300 schon auf Hochtouren läuft.
Es gibt auch keine Speicherkonflikte weil GDDR7 vs HBM3(E). Packaging sollte AMD auch hinbekommen zumal in kleiner Menge.

Klar gibs mehr Kohle bei der AI-Hype für MI300 GPUs/APUs, das gabs aber auch schon bei der Mining-Hype. 12-14 Monate noch bis Q3 / Q4 2024, da kann schon einiges passieren.
 
MI300 ist 5nm TSMC
N41XTX 120CU wird für 3NE spekuliert.
Da sehe ich keine Konflikte für eine kleine Auflage von Grafikkarten für den Desktop GPU-Markt Q3 / Q4 2024 wenn MI300 schon auf Hochtouren läuft.
Es gibt auch keine Speicherkonflikte weil GDDR7 vs HBM3(E). Packaging sollte AMD auch hinbekommen zumal in kleiner Menge.

Klar gibs mehr Kohle bei der AI-Hype für MI300 GPUs/APUs, das gabs aber auch schon bei der Mining-Hype. 12-14 Monate noch bis Q3 / Q4 2024, da kann schon einiges passieren.
Kommt hinzu dass TSMC generell niedrigere Umsätze macht und eigentlich die Kapazitäten nicht zu knapp sein sollten.
Am Ende bleibt alles Spekulation, sowohl die Abkündigung als auch die Gründe dafür.

Allerdings erwarte ich eine Abkühlung im Rennen um schnellste Gaming-GPUs. Es gibt keine guten Argumente jenseits der 4k Auflösung, die selbst noch lange Premium darstellen wird. Bei VR bildet sich eine stabile Nische ohne Mainstream, mit EyeTracking VRS.
Lediglich mit Raytracing sind bedeutende Steigerungen ganz spezieller Anforderungen zu erwarten. Das bedeutet aber auch in Software Abwärtskompatibilität aufzugeben um die Vorteile in der Entwicklung nutzen zu können. Der Prozess wird voraussichtlich noch eine Dekade benötigen, wie bei der Einführung von anderen wesentlichen Technologien auch schon. Es wagen bislang nicht mal einzelne Projekte extreme Anforderungen an GPUs zu stellen, am ehesten war das noch in den Anfängen der aktuelle VR Generation der Fall.
Momentan sind noch starre fast photorealistische Rasterizing-Welten im Trend. Mit RT und Verzicht auf herkömmliche Beleuchtung wäre auch ein Populous mit fast photorealistischer Welt möglich, bzw. so veränderbare Welten wie Minecraft aber voll animiert und ohne Klötzchen sondern komplexer Vegetation.
Dynamische Meshes im Wechselspiel mit Nutzereingaben und Spielregeln sind besser auf CPUs zu berechnen, so wird momentan vieles am CPU Takt limitiert. Ein technologischer Hype zum Verkauf sehr teurer GPUs ist kaum zu erwarten.
Es wäre konsequent auf GPUs im Mainstream Preissegment zu setzen, ohne besondere Schwächen in Raster, RT und nur bedingt AI, mit grosszügig VRAM dazu und ohne Flaschenhälse für stabile Leistung ohne Drops.
Die Entwicklerbasis heute sind PS5 oder DirectX-Ultimate für XBSX in optisch überzeugendem 4k 60Hz, für alles andere gibt es Abstriche oder Goodies in Auflösung und FPS. Gimmiks die durch die GPU Hersteller oben drauf finanziert wurden waren in der Vergangenheit auch nie den Hype wert.

RDNA4 im Desktop sollte m. E. deshalb „nur“
  • im Minimum 30CU, optimum 60CU bieten, in extremis nochmals verdoppeln
  • im Minimum die 2,5GHz erreichen, im Optimum 3GHz, in extremis nochmals mehr
  • im Minimum (abseits neuer Feat.) die RT-Leistung je CU beibehalten, im Optimum verdoppeln, in extremis vervierfachen
  • im Minimum immer 16GB VRAM mit 500GB/s aufweisen, im Optimum 20GB, in extremis nochmals mehr und schneller
  • im Minimum 192MB IF Cache für 4k mitbringen, mini GPUs für 1440p mit 96MB (FHD mit alten Serien mit 64MB bedienen)
  • im Minimum immer PCIe 16 Lanes für Upgrader die 15GB/s zu schaffen, im extremis dann mit PCIe5
  • einen DirectStorage Beschleuniger ASIC mitbringen, der das ohne CUs erledigt
  • im Minimum ein VCN mit 4k en-decode parallel in AV1/H265, optimum 2x encode, in extremis mehr und 8k verbauen, ein Framedoubler ASIC fürs FSR“3“.

Abseits fragwürdigen Entwicklungen im FPS Benchmarking, das BQ und Stabilität idR ignoriert, sollte das für durchweg empfehlenswerte und günstige GPUs in vernünftigen Watt-Dimensionen genügen. Man müsste allerdings wissen wie man das im Marketing richtig positioniert.
 
Zuletzt bearbeitet:
Man müsste allerdings wissen wie man das im Marketing richtig positioniert.
Ich denke AMD wird es über den unteren Bereich versuchen mit den APUs, zuerst Mobile und dann im Desktop. Wenn da eine "Good Enough" Basis erreicht wird, kann es in der Masse für das Marketing eine breite Zielgruppe für die Spieleentwickler sein und so technologisch besser eingebunden werden zukünftig.
 
Die APUs haben eigentlich jetzt schon Masse genug. Wir sehen immer die westliche Welt, die sich Rechner mit Grafikkarten leistet. Global gesehen, wird überwiegend auf integrierter Grafik gezockt, weil nichts besseres vorhanden ist.
Das hat aber bisher nur begrenzten Einfluss auf die Spieleentwickler.
Insofern sehe ich nicht, dass an der Situation sich etwas ändert.
MfG
 
Dass Chiplet-APUs in das Notebooks und dann in Desktops wandern ist für mich eine gravierende Änderung. Wie kann man das "nicht sehen"?
 
Man kann es so sehen, dass sich für die Spieleentwickler die Zielgruppe nicht wesentlich erweitert, weil die bisher schon eine "Good Enough" Basis aus viel schwächeren Teilnehmern haben. Good enough ist hier weniger im positiven Sinne vorhanden als im faktischen, weil es angesichts der gigantischen Mehrheit good enough sein muss.
MfG
 
Da wir über die Positionierung des AMD Marketings sprechen ist es nur normal vorhandene Vorteile zu unterstreichen und zu bewerben. Ich sehe nicht warum du dem widersprichst - AMD sollte damit kein Marketing machen weil es schon so ist? Es gib nun APUs die mit Balken besser dastehen als vorherige.
 
Die Hypothese kann man natürlich aufstellen. Davon bin ich allerdings kein Anhänger.
Mein Eindruck ist eher gegenteilig, dass sich AMD beim Marketing der iGPU Fähigkeiten seiner APUs eher zurückhält.
Meine Tochter hat zu Weihnachten einen Rechner mit AMD Ryzen 5 7600X bekommen, der 2 CUs enthält. Die Grafikkarte dazu gab es erst Ende Januar, weil die absehbar im Preis fallen würde, was dann auch so kam. Vorübergehend musste sie also mit der iGPU auskommen, und ich war erstaunt, wie gut viele Spiele bereits mit diesen 2 CUs auskommen und dass sie überhaupt aufstarten. Für AMD sind diese 2 CUs anscheinend so beschämend wenig, dass ihre Existenz geradezu verheimlicht wird. Man kam (damals) kaum an Benchmarks ran, AMD selbst veröffentlichte auch keine.
Mein Eindruck ist, dass AMD sich scheut, die iGPU Fähigkeiten seiner APUs zu unterstreichen, möglicherweise um das (derzeit dünne) Geschäft seiner diskreten Grafikkarten nicht zu belasten.
MfG
 
Die 2 CU iGPU ist auch nicht in AMDs APUs verbaut - AMD hat die 2 CUs als Backup und für die Bildausgabe bei BIOS Flashback vorgesehen. Ich spreche über APUs, die jetzt eine wichtige Barriere überschreiten. Marketing kann man nur da verstärken, wo man es bisher aus verschiedenen Gründen nicht ausreichend betrieben wurde. Daher ist ein Erfahrungswert aus der Vergangenheit nicht zielführend für eine Prognose in die Zukunft. Wenn, dann ist das um so mehr ein Grund dort Marketing zu verstärken, wo es stiefmütterlich behandelt wurde.
 
Das Beispiel sollte doch aufzeigen, wieviel mehr gängige APUs anscheinend jetzt schon bieten, wenn 2 CUs bereits spielbare Ergebnisse liefern. Trotzdem fehlt bisher das Marketing hinsichtlich Spieleleistung potenterer APUs. Meiner Meinung nach gibt es einen Grund dafür.
Wir brauchen uns da aber nicht mit Spekulationen aufhalten, weil wir es ja erleben werden oder eben nicht.
MfG
 
Robert Hallock hat ja nun leider zu Intel gewechselt. Gutes Produktmarketing erwarte ich von AMD - wie seit seinem Abgang - ersteinmal keines mehr.

Falls AMD früher als Nvidia erkennt, dass es nicht darum geht einsame Spitzenleistung sondern das fürs das Gaming Notwendige im besten Gesamtpaket anzubieten ist das schon eine Herausforderung die Gamer-Community entsprechend zu überzeugen. Mit Polaris hat der Markt das eigentlich mal ganz gut angenommen, von der Launchpräsentation mal abgesehen. SteamDeck überzeugt auch ohne Petaflops.
Wir kommen in die Mitte des Lebenszyklus aktueller Konsolen - Produktreife der Games der Hardware angemessen. Die Masse an Games wird mit UE5 eingenordet werden. Monitor/Sound haben die Sättigungsgrenze überschritten. Der PC muss nur doppelte oder vielleicht 4-fache Frameraten bringen, wo möglich ohne Skalierung. Bei der letzten Konsolengeneration war am Ende auf PC der Hype mal Supersampling, das wird diesmal nicht kommen. Durch Hybrid-Rendering Vorgaben der Konsolen haben wir beim PC Wettrüsten am Point of diminishing Returns überschritten bis eine kommende Gen dann mit kompletter HW-Raytracing Pipeline daherkommt. Das wird nochmal kurz ein Wettrennen auslösen und dann war es das.

RDNA4 wird hoffentlich die richtigen Weichen stellen. Peak-Shaderleistung für Rasterizing ist für mich nicht entscheidend. Hoher Takt wäre besser als ein noch breiteres Design. Ein grosser Cache, der suboptimalen Shadercode wegbügelt. Lovelace hat mit gigantischem L2 einen weiten Sprung bei Leistung und Effizienz hingelegt. RDNA3 war da kürzer gesprungen und muss offensichtlich mehr Aufwand bzw. Bremsen für Kohärenz und Latenzunterschiede mitschleppen.
 
Zuletzt bearbeitet:
Trotzdem fehlt bisher das Marketing hinsichtlich Spieleleistung potenterer APUs. Meiner Meinung nach gibt es einen Grund dafür.
Wir brauchen uns da aber nicht mit Spekulationen aufhalten, weil wir es ja erleben werden oder eben nicht.
Der Grund ist doch kein Geheimnis und heißt Speicherbandbreite - das ist ja auch keine wilde Spekulation, dass DDR5 und HBM da Grenzen verschieben.
 
AMD hat schon AI-NPCs angesprochen, statt wie bisher KI nur beschränkt als optischen Filter (upscaling) zu nutzen.

Die Mittelklasse ist derzeit PS5 Oberon 6nm APU mit RDNA2 uArch und minimal RT entsprechend der RX6700 2304SP (36CU) GPU.

Der Fortschritt am PC kommt dadurch, dass AMD u.a. leistungsfähige und für die Masse bezahlbare 16GB GPUs in der Mittelklasse verbreitet (N21, N31XL, N32)

7900GRE - 16GB
6950XT / 6900XT - 16GB
6800XT / 6800 - 16GB
7800XT - 16GB

alt: (Radeon VII - 16GB / Vega FE 16GB)

Das sind in der Summe sechs unterschiedliche 16GB Grafikkarten bei AMD.
 
Das ist der technische Grund. Als wirtschaftlichen Grund vermute ich, was ich in der letzten Zeile von #69 geschrieben habe.
MfG
 
Zurück
Oben Unten