AMD RDNA 4 - 144CU, 48GB VRAM, 3nm + 4nm

Waren bei RDNA für das Thema RT nicht die ROPs zuständig?
 
Die Compute Units sind bei RDNA3 für Ray Tracing zuständig. Die CPU Ray Tracing DrawCalls können ziemlich geil parallelisiert werden durch dual issue und dem extrem schnellen Front-End bei RDNA3 (bis 3,5Ghz).
Bei Cyberpunk 2077 wird Inline Ray Tracing benutzt wo ein großer (compute) shader für traversal und BVH die angemessene Lichtkalkulation wenn der Strahl Dinge trifft oder verfehlt. Wichtig bei Cyberpunk 2077 ist halt den fp32 Anteil für Inline Ray Tracing möglichst zu verringern und es in HLSL compute shader fp16 umzuwandeln, was Speicher spart und die Performance sehr gut beschleunigt.


"Inline raytracing is an alternative form of raytracing that doesn’t use any separate dynamic shaders or shader tables. It is available in any shader stage, including compute shaders, pixel shaders etc. Both the dynamic-shading and inline forms of raytracing use the same opaque acceleration structures."

Mittlerweile sind 120-180fps bei Cyberpunk 2077 möglich mit Path Tracing auf RDNA3 RX 7900 XTX:

 
Mittlerweile sind 120-180fps bei Cyberpunk 2077 möglich mit Path Tracing auf RDNA3 RX 7900 XTX:
Ich denke inline RT bedeutet vor allem, dass in einem/jeden üblichen Shader an geeigneter Stelle die RT Parameter abgefragt werden. Die Ray-Intersection im BVH-Tree (diese opaque accelleration structures) werden dann schon im RT-Teil der CU berechnet, die dort bei den Textureinheiten angegliedert sind.
Je nach 3D-Pipeline ergeben sich dann Vorteile im Speicherzugriff und Auslastung der CUs. D.h. es muss nicht erst ein Beleuchtungsmodell für die ganze Szene mit Ray-Intersection erstellt werden, nur wo und wann es nötig wird macht man eine RT-Prüfung. Beispielsweise für Pixel/Dreiecke bei denen man RT ausschliessen kann gibt es auch keine BVH-Abfragen. Oder man macht es nur für Pixel bzw. Flächen die Schatten oder Reflexionen haben können genauer.

Wie kommt man denn zu den Path Tracing Werten für CP2077 mit RDNA3, sind das Modder-Patches oder ist das durch CD ProjectRed gepflegter Code?
 
Zuletzt bearbeitet:
Solche Werte mit RDNA3 Path Tracing kommen in Kombination mit Mods zustande, mit dem Wissen, dass der von CD ProjectRed gefpflegter Code nicht perfekt für RDNA3 Path Tracing ist (sondern für die Konkurrenz). Der Großteil der Codes, spricht >99% ist natürlich von CD ProjectRed. Der Anteil der eigenen Code-Optimierung in Zeilen für RDNA3 liegt bei <1%, allerdings mit großer Wirkung.

Es lässt sich bei der Modifikation der Engine, spricht bei der Optimierung für RDNA3 erkennen, dass CD ProjectRed keinen RDNA3-Entwickler bei sich im Studio hat.
Offen bleibt noch inwieweit diese Modifikation sich auf die anderen Grafikkarten der RDNA3-Architektur auswirkt und kann Aufgrund der fehlenden Hardware (wie RX7600 oder RX7800XT) nicht weiter untersucht werden. Der aktuelle Stand der Path Tracing Optimierung gilt nur wie im Video gesehen für RDNA3-RX7900XTX.

Path Tracing und Ray Tracing drawcalls werden ausschließlich über die RDNA3 Shader ausgeführt. Es ist stark zu vermuten, dass bei voller Nutzung der RDNA3 Shader inkl. dual issue bei 3,2Ghz Front-End eine Leistung von 3,2 x 512 x 96 ~ 157 Tflop/s fp16 erreicht wurde und weltweit das aktuell leistungsfähigste HLSL Path-Tracing System von AMD kommt in Form vom Ryzen 9 7950X + Radeon RX 7900 XTX.
 
Zuletzt bearbeitet:
Die Ray-Intersection im BVH-Tree (diese opaque accelleration structures) werden dann schon im RT-Teil der CU berechnet, die dort bei den Textureinheiten angegliedert sind.
Ah stimmt ja, die RT Einheiten hockten bei RDNA in den TMUs mit drin.
 
... würde mich mal interessieren was AMD dazu sagt. CP2077 ist ja das Marketing-Tool für Nvidia, so wie es auch schon die Witcher-Titel jeweils waren.
Ich habe bei Nexusmods nur einen Mod gefunden, der diverse INIs zur Game-Engine überschreibt und ansonsten Screenshot PNGs im DL hat. Könnte das wirklich so einfach sein? *noahnung*
Doppelposting wurde automatisch zusammengeführt:

habe jetzt doch noch das gefunden
zuvor nur das
 
Zuletzt bearbeitet:
Den "AMD FSR3 Frame Generation" mod zur Beschleunigung brauchst du als RDNA3 User auch noch:

Bei reinem Cyberpunk 2077 Rasterizing werden ~360fps in UHD erreicht :cool:


Ich finde die Märchen vieler Magazine so lustig, die "grüne Macht" (NV) haben.
 
Zuletzt bearbeitet:
Also allein die INI Tweaks für RDNA verdoppeln die RT Leistung in CP2077 und Gamefixes von Moddern noch viel mehr. Dazu noch die kaputte inkompetente FSR3.x Implementierung, von den Problemen zum Launch ganz zu schweigen.

Also entweder da arbeiten mit die größten Deppen an der Engine bei CDPR oder es sollen absichtlich die Radeons (und ggf. ältere Gforce) mit vermeintlichen Patches möglichst schlecht dargestellt werden.
 
Funktioniert XeSS eigentlich auch auf den AMD Karten?
CD Project hat wohl immer noch Probleme ihr von nvidia gesponserte Engine zu fixen. Da erscheint es kaum verwunderlich, dass sie auf die Unreal Engine 5 umsteigen wollen.
 
Funktioniert XeSS eigentlich auch auf den AMD Karten?
CD Project hat wohl immer noch Probleme ihr von nvidia gesponserte Engine zu fixen. Da erscheint es kaum verwunderlich, dass sie auf die Unreal Engine 5 umsteigen wollen.

XeSS funktioniert sehr gut auf AMD dank Raja Koduri (ex-AMD, ex-Intel), der den Algorithmus mit DP4a (4 x 8bit int pro fp32 CU) open source gemacht hat.

Naja, bei CDPR arbeiten auch nur lohnabhängige Sklaven, die Kohle kassieren und ihrem Meister daher gehorchen müssen. Erwarte da keine technische Revolution mehr. Wenn da jeder auf kontrolliere NV-Rechner sitzt, wer soll für CDPR da auf AMD optimieren? Geld (davon hat CDPR genug) allein schreibt keine geilen Codezeilen, es ist immer der Mensch dahinter.

Und wer weiß wieviel Kohle vom grünen Monopol drin steckt um andere Technologien zu unterdrücken?
 
Zuletzt bearbeitet:
Also entweder da arbeiten mit die größten Deppen an der Engine bei CDPR oder es sollen absichtlich die Radeons (und ggf. ältere Gforce) mit vermeintlichen Patches möglichst schlecht dargestellt werden.
Oder es wird einfach "nur" ein Großteil der Optimierungsarbeit der PC Version an andere ausgelagert um selbst Geld zu sparen....
 
Also allein die INI Tweaks für RDNA verdoppeln die RT Leistung in CP2077 und Gamefixes von Moddern noch viel mehr. Dazu noch die kaputte inkompetente FSR3.x Implementierung, von den Problemen zum Launch ganz zu schweigen.

Also entweder da arbeiten mit die größten Deppen an der Engine bei CDPR oder es sollen absichtlich die Radeons (und ggf. ältere Gforce) mit vermeintlichen Patches möglichst schlecht dargestellt werden.


Oder aber die Mods und Tweaks ändern so viel, dass es kein Richtiges RT und PT mehr ist.

Ich müsste da noch mal eine Diskussion raus suchen.
 
Naja - es gibt kein "richtiges" RT/PT. Am Ende ist alles Fake. Die Frage ist eher: Wie gut ist der optische Eindruck und ist es am Ende das Geld wert?
Die Bildvergleiche sind mir hier allerdings zu mühsam.

Mit RTXDI und NVIDIA Micro-Mesh Transparency kann man in Szenen schon jede Menge unnötige Assets verballern, die von der Nvidia API und HW relativ automatisch abgearbeitet bzw. ignoriert werden wo der herkömmliche Ansatz die Framerate drückt. Bereits die früheren CDPR Titel wurden vor den Marketing-Karren von Nvidia gespannt. Die RTX-API und Tools von Nvidia erinnern mich recht stark an Gameworks. Wer sich heute gerne daran zurückerinnert wie viel Geld er für die alternative Haarzopfanimation hat liegen lassen, der wird auch heute nur an RTX-gerenderten Bildern erfreuen. Retrospektiv denke ich das war es nicht wert und die Diskussionen um Tesselationfaktor bei Haaranimation waren extrem peinlich. Einen Slider in den Grafik-Settings gab es wohl allerdings bewusst nicht, man musste auch damals an die INIs ran. Heute muss man in CP2077 zusätzlich wohl Lichtquellen, die kaum sichtbar sind, eliminieren.
 
Heute muss man in CP2077 zusätzlich wohl Lichtquellen, die kaum sichtbar sind, eliminieren.
Das klingt nach so ziemlich der gleichen Taktik wie sie bereits bei der Tesselation verwendet wurde.
Die Szene für ein Schlüsselfeature unnötig aufblasen weil die Konkurrenz stärker einbricht.
Das schafft einen zusätzlichen Vorsprung vor der Konkurrenz und die Kundschaft bekommt eh nicht mit wieviel Rechenleistung dadurch verschwendet wird. Außerdem spühlt es zusätzlich Geld für schnellere Hardware in die eigene Kasse.
 
Zuletzt bearbeitet:
Meinen Rechnungen zufolge kommt
Navi48 N3E @64CU auf ~ 310mm² Siliziumflächengröße (GCD 175mm² + 4xMCD 135,82mm²)

Navi48 ist somit kleiner als Navi32.
 
Zuletzt bearbeitet:
Aja, muss mich selbst korrigieren. Gerüchte sagen ja für beide Modelle als monolithisch im Voraus bisher.
~ 270mm² Navi48@64CU
~ 145mm² Navi44@32CU

Also MLID aus in seinem Youtube-Kanal.

Die ~145mm² für Navi44 und das Package 29mm x 29mm könnte schon sehr gut stimmen. Wahrscheinlich auf low-cost 4nm Prozess (welcher ein 5nm Prozess ist).

Navi48@64CU ~ 270mm² könnte preiswert die 7900GRE und optimistisch die 7900XT gut ersetzten, wenn der Takt entsprechend hoch ist (~3,2Ghz).

Die ~310mm² MCM N48 Variante kam in den Sinn mit N3E, aber Navi48@270mm² im midrange wird vermutlich auf 4nm Samsung oder TSMC setzen. Kommt drauf an wer billiger fertigen kann.

Der Übergang ist flächenmäßig ähnlich wie von Vega64 zu Navi10, von 484mm² Vega10 (bspw.: Vega56) auf 251mm² Navi10 (RX5700XT).
Diesmal ist es von 530mm² (bspw.: 7900 GRE) auf 270mm² (RX8700XT?) runter.

AMD wieder mal rauf reine Kostensenkung bei gleich bleibender Leistung und weniger Verbrauch bedacht.

Navi48@64CU aka RX 8800XT 16GB / RX 8700XT 12GB konkurriert dann wohl nur noch mit der RTX5070 12GB / RTX5080 16GB. Das obere Spielfeld überlässt AMD anno 2025 wohl komplett Mr.Huang mit der RTX5090 (RTX4090).

SCHADE! Da muss ich mich gedulden bis RDNA5 dann hoffentlich mit 144CU oder auch 144WGP = 288CU.
 
AMD hat auch bei Zen5 überraschend die Dichte beim Cache gesteigert. Dennoch den Takt ein wenig gesteigert, gerade in MT. Für GPUs könnten ähnliche Entwicklungen möglich sein. Auch bei iGPU wird mit wenigen CUs recht viel erreicht.
Kleine Grösse zielt klar auf Kostenvorteil. AMD kann nur gegen Nvidia punkten wenn sie mehr Performance je $ liefern. Das wird der Versuch sein wie ihn Peng angekündigt hat.
 
Performance pro $ bedeutet für AMD wohl CUs pro mm^2 bei höchstmöglichem Takt. Dann noch mehr IF$ und mehr VRAM als die Konkurrenz draufpacken.

Bei N48XTX @ 64CU kommts wirklich auf den Takt und die Schlagkraft pro CU an um die vergleichsweise teuren MCM-Modelle 7900GRE und 7900XT zu ersetzen wobei die 7900XT 20GB zurzeit das beste Preis-Leistung aller GPUs aller Klassen haben dürfte.

Ich denke AMD ist da schlau genug und hält das Versprechen für Gamer weiterhin gute und bezahlbare Grafikkarten zu liefern.

Diese Linie hat Su schon vor langer Zeit vorgelegt und Huynh zieht derzeit den Karren:


Unterschiedliche Strategien bei RTG divided by Gaming und HPC/AI/Data bei gleichem Ziel.
 
Victor Peng?
Welche Ankuendigung meinst Du denn genau?
Er ist retired und nicht mehr aktiv dabei.

Gruss,
TNT
Hyungh und Peng durcheinander gebracht.
Ich glaube Peng hat RDNA und CDNA eingeführt. Die Ziele/Argumente waren die gleichen wie für UDNA. Günstige leistungsfähige GPUs für 40% Marktanteil.
 
Ist doch egal wenn es dieses mal klappt :P
 
Ist doch egal wenn es dieses mal klappt
Ein Marktanteil von 40% (Achtung: longterm goal) klingt ambitioniert. Das ist eine Vervielfachung des aktuellen Anteils.
Um das ganze zu kickstarten wird man auch nicht um eine attraktivere Preisgestaltung herumkommen IMHO.
Bei den Features & Benchmarks wird man so schnell nicht in der Wahrnehmung als auch faktisch gleichziehen koennen in der Spitze bzw. es braucht auch hier einen anderen Ansatz.

Mit der Abkuendigung des HighEnds kann man nicht mehr die Strategie fahren, dass sich viel (oder sehr viel auch im Marketing der Produkte) vom einmal portionierten Top HighEnd Modell ableitbar ist. Das gefuehlte hecheln von AMD hinter Nvidia her ist rhetorisch und faktisch beendbar.
Wie heisst so schoen, was ist die neue value proposition von AMD fuer dGPU im Markt angefangen mit RDNA4?

Vielleicht kann sich AMD hier ein Stueck neu erfinden und eigene Features/Innovationen (AI?, echte Hybrid Grafik im Desktop? Software, Software, FSR, AMDs ROCm, AMDs Affinitaet zur OpenSource) in der Kommunikation mehr Eingestaendigkeit einraeumen etc. und sich weniger an Nvidia lehnen.
Wenn man weder Featureleader ist (debatable) noch Performanceleader ist, kann man vielleicht Valueleader/reasonable Choice als Message anpeilen.
OEMs, AIBs besser involvieren und wieder kleinere Modelle in den Markt zeitiger schicken usw.
Kostet Marge, ist Aufwand, Aendert die Wahrnehmung der Brand (aber vielleicht zum besseren?) - logisch.

Vielleicht steht mit MCM und RDNA5 dann irgendwann der groesse Wurf an und ein Zen Moment ist da.

Viel Expermimentierphase wird sich AMD bis dahin nicht erlauben wollen; denn Geld laesst sich im Moment anderwo besser und leichter verdienen.
Intern konkurriert die Sparte gewiss mit anderen wachsenden Bereichen, die deutlich besser dastehen und deren Gewicht/Marge gross ist.
Auch deswegen muss AMD bei dGPU irgendwo aggressiver werden, um weiter in diesem Segement relevant zu bleiben und die aktuelle Entwicklung der Marktanteile zu stoppen.
Oder auch Augen zu und durch; denn bevor es besser werden kann, muss es erst noch schlechter werden. Who knows?

Wer weiss, vielleicht ist RDNA4 und Co. auch der erste Abgesang der dGPU Sparte und UDNA nur eine nette Umschreibung, dass mittelfristig die GPU Abteilung in die CDNA Abteilung aufgehen wird.

Die Technik wird nicht verschwinden aber vielleicht die AMD dGPUs mittelfristig.
I hope not though!

Gruss,
TNT
 
Zuletzt bearbeitet:
Zurück
Oben Unten