AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Wenn es so kommen sollte ist find ich den Preis und den Verbrauch vollkommen ok und ich werd sie mir gönnen wenn ich aus Mali wieder da bin :D
 
RT wird in meinen Augen sinnlos gehypt. Genau wie PhysX dazumal.
Bei Spielen wurde in den letzten Jahren eh zuviel Augenmerk auf die Optik gelegt. Gute Spiele waren eher rar.
 
Die Optik lenkt vom Gameplay ab. Tatsächlich war AFAIK PhysX nur beiläufiges Feature aber keine Voraussetzung für neuartiges Gameplay. Leider findet sich bei RT bislang auch nichts in der Richtung, obwohl gefühlt jedes Jahr 1000 neue Titel um die Gunst der Geldbeutel buhlen.
Vermutlich lässt sich für Konzepte abseits dem Üblichen kaum Finanzierung finden. Also bleibt es bei allseits Bekanntem und Crossover-Varianten.
 
RT wird in meinen Augen sinnlos gehypt. Genau wie PhysX dazumal.
Bei Spielen wurde in den letzten Jahren eh zuviel Augenmerk auf die Optik gelegt. Gute Spiele waren eher rar.


Man mag von RT halten was man will, es vereinfacht aber die Arbeit für Programmierer massiv, wenn man konsequent auf RT setzt. Zum Anderen kann man den Qualitätssprung nicht leugnen.
 
Genau das gleiche habe ich gestern Abend auch schon gemacht (auch mit den Ergebnissen von TPU). Ist im Vorstellungsthread gepostet. Für WatchDogs und CP 2077 kam ich auf die genau gleichen Ergebnisse. Für CoD MWF konnte ich die Ergebnisse nicht finden.

Wenn man aber RT einbezieht, sieht es düster aus.
RT ist zurzeit überwiegend proprietär und somit verschlossen. Deswegen läuft das auch wie ein Sack Nüsse. Immer wenn proprietärer Code läuft, egal ob RT, Tesselation, PhysiX, Hairworks usw. liegt die Vermutung nahe, dass eine Technik X hardwareabhängig bzw. Vendor-abhängig läuft. Und das ist schlecht.

Das liegt an den Entwicklern da auch aufzuwachen und mehr auf offenen Standards zu setzen, welches auf allen GPUs gut läuft wie bspw. FSR 2.0 usw.. Rohleistung ist prinzipiell genug da für GI, BVH usw. wenn man die Raster-Beleuchtung weglässt.

Für Ray-Tracing baut AMD gerade die Hardwaregrundlage in zweiter Generation auf. Das Feature wird nun auch stärker Beachtung finden bei AMD und Konsolen. RT Gen1 mit RDNA2 hat da noch starke Limitierung, die paralleles Abarbeiten von RT und RZ nicht ermöglichen, da zusätzliche RT-Berechnung auf dem shader-code der CUs ausgeführt werden musste.

Wie die Gen2 bei RDNA2 aussieht, werden wir mit der Zeit sehen. AMD hat nun extra RT-Hardware und neue RT-Befehle in die CUs eingebaut. Wie es aussieht auch AMD nun auch Matrix-Cores (AI-Accelerators) in die CUs eingebaut. Das beschleunigt nochmals FSR 3.0 + RT. Ist alles noch sehr sehr frisch und neu.
 
AI Acceleratoren sind keine Matrixcores.
 
AI Acceleratoren sind keine Matrixcores.
Die AI Beschleunigung läuft auf jeden Fall über bf16/int8 und das wurde bei CDNA1 über Matrix-Cores zuerst eingeführt.
Bei CDNA2 wurden die Matrix-Cores 2nd gen eingebaut und die Matrix - Multiplikation läuft über Hardware statt FMA64 ab.
AMD spricht u. a bei den RDNA3 CUs selbst von "new instructions" und in dem Maschinen-Code gibt es WMMA = Wave Matrix Multiply Akkumulate. Darin wird von 16 x 16 x 16 Matrix-Multiply berichtet mit dem Zahlen Formaten von fp16 & bf16.
 
AI Acceleratoren sind keine Matrixcores.
Die AI Beschleunigung läuft auf jeden Fall über bf16/int8 und das wurde bei CDNA1 über Matrix-Cores zuerst eingeführt.
Bei CDNA2 wurden die Matrix-Cores 2nd gen eingebaut und die Matrix - Multiplikation läuft über Hardware statt FMA64 ab.
AMD spricht u. a bei den RDNA3 CUs selbst von "new instructions" und in dem Maschinen-Code gibt es WMMA = Wave Matrix Multiply Akkumulate. Darin wird von 16 x 16 x 16 Matrix-Multiply berichtet mit dem Zahlen Formaten von fp16 & bf16.

CDNA braucht die ja auch in Hardware - deshalb trennt AMD hier ja die Hardware-Linien, um Transistor-Budget für RDNA-Features zu nutzen. Die AI Acceleratoren können ganz andere Funktionen haben. Wo AMD z.B. AI nutzt - branch prediction. Also könnten diese durchaus eine Sprungvorhersage sein, wie auch bei Ryzen genutzt wird. AMD sagte ja, dass die Zen Teams Input für RDNA geben:
AMD employs a neural network in its branch prediction subsystem. It builds a model of the code being executed so that its Smart Prefetch can pre-load instructions and optimize the path through the processor pipeline. The neural network is designed to learn from the currently running applications rather than the predefined static analysis often used in other deep learning applications.
Das gab es schon in Bulldozer.
Da AMD den FP32 Double Issue spendiert hat, mit der Einschränkung nur die selbe Instruktion doppelt auszuführen, könnte das alleine für die Sortierung und Optimierung der Instruktionen genutzt werden.
 
Linux 6.2 AMDGPU Driver Gets Newer GPUs Working On Arm, SR-IOV Fixes For RDNA3/GFX11 (phoronix)

For the Radeon RX 7900 series announced this week it's not clear if there is already good enough support on Linux 6.0~6.1 or if Linux 6.2 may even be needed. I'm hopeful 6.0~6.1 will be good enough but stay tuned for my hands-on Linux review to know all the Linux support details with the Radeon RX 7900 XT / Radeon RX 7900 XTX. In any event, there continues to be a lot of code churn for the new graphics hardware with this open-source driver.

Chiplet gegen Monolith: RDNA 3 könnte eine Trendwende sein (golem)
 
Zuletzt bearbeitet:

fgwxejyxoaegmqvcjegj.jpg


Mit 3x8pin = 450W + 75W PCIe = 525W zieht die 7900XTX im Raster sehr weit weg.
Die 2,3Ghz Shader und 2,5Ghz Command Prozessor sind ja "relativ" niedrig angesetzt. Insbesondere die Shader schlucken sehr viel bei Takterhöhung. 15% Erhöhung sind realistisch (2,60-2,65Ghz Shader), 20-25% Erhöhung (2,75-2,85Ghz Shader) nur mit Volt-Mod. und Wakü.
 
AMDs custom N5 easily clocks +25% higher
Partner models will unleash the 7900XTX: >400W
2.7ghz
2x raster perf
tönt interessant, damit ist wohl die Basis Gameclock 2.3GHz gemeint und nicht 2.5GHz boost.
Gut möglich, dass RDNA3 mehr Headroom erlaubt als ADA. Der Betrieb in diesen Watt-Zahlen ist IMHO längst kommerzialisiertes Extrem-Overclocking. Das darf ruhig unsinnig teuer bleiben, in allen Belangen.
Schade dass für das Marketing dieses Fass aufgemacht wird. Mir wäre lieber auch Nvidia hätte sich mit den 2x8pin begnügt und den Unsinn den OEMs und Moddern überlassen.
 
Ich bin auf jeden Fall gespannt ... ich habe Angst das ich doch direkt zum Start schwach werde ^^
 
Ich bin auf die Raytracingleistung gespannt.

Für alles Andere hat meine 6900 XT noch genug Leistung.
 
Mich interessiert die RT Leistung genau NULL :P
Ich habe kein spiel das RT nutzt und selbst wenn, was bringts ... ich muss die Unterschiede auf Fotos wo es direkt nebeneinander ist schon suchen da fällt mir das in nem Spiel erst recht nicht auf :D
 
Mich interessiert die RT Leistung genau NULL :P
Ich habe kein spiel das RT nutzt und selbst wenn, was bringts ... ich muss die Unterschiede auf Fotos wo es direkt nebeneinander ist schon suchen da fällt mir das in nem Spiel erst recht nicht auf :D


Also hier brauch ich keinen Bildervergleich.

 
Wobei das in dem RTX Demo schon wieder dermassen übertrieben ist mit diesem exaktem Wasserfilm über allem, der nicht zerfliesst, damit alles so schön spiegelt. *admin*
Doppelposting wurde automatisch zusammengeführt:

Bei der AI Beschleunigung bin ich mir da auch nicht so sicher was davon zu halten ist. Aus der Fussnote der RDNA3 Webseite zu Faktor 2.7 bei AI:
Based on AMD internal measurements, November 2022, comparing the Radeon RX 7900 XTX at 2.505GHz boost clock with 96 CUs issuing 2X the Bfloat16 math operations per clocks vs. the RX 6900 XT GPU at 2.25 GHz boost clock and 80 CUs issue 1X the Bfloat16 math operations per clock. RX-821.
Nach meiner Interpretation bedeutet das Faktor 2 durch doppelte Ausführung von Bfloat16 durch verdoppelte Wave32 CU. Faktor 1.2 durch erhöhte Anzahl der CUs und nochmal 11,4% mehr Takt. Das macht in Summe gerundet Faktor 2.7.
 
Zuletzt bearbeitet:
Ja, das fällt schon auf. Aber alleine die Spiegelungen statt Cube Maps sind schon ein großer Qualitätssprung.
 
Spiderman RT läuft schon mit RDNA2 + Zen3 sehr sehr gut, da braucht man kein RDNA3

Die Engine ist auch vendorneutral gebaut und nicht propietär.
 
Problem ist aber auch das man in dem Video auch sieht das die Effekte mal wieder übertrieben werden um sie besonders zur Geltung zu bringen oder weil es einfacher umsetzbar ist. Zu viele Flächen reflektieren einfach unnatürlich stark und damit geht der Punkt realistischeres Aussehen auch wieder den Bach runter. Die gleiche Vorgehensweise wie seinerzeit bei der Tesselation um den Abstand künstlich zu vergrößern?
 
Mich interessiert die RT Leistung genau NULL :P
du bist aber nicht der maßstab. ;)

Ich habe kein spiel das RT nutzt und selbst wenn, was bringts ... ich muss die Unterschiede auf Fotos wo es direkt nebeneinander ist schon suchen da fällt mir das in nem Spiel erst recht nicht auf :D
das hab ich auch mal so gesehen, teilweise auch heute noch.

tatsache ist aber, dass rtx zunimmt, besser wird und dank geschicktem marketing und der influencer-seuche für viele DAS differenzierungsmerkmal ist. muss es für nvidia auch sein, weil sie für gamer abseits für rtx immer weniger echte vorteile bieten. also rtx geht nicht mehr weg. und wenn du marktanteile gewinnen willst, solltest du zumindest in schlagdistanz bleiben. weil kurze balken schrecken käufer ab.
 
Ich bin auf jeden Fall gespannt ... ich habe Angst das ich doch direkt zum Start schwach werde ^^
Verschrei‘s nicht, Mann! *buck*

By the way. Basistakt der 6900 XT ist laut TPU Datenbank ja 2015 MHz, Boost ist 2250 MHz - meine taktet fast dauernd auf mindestens 2400 MHz. Ich schätze mal die 7900 XTX wird dann locker auf 2600 MHz, vielleicht 2700 MHz dauerboosten…
Doppelposting wurde automatisch zusammengeführt:

Mich interessiert die RT Leistung genau NULL :P
du bist aber nicht der maßstab. ;)

Ich habe kein spiel das RT nutzt und selbst wenn, was bringts ... ich muss die Unterschiede auf Fotos wo es direkt nebeneinander ist schon suchen da fällt mir das in nem Spiel erst recht nicht auf :D
das hab ich auch mal so gesehen, teilweise auch heute noch.

tatsache ist aber, dass rtx zunimmt, besser wird und dank geschicktem marketing und der influencer-seuche für viele DAS differenzierungsmerkmal ist. muss es für nvidia auch sein, weil sie für gamer abseits für rtx immer weniger echte vorteile bieten. also rtx geht nicht mehr weg. und wenn du marktanteile gewinnen willst, solltest du zumindest in schlagdistanz bleiben. weil kurze balken schrecken käufer ab.
RT (jedenfalls so wie es derzeit auf GPUs ausgeführt wird) ist extrem overhyped. Mir gefällt beispielsweise HDR in Cyberpunk weit besser. RT verwäscht das Lighting und hat meiner Meinung nach einen negativen Effekt der obendrauf extrem viel Leistung verbrät.
 
Zuletzt bearbeitet:
Mich interessiert die RT Leistung genau NULL :P
du bist aber nicht der maßstab. ;)

Ich habe kein spiel das RT nutzt und selbst wenn, was bringts ... ich muss die Unterschiede auf Fotos wo es direkt nebeneinander ist schon suchen da fällt mir das in nem Spiel erst recht nicht auf :D
das hab ich auch mal so gesehen, teilweise auch heute noch.

tatsache ist aber, dass rtx zunimmt, besser wird und dank geschicktem marketing und der influencer-seuche für viele DAS differenzierungsmerkmal ist. muss es für nvidia auch sein, weil sie für gamer abseits für rtx immer weniger echte vorteile bieten. also rtx geht nicht mehr weg. und wenn du marktanteile gewinnen willst, solltest du zumindest in schlagdistanz bleiben. weil kurze balken schrecken käufer ab.


Man muss dafür nicht mal viel influencen.

Die Effekte sieht man. Und sie sind halt ein großer Sprung in der Qualität. Moderne Spiele bekommen ja schon lange keine Spiegelungen mehr hin. Und da fällt es schon auf, wenn es nicht nur wieder Spiegeleffekte sind, sondern die jetzt realistisch sind.
 
Zurück
Oben Unten