AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Also in synthetischen Tests zeigt die Karte schon mal ihre Muskeln. Hoffe neue Treiber können ihr noch mehr entlocken. Denn sein wir ehrlich, von den technischen Daten her, ist schon die 7900XT wesentlich stärker, als die 6900 XT.

Edit Bilder fehlen.
 

Anhänge

  • 7900xt2.PNG
    7900xt2.PNG
    727,2 KB · Aufrufe: 10
  • rrr.PNG
    rrr.PNG
    788,2 KB · Aufrufe: 8
  • 2321.PNG
    2321.PNG
    786,9 KB · Aufrufe: 8
  • 7900XT.png
    7900XT.png
    581,6 KB · Aufrufe: 9
Zuletzt bearbeitet:
War AMD bei der Shader Architektur nicht einen ähnlichen Weg gegangen wie nvidia bei der Ampere Generation?
Stichwort "dual issue" was 1:1 in zusätzliche Shader umgerechnet wurde aber nicht so flexibel nutzbar ist wie die klassische Variante. In gewissen Szenarien wird die Leistung durchaus ankommen aber abseits davon kommt nur ein Teil der Zusatzleistung an.
 
Gut möglich. Aber selbst dann zeigt die Karte nur einen Teil der Leistung, die sie abrufen könnte.

Kein Ahnung woran es hakt. Ob an dem Chiplet-Konzept, oder zu kleinem Cache, oder das die Einheiten auf händische Optimierung oder die Zukunft ausgelegt sind. Nicht falsch verstehen, die Karte ist fix. Sehr fix. Ich hoffe aber darauf, dass man noch Mehrleistung aus der Karte raus holen kann.
 
Jein, man muss es einfach mal nüchtern betrachten.
streicht man gedanklich dual issue wären wir lt. en Daten bei nicht einmal 50% mehr Shader Leistung (6900XT vs. 7900XTX), das entspricht ziemlich genau dem was z.B. beim Computerbase Test bei den Benchmarks in hohen Auflösungen und mit entsprechender GPU Last im Durchschnitt raus kommt, wobei die Mehrleistung bei Spielen ohnehin nicht 1:1 raus kommt.
Berücksichtigt man dann noch dass die Leistungssteigerung beim RT Einsatz wächst liegt die Vermutung nahe das vermutlich genau dort von dual issue am ehesten Profitiert wird.

Ein anderer Punkt wurde dort auch angesprochen denn es war auffällig das neuere Spiele stärker von der neuen Generation profitieren als ältere und genau da sind wir ganz schnell beim Punkt Software Optimierung die nur allso gern aufgrund recht einseitiger Optimierungsarbeiten enorm Leistung fressen kann.

Schaut man sich dort allerdings den Blender Test an, also letztendlich einen Compute Benchmark dann ist dort durchaus eine Verdoppelung der Leistung zwischen den beiden Kandidaten erkennbar, das war aber auch bei nvidia das Gebiet wo ihre Umsetzung bei Ampere am besten greifen konnte und natürlich auch die alten GCN Modelle ihre Shader Leistung abseits von Optimierungsgeschichten der Software auf die Straße bringen konnten. Das sind wohl einfach Workloads die einer solchen Umsetzung einfach zu schmecken scheinen weil andere Teile einer Render Pipeline dem Datenfluss nicht im Wege stehen und damit zum Flaschenhals werden könnten.

Gerade der Punkt Software ist etwas wo man eher begrenzt mit dem Treiber entgegenwirken kann weil man so vielleicht einige Aufgaben anders verteilen kann aber grundsätzliche Software Unzulänglichkeiten für den Arbeitsfluss nicht aushebeln kann. Man kann nunmal keine Daten weiterverarbeiten die noch nicht da sind weil z.B. Die Software nur für eine andere Chip Architektur mit einem anderen Arbeitsablauf der Hardware optimiert wurde. Genau deshalb ist nvidias effektivste Waffe für den GPU Verkauf auch die intensive aber auch kostspielige mit den Spiele Herstellern. Das sieht man nirgendwo besser als wenn man deren Grafik Demos mit offiziell von AMD unterstützten Spielen vergleicht.
 
Edit, lasse meinen alten Beitrag mal so stehen muss ihn nur anpassen, hab direkt nach dem abschicken gesehen, im Profil des Spiels ist Radeon Chill an. Ich kann mich nicht erinnern, das aktiviert zu haben, da ich eh immer Freesync nutzt


Meine 7900 XT läuft übrigens bei Lost Ark auffällig langsam. Bricht gerne mal auf 75 Fps ein.

Hab ja meine 6900XT gegen getestet. Die hat diese Auffälligkeiten nicht. Die läuft mit über 100 FPS (und das auf einem uralten 2400G).
 
Das finde ich spannend mit Acer - ich frage mich gerade bei dem Thema ob die etablierten Mainboard-Hersteller hier nicht mit dem Feuer spielen mit den derzeitigen Preisen bei AM5. Wenn sich ein solcher OEM wie Acer oder auch HP, Lenovo, Dell mal dazu entscheiden, dass die Margen im Mainboard-Segment sich ausreichend lohnen um Gigabyte und Asus mit günstigen DIY-Mainboards Marktanteile abzujagen, könnte da ebenfalls Bewegung rein kommen. Ihre eigenen billigen OEM-Boards nach oben zu skalieren sollte gut kalkulierbar sein für diese OEMs.
 
Dead Space 2023 gönnt sich 21GB +VRAM.
Bild ist mit FPS-Limit von 60 per Treiber bei 4K. Das wird stabil gehalten. FSR2 auf Quali
20230202223457_2.jpg
 
@tspoon wow, der PlasmaCutter sieht ja fast real aus.. das muss in live vor dem Bildschirm noch besser rüberkommen. Aber das Game soll doch noch Patches brauchen?
Bei dir nur 72% Auslastung ?
Aber nicht zuviel Game Spoilern.. :)
 
Die Auslastung dürfte wohl am 60 FPS Limit liegen. ;)
 
Das Spiel ist sehr gut optimiert auf viele Kerne und dicke GPUs.
CPU und GPU halten sich bei mir die Wage, wie Horion Zero Dawn nimmt es alles was es bekommt.

Die Begrenzung auf 4K@60FPS, ist damit es nicht so viele FPS-Unterschiede gibt. Dadurch wirkt es sehr flüssig.
Das Problem ist, das die CPU auch gut zutun bekommt, kommt diese ins Stocken, kommt es zu starken FPS-Einbrüchen und das merkt man dann.
Das FPS-Limit glättet das ganze ein wenig. Spiel, sollte auf einer NVME-SSD installiert werden.

Die Grafik ist einfach eine 10/10. Nicht 1 Crash. Also ein sehr gelungenes Remake, vergleichbar mit Mafia. Gleiche Story mit aktueller Grafik.
 
Zuletzt bearbeitet:
Hab mir auf Youtube ein Let's Play von ca. 4 Stunden angesehen- es ist doch sehr linear, die Story ist aber cool. Monster und Lichteffekte sind allererste Sahne. Das Game ist dafür durchgehend total dunkel. Werde mir das Playthrough noch bis zum Ende anschauen, da aufgrund von Denuvo keine Kauflust aufkommt. Zudem brauchts offenbar echt eine highest end GPU für den geilen Look. Freut mich sehr, dass die 7900 XTX konstante 60 fps liefert.
 
Moin zusammen,

Hatte die Gigabyte Aorus Elite 7900XTX über Cyberport vorbestellt u heute Mail bekommen das die Lieferung auf unbestimmte Zeit verschoben wurde.
Die Lieferregelungen sind echt mies.
Geduld ist ne Tugend.. 🤔

Schönen Tach euch 🖖🏼

oder bestell ich doch wieder ne alte 69er.. ???
 
Zudem brauchts offenbar echt eine highest end GPU für den geilen Look. Freut mich sehr, dass die 7900 XTX konstante 60 fps liefert.
4K ist doch komplett überbewertet. Also ich sehe zwischen 1440p und 2160p (beide mit vernünftiger Kantenglättung) ehrlich gesagt keinen wirklich nennenswerten Unterschied.
Und für 1440p braucht man definitv keine highest end GPU.
 
Das hängt stark vom Spiel und dem Monitor ab.
Mit zunehmender Bilddiagonale und gleichbleibenden Sitzabstand werden die Pixel sonst einfach zu groß um im Bild unterzugehen und einige Spiele scheinen sichtbare Unterschiede bei der Filterung oder der Texturenauflösung zu machen. Das Bild wirkt einfach deutlich anders.
 
Moin zusammen,

Hatte die Gigabyte Aorus Elite 7900XTX über Cyberport vorbestellt u heute Mail bekommen das die Lieferung auf unbestimmte Zeit verschoben wurde.
Die Lieferregelungen sind echt mies.
Geduld ist ne Tugend.. 🤔

Schönen Tach euch 🖖🏼

oder bestell ich doch wieder ne alte 69er.. ???
Wenn du kannst, warte noch. Bin mir fast sicher dass AMD die aktuellen Karten überarbeitet. Die haben es dringender nötig als bspw. die 6900 des Vorgängers und selbst da kam die 6950.
 
Moin zusammen,

Hatte die Gigabyte Aorus Elite 7900XTX über Cyberport vorbestellt u heute Mail bekommen das die Lieferung auf unbestimmte Zeit verschoben wurde.
Die Lieferregelungen sind echt mies.
Geduld ist ne Tugend.. 🤔

Schönen Tach euch 🖖🏼

oder bestell ich doch wieder ne alte 69er.. ???


Also ich hätte da noch ne 6900 XT im Referenzdesign über. ^^
 
@Sparky wenn Du kannst, warte noch..
Der war gut. ;) wenn überarbeitet kommt’s ja drauf an wie, weil die 6900XT zur 6950 wars auch nicht so dolle, mMn.

Danke @Oi!Olli aber REF ist so garnicht meins.

Hab mir nun die Asrock Phantom bestellt, passt v den Maßen her locker rein.
Ich geb dann Feedback in meinem Thread.

Achso, wenn jemand Erfahrungen mit dem komischen Polychrome v Asrock hat, gerne mal pn mit Details.
 
Ach das Referenzdesign ist seit RDNA 2 schon ziemlich gut.

Und sie fiept nicht.

Die Asrock klingt aber leise.
 
Also Spulenfiepen hat meine schon, aber erst bei >350 fps. Stört quasi nie. Ansonsten eine echt super Karte.
 
ich hab endlich mal den idle Verbrauch in den Griff gekriegt. Nachdem etliche Versuche mit CRU erfolglos waren, habe ich den hdmi, den ich eigentlich nur für meinen AV Receiver für die 7.1 Anlage brauche einfach an meinen Primären Monitor gehängt und anstatt wie vorher auf meinen anderen Monitor, an dem mein Homeserver hängt, zu erweitern, das Bild dupliziert. Nachdem ich die Firmware vom AV Receiver auch noch aktualisiert hatte, habe ich nun etwa 15-25W im idle, wenn keine Apps laufen. Mit Winamp, Discord und steam sind es dann 40-50W.
Endlich weg von 81-119W :rolleyes:

edit: Und das trotz 144Hz über DP und 60Hz über HDMI (der Receiver kann nur 50-60Hz durchreichen)
Möglicherweise war der HDR support der neuen Firmware des Receivers der auschlaggebende Faktor
 
Das hört sich ja schon besser an!
Wenn man das allerdings mit meiner 6700XT vergleicht, die nur 6-7 Watt im idle nimmt... Da hängt aber auch nur 1 Monitor mit 144 Hz dran.
 
Zurück
Oben Unten