AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Also nachdem ich jetzt einige Reviews durchhabe, verstehe ich jetzt nicht ganz das fast einseitige Bashing AMDs, da die Performance (Raster) ja teilweise zu stimmen scheint. *noahnung*

Was mich aber persönlich auch stört, ist dass einige Reviews die Effizienz und die Idle-Poweraufnahme noch nicht mal mit ins Fazit bringen, weil es für mich einfach dazu gehört.
hatte ich ja erwähnt, amd macht mit "vieles neu" einen großen sprung, wo nvidia vor allem vom prozess-vorteil profitiert.

von daher stimmt das schon, isoliert betrachtet ist rdna3 nun nicht so schlecht. man erinnere sich an gurken wie turing. aber das gesamtbild sieht halt nicht so rosig aus. im vergleich zu rdna2 vs. ampere steht amd imho nun wieder schlechter da.

vielleicht können sie die diversen probleme kurzfristig abstellen, vielleicht erreicht man mit treiber-optimierungen noch bessere ergebnisse in kritischen spielen. vielleicht kann man die 4080 damit sogar distanzieren. uvm.

aber das sind leider genau die argumentationen, die man bei radeon-launches nun seit wie vielen jahren hört? da kann ich leider verstehen, dass mancheiner darauf keine lust hat. zumal die karten alles andere als günstig sind.
 
Was ich hier mal wieder höre. Kampfpreise?

Wir reden hier von 1000 € für die "günstigste" Karte.

Das ist viel Geld, sehr viel Geld. Vor 2020 bekam man dafür schon einen Rechner der oberen Mittelklasse.
Das kostete die 6900XT seinerzeit auch, die 4080 geht übrigens bei über 1300€ los und darunter gibt es ebenfalls nur die Karten der vorherigen Generation. AMD ist bei der damaligen Preisregion geblieben, nvidia hat nochmal kräftig eins draufgelegt.

Wer eine Karte der neuen Generation für den geringeren Preisbereich haben will muss eben noch warten weil die Modelle ganz einfach noch nicht vorgestellt wurden.
Doppelposting wurde automatisch zusammengeführt:

von daher stimmt das schon, isoliert betrachtet ist rdna3 nun nicht so schlecht. man erinnere sich an gurken wie turing. aber das gesamtbild sieht halt nicht so rosig aus. im vergleich zu rdna2 vs. ampere steht amd imho nun wieder schlechter da.
Dann liegt das aber daran das nvidias Ampere Reihe wegen des Fertigungsprozesses so ineffiziente Watt Schleudern waren die dennoch reichlich gekauft wurden und nicht an RDNA3.

Bei nvidia kein Problem und für AMD soll der geringere Effizienzgewinn bei RDNA3 jetzt ein Problem sein weil sie bereits bei der Generation davor einen effizienteren Fertigungsprozess nutzten?
 
Zuletzt bearbeitet:
Die 6900XT ja. Die 6800 XT nicht. Und machen wir uns nix vor. Ohne Corona und Mining hätten beide Karten garantiert niedrigere Preise gehabt.

Und jetzt ist das Mining vorbei. Und man hat die Preise nochmal angehoben.
 
Es gibt noch keine 7800er Modelle und durch die Mining Blase gingen die Karten damals weit oberhalb des UVP Preises weg. In sofern ist die Diskussion müßig. Die 7900XTX scheint eher keinen direkten Vorgänger zu haben. Würde man krampfhaft einen Suchen hätte der wohl irgendwo zwischen der 6900XT und der deutlich teureren 6950XT gelegen oder letztere wäre der Vorgänger gewesen. Dann würde man sich aber den Weg für ein Refresh Modell mit RDNA3+ versperren was ich eher als Nachfolger einer 6950XT einordnen würde. Alternativ müßte man dann eben eine neue Produktgeneration draus machen.

Wie gesagt, der einzige der bisher die Preise für neue Modelle teils erheblich angezogen hat ist nvidia. Die 3080FE kam damals schließlich für ca. 700€ auf den Markt. Zwischenschritte wie die 12GB Variante oder die Ti Variante kamen bereits mit erheblichen Preisaufschlag daher.
 
Nur weil man ein Modell anders nennt, ändert das nichts an der Karte selbst. Die 7900XTX ist der Vollausbau, genau wie es damals die 6900 XT war. Also selbst wenn man sagt, dass die 7900 XT kein Nachfolger der 6800XT sei, sind die Preise noch mal ordentlich gestiegen. Eigentlich sogar noch schlimmer.

Selbst wenn man jetzt den minimalen Refresh 6950 als Vergleich nimmt, passt es nicht. 6950 und 6900 haben sich bis auf Takt und PL nicht unterschieden, die 7900 XT hat nicht nur weniger Einheiten, weniger Takt, auch weniger Speicher und Speicherbandbreite.
 
Wir sind aber nich bei "wünsch dir was" und auch da kannst du dich erneut bei nvidia bedanken deren erste Titan auch kastriert war und erst in der "Black" Variante der Chip im Vollausbau zum Einsatz kam.
Damals wurde übrigens der Preis von ca. 1000€ mit Verweis auf Features von teureren Modellen aus dem professionellen Umfeld gerechtfertigt, etwas was man bereits eine Generation später nicht mehr nötig hatte. Inzwischen spart man sich auch das "Titan" Pseudonym und hat dennoch mit der UVP der 4090FE an der 2000er Marke kratzte.

Du regst dich über den Falschen auf.
Würde nvidia nicht schon seit Jahren erfolgreich solche Mondpreise zur Gewinnmaximierung verlangen können müßte AMD sich bei der Preisgestaltung eben an deren geringeren Preisen orientieren.

AMD ist nicht nvidias Preisdrücker sondern deren Konkurrent und um was am Preisgefüge bewegen zu können muss die Kundschaft überhaupt erstmal wechselwillig sein. Nicht nur nvidia ist ein gewinnorientiertes Unternehmen, das scheinen nur allso viele Leute nur allso gern zu vergessen.
AMD hat sich eben mit den Gegebenheiten des Marktes abgefunden, macht das beste daraus und wartet ab bis die "treue Kundschaft" der Konkurrenz die Schnauze voll hat.
 
Wir sind aber nich bei "wünsch dir was" und auch da kannst du dich erneut bei nvidia bedanken deren erste Titan auch kastriert war und erst in der "Black" Variante der Chip im Vollausbau zum Einsatz kam.
Damals wurde übrigens der Preis von ca. 1000€ mit Verweis auf Features von teureren Modellen aus dem professionellen Umfeld gerechtfertigt, etwas was man bereits eine Generation später nicht mehr nötig hatte. Inzwischen spart man sich auch das "Titan" Pseudonym und hat dennoch mit der UVP der 4090FE an der 2000er Marke kratzte.

Du regst dich über den Falschen auf.
Würde nvidia nicht schon seit Jahren erfolgreich solche Mondpreise zur Gewinnmaximierung verlangen können müßte AMD sich bei der Preisgestaltung eben an deren geringeren Preisen orientieren.

AMD ist nicht nvidias Preisdrücker sondern deren Konkurrent und um was am Preisgefüge bewegen zu können muss die Kundschaft überhaupt erstmal wechselwillig sein. Nicht nur nvidia ist ein gewinnorientiertes Unternehmen, das scheinen nur allso viele Leute nur allso gern zu vergessen.
AMD hat sich eben mit den Gegebenheiten des Marktes abgefunden, macht das beste daraus und wartet ab bis die "treue Kundschaft" der Konkurrenz die Schnauze voll hat.
Thema ist AMD.

Und AMD hat hier noch mal bei den Preisen zugeschlagen.

Wieso soll ich mich nicht darüber aufregen, nur weil Nvidia genau so schlimm ist?

Beide erhöhen seit Jahren immer weiter die Preise und mit Corona und dem Mining ist das Ganze noch mal richtig eskaliert.

Und geht auch nicht mehr runter. Na mal gucken wie lange das noch gut geht.
 
Leute es sind Grafikkarten, kein Grund sich die Köpfe einzuschlagen.

Und warten kann sich lohnen wenn man nicht unbedingt immer das Neuste haben will - siehe Abverkauf der 6900 XT oder gesunkene ZEN4 Preise.

Sofort beim Erscheinen zuzuschlagen war meist noch nie von Vorteil.

Die Reviews ergeben für mich ein gemischtes Bild, die Zeit wird zeigen ob AMD da einige Baustellen geschlossen bekommt.
Unter dem Strich bleibt aber: positive Lauchreviews sehen anders aus!

Ich persönlich werde einfach abwarten und schauen wie es sich entwickelt, Druck eine bessere GPU zu haben besteht im Moment nicht.
nVidia ist für mich da eher keine Alternative da ich keine Lust habe mich freiwillig in eine "Vendor Lock" zu begeben oder es durch einen
Kauf zu unterstützen (Gsync, DLSS etc).

PS.: und ja die 7900XT ist zu teuer im Vergleich zu XTX - die 4080 ebenso zur 4090.
 
warten als lebensphilosopie.. klar, warum nicht. andere gehen angeln.

warten auf neue treiber, warten auf fallende preise, warten auf neue produkte, warten auf ende des krieges, warten auf bessere zeiten, warten auf grünen schnee, warten aufs christkind, warten dass die hölle zufriert, warten auf den tod..

schön dass ihr alle blutjung und unsterblich seid.. ich habe leider nur dieses leben und es ist rechnerisch schon am zenit vorbei.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich warte ja auch auf sinnvolle Post von dir auch wenn es hoffnungslos ist *rofl*
 
hey, ich akzeptiere wenigstens eure wartehaltung.. auch wenn ich sie nicht nachvollziehen kann. sei mal ein bisschen toleranter.. :P

btw,
ich warte übrigens auch - auf meine stromrechnung.


(..)

mfg
tobi
 
ähhh, kurze Frage wo sind eigentlich die 8K Benchmarks ?
Selbst wenn’s nur Nische ist.
Und auf so manchen Seiten ist wohl auch RT Only gebencht worden. WTF

Und hey, wenn die 79XT teildeaktiviert ist wie werden dann die 7800er aussehen ? Noch schwächer ?oder wird es die Serie garnicht erst geben? Weil so könnte man noch besser die Lager mit 69/695er los werden.

🖖🏼
 
@eratte Wir diskutieren doch nur, wir schlagen uns nicht die Köpfe ein.

Und der Grafikkartenmarkt ist einfach kaputt. Extrem hohe Preise und das einzige was etwas Trost spendet, die Leistungssprünge sind (bis auf das Monster 4090) auch nicht so gut.

Das heißt man kommt mit seiner "alten" Karte vielleicht noch etwas länger aus.
 
Ich bin dann doch sehr über die negativen Reaktionen überrascht. Hier geht es wohl überwiegend um enttäuschte Hoffnungen, die eigentlich unbegründet waren?

Aus meiner Sicht ergibt sich folgendes:
  • die neuen AMD GPUs entsprechen weitestgehend den angekündigten Leistungungen bzw. Benchmarks von AMD
  • die Rasterperformance ist für ältere Games da, wo man sie erwartet, der hohe Takt kann ab und an sehr gute Ergebnisse liefern
  • die RT-Performance nimmt akutell im Umfang des Taktes und der CU-Anzahl zu, weitere Entwicklung offen
  • die HW Video Codecs sind endlich über jeden Zweifel erhaben, gerade auch in Punkto Softwaresupport mit entscheidenden Fortschritten

Was eigentlich vor den Reviews schon klar war:
  • der RDNA3 soll für 3GHz designt sein, N31 erreicht durchschnittlich im Gaming aber nur 2.5GHz
  • der RDNA3 kommt mit weniger L3 Cache, hat aber mehr L1/L2 und ein breiteres SI.
  • der RDNA3 verdoppelt die Shaderunits pro CU kompatibel zu RDNA2, aber der WGP hat nun doppelte Shader pro local Data share
  • der RDNA3 setzt auf noch mehr Flexibilität bei den BVH-Berechnungen für RT, DXR flags müssen implementiert werden, sonst nur vielleicht hi un da Cache-Vorteile
  • der grössere WGP wird mit UE5 und 128 Triangles pro Thread sehr gut skalieren können.
  • ergo, die Treiber-Optimierungen für RDNA2 sind nicht immer genau passend, können nur abseits von RT überhaupt etwas bewegen, evtl. braucht es gar Gameengine-Optimierungen für Raster um das Potential zu heben, bei RT bleibt ohne Patches das Potential, das AMD selbst sieht, liegen.
  • Es gibt keine Games, die die Leistung benötigen, nur Edge-Cases mit extrem hohen Auflösungen und Frameraten.

Die kleinen Enttäuschungen aus meiner Sicht
  • Der Takt liegt bisher nur bei 2.5, die CUs gar bei 2.3. Für mehr wird womöglich die Bandbreite knapp, in kurzen Peaks geht die GPU wohl auf 2.9GHz, der verpasste Takt erinnert bislang etwas an Vegas 1.7GHz Design-Geschichte.
  • Es gibt noch nicht einmal ein lautes Gerücht über IF-Cache mit Stapel-Speicher, man ist mehr in die Bandbreite und Takt am SI gegangen, statt den IF-Cache zu erhöhen.
  • Die Treiberoptimierungen waren offensichtlich eher genereller Natur, insbesondere bei Video-Software hat man zugelegt, man setzt auf mehr automatismen im Treibersetting, die erst noch im Q1 nachgeliefert werden sollen. Einzeloptimierungen bei RT und Raster mit Game-Patches sind nicht angekündigt. Die Design-Entscheidungen vs. RDNA2 machen aber Treiberarbeit notwendig, nicht obsolet.
  • Die Idle-Power ist zu hoch, trotz der hohen Leistungsaufnahme gibt es kein AiO wie bei der Fury, nicht einmal von OEMs.
  • Die GPUs kamen spät in den Markt, AMD hat noch immer zu wenig Möglichkeiten zeitig abgestimmte Hard- und Softwarelösungen zu liefern. Der Developer-Support müsste im Vorfeld einer neuen Gen besser werden, nicht im Nachgang.
  • Man hat auf die Ankündigung eines echten Halo-Produktes verzichtet. Offensichtlich glaubt man nicht an einen grösseren Chip oder ich habe die Dramaturgie für deren neuem Marketing noch nicht verstanden.
  • AMD versteht es nicht Anwendungsbeispiele für die eigenen GPUs zu bringen, wie Nvidia das mit QuakeRTX, MinecraftRTX und dem Spezialpatch für CP2077, etc. veranstaltet.
 
Zuletzt bearbeitet:
vllt. können AMD und die AIBs das ja auf ihre kartons drucken.. zu kleineren preisschildern sind ja alle zu unfähig.. aber etwas relativierendes mimimi hat noch keiner versucht.. man muss aber auf jeden fall noch die ukraine einbauen. die ist mit schuld an dem preis, weil der ruß zum schwärzen des kuststoffs dort herkommmt.. oder so ähnlich.. halt wie bei autoreifen.


(..)

mfg
tobi
 
Wieso soll ich mich nicht darüber aufregen, nur weil Nvidia genau so schlimm ist?
Weil es sinnlos ist an einem Symptom rumzumäkeln und die Ursache/treibende Kraft dahinter zu ignorieren.
Exakt dieses Verhalten hat über die Jahre hinweg zum aktuellen Stand geführt.

Der Takt liegt bisher nur bei 2.5, die CUs gar bei 2.3. Für mehr wird womöglich die Bandbreite knapp, in kurzen Peaks geht die GPU wohl auf 2.9GHz, der verpasste Takt erinnert bislang etwas an Vegas 1.7GHz Design-Geschichte.
Genau daran mußte ich auch denken.
Bei meiner Vega64 bekomme ich Taktraten von knall unter 1,7 GHz sogar hin und wieder zu sehen allerdings nur mit Software die extrem suboptimal auf der GPU läuft und ein entsprechend großes Fenster beim Strombedarf offen läßt. Diese Taktrate wird also in erster Linie vom Strombedarf einkassiert. Selbst die VIIs hatten ihre Probleme damit.
 
Was eigentlich vor den Reviews schon klar war:

  • Es gibt keine Games, die die Leistung benötigen, nur Edge-Cases mit extrem hohen Auflösungen und Frameraten.


Das ist quatsch. Schon wenn man RT zuschaltet, bricht auch eine 7900 XTX massiv ein. Und das in Full-HD.

Und RT setzt sich immer mehr durch. Teilweise bekommen sogar ältere Spiele RT-Upgrades nachgereicht.

Neure Spiele ohne RT werden auch immer seltener.

Und genau das patzt die Karte
 
Was eigentlich vor den Reviews schon klar war:

  • Es gibt keine Games, die die Leistung benötigen, nur Edge-Cases mit extrem hohen Auflösungen und Frameraten.


Das ist quatsch. Schon wenn man RT zuschaltet, bricht auch eine 7900 XTX massiv ein. Und das in Full-HD.

Und RT setzt sich immer mehr durch. Teilweise bekommen sogar ältere Spiele RT-Upgrades nachgereicht.

Neure Spiele ohne RT werden auch immer seltener.

Und genau das patzt die Karte
Das heisst aber noch lange nicht dass man RT braucht...
Für mich ist Gameplay immer noch wichtiger als Grafik und DA hapert es bei praktisch jedem AAA Game massiv.
Was nützt RT (die meisten brauchen dies ja eh nur zum protzen und Screenshots machen oder Argumente für ihre Grafikkarte zu suchen), aber gespielt werden die Games kaum noch, dies sieht man auch an den Diskussionen. (warum auch, wenn das Gameplay langweilig und Innovationslos ist)
90% wird über die Grafik gesprochen und 10% über das Spiel selbst.
Und bei kompetitiven Games dann sowieso useless...
 
Ich warte ja auch auf sinnvolle Post von dir auch wenn es hoffnungslos ist *rofl*
naja er hat schon recht. Wenn man 3000 Steine nur für eine Grafikkarte hinlegt sollte jede Sekunde mit ihr gekuschelt werden. Da hast du für nix anderes mehr Zeit. *chatt*
 
@Oi!Olli
Und wie die Geschichte gezeigt hat wird es dann den gleichen Verlauf nehmen wie bei den anderen Säuen die nvidia als Verkaufsargument durchs Dorf getrieben hat. Sie verschwinden wieder in der Versenkung (diverse Zusatzgeräte) oder werden sinnvoll eingesetzt sobald sie aus nvidias Fokus raus sind und die nächste Sau durchs Dorf getrieben wird. Die Folge ist dann für gewöhnlich dass der Hardware Hunger erheblich zügelt wird weil es sinnvoller eingesetzt wird (Tesselation) oder ganz einfach unerkannt auf einmal auch auf der Hardware der Konkurrenz lauffähig wird. (beschleunigte Physik als Gameworks Unterfunktion)

Ach ja, die dollen RT Upgrades für alte Spiele kommen für gewöhnlich von nvidia selbst und sind eher als Techdemo zu bezeichnen.
Nun rate mal auf wessen Hardware die bis zum Erbrechen obtimiert sein und welche Hardware bei der Optimierung keine Rolle spielen dürfte.
 
Das ist quatsch. Schon wenn man RT zuschaltet, bricht auch eine 7900 XTX massiv ein. Und das in Full-HD.
Das sehe ich eben anders. Ich bin eigentlich mit dem bischen RT, das auf den Konsolen angeboten wird momentan zufrieden. Der Mehrpreis für das sonst mehr gebotene lohnt sich meiner Meinung nach nicht. Nicht soweit dass ich sagen würde, ich lege das Spiel zurück bis ich die Hardware dafür hätte. Dynamische Global Illumination und korrekte Schatten sind atm ein sichtbarer Zugewinn, das bietet auch v.a. die Chance auf mehr "bewegliche" Objekte in Szenen. Erst mit der folgenden Konsolengeneration erwarte ich darüber hinaus einen relevanten Sprung. Bis dahin ist RDNA3 im RT den Konsolen bereits weit überlegen, wenn man denn die RT-Shader entsprechend programmieren würde. Das ist AMDs Softwareproblem, leider.
Doppelposting wurde automatisch zusammengeführt:

Bei der 7900XT bin ich ziemlich sicher, dass die teils relativ schlechte Performance (z.B. Forza 5, F1-22) gegenüber der XTX oder den RDNA2 GPUs eben der zu kleine IF-Cache ist. Auch der doppelte L2 mit 3MB mehr kann die Optimierungen für RDNA2 mit 128MB L3 nicht auffangen, das kleinere SI ebensowenig. Hier braucht es Teriberoptimierung, das wäre mit 128MB IF-Cache nicht passiert, nicht in einem Game.
 
@E555user
Der Infinity Cachen war nicht bei allen RDNA2 Modellen gleich groß, bei weitem nicht. Auch ist das Speicherinterface der Navi 21 Modelle schmaler als das der Navi 31 Modelle. Ich tipe eher darauf dass das Spiel etwas nutzen will was mit den neuen Modellen so nicht performant funktioniert oder die Render Engine fällt gar in einen wenig performanten Kompatibilitätsfallback weil es die Architektur nicht kennt.
Da müssen wir einfach abwarten wer das Performance Problem mit Nachpatchen letztendlich löst.
 
Zurück
Oben Unten