AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

@Oi!Olli
Und wie die Geschichte gezeigt hat wird es dann den gleichen Verlauf nehmen wie bei den anderen Säuen die nvidia als Verkaufsargument durchs Dorf getrieben hat. Sie verschwinden wieder in der Versenkung (diverse Zusatzgeräte) oder werden sinnvoll eingesetzt sobald sie aus nvidias Fokus raus sind und die nächste Sau durchs Dorf getrieben wird. Die Folge ist dann für gewöhnlich dass der Hardware Hunger erheblich zügelt wird weil es sinnvoller eingesetzt wird (Tesselation) oder ganz einfach unerkannt auf einmal auch auf der Hardware der Konkurrenz lauffähig wird. (beschleunigte Physik als Gameworks Unterfunktion)

Ach ja, die dollen RT Upgrades für alte Spiele kommen für gewöhnlich von nvidia selbst und sind eher als Techdemo zu bezeichnen.
Nun rate mal auf wessen Hardware die bis zum Erbrechen obtimiert sein und welche Hardware bei der Optimierung keine Rolle spielen dürfte.


Hmm RT bei Hellblade und RE 1,2 und 7 laufen auch mit AMD gut.

RT ist auch keine Sau, sondern die Zukunft.
 
RT ist auch keine Sau, sondern die Zukunft.
Die Zukunft wird eher der "Great Reset" sein, viel Spass dann mit RT...
Ich kann diesen Bullshit echt langsam nicht mehr hören und Argumente kommen auch keine!
Einer mehr auf meiner Ignore List...
 
Zuletzt bearbeitet:
Das mit den unbegründeten Hoffnungen sieht Moores Law ist dead offenbar anders.
RX 7900 XTX Analysis & Supply Leak: Did AMD LIE to us? Does RDNA 3 have a Fundamental FLAW?
Gerade gesehen, er muss natürlich ordentlich zurückrudern um seine Credibility zu verteidigen. Auf YT muss man dazu wohl auch immer etwas übertreiben um gehört zu werden.

Würde aber schon sagen, das "up to" von AMD in deren Präsentationen war ein deutliches Zeichen der Unsicherheit gegenüber den Präsentationen zu RDNA2. Er führt das selbst an. Die 7900XTX sieht in einigen Szenarien sehr gut vs. die viel teurere 4090 aus. Potential ist da.
Aber wie er auch selbst feststellt, im Durchschnitt ist es unter den Erwartungen zurückgeblieben. AMD hatte aber keinen breiten Games Average angekündigt. Das wurde hineininterpretiert. Die RDNA3 Präsentation war da doch schon etwas merkwürdig. Man kann AMD vorwerfen, dass man die Zuschauer im Unklaren, in falschen Hoffnungen gewogen hat. Ich würde jetzt nicht wie er behaupten man hat eindeutig gelogen.

Im grossen und ganzen deckt sich seine Recherche mit meiner Analyse. Es gibt erhebliche Schwierigkeiten mit dem Treiber, v.a. für die XT. Nicht in der Kompatibilität mit RDNA2 sondern in der anders gelagerten Performanceoptimierung. Hier wird sich also etwas tun wenn AMD-Entwickler keine Weihnachtsferien machen dürfen. Vielleicht sind die auch alle zu jung um zu wissen dass transparenter Cache nur für den Code transparent ist, aber nicht für die Performance. Bei den alten MHz CPUs mit separatem Cache on Board oder 386 ExtendenMem hat man noch ein Gefühl dafür entwickeln können wie katastrophal die falsche Memory-Adresse sich auswirken konnte. Jede Cache-Hierarchie braucht geeignete Chunks um sich nicht zu verschlucken. Das geht vermutlich für Entwickler, die erst mit WinNT und GHz-Boliden gross geworden sind heute nicht mehr so unmittelbar. Da könnte leicht ein Missverständnis in der Releaseplanung aufgetreten sein, ala der Cache ist Transparent. OK, wir fokusssieren uns auf andere Dinge.... Bin gespannt wie sich diese Geschichte dann entraltet....

Sorge macht mir seine Aussage, dass 60% der neuen Grafikkarten die XT-Variante sein sollen. Bei den Listenpreisen hatte ich doch eher auf max 20% XT gehofft. Eine postitive Erklärung könnte da nur noch ein Zurückhalten guter Yields für spätere höher taktende Varianten der OEMs sein. Wenn das nicht so käme wäre es wirklich bitter, die XTX ist bei aktueller Performance und Preisgefüge die einzig kaufbare Variante.
 
Zuletzt bearbeitet:
@Oi!Olli
Es ist aktuell vor allem eines, eine Verkaufstaktik. So wie einst Physx und die Tesselation.
In der Zukunft kamen diese Funktionen erst an als sie beim Marketing abgelöst, sinnvoll eingesetzt wurden und für die breite Masse nutzbar waren und nicht zu der Zeit wo möglichst viel Rechenleistung verbrannt wurde um sich damit von der Konkurrenz künstzlich abzusetzen.
RT hängt aktuell eher noch bei letzteren fest wo möglichst viel Rechenleistung verbrannt wird damit nvidia darüber die Verkaufszahlen hochtreiben und die überzogenen Preise rechtfertigen kann. Über die Zukunft reden wir dann nochmal in 2-3 Jahren wenn diese Verkaufsmasche ausgebrannt ist, man was anderes als "Must have" Feature aufbauscht und die teuer erkaufte Karte von der Zielgruppe ohnehin schon ausgetauscht wurde.

Wie @E555user bereits schrieb, die Schattenberechnung ist in vielen Fällen ein echter Mehrgewinn weil es klassische Verfahren nicht so gut packen. Als kleiner Nebeneffekt hält sich deren Leistungsbedarf auch noch in Grenzen.

Die in den Grafikdemos so gern genutzten nutzlosen Spiegelungen (als hätte man die gesammte Szene mit Cockpitspray eingenebelt) sind eher ein typisches Mittel um Rechenleistung zu verbrennen. In dem Zusammenhang werden dann offenbar auch gern mal für den RT off Vergleich die klassischen Methoden möglichst schlecht umgesetzt um den Effekt weiter künstlich zu verstärken. Da habe ich nur allso oft erheblich bessere Ergebnisse gesehen.

Das in meinen Augen schlimmste Ergebnis dieser Taktik war das Portal "Upgrade" wo die gesammte Beleuchtung verbogen wurde um möglichst Effektvoll zu sein. Das diese Umsetzung für das Setting des Spiels sinnlos ist (finstere Testkammern und hell erleuchtete Beobachtungsräume aus denen man durch die Scheibe kaum noch was beobachten könnte) spielte offensichtlich keine Rolle.
Doppelposting wurde automatisch zusammengeführt:

@E555user
Wenn man mal genauer hinschaut findet man bei den RT Tests sogar Beispiele wo dieser Wert der Effizienzsteigerung erreicht werden weil eine 7900XTX ganz einfach über 60% flotter als eine 6900XT ist.
Bei der Testauswahl von Computerbase hatte beispielsweise Doom ein besonders ausgeprägtes Ergebnis, wenngleich das Spiel damit auf den Radeons eher generell eine unterirdische Performance abliefert.

1670936810800.png
Den damaligen Tests zufolge war die normale 6950XT bei Doom in UHD wiederum lediglich 4% flotter aber fraß 16% mehr Strom.
 
Zuletzt bearbeitet:
Für die 7900er gibt es jetzt einen eigenen Treiber:

Die hohen Idle-Werte haben es in die Known Issues geschafft:

Known Issues​

  • Corruption may be encountered when using Virtual Super Resolution with multi-display configurations [Resolution targeted for 22.12.2].
  • A system crash may be observed when changing display modes with 4 display configurations [Resolution targeted for 22.12.2].
  • High idle power has situationally been observed when using select high resolution and high refresh rate displays.
  • Intermittent app crashes or driver timeout may occur when using Radeon Super Resolution with some extended display configurations.
  • Video stuttering or performance drop may be observed during gameplay plus video playback with some extended display configurations.
  • Stuttering may be observed in UNCHARTED™ 4: A Thief’s End during the opening game sequence.
  • While loading Marvel’s Spider-Man: Miles Morales™ an app crash or driver timeout may occur after enabling ray tracing settings [Resolution targeted for 22.12.2].


Treiberversion ist 22.40.00.59, zum Test hatte CB zum Beispiel noch 22.40.00.57
 
Die Blöße geben sich andere doch genauso, gibt heute leider so gut wie keine nagelneue Hardware mehr die nicht noch Fixe braucht.
Also Kunde wünscht man sich das natürlich anderes aber merkwürdig das nicht bei allen Hersteller das selbe Faß dabei aufgemacht wird.
 
Ich plädiere für neue HBM Modelle denn bei denen spielte das Problem in der Vergangenheit praktisch keine Rolle. ;D
 
Die Blöße geben sich andere doch genauso, gibt heute leider so gut wie keine nagelneue Hardware mehr die nicht noch Fixe braucht.
Also Kunde wünscht man sich das natürlich anderes aber merkwürdig das nicht bei allen Hersteller das selbe Faß dabei aufgemacht wird.
stimmt grundsätzlich. nur wiederholt amd immer wieder den gleichen fehler ...

teilweise hohe idle-leistungsaufnahme und regelmäßig bei youtube-wiedergabe ... rdna3, rdna2, rdna1, polaris
 
So einfach scheint das nicht zu sein das zeigen ja auch die inkonstenten Ergebnisse aus den Reviews.

Oder Usererfahrungen mit der genannten Vorgängerversion
 
Na ja, nachdem bei dem pcgh Review eine recht deutliche Abstufung sichtbar war könnte das natürlich auch für die unterschiedlichen Testergebnisse verantwortlich sein, Stichwort Displays mit unterschiedlichen Bildwiederholraten.

In der Stellungnahme von AMD hatte sich ja auch herauskristallisiert dass dieses Verhalten im grunde genommen gewollt ist um die Latenzen gering zu halten. Klar, der voll taktenede VRAM liefert die Daten schneller als bei idle Takt aber ob das in der Praxis auch sinnvoll ist wurde offenbar bei der Entwicklung noch nicht ernsthaft hinterfragt.

Hat in dem Zusammenhang schon jemand ein Review gefunden bei dem die Bildausgabe auf der AM5 Plattform über die IGP der CPU getestet wurde?
Wenn das performant läuft könnte es das Problem für diese Config praktisch egalisieren weil dadurch das Desktop Bild nicht von der Grafikkarte sondern von der IGP erzeugt wird.
 
Treiberversion ist 22.40.00.59, zum Test hatte CB zum Beispiel noch 22.40.00.57
Mit den zwei vermutlichen Builds von .57 auf .59 im Subversioning sind da sicherlich keine auffälligen Verbeserungen enthalten, eher nur simple Bug-Fixes.


Man kann es auch postitv formulieren: AMD liefert eine neue Sonderedition Fine Wine Jahrgang 2022!

Heuer mit Chiplets und kleinerem L3-Cache. Wo frühe Hochrechnungen noch von 192MB für 4k ausgehen durften, müssen die Treiber jetzt auf die Hälfte des notwendigen L3 hin optimiert werden.
rdna_2_deep_dive_infinity_cache_01-png.197370


Ich hoffe wir sehen irgendwann einmal die Performance eines N31 mit stacked L3 Chiplets.
 
Zuletzt bearbeitet:
gerade habe ich mich durch die Warteschlage gestanden um zu schauen wo die Preise bei AMD stehen und was sehe ich? die XTX ist bereits vergriffen. *buck*
1670942578135.png

Die Bundle Preise sind aber mal richtig witzlos weil CPU und Grafikkarte einzeln billiger kommen. Da wurde wohl noch mit den alten Preisen gerechnet.
Doppelposting wurde automatisch zusammengeführt:


Heuer mit Chiplets und kleinerem L3-Cache. Wo frühe Hochrechnungen noch von 192MB für 4k ausgehen durften, müssen die Treiber jetzt auf die Hälfte des notwendigen L3 hin optimiert werden.
rdna_2_deep_dive_infinity_cache_01-png.197370


Ich hoffe wir sehen irgendwann einmal die Performance eines N31 mit stacked L3 Chiplets.
Na ja, AMD schrieb bei der aktuellen Generation aber auch dass der neue Infinity Cache eine verbesserte Hitrate hätte und das trotz geringerer Größe. Bei der Grafik stand hingegen die Hitrate des damaligen Cache der Cache Größe gegenüber. Man bräuchte also nochmal die gleiche Grafik für die aktuelle Generation um sich einen Reim draus zu machen weil es nicht 1:1 übertragbar ist. Es kann ja durchaus sein das damals noch andere Daten im Cache landeten die jetzt in den schnelleren VRAM ausgelagert werden. Nichts desto Trotz hatte ich ebenfalls ein anderes Konzept als das jetzt gezeigte.
 
Zuletzt bearbeitet:
Die 7900XT scheint nicht begehrt zu sein, die ist überall noch verfügbar, sogar bei AMD selbst und liegt nur 12€ über den 1000€ … vor 2 Jahren wäre die direkt weg gewesen
 
RT ist auch keine Sau, sondern die Zukunft.
Die Zukunft wird eher der "Great Reset" sein, viel Spass dann mit RT...
Ich kann diesen Bullshit echt langsam nicht mehr hören und Argumente kommen auch keine!
Einer mehr auf meiner Ignore List...


Great Reset. Oookkk. Ja viel Spaß.

@sompe Wir reden hier von einer Karte, die mal eben 1000 € kostet. Die holt man sich, weil man die Leistung braucht. Ich hab ja auch keine 6900XT drin, weil mir auch mittlere Details reichen, da hätte ich dann bei meiner 1080 bleiben können. Oder bei meiner 5700 XT.


RT bietet auch Vorteile für die Programmierer. Man muss keine Fakelichtquellen mehr setzen und die Beleuchtung anpassen, dass macht die Software dann selbst.

Und ich gehe jede Wette ein, sobald AMD erstmal gleichauf mit Nvidia ist, benutzt auch du RT.
 
Zuletzt bearbeitet:
Hat in dem Zusammenhang schon jemand ein Review gefunden bei dem die Bildausgabe auf der AM5 Plattform über die IGP der CPU getestet wurde?
Wenn das performant läuft könnte es das Problem für diese Config praktisch egalisieren weil dadurch das Desktop Bild nicht von der Grafikkarte sondern von der IGP erzeugt wird.

Ich teste damit gerade ein wenig rum. Und gestern habe ich ernsthaft überlegt, ob ich mir nur für diesen Test eine 7900XTX zulegen sollte. Die Vernunft hat aber gesiegt und ich habe nicht gekauft. Ich war in der Warteschlange (angeblich 28 Minuten Dauer), war nach rund 15 im Shop und hätte eine 7900XTX kaufen können:

Preise_AMD-Shop.png

Ich bin mir ziemlich sicher, dass sich die Verbrauchsproblematik im Idle durch die Bildausgabe über die IGPU mildern lässt. Allerdings ist dabei nicht alles Gold, was glänzt.

Insgesamt bin ich bezüglich der neuen Karten ziemlich ernüchtert. Nicht unbedingt wegen der gebotenen Leistung sondern eher wegen dem Rückfall in alte Muster. Und da bin ich dann auch bei @cruger , dass RDNA3 im aktuellen Zustand wieder Wasser auf die Mühlen derer ist, die AMD nicht wohlgesonnen sind.

Und obwohl ich mit AMD symphatisiere, so nervt mich das mittlerweile auch tierisch. Alle Welt spricht von Klimawandel, Nachhaltigkeit und Verbrauchsreduzierung - und AMD launcht eine Karte, die im Idle stellenweise säuft wie ein Loch. Wäre es das erste Mal - geschenkt. Aber es ist eben nicht das erste Mal. Der Idle-Verbrauch war auch bei mir der ausschlaggebende Punkt, nicht zu kaufen.

Zusammengefasst sind es verdammt viele (z.T. kleine) Rückschritte gegenüber RDNA2 bzw. generell:

- die Präsentation von AMD war dieses Mal weder auf den Punkt noch leicht untertrieben, sondern deutlich übertrieben
- "schlechterer" Referenzkühler
- stellenweise höherer Idle-Verbrauch
- höherer Preis
- absolut inkonsistente Performance-Charakteristik

Und ganz ehrlich: Darauf habe ich einfach keinen Bock mehr. AMD muss endlich die Basics gebacken bekommen. Gefühlt ist bei jeder Produktgeneration irgendetwas im Argen. Idle-Verbrauch, Treiber-Baustellen, nicht erreichte Boost-Taktraten, Scheduler-Probleme, Speicher-Taktraten - Vollmond, Polarlichter oder auch Sonnenwinde. Und jedesmal reift die Ware bei mir als Kunde. :[

Wir paar Nerds, die die technische Errungenschaft der Chiplets feiern, sind nicht die ausschlaggebende Menge für den Absatz. Wir können uns das Produkt noch schön reden - der Normalverbraucher aber nicht. Und genau mit dem bzw. mit der Art und Weise, was und wie da gestern gelauncht wurde, vergrault man potenzielle Käufer. Da muss sich AMD nicht wundern, dass der Marktanteil bei Grafikkarten zuletzt stark eingebrochen ist...

Außerdem befürchte ich, ähnlich wie @NEO83 , dass wir noch einen oder zwei Refreshs brauchen, bis AMD die Chiplets auf Grafikkarten so gut im Griff hat, wie das bei den CPUs mittlerweile ist. Auch das hat mich etwas vom Kauf abgehalten. Denn ich fürchte so ein wenig, dass man zwar noch einige Bremsen mittels Treiber lösen kann, aber bei weitem nicht alle.

Da ich aufgrund des schlechteren Referenzkühlers jetzt doch wieder auf Wasserkühlung angewiesen wäre (bei einer Wiederholung der 6900er "Ergebnisse" hätte ich ggf. drauf verzichtet), ist das Gesamtpaket für den gebotenen Vorteil einfach zu teuer. EKWB will schlappe 240 Euro für einen Wasserkühler, macht also insgesamt mit Porto knapp 1,4k an Kosten. Für die alte 6900XT mit Wasserkühler gibts vielleicht noch 650 bis 700 Euro - und mal eben das doppelte ausgeben für einen höheren Idle-Verbrauch und inkonsistente Performance - nein Danke.

Und ja, sowas setzt sich irgendwann auch im Kopf des unvoreingenommensten Users fest.

Imho hat AMD mit diesem Launch ziemlich viel Vertrauen kaputt gemacht. Vertrauen, dass man mühsam seit Zen aufgebaut hat und wo man jetzt in alte Muster zurückfällt. Und ich weiß nicht, ob der Scherbenhaufen dieses Mal nicht eine Nummer zu groß geworden ist... *noahnung*
 
Verstehe ich auch nicht. Der Kühler ist doch gut.
 
Eine inkonsistente Performance Charakteristik sehe ich bisher nur bei RT und dafür kann die Ursache ziemlich einfach sein, die Frage welche Funktionen genutzt werden und ob die Software überhaupt auf eine andere RT Umsetzung als die von nvidia optimiert wurde. Bei Intels ARC GPUs zeichnete sich ja ein ähnliches Bild im Bezug zur RT Leistung ab.
Letzteres wäre aber eindeutig nicht Baustelle von AMD. Dafür sollte man vielmehr den Software Schmieden in den Hintern treten. Besonders deutlich sieht man das ja bei nvidias (mehr oder weniger) spielbaren Techdemos.
 
Ich zitiere: "while the 7900XTX does represent the best cost per frame ratio of any GPU released in the last 2 years, the slightly cheaper 7900XT doesn't."

Wie ich schon sagte, die Preisdifferenz ist zu niedrig, die 7900XT lohnt sich so nicht. Die 7900XTX muss auf 1.000€ sinken und die 7900XT auf 800€, dann wird es interessant.

 

Anhänge

  • Screenshot 2022-12-13 180419.jpg
    Screenshot 2022-12-13 180419.jpg
    335,9 KB · Aufrufe: 3
Habe ich was verpasst mit dem "schlechten" Refkühler?

Beispiel:


Verstehe ich auch nicht. Der Kühler ist doch gut.

Ich sagte nicht, dass der Kühler schlecht ist. Aber scheinbar einen Tick "schlechter" als bei der 6900XT. Denn während Computerbase sagt, dass die 6900XT ein halbes dBA leiser wäre als die 7900XTX, berichtet Igor von einer extrem "hibbeligen" Lüfterkurve, die sehr "nervös" auf Lastwechsel reagiert und die Karte dadurch je nach Zustand zwischen 39,9 und 43,4 dBA laut ist. Was schlechter ist als eine 6900XT.

Auch Guru3D ordnet die 7900XTX drei dBA schlechter ein als die 6900XT. Das mag alles jammern auf hohem Niveau sein, aber objektiv betrachtet ist der Kühler offenbar ein kleiner Rückschritt. Wenngleich das natürlich mit der Lüftergeschwindigkeit steht und fällt. Aber selbst wenn AMD hier nachbessern könnte (oder wie Igor schreibt, auch muss), so ist das Bild jetzt erstmal da, wo es gestern verortet wurde.

Eine inkonsistente Performance Charakteristik sehe ich bisher nur bei RT und dafür kann die Ursache ziemlich einfach sein, die Frage welche Funktionen genutzt werden und ob die Software überhaupt auf eine andere RT Umsetzung als die von nvidia optimiert wurde. Bei Intels ARC GPUs zeichnete sich ja ein ähnliches Bild im Bezug zur RT Leistung ab.
Letzteres wäre aber eindeutig nicht Baustelle von AMD. Dafür sollte man vielmehr den Software Schmieden in den Hintern treten. Besonders deutlich sieht man das ja bei nvidias (mehr oder weniger) spielbaren Techdemos.

Das mag inhaltlich alles korrekt sein. Aber der Average Joe da draußen versteht das einerseits nicht und andererseits ist es ihm auch ziemlich egal. Er sieht, welche Ergebnisse er zu erwarten hat und bildet sich darauf basierend seine Meinung.

Und dieses Bild ist seit gestern gezeichnet.
 
man sich so eine blöße gibt, wo genau das nun seit generationen ein launch-problem und darüber hinaus war.
Da kann man auf die Idee kommen, dass die Entwicklung so laeuft -"Wenn alles fertig ist, dann tueften wir noch ein wenig mit dem Power rum".
Es scheint keine grosse Prio zu haben.

Aber eine Bloesse gibt man sich schon (nur weil es andere machen, macht es nicht gut oder besser) - keine Frage IMHO. Zumal mit der Effizienzsteigerung prahlt (gut - das meint noch mehr) und diese durchhaus Gewicht in der Praese gibt. Das wird deutlich, wenn man es eben schwupps nach dem Launch und nachdem die meisten Artikel dazu geschrieben sind - es so zuegig fixen kann.
Vielleicht im Endeffekt keine grosse Sache - aber einfach ungeschickt - da es nun jeder in den Reviews nachlesen kann.

Gut - wir muessen aus unserer Blase hier in Europa und insbesondere in Deutschland mit der hohen Sensibilitaet gegenueber (unsinnigen) Energieverbraeuchen mal aussteigen - in anderen Teilen der Erde ist das nicht so im Fokus.

Ich hoffe dennoch, dass AMD insgesamt von den Superlativen abrueckt in der Darstellung und etwas mehr humble agiert im Markt.
Sie machen es sich selbst etwas schwer... und bieten mehr Angriffsflaeche als noetig..

Gruss,
TNT

PS. MLD - etwas hilflos (auch wenn er nicht so ganz unrecht hat -> 'Burning goodwill of the community' / "something went wrong with RDNA3") - warum auch immer waren seine Speku interessant aber in einigen Werten einfach falsch.
Und seine Credibility is at stake - da sind es sicher nur die anderen... muss ja fast so agieren im YT Dschungel - oder?
 
Zuletzt bearbeitet:
Zurück
Oben Unten