AMD Radeon RX 6400/6500/6600/6650/6700/6750/6800/6900/6950 (XT) (Navi2x/RDNA2/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Zuletzt bearbeitet:
Der Radiator kommt mir für diese Leistungsklasse doch sehr schmal vor. *kopfkratz
Ich kann mir vorstellen das es damit in heißen Sommern zu Problemen kommen kann. Da wären die Angaben zur Umgebungstemperatur interessant.
 
Naja wie man hört ist sie nicht so kühl wie man denken würde ;)
Aber ist halt wie bei allen AIOs die Kompatibilität spielt für einige immer eine größere Rolle wie der nutzen.
Ich fand 120AIOs immer für sinnlos ....

lg
 
Das ist am Ende immer eine Frage der angestrebten Kühlmittel- und damit auch der Chip Temperatur, sowie die Temperatur der Luft die zum Kühlen eingesetzt wird. Aus der Differenz und der Kühlfläche ergibt sich dann die letztendliche Kühlwirkung.
Legt man den Kühlkreislauf also auf eine Kühlmitteltemperatur von 55-60 °C aus reicht für die gleiche Verlußtleistung und Umgebungstemperatur eine deutlich kleinere Radiatorfläche und damit ein deutlich kleinerer Radiator als wenn man wie bei den meisten Bastler WaKüs Temperaturen von 30-35 °C anstrebt und genau das verstehen viele bei den Radiator Diskussionen nicht.

Ich für meinen Teil kann hier z.B. aus Erfahrung von meinem kleinen DP-Cruncher reden der mit dem Radiator einer Pro Duo (Fiji) einen A12-9800 und eine HD7970 bei ca. 40-45 °C Wassertemperatur kühlt allerdings hat der Radiator auch 2x Noctua NF-A12x25 PWM bekommen die für ordentlich Luftdurchsatz in dem 120er Radiator sorgen, auch noch etwas Drehzahlreserve für den Sommer lassen und gleichzeitig die einzigen Systemlüfter sind. Der Rechner frißt so ca. 300W.
Ach ja, die einzige Pumpe ist die Pumpeneinheit einer AIO die ca. 30L pro Stunde schafft.
 
Hmm, finde das sehr erstaunlich, dass FidelityFX eine OpenSource Lösung ist, die sowohl auf AMD als auch auf nVidia Karten funktionieren wird.

Warum macht AMD das? Weil sie glauben, dass eine weitere proprietäre Lösung wie DLSS auf zu großen Widerstand bei den Spieleherstellern stoßen würde oder dass ihre Lösung dann auf Dauer nicht mit nVidias DLSS mithalten könnte?
Also sie müssen ja davon überzeugt sein, dass eine gemeinsame OpenSource Lösung (die komplette Verdrängung von DLSS) am Ende für sie einen größeren Wettbewerbsvorteil bringt, als wenn alle Grafikkartenhersteller eine proprietäre Lösung anbieten würden.

Sehr interessant auf jeden Fall, diese Vorgehensweise. Aus Spielersicht natürlich eine super Sache, wenn es weniger proprietären Kram gibt.
 
Da dürfte auch einiges an Pragmatismus mit dabei sein.
Die Akzeptanz eines Features das bei allen Kunden der Spiele Schmiede läuft dürfte deutzlich höher sein und open source bedingt ist man nicht allein für die Weiterentwicklung und vor allem die Optimierung zuständig.
Proprietäre Lösung wie DLSS dienen vor allem der "Kundenbindung".
Der Kunde soll es sich 3x überlegen ob er zur Konkurrenz geht und damit die Funktion verliert.
 
Ich stell' mir auf jeden Fall die langen Gesichter bei nVidia vor, als bekannt wurde, dass die für viele Millionen entwickelte proprietäre Lösung zur Kundenbindung von AMD mit einer OpenSource Lösung zu ersetzt werden droht.
 
Ach das ist doch das gleiche Spiel wie bei den Sachen davor.
Sei es G-Sync, 3D Vision, Gameworks, beschleunigtes RT oder was weiss ich was es da noch alles gab.
Man erkauft sich damit Zeit bis nach der gleichen Masche die nächste Sau durchs Dorf getrieben wird um die Konkurrenz künstlich auszubremsen.
Und ja, künstlich denn es steht ihnen ebenso offen auf freie Standards zu setzen wie z.B. AMD, statt dessen verweigert man sich lieber sie zu unterstützen wie lange Zeit bei adaptiveSync/FreeSync das inzwischen doch mit einem pseudo Logo eingeflossen ist.
 
G-Sync gibt es ja auch weiterhin und es gibt Leute die drauf schwören das es besser ist (z.B. Range). Meine Einstellung ist selbst wenn so etwas etwas besser ist möchte ich mich nicht von einem Anbieter abhängig machen und dafür dann auch mehr bezahlen noch. Das sie da bei adaptiveSync eingeknickt sind war schon erstaunlich.

Ich sehe das mit DLSS (habe kein Spiel das es unterstützt) und RT (nur WOW und das läuft auch mit AMD gut) ganz entspannt, aber bei aktuellen AAA-Titel sind das die "Killerargumente" von Nvidia FAN Seite.

Ich gehe nicht davon aus das FSR zum Start schon gleichwertig ist wie DLSS 2.x - das brauch auch Zeit zum reifen.
 
Das letzte (und erste) Spiel mit Raytracing, das ich gespielt habe, war Resident Evil Village, und das lief perfekt mit maximalen Settings (inkl. RT) @1440p.
Ok, die optischen Unterschiede mit RT sind auch nur marginal bei dem Spiel. Hier und da eine bessere Reflektion. Nichts, was den Gesamteindruck des Spiels maßgeblich beeinflusst.
 
Ist bei WOW auch so, die Effekte sind nicht so groß.

Baldur's Gate 3 wird wohl bei mir das erste Spiel sein mit FSR Support.
 
Zuletzt bearbeitet:
@eratte
All die genannten Features gibt es auch weiterhin nur haben sie bei der Ausgrenzungspolitik erheblich an Bedeutung verloren und wurden bei dieser Aufgabe von etwas anderen abgelöst. Ein Stück weit kann diese Aufgabe noch die RTX Optimierung von Spielen übernehmen aber mich würde es nicht wundern wenn demnächst wieder irgendetwas für die Tensor Cores als "must have" aus dem Boden gestampft wird denn bekanntlich wäre das dann wieder auf die eigenen Karten beschränkt.
Das sie bei adaptiveSync eingeknickt sind war in meinen Augen weniger erstaunlich als absehbar denn aufgrund des Aufpreises der G-Sync Monitore und der zunehmenden Verbreitung der adaptiveSync Monitore grenzte man sich mit der Politik langsam aber sicher selbst aus. Das es keine grundsätzlichen Probleme mit der Unterstützung gab sah man ja bei dem pseudo G-Sync im Laptop Bereich, da war der Weg zur nächsten pseudo Marke für den PC Bereich (um sich weiterhin den FreeSync Logo zu verweigern) nicht mehr weit.
 
also Einknicken würde ich es weniger nennen wie auf den Markt zu reagieren, man darf ja nicht vergessen das sie Lizenzen verkauft haben mit G-sync und der Mark auf einmal zu 80-90% zur Konkurrenz gegangen ist, ohne einlenken gäbe es einfach keine Hardware mehr den welcher Hersteller kauft Lizenzen für eine Absolute Nische (und wir sprechen hier nicht von 2cent je Gerät).
Daher wird es leider immer Wichtiger jeder Firma aufzuzeigen das sie in Konkurrenz steht und nicht ihre Marktmacht missbrauch so wie es NV schon Jahrelang macht ohne große Konsequenzen leider.
Daher begrüße ich es das FSR open source ist, obgleich ich befürchte das es trotzdem missbraucht werden kann.
lg
 
Powercolor Radeon RX 6700XT Hellhound 12 GB im Test – Traum in Weiß und sparsamer als die Referenz (igor'sLAB)

Das mit der Verfügbarkeit und den tatsächlichen Straßenpreisen weit über der UVP sollte aber eher nicht an Powercolor liegen, hier hat sich wohl TSMC schlicht übernommen und der Handel schlägt fett obendrauf.Das mit der Verfügbarkeit und den tatsächlichen Straßenpreisen weit über der UVP sollte aber eher nicht an Powercolor liegen, hier hat sich wohl TSMC schlicht übernommen und der Handel schlägt fett obendrauf.

Aha TSMC ist also Schuld *chatt*
 
Zuletzt bearbeitet:
Hi zusammen,

kurze Frage: hat jemand mit einer 6900xt (Ref. oder NonRef.) im Dual Monitor Betrieb, Probleme mit den richtigen Auflösungen an beiden Monitoren?

Grüße
 
Ich habe einen 24" mit 1920x 1200 (60Hz) und einen 32" mit 2560x1440 (144Hz) in Betrieb (6900XT Referenzkarte). Der kleine ist mittels HDMI und der große mit DP angschlossen. Probleme habe ich soweit keine. Was sind Deine Symptome?
 
Ich habe damit keine Probleme, beide Monitore sind per DisplayPort angeschlossen. (6900XT)
Als Auflösungen kommen 3840 x 2160 @ 60 Hz und 1200 x 1920 @ 60 Hz (Hochkant) zum Einsatz.

Das Einzige was ich als Problem bezeichnen könnte ist dass der VRAM hochgetaktet wird wenn der zweite Monitor eingeschaltet wird. (nur bei Bedarf an)
 
Hi zusammen,

kurze Frage: hat jemand mit einer 6900xt (Ref. oder NonRef.) im Dual Monitor Betrieb, Probleme mit den richtigen Auflösungen an beiden Monitoren?

Grüße
Zweimal FHD, keine Probleme, allerdings erst seit ich auf 2 x 144Hz umgerüstet habe, einmal 60 und einmal 144 Hz waren schwierig, hängt aber eher an Windows als an der Hardware.
 
N’Abend..
… Was sind Deine Symptome?

also ich hab ein 49“ 4K120hz TV mit HDMi2.1 der läuft Einwandfrei u auch mit FreeSync einfach super geschmeidig.
Nun das Problem, da mein FHD Monitor kein DP Anschluss hat und die Karte auch nur 1xHDMI musst ich mir 1x DP-HDMI Kabel besorgen und als Vergleich auch nochmal ein Adapter mit DP-HDMI beides ja in meinem Fall nur 1080p erreichen soll. Wenn ich den HDMI 2.1 Port am TV habe u den DP-HDMI zum FHD Monitor habe ich im Windows 10 21H1 (frisch clean installiert) nur eine Grau hinterlegte Auflösung von 640x480.
Keine Änderungen möglich!
Mehrere Chipsatz/Treiber Versionen getestet.
Asus Support ist zwar der Meinung könnte an den Adaptern liegen aber wtf nee, mMn nicht. Wenn ich das DP-HDMI einzeln an der GPU u am TV habe ist am TV auch nur 1080p verfügbar und selbiges auch mit dem DP-HDMI Adapter also sollte beides für 1080p Monitor reichen.
Also bevor ich jetz ne RMA der GPU in Auftrag gebe u ich vermutlich bis Weihnachten auf neue Karte warten muss.

hat noch jemand ne Idee ?

ps: selbst im Treiber die Option Auflösung Überschreiben funktioniert nicht.
pps: beide Monitore werden erkannt.

@BlackOak das der VRAM Takt auf Maximum läuft sobald man über 60Hz laufen lässt ist vermutlich normal. Haben zumind. viele das Phänomen.

Grüße u Jut N8..
 
Aktiver oder passiver Adapter?
Ich mußte die Erfahrung machen das die aktiven Adapter auch verdammt wählerisch und zickig sein können.
Auch sollte das Kabel selbst für die Einstellung geeignet sein. Hier hatte ich z.B. mit einigen längeren DisplayPort Kabeln schlechte Erfahrungen gemacht, wenn auch mit einer anderen Grafikkarte. Das Signal was am Ende raus kam war wohl einfach zu schlecht.
 
Zuletzt bearbeitet:
@sompe das ist nen ganz einfacher passiv Adapter war auch nur zum Test bestellt.
Und selbst die neuen Beta 21.6.1 bringen nichts u. auch der für den Monitor verfügbarer Treiber war erfolglos.
Eyefinity setup auch nix.
GPU Bios 1&2 kein Erfolg und auch beide DP Anschlüsse der Karte gecheckt.

noch jemand ne Idee ?
Grüße
 
Zurück
Oben Unten