AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Wenn mal jemand eine RX 7900 testen darf, schaut mal bitte nach dem 100Hz Bug.
Aus welchem Grund auch immer, zieht 100Hz bis zu 42W im Desktop Windows IDLE.

Alles über 100 und unter 100 gehen diese 42W auf 8,9W zurück.
Ich befinde mich im 50Hz @ 230V Netz (Central Europe)

We earth electrical Deviceses to the Ground, just like a Bolt from the clouds protection. :)
 
Der Grund dürfte normalerweise recht einfach sein, der VRAM wird aus welchen Gründen auch immer hochgetaktet und ob das ein Bug oder technisch erforderlich ist kann nur AMD selbst beantworten.
 
Der Grund dürfte normalerweise recht einfach sein, der VRAM wird aus welchen Gründen auch immer hochgetaktet und ob das ein Bug oder technisch erforderlich ist kann nur AMD selbst beantworten.
Jain, mein TV kann Geräte Remote ansprechen.
Das Nennt sich dann Smart Connect.

NFC bei Blue Tooth ist ja etwas Bugi.
Aber (W)LAN mit dem CRC Protokoll ist schon nice to have!

Das HDMI Kabel kann 144Hz @ 3840x2160 und HDR10+ Dolby Atmos übertragen. Es hat eine Länge von 1,5 Meter.

Sorry we calculate in Meter not Inch or Zoll, Americanski are always bigger...
 
Was hat das damit zu tuen?
Wenn die GPU für die höhere Bildwiederholrate den VRAM aufgrund irgendwelcher Abhängigkeiten hochtakten muss spielt das externe Geraffel dafür keine Rolle. Das ist dann eben kein Bug sondern ein technisch bedingtes Verhalten.

Soweit ich mich erinnere gab es aber bei AM5 die Möglichkeit das von der Grafikkarte berechnete Bild über die IGP auszugeben. Schon spielt über diesen Umweg das Problem keine Rolle mehr weil die IGP diese Aufgabe übernehmen kann und damit für den 2D Desktop nur noch deren Limitierungen eine Rolle spielen.
 
Was hat das damit zu tuen?
Wenn die GPU für die höhere Bildwiederholrate den VRAM aufgrund irgendwelcher Abhängigkeiten hochtakten muss spielt das externe Geraffel dafür keine Rolle. Das ist dann eben kein Bug sondern ein technisch bedingtes Verhalten.

Soweit ich mich erinnere gab es aber bei AM5 die Möglichkeit das von der Grafikkarte berechnete Bild über die IGP auszugeben. Schon spielt über diesen Umweg das Problem keine Rolle mehr weil die IGP diese Aufgabe übernehmen kann und damit für den 2D Desktop nur noch deren Limitierungen eine Rolle spielen.
Wenn ich die in Game HDR Rendering Funktion aktiviere, sieht das Bild extreme dunkel und Überbelichtet aus.
Eine Reduzierung von 50 auf 40 brachte 20Watt weniger an der Steckdose konstant...
 
50 auf 40 was?
Prozentuale Helligkeit am Monitor? FPS? Gummibärchen?
 
Zuletzt bearbeitet:
Wenn mal jemand eine RX 7900 testen darf, schaut mal bitte nach dem 100Hz Bug.
Da die ja noch keiner kaufen kann auch keiner eine Aussage dazu machen - daher gehört auch die folgende Diskussion in den Thread für RX 6000. Danke
 
Zuletzt bearbeitet:
Was hat das damit zu tuen?
Wenn die GPU für die höhere Bildwiederholrate den VRAM aufgrund irgendwelcher Abhängigkeiten hochtakten muss spielt das externe Geraffel dafür keine Rolle. Das ist dann eben kein Bug sondern ein technisch bedingtes Verhalten.

Soweit ich mich erinnere gab es aber bei AM5 die Möglichkeit das von der Grafikkarte berechnete Bild über die IGP auszugeben. Schon spielt über diesen Umweg das Problem keine Rolle mehr weil die IGP diese Aufgabe übernehmen kann und damit für den 2D Desktop nur noch deren Limitierungen eine Rolle spielen.
Technisch bedingtes Verhalten, erfordert auch das Verständnis zu Lesen.
Bei Unklarheiten darf man gerne Nachfragen.

Wieso ist der Verbrauch, bei 119.880Hz & 120Hz und 144Hz, sowie auch bei 60Hz geringer als bei 100Hz ?

Da darf jeder Emotional nach der Logik Fragen ! :P
 
@WindHund
Weil dafür vielleicht andere Teiler für die Taktraten genutzt werden oder diese für diese Bereiche zurechtgebogen wurden weil diese Refresh Raten bei den Bildschirmen einfach gängiger sind?
Das Wort Bug setzt schließlich voraus das es ein Fehlverhalten und kein gewolltes Verhalten ist das im Design begründet ist und diese Frage wirst du mit Sicherheit keiner von uns beantworten können.
 
@WindHund
Weil dafür vielleicht andere Teiler für die Taktraten genutzt werden oder diese für diese Bereiche zurechtgebogen wurden weil diese Refresh Raten bei den Bildschirmen einfach gängiger sind?
Das Wort Bug setzt schließlich voraus das es ein Fehlverhalten und kein gewolltes Verhalten ist das im Design begründet ist und diese Frage wirst du mit Sicherheit keiner von uns beantworten können.


AMD bekommt es schon seit Ewigkeiten nicht hin.
 
Und was ändert das an der Frage ob es technisch bedingt oder nicht ist?
Hinter dem festen Bild Refresh dürfte nunmal ein entsprechender Taktgeber stecke. 60 Hz sind bei den Computer Bildschirmen praktisch der Grundstandard und 120 Hz sind wiederum ein Vielfaches davon. Würde nach 100 Hz ein anderer Teiler aktiv werden würde man also wieder beim Angang des Grundtaktbereiches beginnen der dann wieder irgendwie am Takt des VRAM Controllers hängt.
Vielleicht könnte man das Problem lösen indem man den Framebuffer in einem internen Cache ablegt und damit am VRAM vorbei arbeitet aber das würde natürlich wiederum Chip Fläche fressen. Die HBM Modelle waren da deutlich unkomplizierter, hatten sich aber nicht durchgesetzt was wiederum zeigt wie groß die Relevanz in der Realität ist.
 
nur kurz zu den idel Verbrauchen und den 100Hz das ist nicht nur ein AMD Problem da Win hier eigentlich der Verursacher ist, wenn ich ein System neu aufsetze funktioniert es nach 2-3 Win updates ist es dann "kaputt" auch NV hat zeitweise das gleiche Problem mit den 30xx Karten daher ist es hier wohl ehr ein allgemeines Win Thema auch.
lg
 
Und was ändert das an der Frage ob es technisch bedingt oder nicht ist?
Hinter dem festen Bild Refresh dürfte nunmal ein entsprechender Taktgeber stecke. 60 Hz sind bei den Computer Bildschirmen praktisch der Grundstandard und 120 Hz sind wiederum ein Vielfaches davon. Würde nach 100 Hz ein anderer Teiler aktiv werden würde man also wieder beim Angang des Grundtaktbereiches beginnen der dann wieder irgendwie am Takt des VRAM Controllers hängt.
Vielleicht könnte man das Problem lösen indem man den Framebuffer in einem internen Cache ablegt und damit am VRAM vorbei arbeitet aber das würde natürlich wiederum Chip Fläche fressen. Die HBM Modelle waren da deutlich unkomplizierter, hatten sich aber nicht durchgesetzt was wiederum zeigt wie groß die Relevanz in der Realität ist.
Muss ich dir Recht geben, verzeihe meine Forsche Reaktion !

Es liegt am VRAM, der Taktet mit 100Hz am höchsten bis zu 2.254GHz und verweilt dort auch.
Alle anderen Modis begnügen sich mit bis zu 900MHz und gehen bis 30MHz zurück.
 
Also wieder ein Fall von den ätzenden Untiefen der Technik.
Vermutlich geht es dabei noch nicht einmal um Bandbreite sondern vielmehr um Latenz. Das könnte dann auch beantworten warum die HBM Geschichten dabei erheblich sparsamer sind denn die Anbindung hat vermutlich von sich aus schon weniger Latenz und da der Speicher erheblich geringer taktet (kommt mit sehr viel schwächeren Treiberstufen aus) und dabei kaum belastet wird hält sich auch der Mehrvrerbrauch erheblich in Grenzen.
 
Die Latenz ist auch so eine Sache, von wo nach wo gemessen ?
Spiel Engine selbst, dem Monitor, der Eingabe Geräte.

Mein TV hängt an derselben Steck Dose wie der PC.
Hat aber mal wieder Typischerweise keine Erdung, nur 2-Prong Rasierer Anschluss auf der TV Seite und ebenso für den Schuko Stecker.

Gut es sind ja nur maximal 120W, ein Rasierer dürfte wohl auch in dem Verbrauch liegen.

Mal sehen was die 7000 können.
 
Zugriff auf Speichercontroller/Speicher würde ich sagen denn die Zeit zur Bildausgabe sollte ja möglichst gering sein und da würde sich eine Synchrone Taktung mit *was auch immer" sich durchaus anbieten.
Es geht schließlich nicht um die Berechnungszeit des Bildes sondern um die Ausgabe des fertigen Bildes das im VRAM liegt und da nochmal oben drauf kommt. Bei der 3D Berechnung ist es ja ohnehin egal weil der VRAM mit vollem Takt läuft.
 
Die Hellhound ist ja "kleiner" (3 Slots) als die Red Devil. Zudem könnte Sapphires Vapor-X ebenfalls kleiner ausfallen. Übrigens mein liebstes Design gewesen, damals die HD 5770 Vapor-X habe ich irgendwann nur schweren Herzens ausgetauscht :)
 
damals die HD 5770 Vapor-X habe ich irgendwann nur schweren Herzens ausgetauscht
die habe ich im Grunde genommen immernoch hier rumliegen allerdings war bei meiner einer der Transistooren vom Spannungswandler durchgebrannt und ich konnte keinen Ersatz finden. :(
 
Zugriff auf Speichercontroller/Speicher würde ich sagen denn die Zeit zur Bildausgabe sollte ja möglichst gering sein und da würde sich eine Synchrone Taktung mit *was auch immer" sich durchaus anbieten.
Es geht schließlich nicht um die Berechnungszeit des Bildes sondern um die Ausgabe des fertigen Bildes das im VRAM liegt und da nochmal oben drauf kommt. Bei der 3D Berechnung ist es ja ohnehin egal weil der VRAM mit vollem Takt läuft.
Wie ist das dann mit mehr als 2 Monitoren a 4K@144Hz.
Wird dann wieder alles Halbiert ?

Der RAM DAC liegt bei 400MHz, schon seit ich DirectX 9 Spiele gespielt habe.
 
Bei einem größeren Gesammtbild wird halt der Belegte Platz im Framebuffer größer, was bei einer gleichen Übertragungsdauer mehr Bandbreite erfordern würde aber das hat erstmal wenig mit der Zugriffszeit zu tuen.
Der Bandbreitenbedarf hält sich allerdings vermutlich sehr in Grenzen denn sonst würde eine IGP dafür nicht reichen.

Der RAM DAC (Digital/Analog Converter) spielt heutzutage vermutlich keine große Rolle mehr da seit DVI-D das Bild nicht mehr analog übertragen wird und im analogen Bereich die Anforderungen (VGA/DVI-A) nicht mehr gestiegen sind.
 
Zurück
Oben Unten