RX 6500XT vs. R9 Nano

Einfach nur den Benchmark mit den jeweiligen Textureneinstellungen durchlaufen lassen.
Höher aufgelöste Texturen sollten normalerweise auch mehr VRAM fressen. Damals war das offenbar bei DX11 nicht der Fall. ^^
ok, ich habe gerade gesehen auch am Ende vom inGame Bench werden alle Threads belastet, nicht zu 100% aber alles wird genutzt: https://abload.de/img/sottr_4k_inbenchpidjq.png
Das Bild ist etwas Größer als die Bilder vom Spiele Menü. :)

Edit:
Die selbe Stelle (etwa) mit Texturen auf niedrigster Stufe: https://abload.de/img/sottr_2023_04_14_20_29ge63.jpg
Und das Ergebnis noch: https://abload.de/img/sottr_2023_04_14_20_2rzf62.jpg

Es macht schon ein Unterschied, ich sehe auch deutlich ein Unterschied im Bild, da fehlt was. ;)
 
Zuletzt bearbeitet:
@WindHund
Es ging doch um DX11 und nicht 12. Bei den Werten oben Links steht aber D3D12. :D
Bei DX12 gab es damals auch Unterschiede bei der Speicherbelegung, bei DX11 irgendwie nicht wirklich. *kopfkratz
 
@sompe
Ich wusste es, wollte noch Nachfragen ob das auch mit DirectX 11 erwünscht ist.
Wie geschrieben ist der Vergleich allerdings nicht ganz fair, weil der Titel SOTTR von vorn herein mit DirectX 12 Entwickelt wurde und keine Portierung eines Konsolen Titel darstellt!

in Progress...
 
Fair ist es schon denn die Textureneinstellungen sollten dann dennoch einen Einfluss darauf haben. Es geht ja nicht um Sachen wie den Multicore Support sondern lediglich die VRAM Belegung. Sind sie dennoch deutlich besser wird wohl bei DX11 deutlich öfter nachgeladen.
 
Ja, inzwischen ändert sich das VRAM Volumen wenn die Texturen angepasst werden mit D3D11.
Von "niedrigste" 6,3GByte über "normal" 6,4GByte weiter zu "Hoch" 6,9GByte und zurück zu "Ultra" 7,6GByte. (im Menü)
InBench sind dann 10 GByte VRAM (Ultra): https://abload.de/img/sottr_2023_04_14_21_5xaf42.jpg

Ich habe mehr IDLE zum Bilder Hochladen als Benchmarks zum laden benötigen! :)
 
Immer noch im Fenster Modus, aber nur noch 20°C im Raum, als vorher 23°C: https://abload.de/img/shadertoy_2100pn1clo.jpg

@Morkhero
The Last of us (Part 1)...

Ich müsste erst mal schauen was kein DirectX 12 hat.

alle spiele die halt älter sind. hier hab ich ein Video gefunden von the witcher DX 12 im vergleich DX 11. unterschied sieht man zwar keinen auch nicht in speed , aber dafür braucht die DX 12 Version mehr VRAM. DX12 3.6 GB DX 11 2.8 GB .
Hab es mal mit Shadows of the Tomb Raider getestet DX11 vs. DX12.

Wie du schon geschrieben hast, bei den reinen Durchschnittlichen FPS Zahlen sieht das nicht nach viel aus.
Aber, das Bild hakt mehrmals während des Benchmark richtig heftig ~ 500-600ms mit DirectX 11 (so könnte ich nicht spielen) : https://abload.de/img/shadowofthetombraidercvdyl.png

es ist nur für den benchmark. wenn du vsync anstellst und freesync am monitor an ist müsste es auch gehen. denn am besten ist immer mit vsync nur für benchmark ist es natürlich ungeeignet . Du hast hohe fps. man sieht unterschiede in der bildrate stark wenn sie sich ändert. Du hast 120 hz eingestellt dass wären 8.3 ms Pro Bild. das diagram zeigt von 0- 20 ms das du hast. Wenn du dir deine kurve anschaust ist deine frame zeit mal unter mal über 8 ms . da ist klar dass es dann sichtbar ruckelig wirkt durch das tearing weil du vsync aus hast. 20 ms wären 50 hz. normalerweise müsste das der freesync monitor aber ausgleichen. müssten doch alle 120 hz monitore freesync haben. wenn der monitor fest 120 hz macht, und ein Bild dauert länger als 8.3 ms in der berechnung dann siehst du das vorige Bild 16,6 ms lang(ist frame time für 60 hz. . wenn er dann schneller rechnet dann wieder in 8.3 ms.
 
Immer noch im Fenster Modus, aber nur noch 20°C im Raum, als vorher 23°C: https://abload.de/img/shadertoy_2100pn1clo.jpg

@Morkhero
The Last of us (Part 1)...

Ich müsste erst mal schauen was kein DirectX 12 hat.

alle spiele die halt älter sind. hier hab ich ein Video gefunden von the witcher DX 12 im vergleich DX 11. unterschied sieht man zwar keinen auch nicht in speed , aber dafür braucht die DX 12 Version mehr VRAM. DX12 3.6 GB DX 11 2.8 GB .
Hab es mal mit Shadows of the Tomb Raider getestet DX11 vs. DX12.

Wie du schon geschrieben hast, bei den reinen Durchschnittlichen FPS Zahlen sieht das nicht nach viel aus.
Aber, das Bild hakt mehrmals während des Benchmark richtig heftig ~ 500-600ms mit DirectX 11 (so könnte ich nicht spielen) : https://abload.de/img/shadowofthetombraidercvdyl.png

es ist nur für den benchmark. wenn du vsync anstellst und freesync am monitor an ist müsste es auch gehen. denn am besten ist immer mit vsync nur für benchmark ist es natürlich ungeeignet . Du hast hohe fps. man sieht unterschiede in der bildrate stark wenn sie sich ändert. Du hast 120 hz eingestellt dass wären 8.3 ms Pro Bild. das diagram zeigt von 0- 20 ms das du hast. Wenn du dir deine kurve anschaust ist deine frame zeit mal unter mal über 8 ms . da ist klar dass es dann sichtbar ruckelig wirkt durch das tearing weil du vsync aus hast. 20 ms wären 50 hz. normalerweise müsste das der freesync monitor aber ausgleichen. müssten doch alle 120 hz monitore freesync haben. wenn der monitor fest 120 hz macht, und ein Bild dauert länger als 8.3 ms in der berechnung dann siehst du das nächste Bild 16,6 ms lang(ist frame time für 60 hz. . wenn er dann schneller rechnet dann wieder in 8.3 ms.
Die harten Ruckler sind mit den "niedrigsten" Texturen weg, dennoch sind es 33% weniger FPS und die Framtime Linie Zittert immer wieder (D3D11).
Also für solche Visuelle Blockbuster ist D3D11 schon lange nichts mehr.
Zumal Raytracing Schatten ohne D3D12 auch nicht vorhanden sind und kein HDR Rendering, was ich Persönlich als Feature für mich entdeckt habe.

Ich nutze kein VSync im Spiel, nur FreeSync Premium Pro + Enhanced Sync in den Adrenalin Einstellungen.
Ich habe noch nichts Vergleichbares gesehen. ;)

Wie unterscheidet sich das HDR bei FreeSync™ Premium Pro von herkömmlichem HDR?

Die Implementierung von HDR in FreeSync™ Premium Pro unterscheidet sich von einer herkömmlichen HDR-Pipeline. Bei FreeSync Premium Pro gibt der Monitor Spezifikationen und Daten direkt an den PC weiter. Somit ist ein direktes Tonemapping auf das Display möglich und unnötige Zwischenschritte werden vermieden, was die Eingabelatenz verringert. Außerdem übersteigen die HDR-Grundvoraussetzungen bei FreeSync Premium Pro die von HDR 400, um im Vergleich zu SDR (sRGB) mindestens das doppelte wahrgenommene Farbvolumen zu bieten.
Quelle: https://www.amd.com/de/technologies/free-sync-faq
 
Immer noch im Fenster Modus, aber nur noch 20°C im Raum, als vorher 23°C: https://abload.de/img/shadertoy_2100pn1clo.jpg

@Morkhero
The Last of us (Part 1)...

Ich müsste erst mal schauen was kein DirectX 12 hat.

alle spiele die halt älter sind. hier hab ich ein Video gefunden von the witcher DX 12 im vergleich DX 11. unterschied sieht man zwar keinen auch nicht in speed , aber dafür braucht die DX 12 Version mehr VRAM. DX12 3.6 GB DX 11 2.8 GB .
Hab es mal mit Shadows of the Tomb Raider getestet DX11 vs. DX12.

Wie du schon geschrieben hast, bei den reinen Durchschnittlichen FPS Zahlen sieht das nicht nach viel aus.
Aber, das Bild hakt mehrmals während des Benchmark richtig heftig ~ 500-600ms mit DirectX 11 (so könnte ich nicht spielen) : https://abload.de/img/shadowofthetombraidercvdyl.png

es ist nur für den benchmark. wenn du vsync anstellst und freesync am monitor an ist müsste es auch gehen. denn am besten ist immer mit vsync nur für benchmark ist es natürlich ungeeignet . Du hast hohe fps. man sieht unterschiede in der bildrate stark wenn sie sich ändert. Du hast 120 hz eingestellt dass wären 8.3 ms Pro Bild. das diagram zeigt von 0- 20 ms das du hast. Wenn du dir deine kurve anschaust ist deine frame zeit mal unter mal über 8 ms . da ist klar dass es dann sichtbar ruckelig wirkt durch das tearing weil du vsync aus hast. 20 ms wären 50 hz. normalerweise müsste das der freesync monitor aber ausgleichen. müssten doch alle 120 hz monitore freesync haben. wenn der monitor fest 120 hz macht, und ein Bild dauert länger als 8.3 ms in der berechnung dann siehst du das nächste Bild 16,6 ms lang(ist frame time für 60 hz. . wenn er dann schneller rechnet dann wieder in 8.3 ms.
Die harten Ruckler sind mit den "niedrigsten" Texturen weg, dennoch sind es 33% weniger FPS und die Framtime Linie Zittert immer wieder (D3D11).

schau mal im monitor einstell menu ob bei dir freesync an ist. so ruckler kann bei etwas komplexeren szenen als im benchmark auch mit DX 12 passieren ohne freesync. HDR hat technisch nur indirekt mit freesync zu tun. weil hdr mehr daten überträgt kann sein dass dann nicht so hohe monitor refresh rate geht wegen kabel. dank free sync braucht man keine so hohe monitor refreshrate und ruckt nicht. da tun es dann 75 hz auch. Muss man im Monitor setting overlay sehen wenn freesync aktiv ist. oder dort anstellen. so sieht es bei mir aus

freesync.JPG

ohne freesync wenn z.b das Bild rendern 8.31 ms braucht und der Monitor bei 120 hz erreichen alle 8.3 ms ein Bild benötigt ruckt es ohne freesync schon stark obwohl das bild 0.01 ms später am monitor ankam. Ist das Bild nicht da nach 8.3 ms wird wegen den 0.01 ms später das Bild dann 8.3 ms weiter angezeigt. also 16.6 ms lang angezeigt. allerdings stimmt das Bild dann nicht in der position weil es ja für 8,3 ms Zeit früher berechnet wurde. das wirkt sehr stark weil alles relativ ist und der fehler in dem falle 100% ist. dass es bei direct x 12 und tombraider gerade nicht auftritt ist halt weil die szene nicht so komplex ist, dass sie um die 8.3 ms stärker schwankt. aber bei einem freesync monitor ist sowas kein Problem, der zeigt dann das Bild eben nach 8.31 ms an was man nicht merkt weil der fehler nur wenige % hat

wenn man kein freesync hat dann hat ein 500 hz monitor auch vorteil weil der fehler geringer ist. ein 500 hz monitor kann alle 2 ms ein Bild anzeigen. kommt das Bild nicht innerhalb 8 ms, dann kommt es 2 ms später also nach 10 ms.

aber um teure hardware kosten zu sparen ist freesync optimal.
Doppelposting wurde automatisch zusammengeführt:

Im übrigen kommt es auch darauf an womit man spielt. mit einem gamepad sieht die bewegung am flüssigsten aus beim drehen und so. Aber zielen kann ich damit viel schlechter als mit Trackball. Ich spiel öfters mit dem trackball . hab mehrere am besten find ich Elecom EX G. die kugel dreht man nie so gleichmässig als wenn man den stick drückt und es rotiert mit gleicher geschwindigleit. aber zielen kann ich damit schlechter obwoh ich einen gulikit habe mit optischen sensoren. mit dem trackball geht zwar das zielen am besten und man muss nicht schieben wie mit Maus und man kann sich schneller drehen wenn man die kugel stark anschubst. Aber die drehung wirkt nie so flüssig wie mit dem gamepad. daher find ich es auch nicht schlimm selbst wenn das game nur 13 fps macht da wirkt sogar das game schärfer weil die bewegungsunschärfe durch das IPS wegfällt.

und im real life wenn man sich schnell dreht und was sehen will dann dreht man die augen so, dass das bild mal kurz stillsteht. hat alles seine Vor und nachteile. ich nehme game pad nur wenn man nicht so genau zielen muss.

hier ist mal gaming mit trackball zu sehen.

 
Zuletzt bearbeitet:
@ballerian

DAnke für die Ausführlich Erklärung, die harten Ruckler gibt es nur wenn man Versucht ein DX12 Blockbuster mit der DX11 API zu Spielen.
Das ist an sich schon Quatsch, man nutzt die Software die besser läuft und nicht freiwillig die schlechtere.

Ja bei mir is FreeSync Premium Pro an da meine Spiele auch in HDR Rendern (Eingestellt im Spiele Menü)

Hier ein Bild vom Samsung Overlay unten das Blau/Violette: https://abload.de/img/20230302_185803kycmt.jpg

Ich habe keine Problem, läuft alles zu meiner Zufriedenheit.
 
@WindHund

Ich hab mal far cry 6 mit HDR probiert wie ich in deinem screenshot sehe kann man einfach mit win+alt+b umschalten. finde auch Bild sieht besser aus in HDR vorallem wenn man Full HD ohne AA nutzt damit das Bild scharf ist reduziert sich das flimmern. ich mag kein AA weil mir dann das Bild zu unscharf wird. Ich habe in far cry 6 nun einmal raytracing bei schatten und spiegelungen angestellt bei FUll HD. wenn ich das game neu starte und da wo ich gespeichert hatte rumlaufe komm ich auf 47 fps wenn HDR aktiv. schalte ich mit win +alt +b HDR ab geht es runter auf 19 fps. schalte ich wieder zurück auf HDR an mit wieder win+alt+b drücken dann macht es nur noch 4 fps . wenn ich das game dann wieder neu starte hab ich wieder 47 fps. VRA; belegung ist immer ziemlich gleich gibt also kein memory leck. wenn es den Bug nicht gäbe, wäre ich zufrieden mit der peformance der RX6500xt .muss irgendwas mit den pxixelshadern zu tun haben.

shadow of the tombraider hab ich mir gekauft und benchmarks laufen lassen. auch unter DX 11 wird es beim länger spielen dann benchmark wieder machen fast 2 * langsamer bei den min fps. ist aber nicht so extrem wie bei far cry 6. obwohl vom shadow of tombraider auch VRAM 5 GB angefordert war

dx 11 3072 schnell_forum compress.jpg
dx 11 langsam_foren compress2.jpg

hänger hab ich bei DX 11 und DX 12 keine . raytracing geht da in mittel in full hd fast ohne speedverlust

wie heist denn die CPU GPU anzeige die bei dem witcher demo die frame time in diagram zeigt ?.


denke die zeigt genauer an. ab und an nach auflösungen ändern hatt ich bei shadows of tomb raider mal 0.2 sec hänger aber in dem diagram von shadow of tombraider sieht man das nicht.
 
@WindHund
denke die zeigt genauer an. ab und an nach auflösungen ändern hatt ich bei shadows of tomb raider mal 0.2 sec hänger aber in dem diagram von shadow of tombraider sieht man das nicht.
Es gibt auch ein Datenträger Frame Buffer, der wird erst gefüllt wenn sich die Berechnungen Wiederholen.
Shader Cache wird es im GPU Treiber genannt, denn kann man dort auch zurücksetzen. (löschen)

Daher nutze ich ja den After Burner um mir auch die Frame Time Linie anzeigen zu lassen, weil ich Neugierig bin.
Es gibt genug Stellen, wo DX11 die Linie nicht Flach hält, sondern sie steigt an, die Latenz.
 
hänger hab ich bei DX 11 und DX 12 keine . raytracing geht da in mittel in full hd fast ohne speedverlust
Na ja, bei 0% GPU gebundenen FPS ist es auch nicht wirklich verwunderlich das die Zuschaltung von RT zu keinem großartigen Geschwindigkeitsverlußt führt. Das Spiel hängt voll im CPU Limit. ;)
 
hänger hab ich bei DX 11 und DX 12 keine . raytracing geht da in mittel in full hd fast ohne speedverlust
Na ja, bei 0% GPU gebundenen FPS ist es auch nicht wirklich verwunderlich das die Zuschaltung von RT zu keinem großartigen Geschwindigkeitsverlußt führt. Das Spiel hängt voll im CPU Limit. ;)

dass sind doch screenshots mit DX11 sieht man das nicht ?. bei DX 11 gibt es doch gar kein Raytracing und ich hatte die preset einstellung in grafik von hoch um es mit anderen systemen besser zu vergleichen.. wäre raytracing an(durch anschalten bei preset hoch) müsste DX 12 an sichtbar sein und unter grafik steht benutzerdefiniert. Die Werte die shadow of the tomb raider ausgibt bei CPU render find ich falsch. Oder kann man das ohne 3d grafikkarte spielen ?. denn dass meine CPU nicht bremst seh ich einfach wenn ich eine sehr kleine screenaufläsung wähle. ist die CPU zu langsam wird es bei kleinerer auflösung kaum schneller. wird aber bei mir viel schneller.

3072x1728 grafikpreset hoch und raytracing an auf mittel. cpu render wert ist mit raytracing viel schneller

3072 rayforum compress.jpg 3072x1728 ray für forum 3.jpg

800x600 preset hoch raytracing an auf mittel


800x600 ray forum compress.jpg

800x600 grafikpreset hoch


800x600 preset hoch forum compress.jpg


also sieht man klar ne schnellere CPU nutzt kaum was. wenn es mal eine APU von AMD gibt mit der performace der 6500 wäre am besten. da hat man dann mit 32 gb kein 16 GB ram limit und die zeit daten zur graka übertragen werden auch gespart. Für diejenigen die noch mehr power wollen, sollte dann eine graka per sli sich zusammen schalten lassen so hat jeder was von der APU . nur so wie das aussieht scheint die built in grafik in der neuen ryzen generation langsamer als in der vorigen generation
 
Nichts für ungut aber du wirfst hier alles so fröhlich durcheinander das die Screenshots wertlos werden und gehst kein Stück auf angesprochene Probleme ein.

Die ersten beiden sind aufgrund der hohen Auflösung wertlos weil es schon deshalb bei der 6500XT wenig verwunderlich ist das die Framerate GPU gebunden ist denn dafür ist die ganz einfach zu langsam, was man ja auch an den durchschnittlichen 18 FPS erkennen kann. Mit der Einstellung spielt aufgrund der Framerate wohl ohnehin niemand, womit es für die Praxis nutzlos ist.

Bei den anderen beiden hast du zwar in 800 x 600 mit RT rumgespielt aber den bereits angesprochenen Punkt ignoriert. Den Prozentsatz der GPU gebundenen Frames.
Mit der Zuschaltung von RT stiegt der Satz lediglich von 35% auf 54%. Der Großteil der GPU Leistung hängt also dennoch in der Luft weil die GPU auf die Daten der CPU warten muss und entsprechend gering fällt dadurch der Unterschied in Benchmark Ergebnis aus weil die GPU dennoch entsprechend große Reserven hat da letztendlich lediglich der GPU gebundenen Teil Einfluss auf das Ergebniss hat.


Du scheinst dir ohnehin gezielt nutzlose Einstellungen rauszusuchen die für die Praxis keine Rolle zu spielen scheinen um irgendeine Aussage zu unterstreichen.
Unterm Strich haben die Daten nur 2 Sachen gezeigt. Für die hohe Auflösung ist die Karte zu lahm und RT ist aus dem gleichen Grund Ressourcenverschwendung weil die Rechenleistung bei den klassischen Einstellungsmöglichkeiten besser angelegt wäre um ein möglichst gutes Spielerlebnis mit der Hardware zu erhalten.
 
Nichts für ungut aber du wirfst hier alles so fröhlich durcheinander das die Screenshots wertlos werden und gehst kein Stück auf angesprochene Probleme ein.

bei dem 3072 mit raytracing steht aber GPU gebunden 100%. du hattest vorher auf die DX 11 werte von mir ohne raytracing das gepostet
hänger hab ich bei DX 11 und DX 12 keine . raytracing geht da in mittel in full hd fast ohne speedverlust
Na ja, bei 0% GPU gebundenen FPS ist es auch nicht wirklich verwunderlich das die Zuschaltung von RT zu keinem großartigen Geschwindigkeitsverlußt führt. Das Spiel hängt voll im CPU Limit. ;)

vielleicht berechnet das spiel unter DX 11 viele effekt per CPU . und dass soll der CPU Render wert aussagen.
die CPU ist nicht zu lahm sieht man dx 11, zumal es bei 800x600 viel schneller wird.

Ich habe heute nochmal 3072x bench gemacht in DX 11 und es ist sogar noch schneller. statt min 19 bei der schnellen version kommt min 30 raus. das stimmt auch denn links sieht man bps während game läuft. der geht nie auf unter 30. bei CPU render steht aber 19. soll ich ein video hochladen ?

ich habe die 3000 auflösung deswegen genommen weil ich schon die direct x11 werte gepostet hatte in der auflösung. es ist ein benchmark und benchmarks sind immer sehr komplex. kommt im spiel selten vor. nur am anfang die stadt. willst du sagen 25 fps sind nicht spielbar ?.wieviele fps soll es denn mindestens haben ?.

wenn man frisch startet oder am besten bootet und gleich den benchmark macht ist die karte in 3072x schnell. sie wird nur mit der zeit einiges langsamer. aber immerhin nicht so schlimm wie in far cry 6

3072 dx11 preset hoch forum compresss.jpg
Doppelposting wurde automatisch zusammengeführt:

hier noch das direct x 11 in 800x600. da gibt es GPU gebunden immerhin 34% aus. bei so kleiner auflösung kann schon eher sein, dass CPU zu langsam ist.

800x600 dx 11 preset hoch forum compress.jpg
 
Zuletzt bearbeitet:
Wie der ein wenig hilfreiches Posting von dir...

Warum es bei der Umschaltung auf DX11 schneller läuft?
Ganz einfach, weil DX11 kein Raytracing unterstützt und es deshalb keine GPU Leistung frißt.
Des weiteren kippte der Wert der GPU gebundenen Frames mit der Abschaltung von DX12 von 100% auf 0%.
Der lausige Multicore Support von DX11 läßt grüßen.
 
Warum es bei der Umschaltung auf DX11 schneller läuft?

Es geht nicht darum, es geht darum dir zu beweisen dass die GPU bound anzeige in tomb raider nicht richtig funktioniert bei DX 11. das gpu overlay vom amd treiber zeigt immer 80-99% gpu auslastung an. also cpu ist schnell genug
 
Und jetzt rate mal warum die GPU Auslastung auf 80% runter rutscht.
Weil sie auf die Daten der CPU warten muss und wie nennt man das? CPU Limitierung.
Und was fehlt noch in deiner Aufführung?
Der GPU Takt und wie weit der Verbrauch der GPU vom Powerlimit entfernt ist da bei Unterforderung der GPU gern mal der Takt gesenkt wird um Strom zu sparen.
 
Nicht nur in HDR Rendern, sondern auch mit HDR10+ Wiedergeben auf dem Bildschirm:

Im Gegensatz zu HDR10 ist HDR10+ dynamisch, sodass HDR10+ für jedes einzelne Bild lebensechte Farben und ausgeprägte Details berechnet. Dieses HDR-Format entwickelten Amazon Video und Samsung als Alternative zu Dolby Vision. Es ist lizenzfrei und daher stärker auf dem Markt vertreten. Durch die dynamischen Einstellungen sind HDR10+-Inhalte abwärtskompatibel zu SDR-TV-Geräten, die jedoch nicht die volle Detailfülle des Inhalts wiedergeben können.

Dank LFC sind bei mir 30 gerenderte Frames wie 60Hz, gefühlt.

Edit:
FreeSync™
  • Zertifiziert
  • Verzerrungsfrei
  • Niedrige Latenz
FreeSync™ Premium
  • Zertifiziert
  • Mindestens 120 Hz bei FHD-Auflösung oder höher
  • Kompensation für niedrige Bildraten
  • Niedrige Latenz
FreeSync™ Premium Pro
(bisher bekannt als FreeSync 2 HDR)

  • Umfangreiche Farb- und Luminanzzertifizierung
  • HDR-Fähigkeiten und Spielunterstützung
  • Mindestens 120 Hz bei FHD-Auflösung oder höher
  • Kompensation für niedrige Bildraten
  • Niedrige Latenz mit SDR oder HDR
Siehe aktuelle Liste unterstützter Spiele.
 
Zuletzt bearbeitet:
Viele Hardcoregamer nutzen auch unter Windows DXVK für Spiele mit DX9 - DX11, weil diese damit bessere Frametimes haben. Gibt meistens einen Boost bei AMD, NVIDIA und Intel Karten. DXVK ist Bestandteil von Valves Proton womit die Windows Spiele unter Linux laufen. Einfach runterladen und die DLLs ins Spiele Verzeichniss kopieren. Ab Version 2.0 muss die Grafikkarte Vulkan 1.3 beherschen, bei älteren Karten also besser Version 1.10.3 nehmen.

Test mit 4 Spielen:
 
Und jetzt rate mal warum die GPU Auslastung auf 80% runter rutscht.
Weil sie auf die Daten der CPU warten muss und wie nennt man das? CPU Limitierung.
siehst du nun im Video
GPU Auslastung sogar über 95% und kein runtertakten. Selbst 80% ist doch ein super Wert. viel viel mehr als 1% oder nicht ?.
ich habe nun Video gemacht da siehst es ganz genau. klar minimales CPU limit gibt es immer. Obwohl ich mit demselben PC und bandicam das video aufnehme bleibt die auslastung während des benchmarks wenn grafik zu sehen ist über 95%. Obwohl ich das video aufnehme zeigt tomb raider sogar ne höhere GPU auslastung als 0 %. Auch während dem abspielen kein runtertakten. video kompression macht alles die CPU. das ruckeln liegt daran weil ich nur mit 30 fps aufnehme damit es nicht so viel CPU leistung braucht bei der aufnahme. irgendwie lässt bandicam unregelmässig frames weg. denn auf dem bildschirm während ich aufgenommen habe lief es auch flüssig und es war tearing zu sehen weil kein vysnc an.

bandicam einstellungen.jpg


Und was fehlt noch in deiner Aufführung?

Muss ich jetzt noch mit video kamera aufnehmen damit es nicht ruckelt bevor du endlich merkst die tomb raider gpu auslastung stimmt nicht und CPU ist schnell genug ?

Der GPU Takt und wie weit der Verbrauch der GPU vom Powerlimit entfernt ist da bei Unterforderung der GPU gern mal der Takt gesenkt wird um Strom zu sparen.

siehst du alles in dem AMD GPU overlay im video. GPU Takt und VRAM Takt bleibt hoch. oder willst noch sagen die AMD overlay anzeige stimmt nicht und tombraider ist richtig ?
 
Glückwunsch das du mit dem Video genau das bestätigt hast was ich bereits schrieb.
Mit deaktivierten DX12 Support sind die RT Schatten aus (ausgegraut) und genau daher kommt die Steigerung der Framerate weil die GPU un der hohen Auflösung schon auch ohne RT gut ausgelastet ist, ganz im Gegenteil zu deinen 800 x 600 Tests.
1681989895318.png

Wie erwartet warst du in deiner Ausführung genau darauf nicht eingegangen und versuchst weiterhin nach dem bekannten Schema etwas zu konstruieren, was erneut die Vermutung nahe legt das du nur trollen willst.
Doppelposting wurde automatisch zusammengeführt:

Und jetzt nochmal 2 Bilder mit einem anderen System dessen Vega64 (Referenzdesign, HBCC off) gleich 2 Fehlerquellen weitestgehend ausräumt. Sie besitzt keinen RT Support und die 8 GB VRAM (wurden vor allem im ersten Test ausgiebig genutzt) sind für das Preset "Hoch" selbst in UHD ausreichend, wobei die Framerate dennoch etwas mager ist.
DX12 on.JPG
DX12 off.JPG

Wie man sieht sind die Unterschiede zwischen DX12 on und off im Endergebnis nur noch gering und der CPU-Renderer (wofür der Wert auch immer stehen mag) hat bei DX12 wie erwartet einen recht deutlichen Vorteil.

Erneut kann man nur sagen das die 6500XT für solch eine Bildeinstellung einfach die falsche Karte ist, erst recht wenn man auch noch mit RT rumspielen will.
 
Zuletzt bearbeitet:
Glückwunsch das du mit dem Video genau das bestätigt hast was ich bereits schrieb.
Mit deaktivierten DX12 Support sind die RT Schatten aus (ausgegraut) und genau daher kommt die Steigerung der Framerate weil die GPU un der hohen Auflösung schon auch ohne RT gut ausgelastet ist, ganz im Gegenteil zu deinen 800 x 600 Test

es geht nicht um DX 11 oder DX 12 speedunterschied. Es geht nur um deinen post https://forum.planet3dnow.de/index.php?threads/rx-6500xt-vs-r9-nano.457714/page-3#post-5436642

Na ja, bei 0% GPU gebundenen FPS ist es auch nicht wirklich verwunderlich das die Zuschaltung von RT zu keinem großartigen Geschwindigkeitsverlußt führt. Das Spiel hängt voll im CPU Limit. ;)

und zu dem neuen text

Mit deaktivierten DX12 Support sind die RT Schatten aus (ausgegraut) und genau daher kommt die Steigerung der Framerate weil die GPU un der hohen Auflösung schon auch ohne RT gut ausgelastet ist, ganz im Gegenteil zu deinen 800 x 600 Tests.

tombraider zeigt aber bei DX 11 geringe auslastung der GPU an.

sollte klar sein , dass die tomb raider GPU auslastung falsch anzeigt zumindest für DX11. Dass in DX 11 kein RT geht hab ich schon gleich auf deinen obigen post geschrieben. dass das Spiel nicht im CPU limit hängt sollte nun ausreichend belegt sein.

noch die fakten zu DX 11 zu DX 12 speedunterschied auf RX 6500 XT 4GB. DX 11 einiges schneller (beides ohne RT natürlich) und selbes preset hoch. dass liegt daran, weil DX 11 weniger vram braucht und daher das schlechte vram management weniger ausmacht. ruckeln tut es bei mir nicht. soll ich video mit video kamera hochladen ?. obwohl dx 12 einiges langsamer als DX 11 zeigt DX12 sogar 100% GPU gebunden an. DX 11 0%. wenn du den tomb raider werten glaubst müsste dann DX 11 für dich ein vielfaches schneller sein. ich habe bei beiden tests tombraider neu gestartet und gleich den bench gemacht

dx 12 3072x forum compress2.jpg

Die DX 11 Werte

3072 dx11 preset hoch forum compresss.jpg
 
Zurück
Oben Unten