RX 6500XT vs. R9 Nano

In deinem Fall ist das mehr als PCIe 4 x8 oder PCIe 3 x 16. bei meiner gforce 1030 und radeon 6500 XT ist es aber auch so 22 GB . siehe mein screenshot oben. aber pcie3 x16 soll nur 16 gb machen. in dem bench kommen meine karten aber auf 22 GB. aber eh egal mein DDR 4 schafft auch nur 16 GB
Eigentlich sind es bei PCI-Express 4.0: 16 GT/s ~ 31,5 GByte/s mit 16 Lanes: https://www.elektronik-kompendium.de/sites/com/0904051.htm


PCIe​
Symbolrate
pro Lane​
PCIe x1​
PCIe x4​
PCIe x8​
PCIe x16​
Kodierung
(Balast in %)​
1.0/1.1​
2,5 GT/s​
0,25 GByte/s​
1,0 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8b10b / 20%
2.0/2.1​
5 GT/s​
0,50 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8,0 GByte/s​
8b10b / 20%
3.0/3.1​
ja wi8 GT/s​
0,97 GByte/s​
3,9 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
128b/130b / <2%
4.0​
16 GT/s​
1,90 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
31,5 GByte/s
128b/130b / <2%
5.0​
32 GT/s​
3,90 GByte/s​
15,5 GByte/s​
31,5 GByte/s​
63,0 GByte/s​
128b/130b / <2%
6.0​
64 GT/s​
7,50 GByte/s​
30,1 GByte/s​
60,2 GByte/s​
120,4 GByte/s​
PAM-4
7.0​
128 GT/s​
16 GByte/s​
PAM-4

Aber das nur als Info, sofern der Mainboard Steckplatz PCI-Express 4.0 x16 kann sollten es um die 20 GByte/s sein.

Edit:

Gerade nochmal den 3DMark PCI-Express Test gemacht: https://www.3dmark.com/pcie/373928
27 GByte/s

Ich meinte bei dir kann es möglich sein, nur bei mir nicht, ich habe nur PCIe3 und da gibt es nicht mehr als 15.5 gb bei x16 wie du zitiert hast. test zeigt aber bei mir 22 gb an https://forum.planet3dnow.de/index.php?threads/rx-6500xt-vs-r9-nano.457714/#post-5436036 hab auch far cry 6 im hintegrund laufen gehabt damit buss nicht runtertaktet

hwinfo und gpu-z zeigen bei meiner 6500xt pcie3x4. dass wären dann theoretisch nicht mehr als 5 Gb. macht die gforce 1030 aber auch und ist aber viel schneller.
pci e für forum.jpg
Doppelposting wurde automatisch zusammengeführt:

tja die grosse frage ist wo gibt es einen funktionierenden Mem benchmark oder stimmen die werte von hwinfo und gpu-z nicht bei der 6500XT . die geben die werte für die karte evtl per Hand ein. aida hatt ich früher mal mit der gfroce 1030 getestet, war auch so ähnlich im wert wie memory benchmark
 
Zuletzt bearbeitet:
Ich würde eher sagen das der Zugriff von außen auf den VRAM in der Form nicht vorgesehen ist und man deshalb über diesen Weg keine sinnvollen Werte für die Übertragungsraten vom VRAM bekommen kann. Das wird man wohl eher anhand der internen Kopiervorgängen abschätzen können.
 
In deinem Fall ist das mehr als PCIe 4 x8 oder PCIe 3 x 16. bei meiner gforce 1030 und radeon 6500 XT ist es aber auch so 22 GB . siehe mein screenshot oben. aber pcie3 x16 soll nur 16 gb machen. in dem bench kommen meine karten aber auf 22 GB. aber eh egal mein DDR 4 schafft auch nur 16 GB
Eigentlich sind es bei PCI-Express 4.0: 16 GT/s ~ 31,5 GByte/s mit 16 Lanes: https://www.elektronik-kompendium.de/sites/com/0904051.htm


PCIe​
Symbolrate
pro Lane​
PCIe x1​
PCIe x4​
PCIe x8​
PCIe x16​
Kodierung
(Balast in %)​
1.0/1.1​
2,5 GT/s​
0,25 GByte/s​
1,0 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8b10b / 20%
2.0/2.1​
5 GT/s​
0,50 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8,0 GByte/s​
8b10b / 20%
3.0/3.1​
ja wi8 GT/s​
0,97 GByte/s​
3,9 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
128b/130b / <2%
4.0​
16 GT/s​
1,90 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
31,5 GByte/s
128b/130b / <2%
5.0​
32 GT/s​
3,90 GByte/s​
15,5 GByte/s​
31,5 GByte/s​
63,0 GByte/s​
128b/130b / <2%
6.0​
64 GT/s​
7,50 GByte/s​
30,1 GByte/s​
60,2 GByte/s​
120,4 GByte/s​
PAM-4
7.0​
128 GT/s​
16 GByte/s​
PAM-4

Aber das nur als Info, sofern der Mainboard Steckplatz PCI-Express 4.0 x16 kann sollten es um die 20 GByte/s sein.

Edit:

Gerade nochmal den 3DMark PCI-Express Test gemacht: https://www.3dmark.com/pcie/373928
27 GByte/s

Ich meinte bei dir kann es möglich sein, nur bei mir nicht, ich habe nur PCIe3 und da gibt es nicht mehr als 15.5 gb bei x16 wie du zitiert hast. test zeigt aber bei mir 22 gb an https://forum.planet3dnow.de/index.php?threads/rx-6500xt-vs-r9-nano.457714/#post-5436036 hab auch far cry 6 im hintegrund laufen gehabt damit buss nicht runtertaktet

hwinfo und gpu-z zeigen bei meiner 6500xt pcie3x4. dass wären dann theoretisch nicht mehr als 5 Gb. macht die gforce 1030 aber auch und ist aber viel schneller.

Doppelposting wurde automatisch zusammengeführt:

tja die grosse frage ist wo gibt es einen funktionierenden Mem benchmark oder stimmen die werte von hwinfo und gpu-z nicht bei der 6500XT . die geben die werte für die karte evtl per Hand ein. aida hatt ich früher mal mit der gfroce 1030 getestet, war auch so ähnlich im wert wie memory benchmark
Ok, jetzt habe ich dich verstanden.
Auch wenn deine GPU nur 15GByte/s kann, es werden ja keine Roh Daten übertragen sondern Komprimierte Datenströme.
Das würde auch erklären warum die Lese Geschwindigkeit so gering ist, weil die CPU die Daten Entpacken muss die Eigentlich die GPU entpacken muss.

Der nächste Schritt ist DirectStorage, da kann dann die GPU direkt Daten von der SSD in den VRAM laden ohne Umweg der CPU oder den RAM. :)
 
Ich würde eher sagen das der Zugriff von außen auf den VRAM in der Form nicht vorgesehen ist und man deshalb über diesen Weg keine sinnvollen Werte für die Übertragungsraten vom VRAM bekommen kann. Das wird man wohl eher anhand der internen Kopiervorgängen abschätzen können.

muss er ja wie sonst sollen die daten ins vram kommen. treiber müssen auch die windows befehle benutzten damit die programme nicht gleichzeitig auf den speicher zugreifen können. wenn er das so programmiert, muss es auch gehen https://learn.microsoft.com/en-us/windows/win32/direct3d9/accessing-surface-memory-directly dass ist die unterste low level stufe in direct x. das da 9 drinsteht soll zeigen, dass dieser befehl ab direct x 9 geht. direct x 9 kam 2002.also er muss sich den lock holen und dann kann er mit der cpu voll auf den speicher zugreifen und de zeit messen. sinnvollerweise wäre aber ein bench richtig der aus dem system ram liest und mit memcpy auf das vram schreibt. aber auch bei den surfaces kann windows die selber aus dem vram nehmen und es wird dann nur im system ram rumgeschoben.

windows muss dann solange warten bis man den lock wieder freigibt. die locks gibt es auch für texturen. windows benennung ist halt etwas eigenartig. die nennen es surfaces aber üblich ist das ne bitmap die auch direkt angezeigt werden kann. ich habe damit schon programmiert, wenn innerhalb eines locks windows abstürzt hilft nur der reset knopf. da gibt es weder bluescreen und den task manager kann man auch nicht mehr aufrufen

direct x12 haben sie zwar massiv umgebaut, aber dennoch ist das grundprinzip dasselbe. die 20 GB virtuelles VRAM bleibt.

von furmark gibt es auch einen benchmark, aber der nutzt nicht viele polygone. zumindest sieht man in dem test, dass man durch abstellen von AA viel performance gewinnt. auf custom clicken um zu starten

In deinem Fall ist das mehr als PCIe 4 x8 oder PCIe 3 x 16. bei meiner gforce 1030 und radeon 6500 XT ist es aber auch so 22 GB . siehe mein screenshot oben. aber pcie3 x16 soll nur 16 gb machen. in dem bench kommen meine karten aber auf 22 GB. aber eh egal mein DDR 4 schafft auch nur 16 GB
Eigentlich sind es bei PCI-Express 4.0: 16 GT/s ~ 31,5 GByte/s mit 16 Lanes: https://www.elektronik-kompendium.de/sites/com/0904051.htm


PCIe​
Symbolrate
pro Lane​
PCIe x1​
PCIe x4​
PCIe x8​
PCIe x16​
Kodierung
(Balast in %)​
1.0/1.1​
2,5 GT/s​
0,25 GByte/s​
1,0 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8b10b / 20%
2.0/2.1​
5 GT/s​
0,50 GByte/s​
2,0 GByte/s​
4,0 GByte/s​
8,0 GByte/s​
8b10b / 20%
3.0/3.1​
ja wi8 GT/s​
0,97 GByte/s​
3,9 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
128b/130b / <2%
4.0​
16 GT/s​
1,90 GByte/s​
7,8 GByte/s​
15,5 GByte/s​
31,5 GByte/s
128b/130b / <2%
5.0​
32 GT/s​
3,90 GByte/s​
15,5 GByte/s​
31,5 GByte/s​
63,0 GByte/s​
128b/130b / <2%
6.0​
64 GT/s​
7,50 GByte/s​
30,1 GByte/s​
60,2 GByte/s​
120,4 GByte/s​
PAM-4
7.0​
128 GT/s​
16 GByte/s​
PAM-4

Aber das nur als Info, sofern der Mainboard Steckplatz PCI-Express 4.0 x16 kann sollten es um die 20 GByte/s sein.

Edit:

Gerade nochmal den 3DMark PCI-Express Test gemacht: https://www.3dmark.com/pcie/373928
27 GByte/s

Ich meinte bei dir kann es möglich sein, nur bei mir nicht, ich habe nur PCIe3 und da gibt es nicht mehr als 15.5 gb bei x16 wie du zitiert hast. test zeigt aber bei mir 22 gb an https://forum.planet3dnow.de/index.php?threads/rx-6500xt-vs-r9-nano.457714/#post-5436036 hab auch far cry 6 im hintegrund laufen gehabt damit buss nicht runtertaktet

hwinfo und gpu-z zeigen bei meiner 6500xt pcie3x4. dass wären dann theoretisch nicht mehr als 5 Gb. macht die gforce 1030 aber auch und ist aber viel schneller.

Doppelposting wurde automatisch zusammengeführt:

tja die grosse frage ist wo gibt es einen funktionierenden Mem benchmark oder stimmen die werte von hwinfo und gpu-z nicht bei der 6500XT . die geben die werte für die karte evtl per Hand ein. aida hatt ich früher mal mit der gfroce 1030 getestet, war auch so ähnlich im wert wie memory benchmark


Ok, jetzt habe ich dich verstanden.
Auch wenn deine GPU nur 15GByte/s kann, es werden ja keine Roh Daten übertragen sondern Komprimierte Datenströme.
Das würde auch erklären warum die Lese Geschwindigkeit so gering ist, weil die CPU die Daten Entpacken muss die Eigentlich die GPU entpacken muss.

Der nächste Schritt ist DirectStorage, da kann dann die GPU direkt Daten von der SSD in den VRAM laden ohne Umweg der CPU oder den RAM. :)

das habe ich nicht geschrieben gepackt wird da eigentlich nichts. wenn es gepackt wäre müsste lesen schneller als schreiben gehen. dass lesen langsam ist liegt daran weil die karte halt nicht so gemacht sind dass viel gelesen wird und dafür mehr bandbreite zum schreiben da ist.


fehlen halt mehr benchmarks die das vram testen. habve aber gesehen die alten benchmarks wie 3d mark 11 kann man nun kostenlos von der 3d mark seite laden. mal sehen was sich da einstellen lässt und testen
 
Ok, jetzt habe ich dich verstanden.
Auch wenn deine GPU nur 15GByte/s kann, es werden ja keine Roh Daten übertragen sondern Komprimierte Datenströme.
Das würde auch erklären warum die Lese Geschwindigkeit so gering ist, weil die CPU die Daten Entpacken muss die Eigentlich die GPU entpacken muss.

Der nächste Schritt ist DirectStorage, da kann dann die GPU direkt Daten von der SSD in den VRAM laden ohne Umweg der CPU oder den RAM. :)

das habe ich nicht geschrieben gepackt wird da eigentlich nichts. wenn es gepackt wäre müsste lesen schneller als schreiben gehen. dass lesen langsam ist liegt daran weil die karte halt nicht so gemacht sind dass viel gelesen wird und dafür mehr bandbreite zum schreiben da ist.


fehlen halt mehr benchmarks die das vram testen. habve aber gesehen die alten benchmarks wie 3d mark 11 kann man nun kostenlos von der 3d mark seite laden. mal sehen was sich da einstellen lässt und testen
Das wird allgemein so gemacht inzwischen, es gibt keine Roh Daten Übertragungen mehr.
Der Grafik Treiber komprimiert die Daten die an die GPU gehen, bzw. der Spiele Entwickler.
Daher lässt sich über die Bandbreite nicht viel sagen, da es auf den Entwickler ankommt ob er Moderne Feature nutzt oder eben nicht.

GPUz gibt die Roh Daten Leistung an, die sind vom Takt abhängig also berechnet.

Edit: Hier mal noch AIDA64 [Trail] GPGPU Benchmark: https://abload.de/img/aida64_extreme_gpgpu2sdl9.jpg
 
Zuletzt bearbeitet:
Das wird allgemein so gemacht inzwischen, es gibt keine Roh Daten Übertragungen mehr.
Der Grafik Treiber komprimiert die Daten die an die GPU gehen, bzw. der Spiele Entwickler.
Daher lässt sich über die Bandbreite nicht viel sagen, da es auf den Entwickler ankommt ob er Moderne Feature nutzt oder eben nicht.

GPUz gibt die Roh Daten Leistung an, die sind vom Takt abhängig also berechnet.

solange ich keine beweise in source codes sehe glaub ich das nicht. lassen wirs ;)

Ich habe hier mal eine benchmark für pixdelshader gefunden . der zeigt für die 6500 XT an 20 GB Vram und benutzt 16 gb vram. ist aber kein DX12 sondern opengl. läuft in full HD mit 37 fps und in 4k mit11 fps . vielleicht kennt den jemand ?

 
Kennen tu ich das nicht, aber sieht echt cool aus. ;)

1081p 147FPS
2160p 37FPS

shadertoy_1081p55i5g.jpg


Aber im Fenster Mode, Fullscreen sollte nochmal etwas mehr sein. :)
 
solange ich keine beweise in source codes sehe glaub ich das nicht. lassen wirs ;)
Warum diskutierst du dann nicht mit entsprechenden Programmierern und Entwicklern sondern in einem User Forum?

wieso user forum. in jedem forum können welche sein die programmieren oder eine game engine nutzen. unreal 5 engine ist kostenlos für freie projekte. früher gab es mal s3tc Texturkompression. es wurde nie weiterentwickelt, dabei wäre es gerade für hochauflösende texturen nützlich. Lohnt sich für die Hardware industrie halt mehr, wenn man um ein 16 megabyte bild zu berechnen 9000 megabyte im pysikalischen VRAM haben muss wegen schlechtem speichermanagement vermutlich nur bei DX 12. https://de.wikipedia.org/wiki/S3_Texture_Compression

kennt wer eigentliche spiele demos die DX 11 DX 12 version umschaltbar haben die viel VRAM brauchen ?. dann könnt ich mal testen was dx11 auf der amd version macht wenn der physikalische speicher voll ist. ob das besser erkennt was nicht gebraucht wird derzeit.
Doppelposting wurde automatisch zusammengeführt:

s3tc texturen gab es so wie das aussieht maximal bis für das alte unreal https://www.oldunreal.com/phpBB3/viewtopic.php?t=400
 
Zuletzt bearbeitet:
der benchmark sieht in der tat sehr hübsch aus :)

1080p .... avg fps 116 / max fps 120

2160p .... avg fps 29 / max fps 31

umschaltbar ... äh ... the witcher 3 kann man in dx11 oder dx12 spielen.
 
wieso user forum. in jedem forum können welche sein die programmieren oder eine game engine nutzen.
Du stellst Forderungen die nur entsprechende Entwickler erfüllen könne und bist hier damit ganz einfach an der falschen Stelle. Was vielleicht, womöglich, eventuell sein könnte spielt dafür keine Rolle.
 
@WindHund

mit der ollen 2080ti kann ich nix mehr reissen gegen eine 6950xt^^ ...nur was die temperatur angeht ist das system noch für rekorde gut :P ... die temperatur der karte geht hier nicht über 45 grad unter last.

und das mit dx11 und dx12 bei the witcher fiel mir nur wegen dem next gen update ein. der unterschied ist deutlich und für ballerian ist das spiel sicher auch günstiger zu bekommen als the last of us. wobei ich mit seiner karte maximal frustiert wäre ^^.
 
So richtig viel VRAM und RAM braucht bei mir Forspoken.
Nicht nur das es über 12GByte VRAM + RAM sind, es wird auch extreme schnell geladen.

Mein System bootet vom UEFI Bild bis zum Eingeben des Windows Passwort: 8 Sekunden ohne Fast Boot...

Hab schon wieder ein Buffer Overflow erwischt (DirectX 10) :


sisoftwaresandra_dx10hidnj.jpg
 
Immer noch im Fenster Modus, aber nur noch 20°C im Raum, als vorher 23°C: https://abload.de/img/shadertoy_2100pn1clo.jpg

@Morkhero
The Last of us (Part 1)...

Ich müsste erst mal schauen was kein DirectX 12 hat.

alle spiele die halt älter sind. hier hab ich ein Video gefunden von the witcher DX 12 im vergleich DX 11. unterschied sieht man zwar keinen auch nicht in speed , aber dafür braucht die DX 12 Version mehr VRAM. DX12 3.6 GB DX 11 2.8 GB .

Interessant wäre mal zu sehen wie DX 11 und DX 12 performnt wenn der VRAM wunsch des Programs etwas grösser ist als was die Karte hat. ich finde die RX 6500 akzetabel für den Preis wenn sie nicht den Extrem einbruch hätte schon wenn der Programm wunsch des VRAMS paar 100 megabyte grösser ist. ich habe far cry 6 ne weile damit gespielt. in 1440p komm ich auf immer über 20 fps eine zeitlang was mir reicht. bildquali find ich auch ok. Nur wenn man dann ne weile spielt geht die FR stark runter auf 4 was mir zu lahm ist. lade ich spielstand der vorher schnell lief (man kann 3 spielstände speichern) geht es auch langsam. wenn ich das ganze far cry neu starte geht es wieder schnell.

speicherleck in far cry 6 seh ich keines, denn der vram bedarf des kompletten VRAM Bedarf im task manager liegt immer so um die 5.1 GB und bleibt so. passiert sogar dass nur 3.7 GB physikalisches VRAM genutzt wird. trotzdem läuft es mal schnell dann wird es irgendwann extrem langsam

das problem hab ich in der gforce 1030 nicht.
wieso user forum. in jedem forum können welche sein die programmieren oder eine game engine nutzen.
Du stellst Forderungen die nur entsprechende Entwickler erfüllen könne und bist hier damit ganz einfach an der falschen Stelle. Was vielleicht, womöglich, eventuell sein könnte spielt dafür keine Rolle.

was für forderungen denn ?. das kostenlose far cry 6 trail auf einer 4g AMD karte installieren und probieren ob es da genau so passiert, dazu muss man kein programmierer sein. Wenn es mehr gibt die das Problem betätigen dann machen die eher etwas. der Kunde ist der König. Wenn König Kunde sagt , man muss eben immer eine grake haben die mehr VRAM hat als das GESAMTE Game belegt freut es die entwickler, die grakahersteller usw. Haben sie weniger arbeit und verdienen mehr geld.

Oder sind in dem Forum alle vielschreiber arbeiter bei AMD oder im computerhardware bereich beschäftigt ? . ehrliche antwort wäre gut, dann wüsst ich dass ich mir die mühe sparen hier zu schreiben. denn wenn das DX 12 memory management verbessert würde, dann befürchten die HW verkäufer weniger umsatz
 
Deine ständige Forderung nach entsprechenden Code Zeilen, was letztendlich den Großteil der Ressourcen Verwaltung der Spiele Engine bedeuten würde.
Genau das wirst du hier aus mehreren Gründen mit Sicherheit nicht bekommen.

Begib dich mit einer Antwort auf User Niveau zufrieden oder stelle solche Forderungen da wo du sie auch bekommen kannst denn sonst ist es einfach nur Spam.
Selbst die Diskussion die du hier vom Zaun brichst ist mal wieder vollkommen fehl am Platz da es dir erneut nur um Programmierung geht und inzwischen aus dem bereits geschlossenen Topic wissen müßtest das du diese Antworten ohnehin nicht ebkommen kannst. Also geht es offenbar nur ums trollen....
 
@ballererian

Wie wäre es wenn du mal was vorlegst? Vllt. ein Benchmark mit RT optimiert auf RDNA2/3 ?
Wissen bekommst du bei www.gpuopen.com

Eventuell noch FSR 2.2 implementieren in der UE4.

Hast du überhaupt Kenntnisse was das angeht?
Wenn ich mal länger Zeit habe, würde ich auch mal ne Benchmark-Demo inkl. RT und FSR2.2, optimiert für RDNA2 / 3 hinlegen wollen.

Das RDNA3 e-Buch hat bspw. ca. 600 Seiten, wo man die shader-intrinsics sich anschauen kann.
 
Es geht hier um die RX 6500 und es gäbe die Diskussiion übehaupt nicht wenn sompe nicht der Meinung wäre, dass es kein Fehler in Speicherverwaltung ist, wenn die RX 65000 sobald das 4 GB limit der karte überschritten wird extrem langsam wird und die gfor4ce 1030 obwohl die nur 2 GB VRAM hat nicht
Begib dich mit einer Antwort auf User Niveau zufrieden

wenn du kein Programmierer bist woher willst du dann wissen, dass die RX 6500XT keine schlechtere Speicherverwaltung als die gforce 1030 hat

such einfach GPU nicht sichtbare polygone dann findest text von der uni karlsruhe. da solte auch nicht programmierern klar sein, dass nur wenige polygone und damit auch nur wenig texturen im physikalischen vram sein müssen.

Moderne Grafikkarten können problemlos 2 Millionen Dreiecke bei hohen Frameraten rendern. Selbst wenn jedes Dreieck auf dem Bildschirm nur einen Pixel groß wäre, reichte es damit für HD-Auflösungen bei 60 FPS und mehr. Warum sollten wir uns also (Gedanken machen) Polygone (zu) sparen? Weil die meisten Polygone überhaupt nicht sichtbar sind!


Ein Grund kann Verdeckung durch andere Polygone sein. Culling-Verfahren versuchen, solche Polygone im Vorfeld heraus zu filtern. Ein anderes Problem kann allerdings die hohe Distanz zu Dreiecken sein: Weit entfernte Dreiecke können auf dem Bildschirm deutlich weniger als einen Pixel groß sein. In vielen Fällen wollen wir uns den Aufwand durch solche Dreiecke sparen, in dem wir weit entfernte Polygone zu einem einzelnen zusammenfassen (der Unterschied ist auf dem Ergebnisbild nicht mehr wahrzunehmen). Verfahren, die uns dies erlauben nennen wir “Level of Detail”-Techniken.

Ein Sonderfall für solche Techniken ist Terrain: Eine realitätsnahe Abbildung eines ganzen Kontinents kann Terabyte an Daten verursachen, mit einer entsprechend hohen Anzahl an Polygonen. Wir müssen hier viele entfernte Polygone einsparen, aber auch darauf achten, dass der Betrachter den Unterschied und den Übergang zwischen Detailstufen nicht bemerkt. Wir betrachten deshalb zunächst die Möglichkeiten, wie wir Terrain repräsentieren können, und was wir bei der Darstellung von Terrain im Allgemeinen beachten müssen
 
Ich habe spaßenshalber mal versucht die Superpositionstests aus #10 bei der GT1030 eines meiner CPU Cruncher durchlaufen lassen.

8K Optimized @ FHD + Shader @ low, Texturen @ High - 4125
min. 20.24, Avg. 30.86, max. 46.04

8K Optimized @ FHD + Shader @ medium, Texturen @ High - 2653
min. 15.86, Avg. 19.84, max. 26.56

8K Optimized + Shader @ low, Texturen @ High - 133 aber in 5 von 6 Startversuchen Crash Benchmark
min. 1, Avg. 1, max. 1 (scheint die kleinste Einheit zu sein)

8K Optimized + Shader @ medium, Texturen @ High - Crash Benchmark

Interessant ist allerdings wie sehr die Werte zum belegten VRAM bei hwinfo64 (6.22) und dem Taskmanager auseinander gehen. (im Fenstermodus beobachtet)
Vor allem der Wert für den insgesammt belegten VRAM war sinnlos (z.B. 1,9 GB + 3,7 GB = 2 GB beim 8k Test)
 
Ich habe spaßenshalber mal versucht die Superpositionstests aus #10 bei der GT1030 eines meiner CPU Cruncher durchlaufen lassen.

hast GT 1030 geschrieben. welche graka meinst du und was ist "eines meiner CPU Cruncher" das du geschrieben hast ?
Ich lasse die rx 6500 derzeit noch drin, damit ich nicht öfters umstecken muss, aber später mach ich dann auch alle tests die ich mit der 1030 nicht früher machte in neuem vergleichs thread.

die einzeige bei hw info stimmt bei mir. bei hwinfo heist es GPU speicher dynamisch was bei windows gemeinsamer GPU speicher heist. und gpu speicher dediziert ist das pysikalische vram. gesamt VRam zeigt hwinfo nicht an zumindest seh ich das nicht auf die schnelle. musst gpu speicher dynamisch + gpu speicher dediziert selber ausrechnen


vram speicher klein.jpg
 
Wiederhole die Tests mal mit deiner GT1030.
Besonders interessant, der prognostizierte VRAM Speicherbedarf wird zum Anfang beim Laden des Tests belegt und schnurrt dann ein Stück zusammen, wobei die GPU bereits beim Ladevorgang auf Vollast fährt.
 
Immer noch im Fenster Modus, aber nur noch 20°C im Raum, als vorher 23°C: https://abload.de/img/shadertoy_2100pn1clo.jpg

@Morkhero
The Last of us (Part 1)...

Ich müsste erst mal schauen was kein DirectX 12 hat.

alle spiele die halt älter sind. hier hab ich ein Video gefunden von the witcher DX 12 im vergleich DX 11. unterschied sieht man zwar keinen auch nicht in speed , aber dafür braucht die DX 12 Version mehr VRAM. DX12 3.6 GB DX 11 2.8 GB .
Hab es mal mit Shadows of the Tomb Raider getestet DX11 vs. DX12.

Wie du schon geschrieben hast, bei den reinen Durchschnittlichen FPS Zahlen sieht das nicht nach viel aus.
Aber, das Bild hakt mehrmals während des Benchmark richtig heftig ~ 500-600ms mit DirectX 11 (so könnte ich nicht spielen) : https://abload.de/img/shadowofthetombraidercvdyl.png
Mit DirectX 12 läufts wie am Schnürchen durch : https://abload.de/img/shadowofthetombraiderqai9k.png
Der VRAM ist unter 8GByte belegt mit UHD (ohne RT und HDR) und der RAM bei knapp 10GByte.

Ok, der Vergleich ist nicht ganz fair, das Spiel wurde ja mit DirectX12 Entwickelt, nun Rückwirkend im DirectX 11 Mode ist natürlich Murks, weil DX11 vieles nicht kann im Vergleich zu DX12.



Ich glaube nicht, dass wir uns da groß Gedanken machen müssen, wir können ja die Grafikeinstellungen vom Spiel anpassen.
 
@WindHund
Da fällt mir gerade was auf, wenn ich mir die Testergebnisse von damals mal so anschaue dann scheint bei dem Titel die Einstellung der Texturenqualität bei DX11 praktisch keinen Einfluss auf die VRAM Belegung gehabt zu haben, bei DX12 hingegen schon. War das bei dir auch der Fall?
 
@sompe
Das habe ich jetzt nicht explizit Nachgeschaut, ob die Texturen Einstellung ein Einfluss auf das VRAM Volumen hat.
Aber, bevor das Spiel geladen wird, also im Spiel Menü sind es knapp 6GByte VRAM mit D3D12. (bei meinem Test oben)
Je nach dem wie lange man dann aktiv spielt, wird es natürlich mehr VRAM gerade bei open World Spiele.

Hier links oben sind die AB RTTS Stats zu sehen: https://abload.de/img/sottr_2023_04_14_17_40dcvl.jpg

Nicht von der CPU Auslastung im Bild blenden lassen (idle), im Spiel werden je nach Nachlade Menge alle 24 Threads befeuert.
.
 
Einfach nur den Benchmark mit den jeweiligen Textureneinstellungen durchlaufen lassen.
Höher aufgelöste Texturen sollten normalerweise auch mehr VRAM fressen. Damals war das offenbar bei DX11 nicht der Fall. ^^
 
Zurück
Oben Unten