App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD bittet um Feedback zum Catalyst-Treiber und kündigt Überraschung an [Update]
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
naja, vielleicht hat sich das ja auch in den letzten monaten was getan ?!
es gab jedenfalls benches mit der CPU-last, wo die AMD-karten eine höhere hatten.
dachte das wäre allgemein bekannt. im 3dc gab es dies bzgl. auch mal eine diskussion.
und nvidia hats ja scheinbar auch erkannt, das es da bei ihnen hakt(e).
mfg
es gab jedenfalls benches mit der CPU-last, wo die AMD-karten eine höhere hatten.
dachte das wäre allgemein bekannt. im 3dc gab es dies bzgl. auch mal eine diskussion.
und nvidia hats ja scheinbar auch erkannt, das es da bei ihnen hakt(e).
mfg
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Dann diskutiere das doch mit den FPS Junkies dort.
Technisch gesehen ist ja völliger Unfug eine Leistungsbeurteilung einer Komponente (CPU) abzugeben Anhand einer Kennzahl die durch eine andere Hardware (GPU) erreicht wird und die auch noch Abhängig von Software ist (Treiber und Spielesoftware). Jetzt dieses angebliche "CPU-Limit" auch noch dafür herzunehmen um wieder rückwärts die GPUs eines bestimmten Herstellers dafür verantwortlich zu machen, dass sie weniger Daten zum berechnen erhalten und daran Schuld seien es käme weniger Min. FPS zustande ist echt der Gipfel des Unfugs. Und das alles mal wieder völlig ohne Einfluss der Treiber, API, Software, Compiler oder des OS.
Hoffentlich hört mal der Unsinn auf, dass gerenderte Bilder in der Sekunde, mit einer Software die zu 90% für GPU und Benutzereingabe programmiert wurde, eine Aussage über die Fähigkeiten oder Defizite einer CPU belegen sollen. Nicht alles was hinkt ist ein Vergleich.
Technisch gesehen ist ja völliger Unfug eine Leistungsbeurteilung einer Komponente (CPU) abzugeben Anhand einer Kennzahl die durch eine andere Hardware (GPU) erreicht wird und die auch noch Abhängig von Software ist (Treiber und Spielesoftware). Jetzt dieses angebliche "CPU-Limit" auch noch dafür herzunehmen um wieder rückwärts die GPUs eines bestimmten Herstellers dafür verantwortlich zu machen, dass sie weniger Daten zum berechnen erhalten und daran Schuld seien es käme weniger Min. FPS zustande ist echt der Gipfel des Unfugs. Und das alles mal wieder völlig ohne Einfluss der Treiber, API, Software, Compiler oder des OS.
Hoffentlich hört mal der Unsinn auf, dass gerenderte Bilder in der Sekunde, mit einer Software die zu 90% für GPU und Benutzereingabe programmiert wurde, eine Aussage über die Fähigkeiten oder Defizite einer CPU belegen sollen. Nicht alles was hinkt ist ein Vergleich.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Nein, das(s) wird hier und jetzt ausgesprochen:Dann diskutiere das doch mit den FPS Junkies dort.
Quelle: http://gamegpu.ru/action-/-fps-/-tps/dead-rising-3-test-gpu.html
Muss das sein?
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
@complicated
nach dem was ich bei dir so lesen muss, denke ich mal, dass du nicht kapiert hast, was ich meine.
es geht einzig und allein um eine höhere CPU-last mit einer AMD-graka ggü. einer NV-karte bei sonst identischen bedingungen.
bsp:
bei der AMD-graka ist die cpu-last im benchmark eben 22% und bei der NV nur 18% (ist nur ein beispiel)
die AMD-karte liefert min-FPS=35 & dafür aber max-FPS=66,
die NV-karte min-FPS=38, aber dafür nur max-FPS=63.
das dumme ist nur, man findet solche guten benches bzw. tests selten.
und ich schließe auch nicht aus, dass es mittlerweile weniger schlimm bzw. nicht mehr vorhanden ist.
mfg
nach dem was ich bei dir so lesen muss, denke ich mal, dass du nicht kapiert hast, was ich meine.
es geht einzig und allein um eine höhere CPU-last mit einer AMD-graka ggü. einer NV-karte bei sonst identischen bedingungen.
bsp:
bei der AMD-graka ist die cpu-last im benchmark eben 22% und bei der NV nur 18% (ist nur ein beispiel)
die AMD-karte liefert min-FPS=35 & dafür aber max-FPS=66,
die NV-karte min-FPS=38, aber dafür nur max-FPS=63.
das dumme ist nur, man findet solche guten benches bzw. tests selten.
und ich schließe auch nicht aus, dass es mittlerweile weniger schlimm bzw. nicht mehr vorhanden ist.
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Nette Theorie aber ohne bezug zum Zeitpunkt wertlos.
Ist die CPU Auslastung höher wenn die Radeon schneller ist dann ist das nur logisch.
Sowas allerdings an einem einmaligen Wert wie den min. oder max. fps OHNE Frameratenverlauf fest zu machen einfach nur lächerlich.
Ist die CPU Auslastung höher wenn die Radeon schneller ist dann ist das nur logisch.
Sowas allerdings an einem einmaligen Wert wie den min. oder max. fps OHNE Frameratenverlauf fest zu machen einfach nur lächerlich.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
häää?
seit wann ist es logisch, das eine schnellere karte = höhere CPU last erzeugt?
mit steigender anzahl an grakas würde ich zustimmen.
das würde ja sonst bedeuten, dass höhere max-FPS zu geringeren min-FPS führen würde und es zu starken rucklern führt.
tatsächlich steigen ja aber auch die min-FPS mit einer schnelleren graka an
und natürlich sprech ich von frameverläufen und cpu-last verläufen. nicht nur von einem zeitpunkt
und wenn mantle als API diesen effekt zeigt, das CPU-last senken auch zu höheren FPS führt, wieso schließt ihr das für dx+treiberoptimierungen aus?
nvidia hats doch vorgemacht oder irre ich da?
mfg
seit wann ist es logisch, das eine schnellere karte = höhere CPU last erzeugt?
mit steigender anzahl an grakas würde ich zustimmen.
das würde ja sonst bedeuten, dass höhere max-FPS zu geringeren min-FPS führen würde und es zu starken rucklern führt.
tatsächlich steigen ja aber auch die min-FPS mit einer schnelleren graka an
und natürlich sprech ich von frameverläufen und cpu-last verläufen. nicht nur von einem zeitpunkt
und wenn mantle als API diesen effekt zeigt, das CPU-last senken auch zu höheren FPS führt, wieso schließt ihr das für dx+treiberoptimierungen aus?
nvidia hats doch vorgemacht oder irre ich da?
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Weil die Bilder nicht der liebe Gott in den Grafikspeicher zaubert sondern berechnet werden müssen und daran ist auch die CPU beteiligt. Woher sollen denn sonst die ganzen "welche CPU für welche GPU" Topics kommen?
Was du leider übersiehst ist die Bedeutung des Zeitpunkts also wann welche Framerate bei welcher CPU Auslastung bestand.
Die Einzelwerte für sich sind ohne diesen Zusammenhang schlicht wertlos und genau das ist auch der Knackpunkt bei den min. und max. Werten.
Was bringen mir diese wenn sie zu unterschiedlichen Zeitpunkten und damit an unterschiedlichen Stellen auftraten? Das kann bei unterschiedlichen Architekturen recht schnell passieren denn es berechnen nicht alle GPUs alles gleich gut. Jede hat ihre Stärken und Schwächen.
Wo du gerade die Mantle API ins Spiel bringst....wie man bei diversen Tests sehen konnte bringt diese nicht generell deutlich mehr Leistung sondern da wo das CPU Limit ins Gewicht fällt. Hängt die Grafikkarte gnadenlos im GPU Limit bringt Mantle kaum was bis garnichts, hängt das Spiel im massiven CPU Limit sind die Leistungszuwächse riesig. Natürlich gibt es aber auch einen Raum dazwischen durch den der Leistungszuwachs je nach Grad der Limitierung variiert.
Die Mantle API senkt die CPU Last, das ist korrekt aber wie sich das auswirkt hängt von der jeweiligen Szene ab.
Besitzt diese eine massive CPU Limitierung wirkt sich das kaum bis garnicht auf die CPU Auslastung aber sehr deutlich auf die Framerate aus, sitzt man hingegen im massiven GPU Limit ist es genau anders herum. Die Framerate interessiert es kaum, die CPU Auslastung hingegen sehr deutlich.
Was nvidia da genau gemacht hat ist jetzt die Frage den man kann die Berechnungen natürlich auch anderweitig beschleunigen was aber eventuell nur in diesem einen Spiel (fehlerfrei) funktioniert weil man dabei womöglich standardisierte Abläufe bei der Berechnung ignoriert.
Angesichts dessen das es ebend keine generelle Verbesserung ist sondern eher gezielt arbeitet tippe ich eher darauf.
Was du leider übersiehst ist die Bedeutung des Zeitpunkts also wann welche Framerate bei welcher CPU Auslastung bestand.
Die Einzelwerte für sich sind ohne diesen Zusammenhang schlicht wertlos und genau das ist auch der Knackpunkt bei den min. und max. Werten.
Was bringen mir diese wenn sie zu unterschiedlichen Zeitpunkten und damit an unterschiedlichen Stellen auftraten? Das kann bei unterschiedlichen Architekturen recht schnell passieren denn es berechnen nicht alle GPUs alles gleich gut. Jede hat ihre Stärken und Schwächen.
Wo du gerade die Mantle API ins Spiel bringst....wie man bei diversen Tests sehen konnte bringt diese nicht generell deutlich mehr Leistung sondern da wo das CPU Limit ins Gewicht fällt. Hängt die Grafikkarte gnadenlos im GPU Limit bringt Mantle kaum was bis garnichts, hängt das Spiel im massiven CPU Limit sind die Leistungszuwächse riesig. Natürlich gibt es aber auch einen Raum dazwischen durch den der Leistungszuwachs je nach Grad der Limitierung variiert.
Die Mantle API senkt die CPU Last, das ist korrekt aber wie sich das auswirkt hängt von der jeweiligen Szene ab.
Besitzt diese eine massive CPU Limitierung wirkt sich das kaum bis garnicht auf die CPU Auslastung aber sehr deutlich auf die Framerate aus, sitzt man hingegen im massiven GPU Limit ist es genau anders herum. Die Framerate interessiert es kaum, die CPU Auslastung hingegen sehr deutlich.
Was nvidia da genau gemacht hat ist jetzt die Frage den man kann die Berechnungen natürlich auch anderweitig beschleunigen was aber eventuell nur in diesem einen Spiel (fehlerfrei) funktioniert weil man dabei womöglich standardisierte Abläufe bei der Berechnung ignoriert.
Angesichts dessen das es ebend keine generelle Verbesserung ist sondern eher gezielt arbeitet tippe ich eher darauf.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Mit Spieletests kann man überhaupt nichts sagen ausser welche Kombination von CPU/GPU/API/OS/Treiber am besten geeignet ist fur ein spezifisches Spiel. Wer da Leistungsdaten für eine spezifische Komponente raus extrahiert, und diese für allgemein gültig hält, der sollte auch belegen, dass eine CPU z.B.auch ihr maximales Potential ausschöpfen konnte. Dies ist zumeist alleine aufgrund der benutzten Instruktionen nicht möglich, da mir kein Spiel mit AVX oder gar AVX2 Programmierung bekannt ist. Benutzt irgendeines denn SSE4?
Ja wie soll denn eine CPU ihr Leistung abrufen wenn es der Programmcode nicht her gibt. Da gehen alle einfach blind dazu über zu behaupten, dass ja schließlich der gleiche Code auf jeder CPU ausgeführt wird und daher eine Vergleichsbasis vorhanden ist. Nur werden aus diesen Relationen ratzfaz absolute Aussagen gemacht. Nur weil eine Software keine CPU voll auslasten kann, heisst das nicht dass diese für Vergleiche taugt weil alle gleich schlecht ausgelastet werden.
Ja wie soll denn eine CPU ihr Leistung abrufen wenn es der Programmcode nicht her gibt. Da gehen alle einfach blind dazu über zu behaupten, dass ja schließlich der gleiche Code auf jeder CPU ausgeführt wird und daher eine Vergleichsbasis vorhanden ist. Nur werden aus diesen Relationen ratzfaz absolute Aussagen gemacht. Nur weil eine Software keine CPU voll auslasten kann, heisst das nicht dass diese für Vergleiche taugt weil alle gleich schlecht ausgelastet werden.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
GRID 2 hat eine separate AVX.exe und da hatte Huddy die Finger im Spiel...Dies ist zumeist alleine aufgrund der benutzten Instruktionen nicht möglich, da mir kein Spiel mit AVX oder gar AVX2 Programmierung bekannt ist. Benutzt irgendeines denn SSE4?
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
scheinbar hat das problem momentan eher nvidia, als amd.
aber ihr wollt es ja eh nicht verstehen.
http://www.pcper.com/reviews/System...System-Builds-Compared/Game-Benchmark-Results
das mit einer stärkeren karte die cpu-last so steigt, das die min-fps sinken ist doch falsch.
du postest doch selber benches, wo die min-fps mit der stärkeren graka steigen.
das macht doch keinen sinn, was du da schreibst.
mfg
aber ihr wollt es ja eh nicht verstehen.
http://www.pcper.com/reviews/System...System-Builds-Compared/Game-Benchmark-Results
das mit einer stärkeren karte die cpu-last so steigt, das die min-fps sinken ist doch falsch.
du postest doch selber benches, wo die min-fps mit der stärkeren graka steigen.
das macht doch keinen sinn, was du da schreibst.
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Du hast da einen grundlegenen Denkfehler.
Wenn die Grafikkarte mehr Bilder auf den Bildschirm zaubern kann wird auch die CPU mehr belastet.
Limitiert allerdings die CPU, was zwangsläufig nötig ist damit ein höherer CPU Bedarf des Treibers durchschlagen kann, dann langweilt sich die schnellere Grafikkarte lediglich mehr. Der Einfluss der schnelleren Grafikkarte auf die Framerate geht im CPU Limit gegen 0.
Allerdings sollte man dabei bedenken das die min. FPS Anzeige nicht zwangsläufig auf ein CPU Limit zurückzuführen ist. Die Grafikkarte kann ebenfalls für diesen Zeitpunkt limitieren oder durch einen Nachladeruckler bedingt sein. Genau deshalb geht in meinen Augen die Aussagekraft von solchen einmaligen Werte ohne Frameratenverlauf gegen 0.
Wenn die Grafikkarte mehr Bilder auf den Bildschirm zaubern kann wird auch die CPU mehr belastet.
Limitiert allerdings die CPU, was zwangsläufig nötig ist damit ein höherer CPU Bedarf des Treibers durchschlagen kann, dann langweilt sich die schnellere Grafikkarte lediglich mehr. Der Einfluss der schnelleren Grafikkarte auf die Framerate geht im CPU Limit gegen 0.
Allerdings sollte man dabei bedenken das die min. FPS Anzeige nicht zwangsläufig auf ein CPU Limit zurückzuführen ist. Die Grafikkarte kann ebenfalls für diesen Zeitpunkt limitieren oder durch einen Nachladeruckler bedingt sein. Genau deshalb geht in meinen Augen die Aussagekraft von solchen einmaligen Werte ohne Frameratenverlauf gegen 0.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
ach so meintest du das.
dann nehme ich das zurück.
ja, mir wären diagramme mit frameverläufen und cpu-last auch lieber. mich nerven diese dummen avg-FPS balken.
und benches werden ja meistens wiederholt und dann kann man auch schon mal kleinere rückschlüsse mit den ollen balken ziehen.
mfg
dann nehme ich das zurück.
ja, mir wären diagramme mit frameverläufen und cpu-last auch lieber. mich nerven diese dummen avg-FPS balken.
und benches werden ja meistens wiederholt und dann kann man auch schon mal kleinere rückschlüsse mit den ollen balken ziehen.
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
So schlecht ist der aber nicht denn es handelt sich hierbei schließlich um einen Durchschnittswert.
Zusammen mit dem min. und max. FPS Wert kann man dadurch zumindest erahnen wo die Reise hin geht.
Je näher er beim max. Wert liegt desto warscheinlicher ist es das der min. Wert auf nem Ausrutscher beruht.
Je näher er beim min. Wert liegt desto warscheinlicher ist es das Frameraten in der Region des max. Wertes nur selten auftreten und Frameraten im unteren Bereich sogar Streckenweise auftreten.
Anhand dessen kann man dann natürlich auch den Bedarf nach Grafikleistung abschätzen.
Zusammen mit dem min. und max. FPS Wert kann man dadurch zumindest erahnen wo die Reise hin geht.
Je näher er beim max. Wert liegt desto warscheinlicher ist es das der min. Wert auf nem Ausrutscher beruht.
Je näher er beim min. Wert liegt desto warscheinlicher ist es das Frameraten in der Region des max. Wertes nur selten auftreten und Frameraten im unteren Bereich sogar Streckenweise auftreten.
Anhand dessen kann man dann natürlich auch den Bedarf nach Grafikleistung abschätzen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Nur bedeutet die Existenz einer Grid2avx.exe nicht, dass dort AVX Code verwendet wird. Die Exe ist exklusiv für Haswell iGPUs und starten mit keiner AVX fähigen AMD CPU. Es beinhaltet Intel Exklusive DX 11 Erweiterungen wie PixelSync, Adaptive Order-Independent Transparency (AOIT) und Adaptive Volumetric Shadow Maps (AVSM). Alles GPU Features und keine CPU Instruktionen.GRID 2 hat eine separate AVX.exe und da hatte Huddy die Finger im Spiel...
http://forum.beyond3d.com/showthread.php?t=63645
https://software.intel.com/en-us/bl...demasters-grid2-running-on-intel-4th-gen-core
Übrigens Text von Intels Link:
HSA kommt auch bei Intel. Derzeit sind sie mit Haswell auf dem technischen Niveau von Llano angelangt was Pointer Sharing angeht.As we march towards true heterogeneous computing, we need ways of allowing both processors to work on the same data in memory. With InstantAccess, Intel's graphics driver can deliver a pointer to a location in GPU memory that the CPU can then access directly. The CPU can work on that GPU address without a copy and then release it back to the GPU
Zuletzt bearbeitet:
G
Gast29012019_2
Guest
Du hast da einen grundlegenen Denkfehler.
Wenn die Grafikkarte mehr Bilder auf den Bildschirm zaubern kann wird auch die CPU mehr belastet.
Limitiert allerdings die CPU, was zwangsläufig nötig ist damit ein höherer CPU Bedarf des Treibers durchschlagen kann, dann langweilt sich die schnellere Grafikkarte lediglich mehr. Der Einfluss der schnelleren Grafikkarte auf die Framerate geht im CPU Limit gegen 0.
Allerdings sollte man dabei bedenken das die min. FPS Anzeige nicht zwangsläufig auf ein CPU Limit zurückzuführen ist. Die Grafikkarte kann ebenfalls für diesen Zeitpunkt limitieren oder durch einen Nachladeruckler bedingt sein. Genau deshalb geht in meinen Augen die Aussagekraft von solchen einmaligen Werte ohne Frameratenverlauf gegen 0.
Zudem sollte alles mit SLI und CF dort gestrichen werden, was bringt mir der mehr Speed wenn die Technik dahinter zu lahm für unser Auge ist, weil man es nicht schafft eine Synchronisation der beiden GPUs in weniger als 0ns hinzukriegen, um es mal übertrieben auszudrücken. Denke das dürfte noch 5-10 Jahre dauern. Bin leider einer von denen die zu empfindlich auf Ruckler reagieren, das geht mir schon auf den TV auf den Sack und ich jedenfalls das IFC umstellen damit flüssig und normal läuft, oder Microruckler bei nicht 24P fähigen Geräten. Scheiß Technik.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Ich glaube sowas wie Intel spezifisch gibt es nicht mehr, gut manche Begriffe sind vielleicht TM, dann wird einfach ein anderen Name vergeben.Nur bedeutet die Existenz einer Grid2avx.exe nicht, dass dort AVX Code verwendet wird. Die Exe ist exklusiv für Haswell iGPUs und starten mit keiner AVX fähigen AMD CPU. Es beinhaltet Intel Exklusive DX 11 Erweiterungen wie PixelSync, Adaptive Order-Independent Transparency (AOIT) und Adaptive Volumetric Shadow Maps (AVSM). Alles GPU Features und keine CPU Instruktionen.
http://forum.beyond3d.com/showthread.php?t=63645
https://software.intel.com/en-us/bl...demasters-grid2-running-on-intel-4th-gen-core
Übrigens Text von Intels Link:
HSA kommt auch bei Intel. Derzeit sind sie mit Haswell auf dem technischen Niveau von Llano angelangt was Pointer Sharing angeht.
Das ist schon AVX und läuft auch bei mir mit AMD Hardware only, da gibt es auch AA Filter die nur mit AMD GPUs laufen und auswählbar sind.
Zudem verliert mein CrossfireX gerade mal 50% der FPS zwischen 1080p und 5670x1080p, also auch mit 3x 1080p mit mindestens 60FPS spielbar.
Ich kann die .exe gern mal durch "helles" Instruktion finder jagen und hier posten.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Zidane
Die ganze Mikroruckler Geschichte war hierbei außen vor da sie sich nicht auf die Framerate sondern auf die Framelatenz auswirkt.
Ich für meinen Teil kann mich zwar glücklich schätzen relativ unempfindlich gegenüber Mikrorucklern zu sein allerdings sind mir die anderen multi GPU Probleme, vor allem die Abhängigkeit von entsprechenden Profilen, zu nervtötend. Deshalb war mein letzter Ausflug in das Gebiet meine alte HD3870 X2.
Die ganze Mikroruckler Geschichte war hierbei außen vor da sie sich nicht auf die Framerate sondern auf die Framelatenz auswirkt.
Ich für meinen Teil kann mich zwar glücklich schätzen relativ unempfindlich gegenüber Mikrorucklern zu sein allerdings sind mir die anderen multi GPU Probleme, vor allem die Abhängigkeit von entsprechenden Profilen, zu nervtötend. Deshalb war mein letzter Ausflug in das Gebiet meine alte HD3870 X2.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das würde ich sehr begrüßen, denn die Links belegen, dass es DX11 Erweiterungen sind. Intel selbst sagt dies in dem Link und sagt ebenfalls, dass es Intel Exklusive Features sind. Das hat mit glauben nichts zu tun. Und starten kann man die Grid2AVX.exe auch mit AMD GPUs, doch nicht mit AMD CPUs. Zumindest laut den verlinkten Quellen.Ich kann die .exe gern mal durch "helles" Instruktion finder jagen und hier posten.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wurde AVX nicht bei Dirt Showdown genutzt?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Mit glauben meinte ich, dass Intel es übertrieben hat mit exclusiven Features um damit die Marktposition zu halten.Das würde ich sehr begrüßen, denn die Links belegen, dass es DX11 Erweiterungen sind. Intel selbst sagt dies in dem Link und sagt ebenfalls, dass es Intel Exklusive Features sind. Das hat mit glauben nichts zu tun. Und starten kann man die Grid2AVX.exe auch mit AMD GPUs, doch nicht mit AMD CPUs. Zumindest laut den verlinkten Quellen.
Demnach wissen andere auch nicht mehr als wir, hier die GRID2_AVX.exe:
AVX.exe
SSE(2).exe
@sompe
Das sollte sich auch mit Helles Disa... leicht heraus finden lassen. Showdown habe ich leider nicht.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich denke das es nicht nötig ist, es steht in dem PCGH Test mit drin das es standardmäßig genutzt wird.
http://www.pcgameshardware.de/Dirt-.../Dirt-Showdown-Benchmarks-CPU-und-GPU-886671/
http://www.pcgameshardware.de/Dirt-.../Dirt-Showdown-Benchmarks-CPU-und-GPU-886671/
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Danke. Könntest du zum Vergleich auch noch die Original Grid.exe durchlaufen lassen?
G
Gast29012019_2
Guest
@Zidane
Die ganze Mikroruckler Geschichte war hierbei außen vor da sie sich nicht auf die Framerate sondern auf die Framelatenz auswirkt.
Ich für meinen Teil kann mich zwar glücklich schätzen relativ unempfindlich gegenüber Mikrorucklern zu sein allerdings sind mir die anderen multi GPU Probleme, vor allem die Abhängigkeit von entsprechenden Profilen, zu nervtötend. Deshalb war mein letzter Ausflug in das Gebiet meine alte HD3870 X2.
Dafür habe ich um Umkehrschluss das Problem, keine Ahnung ob es einen Zusammenhang damit gibt, bezogen auf die Verarbeitung im Gehirn das mir bei zu schnellen Schootern immer übel wird, wo andere keine Probleme mit haben. Da wird mir nach 5-10 Minuten schlecht, reicht auch schon neben den PC zu sitzen und zuzuschauen, geht gar nicht.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.346
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Bezieht sich das nur auf multi GPU oder aufs Spielen mit 3D Brillen?
Ersteres könnte meiner Meinung nach durchaus von den Mikrorucklern durch ihren unregelmäßige Framefolge kommen, letzteres kommt meiner Erfahrung nach durch übertriebene 3D Effekte mit denen ich auch meine Probleme habe und mir die ganze 3D Geschichte deshalb relativ egal ist.
Bezieht sich das aber auch aufs Spielen mit einer Grafikkarte und ohne 3D dann kann das auch von den widersprüchlichen Informationen von Auge und Innenohr/Gleichgewichtssinn kommen.
--- Update ---
Nochmal zum Topic an sich.....ich finde die Nähe der Aktion zum Matrox Deal interessant. Vielleicht ist ja die große Überraschung das Matrox einen Nachfolger vom CCC liefert.
Ersteres könnte meiner Meinung nach durchaus von den Mikrorucklern durch ihren unregelmäßige Framefolge kommen, letzteres kommt meiner Erfahrung nach durch übertriebene 3D Effekte mit denen ich auch meine Probleme habe und mir die ganze 3D Geschichte deshalb relativ egal ist.
Bezieht sich das aber auch aufs Spielen mit einer Grafikkarte und ohne 3D dann kann das auch von den widersprüchlichen Informationen von Auge und Innenohr/Gleichgewichtssinn kommen.
--- Update ---
Nochmal zum Topic an sich.....ich finde die Nähe der Aktion zum Matrox Deal interessant. Vielleicht ist ja die große Überraschung das Matrox einen Nachfolger vom CCC liefert.
Sephiroth51
Cadet
- Mitglied seit
- 26.11.2013
- Beiträge
- 20
- Renomée
- 0
Die Überraschung würde mich auch mal interessieren ...
Gibt es eigentlich bei den Treiber Updates auch leistungsgewinne bei den APU's oder eher weniger ? Gibt davon keine Benchmarks .
Gibt es eigentlich bei den Treiber Updates auch leistungsgewinne bei den APU's oder eher weniger ? Gibt davon keine Benchmarks .
Ähnliche Themen
- Antworten
- 45
- Aufrufe
- 13K
- Antworten
- 41
- Aufrufe
- 8K
- Antworten
- 19
- Aufrufe
- 34K