App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
[Usertest] AMD Radeon Vega Frontier Edition - Bilder, Benchmarks, Energiemessungen
- Ersteller Yoshi 2k3
- Erstellt am
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Gute Idee, nehme ich mal auf die Wunschliste mit auf. Ich lade gleich noch schnell alle meine Ergebnisse als Excel-File hoch, vielleicht findet sich jemand, der schöne Diagramme zaubert. Somit ist aber alles absolut transparent nachvollziehbar.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.847
- Renomée
- 152
@Casi30
Ich habe den Verbrauch im Auge, das deckt sich eigentlich immer mit den Aussagen von oben, je nach Auflösung und Benchmark liegt der Gesamtverbrauch des Systems zwischen 345W und 375W. Es macht keinen Unterschied, ob Fire Strike Ultra oder Superposition, es bewegt sich immer in etwa in diesem bereich.
Das Wichtigste,wieviel verbrauchte die RX 480?!
CPU + GPU waren rund 100Watt mehr bei Vega.
Wenn ich die 100watt jetzt auch bei der RX abziehe,dann passt das irgend wie überhaupt nicht mit dem Lastverbrauch,die RX bringt Deutlich mehr Leistung pro Watt und passt so garnicht zu meinen Messungen mit der RX 470......
Die meisten sind zwar schon was Älter,aber recht gut zum Messen:
http://www.pcgameshardware.de/Benchmarks-Thema-58180/Downloads/Benchmark-Download-749014/
http://www.geforce.com/games-applications/pc-games/resident-evil-6/downloads
http://mho.qq.com/cp/a20141201benchmark/en/index.htm
http://de.finalfantasyxiv.com/benchmark/download/
Und die drei:
https://benchmark.unigine.com/heaven
Wenn du einstellen kannst , alles auf Max und FullHD.
3 Runns und ne Messstelle suchen für den Identischen Verbrauch.
Die 3 Ergebnisse + und durch 3 Teilen , dazu den Max Verbrauch.
Zuletzt bearbeitet:
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
So, jetzt fliegen auch richtige Diagramme ein. War gestern einfach zu spät dafür. So sieht's jedenfalls schon besser aus
@Casi030
Naja, das Problem beim Verbrauch ist, dass ich nur Pi mal Daumen messen kann. Ersichtlich aus dem Energiediagramm ist doch zumindest schon mal der Mehrverbrauch der Vega FE ggü. einer RX 480.
Ich kann es ganz einfach nicht genauer bestimmen als so... Wie kommst du denn aber auf 100W mehr? Der Test von PC Perspective ist da sehr aufschlussreich, die können genauer messen als ich.
--- Update ---
Für alle BOINC-Interessierten:
https://boinc.thesonntags.com/collatz/results.php?userid=1566390
@Casi030
Naja, das Problem beim Verbrauch ist, dass ich nur Pi mal Daumen messen kann. Ersichtlich aus dem Energiediagramm ist doch zumindest schon mal der Mehrverbrauch der Vega FE ggü. einer RX 480.
Ich kann es ganz einfach nicht genauer bestimmen als so... Wie kommst du denn aber auf 100W mehr? Der Test von PC Perspective ist da sehr aufschlussreich, die können genauer messen als ich.
--- Update ---
Für alle BOINC-Interessierten:
https://boinc.thesonntags.com/collatz/results.php?userid=1566390
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.847
- Renomée
- 152
.
Wie kommst du denn aber auf 100W mehr?
Dein Diagramm ,dort schreibst Vega 473 Watt für CPU+GPU
ansonsten im Schnitt
....... 345W und 375W.......
Grob 100Watt weniger.
Da für die RX 480 keine weiteren Daten vorhanden sind,rechne ich dort auch einfach mal mit rund 100Watt weniger in deinem Diagramm.
100Watt........CPU/Wandler.....?!
Alles noch recht undurchsichtig bei dir.
ThePowerOfDream
Fleet Captain Special
- Mitglied seit
- 28.10.2016
- Beiträge
- 304
- Renomée
- 6
- Standort
- Düsseldorf
- Mein Laptop
- Acer A315-42
- Prozessor
- AMD TR 2990WX
- Mainboard
- ASRock X399 Taichi
- Kühlung
- Noctua NH-U14S TR4-SP3
- Speicher
- 128GB GSkill DDR4 3200
- Grafikprozessor
- PNY Verto GTX1050Ti
- Display
- AOC FHD ,LCPower 27" Curved
- SSD
- 1TB Samsung 960Pro ; 2x Samsung 1TB 960Evo
- HDD
- paar externe
- Optisches Laufwerk
- BD + DVD Brenner
- Soundkarte
- onBoard
- Gehäuse
- Corsair Obsidian 750D
- Netzteil
- Corsair HX Series HX750
- Betriebssystem
- W-10x64
- Webbrowser
- alle
- Verschiedenes
- Capture Card fürs Streamen ist eine Avermedia LiveGamer HD2
Du machst Dir ja Arbeit, die ist nicht zu bezahlen.
Aber wenn ich mir jetzt mal so alles zusammen lese was es im Netz an Infos & Test´s zur Vega FE gibt bin ich erschrocken.
Ich weis das dies die FE Version ist, aber ! So viel Schneller wird die Gaming Variante dann auch nicht sein. Es sei denn die verbät 100 Watt mehr.
Ich habe keinen Überflieger erwartet, aber so etwa an die 1080Ti Leistung und Verbrauch hatte ich dann doch schon gehofft.
Ich bereue es fast schon so lange auf AMD gewartet zu haben. Das was bei Ryzen gut ( Leistung & Verbrauch ) ist ist bei Vega? naja
Aber wenn ich mir jetzt mal so alles zusammen lese was es im Netz an Infos & Test´s zur Vega FE gibt bin ich erschrocken.
Ich weis das dies die FE Version ist, aber ! So viel Schneller wird die Gaming Variante dann auch nicht sein. Es sei denn die verbät 100 Watt mehr.
Ich habe keinen Überflieger erwartet, aber so etwa an die 1080Ti Leistung und Verbrauch hatte ich dann doch schon gehofft.
Ich bereue es fast schon so lange auf AMD gewartet zu haben. Das was bei Ryzen gut ( Leistung & Verbrauch ) ist ist bei Vega? naja
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
@Casi030
Ja, ich gebe zu, dass das mit der Energiemessung vll nicht das gelbe vom Ei gewesen ist. Ich nehme das mal mit auf auf meine Liste der Dinge, die ich noch prüfen möchte. Ob ich tatsächlich noch mal alles auseinander pflücke, will ich aber lieber nicht versprechen.
Deine Rechnung mit 100W weniger passt so aber nicht, weil im Fire Strike Ultra idelt die CPU ja nicht, die ist ja auch belastet. Vll nicht mit 100% am Anschlag, aber doch merklich. Ich meine Tom's Hardware hatte zum Release der RX 480 sehr detailierte Verbrauchsmessungen, eventuell lässt sich mit deren Zahlen grob errechnen, was für das System abzüglich Grafikkarte in Frage käme. Ist zwar noch immer nicht so schön wie selbst gemessen, aber eventuell kommt man da auf ein paar Zahlen.
Der verlinkte Test von PC Perspective spricht je nach Szenario von 240W-300W. Und ich denke dass man sich auf die Zahlen verlassen kann, die haben ja wirklich direkt an der Karte gemessen.
--- Update ---
@Gozu
Ich hab mal versucht, den Zcash Miner ans Laufen zu bekommen. Muss ich für den Benchmark-Modus zwingend auch an einem Pool angemeldet sein? Hast du sonst mal einen Account für mich, auf den ich minen kann? Gerne auch per PN.
Ja, ich gebe zu, dass das mit der Energiemessung vll nicht das gelbe vom Ei gewesen ist. Ich nehme das mal mit auf auf meine Liste der Dinge, die ich noch prüfen möchte. Ob ich tatsächlich noch mal alles auseinander pflücke, will ich aber lieber nicht versprechen.
Deine Rechnung mit 100W weniger passt so aber nicht, weil im Fire Strike Ultra idelt die CPU ja nicht, die ist ja auch belastet. Vll nicht mit 100% am Anschlag, aber doch merklich. Ich meine Tom's Hardware hatte zum Release der RX 480 sehr detailierte Verbrauchsmessungen, eventuell lässt sich mit deren Zahlen grob errechnen, was für das System abzüglich Grafikkarte in Frage käme. Ist zwar noch immer nicht so schön wie selbst gemessen, aber eventuell kommt man da auf ein paar Zahlen.
Der verlinkte Test von PC Perspective spricht je nach Szenario von 240W-300W. Und ich denke dass man sich auf die Zahlen verlassen kann, die haben ja wirklich direkt an der Karte gemessen.
--- Update ---
@Gozu
Ich hab mal versucht, den Zcash Miner ans Laufen zu bekommen. Muss ich für den Benchmark-Modus zwingend auch an einem Pool angemeldet sein? Hast du sonst mal einen Account für mich, auf den ich minen kann? Gerne auch per PN.
Denniss
Grand Admiral Special
- Mitglied seit
- 25.04.2002
- Beiträge
- 4.919
- Renomée
- 63
- Standort
- Region Hannover
- Prozessor
- AMD Phenom II X6 1050T
- Mainboard
- Asrock M3A770DE
- Kühlung
- Alpenföhn Ben Nevis
- Speicher
- Kingston 2x 8 GiB PC3-12800
- Grafikprozessor
- Radeon RX 460 2 GiB
- Display
- Asus VS 278
- SSD
- 2x 480GB Crucial BX300, 1TB Crucial MX500
- HDD
- 4TB WD Red
- Optisches Laufwerk
- LG DVD-Brenner
- Soundkarte
- VIA Envy24
- Netzteil
- 400W Pure Power 11
- Tastatur
- Cherry
- Betriebssystem
- Win7 x64
- Webbrowser
- FF + SM
Falls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.Du machst Dir ja Arbeit, die ist nicht zu bezahlen.
Aber wenn ich mir jetzt mal so alles zusammen lese was es im Netz an Infos & Test´s zur Vega FE gibt bin ich erschrocken.
Ich weis das dies die FE Version ist, aber ! So viel Schneller wird die Gaming Variante dann auch nicht sein. Es sei denn die verbät 100 Watt mehr.
Ich habe keinen Überflieger erwartet, aber so etwa an die 1080Ti Leistung und Verbrauch hatte ich dann doch schon gehofft.
Ich bereue es fast schon so lange auf AMD gewartet zu haben. Das was bei Ryzen gut ( Leistung & Verbrauch ) ist ist bei Vega? naja
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Der Mitstreiter aus dem nachbarforum hat sich ein bisschen an Undervolting versucht und ein Video zur Lautstärke aufgenommen:
https://www.computerbase.de/forum/showthread.php?t=1692170&page=22&p=20223799#post20223799
Ich will euch das nicht vorenthalten. Werde zu Undervolting aber auch noch eigene Messungen anstellen.
https://www.computerbase.de/forum/showthread.php?t=1692170&page=22&p=20223799#post20223799
Ich will euch das nicht vorenthalten. Werde zu Undervolting aber auch noch eigene Messungen anstellen.
ThePowerOfDream
Fleet Captain Special
- Mitglied seit
- 28.10.2016
- Beiträge
- 304
- Renomée
- 6
- Standort
- Düsseldorf
- Mein Laptop
- Acer A315-42
- Prozessor
- AMD TR 2990WX
- Mainboard
- ASRock X399 Taichi
- Kühlung
- Noctua NH-U14S TR4-SP3
- Speicher
- 128GB GSkill DDR4 3200
- Grafikprozessor
- PNY Verto GTX1050Ti
- Display
- AOC FHD ,LCPower 27" Curved
- SSD
- 1TB Samsung 960Pro ; 2x Samsung 1TB 960Evo
- HDD
- paar externe
- Optisches Laufwerk
- BD + DVD Brenner
- Soundkarte
- onBoard
- Gehäuse
- Corsair Obsidian 750D
- Netzteil
- Corsair HX Series HX750
- Betriebssystem
- W-10x64
- Webbrowser
- alle
- Verschiedenes
- Capture Card fürs Streamen ist eine Avermedia LiveGamer HD2
Falls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.
Sorry, wusste ich nicht!
Aber warum ? Ist ja nicht so das es diese Karte noch nicht zu Kaufen gäbe. Dann hätte AMD warten sollen bis das in dem Treiber alles läuft.
Wir wissen doch selber, die Neerds schaun jetzt auf den Test. Die interessiert es nicht was & wieso was nicht freigeschaltet ist.
Die sehen den Balken, und der ist nun mal mies!
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
In den anderen Foren wird gemutmaßt, dass es die Vega FE nur gibt, um die Investoren und Aktionäre zufrieden zu stellen. Es hieß bisher Vega = 1. Halbjahr 2017. Mit der Frontier Edition schafft man das, egal wie weit der Software-Support ist. So gibt's keine Möglichkeit, AMD verfehlte Geschäftsziele vorzuwerfen... Ob's tatsächlich der Grund ist? Man weiß es nicht.
--- Update ---
So, habe noch ein bisschen mit den Settings gespielt. Die besten Benchmarkergebnisse erziele ich aktuell mit Undervolting in Kombination mit minimaler Erhöhung des Power Targets. Das frisst zwar jegliche Ersparnis auf, aber die Ergebnisse sprechen für sich. Ich liege damit in etwa beim Energieverbauch der Stock-Settings, bekomme aber höhere Scores, weil der Takt von 1600 MHz dauerhaft gehalten werden kann. Das werden vermutlich meine Alltags-Settings werden.
--- Update ---
So, habe noch ein bisschen mit den Settings gespielt. Die besten Benchmarkergebnisse erziele ich aktuell mit Undervolting in Kombination mit minimaler Erhöhung des Power Targets. Das frisst zwar jegliche Ersparnis auf, aber die Ergebnisse sprechen für sich. Ich liege damit in etwa beim Energieverbauch der Stock-Settings, bekomme aber höhere Scores, weil der Takt von 1600 MHz dauerhaft gehalten werden kann. Das werden vermutlich meine Alltags-Settings werden.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.769
- Renomée
- 2.140
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Mal eine Überlegung meinerseits.
Die Karte soll sich ja in erster Linie an die Entwickler der Spiele richten, wäre es dann nicht eher ungünstig wenn die Karte von sich aus schon die Hälfte vom Bild verwirft weil sie der Meinung ist das es eh nicht sichtbar wäre? Man erinnere sich nur an den damaligen Affenzirkus um die unterschiedliche Bilddarstellung bei Ashes zwischen der Radeon und der Geforce.
War schon witzig wie die üblichen verdächtigen Gift und Galle wegen der angeblichen Fehldarstellung der Radeon spuckten, was auf einmal nicht mehr so schlimm war als sich rausstellte das die Geforce das falsche Bild ausgab. Was wurde überhaupt aus der Story? Wurde das mal gefixt?
Es wäre jedenfalls eine interessante Variante wenn sie im Standard Modus mit dem normalen Rasterizer und später beim Gaming Modus mit dem Tile Based Rendering laufen würde. Dann könnte man direkt das Ergebnis beider Varianten vergleichen.
Die Karte soll sich ja in erster Linie an die Entwickler der Spiele richten, wäre es dann nicht eher ungünstig wenn die Karte von sich aus schon die Hälfte vom Bild verwirft weil sie der Meinung ist das es eh nicht sichtbar wäre? Man erinnere sich nur an den damaligen Affenzirkus um die unterschiedliche Bilddarstellung bei Ashes zwischen der Radeon und der Geforce.
War schon witzig wie die üblichen verdächtigen Gift und Galle wegen der angeblichen Fehldarstellung der Radeon spuckten, was auf einmal nicht mehr so schlimm war als sich rausstellte das die Geforce das falsche Bild ausgab. Was wurde überhaupt aus der Story? Wurde das mal gefixt?
Es wäre jedenfalls eine interessante Variante wenn sie im Standard Modus mit dem normalen Rasterizer und später beim Gaming Modus mit dem Tile Based Rendering laufen würde. Dann könnte man direkt das Ergebnis beider Varianten vergleichen.
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Das ist eine interessante Idee. Vermutlich wird sich das aufklären, wenn es das nächste Treiberupdate gibt.
Zum Review gibt's noch ein paar Infos: so wie es aussieht, klappt die Zusammenarbeit mit Michael Larabel von phoronix.com. Er hat Nachts Fernzugriff auf meine Maschine und kann hoffentlich in den nächsten Tagen auch einige Linux-Benches präsentieren. Sobald es da etwas gibt, werde ich das hier auf alle Fälle durchgeben. Also bleibt weiter fleißig interessiert.
Zum Review gibt's noch ein paar Infos: so wie es aussieht, klappt die Zusammenarbeit mit Michael Larabel von phoronix.com. Er hat Nachts Fernzugriff auf meine Maschine und kann hoffentlich in den nächsten Tagen auch einige Linux-Benches präsentieren. Sobald es da etwas gibt, werde ich das hier auf alle Fälle durchgeben. Also bleibt weiter fleißig interessiert.
Zuletzt bearbeitet:
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.031
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
nein, das effektivere z-Culling bedeutet was anderes. Es geht um Teile einer Szene, die sowieso nicht sichtbar sind, weil andere Objekte von der Kamera aus gesehen davor sind (so wie das Licht im Kühlschrank ausgehen kann und soll, wenn er zu ist und keiner reinguckt). Die Szene muß erstmal aufgebaut werden, also werden diese Objekte auch erstellt, aber je früher klar wird, daß man daran nicht rumrechnen muß, weil es eh im Bild nicht erscheint, umso besser. Man muß also möglichst einfach und möglichst früh erkennen, was weg kann, ohne dabei aber Sachen wegzuschneiden, die man sieht.Mal eine Überlegung meinerseits.
Die Karte soll sich ja in erster Linie an die Entwickler der Spiele richten, wäre es dann nicht eher ungünstig wenn die Karte von sich aus schon die Hälfte vom Bild verwirft weil sie der Meinung ist das es eh nicht sichtbar wäre?
deswegen heißt das Ding wohl Frontier Edition, weil man als User absoluter Frontkämpfer ist, Betatester für Bananaware. Dafür darf man ordentlich Kohle abdrücken und soll sich auch noch freuenFalls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.
Aber benutzbar ist sie ja wohl schon, immerhin. Ich hoffe für Dich, daß es mit der Leistungssteigerung auf erwartetes Niveau nicht mehr zu lange dauert, damit Du nicht das Gefühl eines Fehlkaufs bekommst.
Die blaue Farbe ist aber schon cool, das ist wohl wie bei der Radeon Pro dieses neue Pigment "YInMn Blue", was wohl Koduri einfach geil fand und unbedingt haben wollte (https://www.youtube.com/watch?v=GMXS1A2uBeE). Würde sich als Autolack sicher auch gut machen.
sehr interessant. Mich würde auch interessieren, wie weit Du runterkommst, bzw. wie stark bei gewisser Untertaktung und Untervoltung der Vollast-Verbrauch sinkt. Also so eine Art "Vega Nano"-Simulation.Yoshi 2k3 schrieb:So, habe noch ein bisschen mit den Settings gespielt. Die besten Benchmarkergebnisse erziele ich aktuell mit Undervolting in Kombination mit minimaler Erhöhung des Power Targets. Das frisst zwar jegliche Ersparnis auf, aber die Ergebnisse sprechen für sich. Ich liege damit in etwa beim Energieverbauch der Stock-Settings, bekomme aber höhere Scores, weil der Takt von 1600 MHz dauerhaft gehalten werden kann. Das werden vermutlich meine Alltags-Settings werden.
Zuletzt bearbeitet:
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Das Thema Undervolting ist schwierig. Ich kann mit den oben genannten Settings stundenlang benchen und plötzlich ohne Vorwarnung steigt die Karte aus. Keine Grafikfehler, kein Throtteling, einfach weg. Ich vermute, dass ich vll bis 1095mV eher 1100mV komme für den höchsten State. Alles darunter scheint schon instabil zu werden. So ähnlich verhält sich die Karte von r4yn3 aus dem CB-Forum auch... Er hat 1300 MHz bei 1000mV getestet, wenn ich das richtig in Erinnerung habe. Das scheint erstmal so zu laufen.
Hier nochmal ein paar nackte Zahlen ^^ Fan 4900 rpm, Power Target 50%, Gesamtverbrauch des Systems 527W
Hier nochmal ein paar nackte Zahlen ^^ Fan 4900 rpm, Power Target 50%, Gesamtverbrauch des Systems 527W
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Hilf mir noch mal kurz auf die Sprünge. Base Takt der Fury X waren 1050 MHz und Speicher bei 1000 MHz, oder? Beim Speicher könnte ich probleme bekommen, den so hoch zu ziehen. Aber 1050 MHz sollten kein Problem sein. Wie mache ich das im sinnvollsten? Limitiere ich nur den letzten State auf 1050 MHz oder alle vorherigen auch?
€dit: 1052 MHz Core, 800 MHz Memory (daran kann ich leider nix ändern, so wie es aussieht).
--- Update ---
Erste Linux-Benches gibt's auch, ohne Vergleichswerte etc. Da muss jeder selbst die richtigen Schlüsse ziehen. Mal sehen ob wir noch weitere Benches hinbekommen...
http://openbenchmarking.org/result/1707020-TR-RADEONVEG08
€dit: 1052 MHz Core, 800 MHz Memory (daran kann ich leider nix ändern, so wie es aussieht).
--- Update ---
Erste Linux-Benches gibt's auch, ohne Vergleichswerte etc. Da muss jeder selbst die richtigen Schlüsse ziehen. Mal sehen ob wir noch weitere Benches hinbekommen...
http://openbenchmarking.org/result/1707020-TR-RADEONVEG08
Zuletzt bearbeitet:
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.847
- Renomée
- 152
@Casi030
Ja, ich gebe zu, dass das mit der Energiemessung vll nicht das gelbe vom Ei gewesen ist. Ich nehme das mal mit auf auf meine Liste der Dinge, die ich noch prüfen möchte. Ob ich tatsächlich noch mal alles auseinander pflücke, will ich aber lieber nicht versprechen.
Deine Rechnung mit 100W weniger passt so aber nicht, weil im Fire Strike Ultra idelt die CPU ja nicht, die ist ja auch belastet. Vll nicht mit 100% am Anschlag, aber doch merklich. Ich meine Tom's Hardware hatte zum Release der RX 480 sehr detailierte Verbrauchsmessungen, eventuell lässt sich mit deren Zahlen grob errechnen, was für das System abzüglich Grafikkarte in Frage käme. Ist zwar noch immer nicht so schön wie selbst gemessen, aber eventuell kommt man da auf ein paar Zahlen.
Der verlinkte Test von PC Perspective spricht je nach Szenario von 240W-300W. Und ich denke dass man sich auf die Zahlen verlassen kann, die haben ja wirklich direkt an der Karte gemessen.
Die Strommessung an sich schon,der Ansatz war nur nicht so gut.
Ich mess auch nur an der Dose,es reicht aber vollkommen aus für nen Vergleich.
Es fehlen bei dir einfach nur mehr Vergleiche beim Stromverbrauch.
Wenn du dir noch mal meine Tabelle anschaust wo ich NUR die CPUs verglichen hatte.
Die Grafikkarte brachte mit beiden CPUs fast die gleichen Punkte,ABER der Verbrauchs Unterschied liegt bei rund 50Watt.......
Da du mit der gleichen CPU Testest,diese die Grafikkarten nicht ausbremst.....(was du eigentlich nur sehen kannst wenn du dir die Daten anzeigen lässt) kann man eigentlich recht gut Vergleichen und sehen welche Grafikkarte mehr FPS pro Watt bring.
Das die Vega mehr Verbraucht ist klar,sie bringt ja auch mehr FPS.
Nur wie viel mehr gegenüber der RX pro Watt kann man leider nicht bei dir sehen.
Mit anderen PCs ist immer schlecht zu Vergleichen.
Danke für die Werte, jetzt fehlt nur noch jemand mit einer Fury X. Hab mal bei 3Dcenter nachgefragt, ob das jemand benchen kann. Vielleicht findet sich ja jemand mit einer Fury X.
Edit:
Leider mit einem RAM Takt von 500MHz, aber das sagt doch schon einiges. Die Handbremse muss angezogen sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11419198&postcount=7679
Edit:
Leider mit einem RAM Takt von 500MHz, aber das sagt doch schon einiges. Die Handbremse muss angezogen sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11419198&postcount=7679
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.769
- Renomée
- 2.140
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich für meinen Teil rechne mit dem Zeitraum wo auch die kommenden Desktop Karten das andere render Verfahren nutzen werden. Für ein einfaches aufweichen des TDP Limits und/oder der Lüfterkontrolle sehe ich diesen Gaming Modus als völlig überflüssig an, für einen Test der Szene unter Spiele Bedingungen hingegen interessant.Das ist eine interessante Idee. Vermutlich wird sich das aufklären, wenn es das nächste Treiberupdate gibt.
@OBrian
Ich bin mir nicht sicher ob rüber gekommen ist was ich sagen wollte.
Bei der Entwicklung des Spiels sehe den Spareffekt durch das z-Culling als sinnlos an weil es dort doch eher um das Erstellen der Szenen, also auch um die Kontrolle aller Objekte geht und nicht um eine möglichst hohe darzustellende Framerate. Für den Test der Szene unter real Bedingungen könnte man wiederum in den Gaming Modus schalten und man könnte schauen ob die nSzene auch mit beiden render Verfahren korrekt dargestellt wird, siehe Probleme bei Ashes.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Superposition reagiert nicht so sehr auf CPU Leistung, hab mal Energiesparmodus vs. Ausbalanciert verglichen:Das Thema Undervolting ist schwierig. Ich kann mit den oben genannten Settings stundenlang benchen und plötzlich ohne Vorwarnung steigt die Karte aus. Keine Grafikfehler, kein Throtteling, einfach weg. Ich vermute, dass ich vll bis 1095mV eher 1100mV komme für den höchsten State. Alles darunter scheint schon instabil zu werden. So ähnlich verhält sich die Karte von r4yn3 aus dem CB-Forum auch... Er hat 1300 MHz bei 1000mV getestet, wenn ich das richtig in Erinnerung habe. Das scheint erstmal so zu laufen.
Hier nochmal ein paar nackte Zahlen ^^ Fan 4900 rpm, Power Target 50%, Gesamtverbrauch des Systems 527W
Anhang anzeigen 35973Anhang anzeigen 35974
http://abload.de/img/superposition_1080p_mqdju1.jpg
http://abload.de/img/superposition_1080p_mezjgu.jpg
Leider nur medium setting, da nur 3GByte VRAM.
Es wird nur eine GPU ausgelastet, was bei meinem System etwa 330-370W Peak an der Steckdose sind.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.847
- Renomée
- 152
Mal ein kleines Beispiel:
Hab "Verschiedene"Grafikkarten (meine RX470) über die Leistungsgrenze gemessen.Dazu werden mir die Daten angezeigt und HWInfo64 kann es zu dem noch Aufzeichnen Idle/Last/Average.Da kannst bei Average auch sehen wie lange etwas auf Max 100%/Max Takt......lief.Geht natürlich nicht 100% genau weil bei diesem Benchmark z.b. ne kurze Ladezeit ist wo alles im Idle bleibt,aber in der recht kurzen Testzeit kannst hier schon was "Rauslesen" und du musst natürlich direkt vor dem Starten des Benchmarks die Anzeigen über die Uhr Zurück stellen und sobald du ein Ergebnis hast ein Screen machen.
System Idle 45Watt
Leistungsgrenze -25%
Max Last 157Watt
11,3 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 24,9 Punkte Pro Watt
http://abload.de/img/-25kaqtr.jpg
Leistungsgrenze 0%
Max Last 200Watt
12,1 Punkt Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 26,8 Punkte Pro Watt
http://abload.de/img/0m4ras.jpg
Leistungsgrenze +25%
Max Last 222Watt
12 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 27,4 Punkte Pro Watt
http://abload.de/img/25j0qes.jpg
Leistungsgrenze +50% = +25% Da ändert sich nix mehr.
Das Ergebnis ist aber gleich, -25% ist Schlechter als 0% und +25% bringt bei diesem Benchmark nicht mehr viel.
Würde ich jetzt noch mehr Takten,mehr Spannung drauf geben,dann würde die GPU wieder gedrosselt und das Ergebnis würde schlechter werden..........Das kannst aber NUR sehen wenn du die Wichtigen Daten immer im Bild hast.
Hab "Verschiedene"Grafikkarten (meine RX470) über die Leistungsgrenze gemessen.Dazu werden mir die Daten angezeigt und HWInfo64 kann es zu dem noch Aufzeichnen Idle/Last/Average.Da kannst bei Average auch sehen wie lange etwas auf Max 100%/Max Takt......lief.Geht natürlich nicht 100% genau weil bei diesem Benchmark z.b. ne kurze Ladezeit ist wo alles im Idle bleibt,aber in der recht kurzen Testzeit kannst hier schon was "Rauslesen" und du musst natürlich direkt vor dem Starten des Benchmarks die Anzeigen über die Uhr Zurück stellen und sobald du ein Ergebnis hast ein Screen machen.
System Idle 45Watt
Leistungsgrenze -25%
Max Last 157Watt
11,3 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 24,9 Punkte Pro Watt
http://abload.de/img/-25kaqtr.jpg
Leistungsgrenze 0%
Max Last 200Watt
12,1 Punkt Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 26,8 Punkte Pro Watt
http://abload.de/img/0m4ras.jpg
Leistungsgrenze +25%
Max Last 222Watt
12 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 27,4 Punkte Pro Watt
http://abload.de/img/25j0qes.jpg
Leistungsgrenze +50% = +25% Da ändert sich nix mehr.
Das Ergebnis ist aber gleich, -25% ist Schlechter als 0% und +25% bringt bei diesem Benchmark nicht mehr viel.
Würde ich jetzt noch mehr Takten,mehr Spannung drauf geben,dann würde die GPU wieder gedrosselt und das Ergebnis würde schlechter werden..........Das kannst aber NUR sehen wenn du die Wichtigen Daten immer im Bild hast.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@Casi030
Lass doch auch mal medium laufen, da sollten dann wenigsten spielbare FPS heraus kommen.
Bei D3D12 läuft CrossfireX auch im "window mode", also alles 1:1 nicht nur die Windows Version:
PureHair = Maximum nur Details auf "hoch" (3GByte VRAM)
http://abload.de/img/rottr_2017_07_02_14_3ltu4j.jpg
http://abload.de/img/rottr_2017_07_02_14_3xou1j.jpg
Lass doch auch mal medium laufen, da sollten dann wenigsten spielbare FPS heraus kommen.
Bei D3D12 läuft CrossfireX auch im "window mode", also alles 1:1 nicht nur die Windows Version:
PureHair = Maximum nur Details auf "hoch" (3GByte VRAM)
http://abload.de/img/rottr_2017_07_02_14_3ltu4j.jpg
http://abload.de/img/rottr_2017_07_02_14_3xou1j.jpg
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.847
- Renomée
- 152
@Casi030
Lass doch auch mal medium laufen, da sollten dann wenigsten spielbare FPS heraus kommen.
Die hab ich in "Meinen" Spielen ausreichend.
http://abload.de/img/1080pmediump9stm.jpg
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.462
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Was war eigentlich mit dem AIDA GPGPU Benchmark?
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.388
- Renomée
- 214
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- ASUS PRIME X670E-PRO WIFI
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 64 GB Team Group DDR5-6400 (2x 32 GB)
- Grafikprozessor
- AMD Radeon RX 6950 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- FSP Hydro Ti Pro 1000W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Ich muss die letzte Grafik noch mit Werten füllen. War bisher "zu wenig motiviert". Ne, im Ernst, brauchte mal einen Tag Pause von den vielen zahlen. Füge die Bilder gleich ein.
€dit: Sind drin, entschuldigt die Verzögerung.
€dit: Sind drin, entschuldigt die Verzögerung.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 8K
- Antworten
- 8
- Aufrufe
- 3K
- Antworten
- 0
- Aufrufe
- 856
- Antworten
- 1
- Aufrufe
- 2K