AMD Radeon VII (Pro): Tests/Meinungen im Netz. Links in Post 1

Zuletzt bearbeitet:
Hi!
Hat von euch eigentlich jemand Erfahrung mit Undervolting der Radeon VII? Hatte irgendwo aufgeschnappt, dass die Karte damit sehr effizient werden soll.

Hat's jemand getestet? Ist das einfach per Software möglich, ohne BIOS Flashen?

--- Update ---

Habe mir gerade mal dieses Video angeschaut: https://www.youtube.com/watch?v=YC4mWzcnaYU

Sieht ja echt sehr einfach und komfortabel aus. Und 80W geringerer Verbrauch + über 1.000/min Lüfterdrehzahl weniger mit nur ein paar Prozent geringerer Performance hört sich schon sehr gut an. Allerdings lässt mich der Greenscreen am Anfang des Videos dann doch etwas zweifeln, ob das mit Undervolting wirklich so stabil ist (erst recht im Sommer mit hohen Temperaturen) und vor allem auch, wie hoch die Chancen sind, dass man sein Exemplar gut undervolten kann (wird ja bei den Karten auch deutliche Schwankungen geben).
Deshalb die Frage, wer hier Erfahrungswerte hat.
 
Zuletzt bearbeitet:
@Thunderbird 1400
Das ist nicht nur bei der Karte so,das ist bei allen AMD karten so.
Du hast durch den Treiber mittlerweile sehr viele Möglichkeiten die Karte individuell anzupassen und auf Jedes Spiel speziell.

Du kannst Extrem viel Strom Einsparen mit rund 10% weniger Leistung.
Du kannst bei der Leistung bleiben und noch gut Strom Einsparen.
Du kannst ein wenig die Leistung erhöhen und bleibst beim Original Verbrauch.
Du kannst über den Turbotakt hinweg noch mal ein wenig Leistung raus holen was dann aber recht viel Strom kostet.

--- Update ---

Beispiel von meiner RX570 4GB wo ich das mal gemessen hatte für maximale Leistung und für den gesamten Rechner:
Gegenüber Default hab ich rund 20% weniger Leistung bei rund 45% weniger Verbrauch.
Beim Max OC hab ich rund 10% mehr Leistung bei rund 30% mehr Verbrauch.
Default vs Optimiert hab ich jetzt leider nix abgespeichert, aber ich mein es waren um 5% mehr.

--- Update ---

Beispiel von meiner RX570 4GB wo ich das mal gemessen hatte für maximale Leistung und für den gesamten Rechner:
Gegenüber Default hab ich rund 20% weniger Leistung bei rund 45% weniger Verbrauch.
Beim Max OC hab ich rund 10% mehr Leistung bei rund 30% mehr Verbrauch.
Default vs Optimiert hab ich jetzt leider nix abgespeichert, aber ich mein es waren um 5% mehr.

Das Gleiche Bild hab ich aber auch bei der RX470 4GB und der RX580 8GB.
Die RX580 hat übrigens nen R5 2600x @OC dabei , unter Wasser mit nem 350Watt Netzteil.
Die beiden anderen haben 300Watt Netzteile.
 
Um das aus dem nVidia Thread aufzugreifen:

@ Thunderbird 1400
Ja,das sagt aber nix aus bzw ist kein vergleich.
Es muss schon so etwas sein + Anzeige der Spannung im kleinen Fenster und das System muss natürlich bis auf die Karte Identisch sein.
https://youtu.be/KvWOj5VhPUY

Ok, aber immerhin kann man halbwegs gleiche Tests miteinander vergleichen, hier Tom's Hardware (beide Tests mit einem i7-7700K @4,2 GHz):
- RTX2080 im Schnitt (Spiele und Benchmarks) 225W: https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-founders-edition,5809-10.html
- Radeon VII im Schnitt ca. 300W: https://www.tomshardware.com/reviews/amd-radeon-vii-vega-20-7nm,5977-5.html

Das wärem demnach im Schnitt 75W Differenz in Spielen.

Die Frage wäre jetzt, wieviel weniger Performance hat eine Radeon VII, wenn man den Durchschnittsverbrauch um 75W auf das gleiche Niveau einer RTX2080 reduziert? In dem Video ist zwar von 80W weniger die Rede, aber auch nur an einer Stelle des Spiels. Ein Durchschnittsverbrauch wurde ja leider nicht gemessen. Um durchschnittlich 75W weniger zu haben, müsste man die Karte sicherlich noch weiter runter takten.
Was denkt ihr, wie sie dann performance-mäßig im Vergleich zur RTX2080 liegt? Würde jetzt mal 15-xx% schätzen. Das wäre dann auch schon eine Hausnummer.
 
Natürlich bin Ich immer der Spielverderber,ABER Ich sehen mir die Sachen immer gern genauer an......
Was bzw welches Spiel haben die hier jetzt genau gemessen?
Power Consumption
GeForce RTX 2080 uses the same ~225W in our gaming loop as it does in the stress test. Incidentally, that’s the exact graphics card power rating Nvidia claims in its specifications

NUR EIN Spiel???
Gaming: Metro: Last Light....Radeon VII
Three runs of the Metro: Last Light benchmark give us consistent, repeatable results, which makes it easier to compare the power consumption of graphics cards.

Dann:
Metro 4A Engine........sowie NVidias PhysX und NVidias 3D Vision
Ist also Fraglich in wie weit es den Test beeinträchtigt.

--- Update ---

Diesem Gebrabbel von vielen Testseiten trau ich schon seit vielen Jahren nicht mehr , weil es einfach zu viele Belege für das Gegenteil auf YouTube gibt.
 
Zuletzt bearbeitet:
die ganzen Stromverbrauch Messungen sind doch fürs Klo, da niemand mit 60fps und VSYNC on getestet hat...
Das sollte zusätzlich zu ohne VSYNC bei max. Performance gemacht werden. Auch mal bei Medium.

Denn das kann auch mal locker 200W oder mehr ausmachen. Ich erinnere mich an einen Test mit ZWEI Radeon HD7970 in Murdered Soul Suspect, wo der Stromverbrauch "magischerweise" um 200W gefallen ist, von etwa 450W auf 250W...

--- Update ---

Diesem Gebrabbel von vielen Testseiten trau ich schon seit vielen Jahren nicht mehr , weil es einfach zu viele Belege für das Gegenteil auf YouTube gibt.
Genau, schau doch mal, was die für Propaganda in letzter Zeit rausspucken:
PCGH: Wir rüsten unser Testsystem auf! CPU: i9-9900K. Einen Monat vor Zen2

Linus Tech Tips: Ich rüste meinen eigenen Game PC auf - auch kurz vor Zen2, auch 9900K. Dazu noch einige andere

Gamers Nexus: Explaining AMD's Misleading Marketing. Dann noch irgendwo 5min Gelaber über "X570 braucht 15W", ohne irgendwelche anderen Infos, nur 15W. Oder Radeon vs. Geforce in 2019 - und dabei über ein 2013 Spiel 5min labern. Und relativ wenig moderne 2018/2019 Spiele testen...

Die einzigen, die halbwegs vertrauenswürdig ausschauen sind die Aussies von Hardware Unboxed. Die scheinen gerade Fanboys trollen zu wollen. Haben auch 'ne ganze Latte an "1650 suckt" Videos gemacht, letztens den i5-7600K vernichtet, heute einen alten Xeon...

Und vergiss nicht den Mist mit Geforce Pertner Programm, über welches von den meisten Publikationen nicht gesprochen wurde OBWOHL DIE ALLE DAVON WUSSTEN!
Oder den Gameworks Müll, über den kaum jemand spricht...

Die ganzen Hardware Journalisten sind immer mit einer Priese Salz zu genießen. Da muss man echt vorsichtig sein!!


ODer wie man so schön sagt "trust but Verify"...
 
Zuletzt bearbeitet:
die ganzen Stromverbrauch Messungen sind doch fürs Klo, da niemand mit 60fps und VSYNC on getestet hat...
Das sollte zusätzlich zu ohne VSYNC bei max. Performance gemacht werden. Auch mal bei Medium.
Wobei mit Begrenzung zu Testen.......Heikle Sache,ich stell die Einstellungen so ein das die AMD gerade so durchgehend die 60 Packt,der grüne Haufen aber so schon 70 packen würde und schon wird der Unterschied vom Verbrauch noch größer........
 
Hi!
Hat von euch eigentlich jemand Erfahrung mit Undervolting der Radeon VII? Hatte irgendwo aufgeschnappt, dass die Karte damit sehr effizient werden soll.

Hat's jemand getestet? Ist das einfach per Software möglich, ohne BIOS Flashen?
Ja, das funktioniert sehr einfach.
Unter Windows mit dem im Treiber integrierten Wattman und unter Linux mit amdgpu-utils.
Bisher habe ich aber nur die Spannung ohne große Testerei von 1,05 auf 1,0V gesenkt - das machte sich sofort in weniger Drehzahl bemerkbar.
Und in Linux hatte ich auch einfach mal die TDP auf 150W begrenzt, was in Seti oder Einstein die Spitzen etwas gekappt hat, aber sich kaum auf die Laufzeit ausgewirkt hat.
In Windows kann man sogar die Lüfterkurve anpassen, in Linux leider nur eine feste Drehzahl setzen oder auf auto lassen.
Denn leider ist die Lüftersteuerung meiner Saphire furchtbar nervös. Tj springt immer im Bereich von 70-95°C herum mit entsprechenden Lüfterdrehzahlen von 1000-2800. Wenn ich das einfach fix auf 1500U/Min setze, dann bleibt auch die Temperatur halbwegs konstant bei 80°C. So eine stümperhafte Lüftersteuerung habe ich jedenfalls schon seit Jahren nicht mehr erlebt. Aber ich weiß nicht, ob das von AMD so vorgegeben ist und auch bei den anderen Kartenherstellern so ist.
 
Also ich hab mich bei der Vega56 auch dran versucht. Mit dem Afterburner kommen die -75mV an. Sieht man ja am Takt. Über das AMD Tool alledings nicht
 
Unter Windows benutze ich OverdriveNtool, mit dem kann man recht leicht den Takt/Spannung Table bearbeiten. Der wird dann fest übernommen und ist bei jedem Start aktiv. Wenn das Sys mal abschmiert setzt sich alles wieder zurück.

Unter LInux nutze ich ein Skript, je nach Boinc Projekt verschiedene Setups. Einstein@home mit 110 Watt Chippower bei einer Vega56, sehr effizient.
 
OverdriveNTool kann ich ebenfalls wärmstens empfehlen. Zu AMD Memory Tweak, welches auch die Justierung der einzelnen P-States (Taktrate u. Spannung) erlaubt, kann ich mangels ausreichend neuem Grafiktreiberpaket nichts sagen (gibt eine Mindestanforderung wie für einzelne OverdriveNTool-Versionen).

Ich habe allerdings keine dedizierte Vega.
 
OverdriveNTool wäre auch mein Tool der Wahl. Habe ich auf der Vega FE gute Erfahrungen mit gemacht.
 
Mal wieder ein Grund warum ich Luxx den Stinkefinger gezeigt habe, bevor ich ging. Und zwar den auch erst ganz hoch gehalten :-*
Nicht weil pro-irgendetwas, ich, sondern, weil ich mich nicht verarschen möchte.

Zu der aktuellen Medienkompetenzübung:
Was hat die Pro VII mit einer Quadro 8000 zu tun?? Ich will noch nichtmal wissen warum 14.2 zu 16.3 und 28.4 zu 32.6 "deutlich schneller" ist... Eine 8000er bekommt man aber real nicht unter 6800€ 8-(
Der Preis der 8000er wird dann auch erwähnt, mit 5450€ in rot (Link nach Geizhals) angegeben, und wenn man dem folgt!, findet man eben da keine kaufbare 8000er unter 6800€ :-X
Die Pro VII wird übrigens und wohl, nicht mehr als 2100€ kosten. Das wusste man ebenfalls schon. Stellt sie in einer Tabelle dann aber trotzdem gegenüber einer 8000er

Was für ein dreckiges PR-Journalismus, IMHO...


Zum Thema GPU-Compute on your homeworkstation ;) :

Eine weiterhin sehr traurige Geschichte. Zu 99.9% wissen die Progger nicht so wirklich was sie mit OpenCL wie auch Cuda anfangen könnten. Oder, sollten. Die restlichen zimmern sich irgendeine megaschnelle Routine zusammen, im Mediabereich, die in 80% jenes übriges 0.1%, qualitativ schlechter arebeiten als wenn man es mit der CPU rechnet.

RICHTIG schlecht Leute. Richtig schlecht.
 
Zuletzt bearbeitet:
Zurück
Oben Unten