AMD PowerTune vs. Nvidia GPU Boost - welches Feature verfolgt den sinnvolleren Ansatz?

G

Gast30082015

Guest
Nachdem der Kepler-Thread etwas OffTopic gegangen ist mit der Diskussion PowerTune vs. GPU Boost, habe ich mir gedacht, macht vermutlich ein separater Thread Sinn. :)

Als Ausgangspunkt hier einmal ein paar Links mit dem einen oder anderen Auszug zu den einzelnen Features. :)

AMD Power Tune:

http://sites.amd.com/us/Documents/PowerTune_Technology_Whitepaper.pdf

[AMD PowerTune technology allows TDP constrained GPUs to ship with greater nominal clock speeds in the highest power state due to the mechanism by which it handles applications which exceed TDP. Without AMD PowerTune technology, applications which exceed the GPU TDP are forced to lower power states (such as intermediate or lowest states) and pay a very steep performance penalty as a result of drastically reduced clock speeds and voltages. In the AMD PowerTune enabled GPU, the clock speeds in the highest state can be dynamically managed to
hold the TDP budget in a way that was not otherwise achievable. The goal for applications that exceed the TDP budget is to maintain operation in the highest power state, but dial back on runtime power by modulating the high power state clock to keep the TDP range slightly below the absolute limit. This keeps the GPU away from the undesirable performance penalty of a forced state reduction arising from a thermal throttling event.

Hier noch ein Auszug von HT4U aus dem HD7850-Test:
http://ht4u.net/reviews/2012/xfx_radeon_hd_7850_black_edition_im_test/index11.php
PowerTune-Limitierungen


Da AMDs Power-Tune-Technologie – erstmals vorgestellt mit der Radeon HD 6970 und HD 6950 – ab sofort bei allen Modellen der HD-7000-Serie mit von der Partie ist, wollen wir auch heute einen gesonderten Blick darauf werfen.

So prüfen wir als erstes das – je nach Testmuster unterschiedliche – PowerTune-Limit bei werkseitiger Einstellung des Treibers in der "0"-Position. Hier erreichten wir eine Leistungsaufnahme von rund 111 Watt. Unter Spiele-Last zeigte dieses Testmuster eine Leistungsaufnahme von 105 Watt und bewegte sich damit noch unterhalb des Limits, ab welchem PowerTune eingreifen wird – allerdings auch nicht mehr so weit davon entfernt.

Unter Verwendung der Powertune-Einstellung +20, haben wir dann auch Messungen unter Furmark vorgenommen und erreichten 132 Watt Watt. Sehr viel OC-Potential konnten wir nicht mehr antreffen, doch mit den manuellen Übertaktungsresualtaten erreichten wir dann lediglich noch eine Leistungsaufnahme von 135 Watt und lediglich ein um 1 FPS gesteigertes Furmark-Resultat. Vermutlich ist PowerTune hier bereits am Werk.


Nvidia GPU Boost:

Hier konnte ich auf den Nvidia-Seiten leider nichts vergleichbares finden. Deshalb beschränke ich mich exemplarisch auf eine Zusammenfassung von 3DC.org zur GTX680:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680
Hinzu kommt dann noch der auf 1006 MHz gestiegende Chiptakt, welcher ein wenig den Vorteil von AMDs höherer Anzahl an Shader-Einheiten abknabbert. Dieser Unterschied wird weiter reduziert durch das GPU-Boost Feature, welches eine dynamische Übertaktung des Chips vornimmt, bis ein im BIOS der Grafikkarte festgesetzter TDP-Wert erreicht wird. Der von nVidia diesbezüglich angegebene Boost-Takt von 1058 MHz bei der GeForce GTX 680 stellt aber nur einen Mittelwert dar, welchen nVidia garantieren will – sofern die Karte aber mehr Spielraum feststellt, taktet sie sich auch höher. In verschiedenen Tests wurden hierbei Höchst-Taktraten zwischen 1110 und 1124 MHz festgestellt – gegenüber der default-Taktrate sind dies beachtbare 10 bis 12 Prozent, gegenüber dem "garantierten" Boost-Takt von 1058 MHz dann 5 bis 6 Prozent.
[...]
Allerdings besteht bei GPU-Boost die Befürchtung, daß das Feature für die Spiele-Praxis möglicherweise unnütz ist und faktisch nur Benchmark beschleunigt – vulgo Balken-Länge produziert. Denn hochgetaktet wird schließlich nur dann, wenn der Grafikchip durch das Spiel nicht vollens ausgelastet ist. Wenn der Grafikchip aber beispielsweise nur in den sowieso schnellen Szenen hochtaktet, dann werden aus 100 fps eben 110 fps, was zwar zwar gut für einen Benchmark erscheint, in der Spiele-Praxis aber ohne Belang ist – dort interessiert eher die Beschleunigung der langsamen Szenen von unter 50 fps. Diesbezüglich gibt es nun die Befürchtung, daß GPU-Boost in diesen langsamen Szenen nicht oder nur unterdurchschnittlich hochtaktet, weil der Grafikchip gemäß allgemeiner Theorie in den eher langsamen Spiele-Szenen ja schon voll ausgelastet ist und daher keine (oder weniger) TDP-Reserven haben sollte.

Ht4U zu dem Thema:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php
Noch einmal zusammenfassend: der entscheidende Faktor beim maximalen GPU-Boost ist das Power Target. Daran orientieren sich letzten Endes alle weitere Faktoren. Dass das Erreichen des Power Target von 170 Watt natürlich auch von der Temperatur der GPU abhängig ist, das liegt auf der Hand. Da NVIDIA eine relativ leise GPU-Kühlung realisieren wollte, hat man die Lüftersteuerung entsprechend auf die Akkustik optimiert, was zur Folge hat, dass die GPU-Temperatur unter Last relativ schnell ansteigt.

Bereits nach wenigen Minuten in einem Spiel, erblickt man Temperaturen im Bereich von bis zu 80 °C. NVIDIA zieht dann die Lüfterdrehzhal nur marginal an, um die Geräuschkulisse nicht zu negativ zu beeinflussen. Dafür dreht man mehr an den Stellschrauben GPU-Takt und GPU-Spannung.

[...]

An diesem Punkt stellt sich somit natürlich die Frage nach dem Sinn des Boost-Verhaltens für Spieler. Gerade in besonders fordernden Szenen eines Spiels, wo die GPU-Auslastung eben das Maximum erreicht, braucht der Spieler höhere Frameraten. Dort bricht der GPU-Boost dann allerdings schnell weg, wohingegen er in weniger fordernden Bereichen für die GPU mehr Frames per Second zu liefern im Stande ist. Grundsätzlich müssen wir darum an dieser Stelle die Empfehlung aussprechen, mittels eines separaten Tools wie EVGA XPrecision oder MSI Afterburner das Power Target auf 132 Prozent zu setzen, damit der Boost in der Praxis auch deutlich häufiger seinen maximalen Takt erreichen kann. Das erkauft man sich dann aber durchaus mit einer etwas höheren Lüfterdrehzahl.

Im Übrigen hat uns NVIDIA bestätigt, dass das Hochsetzen des Power Target nicht zum Garantieverlust führe. Warum man dem Anwender die Einstellung aber nicht direkt im Treiber anbietet, konnte man uns nicht sinnvoll erklären.
Falls jmd. über ein entsprechendes PDF zum GPU Boost stolpern sollte bzw. einen Link zu etwas entsprechendem hat, pflege ich das gerne hier nach.

---

Hier vllt. noch erwähnenswerte Beiträge aus dem Kepler-Thread. Wenn ein Mod Lust hat, könnte er alle betreffenden Beiträge direkt hier rein schieben. :)

[...]Was ist vernachlässigbar? Wenn eine 680 3% höher taktet als die vom Nachbarn, ist das dann auch vernachlässigbar? Nochmal: Mir geht es um die Transparenz, sonst nichts. Nicht um Vergleichbarkeit. Und nicht jeder Reviewer testet bei AMD die Taktraten. Das haben die gemacht, als Powertune noch neu war, aber inzwischen findet man das kaum noch. Sprich, es kann etwas passieren, das der Nutzer nicht nachvollziehen kann und was nirgendwo erwähnt wird.

Verstehe das Problem bei GPU-Boost nicht. Denn hier wird explizit gar keine Garantie für den Boost gegeben, daher ist man aus dem Schneider. Transparent ist das auch nicht, sicher. Aber man erhebt auch nicht den Anspruch darauf. Es sei aber angemerkt, dass ich hoffe, die Boost-Geschichte entwickelt sich noch weiter und wird feiner, wie ich es oben beschrieben habe.

Das Problem am Boost ist:

Beim Boost gibt es potentiell eine Variation der Grafikleistung zwischen den Anwendungen, den konkreten ASICs, den Grafikkartenkühlsystemen der einzelnen AIBs, Zustand der Wärmeleitpaste, der Gehäusekühlung, der Witterung, der aktuellen GPU-Temp, dem Verstaubungsgrad des Kühlers usw. geben kann. Wie groß die Auswrikungen dann letztlich sind, wird auch davon abhängen, wie groß NVIDIA den Boost-Bereich festlegt. Man könnte auch noch spekulieren, dass das System nicht schnell genug bei bestimmten Leistungsspitzen reagiert, da die Messung der Leistungsaufnahme ja nicht von der GPU selber durchgeführt wird.

Bei PowerTune gibt es keine Variation. Einzig der angegebenen Standardtakt kann nicht zu 100% für jede erdenkliche Anwendung garantiert werden.


Welche Methodik sich durchsetzt, entscheidet der Markt. Beide Hersteller werden sich in der Zukunft bei dieser Thematik sicher annähern.

Dr@;4608794 PowerTune arbeitet [B schrieb:
nicht[/B] temperaturabhängig.

Es gibt auch keine schlechten Exemplare, da PowerTune ausschließlich auf die Auslastung schaut und eben nicht auf die wahre Leistungsaufnahme! Vielmehr werden die schlechtesten ASICs für die Festlegung des PowerTune-Limits (--> Auslastungslimit) herangezogen. Das es Unterschiede bei der wahren Leistungsaufnahme geben kann, habe ich oben ebenfalls bereits geschrieben. Du verdrehst erneut die Zusammenhänge!


Edit:
Und dieser Link ist tatsächlich interessant: http://translate.google.de/translat.../65/gpu-boost-gtx-680-double-variabilite.html

Offenbar gibt es sogar Unterschiede bei den festgelegten maximalen Boost-Taktraten zwischen den einzelnen ASICs.

Bei ht4u hatten sie den GPU Boost sehr deutlich unter die Lupe genommen.
Bei der Tabelle sieht man recht schön die Taktveränderung im laufe der Zeit, sowie die Taktunterschiede bei einzelnen Karten.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php

Vllt. habt ihr ja Lust, hier die entsprechenden Gedanken weiter zu gehen.

Welches Feature ist sinnvoller?

Lohnt sich eine Kombination aus beiden?

Welche Möglichkeiten gibt es, zukünftig in Reviews noch gezielter beiden Features auf den Zahn zu fühlen?

Wer weiß, was da noch so auf uns Endverbraucher zu kommt. Fakt dürfte wohl sein, dass beide Hersteller hier noch nicht das Optimum erreicht haben und sicher für die nächsten Generationen noch das eine oder andere auf dem Zettel steht. :)

Das obligatorische PS: Ich wäre sehr dankbar, wenn wir persönliche Anfeindungen hier raus lassen könnten. Vielen Dank :)
 
Ich denke das ein direkter Vergleiche was Sinnfrei ist.
Wie ich in dem einen Topic bereits schrieb ist das eine eine Schutz- und das andere eine Tuningfunktion.
Das eine soll lediglich verhindern das die Karte ueberlastet wird (AMDs PowerTune bzw. nvidias GPU-Control-Unit) und das andere den TDP Rahmen so gut es geht ausschoepfen. (GPU Boost)

Was nun besser ist liegt vermutlich im Auge des Betrachters.
Vom Gesichtspunkt der Effizienz ist die Schutzschaltung sinnvoller, da bei einer geringeren Grafikkartenauslastung sie dementsprechend weniger Strom zieht.
Vom Gesichtspunkt der Leistung her ist die automatische "Uebertaktung" durch den GPU Boost natuerlich besser, da man innerhalb des TDP Rahmens mehr Leistung aus der GPU quetschen kann.
Im Zweifelsfall kann man ihn auch als Benchmarkfeature verschreien, da er innerhalb der Aufwaermphase bei kurzen Testsequenzen hoeher taktet und bei offenen Systemaufbauten auch von der besseren Kuehlung profitiert, da ja auch nach der Temperatur geregelt wird. Bei einem 0815 Rechner mit mittelpraechtiger Gehaeusekuehlung geht vermutlich deutlich weniger.


Und nochmal besten Dank fuer die Auslagerung der Diskussion. :)
 
Zuletzt bearbeitet:
Da mag ich widersprechen bzgl. der Effizienz. GPU-Boost macht insbesondere mit dem Framelimiter Sinn. Beim niedriger Last wird im Gegensatz zu Powertune Takt und Spannung gesenkt. Im Endeffekt befindest du dich auf einer Leiter und je nach Leistungsbedarf (bis zu einer gewissen Grenze, der TDP) gehst du ne Sprosse rauf oder runter, was sich auf diese beiden Größen (Takt und Spannung) auswirkt. Der Computerbasetest der 680 zeigt sehr schön, dass man hier mehr sparen kann als bei einer Grafikkarte ohne Boost nur mit Limiter.
http://www.computerbase.de/artikel/...abschnitt_maximale_fps_vs_fpslimiter_vs_vsync

Beim Hochtakten...das müsste man mal untersuchen, wäre sicher sehr interessant. Also zwei Fälle:
a) GPU-Boost, Takt und Spannung variieren während eines Benchmarks
b) Fixer Takt und Spannung
Bei beiden dann die Leistungsaufnahme während des Benchmarks messen, mit der Dauer des Benchmarks in umgewandelte Energie umrechnen und zu den fps ins Verhältnis setzen.

Bzgl. der Temperatur: Was ist denn die maximale Differenz, die wir hier gesehen haben? Techpowerup hat 40 MHz gemessen:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/30.html

Im Furmarkvideo von Computerbase sind es 1097-1058=39 MHz zwischen 63 und 97°C.
http://www.computerbase.de/artikel/...a-geforce-gtx-680/4/#abschnitt_der_turbomodus

Bei ht4u ist es dann deutlich mehr, nämlich 80-90 MHz zwischen 52 und 98°C.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index11.php

Es sei aber hier auch angemerkt, dass die Lüftersteuerung die Karte bei maximal etwa 80°C hält. Hier sind es dann auch wieder nur die 40 MHz, die auch die anderen Seiten gemessen haben, die maximal wegfallen. Für eine faire Betrachtung (geschlossenes Gehäuse, langer Benchmark, Sommer) darf man sicher die 4% abziehen.

Obwohl ich den Turbo generell gut finde, wäre es auch mir lieber, wenn zumindest die Temperaturabhängigkeit nicht gegeben wäre.
 
Der Turbo ist allerdings nicht direkt tempteraturabhängig, oder? Er ist soweit mir bekannt abhängig von der Leistungsaufnahme der Karte und da diese bei hohen Temperaturen wohl auch etwas zunimmt, nimmt dann auch der Turbo etwas ab.

Vorteil davon ist das die GPU immer gleich viel Abwärme produziert und man so den Kühler besser für diese auslegen kann.
Karten mit schlechterem Chip erreichen dann die gleichen Leistungsaufnahmewerte und in gleichen Systemen auch immer gleiche Geräuschkulisse, aber rechnen dann dafür etwas langsamer.
Bei AMD ist das eben umgekehrt, man bekommt immer gleiche Leistung wenn HD xy draufsteht, aber sie können verschiedene Leistungsaufnahmewerte und trotz sonst gleichen Umgebungsbedingungen unterschiedliche Lautstärkewerte erreichen.

Das sich die Karten bei Nvidia dann bei einem FPS-Limit sogar untertakten ist der Effizenz natürlich auch zuträglich und ist im Prinzip nichts anderes als sehr fein abgestufte P-States zu benutzen.

Powertune dagegen ist wie schon erwähnt ein Schutzmechanismus der die Karte von zu hohen Temperaturen schützt (bin mir allerdings gerade nicht sicher wonach sich dies genau richtet). Falls dies passiert taktet die Karte in Schrittweise herunter. Bei Nvidia wird dagegen in dem Fall die GPU gleich für mehrere Sekunden auf 542MHz heruntergesetzt, also in den nächst geringeren P-State und nicht mehr durch den Turbo ausgeglichen (Dieser ist bis zu dem kompletten Heruntertakten sogar noch aktiv).

Von daher könnte man im Prinzip sogar problemlos beide Mechanismen auf einer GPU realisieren ohne dass sie sich stören würden. Gegebenenfalls wird dies sogar irgendwann der Fall sein.
 
@boxleitnerb
Öhm...nö, denn du sprichst vom Framelimiter, der eher mit der Vsync Geschichte vergleichbar ist und nicht von GPU Boost. Das sind 2 gegensätzliche Features.
40MHz mögen zwar wenig klingen doch sind das bei ca. 1GHz Grundtakt immerhin gute 4% Taktsteigerung und der Turbo der GTX670 soll deutlich agressiver vorgehen, wodurch sie teilweise den Leistungsvorsprung der GTX680 zunichte macht. Beide Karten Takten im Alltag offenbar ca. gleich schnell und de ca. 10% mehr Hardwareeinheiten macht der agressivere Turbo teilweise durch eine stärkere Taktsteigerung zu nichte.

@tex_
So wie ich es verstanden habe leider doch, solange es innerhalb der TDP bleibst.
Mit einem stärkeren Kühlsystem bzw. an heißen Sommertagen taktet die Karte also vermutlich geringer als im Winter bzw. eher runter.
 
Zuletzt bearbeitet:
Nein, Framelimiter und GPU Boost ergänzen sich und erreichen eine Synergie. Der Framelimiter alleine sorgt soweit ich weiß nur dafür, dass Renderaufträge gar nicht rausgegeben werden. VSync verwirft Bilder, spart also praktisch nix, wenn ich mich nicht irre. Der Limiter mit GPU Boost bewirkt aber bei Kepler, dass nur soviel Takt und Spannung anliegt, wie zum Erreichen des Targets verwendet werden - auch unterhalb der 1006 MHz.
Schau doch mal den ersten Link an, umsonst hab ich den nicht reingesetzt.
 
In dem Test von Computerbase hat VSync aber rein gar nichts gebracht. Wie kommts, dass du dann was anderes misst?

Mit Limiter und einem Kepler würde dennoch mehr gespart.
 
In dem Test von Computerbase hat VSync aber rein gar nichts gebracht. Wie kommts, dass du dann was anderes misst?

Mit Limiter und einem Kepler würde dennoch mehr gespart.
Auf was fuer einen Wert war der Framelimiter denn eingestellt?
Wenn er auf 50 oder gar 30 fps eingestellt war ist es klar das man mehr spart als mit den 60 bei Vsync. ;)
 
Na 60 natürlich. Ah ich seh grad, es spart doch was bei denen, hab im falschen Diagramm geschaut.
 
In dem Test von Computerbase hat VSync aber rein gar nichts gebracht. Wie kommts, dass du dann was anderes misst?

Mit Limiter und einem Kepler würde dennoch mehr gespart.
Sie hatten vielleicht Triple Buffering aktiv, s.d. die Grafikkarte genau trotzdem drauflosrechnet wie ohne VSync, s.d. bis 60fps keine / kaum Ersparnis vorhanden ist :) [edit] Ah ok, im falschen Diagramm gekuckt ;)

Ich sehe btw. aus gleichem Grunde den Boost als überlegen an. Zugleich ist die Implementierung von AMD total deterministisch, was die erreichten fps auf jeder Karte angehen, das Testen ist also einfacher und die Vergleichbarkeit ist also ungleich höher als mit Nvidias Ansatz.

Begrüssen würde ich also AMDs nachvollziehbarere Lösung, welche anhand der Einheitenauslastung für jede Karte gleich funktioniert, kombiniert mit der Möglichkeit, bei DB-VSync oder bei fps-Limitern (auch bei solchen, die ins Spiel eingebaut sind) automatisch den Takt und die Spannung anzupassen, wie das bei Nvidia der Fall ist :)
 
Es ist doch letztendlich ganz einfach....man baut die Moeglichkeit ein den Turbo abzuschalten und kann die Konkurrenten so anhand der Eckdaten vergleichen, denn das sind schliesslich die garantierten Leistungsdaten.
Die Ergebnisse mit Turbo werden dann extra aufgefuehrt oder kommen in die OC Tests mit rein.
 
Zurück
Oben Unten