NVIDIA - Kepler

Mit der Vorstellung der GTX 670 wird die Aussagekraft von kurzen Bench-Sequenzen wie 3DCenter hier (http://www.3dcenter.org/news/nvidias-gpu-boost-ergibt-eine-gewisse-benchmark-verfaelschung) korrekt anmerkt noch einmal stärker beeinflusst. Da nVidias Ansatz umgekehrt wie AMDs mit PowerTune ist, wo ja imho die Taktraten nur von der Leistung und nicht von der Temperatur abhängen und nur nach unten angepasst werden ist hier sehr vieles von der Umgebung, vom Chip etc. anhängig.

Gerade der hohe Boost-Takt der 670 lässt hier einiges an Spielraum was den Einfluss von Hersteller-eigenen Kühllösungen und von der Chipgüte angeht. Gerade mit auserlesenen Golden Samples für die Review-Seiten kann hier einiges anders aussehen als beim Endkunden, da ja nur der normale Takt garantiert wird.
 
Dazu müsste nVidia erst mal Verfügbarkeit schaffen.
Wenn das nicht bald gelingt wird das Zeitfenster ziemlich klein um mit Kepler Geld zu verdienen, weil AMD dann schon wieder mit den Nachfolgemodellen in den Startlöchern steht.

Die 78xx sind die eigentlich interessanteren Modelle.
Hier fehlt seitens nVidia noch etwas vergleichbares.

@Nofx
Ich habe mich auch gefragt warum ht4u zu einem anderen Fazit kommt als andere Reviews.
 
Zuletzt bearbeitet:
@deadohiosky

Genaue Zahlen darf ich leider nicht nennen, aber ich kenne sie. Das mehr 680 als 7970 verkauft wurden zweifel ich deshalb auch an. Mehr ginge nur per PN.

@the Rest
Generell ist es auch eine Frage wie man mit den Kunden umgeht und sie sich erzieht. Nicht nur MM und Co kann Einfluss nehmen auf den Enkunden ohne das er es merkt sondern auch jeder andere Laden. Die meist verkaufte nvidia der letzten Zeiten war die GTX570 bei uns, die meist verkaufte im Gamingbereich aber die 6970 gefolgt von 6950. Die 7er gehen aber auch schon wirklich gut. Wenn auch die 78xx und vor allem die böse 7770 besser als die 7970. Die liegt aber klar vor der 680.
 
Mit der Vorstellung der GTX 670 wird die Aussagekraft von kurzen Bench-Sequenzen wie 3DCenter hier (http://www.3dcenter.org/news/nvidias-gpu-boost-ergibt-eine-gewisse-benchmark-verfaelschung) korrekt anmerkt noch einmal stärker beeinflusst. Da nVidias Ansatz umgekehrt wie AMDs mit PowerTune ist, wo ja imho die Taktraten nur von der Leistung und nicht von der Temperatur abhängen und nur nach unten angepasst werden ist hier sehr vieles von der Umgebung, vom Chip etc. anhängig.

Gerade der hohe Boost-Takt der 670 lässt hier einiges an Spielraum was den Einfluss von Hersteller-eigenen Kühllösungen und von der Chipgüte angeht. Gerade mit auserlesenen Golden Samples für die Review-Seiten kann hier einiges anders aussehen als beim Endkunden, da ja nur der normale Takt garantiert wird.
Das ist zwar richtig was du schreibst, jedoch gibt es bei den AMD Karten eine andere Funktion die eben doch Spannung und Takt absenkt wenn die Temps zu hoch sind. ( zweiten Schutzmechanismus). Der könnte dann ebenso zu insges. schwächeren Ergebnissen führen.
Das die NV Karten hier sogar hochtakten können sehe ich eher als Weiterentwicklung der Technik an. Grund und Boost Takt werden garantiert und der User kann sogar, durch z.B. einen anderen Kühler, aktiv Einfluss auf die Höhe des Taktes nehmen.
Wenn man jetzt noch das Frame Rate Target setzt, kann der Chip in brenzligen Situationen u.U. noch höher boosten um eine ansonsten hakelige Sequenz flüssig erscheinen zu lassen.
Ein weiterer positiver Nebeneffekt: Frame rate target auf 60 entspricht ~130 W weniger Engergieaufnahme.
 
Ich werde mal Duplex in seinem Feldzug ein wenig Schützenhilfe geben:

Er bezieht sich sicherlich auf Tests wie diesen http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index5.php

in denen die Palit gut abschneidet und einen Max Turbo von 1124 MHz hat.


Ich halte die Turbogeschichte für immer bedenklicher und für mich grenzt das Ganze schon an Kundenverarsche.

Nvidia garantiert bei der GTX 680 einen Turboboost von maximal 1100 MHz, einen durschnittlichen Boost von 1058 GHz, und der Basistakt liegt bei 1006 GHz.

Bei der GTX 670 sind es 980 MHz durschnittlich, den maximalen von Nvidia garantierten habe ich noch nirgendwo gelesen, Basistakt ist 915 MHz.

Wie gesagt die Palit erreichte bei ht4u.net 1124 MHz das sind etwas mehr als das was bei der GTX 680 erreicht wurde und bedeutet, dass sie der GTX 680 bzw. der HD 7970 sehr gefährlich wird.

Das Problem ist aber, der Turbo lässt sich nicht konstant halten schwankt und wie ht4u beim GTX 680 Test gezeigt hat geht er nach einigen Minuten zurück und begünstigt so Benchmarks die nur kurz laufen.

Eine weiteres Problem ist die Frage wie die der Turbo Boost in realen Szenarien reagiert, wenn man mehrere Stunden durchzockt und vor Allem wie sehr schwanken die maximal erreichbaren Boosttakte bei den retail-Produkten.

Weder AMD noch Nvidia greifen blind aufs "Fließband" und verschicken dann die Samples an die Redaktionen. Sie werden vorher (auf Funktionalität sowieso) getestet und wenn sie dem gewünschten Ergebnis entsprechen werden sie verteilt.

Ich hoffe für Nvidia, dass die Boostraten sich auch im retail-Geschäft widerspiegeln, denn wenn dem nicht so ist, haben sie dem Kunden einen Bärendienst erwiesen und schädigen ihn durch die utopischen Taktraten, die die Testsamples erreichen.

(in before anecdotical examples of retail cards provided by Duplex, RICHTHOFEN, or boxleitnerb)


@Tomato?


Häh. Na und. Dieser "zweite Schutzmechanismus" wie du so schön abgeschrieben hast, ist dafür zuständig bei Applikationen wie Furmark, OCCT und Co. auf die TDP zu drosseln, um zu verhindern, dass diese überschritten wird. Dass das nur schlecht als recht funktioniert, sieht man insbesondere bei AMD immer wieder. Nvidia ist da meines Erachtens noch restriktiver.
 
Zuletzt bearbeitet:
Nur so als Vergleich:
Wo ist AMDs Powertune kein Mysterium? Ich habe schon einige Tests gesehen, in denen gethrottelt wurde. Ist irgendwo von AMD dokumentiert, wann das passiert in welchem Umfang? Welchen Einfluss es auf das Übertakten haben kann (was der Boost bei Nvidia ja ist).

Eine längere Untersuchung wäre hier sicher wünschenswert, jedoch kann ich aus eigener Erfahrung sagen, dass GPUs ihre maximale Temperatur recht schnell erreichen. Garantiert wird zudem nur der Baseclock, soviel ist klar kommuniziert (steht jedenfalls in jedem Review, das ich gelesen habe, und das waren einige). Was für ein Eindruck in den Reviews entsteht, wenn die Leute nicht lesen können oder wollen...gut, das ist dann deren Problem.
 
Umso besser, Nvidia garantiert nichts... im schlimmsten Fall könnte es also gar keinen Boost geben. ;)


Wenn sich Powertune ähnlich verhält, dann wäre das genauso problematisch und sollte untersucht und dementsprechend abgestraft werden. Nur habe ich persönlich davon bei der HD 7000 Serie noch nichts in der Presse gelesen, du könntest uns ja in der Hinsicht gerne erhellen, denn in den Raum gestellte Behauptungen mag ich nicht, ich finde es bei mir persönlich sehr problematisch, deswegen versuche ich das immer mit Quellen zu belegen. Wenn ich das nicht mache, darfst du das gerne anprangern.
 
Der entscheidende Unterschied ist der folgende:

Bei PowerTune wird ausschließlich die Auslastung bestimmter Einheiten betrachtet und daraus für ein Worst-Case-Szenario eine Leistungsaufnahme "berechnet" bzw. abgeschätzt. Sollte das gesetzte TDP-Limit überschritten werden, taktet die GPU runter. Die genaueren Parameter für dieses Worst-Case-Szenario (Leckrate und Temperatur vom Chip, Spieleauswahl) hatte AMD damals bei der Vorstellung der Caymans genannt. Müsste ich erst suchen. Damit stellt AMD sicher, dass sich das Verhalten zwischen unterschiedlichen ASICs nicht unterscheidet. Auch hier kann es vorkommen, dass bei bestimmten Anwendungen kurzzeitig nicht der Standardtakt anliegt, allerdings wird das Verhalten bei allen ASICs immer das gleiche sein. Je nach konkretem Produkt (z.B. Radeon HD 7970 oder Radeon HD 7750) ist bei AMD liegt die GPU bei Standardtakt mal näher und mal weiter weg vom gesetzten PowerTune-Limit. Ist das Limit zu eng gesetzt, besteht die Gefahr, dass häufiger die GPU gedrosselt werden muss.

So wie ich den NVIDIA-Ansatz beim Kepler verstehe (NVIDIA redet mit uns ja seit kurzem nicht mehr), wird dort tatsächlich gemessen, welche Leistungsaufnahme die GPU aktuell hat, und daraus wird dann der Turbotakt ermittelt. Die Güte des jeweiligen ASICs (Leckströme) und die aktuelle Temperatur (höhere Temp. --> größere Leckströhme) haben hier also einen Einfluss auf den Turbo. Wie groß aber diese Einflüsse innerhalb einer Massenfertigung tatsächlich sind und was für eine Streuung daraus im Endkundenmarkt entsteht, ist derzeit noch nicht ausreichend betrachtet worden.

Kurz zusammengefasst:

Bei AMD bekomme ich unabhängig vom konkreten ASIC immer die gleiche Performance-Charakteristik

Bei NVIDIA kann es eine Streuung bei der Performance-Charakteristik geben (wie stark Ausgeprägt ist die derzeit unbeantwortete Frage), da sich die Leckströme bei jedem ASIC anders verhalten. Zudem kann die GPU-Temp. variieren auf Grund anderer Kühlsysteme auf der Grafikkarte und auch wegen unterschiedlicher Gehäusebelüftung.


Ich bin jedenfalls gespannt, wie der Markt reagiert. Wenn der NVIDIA-Ansatz sich durchsetzt, dann dürfte die Beurteilung der Leistungsfähigkeit von Grafikkarten künftig deutlich schwieriger werden. Die erste Generation vom Turbo dürfte ja noch recht konservativ abgestimmt sein.
 
AMD selbst hat sich dazu geäußert, siehe Nachtrag:
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index7.php

Auch schreibt ht4u:
Aus den zuvor gemachten Schilderungen muss sich nun eines ableiten lassen: PowerTune-Max ist von Karte zu Karte unterschiedlich und eine Verallgemeinerung ist nicht möglich. AMD macht sich nicht auf und misst bei all seinen produzierten Grafikkarten einer HD-6900-Serie die maximale Leistungsaufnahme unter Spielen. Stattdessen legt AMD unter Beachtung verschiedener Messreihen eine Auslastung der GPU fest, bei welcher keine Beeinträchtigung aktueller Spiele stattfindet bzw. stattfinden sollte. Die PowerTune-Funktion soll nun dafür Sorge tragen, dass diese Auslastungsschwelle nicht überschritten wird.

Ich sehe hier genau so ein Mysterium wie du bei GPU-Boost.
 
Hier werden unterschiedliche Sachen in den gleichen Topf geworfen.

Das PowerTune-Limit ist nicht über die konkrete Leistungsaufnahme gesetzt, sonder über die Chip-Auslastung (genauer: es wird die Auslastung einer Vielzahl von Einheiten auf dem Chip ausgewertet).

Wenn HT4U das PowerTune-Max misst, dann messen sie die Leistungsaufnahme eines speziellen ASIC im PowerTune-Limit.

Bei AMD kann also die Leistungsaufnahme (so wie bei vorigen Generation auch) zwischen einzelnen ASICs variieren, alle ASICs werden aber immer die gleiche Grafikleistung erbringen.

Das ist der elementare Punkt bei der Sache.


Bei NVIDIA haben wir hingegen genau das Gegenteil: Dort habe ich immer die gleiche maximale Leistungsaufnahme, die gezeigte Grafikleistung kann aber zwischen einzelnen ASICs und auch während ich Zocke oder zwischen unterschiedlichen Gehäusen variieren. Wie groß der Effekt sein kann, ist unbekannt.
 
Ja, genau so verstehe ich das auch, deswegen würde ich mich freuen, boxleitnerb, wenn du uns diese Tests nennst wo es zu Leistungseinbrüchen (vermutlich) durch Powertune kommt.

Und ich meinte auch explizit die 7000 Serie, du kommst mit Quotes die 1 1/2 Jahre alt sind. 1 1/2 Jahre sind eine lange Zeit und soweit ich das mitbekommen wurde, hat AMD auch Powertune bei GCN modifiziert(könnte mich aber irren, meine es bei der 7000M Vorstellung irgendwo gelesen zu haben).
 
Die fps können auch durch Powertune variieren, z.B. im 3DMark06:
http://www.pcgameshardware.de/aid,8...rklasse-Grafikkarten/Grafikkarte/Test/?page=2

Ich erinnere mich an noch zwei Beispiele, muss sie aber erstmal raussuchen.
Worauf in diesem längeren Text beziehst Du Dich konkret?

Und nein, die FPS können nicht variieren. Das steht so auch nicht bei PCGH.

Da Powertune Wartezyklen einlegt und den Takt senkt, besteht die Möglichkeit, dass eine Anwendung weniger Fps erreicht als sie könnte. Dies ist beispielsweise im Furmark, PCGH VGA Tool, bei OCCT (Shader Complexity 8) sowie im "Perlin Noise"-Test des 3DMark06 der Fall. In letzterem benötigt die Radeon HD 6970 laut AMD mindestens Powertune +10 % (bis zu +20 % sind im CCC bei Verlust der Garantie einstellbar!), damit der volle Takt (und damit die volle Leistung!) anliegt. Umgekehrt dürfen Sie den Powertune-Wert um bis zu 20 Prozent senken, um Strom (auf Kosten der Fps) zu sparen. Der Speicher bleibt laut AMD völlig unangetastet und arbeitet stets mit Volldampf.

Ist das gemeint? Das es dazu kommen kann, dass die GPU nicht mit dem angegebenen Standardtakt läuft, habe ich oben ja schon geschrieben.

Nochmal: Alle ASICs verhalten sich gleich! Wenn im "Perlin Noise"-Test (was auch eine Art Power-Virus ist) das PowerTune-Limit erreicht wird, welches AMD für dieses konkrete Produkt (also beispielsweise für alle Radeon HD 7970) gesetzt hat, taktet der Chip runter. Das wird dann aber bei allen Grafikkarten dieses konkreten Produktes der Fall sein. Diese Anpassung erfolgt in Intervallen von einigen Millisekunden. An diesem Verhalten ändert die Witterung oder die Dauer des Benchmarks nichts. Es wird immer das gleiche Verhalten sein.


Fürs Verständnis: Mit ASIC (Abgrenzung zu GPU) meine ich hier einen konkreten Chip den TSMC aus einem Wafer herausgeschnitten hat und der dann von AMD oder NVIDIA für ein konkretes Produkt (z.B. GeForce GTX 680) verwendet wird. Die Wortwahl ist vielleicht nicht optimal.
 
Ja, genau so verstehe ich das auch, deswegen würde ich mich freuen, boxleitnerb, wenn du uns diese Tests nennst wo es zu Leistungseinbrüchen (vermutlich) durch Powertune kommt.

Und ich meinte auch explizit die 7000 Serie, du kommst mit Quotes die 1 1/2 Jahre alt sind. 1 1/2 Jahre sind eine lange Zeit und soweit ich das mitbekommen wurde, hat AMD auch Powertune bei GCN modifiziert(könnte mich aber irren, meine es bei der 7000M Vorstellung irgendwo gelesen zu haben).

Ich sprach allgemein von Powertune im Vergleich mit GPU-Boost. Fakt ist, es gibt - zugegeben wenige - Fälle, in denen Powertune runtertaktet abseits Furmark. Wenn es allerdings einmal, zweimal passiert, kann es auch öfters passieren. Man weiß es schlicht nicht. Ich wollte damit nur deutlich machen, dass auch hier nicht der Durchblick gegeben ist.
An Nvidias Herangehensweise sehe ich da nichts Verwerfliches. Sie sagen, sie haben einen durchschnittlichen Boost von 1058 MHz bei ihren Tests beobachtet und sagen explizit, es kann beim Kunden auch anders sein.

Worauf in diesem längeren Text beziehst Du Dich konkret?
Ist das gemeint? Das es dazu kommen kann, dass die GPU nicht mit dem angegebenen Standardtakt läuft, habe ich oben ja schon geschrieben.

Nochmal: Alle ASICs verhalten sich gleich! Wenn im "Perlin Noise"-Test (was auch eine Art Power-Virus ist) das PowerTune-Limit erreicht wird, welches AMD für dieses konkrete Produkt (also beispielsweise für alle Radeon HD 7970) gesetzt hat, taktet der Chip runter. Das wird dann aber bei allen Grafikkarten dieses konkreten Produktes der Fall sein. An diesem Verhalten ändert die Witterung oder die Dauer des Benchmarks nichts. Es wird immer das gleiche Verhalten sein.

Ja, ist es. Dass sich die ASICs gleich verhalten, bestreite ich gar nicht. Mir ging es nur darum, dass auch bei Powertune eine gewisse Transparenz fehlt. Heute ist es Anwendung A oder B, welche ist es morgen? Wenn von AMD der Standardtakt allerdings nicht garantiert wird, dann ist ja alles schön und gut.
 
Zuletzt bearbeitet:
Der Unterschied ist, dass man die Powertune-Taktraten genauso zu Hause erreicht wie im Review und bei nVidias Boost das Ganze eben nicht klar oder fraglich oder (für bei Usern mit Golden Sample-Theorien) unrealistisch ist.

Das Ganze ist imho genau soll ein Murks wie ein All-Core-Turbo bei CPUs...
 
Ja, ist es. Dass sich die ASICs gleich verhalten, bestreite ich gar nicht. Mir ging es nur darum, dass auch bei Powertune eine gewisse Transparenz fehlt. Heute ist es Anwendung A oder B, welche ist es morgen? Wenn von AMD der Standardtakt allerdings nicht garantiert wird, dann ist ja alles schön und gut.

Die Aussage von AMD dazu war, dass die PowerTune-Limits so gesetzt sein sollen, dass ein ausreichend großer Puffer vorhanden ist. In heutigen und zukünftigen normalen Anwendungen soll demnach praktisch immer der Standardtakt anliegen. Es gab bereits einige Spiele und Produkte (bei denen der Puffer ganz offensichtlich viel zu klein gewählt wurde), wo nachgewiesen wurde, dass auch hier PowerTune eingreift und den Takt leicht absenkt. In den zugehörigen (mir bekannten) Benchmarks kam es dann zu geringfügig (vernachlässigbar?) geringeren FPS als mit einem PowerTune-Limit von +20%. PowerTune glättet in solchen Fällen quasi die Verbrauchsspitzen weg.
 
Die Aussage von AMD dazu war, dass die PowerTune-Limits so gesetzt sein sollen, dass ein ausreichend großer Puffer vorhanden ist. In heutigen und zukünftigen normalen Anwendungen soll demnach praktisch immer der Standardtakt anliegen. Es gab bereits einige Spiele und Produkte (bei denen der Puffer ganz offensichtlich viel zu klein gewählt wurde), wo nachgewiesen wurde, dass auch hier PowerTune eingreift und den Takt leicht absenkt. In den zugehörigen Benchmarks kam es dann zu geringfügig (vernachlässigbar?) geringeren FPS als mit einem PowerTune-Limit +20%.

Das interessante Wort hier ist "soll". Was ist vernachlässigbar? Wenn eine 680 3% höher taktet als die vom Nachbarn, ist das dann auch vernachlässigbar? Nochmal: Mir geht es um die Transparenz, sonst nichts. Nicht um Vergleichbarkeit. Und nicht jeder Reviewer testet bei AMD die Taktraten. Das haben die gemacht, als Powertune noch neu war, aber inzwischen findet man das kaum noch. Sprich, es kann etwas passieren, das der Nutzer nicht nachvollziehen kann und was nirgendwo erwähnt wird.

Verstehe das Problem bei GPU-Boost nicht. Denn hier wird explizit gar keine Garantie für den Boost gegeben, daher ist man aus dem Schneider. Transparent ist das auch nicht, sicher. Aber man erhebt auch nicht den Anspruch darauf. Es sei aber angemerkt, dass ich hoffe, die Boost-Geschichte entwickelt sich noch weiter und wird feiner, wie ich es oben beschrieben habe.
 
Zuletzt bearbeitet:
Was vernachlässigbar ist, muss jeder für sich entscheiden.


Das Problem am Boost ist:

Beim Boost gibt es potentiell eine Variation der Grafikleistung zwischen den Anwendungen, den konkreten ASICs, den Grafikkartenkühlsystemen der einzelnen AIBs, Zustand der Wärmeleitpaste, der Gehäusekühlung, der Witterung, der aktuellen GPU-Temp, dem Verstaubungsgrad des Kühlers usw. geben kann. Wie groß die Auswrikungen dann letztlich sind, wird auch davon abhängen, wie groß NVIDIA den Boost-Bereich festlegt. Man könnte auch noch spekulieren, dass das System nicht schnell genug bei bestimmten Leistungsspitzen reagiert, da die Messung der Leistungsaufnahme ja nicht von der GPU selber durchgeführt wird.

Bei PowerTune gibt es keine Variation. Einzig der angegebenen Standardtakt kann nicht zu 100% für jede erdenkliche Anwendung garantiert werden.


Welche Methodik sich durchsetzt, entscheidet der Markt. Beide Hersteller werden sich in der Zukunft bei dieser Thematik sicher annähern.
 
Dann müsste man aber theoretisch mit der niedrigsten garantierten Boost-Takrate testen. Weil das ist das was man zu Hause auf jeden Fall erwarten kann, alles andere wäre dann Bonus.
 
Es gibt keine garantierte Boost-Taktrate. Solange man deutlich dazuschreibt, dass die Ergebnisse zuhause anders ausfallen können und noch erwähnt, welche Taktraten in den Benchmarks erreicht wurden, ist es doch ok.
 
Gibt es denn Tests, die nur mir dem garantieren Takt testen?
 
Zurück
Oben Unten