Bulldozer - AMD Fam 15h - allgemeiner Infothread

Stromverbrauch ist auch so eine komische Sache ...

Bei CPUs ist eine TDP von >100 Watt störend,
bei GPUs stört sich niemand an einer TDP von 250 Watt und mehr.

Dabei befinden sich CPUs in der Regel im Idle Modus wo sie nur einen Bruchteil der TDP verbrauchen.
Wieso ist das eine komische Sache? TDP ist nicht gleich Stromverbrauch (Umwandlung), TDP = thermische Verlustleistung.

Und aktuell 125W TDP (FX 4M) sind sehr wohl relevant, wenn die CPU oft unter hohen workloads steht.
Bei der GPU stören hohe TDPs ebenso, wie bei der CPU und eine doch recht schnelle HD 7850 hat weniger als-wie 125W TDP.
 
Zuletzt bearbeitet:
Die GPUs leisten aber auch entsprechend was. Hier wird die Leistung alle 2 Jahre verdoppelt, das muss irgendwoher kommen.
 
Unter anderem von einer fast stetig steigenden TDP?
Bei den CPUs ist sie eher stagnierend bis fallend.
 
Bei gleicher TDP wären immer noch 60-70% drin, mehr als bei den CPUs. Die TDP wird jetzt mMn auch erstmal konstant bleiben bei den GPUs.
 
Nur ist die TDP bei AMD-Grafikkarten eben nicht steigend, sondern fallend, bei steigender Leistung und weniger Energiebedarf.
Und auch aus diesem Grund kommen jene Grafikkarten so gut bei der Kundschaft an, weil... logisch?
 
Das wurde bei den Doppelkarten auch vermutet aber oh Wunder....als die single GPU Karten in den Bereich oberhalb der 225W Grenze vordrangen durften die Doppelwopper auch mehr als 300W fressen.
Der begrenzende Faktor durfte eher die Lautstärke des Kühlers sein allerdings gibt es bei den Custom Designs auch schon 3 Slot Kühler.....
 
TDP ist nicht gleich Stromverbrauch (Umwandlung), TDP = thermische Verlustleistung.
Auch nicht richtig. Mal schaun, ob ich es etwas besser hinbekomme.

TDP = Termal Design Power
War bei AMD die theoretisch maximal auftretende Wärmeenergie, also der Verbrauch bei dem alle Einheiten des Prozessors ihren maximalen Verbrauch haben. Praktisch war die auftretende Wärmemenge selbst bei Vollast geringer. Und diese abzuführende Wärme ist gleichzusetzen mit der verbrauchten elektrischen Leistung, da diese letztendlich in Wärme umgewandelt wird.
P = U * I grob gesagt. http://de.wikipedia.org/wiki/Elektrische_Leistung

Da Intel jedoch TDP anders definierte, nämlich als Verbrauch bei Vollast des Prozessors, konnte Intel bei gleichem praktischem Verbrauch eine geringere TDP für ihre Prozessoren angeben.
Daher führte AMD mit den Opterons die ACP ( Average CPU Power ) ein, die den Verbrauch der CPU bei einem bestimmten Bench angibt und damit dem realem maximalem Verbrauch der CPU nahe kommt.
http://www.amd.com/us/Documents/43761C_ACP_WP_EE.pdf

Also ACP < TDP Intel < TDP AMD.

In dem PDF ist ein schöner Vergleich mit einem Tachometer eines Autos angegeben.
Würde Intel und AMD Autos bauen die beide 100km/h schnell wären, hätte der Intel Wagen einen Tacho, der maximal 120 auf dem Zifferblatt hat, und AMD hätte maximal 160 auf dem Tacho angegeben.
Der ACP Tacheo hätte maximal 100km/h drauf und manchmal geht die Nadel auch kurz drüber hinaus.

Zudem gibt es dann noch die TDP Klassen.
Typisch für Desktop sind 45W, 65W, 95W, 100W, 125W, 150W
Jeder Prozessor verhält sich etwas anders und Verbraucht mehr oder weniger. Um das ganze etwas zu vereinfachen, werden die Prozessoren in diese Klassen unterteilt. Bei einem Prozessor mit 95W TDP Angabe kann der Prozessor irgendwas zwischen 65W TDP und 95W TDP haben. Real kann also ein 95W TDP Prozessor durchaus mit 60W Verbrauch unter Volllast auskommen.

Ich weiß nicht, ob die Hersteller ihre Definitionen die letzten Jahre geändert haben und daher aktuell diese Darstellung so nicht mehr gültig ist.
 
Diese Geschichte gibt es auch schon ewig. Aber ich habe auch (in den letzten Jahren) nie einen Test gesehen, wo ein Intel Prozessor - trotz "Powerviren" seine TDP überschritten hätte, oder AMD immer deutlich unter ihrer TDP geblieben wäre (bei Topmodelle) (auch bei Powerviren schalten ja nicht alle Transistoren).

TDP Intel < TDP AMD.

Also mag das vll. mal so gewesen sein, aber seit Bulldozer bzw. (All-Core-)Turbo-Core mit "Messung der tatsächlichen Leistungsaufnahme" gilt dies mMn nicht mehr.
 
Jupp seit BD gilt das nicht mehr. Da wird mit dem HPC Mode ja sogar die TDP wissentlich verletzt, um nicht runtertakten zu müssen.
 
@amdfanuwe

Was? Ich verstehe deinen Beitrag nicht, TDP ist nicht gleichzusetzen mit dem maximal anfallenden Energiebedarf!
"refers to the maximum amount of power the cooling system in a computer is required to dissipate" (P=CV²f)
 
@Zwen
Wie ich schon gesagt habe: Dann erklär' doch mal, was du denkst, wie es ist...
 
Jup, TDP, Termal Design Power, ist die Leistung, für die das Kühlsystem ausgelegt sein muß.
Früher war damit sichergestellt, dass ein Prozessor unter theoretisch maximaler Leistung nicht mehr Verbraucht. Wie Opteron anmerkt, nutzt AMD jetzt die Trägheit der Wärmeleitung aus und gestattet einen kurzfristigen höheren Verbrauch.
P = CV²f = UI = I²R = U²/R = ...
gilt alles nur für Spezialfälle.
Wenn wirs genauer wollen:
e84b07159e3324d6c0620512ff82061f.png


AMD definiert jetzt die TDP anscheinend über einen definierten Zeitraum wodurch ein kurzfristig höherer Verbrauch nicht zum überschreiten der TDP führen sollte. Meine auch gelesen zu haben, dass Intel auch kurzfristige Peaks hat. War mir dieser Sachen aber nicht sicher, weshalb ich es nicht erwähnte.
Wie bei der Microwelle: 5 sekunden 900W/h, 5 sekunden aus ergibt ein Wärmeäquivalent von 450W/h über 10 Sekunden.
 
von einer kurzfristigen Überschreitung der TDP kann im HPC-Modus (wenn er denn funktioniert, wie er soll) ja wohl nicht gesprochen werden. Da wird der P-state festgeklemmt egal wie viel die Kiste zieht. Erst wenn das Teil zu heiß wird, kommt es zu einer Drosselung.

Die Opterons mit einer "TDP" von 140 Watt können dann gut und gern 165 Watt reale Leistungsaufnahme haben.
 
Kann mir mal jemand verraten wie und von wem der HPC-Modus definiert ist?
Es gibt von AMD keine offiziell einsehbare Dokumentation dazu. Hier im Thread wurde ober schon die Präsentation von einer HPC-Konferenz (von Opteron) verlinkt, wo ein Angestellter von AMD darauf eingegangen ist.

Meine Anfrage dazu bei AMD läuft schon eine ganze Weile. Genauere Infos gab es bisher nicht.

http://www.youtube.com/watch?v=myIUMnRtPnM
http://www.hpcadvisorycouncil.com/events/2012/European-Workshop/Presentations/12_AMD.pdf
insbesonder Folie 19
 
Nur ist die TDP bei AMD-Grafikkarten eben nicht steigend, sondern fallend, bei steigender Leistung und weniger Energiebedarf.
Und auch aus diesem Grund kommen jene Grafikkarten so gut bei der Kundschaft an, weil... logisch?

Fallend? 5870, 6970, 7970 GE...der Verbrauch hat sich da in etwa verdoppelt, der Vorteil zu Fermi-Zeiten ist komplett dahin.

Was ich eigentlich meinte, unabhängig von Nvidia oder AMD:
Was Perf/W angeht, legen Grafikkarten seit Jahren mehr zu als CPUs. Nimm ein bestimmtes TDP-Budget und schau mal an, was in den letzten 10 Jahren die CPUs und die GPUs damit angestellt haben. Ist auch logisch, denn Grafikkarten sind eben immer noch spezialisierte Beschleuniger im Gegensatz zu CPUs.
 
Fallend? 5870, 6970, 7970 GE...der Verbrauch hat sich da in etwa verdoppelt, der Vorteil zu Fermi-Zeiten ist komplett dahin.

Was ich eigentlich meinte, unabhängig von Nvidia oder AMD:
Was Perf/W angeht, legen Grafikkarten seit Jahren mehr zu als CPUs. Nimm ein bestimmtes TDP-Budget und schau mal an, was in den letzten 10 Jahren die CPUs und die GPUs damit angestellt haben. Ist auch logisch, denn Grafikkarten sind eben immer noch spezialisierte Beschleuniger im Gegensatz zu CPUs.
Bei jedem Spiel das du aufgezählt hast Friert sich mein 8350 in den Tod .Aber ich ich bin voll wie ein Eimer und deswegen brennt das alte Fieber was mich glauben macht ,ich bin 18 Jahre alt.Und doof wie Stulle .*lol*
 
Es gibt von AMD keine offiziell einsehbare Dokumentation dazu. Hier im Thread wurde ober schon die Präsentation von einer HPC-Konferenz (von Opteron) verlinkt, wo ein Angestellter von AMD darauf eingegangen ist.

Meine Anfrage dazu bei AMD läuft schon eine ganze Weile. Genauere Infos gab es bisher nicht.

http://www.youtube.com/watch?v=myIUMnRtPnM
http://www.hpcadvisorycouncil.com/events/2012/European-Workshop/Presentations/12_AMD.pdf
insbesonder Folie 19
Hallo Dr,
auf der Developer Seite liegt was im Archive:
http://developer.amd.com/resources/archive/hpc-zone/

@Dresdenboy
Welchen "Power consumption graph" meinst du, den mit 2s Intervall? ???
 
Auf was genau beziehst Du Dich?
 
@Dresdenboy
Welchen "Power consumption graph" meinst du, den mit 2s Intervall? ???
Ich fand z.B. diesen hier interessant (mit zusätzlichem Stichwort "trinity", vorher ging es um mehrere CPUs):
x264-power-amd.gif


Die Trinities laufen bis zu einem Peak im Verbrauch hoch und ab da nur noch abwärts. Möglicherweise war entspr. der Konditionen noch ein P-State nutzbar, welcher danach gesperrt wurde (Hysterese).
 
Auf was genau beziehst Du Dich?
Auf die Frage von Markus, wie und wer den HPC Modus definiert hat.
Das müssen dann wohl die Entwickler von AMD geweßen sein.
Da es inzwischen im Archive gelandet ist, wird es wohl kein gutes Zeichen sein?
Umso merkwürdiger ist es, dass du keine Antwort auf deine Anfage bei AMD bekommst.

@Dresdenboy
Stimmt, woran kann das liegen? (ResonantClockMesh, varibaler CPU-GPU Turbo, dithering)

Ein interessanter Artikel, auch wenn er schon etwas älter ist: http://www.xbitlabs.com/articles/cases/display/system-wattage.html
 
Zurück
Oben Unten