Energieverbrauch im Blick

mtb][sledgehammer

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.375
Renomée
30
Standort
Alphaquadrant der Milchstraße, Erde (kleiner blaue
Insbesondere seit der Einführung des Pentium 4 Prescott wird dem Energieverbrauch von Desktop Prozessoren besondere Aufmerksamkeit geschenkt. Eigentlich hatte man vom Prescott aufgrund des gegenüber dem Pentium 4 Northwood deutlich moderneren Fertigungsprozesses Fortschritte auf diesem Gebiet erwartet. Doch trotz Fertigung mit 90 nm Strukturen (statt bis dahin 130 nm) und dem Einsatz von mithilfe von Germanium gestrecktem Silizium, stieg der Energieverbauch gegenüber dem Vorgängerchip deutlich an, sodass auch befürchtet wurde, dem Athlon 64 könnte beim Umstieg auf die 90 nm Fertigung das Selbe widerfahren.

Da nun erste 90 nm Athlon 64 Chips im Umlauf sind, hat <a href="http://techreport.com/onearticle.x/7417" target="b">The Tech Report</a> nun versucht diese Frage zu klären. Im Test waren ein Athlon 64 3500+ im 130 nm Prozess, das selbe Modell im 90 nm Prozess und der Pentium 4 E 3,4 GHz (Prescott, 90 nm). Gemessen wurde der Energieverbrauch des kompletten Systems - was letztendlich für den Kunden auch das Interessanteste ist - bei selbstverständlich bis auf Prozessor und Mainboard identischen Systemkomponenten in vier verschiedenen Anwendungsfällen.

Das Ergebnis fällt dann recht eindeutig aus. Verglichen mit dem Athlon 64 im 130 nm Prozess genehmigt sich das Pentium 4 System zwischen 20 und 57W mehr, während beim 90 nm Athlon 64 das Bild genau andersherum aussieht: dieser ist zwischen 19 und 29 W sparsamer als sein Vorgänger. Beim Vergleich der beiden 90 nm Chips verbraucht das Pentium 4 System sogar bis zu 55 % mehr als das neue Athlon 64 System. Zu erwähnen ist hier noch, dass bei den beiden Athlon 64 Systemen die Stromsparfunktion Cool'n'Quiet deaktiviert war, welche insbeondere im Idle Betrieb die Athlon 64 Chips in einem noch besseren Licht präsentiert hätte.
 
Zuletzt bearbeitet:
Na das ist doch mal ein eindeutiges Ergebnis. AMD scheint den 90nm Prozess im Vergleich zu Intel gut im Griff zu haben... es könnte natürlich auch am Desing liegen ;D.
 
Richtig, aber letztendlich zählt doch was man reinsteckt und was rauskommt. Und da ist der Trend klar. Der Athlon 64 wurde sparsamer. Der Pentium 4 wurde langsamer und weniger sparsam.
 
Ich sage ja schon die ganze Zeit bei AMD haut 90nm wegen SOI hin und es wird nicht dasselbe, wie beim Prescott passieren ;D
Der eine Report von den Chinesen war anscheinend wirklich nicht ausschlaggebend.
 
Naja die Abwärme wird steigen bedingt durch die geringere DIE Größe. Denn es wird mehr Wärme pro Fläche abgegeben als beim 130nm Athlon. Das Gute: Der Energieverbrauch sinkt trotzdem spürbar :D.

Jetzt fehlt nur noch der Dualcore mit C&Q und Dualchannel, dann gehts ab 8) .
 
der 90nm prozess von intel ist auch nicht wirklcih "schlecht" sie haben einfach zu viele transistoren im vergleich zum northwood mit raufgepackt ... hätten sie ihn einfach geshrinkt wär auch der verbracuh runtergegangen (warum sie das nicht gemacht haben ka ?)
fakt ist das amd da im moment jedoch ncoh besser dasteht :) 90nm + SOI bei gleichbleibender transistoranzahl .. was habt ihr erwartet *G*
 
Original geschrieben von corsair
Naja die Abwärme wird steigen bedingt durch die geringere DIE Größe. Denn es wird mehr Wärme pro Fläche abgegeben als beim 130nm Athlon. Das Gute: Der Energieverbrauch sinkt trotzdem spürbar :D.

Nein die Abwärme sinkt auch... nur die Temperaturen steigen, aufgrund der kleineren Fläche, da die Abwärme schlechter abgeführt werden kann...
 
Grosses Lob an AMD. Ich denke in der heutigen Zeit ist es wirklich angebracht auch diesen aspekt eines CPUs hervorzuheben. Mit der CnQ funktion ist er dann wirklich unschlagbar sparsam.
Da ueberlegt man sich schon ob man sich ein teures System holt, welches auf dauer noch teurer kommt, da es zu viel strom frisst. Oder sich nicht ein gutes preiswertes CnQ untetstuetzendes AMD Sytem kauft was auf dauer die Stromrechnung schont.

weiter so AMD

vlg
Parqer
 
Original geschrieben von Parqer
Grosses Lob an AMD. Ich denke in der heutigen Zeit ist es wirklich angebracht auch diesen aspekt eines CPUs hervorzuheben. Mit der CnQ funktion ist er dann wirklich unschlagbar sparsam.
Da ueberlegt man sich schon ob man sich ein teures System holt, welches auf dauer noch teurer kommt, da es zu viel strom frisst. Oder sich nicht ein gutes preiswertes CnQ untetstuetzendes AMD Sytem kauft was auf dauer die Stromrechnung schont.

weiter so AMD

vlg
Parqer

also ob man den CPU über die Strom rechung wieder rein bekommt beschweifel ich ganz stark! :-*
 
Original geschrieben von Relic
Nein die Abwärme sinkt auch... nur die Temperaturen steigen, aufgrund der kleineren Fläche, da die Abwärme schlechter abgeführt werden kann...

...Abwarten
Mit nem guten Kupferkühler sollten auch die Temperaturen sinken

von FunnyNick
also ob man den CPU über die Strom rechung wieder rein bekommt beschweifel ich ganz stark!

Hast du was verpeilt? Jedenfalls ist ein a64-system in der Regel um einiges billiger als ein p4-sys. Durch den geringeren Stromverbrauch spart man doppelt ;D
 
Zuletzt bearbeitet:
*proll mode on*

"Ej, wer sagt hier, die Athlons hätten so viel Abwärme!
Hä? Paar auf´s Maul?!"

*proll mode off*


Nunja, ich hoffe nun, dass endlich das Vorurteil, die Athlons hätten so viel Abwärme im Vergleich zu dem P4, verschwindet.

Wobei, wenn es verschwindet, wäre es ein STEREOTYP, dass die P4´s sparsamer sind/waren. *mit meinem in Deutsch neu erlernten Wissen proll*





Original geschrieben von corsair
Naja die Abwärme wird steigen bedingt durch die geringere DIE Größe. Denn es wird mehr Wärme pro Fläche abgegeben als beim 130nm Athlon. Das Gute: Der Energieverbrauch sinkt trotzdem spürbar :D.

Jetzt fehlt nur noch der Dualcore mit C&Q und Dualchannel, dann gehts ab 8) .


2. Quartal 2005
*freu*
 
Ich denke nicht dass die 90er teuerer werden, denn so bekommt amd mehr proz aus dem gleichen waver, also am anfang sin die vielleicht schon teuerer, aber wenn die dann erst mal fächendeckend verfügbar sind sind die bestimmt net teuerer

Gruß
 
Original geschrieben von rincewind
...Abwarten
Mit nem guten Kupferkühler sollten auch die Temperaturen sinken

hmm die fläche wird um 30% kleiner ab die abwärme sinkt nur um max. 20%... merkst du was? das muss wärmer werden...
 
50% mehrverbauch bei intel. rechner dir aus was so der rechner an strom pro jahr verbraucht und was es kostet.
hab mal bei mir geguckt, bei täglich 8 std sind das bei 150 watt ca. 200&#8364; im jahr.
 
Original geschrieben von FunnyNick
son protzi kosten bestimmt dann ca. 600€ und hol das mal wieder rein mit deiner strom rechung!! in der zeit haste bestimmt wieder ein neuen CPU!! zugelegt *buck*

PS: http://www.nethands.de/pys/show.php4?user=FunnyNick

Die 3000+ werden mit 90nm so um die 200Euro kosten wenn nicht sogar weniger. Der FX oder 3800+ wird natürlich viel kosten, aber davon ist ja nicht die Rede. Ein Intel System verbraucht unter Vollast (mit 2 oder 3 l?) 85 Watt mehr. Wenn man für diverse Distributed Computing Projekt rechnet, dann läuft der Rechner auch 24 Stunden am Tag. Eine kWh kostet ca. 15Cent. Das macht 0,085 * 0,15 = 0,01275 * 24 = 0,306 * 365,25 = 111,7665 Euro/Jahr. Wenn man die CPU 2 Jahre behält macht das 223,53 Euro, was schon eine Rolle spielt. Das heißt die CPU von Intel muss über 200 Euro billiger sein. Das ist ca. der Unterschied zwischen einem 3400+ und einem Celeron. Welchen würdest du denn da nehmen?
 
Hail AMD!
Die Pro AMD news häufen sich ja in letzter Zeit :)

hmm die fläche wird um 30% kleiner ab die abwärme sinkt nur um max. 20%... merkst du was? das muss wärmer werden...
der Vergleich ist meiner Meinung nach nicht wirklich aussagekräftig, da der Zusammenhang Fläche - Temperatur (bei gleicher Abwärme) Linear sein müsste. (glaub :) )
 
Original geschrieben von Relic
hmm die fläche wird um 30% kleiner ab die abwärme sinkt nur um max. 20%... merkst du was? das muss wärmer werden...

Schon, aber seitdem auch AMD einen "IHS" (Integrated Head Spreader bzw. Kantenschutz) hat (der gleich groß geblieben ist), ist das doch wurscht. ;)
 
Schön für AMD im Moment scheinen Sie immer weiter davon zu ziehen. Dass INTeL da nicht mal langsam was Besseres nachschiebt verwundert mich doch. Die sollten doch inzwischen dank mehr Erfahrung und neuer Stepping & Co auch etwas mehr mit dem Prescott anfangen können, wenn der Nachfolger denn nun noch nicht reif ist...
 
Zum Thema Abwärme und Temperatur:

1.) Die Fläche wird nicht um 30% reduziert, sondern um über die Hälfte. Man muss das nämlich quadrieren also (90/130)^2 ;D

2.) Die Kerntemperatur ist zwar trotz Heatspreader bei gleicher Abwärme (= Energieverbrauch in Watt) höher, aber nicht doppelt so hoch. Dieser Effekt ist zwar vorhanden, aber man kann nicht einfach Watt/mm² rechnen, denn das berücksichtigt nicht den Heatspreader, als auch den Kühlkörper, denn bei einer geringeren Abwärme erhitzt sich ja auch der Kühlkörper nicht so stark egal wie groß die DIE-Fläche ist.
 
Original geschrieben von andr_gin
Die 3000+ werden mit 90nm so um die 200Euro kosten wenn nicht sogar weniger. Der FX oder 3800+ wird natürlich viel kosten, aber davon ist ja nicht die Rede. Ein Intel System verbraucht unter Vollast (mit 2 oder 3 l?) 85 Watt mehr. Wenn man für diverse Distributed Computing Projekt rechnet, dann läuft der Rechner auch 24 Stunden am Tag. Eine kWh kostet ca. 15Cent. Das macht 0,085 * 0,15 = 0,01275 * 24 = 0,306 * 365,25 = 111,7665 Euro/Jahr. Wenn man die CPU 2 Jahre behält macht das 223,53 Euro, was schon eine Rolle spielt. Das heißt die CPU von Intel muss über 200 Euro billiger sein. Das ist ca. der Unterschied zwischen einem 3400+ und einem Celeron. Welchen würdest du denn da nehmen?

dann stell ich mal die frage wer von euch behält den ein CPU 2 jahre lang? *Ich net*
 
Original geschrieben von andr_gin
Zum Thema Abwärme und Temperatur:

1.) Die Fläche wird nicht um 30% reduziert, sondern um über die Hälfte. Man muss das nämlich quadrieren also (90/130)^2 ;D

2.) Die Kerntemperatur ist zwar trotz Heatspreader bei gleicher Abwärme (= Energieverbrauch in Watt) höher, aber nicht doppelt so hoch. Dieser Effekt ist zwar vorhanden, aber man kann nicht einfach Watt/mm² rechnen, denn das berücksichtigt nicht den Heatspreader, als auch den Kühlkörper, denn bei einer geringeren Abwärme erhitzt sich ja auch der Kühlkörper nicht so stark egal wie groß die DIE-Fläche ist.

Na es ist schon ungefähr das doppelte, allerdings nicht einfach °C*2 sondern Temp. Differenz *2. Also wenn der 130nm A64 auf 50°C Kerntemp läuft, dann läuft die 90nm Version so ungefähr auf (50°C-20°C)*2*0.8+20°C=68°C.
Nach dem IHS macht die DIE-Größe keinen Unterschied mehr, aber davor schon - also die Wärme wird vom DIE schlechter an den IHS abgegeben.
Ich denke mal, dass AMD am IHS auch etwas rumändert und dadurch den Wärmeübergang wieder verbessert (möglich wäre zB. eine Kupferunterseite mit ordentlicher WLP und einem leicht höheren Anpressdruck).

Eine geringere wärmeerzeugende Fläche hat allgemein erstmal keinen Einfluss auf die Wärme die der Kükö abgibt - die Temp. Differenz zwischen der wärmeerzeugenden Fläche und dem Kükö steigt erbarmungslos solange an, bis der Kükö die gesamte produzierte Wärme aufnimmt.
Die geringere Wärmeproduktion dagegen skaliert das ganze einfach linear.

In der Rechnung taucht aber ein grober Fehler auf (fällt mir gerade so ins Auge) - im Gehäuse sind es über 20°C. Nehmen wir mal 32.5°C in der Umgebung des CPU Sockels an, dann macht das

(50°C-32.5°C)*2*0.8+32.5°C=60.5°C

was doch gleich viel humaner klingt (was Rechenfehler nicht so alles bewirken können *buck*).
 
mal ne frage

wie hoch ist denn der energieverbrauch eines solchen systems wenn es idle ist und CnQ aktiviert ist?
 
Original geschrieben von FunnyNick
dann stell ich mal die frage wer von euch behält den ein CPU 2 jahre lang? *Ich net*

Ich behalte immer gleich den ganzen Rechner, CPU inklusive. So entsteht dann halt ganz nebenbei eine Oldtimersammlung.
*
Aber die Berichte und Preise klingen gut. Nur leider ist für April 2005 erstmal wieder ein neues Notebook dran und das kommt dann vermutlich doch wieder mit intel-Technik.
 
Zurück
Oben Unten