Der Prescott und seine Verlustleistung

Mitglied seit
12.08.2003
Beiträge
31
Renomée
0
Nabend!

Einmal danke dafür, das Du dich hier den ganzen Fragen von uns stellst, ich hätte da auch noch eine, wobei ich denke, dass vielen usern diese Frage sicherlich sehr interessieren würde.

Es sickerte in den letzten Wochen, insbesondere vorm Athlon 64 Launch von AMD, viele Gerüchte durch, das der Prescott CPU ein wahrlicher Stromfresser ist, da er eine erhebliche Verlustleistung fährt. Auch die Empfehlung, afaik, von Intel, auf einen neuen Gehäuse Standard, in dem Fall BTX, umzuschwenken um die CPU besser kühlen zu können, geben der Frage noch genügend Nahrung, ob der Prescott ein wahrer Stromfresser ist.

Nun wollte ich Dich fragen, ob da was dran ist und wenn ja, wie Intel gedenkt, dieses Problem in den Griff zu bekommen, denn man kann sicherlich nicht von seinen Benutzern erwarten Vollkupferkühler nebst 550W Netzteilen (Achtung Ironie) einzusetzen, damit der Prescott stabil läuft :D

V.a. wenn man das mit den nun kommenden CPUs von AMD vergleicht, die meinen Informationsstand nach lediglich 60-80W Verlustleistung fahren sollen, wobei man ja noch die Northbridge mit einrechnen muss, die ja praktisch On-DIE ist, ist der aktuelle Stromverbrauch eines Pentium 4 doch sehr enorm, bei praktisch identischer Leistung.

In dem Sinne, vielen Dak fürs ggf. beantworten der Fragen :)

Schakal
 
Hallo Schakal,

Intel hat ja die Gerüchte um die Prescott TDP bislang weder bestätigt, noch dementiert...

Aber die Anstrengungen um den neuen Formfaktor BTX sind schon deutlich länger am Laufen und BTX ist ja nicht wegen des Prescott Prozessors ins Leben gerufen worden.
Das ist ein neuer Formfaktor für PCs, der neue Designs ermöglichen soll, vor allem die neuen Möglichkeiten von PCI-Express unterstützt und insgesamt die Kühlung eines Desktops verbessern soll (Einbeziehung des Gehäuses in das Gesamtkühlungskonzept).

Selbst Verlustleistungen über 100 Watt sind in den Griff zu bekommen - bei Servern ist das durchaus eine übliche Verlustleistung (pro CPU) und die stecken sogar in sehr dünnen Gehäusen (1U Pizzabox-Server).
Was man auch nicht vergessen sollte, dass TDP alleine nicht die einzig ausschlaggebende Größe ist. Es wird da immer wieder vernachlässigt, dass andere Größen (Tcase, Tambient, etc.) eine mindestens ebenso wichtige Rolle spielen.
Und obendrein sind TDPs verschiedener Hersteller auch nicht unbedingt vergleichbar, da verschiedene Hersteller auch verschiedene Methoden zur Ermittlung der TDP verwenden...

Christian
 
Original geschrieben von Christian Anderka
Selbst Verlustleistungen über 100 Watt sind in den Griff zu bekommen - bei Servern ist das durchaus eine übliche Verlustleistung (pro CPU) und die stecken sogar in sehr dünnen Gehäusen (1U Pizzabox-Server).
Was man auch nicht vergessen sollte, dass TDP alleine nicht die einzig ausschlaggebende Größe ist. Es wird da immer wieder vernachlässigt, dass andere Größen (Tcase, Tambient, etc.) eine mindestens ebenso wichtige Rolle spielen.
Und obendrein sind TDPs verschiedener Hersteller auch nicht unbedingt vergleichbar, da verschiedene Hersteller auch verschiedene Methoden zur Ermittlung der TDP verwenden...

Danke erstmal für die ausführliche Antwort deinerseits, nur irgendwie bleibt da in einem Punkt für mich noch eine Frage offen ;D

Du sagst zwar, das 100W pro CPU keine Seltenheit sind (stimmt ja auch, nen Xeon und die anlaufende Extreme Edition von Intel wird ebenfalls in diesem Rahmen spielen), nur ich persönlich frage mich dann, ob das das Ziel von intel sein kann. Denn, jetzt rein spekulativ, stellen wir uns mal vor, ich wäre ein Betreiber einer Server Farm. Da überlege ich mir als Firmenchef doch schon, ob ich auf die bewährten, und schnelleren Xeons, oder auf ein Konkurrenzprodukt von AMD setze. Denn, auch wenn die TDP sehr "offen" ermittelt wird, so setzt sich ein "mehr" der TDP auf der Stromrechnung fort. Und da würde ich mich, als Server Farm Betreiber, doch fragen, ob es nicht lohnt, bei beinahe identischer Leistung und weniger Stromverbrauch, auf ein Konkurrenzprodukt von AMD zu setzen. Ich weiß, das ist doch sehr spekulativ, dennoch möchte ich gerne diese These in den Raum werfen und bin v.a. gespannt, was Du dazu sagst.

In dem Sinne

Schakal
 
Nun das Argument der Server ist für mich ja nicht gerade durchschlagend.
Wenn man schonmal in einem wirklich grossen Serverraum gestanden hat welcher selbstverstaendlich ueber eine Klimaanlage verfuegt, die den Raum das ganze Jahr auf für die Rechner mehr als angenehmen Temperaturen haelt, ist man doch verwundert wie laut die Server immer noch sind.

Meiner Meinung nach sollte Intel mit seinen Notebook-Produkten auch den Desktopmarkt versorgen, es gaebe sicherlich genuegend Abnehmer auch wenn die Produkte etwas teuerer waeren. (z.B. mich ;) )
 
Nun, es ist sicher nicht Intels primäres Ziel die TDP nach oben zu schrauben :]

Aber solange es eine recht rege Nachfrage nach leistungsstarken CPUs gibt und dabei weniger Augenmerk auf die Wärmeabgabe gelegt wird, wird es von Intel schnelle CPUs geben, die bei Wärmeabgabe eher am oberen Rand des akzeptablen liegen werden...

Betreiber von Server-Farmen achten durchaus auch auf die Leistungsaufnahme der einzelnen Server. Da gibt es von Intel sehr sehr wettbewerbsfähige Lösungen, etwa Xeon Low Voltage oder Pentium M im Server, oder unsere neuen Blade-Server...
Aber TDP oder Leistungsaufnahme beim Server ist ja nicht das einzige Entscheidungskriterium. Unsere Server-Angebote sind - ganzheitlich betrachtet - der Konkurrenz deutlich überlegen. Das zeigt nicht zuletzt auch unser Marktanteil im Segment der Front-end-Server...

Gruß,

Christian


Original geschrieben von HLkH|DerSchakal
Danke erstmal für die ausführliche Antwort deinerseits, nur irgendwie bleibt da in einem Punkt für mich noch eine Frage offen ;D

Du sagst zwar, das 100W pro CPU keine Seltenheit sind (stimmt ja auch, nen Xeon und die anlaufende Extreme Edition von Intel wird ebenfalls in diesem Rahmen spielen), nur ich persönlich frage mich dann, ob das das Ziel von intel sein kann. Denn, jetzt rein spekulativ, stellen wir uns mal vor, ich wäre ein Betreiber einer Server Farm. Da überlege ich mir als Firmenchef doch schon, ob ich auf die bewährten, und schnelleren Xeons, oder auf ein Konkurrenzprodukt von AMD setze. Denn, auch wenn die TDP sehr "offen" ermittelt wird, so setzt sich ein "mehr" der TDP auf der Stromrechnung fort. Und da würde ich mich, als Server Farm Betreiber, doch fragen, ob es nicht lohnt, bei beinahe identischer Leistung und weniger Stromverbrauch, auf ein Konkurrenzprodukt von AMD zu setzen. Ich weiß, das ist doch sehr spekulativ, dennoch möchte ich gerne diese These in den Raum werfen und bin v.a. gespannt, was Du dazu sagst.

In dem Sinne

Schakal
 
Ja, der Nachteil der Server-Lüftungen ist sicher deren Lautstärke. Das liegt aber im wesentlichen daran, dass es einfach egal ist (zumindest weniger wichtig), wie laut ein Server in einem Serverraum ist. Und deshalb macht man sich weniger Mühe die Dinger leise zu kriegen.

Es steht jedem frei unsere Notebook-Produkte auch in einem Desktop zu verkaufen. Aber da scheinen mir dann die Leute lieber gleich das Notebook zu kaufen...

Viele Grüße,

Christian


Original geschrieben von Leisetreter
Nun das Argument der Server ist für mich ja nicht gerade durchschlagend.
Wenn man schonmal in einem wirklich grossen Serverraum gestanden hat welcher selbstverstaendlich ueber eine Klimaanlage verfuegt, die den Raum das ganze Jahr auf für die Rechner mehr als angenehmen Temperaturen haelt, ist man doch verwundert wie laut die Server immer noch sind.

Meiner Meinung nach sollte Intel mit seinen Notebook-Produkten auch den Desktopmarkt versorgen, es gaebe sicherlich genuegend Abnehmer auch wenn die Produkte etwas teuerer waeren. (z.B. mich ;) )
 
Zurück
Oben Unten