Intel Ivy Bridge

Zuletzt bearbeitet:
Typisch TweakTown, auf deren Verbrauchstests würde ich nichts geben. Die fallen Intel-Seitig viel zu hoch aus. IdR verbraucht ein SandyB. System@Idle nicht mehr als 80Watt, je nach Board sogar nur 60-70Watt, aber keine 121Watt@Idle. Das gleiche sieht man dann bei IB wieder. Sieht mMn einer Benachteiligung aus.
 
Mach dich doch nicht lächerlich....

Das kostet natürlich ein wenig Zeit und es ruckelt ganz kurz, das wird dann wohl auch der Grund sein warum Spieler die Intel CPU übertakten und nicht mit standard Takt laufen lassen.
 
Der Verbrauchswert ist jeweils mit einer GTX 580.
CB testet mit dem gleichen Board und kleinerer dGPU (GT430), der Unterschied zu TweakTown mit GTX580 liegt bei 48Watt. Eine GTX580 verbraucht @Idle laut HT4U 30Watt, die GT430 ~10Watt, d.h 20Watt Unterschied. Wo kommen die knapp 30Watt Mehrverbrauch her?
 
@Opteron
Womit man sich wieder streiten kann was die TDP Angabe überhaupt aussagen soll.
Bezieht sie sich auf die nötige Leistung Kühlsystem muss man zwangsläufig die höhere Angabe nehmen, bezieht sie sich auf den "Heizwert" des Prozessors wäre es der kleinere Wert.
Ich tippe auf das Kühlsystem und es würde dann auch halbwegs erklären warum seibst beim SB die Angabe vegleichsweise hoch war. Je kleiner die zu kühlende Fläche, desto schwieriger wird es sie ausreichend zu kühlen. Da AMDs Prozessoren größer ausfallen kann sich die Wärme ganz einfach besser verteilen und an den Kühler abgegeben werden.

@Twodee
Schaut man sich den direkten Idle Verbrauchswert des Prozessors bei ht4u an dann wird einem sehr schnell klar das der System Verbrauchswert praktisch ausschließlich vom den sonstigen Komponenten des Testsystems abhängt.
Anderer Aufbau des Testsystems = anderer Systemverbrauch und somit kann man jeden direkten Vergleich zu Tests von anderen Seiten vergessen.
 
Das kann ich beim besten Willen nicht sagen, aber da Markus Everson ja die These aufgestellt hat, dass die Ivy's weit auseinander gehen könnten... von Sample zu Sample verweise ich auf ihn. xD


Nein, ich will Dir sagen das jede Annäherung oder gar Übereinstimmung der tatsächlich messbaren Leistungsaufnahme eines einzelnen Exemplares mit seiner TDP-Klasse lediglich Zufall ist.
 
@sompe
vergleich doch mal die Testsysteme, das einzige was mir auffällt, ist die GPU [aber das macht eben 20Watt aus] und das NT (der Rest ist gleich).
Einmal 300Watt 80+ bei CB vs. Corsair AX-200 bei TT [hat das Corsair Teil einen so schlechten WK in ~100Watt Region?], und warum soll das BD System damit weniger Verbrauchen?
 
Das Corsair AX-1200 ist ja nur ab 25% aufwärts (300 Watt) Gold zertifiziert, 98 Watt sind ~8,2%, da werden wird wohl ein paar Watt verloren gehen.
 
Erklärt aber nicht warum das beim AMD System nicht der Fall sein soll.
Das bei TT definitiv etwas nicht stimmt sieht man am Sandy-Idle Verbrauch 121Watt und IvyB-Verbrauch 98Watt. Beide System laufen auf der identischen Plattform, aber Sandy soll 23Watt@Idle mehr verbrauch. Fail^3
 
Es gibt bei stock-Verwendung kein Problem mit der Wärmeentwicklung/Abfuhr und auch nicht mit gemäßigtem OC.

Hab ja auch nicht geschrieben, dass ich es als Problem im Normalbetrieb ansehe, oder gar als kritisches Problem. Wie auch, Intel ist ja nicht dazu genötigt auch nur in die Nähe der Grenze des Prozesses zu gehen.

Rein technisch betrachtet ist es aber nun mal problematisch, wenn sich evtl. eine Kenngröße wie die Wärmeleitung deutlich anders darstellt. Und insofern wäre es eben interessant zu erfahren wo die Ursache liegt. Die höhere Wärmeentwicklung könnte ja auch einfach nur dem Umstand geschuldet sein, dass die Verlustleistung nicht so stark gesunken ist wie die DIE-Fläche, oder der höheren/geänderten Anzahl & Anordnung von Messpunkten, etc.pp.
 
Führt das letztendlich nicht die 77W TDP Angabe ad absurdum und die 95W Angabe wäre korrekt, da der Kühler entsprechend dimensioniert sein muss?

Die TDP Angabe kann sich nur auf die Heizleistung beziehen die vom Kühlsystem abtransportiert werden muss. Der CPU-Kühler ist dabei nicht identisch sondern - siehe Extrembeispiel Notebook - nur ein Teil des Kühlsystems.

Spannend wird zu beobachten sein welche Redaktion zuerst aus der Deckung heraus kommt und die (scheinbare oder tatsächliche) Diskrepanz zwischen angeblicher 77W und tatsächlicher 95W TDP anspricht.
 
Ich finde es schon mehr als merkwürdig, wie hier diskutiert wird. Eigentlich sollte es doch wohl um Intels Ivy Bridge gehen. Das Ding habe ich mir letzte Woche ganz normal im Computerladen geholt, samt Motherboard mit Z77. Zum NDA (mit Intel) bezüglich MB mit Z77 siehe die launige Bemerkung im Prozessorgeflüster c't 09/2012. Betr. CPU verkündet heute Intel, das am 29 (!).4.2012 Launch Date ist. Na was für ein Spaß! Also: Ich baue das System zusammen, mache einige Tests und veröffentliche die Ergebnisse hier und was passiert? Ihr haut hier euch eure (eigenen) Spekulationen um die Birne, ohne das offensichtlich jemand von euch eigene Tests gemacht hat :(.
Ich habe mein System mittlerweise auf 4.5GHz festgenagelt; es läuft absolut stabil und meine Programme gehen ab wie Schmidts berühmte Katze :).
In diesem Sinne
Helle
 
Schön :) - Gratuliere zum System *great* - Wie sieht dein Idle-Verbrauch beim 4.5Ghz-Setup aus? (und der Rest des Systems?)
 
Die TDP Angabe kann sich nur auf die Heizleistung beziehen die vom Kühlsystem abtransportiert werden muss. Der CPU-Kühler ist dabei nicht identisch sondern - siehe Extrembeispiel Notebook - nur ein Teil des Kühlsystems.

Spannend wird zu beobachten sein welche Redaktion zuerst aus der Deckung heraus kommt und die (scheinbare oder tatsächliche) Diskrepanz zwischen angeblicher 77W und tatsächlicher 95W TDP anspricht.

Es geht um die Desktop Prozessoren und da besteht das Kühlsystem der CPU Kühler.
Wenn der CPU Kühler stärker ausgelegt werden muss um die Temperaturdifferenz zwischen dem Prozessorgehäuse und der Luft zu verringern, da der Wärmeübergang innerhalb des Prozessorgehäuses schlechter ist, dann müsste die TDP dementsprechend weit aufgebohrt werden.

Genau dieses Problem meinte ich mit der Frage wonach sich die TDP Angabe nun richtet.
Die Hitzeerzeugung des Prozessors oder die nötige Leistung des Kühlsystems.
 
Ich habe mal den CPU-Multiplikator im BIOS auf Maximum gesetzt , aber per Asus-Tool auf 45 begrenzt. Dies ist eigentlich Unfug, erzeugt aber bei meinen Tests die maximale Leistungsaufnahme. Hier der Idle-Verbrauch; zum Vergleich dazu das Intel-Tool (Nach-Komma-Stellen habe ich mir in meinem Programm verkniffen :)):
Idle-Test.PNG

Resultat: Bei 4.5GHz ca. 2 Watt mehr im Idle als in der Basis-Einstellung .
 
Immerhin scheint der 24p Bug den es seit dem G45 gibt endlich gefixed zu sein:

http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/7/

Audio 24p-Wiedergabe

Die integrierte Grafikeinheit im Sandy-Bridge-Prozessor hat bei der Blu-ray-Wiedergabe mit einem störenden Problem zu kämpfen, wenn diese an einem 24p-tauglichen (24 Bilder pro Sekunde) Bildschirm, wie einen Fernseher, angeschlossen ist. Denn wenn das Video, wie bei allen Blu-ray-Filmen, mit 23,976 Bildern pro Sekunde abgespielt wird, zeigt die Sandy-Bridge-GPU weiter stur 24 Bilder pro Sekunde an, weswegen es alle 42 Sekunden zu einem Ruckler kommt, damit der Ton und das Bild wieder synchronisiert werden.

Dieses Phänomen gibt es auf der Graphics HD 2500 sowie Graphics HD 4000 auf Ivy Bridge nicht mehr. Dort kann die Grafikeinheit eine Blu-ray wie gewünscht mit 23,976 FPS abspielen, weswegen eine durchweg flüssige Wiedergabe möglich ist. Da uns derzeit leider kein 24p-Monitor zur Verfügung steht, können wir nicht selber überprüfen, ob der 24p-Modus nun einwandfrei läuft.

Ich hoffe auch in Zusammenhang mit den 6er Chipsätzen dann freu ich mich schon auf die 2 Kerner für den HTPC.
 
LOL, sehr kompetent diese Behauptung in der gleichzeitig steht sie können es mangels Bildschirm nicht überprüfen *lol*
 
Hi,

Auf Sandy @4,5GHz, Die Leistungsaufnahme steigt mit mehr Spannung sehr deutlich an bei Ivy. Ist aber mit 138Watt Gesamtsystem bei 4,5GHz wohl immer noch recht sparsam. Das Sandy Sys war bei 141Watt. bei HT4U ist aber irgendwie der wurm in der Tabelle da oben:



oder versteht das einer?

bzw zum OC sind sich alle einig bei 4,5GHz ist meistens schluss:

Quelle HT4U


Ich bin gerne bereit etwas via PN zu klären, allerdings nur im vernünftigen Ton! ;)


Die Spannungswerte in der Tabelle stimmen nicht bei default.
Warum schreiben die eigentlich "default" ist ihnen das Wort "standard" nicht geläufig?
Das sind mir erhlich gesagt zu wenig Infos z.B. womit wurde die CPU ausgelastet.
Da warte ich besser auf user Reviews auch wenn die manchmal unverschämt sind!
Die CPU selbst interessiert mich zwar weniger, jedoch würde ich gern wissen ob sie wieder die +5V & 3V angezapft haben. :P

MfG

Ich verweise gerne nochmal auf unser Forum. Wenn ihr Fragen habt, sollte dies die Anlaufstelle Nummer 1 sein, bevor ihr wild anfangt zu spekulieren.

Grüße
Fabian

P.S Ja Intel hat wieder die 5 und 3,3 Volt-Leitung angezapft. Mal schauen, was wir da machen können...
 
Wird sich denke ich noch genauer klären - sind noch keine 24std nach dem Launch.
 

Alles klar, danke. Der prozentuale Unterschied zwischen DIE-Größen und Verlustleistung konnte den Temperaturzuwachs in meinen Augen nicht vollständig erklären, da beseitigt der Umstand von WLP statt gelötetem Heatspreader diese Unklarheit.

Dann ist die Vermutung mancher Webseiten, es könnte an der Bauart der 3D-Transistoren liegen, widerlegt und kann ad acta gelegt werden.
 
Ist IvyBridge weitgehend nur ein Shrik (grob gesehen!), dann wäre sein Die bei weitgehend gleichem Inhalt kleiner. Darf die Betriebstemperatur nicht wesentlich höher ausfallen, müsste die TDP entsprechend der kleineren Diesize (=Abstrahlungs/Wärmeableitfläche) zwangsläufig geringer werden. Schrumpft sie nicht entsprechend mit, liegt die Wärmestrombelastung im jeweiligen Die-Punkt höher als vorher. Schon alleine daher muss die max-TDP bei Ivy niedriger liegen. Nimmt die Effizienz von Ivy nicht entsprechend dem Die-Shrink zu, hätte Ivy am Ende gar Probleme an die Leistung von SB zu kommen...rein theoretisch.
 
Zurück
Oben Unten