AMD "Shanghai" bis zu 35 Prozent schneller und 30 Prozent sparsamer?

..In der tat wird auf diese Seite ne andere Sprache gesprochen.
Hmmm....scheint nicht deutsch zu sein. ;D :P

Naja...mal abwarten was sie rausbringen...

Vielen Dank für diesen Hinweis. Wie ehedem am Vorabend des Barcelona-Start. Viel Wirbel um letztlich nichtssagende Werte. Wenn sich 'Shanghai' gegenüber 'Barcelona' um 35% verbessert hat, ist das sensationell. Ist die Leistung aber 35% im Vergleich zu einem gleichgetakteten K8 gesteigert, dann ist das eher bedauerlich (aber genau diese Rechnung machte AMD bei Einführung des K10, der ja eigentlich K8L heißen sollte).
 
der ja eigentlich K8L heißen sollte
Nein, das stimmt so nicht. Das war auf ein Missverständis zurückzuführen.

Der K8L war von Anfang an der Turion 64. Das L steht schlicht und einfach für Low Power.

Strittig ist, was der K9 ist. Manche sagen das ist der DualCore K8. Andere sagen das ist ein eingestelltes AMD Projekt.
 
gruffi schrieb:
Nein. Zumal mir solche Aussagen auch nicht bekannt sind. Und was genau das mit dem Thema zu tun hat, ist mir ebenfalls unklar. Kann es sein, dass dir irgendwie langweilig ist und du ein bisschen trollen willst? :]


Keine Ahnung was mit Deinem Gedächtnis passiert ist, die Aussagen gab es tatsächlich. Und an sie zu erinnern passt durchaus zum Thema, denn "wer einmal lügt...". Aber das war seinerzeit natürlich nicht gelogen, es waren nur ganz spezielle Tests gemeint die mit der erlebbaren Realität so viel am Hut haben wie das Gebräu einer Nutrimatic mir Tee. Wenn man das weiß könnte man auf die Idee kommen dass AMD die gleiche Lüg^dwVergleichsmethode wiederholt hat und auch diesmal die Vorteile nicht beim "normalen" Kunden ankommen.
.
EDIT :
.

gruffi schrieb:
Welche Fakten denn? Ich kann keine sehen.]

Wenn Du auf der 1000er Körnung für den Zucker-Einlauf bestehst... bitte sehr

http://news.cnet.com/AMD Go to Barcelona over Clovertown/2100-1006_3-6152645.html

"We expect across a wide variety of workloads for Barcelona to outperform Clovertown by 40 percent," [Randy] Allen said."
 
Keine Ahnung was mit Deinem Gedächtnis passiert ist, die Aussagen gab es tatsächlich. Und an sie zu erinnern passt durchaus zum Thema, denn "wer einmal lügt...". Aber das war seinerzeit natürlich nicht gelogen, es waren nur ganz spezielle Tests gemeint die mit der erlebbaren Realität so viel am Hut haben wie das Gebräu einer Nutrimatic mir Tee. Wenn man das weiß könnte man auf die Idee kommen dass AMD die gleiche Lüg^dwVergleichsmethode wiederholt hat und auch diesmal die Vorteile nicht beim "normalen" Kunden ankommen.

Man muß hier nur einmal die Suchfunktion bemühen, es hagelt nur so von Artikeln mit entsprechenden Kommentaren aus offiziellen Quellen mit entsprechenden Links! Da ich noch im November vor einem Jahr mit Kollegen 'Stammtischdiskussionen' über AMDs 'Neue' und Vergleiche zu Intels 'Neuen' führte, habe ich im Januar auch dann mal versucht all das vermeintliche Lügengebäude wieder aus dem Sumpf zu heben, das sich um und mit AMD nach dem Desaster der K10-Einführung ergab. AMD sprach von bis zu 40% Leistungssteigerung und im Schnitt ca. 25% Mehrleistung - nur im Vergleich zu was blieb man der Öffentlichkeit schuldig! Und bei gleichem Takt war ein K10 ja auch wirklich bis zu 40% schneller als ein K8, nur weiß ich jetzt nicht mehr genau, ob es je per Core oder K8 2Kerne gegen K10 4 Kerne ging. Heute erinnert man sich ungerne daran, auch die Suche nach den entsprechenden Pressetexten ist beschwerlich. Der K10 war lange angekündigt und AMD blieb der Fachwelt Testmuster und Benchmarks schuldig, als die ersten C2D-CPUs als Muster auftauchten und für Furore sorgten.
Die Details sind nur noch marginal wichtig, Tatsache ist, daß AMD sowohl den kleinen Freak auf der Straße (um den es letztlich weniger geht) als auch die Investoren und Aktienhalter getäuscht bzw. hingehalten hatte. Ob der TLB-Bug dann noch eine unglückliche Koinzidenz oder aber eine Folge der Hast war, bleibt ein geheimnis, Faktum ist, daß der Bug gerade im Serverbereich für eine so große Verzögerung sorgte, daß Kunden zu Intel wechselten, als die Gunst der Stunde günstig war. Wenn dieses Desaster nur ein kleines Desaster gewesen wäre, hätte die Aktie nicht dermaßen heftig nachgelassen, Investoren sind ja nicht gerade dumme Leute.

Amd hat sich auf den Erbschaften aus den Alpha-Resten (EV6) und der 64Bit Erweiterung zu lange ausgeruht. Entweder war man im management zu blöd zu erkennen, daß die Konkurrenz fieberhaft an Neuerungen arbeitet und hat verschlafen, oder AMD hat einfach aus der Situation das Beste gemacht, weil mehr aus dem Unternehmen nicht herauszuholen war. Noch im vergangenen Jahr las man, daß AMD sich mit einer kleinen kalifornische Firma verbandelt hätte, die sich auf Hochleistungsgleitkommarechenwerke spezialisiert hatte und im vergangenen Jahr las man auch, daß ein 'führendes Mitglied' der Itanium-Designertruppe zu AMD wechselte (ob die Person noch immer bei AMD designt?).
Wenigstens sieht es im Bereich der Graphikkartenhardware besser aus, auch wenn ich hier eher an einen Erfolg der ATI-Ingenieure glaube und nicht der AMD-Mannen.
 
Also ich wäre ja schon froh, wenn einerseits die Fertigungstechnik Früchte bringt (d.h. mehr Takt und weniger Wärme) und andererseits die Ungereimtheiten in der Performance beseitigt werden, damit meine ich z.B. den inakzeptablen Leistungseinbruch bei CnQ, aber auch das auffällig schlechte Skalieren bei manchen Workloads (wogegen andere sehr gut skalieren).

Ob die simple Verdreifachung des L3 das beseitigt, glaube ich eher nicht, die werden also auch eine Detailverbesserungen vorgenommen haben müssen, wenn es ein guter Prozessor werden soll.

Insofern werden mich intensive Vergleichstests mit Barcelona, die bestimmte Teilaspekte der Architekturverbesserungen beleuchten, wesentlich mehr interessieren als das übliche 3D-Mark-Durchgeleier und sonstige Offensichtlichkeiten ("Core i7 965@4GHz ist dreimal so schnell" oder ähnlicher Stuß). Ich nehme mal an, der zu erwartende P3D-Artikel wird genau in die richtige Richtung gehen *mitzaunpfahlwink* ;)
 
Aiaiai...langsam wird mir das zu heiß mit den vollmundigen Ansagen :-X

Hoffen wir, dass mit "bis zu 35% schneller" und "bis zu 30% sparsamer" keine Randbedingung-Tests gemeint sind und der "realistische" Durchschnitt dann doch weitaus niedriger liegt...

diese "und" bedeutet vermutlich nicht "zugleicht", sondern eher "bzw.", also:

mit bis zu 35% schneller bzw. 30% sparsamer; beides gleichzeitig (eben "und") ist doch ein wenig utopisch...
 
Einfach Abwarten und Tee trinken. Solche Meldungen sind doch nur da um die Kunden bei der Stange zu halten. Nicht mehr und nicht weniger.
 
Oha, d.h. in ssj_ops/Watt kommt der neue Shanghai in 2-CPU-Systemen nicht mal an den derzeitigen Harpertown ran *kopfkratz
Dafür erzielt es im Vergleich zum Spitzenreiter einen höheren Datendurchsatz und jener ist (wenn auch nur geringfügig) spärlicher bestückt, was ein paar Watt einspart.

Siehe: http://www.spec.org/power_ssj2008/results/res2008q4/power_ssj2008-20081007-00086.html

Und man darf auch nicht vergessen, dass dort die Crème de la Crème der energieeffizierten Server antritt. Da ist ein Platz in den vorderen Rängen nicht schlecht.
 
Zuletzt bearbeitet:
Oha, d.h. in ssj_ops/Watt kommt der neue Shanghai in 2-CPU-Systemen nicht mal an den derzeitigen Harpertown ran *kopfkratz
Na "rankommen" ist schon drin, ist nur "knapp":
Mit dem 500-Watt-Netzteil kommt das AMD-Testsystem übrigens auf 826 ssj_ops/Watt – auch kein schlechter Wert, aber eben knapp hinter dem bisher (laut SPECPower-Benchmark) effizientesten Intel-System mit ungefähr vergleichbarer Rechenleistung.

ciao

Alex
 

Wobei heise.de dann diese Werte gut kommentiert. AMD schießt sich wieder einmal selber ins Knie. Auch wenn die Shanghai-Ergebnisse mit einem leistungsstärkeren Netzteil hinter denen der XEONs zu liegen kommen, sind sie doch recht gut. Aber jeder aufmerksame Leser und fachkundige Entscheider/Admin wird sich fragen, warum AMD eine niemals im Rack installierbare Konfiguration testet und referenziert. Ein 350W Netzteil ist schon witzig ... Nun ja, wie ehedem mit 'Barcelona'. Die Leistungswerte haben kaum Bestand gegen Intels 'real world' Szenarien und nun wird ein wenig (mehr) schöngelogen.

Mich wundert es, daß AMD so schnell von einem Spar-Primus zu einem Saulus-Primus werden konnte. Fatal ist an dieser Stelle, daß 'Shanghai' gegen die 'alte' XEON Garde antritt, die, wenn das Gerücht der i7-XEON-Verzögerung nicht stimmen und Intel am 17.11. auch diese mit den Desktops vorstellen sollte, die eben gegen die 'Neuen' ersetzt wird. Sollten dann im Januar die Prozessoren verfügbar sein, ficht 'Shanghai' nicht gegen 'Penryn', sondern gegen 'Nehalem'. Düstere Aussichten, auch wenn die i7-Herdplatten vermutlich das Rack braten werden, in dem sie eingebaut werden ;-)
 
Na "rankommen" ist schon drin, ist nur "knapp":


ciao

Alex


Und wieviel bleibt von dem "knapp" noch übrig, wenn das hier nicht wäre:

Heise.de schrieb:
...AMD setzt aber auch andere Software ein, nämlich bereits Windows Server 2008 und die [ticker:http://edocs.bea.com/jrockit/webdocs/index.html JRockit-JVM] von Oracle...

@Drohne

auch wenn die i7-Herdplatten vermutlich das Rack braten werden

??? Wieso Herdplatten? Der i7 verbraucht trotz IMC und besserer IPC genau soviel wie der Core2.

Edit.: ... nur der X58 Chipsatz säuft und säuft und säuft....
 
Zuletzt bearbeitet:
Oha, d.h. in ssj_ops/Watt kommt der neue Shanghai in 2-CPU-Systemen nicht mal an den derzeitigen Harpertown ran *kopfkratz

... in der Regel sizten auf den Mehrsockel-Servern HT1000/HT2000 Chipsätze von Broadcom. Der hat sich meines Wissens noch nie mit echten Effizienzbestleistungen hervorgetan. Aber gewiß fällt der Chipsatz nicht so arg ins Gewicht. Wenn ich mir überlege, daß AMDs IMC noch DDR2-RAM ansteuert und die Intels auf FB-RAM bauen und man bekanntlich deren Energiehunger kennt, so darf man sich doch fragen, wo AMDs CPU nun wirklich zu liegen kommt. Aber das ist eine akademische Frage. Die gestesteten Systeme werden vermutlich nie so ausgeliefert und bescheiden sich gerne mit etwas mehr Wattabgaben ;D
 
Und wieviel bleibt von dem "knapp" noch übrig, wenn das hier nicht wäre:



@Drohne



??? Wieso Herdplatten? Der i7 verbraucht trotz IMC und besserer IPC genau soviel wie der Core2.

a) da sollte man dann wirklich warten bis die Chips da sind, dann testen und sich dann totlachen und nicht schon vor der Schlacht die Hose voll haben ;-)

b) Nun ja, ich dachte da an die letzten Tests des i7-965XE. Mit seinem OC-System scheint die CPU den Komponenten und dem Nuzter ganz schön einzuheizen. Setzt man denn in einen Server wirklich CPUs ein, die eine TDP von 130W haben? In der Regel versucht man doch unter 100W TDP zu bleiben und spart dann lieber an der Taktfrequenz, pflanzt aber dann gleich 4 oder acht Sockel in ein solches Teil.
 
a) da sollte man dann wirklich warten bis die Chips da sind, dann testen und sich dann totlachen und nicht schon vor der Schlacht die Hose voll haben ;-)

b) Nun ja, ich dachte da an die letzten Tests des i7-965XE. Mit seinem OC-System scheint die CPU den Komponenten und dem Nuzter ganz schön einzuheizen. Setzt man denn in einen Server wirklich CPUs ein, die eine TDP von 130W haben? In der Regel versucht man doch unter 100W TDP zu bleiben und spart dann lieber an der Taktfrequenz, pflanzt aber dann gleich 4 oder acht Sockel in ein solches Teil.
Nun wenn man mal vom OC absieht (oder findet das im Serverumfeld Verwendung :]) dann zieht der i7 nicht mehr als der Core2, nur der Highend-OC-Chipsatz mit all seinen Extrasachen verbrät unnötig viel. Gibt doch so schöne Verbrauchstests auf ht4u, welche direkt am Wandler messen.
.
EDIT :
.

Sehr gute Frage ... weiss im Moment keiner, aber vielleicht wäre Server 08 sogar schlechter in dem Bench ?

ciao

Alex


Macht aber wenig Sinn, weil dann hätte AMD gerade aus diesem Grund den Win2003 Server gewählt, um noch besser dazustehen, meinste nicht?
 
Macht aber wenig Sinn, weil dann hätte AMD gerade aus diesem Grund den Win2003 Server gewählt, um noch besser dazustehen, meinste nicht?
Ja, anzunehmen, aber bei AMD würde mich auch nicht wundern wenn sie das schlechteres OS genommen haben :)

ciao

Alex
 
Und wie passt dann das (für server unübliche) verbrauchsarme NT dazu? ;)
Ich schrieb ja "anzunehmen", aber man muss da immer mal mit der AMD "Unlogik" rechnen ^^
In %ten ausgedrückt, würde ich sagen, dass Du zu 90% recht hast :)

ciao

Alex
 
... Setzt man denn in einen Server wirklich CPUs ein, die eine TDP von 130W haben? In der Regel versucht man doch unter 100W TDP zu bleiben und spart dann lieber an der Taktfrequenz, pflanzt aber dann gleich 4 oder acht Sockel in ein solches Teil.
Was du da als "Regelfall" hinstellst, bildet nicht die ganze Wahrheit ab.

Wenn ich da an IBMs Power-Familie denke (... Power4,Power5,Power6 ... ) da langte vor allem die erste Generation ordentlich hin. Dafür hatte sie zum Zeitpunkt ihrer Einführung aber auch eine erstklassige Rechenleistung. Gleiches kann man auch von anderen RISC-Prozessoren behaupten.

Sicher ist aber auch, dass in anderen Einsatzfällen auch gerne Low-Power-Prozessoren eingesetzt werden. Vor wenigen Tagen gab IBM kund, dass ihre z10-Prozessoren nun auch in z-Systemen ohne aufwändige Kühlung ausgeliefert werden. Damit wollen sie aufstrebende Märkte wie zum Beispiel Brasilien und Osteuropa bedienen.

Wenn die Infrastruktur für Kühlsysteme schon vorhanden ist, dann gibt es nach wie vor Kunden die eine TDP von 130 Watt (und mehr) in Kauf nehmen, wenn dafür "hinten" dabei auch Rechenleistung und/oder Hochverfügbarkeit rauskommt.

MFG Bobo(2008 )
 
Mal eine ganz andere Frage.

Nun 'sehen' wir bei den ersten Core-i7-Tests gewisse Leistungssteigerungen im Core, mal von den Zuwächsen über den IMC abgesehen. Bei C2D hatte man doch noch das Problem, daß unter 64 Bit Anwendungen die Parallelität litt, insbesondere war eine ALU nicht 64 Bit fähig und die FPU hatte so ihre Probleme (ich kann das nicht genau spezifizieren, da ich kein Spoezialist bin). Hat sich das denn nun mit dem i7 erledigt oder müssen wir auf die Unterlagen warten, um die Frage beantworten zu können?

Ic hfrage deshalb, weil ich hauptsächlich oder 'nur' 64 Bit Software zum Rechnen einsezte. Selber konnte ich noch keine Benchmarks fahren, weil mir weder Zeit noch das notwendige Material zur Verfügung steht. In den meisten bisher veröffentlichten Benchmarks zu Intels Core-i7 sowie AMDs letzten K10 CPUs wurden oftmals hochoptimierte 32 Bit mathematische Bibliotheken zum Einsatz gebracht. Und dann auch noch mit dem Intelschen icc compiliert, der zwar hervorragend optimiert, allerdings AMD zu benachteiligen scheint.
 
Zuletzt bearbeitet:
Drohne schrieb:
Setzt man denn in einen Server wirklich CPUs ein, die eine TDP von 130W haben?

Selbstverständlich. In Servern die in einem Rack mit gelochter Tür und ohne Boden eingebaut sind. In einem Serverraum dessen Temperatur mit einer Klimaanlage auf irgendwas knapp über 20 Grad geregelt ist und in dem sich niemand länger als unbedingt notwendig aufhält.

Du kannst nahezu jede beliebige Leistung in einem nahezu beliebig engen Gehäuse (auch Blade) sauber abführen wenn Du nur den Luftstrom nahezu beliebig steigerst. Der dabei entstehende Lärm tut im Serverraum niemandem weh.

Den Opteron 1220 SE führt Heise hier (http://www.heise.de/newsticker/Schnelle-Opterons-jetzt-sparsamer-und-billiger--/meldung/84929) mit 125 Watt.
 
Mal eine ganz andere Frage.

Nun 'sehen' wir bei den ersten Core-i7-Tests gewisse Leistungssteigerungen im Core, mal von den Zuwächsen über den IMC abgesehen. Bei C2D hatte man doch noch das Problem, daß unter 64 Bit Anwendungen die Parallelität litt, insbesondere war eine ALU nicht 64 Bit fähig und die FPU hatte so ihre Probleme (ich kann das nicht genau spezifizieren, da ich kein Spoezialist bin). Hat sich das denn nun mit dem i7 erledigt oder müssen wir auf die Unterlagen warten, um die Frage beantworten zu können?

Soweit ich weiß funktioniert das Macro-Op fusion nicht unter 64Bit, wodurch der Core2 unter 64Bit weniger zulegt als ein K8/K10.
 
Zurück
Oben Unten