News Legt AMD beim Sockel AM3+ nochmal nach - FX-8370 und FX-8370E?

Dafür profitiert Intel stärker von AVX und hat beim Haswell bereits dessen Nachfolger.
Ich halte es für wichtiger das die aktuellen Befehlssätze überhaupt erstmal genutzt wird, ob FMA3 oder 4 ist mir an der Stelle relativ egal.
 
Unterm Strich habe ich eher den Eindruck das es an der Software Front noch fast genauso traurig ausschaut wie vor 3 Jahren.
OK, der Multicore Support hat sich im Schnitt verbessert aber wirklich viel hat sich nicht geändert.
Das die SW den Möglichkeiten der HW meist Jahre wenn nicht teils Jahrzehnte zurückhängt, ist ja nicht neu, leider. Aber das liegt auch daran, dass es aufwendig ist diese zu implementieren und wenn es dann noch eine Sackgasse ist oder das Feature Fehler enthält, war der ganze Aufwand auch noch umsonst oder schlimmer.
 
Wäre es so wahnsinnig fehlerhaft dann würde es keine Benchmarks geben die sie nutzen können.
Ich denke eher das es hier um Bequemlichkeit geht. Wozu etwas neues implentieren wenn das Alte für die meisten ausreichend ist und der Kunde nicht weiss auf wieviel Leistung er verzichtet?
Siehe Mantle.....wie schnell es auf einmal mit Direct3D und OpenGL ging vergleichbares anzukündigen als für jeden sichtbar war wieviel es bringt.
 
Es geht auch im den Aufwand, der ist ja nicht zu unterschätzen. Neue API muss man erst lernen, dann muss man alles umschreiben und komplett neu testen, dass verursacht Kosten und zwar nicht zu knapp und wofür? Der Kunden bezahlt es nicht, weil er ja eben nicht weiß, wie viel er mehr dadurch bekommt und ggf. an HW für die gleiche Geschwindigkeit hätte einsparen können. Das ist so und war schon immer so. Bei neuen APIs wie Mantle kommt noch das Risiko hinzu, wie diese sich entwickelt, ob man also vielleicht für die Version 2.0 dann einiger umschreiben muss oder ob es dann für Win 9 überhaupt eine passende Version gibt, oder das ganze wieder einschläft, dann wären die Investitionen in die Unterstützung umsonst gewesen. Daher wartet man erstmal ab, wie die Sache sich entwickelt.
 
Das ist nunmal so oder so nötig wenn man sich weiterentwickeln will, womit wir wieder beim Thema "Trend verschlafen" sind.
Der Kunde bezahlt solche Weiterentwicklungen sehr wohl, nämlich mit jedem Programm was er kauft. Davon geht schließlich auch das Entwicklungsbudget ab.
 
Dafür profitiert Intel stärker von AVX und hat beim Haswell bereits dessen Nachfolger.
Ich halte es für wichtiger das die aktuellen Befehlssätze überhaupt erstmal genutzt wird, ob FMA3 oder 4 ist mir an der Stelle relativ egal.
Zumal Intel nur mit Legacy Code wirklich sparsam ist, wenn die neuen Sätze genutzt werden kleben die auch ganz schnell im Powerlimit!
Schon Ironisch, nutzt die alten Befehlssätze dann sind die CPUs auch sparsam! Ein Schelm wer hier nichts denkt! ;)
 
Zumal Intel nur mit Legacy Code wirklich sparsam ist, wenn die neuen Sätze genutzt werden kleben die auch ganz schnell im Powerlimit!
Schon Ironisch, nutzt die alten Befehlssätze dann sind die CPUs auch sparsam! Ein Schelm wer hier nichts denkt! ;)

Hast du dafür zufällig Belege?^^ Das würde mich doch mal sehr interessieren...könnte ich so manchem Kunden von mir dann mal unter die Nase halten, die mir Versuchen jedes mal zu erzählen wie viel besser Intel doch ist :D
 
Es stimmt schon, dass die TDP bei der Nutzung von AVX(2) Code deutlich weiter ausgeschöpft wird bei den Core i3/i5/i7, aber dafür macht die Effizienz noch viel größere Sprünge, weil die Rechenleistung je nach Anwendungsfall um Größenordnungen ansteigen kann. Insofern ist dies ein Verhalten, welches man nicht ankreiden sollte. Dem Mehrverbrauch im Vergleich zu SSE Code steht eine mehr als angemessene Mehrleistung gegenüber.

Diese Beobachtungen macht die c't zu einem Core i7-4770:
Mit Software, die tatsächlich alle Kerne, deren AVX2-Einheiten sowie die Grafik voll auslastet, liegt die Leistungsaufnahme unter Volllast allerdings höher als bisher. Während wir mit einem älteren, nur für AVX optimierten Linpack-Kompilat 82 Watt über die 12-Volt-Schiene zur CPU gemessen haben, sind es mit AVX2-Software 95 Watt. Das dürfte auch der Grund dafür sein, dass Intel die TDP von 77 auf 84 Watt angehoben hat. (...) Kein Wunder, denn die Neuerungen betreffen im wesentlichen die AVX-Einheiten, die wiederum spezielle Software erfordern. Nutzt diese bereits AVX2 und insbesondere die neuen FMA-Befehle (Fused Multiply-Accumulate), so zieht Haswell auf und davon. Im hoch optimierten Linpack bringt alleine das über 60 Prozent Performance-Zuwachs.
Quelle: http://heise.de/-1868226

Die 60% Steigerung bezieht sich allein auf die Verbesserungen seit Ivy Bridge; und bei den 95W sind die Wandlerverluste inbegriffen.
 
Zuletzt bearbeitet:
Hast du dafür zufällig Belege?^^ Das würde mich doch mal sehr interessieren...könnte ich so manchem Kunden von mir dann mal unter die Nase halten, die mir Versuchen jedes mal zu erzählen wie viel besser Intel doch ist :D
Naja, warum Belegen? Schau mal in die BF4 Foren rein, fast alle die da schreien habe ihr System übertaktet.
Obs nun an der IPC liegt oder den PowerLimits überlasse ich mal jedem selbst.
Intel ist schon auch Fuchs, nur zaubern können die beim besten Willen nicht!

@SPINA
Effizienz Steigerungen sind immer gern gesehen, aber Bitte beim Kühler nicht sparen! (der geht an Artic!)
 
Der Kunde bezahlt solche Weiterentwicklungen sehr wohl, nämlich mit jedem Programm was er kauft. Davon geht schließlich auch das Entwicklungsbudget ab.
Dann erkläre dem Entwicklungsleiter aber mal, dass die neue Version keine neuen Features enthält, sondern die Entwicklungsresorucen nur zur Steigerung der Performance der bekannten Funktionen verwendet werden, dass würde ich gerne mal miterleben.
 
Erkläre das den Kunden die das vorbehaltlos kaufen und somit erst garkeinen Anlass geben etwas zu ändern. ;)

@WindHund
Das der Strombedarf steigt ist mir persönlich relativ egal, sofern er innerhalb der TDP Angaben bleibt und der Leistungszuwachs stimmt.
Der Turbo ist dann vermutlich das erste was gestrichen wird allerdings sollte man dann auch nicht unter den Grundtakt fallen.

Diese Beobachtungen macht die c't zu einem Core i7-4770:Quelle: http://heise.de/-1868226

Die 60% Steigerung bezieht sich allein auf die Verbesserungen seit Ivy Bridge; und bei den 95W sind die Wandlerverluste inbegriffen.

Am interessantesten finde ich das ausgerechnet die Werte vom A10 fehlen denn hier hätte mich dann doch interessiert wie hoch die Steigerung durch FMA ausfallen würde. Sowohl beim Strombedarf als auch bei der Rechenleistung.

Kann man die aufgebohrte Version für eigene Tests runterladen?

Edit: OK, die FMA Version kommt offenbar von Intel selbst und ist natürlich nur zu Intel Prozessoren kompatibel....
 
Zuletzt bearbeitet:
Erkläre das den Kunden die das vorbehaltlos kaufen und somit erst garkeinen Anlass geben etwas zu ändern. ;)

@WindHund
Das der Strombedarf steigt ist mir persönlich relativ egal, sofern er innerhalb der TDP Angaben bleibt und der Leistungszuwachs stimmt.
Der Turbo ist dann vermutlich das erste was gestrichen wird allerdings sollte man dann auch nicht unter den Grundtakt fallen.
Hi, ohne Turbo beschneidest aber die Single Threadleistung, wenn dann das Programm nicht auf die Kerne zugewiesen wird, läuft ein Kern bei 100% und schon gibt es ein Overhead.
Die Entwickler sind sich der Turbo Funktion auch bewusst.
Bei AVX konnte ich ein Unterschied von 30W weniger gegenüber SSE3 Code bei Boinc beobachten.
Mit FMA4 und XOP ist der Verbrauch ~ Gleich hoch, aber selbst mit 8x 4.7GHz @ 1.45Vcore weit entfernt von 220W nur für die CPU! ;)
 
Ich fürchte das wir hier an einander vorbei reden.
Ich rede vom Turbo Spielraum innerhalb der TDP und nicht von einer generellen Deaktivierung.
Ist man dank Turbo ohnehin schon sehr nahe am TDP Limit bleibt kein Spielraum für Verbrauchssteigerungen durch die Nutzung der neuen Befehlssätze.
In Folge dessen wird der Turbo Takt runtergeschraubt bis er dann womöglich nur noch auf dem Grundtakt läuft.

Wo Intel hier noch Spielraum hat arbeiten arbeitet AMD oftmals bereits nahe bei der Grenze. Bei solchen Vergleichstests wäre also ein Blick auf die reale Taktfrequenz durchaus interessant.

Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html
 
AMD soll bzgl. der TDP näher an der Grenze liegen als Intel? Das kenne ich definitiv anders. Liest man doch auch in Tests immer wieder, dass Intel-CPUs außerhalb der TDP landen.
Bei GPUs gibt AMD schließlich auch eine TDP an, die nur bei Komplettnutzung samt GPGPU gilt, Nvidia dagegen einen Fantasiewert ohne Letzteres (und schon sind die Karten effizienter).
 
AMD soll bzgl. der TDP näher an der Grenze liegen als Intel? Das kenne ich definitiv anders. Liest man doch auch in Tests immer wieder, dass Intel-CPUs außerhalb der TDP landen.

Ich will da keine generelle Aussage tätigen, aber auch AMDs Bulldozer-CPUs kann man ohne Probleme über die TDP bringen. Man nehme einfach LinX und schon taktet der FX-8350 plötzlich nur noch mit 3,4 GHz. Und es dürfte noch weitere Software geben, die das schafft.

Zudem würde ich sagen, dass Intel bei einigen CPUs tendenziell näher an der TDP-Grenze liegt als AMD. Das lässt sich aber auch erklären.

"Früher" gab es die TDP-Klassen 65 Watt, 95 Watt und 125 Watt. Seit geraumer Zeit nutzt Intel jetzt solche Zwischensprünge wie zum Beispiel 55, 69, 77 oder 84 Watt. Warum nimmt man solch "krumme" Zahlen? Warum nicht 60, 70, 80 und 90 Watt? Ich für meinen Teil denke, dass man die TDP so niedrig wie möglich angeben will, damit man schlichtweg gut dasteht. Ist ja auch irgendwie logisch, denn warum sollte man eine 69-Watt-CPU als 95-Watt-CPU klassifizieren? 69 sieht doch wesentlich freundlicher aus als 95, weshalb man eben diesen Weg geht. Habe ich jetzt eine 69 Watt verbrauchende CPU und sortiere diese in die 69-Watt-Klasse ein, so habe ich keinerlei TDP-Spielraum für z.B. neue Befehlssätze. Würde man die gleiche CPU zu 95 Watt einsortieren, so hätte man noch ordentliche Reserven. Bei AMD hingegen würde eine 69-Watt-CPU in einer 80-Watt-Klasse einsortiert (die gibt es bei AMD mittlerweile auch) und hätte noch ein paar Reserven.

Ich denke, dass prinzipbedingt Intel-CPUs eher am TDP-Limit sind. Nicht, weil Intel schlechtere CPUs baut, sondern schlichtweg, weil sie ihre TDP-Klassen wesentlich feiner gestalten und so keine großen Reserven haben können.
 
Die TDP wird überschätzt. Über den tatsächlichen "Verbrauch" sagt sie nämlich gar nichts aus.
 
@ Unbekannter Krieger
Die ganzen Turbo Varianten, egal ob Grafikkarte oder CPU, erlauben unter bestimmten Umständen die kurzfristige Überschreitung der TDP (Stichwort Trägheit der Temperatursteigerung), was ich persönlich als Benchmark Feature sehe.
Daran ändert aber nichts das die meisten Intel CPUs bei der heutigen Software unterhalb von diesem Limit liegen, es sei denn man nutzt Auslastungstools die einen Belastungszustand erzeugen der mit der Realität nichts zu tuen hat und damit meine ich nicht die übliche multicore Problematik.
Dazu komme natürlich auch Standard Fehler wie die Missachtung das es sich um den System Bedarf handelt oder Wandlerverlußte in dem Wert nichts verloren haben.
 
Zuletzt bearbeitet:
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html

Und ich dachte ich kenne die meisten Tests zum Verbrauch.

Aber das ist schon gewaltig wie viel Strom LGA2011 braucht. Da hätte ich erwatet, dass der FX nicht den hauch einer Chance hat...in einigen Tests steht der aber gar nich so schlecht da.

Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich. You get, what you pay for.
 
Zuletzt bearbeitet:
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html

Aber das ist schon gewaltig wie viel Strom LGA2011 braucht.
Man muss sich immer auch die Verwendete Testhardware ansehen, wenn man Ergebnisse sinnvoll bewerten will und da schneidet das ASUS Rampage IV Formula in Einzeltest bei der Leistungsaufnahme ganz mies ab und das System braucht im Idle 103W, während es mit dem Intel DX79SI nur 75W sind, dass ist schon mal eine ganz andere Hausnummer.

Das für die AM3+ CPUs verendete ASUS Crosshair V Formula ist im Einzeltest dagegen eines der sparsamsten Bretter, liegt im Idle mit 108W gerade ein Watt über dem allersparsamten und volle 12W unter dem Gigabyte 880GA-UD3H welches am meisten braucht. Der Test ist bei der Auswahl der Boards also wohl kaum als wirklicher Vergleich der Leistungsaufnahmen der unterschiedlichen System geeignet.

Außerdem ist der S.2011 ja auch keine ausgesprochene Stromsparplattform, mit dem i7-4770K sieht es dann auch anders aus und der reicht auch locker in Anwendungen und Spielen aus um den AMD FX-8350 @ 4,6 GHz im Schach zu halten (bei Lost Planet 2 DX11 Test A liegen sie gleich auf, da sind die Unterschiede zwischen allen CPUs aber sowieso marginal).

Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich.
Den Stromverbrauch muss aber ebenso wie den Preis immer im Verhältnis zur Leistung sehen, sonst passt es ja nicht zusammen und ebenso den Preis. Daher ist ein Vergleich des FX mit den S.2011 CPU auch recht unsinnig, weil die S.1150 i7 dafür auch reichen um die Leistung zu überbieten und da schlägt ein i7-4770k @ Stock den FX-8350 selbst bei 4,6 GHz und braucht mit 151W zu 322W (bei Auslastung aller Kerne) nicht einmal halb so viel.

Natürlich kommt gleich wieder mit einem ausgesuchten Benchmark wo das anders ist und der FX vorne liegt, aber es ändert ja nichts am allgemeinen Leistungsniveau.
You get, what you pay for.
So ist es und da lässt AMD eben alle im Regen stehen, die mehr als 150€ für eine CPU ausgeben wollen und dafür entsprechende Performance erwarten, ohne dass die Leistungsaufnahme weit von gut und böse liegt. Die werden auch nicht alle auf den S. 2011(-3) schielen. Denen muss AMD wieder ein passendes Angebot machen können und die jetzt vorgestellten FX8370(E) CPUs sind das sicher nicht.
 
@David64
Nun ja....ich würde es eher so formulieren das beide Plattformen die gleiche Grundprobleme haben.
Sie bieten zwar viele Anschlussmöglichkeiten und kräftige Wandler, diese gehen aber auch auf den Idle Strombedarf.
Des weiteren sind beide Plattformen von der Ausstattung her in die Jahre gekommen. Hier sieht man recht schnell das die Komplexität auch ihren Preis hat und erneut wird deutlich dass das größte Problem der Bullis die vergleichsweise geringe Einzelkernleistung ist.
 
Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich. You get, what you pay for.
Du bekommst deutlich mehr CPU-Leistung, die doppelte RAM-Bandbreite und 40 PCIe-3.0-Lanes. Alleine das braucht mehr Strom als die zwei Channels und die paar Lanes des AM3+. Der Sockel 2011-3 mit X99 wird übrigens sparsamer.
 
Dazu kommt noch das der X79 Chipsatz ebendso wenig USB 3.0 unterstützt wie die der AM3(+) Plattform und nur mit 2 SATA III Ports daher kommt (die anderen 4 sind SATA II. Da war die 5 Monate eher erschienene 900er Chipsatz Serie von AMD weiter und brachte 6 SATA III Ports mit.
 
Zurück
Oben Unten