Artikel AMD FX-8370E - 8-Kern-Vishera mit 95 Watt TDP

OT zum Letzten: du verwechselst hoffentlich gerade nicht den Namen des Open Source Treibers für VLIW GPUs mit dem Codenamen der Radeon 2900 XT. Ist beide Male der gleiche Wenn der R600 Tteiber Unterstützung fur DP bietet, muss das noch lange nicht für die R600 GPU gelten.
 
Da im Code in dme Bereich Pfade zur Unterscheidung von R600 und R700 enthalten sind, gehe ich mal davon aus, dass ich es nicht verwechsele.

Und falls das immern och nicht reicht, empfehle ich http://developer.amd.com/wordpress/media/2012/10/R600_Instruction_Set_Architecture.pdf.

Darin steht ausdrücklich zum Punkt "stream core" :
"The fundamental, programmable computational units, responsible for performing integer, single precision floating point, double precision floating point, and ..."

Ich bin mir nicht sicher, ob das eindeutig genug ist. *g*

Edit: Wobei es natürlich sein kann, dass der R600 Guide für alle R600 Abkömmlinge gilt. Ich bin selber ja leider kein Entwickler/Programmierer dafür.
 
Zuletzt bearbeitet:
@ Riddler


Weiß jetzt nicht, was du mir damit sagen willst.

Das ist die allgemein gültige beschreibung fur die VLIW Einheiten mit ihren von AMD als Streamprozessoren bezeichneten Recheneinheiten. Ab RV670 werden mehrere zusammengeschaltet um Gleitkommazahlen mit doppelter Genauigkeit zu berechnen (VLIW5 alle fünf, VLIW4 alle vier). Uber diese Fähigkeit verfügte aber immer nur die dickste GPU.

Du darfst mir aber gerne den Link zu der Unterscheidung im R600 Tteiber per PM zuschicken, die DP auf der R600 GPU freischaltet. Ich frage mich allerdings gerade, wie diese Funktionalität eigentlich auf dem R600 genutzt werden können soll - so sie denn überhaupt existiert. Denn der R600 unterstützt kein OpenCL und CAL wurde meines Wissens nie vom Open Source Treiber unterstützt.
 
Ob die HD2900 XT einen DP Support hat könnte ich ggf. am WE testen und ne HD3870 X2 fliegt auch noch in meinem Archiv rum. ;D
Die HD5750 und die HD5770 besaßen aber definitiv keinen Support dafür.
 
Eine Verwendung hiervon (GPU seitig) in irgendeinem Spiel wäre mir neu.
TressFX soll angeblich auf Double Precision Berechnungen setzen. Wieso man soviel Rechenleistung unnötig verschwenden sollte, weiß ich nicht.

Außerdem ist es nur ein Gerücht. In Foren kommt diese Aussage immer wieder vor; die Entwickler haben sich meines Wissens nie hierzu geäußert.
 
DP wird ganz sicher nicht auf der gpu genutzt
So ganz sicher bin ich mir da nicht mehr, immerhin ist Physik auch eine Wissenschaft für sich.
Es sind ja nicht nur die Haare die mit dem Wind interagieren, sondern auch Stoff, Fauna, Sand, Wasser und natürlich Trümmerteile.
Damit die Kollisionsabfrage hier auch akkurat arbeitet, kann ich mir DP durchaus Vorstellen, zumindest kann ich mir die "hohe Genauigkeit" nicht anders erklären.

MfG
 
Double Precision (FP64) braucht man an für sich nur bei wissenschaftlichen Anwendungen. Ansonsten reicht Single Precision (FP32) vollkommen. Insofern war der Einwand von Dr@ durchaus berechtigt. Für Spiele mit doppelter (Bit-)Länge zu rechnen, ist eigentlich eine Verschwendung von Ressourcen. Die 64-Bit Wörter bringen keine Vorteile, weil das Ergebnis nicht Grundlage für folgende Berechnungen (von Gewicht) sind, sondern alsbald wieder verworfen wird. Eine Abweichung durchs Runden der letzten Stelle (bei FP32) wirkt sich somit kaum bis gar nicht weiter aus. Bei Spielen hängt schließlich nichts davon ab. Bei TressFX könnte es natürlich ein Kniff von AMD sein, um die oftmals bei Double Precision beschnittenen GeForce Karten schlechter da stehen zu lassen.
 
Zuletzt bearbeitet:
Wenn dir FP32 reicht, Bitte gern! Aber lass mir die FP64!
Warum nicht gleich FP128 (Quadruple Precision)? Bei Spielen möchte man die Wörter eigentlich möglichst kurz halten.

Daher hat man sogar für solche Anwendungen FP16 (halbe Genauigkeit) aus der Taufe gehoben, weil es VRAM spart.
 
Warum nicht gleich FP128 (Quadruple Precision)? Bei Spielen möchte man die Wörter eigentlich möglichst kurz halten.

Daher hat man sogar für solche Anwendungen FP16 (halbe Genauigkeit) aus der Taufe gehoben, weil es VRAM spart.
Ja, das sparen scheint wohl "IN" zu sein, bringt aber nichts wenn man Mittendrin sein will und nicht nur dabei. ;)
BF4 ist wohl der erste Ego-shooter wo ich PhysX kein bischen vermisse! FSK 18+ ist gerechtfertigt, alles darunter braucht Windeln zum spielen. *buck*
 
Zuletzt bearbeitet:
TressFX nutzt kein DP, dass lässt sich ganz simpel mit einer 270X und einer 280 zeigen: Die fps sinken nahezu linear zu den SP-FLOPS.
 
TressFX nutzt kein DP, dass lässt sich ganz simpel mit einer 270X und einer 280 zeigen: Die fps sinken nahezu linear zu den SP-FLOPS.
Ok, danke für die Info!
Aber TressFX bezieht sich nur auf die Haare.
Trifft das auch mit Tessellation und 4x SSAA (ingame) zu?
 
Woher kommt denn eigentlich die Unsitte, das Powermanagement komplett zu deaktivieren? Seit dem Phenom hab ich das praktisch immer an - auch wenn die Kiste bis ans Limit übertaktet ist (Aktueller Fall mit dem 750K @ 4,5 GHz, nippt im Leerlauf "nur" gut 45 Watt aus der Dose). Gut - möglicherweise hatte ich zu Phenom Zeiten Glück, dass das Mainboard das konnte...der 760K den ich für einen Freund zusammengebaut hab, macht auch 4,9 GHz Luftgekühlt mit dem Powerkrams eingeschaltet.
 
Trifft das auch mit Tessellation und 4x SSAA (ingame) zu?
Du meinst, ob mit Tessellation und 4x OGSSAA der Leistungsunterschied zwischen 270X und 280 auf linear den FLOPS entspricht? Nein (u.a. wegen Bandbreite und Frontend). DP wird hier auch nicht genutzt.
 
@ Riddler


Weiß jetzt nicht, was du mir damit sagen willst.

Das ist die allgemein gültige beschreibung fur die VLIW Einheiten mit ihren von AMD als Streamprozessoren bezeichneten Recheneinheiten. Ab RV670 werden mehrere zusammengeschaltet um Gleitkommazahlen mit doppelter Genauigkeit zu berechnen (VLIW5 alle fünf, VLIW4 alle vier). Uber diese Fähigkeit verfügte aber immer nur die dickste GPU.

Du darfst mir aber gerne den Link zu der Unterscheidung im R600 Tteiber per PM zuschicken, die DP auf der R600 GPU freischaltet. Ich frage mich allerdings gerade, wie diese Funktionalität eigentlich auf dem R600 genutzt werden können soll - so sie denn überhaupt existiert. Denn der R600 unterstützt kein OpenCL und CAL wurde meines Wissens nie vom Open Source Treiber unterstützt.

Jupp, da habe ich wohl was verwechselt, bzgl R600 (HD2x00) <-> RV670 (HD3xx0). Die HD3850 war allerdings nicht das dickste und konnte trotzdem Double Precision. ;) (Ja, ich weiß, du beziehst dich auf den dicksten Chip, nicht auf die geringfügige Einbremsung der 3850 gegenüber der 3870)
Ich hatte ja bereits eingeräumt, das ich mich möglicherweise irre.
Und damit können wir von mir aus das Offtopic-Thema auch beenden, außer jemand anders will weiterdiskutieren. :)

--- Update ---

Woher kommt denn eigentlich die Unsitte, das Powermanagement komplett zu deaktivieren? Seit dem Phenom hab ich das praktisch immer an - auch wenn die Kiste bis ans Limit übertaktet ist (Aktueller Fall mit dem 750K @ 4,5 GHz, nippt im Leerlauf "nur" gut 45 Watt aus der Dose). Gut - möglicherweise hatte ich zu Phenom Zeiten Glück, dass das Mainboard das konnte...der 760K den ich für einen Freund zusammengebaut hab, macht auch 4,9 GHz Luftgekühlt mit dem Powerkrams eingeschaltet.

Ich kann jetzt nur für den Serverbereich sprechen, aber wir haben die Erfahrung gemacht, dass vor allem Hostsysteme für Virtuelle Server mit aktivierten Energiesparmechanismen Probleme machten. Dabei war es egal ob die Geräte Intel oder AMD basiert waren. Etwa 90% unserer Server laufen dabei mit CentOS oder RHEL.

Bezogen auf den Test ist es, um eben Auswirkungen des Powermanegements auf die Testergebnisse zu verhindern, vermute ich mal.

Und im privaten Umfeld, ka, einige Boards machen bei Übertaktung die Energiesparoptionen sogar automatisch aus bzw verhindern die Aktivierung. Ich selber hab sie jedenfalls, ich übertakte aber auch nicht.
 
Zuletzt bearbeitet:
Woher kommt denn eigentlich die Unsitte, das Powermanagement komplett zu deaktivieren? Seit dem Phenom hab ich das praktisch immer an - auch wenn die Kiste bis ans Limit übertaktet ist (Aktueller Fall mit dem 750K @ 4,5 GHz, nippt im Leerlauf "nur" gut 45 Watt aus der Dose). Gut - möglicherweise hatte ich zu Phenom Zeiten Glück, dass das Mainboard das konnte...der 760K den ich für einen Freund zusammengebaut hab, macht auch 4,9 GHz Luftgekühlt mit dem Powerkrams eingeschaltet.

Also die Benchmarks, welche sich in den Diagrammen wiederfinden, sind alle mit aktivierten Stromsparmechanismen entstanden (mit Ausnahme von C1E). Turbo war an. Nur für den Vergleich zwischen Turbo und Non-Turbo beim 8370E habe ich bei Non-Turbo die Stromsparmechanismen deaktiviert. Und für die OC-/UV-Tests natürlich auch, weil ich hier alle eventuell störenden Faktoren ausschalten wollte.

@WindHund:

Der 8370E mit Standardtakt und aktiviertem Turbo bringt in Tomb Raider 130 FPS Minimum, 196 FPS Maximum und 170 FPS Average mit deinen Einstellungen hin.
 
Woher kommt denn eigentlich die Unsitte, das Powermanagement komplett zu deaktivieren? Seit dem Phenom hab ich das praktisch immer an - auch wenn die Kiste bis ans Limit übertaktet ist (Aktueller Fall mit dem 750K @ 4,5 GHz, nippt im Leerlauf "nur" gut 45 Watt aus der Dose). Gut - möglicherweise hatte ich zu Phenom Zeiten Glück, dass das Mainboard das konnte...der 760K den ich für einen Freund zusammengebaut hab, macht auch 4,9 GHz Luftgekühlt mit dem Powerkrams eingeschaltet.
Aus deiner Sicht Unsitte, aus meiner ist das Selbstverständlich. Die Unsitte sehe ich da eher bei den Leuten die "Blind" übertakten und sich wundern warum nicht mehr Leistung bei rum kommt.
@WindHund:

Der 8370E mit Standardtakt und aktiviertem Turbo bringt in Tomb Raider 130 FPS Minimum, 196 FPS Maximum und 170 FPS Average mit deinen Einstellungen hin.
Danke! Das hört sich sehr gut an, damit sollte Tomb Raider in 3D mit 60FPS Minimum laufen. Zumindest in Full HD, 4K Ultra HD ist eine andere Geschichte. ;)
 
Also die Benchmarks, welche sich in den Diagrammen wiederfinden, sind alle mit aktivierten Stromsparmechanismen entstanden (mit Ausnahme von C1E). Turbo war an. Nur für den Vergleich zwischen Turbo und Non-Turbo beim 8370E habe ich bei Non-Turbo die Stromsparmechanismen deaktiviert. Und für die OC-/UV-Tests natürlich auch, weil ich hier alle eventuell störenden Faktoren ausschalten wollte.

@WindHund:

Der 8370E mit Standardtakt und aktiviertem Turbo bringt in Tomb Raider 130 FPS Minimum, 196 FPS Maximum und 170 FPS Average mit deinen Einstellungen hin.

Und was bringt er ohne Turbo ? - bzw. zu einem 1090T ohne Turbo, wenn die Minimum FPS nicht unter 60 fallen wo die meisten Effekte Zusammentreffen spielt es im Grunde keine Rolle, und kann sich die Frage ehr stellen wenn man viel zockt, und einer der Titel ist die von CPU Leistung profitieren abwägen kann.

Mal 4K Auflösungen ausgenommen, ..............dafür dürfte heutige GPU-Hardware zu lahm sein, je nach Titel. Die bisherigen Konsolen liefern die nötige Bandbreite dank fehlendem HDMI 2.0 nicht, die APUs die es mitbringen dürften zu langsam sein.
 
Zuletzt bearbeitet:
Ich kann jetzt nur für den Serverbereich sprechen, aber wir haben die Erfahrung gemacht, dass vor allem Hostsysteme für Virtuelle Server mit aktivierten Energiesparmechanismen Probleme machten. Dabei war es egal ob die Geräte Intel oder AMD basiert waren. Etwa 90% unserer Server laufen dabei mit CentOS oder RHEL.

Bezogen auf den Test ist es, um eben Auswirkungen des Powermanegements auf die Testergebnisse zu verhindern, vermute ich mal.

Und im privaten Umfeld, ka, einige Boards machen bei Übertaktung die Energiesparoptionen sogar automatisch aus bzw verhindern die Aktivierung. Ich selber hab sie jedenfalls, ich übertakte aber auch nicht.

Sowohl die beiden Asrocks (A88X Extreme 4+ und A88X Extreme 6), als auch das Asus F2A85-V PRO und das Gigabyte GA-F2A85X-UP4 können/konnten das Problemlos und haben auch keine Probleme gemacht. Unter Volllast bin ich immer da mit der Spannung gelandet, wo ich hin wollte. (750K ~ 1,485V, 760K ~ 1,52V (für 4,9 GHz))

Ich kenne es noch aus Sockel A und 939 Zeiten, wo das nur sehr selten funktioniert hat und dann wirklich Probleme gemacht hat, weil im Leerlauf die Spannung zu weit abgesenkt wurde.

Also die Benchmarks, welche sich in den Diagrammen wiederfinden, sind alle mit aktivierten Stromsparmechanismen entstanden (mit Ausnahme von C1E). Turbo war an. Nur für den Vergleich zwischen Turbo und Non-Turbo beim 8370E habe ich bei Non-Turbo die Stromsparmechanismen deaktiviert. Und für die OC-/UV-Tests natürlich auch, weil ich hier alle eventuell störenden Faktoren ausschalten wollte.

Ah - okay. Naja, wie oben erwähnt wäre es mal interessant zu Wissen, ob das bei AM3+ immer noch Nötig ist. C1E hab ich auf FM2/FM2+ auch beim Übertakten übrigens eingschaltet. Leistungsunterschied lag im Toleranzbereich für die Messungen... (+- 1%)


Aus deiner Sicht Unsitte, aus meiner ist das Selbstverständlich. Die Unsitte sehe ich da eher bei den Leuten die "Blind" übertakten und sich wundern warum nicht mehr Leistung bei rum kommt.

Ich komme mit meinem 750K aber recht locker an die Sandy-Bridge i5er ran - dementsprechend kann ich mir nicht vorstellen, dass ich "Blind" übertakte und auch nicht "zu wenig" Leistung bei rum kommt. Und wie oben erwähnt - ein Leistungsunterschied ist zumindest bei mir nicht feststellbar.

Ich hab sogar mit dem AMD MrsTweaker das Teil je nach P-State Under- bzw. Overclocked. Blöderweise komm ich im Leerlauf bei 1400 MHz nicht unter 0,4 Volt - keine Ahnung warum. Theoretisch sollte er aber mit 0,35 Volt laufen...egal - läuft eh so selten im niedrigsten P-State *lol*
 
Ich komme mit meinem 750K aber recht locker an die Sandy-Bridge i5er ran - dementsprechend kann ich mir nicht vorstellen, dass ich "Blind" übertakte und auch nicht "zu wenig" Leistung bei rum kommt. Und wie oben erwähnt - ein Leistungsunterschied ist zumindest bei mir nicht feststellbar.

Ich hab sogar mit dem AMD MrsTweaker das Teil je nach P-State Under- bzw. Overclocked. Blöderweise komm ich im Leerlauf bei 1400 MHz nicht unter 0,4 Volt - keine Ahnung warum. Theoretisch sollte er aber mit 0,35 Volt laufen...egal - läuft eh so selten im niedrigsten P-State *lol*
Dich, habe ich damit nicht gemeint! Du hast inzwischen bestimmt schon genug gelesen.
Unter 0,7 Volt geht eigentlich physikalisch nicht, mit CC6 kann das aber möglich sein. ;)
 
*hust* Ähm...ich war bei den Voltzahlen ganz wo anders, sorry! *buck*

Ich meinte 0,85 Volt...
 
Ich denke, Du vergisst ausgerechnet jene, die vor drei Jahren ihr AM3+ Brett mit einem Deneb bestückten, was damals ja finanziell sehr attraktiv daherkam :]
( Gerade die 95W-Version des 945 galt als echtes Leckerli!) und das dürften durchaus noch ein paar sein.

Und nicht nur die.

Die jenigen die sich zB. die schwachen Asrock 970er Boards mit den 125W FX8xxx bestückten & bereuten (Mich eingeschlossen) dürften sich über die jetzigen 95W Modelle sehr freuen.
Hab den Artikel nur überflogen "fals es schon drin stand" Music wird das ding schon ordentlich gemacht haben.
Dickes DANKE nochmal.

Grüße
 
Ich habe zwar eines der ASRock MBs mit 970er Chipsatz, aber das einzige welches weiterhn für 125W zugelassen ist 970Extreme 3 R2.0, aber ob es lohn den 6350 jetzt gegen einen der 95W zu tauschen ?
 
*hust* Ähm...ich war bei den Voltzahlen ganz wo anders, sorry! *buck*

Ich meinte 0,85 Volt...

Also mein FX macht die 0,85V bei 2GHz, bei 0,8V und 2GHz fliegt ein Kern bei Prime raus, die anderen machen fröhlich weiter *buck*
 
Zurück
Oben Unten