Artikel Neuer Artikel: AMD FX - Codename "Bulldozer"

Ich setze seit Jahren AMD.

Und muss sagen ich bin von BD enttäuscht.

Ausserdem bin ich mit der Fazit nicht ganz einverstanden.

Und die billige Ausrede: es soll die Anwendungen angepasst werden, gilt nicht. Nicht einmal Intel bekommt sämtliche Software optimiert. AMD mit 20% Markt ganz zu schweigen.
Denn wenn so wäre, dann könnte man die Software auf der X6 1100T optimieren und dann würde es ziemlich vieles platmachen was auf dem Markt ist und müsste man nichts neues rausbringen.

Ausserdem: der BD hat 33% mehr Kerne und 10% mehr Takt als der X6. Und dort, wo überhaupt, schneller ist als der X6, entpricht die Leistung nicht einmal der Taktunterschied.
Abgesehen von Syntetische Benchmarks (welche für mich nicht zählen) und WinRAR (mal ehrlich 90% der Benutzer werden 1-2 Mal por Monat ein rar oder zip datei entpacken. Und die meiste Dateien sind so klein, dass man keine 8-Core CPU braucht um sie zu entpacken)

AMD hätte besser der X6 bzw. X4 nehmen sollen, auf 32nm Shrink machen, Takt erhöhen und die eine oder andere Optimierung vornehmen.
Hätte mehr Leistung gebracht, besser ausgesehen und vor allem massiv günstiger gekommen.
Am Besten nochmal ein Review und den Thread hier lesen, damit du deine zum Großteil schlicht falschen Aussagen selbst revidieren kannst.
 
mit den kommenden Microsoft-Patches für sheduler und gegen L1 cache invalidations kommt die CPU vielleicht eher an die Leistung des i7-2600 ran. Vielleicht kommen die entsprechenden Patches für linux auch schneller raus, dann könnte man auftretende Leistungszuwächse auch dort abschätzen.

Wenn dem so ist würde ich mir gerne direkt einen Nachtest hier auf P3DN wünschen :). Kann man bei MS selber denn schon etwas zu diesen Patches lesen?

Dia
 
Salve,

auch mein Fazit nach ein paar Reviews sieht gemischt aus!

Von den Leistungswerten an sich bin ich nicht sonderlich überrascht, jeder der sich mit dem Thema auch nur oberflächlich auseinandergesetzt hat, wußte ungefähr wo "es" hingeht.

Bei Multicore Anwendungen hält BD einigermaßen was versprochen wurde und auch der totale Verriss in Spielen kann ich so nicht sehen.
Bei PCGames Hardware sind ja Benches von BD2 und Anno 1404 zu sehen und da schlägt er sich m.M nach besser als erwartet. Bei den Min-Frames schlägt er bei Anno 1404 den X6 deutlich und bei BD2 schlägt er alle Prozessoren bei den Min-Frames!

Jetzt kommt es darauf an was in den nächsten 1-2 Jahren passiert, werden die Spiele auf Grund der Konsolen weiter für Multicore "optimiert" und/oder wird Multicore Standard, wird BD hier sehr deutlich aufholen
Im Grunde genommen geht es ihm hier, wie den ersten Vierkernen, allerdings ist das erst auf den zweiten Blick deutlich zu erkennen, da die IPC Leistung von Bulldozer doch recht ernüchternd ist. Hier wäre sicherlich eine Steigerung auf 1 Modul = Phenom X2 wünschenswert. Wennn sich die Entwicklung der letzten Jahre fortsetzt und immer mehr Programme/Spiele auch für den Desktop-Markt auf Multicore ausgelegt werden, ist der Bulldozer auf dem richtigen Weg!

Die etwas zu schwache IPC und die miserable Leistungsaufmnahme trüben das Bild deutlicher, als bei der Vorstellung der ersten Vierkern Prozessoren. Damals hat auch jeder "geschrien", was will man damit, ist nur für "1%" der Nutzer und 2 Kerner reichen völlig. Man wird sehen wo die Reise hingeht, für AMD wäre zu Wünschen in die Richtung Multicore.

Allerdings liegt noch ein haufen Arbeit vor AMD um die erkannten schwächen IPC und vorallendingen Leistungsaufnahme zu verbessern.
 
Zuletzt bearbeitet:
Wenn dem so ist würde ich mir gerne direkt einen Nachtest hier auf P3DN wünschen :). Kann man bei MS selber denn schon etwas zu diesen Patches lesen?
Bezüglich den angeblichen L1-Cache-Problemen haben wir AMD befragt.

Angeblich gibt es kein Problem mit dem L1. Laut AMD konnten lediglich bei ungünstiger Belegung in einer virtualisierten Umgebung unter Linux Leistungseinbußen gemessen werden.

Ob und wie stark Windows betroffen ist, konnte man uns nicht sagen.

Zum Patch für den Win7 Scheduler konnte man uns auch nichts genaueres sagen. Man arbeitet mit Microsoft wohl dran, wann und ob es das Update geben wird ist aber unklar. In Win8 wird die Verbesserung aber definitiv enthalten sein.


Die Takteinbrüche auf 3,3 GHz bei aktiviertem Turbo sollte es laut AMD auch nicht geben. Was hier das Problem ist, analysieren wir noch.
 
Und die billige Ausrede: es soll die Anwendungen angepasst werden, gilt nicht. Nicht einmal Intel bekommt sämtliche Software optimiert. AMD mit 20% Markt ganz zu schweigen.
Denn wenn so wäre, dann könnte man die Software auf der X6 1100T optimieren und dann würde es ziemlich vieles platmachen was auf dem Markt ist und müsste man nichts neues rausbringen.

Das ist keine billige Ausrede.

Es geht dabei um die Tatsache, dass BD anders als Thuban aufgebaut ist zudem noch neue Features unterstützt. Während es (platt gesprochen) bei Thuban ausreichen würde, die Software soviele Threads wie möglich parallel abarbeiten zu lassen (weil er die Hardware 6x hat), ist es bei BD damit nicht getan. Denn er unterstützt AVX und FMA4 und hat zudem das "Problem", dass sich ein Modul gewisse Ressourcen teilen muss.

Es geht übrigens auch nicht darum, dass wir das in irgendeiner Art und Weise verlangen. Es ist aber die - wahrscheinlich - einzige Möglichkeit, aus dem derzeitigen FX einen durchweg guten Desktopprozessor zu machen. Wird es nicht gelingen, genügend Anwendungen zu generieren, die von den BD-Vorteilen Gebrauch machen, so ist der derzeitige FX wahrscheinlich gescheitert.



AMD hätte besser der X6 bzw. X4 nehmen sollen, auf 32nm Shrink machen, Takt erhöhen und die eine oder andere Optimierung vornehmen.
Hätte mehr Leistung gebracht, besser ausgesehen und vor allem massiv günstiger gekommen.

Nun, der Ansatz hätte sicherlich mehr gebracht als der aktuelle Ansatz. Aber treffe diese Entscheidung aus Sicht von AMD doch bitte mit einem Wissensstand von ~2008/2009. Denn ungefähr zu diesem Zeitpunkt hätte man wohl die Entscheidung treffen müssen, welchen Ansatz man verfolgt. Und ganz ehrlich, zu diesem Zeitpunkt hat man sicherlich noch nicht gewusst, welche Performance das Design des Bulldozer gegenüber einem Thuban haben wird (der zudem noch nicht mal auf dem Markt war).
 
Aber dann bitte mit schnellerem ram auf der intel seite :]

Warum sollten wir das tun? Wir haben das genutzt, was die Hersteller von CPUs mit integriertem Speichercontroller (also alle von uns genutzten im Testfeld) als Standard definiert haben. Und Intel war beim Sockel 1366 und beim Sockel 1155 sehr konservativ und hat eben nur DDR3-1066 freigegeben, was die Mainboards auch bei den Defaults umsetzen.
 
Na ja ich frage mal - weil man es als Software-Entwickler auch immer in den Augen behalten muss - welchen Mehrwert bekommt der Anwender mit dem Bulldozer im Vergleich zur alten Generation?

1. mehr Leistung -> wahrscheinlich nicht
2. die gleiche Leistung mit einer geringeren Stromaufnahme -> sieht nicht danach aus
3. Integrierte Grafik für Business-PCs -> auch nicht

Wenn man also diese 3 Nutzen betrachtet, dann wurde am Ziel vorbeigeschossen. Und das Marketing, dass eventuell einige späteren Programme auf den Bulldozer optimiert werden, kann auch keinen Anwender vom Hocker hauen.

Mich interessiert hier wirklich, ob das Ziel des Bulldozer Projektes mit den Geschäftzielen von AMD in Einklang ist. Ich denke nicht, dass das Geschäftziel ist, einen technikverspielten Prozessor zu entwickeln, um die Ingenieure an der Stange zu halten und dafür keinen Umsatz zu machen.

Synthie
 
Warum sollten wir das tun? Wir haben das genutzt, was die Hersteller von CPUs mit integriertem Speichercontroller (also alle von uns genutzten im Testfeld) als Standard definiert haben. Und Intel war beim Sockel 1366 und beim Sockel 1155 sehr konservativ und hat eben nur DDR3-1066 freigegeben, was die Mainboards auch bei den Defaults umsetzen.

LGA1156 und 1155 unterstützen DDR3.1333 und sind dafür freigegeben:

http://www.hardwareluxx.de/communit...55-faq-infos-auf-seite-1-part-4-a-772250.html

Beispiel an Hand des Z68
http://www.intel.com/content/www/us/en/chipsets/mainstream-chipsets/z68-express-chipset.html
 
Zuletzt bearbeitet:
@Synthie
BD war ja nie vorgesehen mit einer IGP. Dafür ist der Llano od. Nachfolger Trinity.


Ich persönlich hab den Artikel nochmals gründlichst gelesen und verstehe langsam wie der Bulli aufgebaut ist.
Und ich sag Gott sei dank sind wir hier beim grünen Planeten wo normal diskutiert wird. Man schau sich nur bei CB was da gelabert wird.
 
'

Ja da hast Du recht, aber bevor man auf so Chipsatz und Drittseiten nachschlägt, schaut man auf die ark Seiten, geht am Schnellsten und ist definitiv:

1066/1333 für die 115x CPUs:
http://ark.intel.com/products/48496/Intel-Core-i5-760-Processor-(8M-Cache-2_80-GHz)

http://ark.intel.com/products/52210/Intel-Core-i5-2500K-Processor-(6M-Cache-3_30-GHz)

http://ark.intel.com/products/52213/Intel-Core-i7-2600-Processor-(8M-Cache-3_40-GHz)

Nur die 1366er ware auf 1066 festgelegt:
z.B:
http://ark.intel.com/products/52585...ition-(12M-Cache-3_46-GHz-6_40-GTs-Intel-QPI)

Sollte im Endeffekt aber kein Beinbruch sein.

Schnelleres RAM schaffte bei den 1366er CPUs halbe Wunder, da der L3 Cache Synchron taktet. Mit DDR3-1600 sind das 3,2GHz anstatt 2,133, ne Menge Holz.

Das haben sie bei den 115xer aber abgeschaltet, dort taktet der L3 fest je nach Modell mit 2133 oder 2400Mhz,wnen ich mich recht erinnere, bei den Sandys dann eh Volldampf. Sollte also nicht viel ausmachen, höchstens bei Winrar.

ciao

Alex
 

Ich habe mich in Vorbereitung auf die Intel-Benchmarks durch die Datenblätter der Prozessoren gekämpft. Bei den Sockel-1366-CPUs ist definitiv DDR3-1066 die Vorgabe. Beim 1155 bin ich mir jetzt unsicher, was drin stand (aufgrund der Tatsache, dass ich das vor knapp 5 Monaten recherchiert habe), die DDR3-1066 habe ich aus dem Kopf heraus in den Artikel geschrieben.

Mag jetzt zwar blöd klingen, aber wenn im Mai 2011 laut Datenblatt der Standardwert eines Intel Core i7 2600K DDR3-1333 war, dann hab ich damit auch getestet (und die Angabe im Artikel ist falsch).

Ich werde nochmal schauen, ob ich einen passenden Screenshot finde.
 
Finde einige Einträge hier schon ziemlich grenzwertig.
Warum sollte man jetzt gleich zu einem Intel System wechseln?
Was läuft nicht auf einem AMD System?
AMD musste eine CPU auf den Markt bringen die langlebig sein muss, wei auch der K10.
Von dem her kann man nicht schon jetzt erwarten dass alles optimal läuft und die Software entspr. angepasst ist - das wird schon noch kommen, da bin ich überzeugt.
Ausserdem fällt die CPU heutzutags immer weniger ins Gewicht, lieber bisschen mehr in eine potente Grafikkarte investieren und gut ist.
Und in dieser Beziehnug ist ja AMD hervorragend aufgestellt und bringt ihre Grafikkarten sehr gut in Einklang mit ihren CPU's.
Aber wie gesagt, bei AMD muss man immer langristig denken und handeln, während man bei Intel innert paar Monaten den Kurs wechseln kann.
 
Falls es noch Nachtests gibt, könnte man das Problem mit dem Threadspringen überprüfen?


Laut hardwarcanucks ergeben sich durchaus in einigen Benchmarks erhebliche Leistungseinbußen wenn man den Win7 Scheduler "autonom" arbeiten lässt:

http://www.hardwarecanucks.com/foru...amd-bulldozer-fx-8150-processor-review-3.html
AMD_FX-8150-18.jpg

AMD_FX-8150-18a.jpg



Die archtitekurellen Probleme werden dadurch zwar nicht beseitigt, aber jedenfalls werden die "Vorteile" offensichtlich durch das Schedulerverhalten auch nicht herausgestellt.
 
Finde einige Einträge hier schon ziemlich grenzwertig.
Warum sollte man jetzt gleich zu einem Intel System wechseln?
Was läuft nicht auf einem AMD System?

Es geht eher darum, dass das neue "Technikmonster" keinen Sinn macht. Er braucht zuviel Strom, kostet zuviel und leistet dafür zu wenig. Irgendwie wirkt das alles unausgegoren... *noahnung*
 
Ich wollte nur die Aussage berichtigen und es war nicht böse gemeint.
 
Es geht eher darum, dass das "Technikmonster" im Desktop, vorerst wenig Sinn macht, da es Overall (also alle synthetischen und, Gaming- und Alltagsbenches) sowohl bessere Produkte der Konkurrenz gibt, als auch firmeneigene gibt.

Ob das Technikmonster jedoch im Server-Bereich Sinn macht... ist noch zu erörtern.

Da ist auch nichts unausgegoren, es ist eine völlig neue Architektur, die Vorteile und deutliche Nachteile bietet. Die Vorteile können im Moment aber nur beschränkt genutzt und zukünftige Optimierungen können durchaus aus der Architektur die Stärken herausholen und die Schwächen minimieren. Die Nachteile überwiegen im Moment aber, das ist unbestritten.

Diese Gnadenfrist sollte man AMD schon zugestehen. Auch Intel sollte letztendlich (zumindest mit HTT *lol*)recht behalten.
 
Es ist ja nicht so, dass ich zwingend mehr Leistung benötige. Ich komme mit meinem PII 955BE@3600Mhz gut aus. Nur als Techniknerd wollte ich mir schon gerne einen BD auf mein Board schnellen, aber bei dem Preis im Moment kommt er einfach nich in Frage. Mit der Leistung könnte ich ja noch leben, nur der Stromverbrauch stört mich schon ein wenig und dann noch 250€ für die CPU. Ich denke ich warte mal auf ein neues Stepping und wie sich die Preise einpendeln. Zudem interessieren mich noch Benchmarks vom 3Modul BD. Dort könnte ich mir höheres Taktpotenzial und weniger Verbrauch gut vorstellen.
 
Große Komplexibilität mit vielen Beteiligten und eine lange Laufzeit sind die größten Risiken für das Scheitern eines Projekts.
Trotz aller Sympathie für AMD kann man den FX fast niemandem empfehlen und auch ein bereits angekündigter Nachfolger auf dieser Basis wird die negative Tendenz nicht umkehren, dies wird mittelfristig zu einer großen Belastung werden.

Auch für mich ist es daher völlig unverständlich weshalb nicht Notbremse gezogen wurde als erkennbar war, dass BD die gesteckten Erwartungen nicht erfüllen wird, indem BD ausschließlich als Server-Version gebracht wird und für den Desktop als Pan-B ein optimierter Thuban in 32nm. Offensichtlich wurden große strategische Fehler begangen, da nützt auch Schönreden nichts und letztendlich wird allein der Markt entscheiden ob ein Produkt angenommen wird.

Zudem interessieren mich noch Benchmarks vom 3Modul BD. Dort könnte ich mir höheres Taktpotenzial und weniger Verbrauch gut vorstellen.

Die gibt es schon und der FX 6100 benötigt das OC-Taktpotenzial auch dringend um nicht vom alten X6 1055t überrollt zu werden :(

Benchmark http://www.pcekspert.com/articles/905-3.html
 
Zuletzt bearbeitet:
War doch schon hier glasklar, dass der BD eher laues Lüftchen denn grosser Wurf wird :-[ .... mal wieder möchte man sagen...:[ mal wieder
Da hat ja die aale Unke Mmoe wie üblick voll ins Schwarze gezimmert
Und all den unverbesserlichen Optimisten, welch da meinen, wenn erst die SW optimiert ist , geht der wie Zäpchen,seien gefragt : Wann kam der DualK8 raus ?!??
... ach ja richtig 2003

Wie gross ist heute der Anteil der Desktopanwendungen die vernünftig mit Kernen skalieren ?? 4% , 5%, oder womöglich doch inzwischen 7% ?!?? und da isses noch Herstellerunabhängig - Intel ist ja auch multicore ......

Und wirklich hässlich wirds dadurch, dass durch die ausladende Diegrösse AMDs Möglichkeiten, da über den Preis zu stechen eingeschränkt sind....

Verbleiben darf lediglich die Hoffnung, dass wenn GF endlich mal den 32nmProzess auf die Kette bekommt ( so in 3 Steppings) , die Leistungsaufnahme auf ein erträglich Maß sackt.... :-*

Mmoe
 
Ich wollte nur die Aussage berichtigen und es war nicht böse gemeint.

Das ist bei mir auch nicht anders angekommen. :)

Ich wollte nur bekräftigen, dass ich mich an die Standards von Intel gehalten habe, womöglich aber einen Fehler im Artikel habe.

Passt schon. :)
 
Der Zambezi könnte sich abseits der reinen Performance durch Features am Markt behaupten. So bietet der Llano beispielsweise keinen Support für ECC-RAM mehr. Einige Endanwender wollen darauf verständlicherweise jedoch nicht verzichten. Für diese Zielgruppe wird der Zambezi schnell wieder interessant. Zumal man bei der Intel Konkurrenz zu einem teuren XEON greifen müsste. AMD könnte da sicher auch noch das eine oder andere RAS Funktionen für Desktop User intensiver vermarkten, um die Schwächen des Zamebzi etwas zu kaschieren. Das wäre dem angekratzten Image sicher dienlich den Fokus nach Außen hin noch mehr als jetzt auf Zuverlässigkeit zu verlagern.
 
Es ist ja nicht so, dass ich zwingend mehr Leistung benötige. Ich komme mit meinem PII 955BE@3600Mhz gut aus. Nur als Techniknerd wollte ich mir schon gerne einen BD auf mein Board schnellen, aber bei dem Preis im Moment kommt er einfach nich in Frage. Mit der Leistung könnte ich ja noch leben, nur der Stromverbrauch stört mich schon ein wenig und dann noch 250€ für die CPU. Ich denke ich warte mal auf ein neues Stepping und wie sich die Preise einpendeln. Zudem interessieren mich noch Benchmarks vom 3Modul BD. Dort könnte ich mir höheres Taktpotenzial und weniger Verbrauch gut vorstellen.
Der Stromverbrauch ist wohl das kleinste Problem, wenn man sich die heutigen Grafikkarten anschaut die mit der CPU skalieren müssen...
 
Falls es noch Nachtests gibt, könnte man das Problem mit dem Threadspringen überprüfen?


Laut hardwarcanucks ergeben sich durchaus in einigen Benchmarks erhebliche Leistungseinbußen wenn man den Win7 Scheduler "autonom" arbeiten lässt:

http://www.hardwarecanucks.com/foru...amd-bulldozer-fx-8150-processor-review-3.html

Seh ich das richtig und der alte Phenom ist mit Festpinnen ebenfalls 6 FPS, also 30% schneller bei x264??

Strange, womöglich nur ein copy/paste Fehler.

Wer nen Phenom hat möge bitte nachtesten *attacke*

Alex
 
Zurück
Oben Unten