Artikel Neuer Artikel: AMD FX - Codename "Bulldozer"

Tja, was soll man sagen.
Hunde die bellen beißen nicht!
AMD hat beim Phenom I gebellt (Hinterzimmer in Polen: "Schaut wie toll wir den Phenom übertakten können! Ja, den kann man dann so kaufen!")
AMD hat beim Phenom II gebellt ("Schaut, wir takten auf 100 Trillionen GHz *hust* mit Helium *hust*! Unserer CPU ist total super!"
AMD hat bei BD gebellt ("Schaut wir übertakten auf 1000 Trillionen GHz *hust* mit Helium *hust* Unsere CPU wird total super!)

Und am was kommt raus?
Sie schaffen es nichtmal die ehemaligen hauseigenen Top-CPUs einzuholen.
Haben die hausintern nicht getestet?

PS: Verkaufe AMD Aktien, billigst abzugeben. Sind stubenrein, da sie eh nicht vom Fleck kommen. Einfach in ein Katzenklo legen, da machen sie ihr Geschäft dann vor Ort.
PPS: Wenn ich dann noch dieses Video sehe, könnte ich kotzen:
http://www.youtube.com/watch?v=8rDwXuAINJk&feature=player_embedded#!
Das die sich nicht schämen...
 
Zuletzt bearbeitet:
Wenn die Preise passen wird trotzdem einer in meinem System landen :-)

Schade das aktuelle Titel wie Bad Company 2 oder BF3 nicht getestet wurden. Diese nutzen ja Hexa und Octo Cores deutlich besser aus.

Liegen den FX eigentlich Boxed Kühler bei ?
 
BDv2 wird auch keine APU sonder nur eine CPU. Oder Trinity wird der BDv2 mit der IGP für AM3+ MB. Was aber auch nicht möglich ist wegen dem Sockel.
Na BDv2 ist wieder nur der Kern, wie Bulldozer, der ganze Chip heißt ja Zambezi/Orochi, etc.
BDv2 kommt dann sowohl in Trinity als auch in Vishera (wenns den nun wirjlich gibt).
Wenn Boinc Manager an BD angepasst wird und er dadurch schneller wird dann kommt er zum Einsatz, vorher nicht.
Das dauert ... vielleicht bei ein paar Linuxprojekten ... aber sonst ...
Na es ist ein Hochtaktdesign, erinnert an die ersten Pentium 4. Die hat dann auch jeder gekauft ;)
Ja, weil Intel draufstand, bzw. Intel im Hintergrund die Fäden zog und "Subventionen" verteilte.
@Opteron
Der Bulli dürfte doch eigentlich auf Dirk Mayers Mist gewachsen sein. Die CPU ist ja schon eine ganze Weile in der Entwicklung und die Weichen wurden ja nicht erst im letzten Jahr gelegt. Ich bin froh das er weg ist.
Ja, aber mein Argument ist, dass es mit Ihm besser gewesen wäre, eben weils auf seinen Mist gewachsen ist. Jetzt hat sich eher keiner daraum gekümmert - meiner Meinung nach ;-)

Wie gut der Bulli mit SSE 4.1 läuft, ist doch im Grunde egal, denn in der Masse spielt SSE 4.1 keine Rolle. Was nutzt es wenn von 1000 Programme nur 2-3 SSE 4.1 sehr gut nutzen? Nichts.
Ja ne, fands nur in Dresdenboys Artikel aus Architektursicht interessant. Ein eigener Kommentarthread wäre da vielleicht nicht schlecht gewesen, aber egal, zu spät.

Ok, einen Vorteil hat der Bulldozer für AMD. Für das Marketing für den User der bei Saturn und Co einkauft, ist der er perfekt. Stichworte wie: 8 echte Kerne (Was nicht mal stimmt), 3,6GHz Takt, 12MB Cache und DDR3-Ram mit 1866 MHz klingen doch prima für die Aufsteller.
16MB bitte... *lol*
Intressant ist auch wie sich die reviews teils unterscheiden ^^
so jetzt können wir alle auf BDv2 warten *rofl*
Jo echt.

Dabei benutzt AIDA ja sogar schon AVX und XOP. Hier haben sie auch mal ohne getestet:
http://techreport.com/articles.x/21813/17
 
Hmm, sehr schade und ernüchternd, aber danke für den guten Test!

Eigentlich wollte ich mir zu Weihnachten ja was neues gönnen, aber nun bleibt der X6 erst mal im Sys. bis BD2 raus kommt, es sei denn künftige BOINC-Benches sind überragend..

Gruß
Krümel
 
Hm, anscheinend ist der Pc Bereich nicht mehr interessant für AMD.
Wieder eine "Server Cpu".*abgelehnt
 
Ich frage mich vor allem: Wer soll die CPU kaufen?

Der X6 1090T ist nur wenig langsamer, verbraucht etwa das Gleiche, kostet aber 100 € weniger. Der Core i7 2600k kostet nur ca. 10 € mehr, ist eine gute Ecke schneller und schneided beim Verbrauch um Welten besser ab. Für theoretische Performance und realen Mehrverbrauch zahlt doch niemand.
Und zum Thema Softwareoptimierungen in der Zukunft... da sollten sich alle vor Augen führen, dass wir es hier nicht mit dem Marktführer zu tun haben. Ich seh da ehrlich gesagt ziemlich schwarz.
 
Ja ne, fands nur in Dresdenboys Artikel aus Architektursicht interessant. Ein eigener Kommentarthread wäre da vielleicht nicht schlecht gewesen, aber egal, zu spät.
Kommt noch. ;)
 
Menschen vergessen eben schnell und wenn ich so sehe was für Leute einen i7 2600 haben udn was sie damit machen wird mir auch schlecht.

Bitte nicht vergessen, dass der I7-2600 mit einer Intel HD-3000 / 2000 Grafik kommt. D.h., für EUR 250 bekommst du einen der schnellsten CPUs und als Draufgabe eine gute 'Business' Grafik, die besser ist als die Einstiegsklasse von AMD und nVidia.

DAs Gesamtpaket passt hier, egal ob man die Power braucht oder nicht. Aber - man wird diese CPU auch länger verwenden und wenn ich daran denke, dass ich den Core Duo-6400 3,5 Jahre ohne Performance-Engpässe nutzen konnte, dann rechne ich mit einer Nutzungsdauer von mind. 4 Jahren.

Synthie
 
als Draufgabe eine gute 'Business' Grafik, die besser ist als die Einstiegsklasse von AMD und nVidia.
Besser ist die sicher nicht, aber nach dem Sprichwort vom geschenkten Gaul darf man sich auch nicht über die Treiber und Qualitätseinbußen bei Spielen beschweren.
Als Notfallgrafik beim Grafikkarten GAU bzw. im reinen 2D Betrieb taugts auf alle Fälle.

Thx :)
 
@TNT
dieser "Patch" ist ein neu designter Scheduler, der grundlegend anders arbeitet. Den schreibt man nicht mal eben so. Man bedenke wie lange der Ahtlon 64 auf ein 64bit Windows gewartet hat.
Nur war damals leider auch die Performance auch ohne top :-/

den scheduler Patch gibt es aber sogar schon, der ist nämlich in Windows8 bereits enthalten.
Den Patch gegen L1 invalidations gibt es evtl. noch nicht.

siehe: http://www.xtremesystems.org/forums...nally-tested&p=4969730&viewfull=1#post4969730
 
Schönes Review.

Nun ist es also gekommen, wie vermutet. Wobei ich sagen muss, meine Vermutung, daß Zambezi zwischen 2600 und 2500 liegt, war wohl immer noch etwas zu hoch gegriffen.

Charlies Artikel zu der Bulldozer Architektur fand ich auch sehr interessant. Das hat doch erheblich zu meiner Erleuchtung beigetragen.

Nun muss man natürlich schauen, woran hat es gelegen. Sollte Bulldozer genauso sein? Ist er im Serverbereich eine echte Sahneschnitte mit Zukunftsausblick?

Da er im Desktopbereich doch eher fäkal abschneidet, vom MT Bereich einmal abgesehen, ist die Frage(n), die ich mir stelle,

sollte noch mehr Takt kommen und das hat nicht geklappt,
sollte unter Umständen der FP&Co. Bereich buggy sein
sollten Prozessprobleme eine Rolle spielen
oder ist es eine Kombination aus allen
oder ist es etwas ganz anderes.

Was ist da also passiert?

Für mich als Gamer ist die CPU kein Hingucker und im Hinblick darauf, daß mein 955er bei 4/2,6 GHZ CPU/NB ohne Probleme und ohne extra Voltage Add läuft, muss ich mich natürlich fragen, ob ich einen an der Waffel habe, wenn ich einen Zambezi kaufe (was ich eigentlich vorhatte).
Natürlich kann man sagen, mir würde ein schneller Athlon vollkommen ausreichen, ich brauche noch nicht einmal einen Phenom, aber darauf kommt es ja nicht an.

In den Games hat Sandy Bridge den Zambezi an den Eiern, um es mal direkt zu sagen. Das stimmt mich etwas traurig und macht mich auch ziemlich ärgerlich, wenn ich an die Kübel voll Hohn denke, die in den nächsten Stunden und Tagen über den AMD-markentreuen Leuten (ich sage bewusst nicht Fanboys) ausgegossen werden.

Zu guter Letzt der Preis... ein 1090T kostet 135 € +-10 ein 8150 liegt bei über 200€ und ich muss sagen, alles über 180€ für eben diesen 8150 ist ein schlechter Witz.

Natürlich kaufe ich jetzt keine Sandy, obwohl es eigentlich eine schöne CPU wäre, aber mein persönliches Wohlempfinden ist bei AMD Systemen einfach höher, als bei Intelsystemen.

Ich hoffe, man wird irgendwann eine schöne und interessant zu lesende Antwort darauf bekommen, was bei Zambezi im Argen ist (und nicht, daß es eben alles genau so sein soll, wie es ist und die CPU für den Desktopbereich einfach Scheisse).

Deutungen und Analysen meines Beitrages über das geschriebene Wort hinaus sind nur durch mich zulässig. Beschwerden bitte per PM =)
 
Intel HD2000/3000 ist aber wirkluch nur vernüftig als Desktopgrafik zu sehen. Die Treiber haben bei Spielen viele Probleme und bei der BluRay Wiedergabe besteht weiterhin der 24p Bug.

Ich sehe das umgekehrt zu oben, die Einstiegsklasse von AMD und nVidea ist besser!
 
Die Einstiegsklasse bzw. die einfachen IGPs von AMD (Radeon HD 42xx) bzw. vglb. von nVIDIA sind "ausgereifter" ...
 
Schade ich hatte schon gehofft das der FX den 2600K schlagen kann.
 
Das Ergebnis finde ich jetzt nicht so überraschend. Es deckt sich weitgehend mit dem was AMD angekündigt hatte. Der Zambezi ist schließlich auch mit Augenmerk auf den Sockel G34 entwickelt worden. Da könnte er durchaus Akzente setzen, obgleich viele Hersteller das Vertrauen in AMD verloren haben, sodass ein erneuter Einstand schwierig wird. Hoffentlich bleibt der Revision Guide für die Family 15h weitgehend leer. So recht glauben mag ich es nicht, dass da nicht noch die eine oder andere böse Überraschung wartet, aber wünschenswert wäre es. Zumindest ist die Bulldozer Architektur ausbaubar. Anders als die des K10, die mehr als ausgelutscht ist. Es bleibt zu hoffen, dass der Sockel FM1 bald davon profitiert und den armseligen Llano los wird. Verglichen mit dem ist der Zambezi eine wahre Sternstunde. Apropos Stars. Der Agena erscheint plötzlich auch in einem ganz anderen Licht. Oft gescholten, verdoppelte er doch zumindest damals auf einen Schlag die Rechenleistung, ohne jedoch zu den Core 2 Quad aufschließen zu können. Das hätte dem Zambezi auch gut gestanden, aber war wie gesagt nicht zu erwarten. Seine Daseinsberechtigung hat er jedoch zweifelslos.
 
Sehr ernüchternd.
Wer wechselt dafür seinen kompletten Recher? Das bischen Mehr... hätte man auch AM2/3 kompatibel hinbekommen. Auch ist die Kuh noch nicht von Eis... wenn jetzt noch ein dummer Bug auftaucht haben wir wieder das Phemon I Desaster - und der BD II mit echten vollzähligen Caches ist die bessere Lösung - wenn AMD das finanziell noch verkraftet. So wie der BDv1 jetzt daher kommt ist das ein OEM Prozessor, kein echter FX.
 
Danke für den Test hab jetzt mal 5 auf verschiedenen Seiten gelesen... was soll man sagen. BD wird vom 1090T und 2500K in den meisten relevanten Anwendungen für den Desktop zerstört. Wird wirklich interessant die Preisentwicklung zu beobachten wie will man mit dem Chip im Desktop einen höheren Preis als für den 1090T rechtfertigen? Bleibt nur zu hoffen das BDv2 besser wird sonst können wir uns auf gesalzene Ivy Bridge Preise Freuen.
 
Unter Volllast war unser Testexemplar auf einem Mainboard mit Onboard-Grafik (Asus M5A88-M EVO, AMD 880G) um etwa 10 Prozent sparsamer als der Vorgänger Phenom II X6 1100T
Zitat von heise.de

Kann mir mal wer verraten, wie die enormen Unterschiede was die Leistungsaufnahme angeht herkommt? Liegt das nur an dem 990FX Chipsatz den alle anderen hatten? Mich würde mal interessieren wie das auf meinen 970er Board aussehen würde. Habe schon Interesse an dem 6Moduligen Buli.

Gruß,
HotteX
 
Mannoman... wenn ich das hier so sehe, köntne man glatt meinen AMD hat der versammelten Userschaft den Krieg erklärt.
Warum erwartet ständig jeder einen zweiten K7?
Ich für meinen Teil hab den Test gelesen und gesehen dass BD zwar nicht alles abhängt, aber eben auch nicht auf Bobcat-Niveau rangiert.
Er hat durchaus seine Lichtblicke die einiges Potenzial offenbaren.
Als der P4 damals gelauncht wurde, war auch jeder ähnlich getaktete P3 schneller, und warum hats niemanden gestört? - Weil Intel draufstand.
Mal anders betrachtet:
- Der Retail-Markt ist vergleichsweise klein und die Margen sind nicht toll.
- Der Servermarkt wirft wesentlich mehr profit ab
- AMD hat nicht unendlich Entwicklungsressourcen
- Man ist bis vor kurzer Zeit nahe an der Pleite vorbeigeschrammt, wo man davon ausgehen kann dass die Entwicklung in dieser Zeit zugunsten des operativen Geschäfts quasi eingefroren wurde (daher kann man auch die lange Entwicklungszeit so nicht stehen lassen)
- Die Plattform ist nur ein mildes Update der bestehenden

Fassen wir mal zusammen:
Der Enthusuast-Desktop-Markt ist recht klein und der Desktop allgemein schrumpft zusehens.
Von den Leuten die sich einen "HighEnd" - PC kaufen, sind nichtmal 10% so gut informiert wie wir...
Von diesen wiederum interessiert die CPU-Rohleistung nur einen Bruchteil.
Und bei eben diesem Bruchteil sind die Anwendungen in denen die paar % Unterschied deutlich ins Gewicht fallen noch geringer.
Und dafür soll man eine extra hochpotente Spezial-CPU entwickeln?
- Da stecke ich die Ressourcen lieber ins Margenträchtige Serverfeld und Stückzahl bringenden Mobile-Bereich.
Fakt ist doch, bei allen Benchmarks und gemecker, dass im Alltag selten die CPU limitiert.
Die Programme die in ein CPU-Limit stoßen sind aber wiederum meistens ohnehin Software die viel optimiert wird und Multithreaded arbeitet... *noahnung*
Wer ein Fazit findet, darf es behalten.

@Opteron
Das mit den Latenzen und Durchsatz fand ich auch sehr interessant. Dass grade SSE4.1 z.b. sehr schnell ist, 4.2 aber nicht.
Entweder hier versteckt sich eine Menge Optimierungspotenzial, oder das wurde bewusst so gestaltet weil der Code in realen Anwedungen kaum zum Einsatz kommt.
Es gibt ja noch eine Reihe solcher Beispiele... hochinteressant... BD ist eben nicht kategorisch und von Hause aus ein "langsames" Design und SB in allem unterlegen...
Warum sich das aktuell nicht auf die Straße bringen lässt, ist eine andere Geschichte. Interessant ist es allemal.

Gruß,
ich
 
Mannoman... wenn ich das hier so sehe, köntne man glatt meinen AMD hat der versammelten Userschaft den Krieg erklärt.
Warum erwartet ständig jeder einen zweiten K7?
Ich für meinen Teil hab den Test gelesen und gesehen dass BD zwar nicht alles abhängt, aber eben auch nicht auf Bobcat-Niveau rangiert....

Koennte man meinen, dass AMD den 'Krieg' um Performance in der Desktopspitze aufgegeben hat.
Man kann die Leistung - so wie sie sich heute darstellt - nicht zufrieden sein insgesamt - wer das tut, hat AMD schon im Desktop schon aufgegeben.

Aber auch AMD wird BDv1 verkaufen - und BDv1 funzt ja auch.
Aber fuer diese Die Groesse und Transistoranzahl (neuer Rekord) kommt einfach im Desktop wenig an.

AMD muss nachlegen - allein aus wirtschaftlichen Gruenden...
 
Je mehr ich über Bulldozer lese, desto mehr gewinne ich den Eindruck AMD hätte das Modell lieber als 4-Kern CPU mit 8 Threads vermarkten sollen. Die relativ schlechte Performance im Vergleich zu einem 1090T rührt doch offensichtlich daher, dass der Phenom II 6 echte Kerne hat, der Bulldozer aber "nur" 4 Kerne mit verdoppelter Anzahl an Integereinheiten. Klingt eher nach PR-Desaster als nach einer technischen Fehlentwicklung ... man stelle sich einen 6 Modul Bulldozer mit 12 Threads vor und vergleiche diesen dann mit nem Phenom II X6 ...

Dia
 
Interessantes Review danke.

Was mich besonders freud ist wie Heftig der jute x6 1100T sich überall Schlägt, da habe ich also nix Falsch gemacht als ich den mir vor 5 Wochen neu Kaufte incl. AM3+ Brett ;)
Finde die Preis+Leistung genial vom X6 und egal was ich hier mache immer brachiale Leistung.

Mal Abwarten ob AMD evt. dem 8er auch alles mit 8 Baut, habe das Gefühl der würde besser laufen wenn jedes Modul sein eigenen Anbindungen hat und sich nix Teilen muss.

FX so wie er jetzt ist werde ich keinen Kaufen, wenn mich einer Fragt was soll ich Kaufen würde ich Sagen Horte x6er so lange es noch welche gibt. Der Bulli wird erst als v2 ggf. ein Kauf wert sein, der x6 Schlägt ihn zu oft oder ist Parktisch gleich auf.

Ein Herz für Thubans *fg*

mfg
 
Ich setze seit Jahren AMD.

Und muss sagen ich bin von BD enttäuscht.

Ausserdem bin ich mit der Fazit nicht ganz einverstanden.

Und die billige Ausrede: es soll die Anwendungen angepasst werden, gilt nicht. Nicht einmal Intel bekommt sämtliche Software optimiert. AMD mit 20% Markt ganz zu schweigen.
Denn wenn so wäre, dann könnte man die Software auf der X6 1100T optimieren und dann würde es ziemlich vieles platmachen was auf dem Markt ist und müsste man nichts neues rausbringen.

Ausserdem: der BD hat 33% mehr Kerne und 10% mehr Takt als der X6. Und dort, wo überhaupt, schneller ist als der X6, entpricht die Leistung nicht einmal der Taktunterschied.
Abgesehen von Syntetische Benchmarks (welche für mich nicht zählen) und WinRAR (mal ehrlich 90% der Benutzer werden 1-2 Mal por Monat ein rar oder zip datei entpacken. Und die meiste Dateien sind so klein, dass man keine 8-Core CPU braucht um sie zu entpacken)

AMD hätte besser der X6 bzw. X4 nehmen sollen, auf 32nm Shrink machen, Takt erhöhen und die eine oder andere Optimierung vornehmen.
Hätte mehr Leistung gebracht, besser ausgesehen und vor allem massiv günstiger gekommen.
 
Zurück
Oben Unten