News "Bulldozer war ein totaler Fehlschlag - und wir wissen das"

Ich verstehe nicht das AMD selbst über den Bulldozer so herzieht.
Ganz ehrlich man hätte es besser verpacken können.
In meinen Augen ist der Bulldozer ein Projekt gewesen wo man gezielt versucht hat etwas wirklich neues zu bauen, dummerweise sah man dadurch als XY-User nicht das Potenzial der CPU und sie wurde nicht wie verdient am Markt angenommen.

Daraus hat AMD gelernt und probiert jetzt mit direct Memory access von GPU Kern und CPU Kern direkt die Hürde "umsetzung" als erstes anzugehen um den kommenden APUs den bestmöglichen Start zu bieten.

Der Bulldozer ist keine schlechte CPU und das man hinter Intel herhinkt wundert rein von der Firmengröße und Marktmacht nicht. Ich finde man sollte AMD loben wenn sie beim dem geringen R&D Buget tatsächlich großartige Sachen herrausbringen.

Um das mal in eine andere Branche ohne "Quasimonopol" zu übertragen:
Honda ist der größte Motorenhersteller der Welt, Mitsubishi Motors bringt den ersten Direkteinspritzer in Serie und den ersten Diesel mit Variabler Ventilverstellung herraus.
Hier ist nicht "dissen" sondern erstaunt gucken angesagt! Genau so ist es beim AMD.

Man mag auch gespannt sein wie es bei AMD weitergeht, ich weiß nur: langweilig wird es sicher nicht.
 
Auch im Servermarkt, auf dem die Architektur überdeutlich zielte, sah man nicht wirklich einen Verwendungszweck.

Und was hat AMD daraus gelernT? Das man merkliche Verbesserungen um ein Jahr verschiebt? Oder ganz und gar aufgibt und stattdessen nur den GPU-Part tunt und ständig darauf verweist?

Ganz ehrlich, das sie aus dem Desaster gelernt haben sehe ich nicht. Ebensowenig Interesse weiterhin ein Intel-Konkurrent zu sein-
 
@snooopy365
Das Problem war vermutlich das man sich bei der Entwicklung der Architektur bereist verkalkuliert hatte.
Man war offenbar davon ausgegangen daß das Multithreading zum erscheinungstermin deutlich weiter verbreitet ist und hatte damit eine satte Bauchlandung hingelegt.
Dazu dann noch die für den Server/Workstation Sektor ausgerichteten CPU Designs, bei denen man sich bereits beim K10 den Ruf in ausgerechnet diesen Sektor ruinierte und Intels gesteigertes Entwicklungstempo (ganz ehrlich....beim P4 gab es über Jahre hinweg abseits der Takterhöhung kaum eine ernsthafte Weiterentwicklung) und das Ergebnis dessen sehen wir heute.
 
30% weniger Schluckspecht und Bulldozer hätte alles Platt gewalzt. BD war ein Fehlschlag weil die Dresdener Pappnasen den 32nm SOI völlig versiebt haben.
 
@snooopy365
Das Problem war vermutlich das man sich bei der Entwicklung der Architektur bereist verkalkuliert hatte.
Man war offenbar davon ausgegangen daß das Multithreading zum erscheinungstermin deutlich weiter verbreitet ist und hatte damit eine satte Bauchlandung hingelegt.
Dazu dann noch die für den Server/Workstation Sektor ausgerichteten CPU Designs, bei denen man sich bereits beim K10 den Ruf in ausgerechnet diesen Sektor ruinierte und Intels gesteigertes Entwicklungstempo (ganz ehrlich....beim P4 gab es über Jahre hinweg abseits der Takterhöhung kaum eine ernsthafte Weiterentwicklung) und das Ergebnis dessen sehen wir heute.
Genau die CPU wurde von allen zerrissen aus falschen Gründen.
Aber AMD hat hier keinen "Fehler" gemacht sondern einfach zuweit entwickelt, die CPU ist weiter als die Software.
 
Genau die CPU wurde von allen zerrissen aus falschen Gründen.
Aber AMD hat hier keinen "Fehler" gemacht sondern einfach zuweit entwickelt, die CPU ist weiter als die Software.

Bei Grafikkarten lässt man sich das ja noch gefallen, aber bei CPUs ist sowas schon immer problematisch gewesen. Es dauert immer eine relativ lange Zeit, bis Software in der Breite neue Hardware unterstützt und auch davon profitiert. War aus meiner Erfahrung auch schon bei der Einführung der DualCore-CPUs so und wird sich auch nicht ändern. AMD ist auch nicht wirklich in der marktbeherrschenden Position, um ein neues CPU-Design in den Markt zu drücken. Selbst Intel ist damit bei den Itanium-CPUs im Serverbereich gewaltig auf die Nase gefallen. Software-Hersteller richten sich nun einmal nicht nach den 1-2% der potentiellen Käufer, die immer die neueste und am Anfang vielleicht exotische Hardware im PC haben.
 
Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.

Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut; die haben aus ihrem P4-Fehlern gelernt und AMD hat diesen Fehler in verschärfter Form nachgebaut.

Trotz gewaltiger Verschiebung hat die Konkurrenz mit deutlich älteren CPUs noch besser abgeschnitten.


Und die Eff der BD ist einfach grottig, wäre die SW auf Multicore optimiert wäre ein Argument der AMD-Fanboys auch hinüber "Der ist nie ausgelastet, also wird der max. Verbrauch nie erreicht"
 
Das ist doch polemischer Quatsch. Bulldozer ist nicht mal ansatzweise so schlimm wie es der P4 war. P4 war von vorn bis hinten Mist, ein völlig vermurkstes Konzept. Das kann man von Bulldozer nun wirklich nicht behaupten. Das Konzept ist richtig gut. Lediglich die Umsetzung der ersten Generation hat man verhauen. Hinzu kommt der suboptimale Fertigungsprozess. Und so schlimm ist die Effizienz von Bulldozer nun auch nicht. Oder heisst Bulldozer jetzt nur noch FX-8150/8350 bei maximaler Auslastung? Schau dir kleinere Modelle an, die die Taktfrequenzen nicht überreizen. Die brauchen deutlich weniger. Erst recht, wenn du die Spannungen etwas absenkst, die AMD meist recht hoch anlegt.
 
Ich bin eben der Realität zugetan, nicht einer Marke.

Der P4 wurde mit dem Northwood richtig gut und übertraf AMD-CPUs locker. Erst die größten Prescott-Modelle taugten wieder nicht wirklich.

FX-6 und FX-4-Modelle von 95-125W sind von der Eff auch chancenlos gegen gleichschnelle Intel, daran gibts nichts, absolut nichts zu rütteln. Alles andere ist Wunschdenken der Fans
 
Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.

Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut; die haben aus ihrem P4-Fehlern gelernt und AMD hat diesen Fehler in verschärfter Form nachgebaut.

Trotz gewaltiger Verschiebung hat die Konkurrenz mit deutlich älteren CPUs noch besser abgeschnitten.


Und die Eff der BD ist einfach grottig, wäre die SW auf Multicore optimiert wäre ein Argument der AMD-Fanboys auch hinüber "Der ist nie ausgelastet, also wird der max. Verbrauch nie erreicht"
Welcher Fehler war das?
Das sie für die Leistungssteigerung auf eine technologische Weiterentwicklung gesetzt haben oder das sie aufgrund der Marktanteile Softwareseitig praktisch ignoriert werden?
 
Etwas zu entwickeln das

a.) das an den Bedürfnissen des Endanwenders vollkommen vorbeigeht (muß ich wieder einmal schreiben das AMD uns völlig ignoriert hat, aus unerfindlichen Gründen trotz lächerlichen Marktanteil rein aufs Serversegment geschaut hat und uns letztendlich einen kastrierten Server-CPU hingeschmissen hat und auch jegliche spürbare Weiterentwicklung aufschiebt bzw. nie mehr bringt?)

b.) insgesamt zu viel Strom für die Leistung verbraucht

AMD hat doch selbst nicht damit gerechnet das der BD in den nächsten 5 Jahren optimales SW-Futter bekommt. Die konnten doch nicht so blind sein. Intel hat sich trotz der Marktmacht nie auf eine solche Entwicklung gehofft und dafür gesorgt das neue CPUs gut mit der vorhandenen SW abschneiden.


Eine technologische Weiterentwicklung sollte irgendwie nachvollziehbar sein. Eine Weiterentwicklung die nix bringt ist für mich auch keine.


Vielleicht sollte ich mal einen Referenz-Beitrag schreiben und zukünftig nur noch verlinken. Denn seit Erscheinen des BD hat sich trotz vieler Behauptungen der AMD-Fans nicht viel geändert. Verbessert sich BD durch neue Steppings um 5% verbessert sich Intel um 10%

Daran ändert auch deine SW-Theorie nix. Bis es soweit ist hat keiner mehr einen BD im PC; außer er hatte sich einen FX-8xxx gekauft obwohl für seine Bedürfnisse ein X2-250 gereicht hätte

Und mit diesen Beitrag klinke ich mich hier aus, denn es wurde alles gesagt, das Fazit ist im Titel ablesbar
 
Wo war der P4 Northwood "richtig gut"? Der war vielleicht besser als Prescott. Wirklich gut war er aber noch lange nicht. Schon gar nicht im Vergleich zur Konkurrenz. Der war genau so 'ne Krücke wie die restlichen P4. Weniger Performance pro Kern als der popelige Atom bei gleichem Takt. Und das bei trotzdem relativ hoher Leistungsaufnahme im Vergleich zur Konkurrenz, wenn auch nicht ganz so schlimm wie Prescott.

Und zuletzt war es eher so, dass AMD sich um 10% verbessert hat, Intel jedoch nur um 5%.

Und lass doch mal diese unsinnige Softwaredebatte bleiben. Im Serverumfeld ist die Software sehr wohl auf die jeweiligen Systeme zugeschnitten. Auf der einen Seite (richtigerweise) bemängeln, man habe sich bei der Entwicklung nur auf Server fokussiert und den Client-Markt aussen vor gelassen, auf der anderen Seite dann aber vorwerfen, man wäre beim Softwaresupport im Client-Markt "blind" gewesen, ergibt NULL Sinn.
 
Deutlich mehr Rechenleistung zu bekommen geht an den Bedürfnissen der Endanwender vorbei?

Sachen gibts... :o

Im übrigen ist Intel nahezu den gleichen Weg gegangen.
Haswell beherrscht inzwischen ebenfalls FMA3 und man setzt ebenfalls primär auf eine Leistungssteigerung der integrierten GPU.
Damit tritt bei Intel fast exakt das gleiche wie bei AMD ein....eine kaum vorhandene effektive Leistungssteigerung aufgrund fehlender softwareseitiger Nutzung der Möglichkeiten des Prozessors. Es liegt also ebenfalls der Großteil der möglichen Leistungssteigerung ungenutzt brach.
Was ihnen aufgrund der deutlich schlechteren SMT Skalierung und der lediglich weiterentwickelten Architektur größtenteils erspart blieb war die verschärfte Multicore Problematik. Beim Verbrauch konnte man natürlich auch von seinen Fertigungsvorteilen profitieren.

Edit: Das man scheinbar den Server/Workstation Markt zu stark im Fokus hatte mag durchaus sein aber wenn dann nicht erst seit der Bulldozer Architektur.
Wenn dann könnte man dies bereits auf den ersten Phenom ummünzen, denn so gesehen bestanden bereits dort die gleichen Probleme.....zu viele Kerne für den Großteil der vorhandenen Software und es war praktisch kein Spiel in der Lage alle Kerne effektiv zu nutzen.
 
Zuletzt bearbeitet:
Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.

Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut

Ich lehne mich beim raten mal seeeehr weit aus dem Fenster mit der Vermutung das Du nicht den Itanium meinst mit dem Intel eindrucksvoll bewiesen hat wie gut eine CPU am Markt ankommt wenn sie nur eine mörderisch gute IPC hat. Richtig geraten?
.
EDIT :
.

Und die Eff der BD ist einfach grottig

Diverse Tests zeigen das BD im Server bei Performance/Watt mit Intels aktueller Generation noch einigermaßen mithalten kann. Grottig ist alleine der 32nm Prozess aus Dresden.
 
Zurück
Oben Unten