News AMDs Mark Papermaster widerspricht: Bulldozer kein Versager!

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.058
Renomée
10.440
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<img src="http://www.planet3dnow.de/photoplog/images/54308/1_AMD-Logo.png" border="0" alt="AMD" class="newsfloatleft">In der vergangenen Woche hatten wir über die verblüffenden Aussagen des aktuellen Corporate Vice President und General Manager of the Server Business Unit bei AMD, Andrew Feldman, <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1369917323">berichtet</a>. Dieser gab wörtlich zu Protokoll: <i>"Bulldozer war ohne Zweifel ein totaler Fehlschlag. Wir wissen das. Das kostete dem CEO den Job, es kostete einem Großteil des Managements den Job, es kostete dem Vice President of Engineering den Job."</i> Eine derartige Aussage über ein noch aktuelles Produkt - egal ob zutreffend oder nicht - ist in der Unternehmenskommunikation für gewöhnlich absolut unüblich und wurde bereits bei uns im Forum ausgiebig <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=4781794#post4781794">diskutiert</a>.

Heute nun hat die PC Games Hardware im Rahmen der Computex in Taiwan ein <a href="http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/Mark-Papermaster-Interview-Bulldozer-Never-Settle-1072730/" target="_blank">eigenes Interview</a> mit einem anderen AMD-Manager geführt, dem Chief Technology Officer Mark Papermaster. Konfrontiert mit den forschen Aussagen seines Kollegen verneinte Papermaster, dass Bulldozer intern als Fehlschlag angesehen werde, merkte jedoch an, dass jede neue Architektur erst einmal am Markt ankommen und die Software optimiert werden müsse. Mit der aktuellen Piledriver-Ausbaustufe sowie der kommenden Steamroller-Version sei AMD zudem die Schwachstellen angegangen und die Software wie auch die Fertigung seien besser geworden. Zudem merkte er an, dass mit Steamroller und Excavator noch mindestens zwei weitere Ausbaustufen der Bulldozer-Architektur geplant seien. Für welche Segmente (Server? Desktop? APUs?) sagte er jedoch nicht. Gerade für den klassischen Desktop (CPU, nicht APU) gibt es immer noch keinen Nachfolger des Vishera auf der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Roadmap</a>.

Ein solches Dementi war zu erwarten, ganz einfach weil eine Aussage wie die von Andrew Feldman so gar nicht ins übliche Schema passt. AMD will schließlich noch viele Trinitys, Richlands, Visheras, Abu Dhabis, Seouls und Delhis - allesamt aktuelle AMD-Produkte, die auf der Bulldozer-Architektur basieren - verkaufen. Da passt das Statement eines amtierenden AMD-Managers, dass das alles Totalausfälle seien, nicht so recht ins Konzept.

Womöglich wurde die Aussage Feldmans auch missinterpretiert oder er hat sich unglücklich ausgedruckt. Feldman ist schließlich verantwortlich für die Serversparte und "Bulldozer" wird gelegentlich auch nicht für die komplette Architektur verwendet, sondern stellvertretend nur für die erste Generation, also den Zambezi bzw. in seiner Serverwelt für die Varianten Interlagos/Valencia/Zurich. Das würde das harsche Urteil teilweise relativieren. Aber ein Kuriosum bleibt das Statement so oder so.

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1369917323">"Bulldozer war ein totaler Fehlschlag - und wir wissen das"</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Neue offizielle Roadmaps von AMD - FM2+-Sockel für Kaveri bestätigt</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1370431755">Computex 2013: AMD will Kaveri Anfang des vierten Quartals 2013 vorstellen</a></li></ul>
 
Ich glaube Feldmann hatte einfach einen frustrierten Tag und da lag es nahe einfach mal die Wahrheit auszuplaudern.

Ich bezweifel aber dass ein bessere Bulldozer auch zu mehr Marktanteilen geführt hätte. AMD kann so ziemlich anstellen was man will, gegen BigBlue ist kein Kraut gewachsen.

ARM soll den aktuellen Zenit genießen. Intels Atom werden sie früher oder später aus dem Markt drängen.
Siehe: http://www.handelsblatt.com/unterne...sung-stellt-tablet-produktion-um/8291240.html
 
ist zwar offtopic aber
@mariahellwig
Den verlinkten Artikel kann man in die Tonne treten.
Bislang setzte Samsung für seine Android-Kassenschlager Chips des britischen Herstellers ARM ein.
1. ARM stellt keine Chips her und 2. Samsung hat sich schon in der Vergangenheit flexibel gezeigt, was den Einsatz verschiedener Prozessoren in seinen Geräten angeht. Man hatte ja auch schon Qualcomm, TI, Nvidia et.al. in seinen Prdoukten. Insofern sehe ich da keine grundsätzlich neue Strategie momentan.
Interessant ist, dass nun einige Anbieter für billige Geräte auf Intels Produkte setzen (Asus Fonepad z.B.).
Ich glaube Intel drückt die Dinger momentan schlicht zu günstigen Preisen in den Markt. Samsung bekommt dafür eventuell gute Konditionen bei Haswell o.Ä.

Intel will in die Segmente mit hohen Margen, d.h. HighEnd Tablets. Da sieht man momentan aber noch nicht viel von ihnen. Ein Hersteller wie Qualcomm ist momentan im Mobilbereich deutlich erfolgreicher als Intel. Die 800er Snapdragons dürften Intel sowohl bei der CPU als auch bei der GPU-Leistung alt aussehen lassen. Was Baytrail dann macht muss man erst noch sehen. Aber die Krait 400-Kerne bringen schon ziemlich viel Leistung mit.

Zu Bulldozer und AMD:
Macht auf mich ein bisschen den Eindruck, als ob da verschiedene Interessengruppen im Unternehmen arbeiten. Quasi ein Kampf um die begrenzten Ressourcen.
 
Zuletzt bearbeitet:
Intel will in die Segmente mit hohen Margen

Ja. Das funktioniert aber nur wenn man den Markt kontrolliert. Aktuell bieten Intel's Win8 Geräte kaum einen Mehrwert gegenüber den preiswerten Andriod/ARM Geräten. Sehr störend. Dafür muss man diese erst mal aus dem Markt drängen. Ich sehe mit Samsung eher den Anfang eines Trends. Und Samsung ist keine Garagencompany.
 
.... merkte jedoch an, dass jede neue Architektur erst einmal am Markt ankommen und die Software optimiert werden müsse.

:] Meine Fräsung, wenn ich so einen Blubberltsch nur höre (bzw. lese) ...... :]

Noch nie ist Software zügig auf Prozzis optimiert worden, sofern es nicht zwingend erforderlich ist!
Wir leben im "Jahr 9 des Multicore "und noch immer werfen knapp 90% der Anwendungen EINEN Kern an. Vor knapp zehn Jahren habe ich mal in einen witzigen Artikel bezüglich SSE2 gelesen, dass der Autor Tage suchen musste um eine SW zu finden die wenigstens MMX benutzt.... Es fliessen üblicherweise die Erungenschaften der Vorvorvorgängerarchitektur in den Code - demnächst SSE3 , nächstes Jahr SSSE3 und 2018 dürfen wir uns ganz dolle auf die erste Hälfte von SSE4 freuen *party*


@ mariahelwig

BIGBLUE steht üblicherweise für IBM. nicht Intel ... und die verkaufen auch nicht viel mehr Prozzis als AMD , nur deutlich rentabler ;D


Mmoe
 
Schaut euch mal die Benmarks bei AIDA64 3.0 an - da hat Vishera deutlich aufgeholt - dank Softwareoptimierung

kurz - wenn die Software optimiert ist - ist Bulldozer brauchbar!

Insb. bei wissenschaftlichen Anwendungen die unter Linux laufen kann dank XOP, FMA3, FMA4, AES & Co einiges ggü Intel gut gemacht werden und bei FMA4 sogar Intel geschlagen werden ...

Warten wir einfach mal auf Family 15h Model 40h-4Fh und 60h-6Fh ;)
 
Meiner Meinung geht AMD "seit Bulldozer" den richtigen Weg. Aber, wie oben schon beschrieben, es fehlt die korrekte Software dazu. Als Kombi-Lösung ist das eigentlich ideal, weil die Grafik eher zur Prozessorleistung passt. Die Intel Grafiklösung finde ich grauenhaft, als "Mobiles Gaming Device" unbrauchbar, ebenso wie die Kombi-Lösung "Intel/NVIDIA" ein purer Krampf ist.
Warum das alles so Träge ist, vor allem die Multi-Prozessing Geschichte, bleibt wohl ungeklärt. Out of Order Execution dem Prozessor zu überlassen, ist wohl nach wie vor einfacher zu programmieren.
Tatsache ist, dass die angestrebte "echte Raytracing Grafik in Spielen" bis 2014 SO nicht zu schaffen ist.
Die sollten wohl alle mal bei Maxon eine Schulung mitmachen ;)
 
benchs interessieren niemanden.
 
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.

Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
 
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.

Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.

Das mag ja alles sein.

Doch Hand aufs Herz: Rüstest du deine CPU auf, um hier und jetzt zu arbeiten (mit dem, was zur Verfügung steht) oder rüstest du jetzt auf, um in vier oder fünf Jahren in den Genuss von angepasster Software zu kommen? Zu einem Zeitpunkt, wo wohl eine dann aktuelle APU schneller ist als die im hier und jetzt gekaufte CPU? *noahnung*

Es mag sein, dass eine Architektur reifen muss und es Software geben muss. Aber eine CPU, die ausschließlich für zukünftige Software entwickelt wird und mit der Software-Situation hier und jetzt seine liebe Mühe hat, die ist nunmal zum Teil am Markt vorbeientwickelt.

Warum ist denn der A64 damals so gut eingeschlagen? Weil er mit der damals gängigen Software sehr gut klarkam und dort performant war. Zu der Zeit hat man gesehen, dass selbst Intel mir ihrer Marktmacht nicht die Möglichkeit hatten, die Softwarewelt zu ihren Gunsten zu beeinflussen. Und wenn das Intel nicht gelingt, wie will AMD das 2013 bewerkstelligen?

Ich gebe dir im Prinzip recht, dass die Welt mit besserer Software deutlich anders aussehen könnte. Aber was nutzt uns diese Erkenntnis? Vishera wird dadurch hier und jetzt auch nicht schneller... Traurig aber wahr.
 
...
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.

Leider ist das die Mehrheit des Marktes....dieses Software muss sich erst anpassen..ist kein wirkliches Argument mehr...wenn die Software passt...ist BD in seiner aktuellen Form und vielleicht schon in seinen zukuenftigen Formen schon obsolete.
BD ging irgndwie am Markt ziemlich vorbei...

Man denke nur an die 'Scheduler' Hoffnungen vor einiger Zeit - die sich auch beinahe in Luft aufgeloest haben...
 
Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern... *noahnung*

Andererseits geht's bei Anwendungen, die wirklich zeitkritisch sind, in der Regel schon schneller mit den Optimierungen. Siehe z.B. x264 oder Truecrypt. Die nutzen die Goodies der jeweiligen Architekturen schon recht zeitnah. Ich kapier nur nicht, wieso sich die BOINC-Projekte so wenig darum scheren. *noahnung*

Edit: Mist, da waren zwei schneller *chatt*
 
Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern... *noahnung*
Wobei sie es immerhin geschafft haben, dass Intel bei den eigenen GPUs mal Hand anlegt und zumindest gpu-seitig (mit nem vorsichtigen Blick hin zu HSA) scheint sich bei der Software ja auch etwas zu bewegen.

AMD kann also schon noch was ändern und richtungsweisend sein. Nur hat es bei Bulldozer/Zambezi eben partu nicht so wie erhofft geklappt.

Da kommt dann zum Tragen, das der Laden solche Rückschläge nicht mal eben wegstecken kann, wie es z.B. Intel vermag.
 
Wobei sie es immerhin geschafft haben, dass Intel bei den eigenen GPUs mal Hand anlegt und zumindest gpu-seitig (mit nem vorsichtigen Blick hin zu HSA) scheint sich bei der Software ja auch etwas zu bewegen.
Ach geschafft und zum Vorteil für die Anwender erreicht hat AMD genug:

- allein durch eine Konkurrenzsituation niedrigere CPU-Preise

- SSE durch die Vorlage in Form von 3DNow! (auch wenn Intel es damals noch nicht vermochte, einen AMD-Befehlssatz 1:1 zu übernehmen)

- den x86_64 Befehlssatz und Modus; und überhaupt, dass es noch x86-Prozessoren gibt. Intel wollte damals die 4 GB ja mit dem Itanium nehmen und sah 64-Bit Erweiterungen für x86 als unsinnig an

- DDRx-Speicher (Intel wollte ja zu Rambus)

- den integrierten Memory-Controller und die Abkehr vom FSB-Konzept (kam bei AMD 2003 mit dem K8, bei Intel erst 2008 mit dem Nehalem)

- nativer Quad-Core mit L3-Cache (2007 bei AMD mit dem Barcelona, 2008 erst bei Intel mit dem Nehalem)

- SSE5 (heute in Form von AVX-FMA4)

- das APU-Konzept (die neueren Intel-CPUs sind ja nichts anderes)

- HSA (auch da wird sich Intel früher oder später anschließen müssen)

Das Problem ist nur, dass man keinen unmittelbaren wirtschaftlichen Vorteil daraus ziehen konnte, von einigen Strohfeuern mal abgesehen. Angesichts dessen, was man als David bewegen konnte, ist es erstaunlich, dass man heute "nur" da steht wo man steht.

Andererseits gab's halt auch ziemlich üble Missgriffe: die ewige Verzögerung schon beim K5 (wäre der rechtzeitig gekommen...), beim K6 erneut, beim K8 warens gar 2 Jahre (und trotzdem hat er noch eingeschlagen wie eine Bombe), der Bug beim K10 und seine anschließende Schwächeperiode, der "unfertige" Bulldozer nach erneut jahrelanger (!) Verzögerung usw. Alles was man sich zwischendurch verdienterweise erarbeitet hatte, wurde immer wieder durch verschiedenste Umstände zunichte gemacht. *noahnung*
 
Das ist wohl ein gutes Bsp dafür, dass eine Firma zwar als Person gesehen wird, es trotzdem Kollegen mit unterschiedlicher Meinung gibt.
Bulldozer wird es selbst nicht nur am freien Markt schwer gehabt haben, sondern eben auch firmenintern.
Das ist aber nichts unübliches, weil jeder neue Technologe, gewagter Schritt bei manchen Ängste hervorrufen.
Eventuell hatte man sich auch mehr erhofft und war dann nicht gerade glücklich drüber, dass Bulldozer zwar fortschrittlich ist, aber kaum etwas davon zeigen konnte.
 
benchs interessieren niemanden.

Es geht darum, dass Cinebench sehr gut mit der Anzahl der Cores skaliert. Und das so gut wie kein anderes Programm. Für Raytracing Grafik - in jedem Bereich - ist diese Parallelisierung ein MUSS.
.
EDIT :
.

Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.

Das könnte von mir stammen.
.
EDIT :
.

Da kommt dann zum Tragen, das der Laden solche Rückschläge nicht mal eben wegstecken kann, wie es z.B. Intel vermag.


Die Lösung, um die eigene Hardware zu pushen, sind Programmierbibliotheken.
 
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.

Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.

Was sollen sie denn raffen? Das sie vor 2-3 Jahren eine CPU kaufen sollten die noch nicht mal jetzt was bringt? Finde das hier echt Fanboy mäßige Augenwischerei.
 
Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern... *noahnung*

Andererseits geht's bei Anwendungen, die wirklich zeitkritisch sind, in der Regel schon schneller mit den Optimierungen. Siehe z.B. x264 oder Truecrypt. Die nutzen die Goodies der jeweiligen Architekturen schon recht zeitnah. Ich kapier nur nicht, wieso sich die BOINC-Projekte so wenig darum scheren. *noahnung*

Edit: Mist, da waren zwei schneller *chatt*
Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.
 
Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.

Vollkommen richtig und da es mehr Aufwand ist, der auch noch mehr Bugs enthalten kann, macht es normalerweise auch kein Softwareentwickler freiwillig.
Entweder der Compiler machts automatisch oder die Features werden nicht genutzt.
 
Ich fand das kritische Statement mutig und auch richtig.
AMD hat im klassischen Desktop-Bereich mächtig Federn lassen müssen.
So das Intel noch einmal Marktanteile dazugewonnen hat.
Unabhängig vom technischen Aspekt, ist Bulldozer wirtschaftlich ein großer Misserfolg.
Da hilft es auch nichts, wenn einige AMD-Manager dass schön reden wollen....
 
Wieso ist Bulldozer ein wirtschaftlicher Misserfolg?
Wieiviele CPUs wurden von Bulldozer denn verkauft?
Wie ist ein wirtschaftlicher Misserfolg bei einer CPU definiert?
Welche Anzahl an CPUs hätte AMD verkaufen müssen damit es kein wirtschaftlicher Misserfolg ist?
 
Konnten sie damit Marktanteile gewinnen oder einen Gewinn erwirtschaften?
Daran dürfte man den wirtschaftlichen Erfolg messen können.
 
Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.
Ja, da kann ich dir voll und ganz zustimmen!
Aber, inzwischen tut sich auch Intel schwer von den Vorgängern sich deutlich in der Leistung abzusetzen und das obwohl eine kleinere Fertigung genutzt wird.
Wenn nun auf der HW Seite nur noch einstellige % an Leistungsplus herausholbar sind, aber auf der anderen Seite +50% mit neuen Befehlssätze möglich wären, werden die Entwickler zunehmend unter druck stehen diese doch zu nutzen.

Ich bin überzeugt davon, dass die Software Validierung günstiger ist, als die Fertigung nochmals zu verkleinern bzw. zu ändern. ;)
 
Zuletzt bearbeitet:
Was sollen sie denn raffen? Das sie vor 2-3 Jahren eine CPU kaufen sollten die noch nicht mal jetzt was bringt? Finde das hier echt Fanboy mäßige Augenwischerei.

Nein ich sehe das etwas anderes:
Hätten alle das Potenzial erkannt, hätten mehr Entwickler dieses auch genutzt.
Damit wäre die CPU in Anwendungen die nach ihrem Erscheinen auf den Markt gekommen sind deutlich schneller.
 
Nein ich sehe das etwas anderes:
Hätten alle das Potenzial erkannt, hätten mehr Entwickler dieses auch genutzt.
Damit wäre die CPU in Anwendungen die nach ihrem Erscheinen auf den Markt gekommen sind deutlich schneller.
Wenn schon Quads nicht wirklich genutzt wurden, wieso sollte man erwarten das ein "Okta" Core dann wirklich genutzt wird?
Gut ein ganz echter Okta ist er nicht, aber halt näher drann als Intel mit ihren virtuellen zusätzlichen Kernen, und was sollte Intel dann davon abhalten einen "echten" Okta rauszubringen, abgesehen von den höheren Fertigungskosten?
So schön wie sich das alles anhört, aber wieso sollte man erwarten das sich die Programmierer extra für Amd zusätzliche Arbeit machen sollten, wo schon seit Jahren nicht zu übersehen ist wie mangelhaft die Cpu Fähigkeiten auf der Softwareseite ausgenutzt werden.
Ist das nicht etwas Blauäugig?
 
Zurück
Oben Unten