News AMD: 2019 dominieren kleine, sparsame x86-Kerne: Das Ende von Bulldozer?

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.645
Renomée
2.254
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
In der bereits erwähnten AMD-Präsentation auf dem Open Compute Treffen gab es nicht nur Folien zu ARM, sondern auch eine Folie, die AMDs x86-Zukunft im Serverbereich erwähnte und allen AMD-High-End-Fans bedrohlich vorkommen muss.
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
"wird dominieren" heißt ja nicht unbedingt "es gibt sonst nichts anderes". Im Serverbereich mit virtualisierten Workloads sind in sehr vielen Fällen eine Masse schwacher Kerne effizienter, und letztlich kommt es ja dort darauf an, mit wie wenig Aufwand (Strom, Kühlung, Kaufpreis, letztlich immer Geld) man eine bestimmte Last bewältigen kann. Im Clientbereich ist das anders, aber in dieser Präsentation geht es ganz klar um die Bedürfnisse des Servermarktes. Insofern würde ich da nicht zuviel hineininterpretieren.
 
"wird dominieren" heißt ja nicht unbedingt "es gibt sonst nichts anderes".
Klar, aber der Knackpunkt ist "... wenn sie es sich leisten können."

Wenn nicht, dann werden sie unrentable Geschäftsfelder einfach dicht machen ...
 
Sie können ja jetzt schon eine APU mit 8 Kernen und starker Grafik herstellen mit 100 Watt TDP. Ich nehme mal an, dass sie die aber nicht selbst in Konkurrenz zu den XBox One und PS4 anbieten dürfen.
Wen interessiert die Xbox oder der Sony Soc? Das sind doch geschlossene Systeme, außerhalb von AMDs eigenem Markt.

Allgemein:
Hab den schlechten Screenshot gegen die PDF-Version ausgetauscht.
 
@deoroller Denke schon, dass sie sowas anbieten dürfen. Nur: Wer will 8 2GHz Jaguar Cores und mittelmäßige GPU mit DDR3 Anbindung im PC?
Bei herkömmlichen Anwendungen hat man da keinen Vorteil gegen einen Celeron.
Interessanter wäre da schon ein Hawaii mit 8 Jaguar Cores und voller HSA Unterstützung im Crossfireverbund.
 
Mir ist nach wie vor unklar, warum amd für HSA sowas nicht bringt. Ein dicker GPU-Teil+kleine x86 Kerne. Das wäre für OpenCL ja perfekt, um die Rechenleistung der GPU effizient ntuzen zu können und für die Entwickler wäre es perfekt. auch für mantle wärs wohl ne gute lösung. aber AMD baut nach wie vor ausgewogen.
 
Von "kleinen und sparsamen x86 Kernen" kann ich auf der Folie ehrlich gesagt nichts lesen. Ich lese lediglich was davon, dass kleinere und effizientere CPUs dominieren werden. Was nicht wirklich überraschen dürfte. Mit welchen Kernen diese CPUs dann bestückt werden, ist eine völlig andere Geschichte. Man kann auch mit Bulldozer Kernen kleinere und effizientere CPUs bauen. Propus war auch kleiner und effizienter als Deneb, trotz gleicher Kerne. Auf gut Deutsch liest sich das für mich einfach wie, AMD wird keine grossen Serverdesigns ala Orochi mehr machen. Was ich nur begrüssen kann.
 
Ich finde viel interessanter, das AMD den ARM Markt beherrschen wird :D
 
Ist wohl aber nur der ARM Servermarkt gemeint.
 
Von "kleinen und sparsamen x86 Kernen" kann ich auf der Folie ehrlich gesagt nichts lesen. Ich lese lediglich was davon, dass kleinere und effizientere CPUs dominieren werden. Was nicht wirklich überraschen dürfte. Mit welchen Kernen diese CPUs dann bestückt werden, ist eine völlig andere Geschichte. Man kann auch mit Bulldozer Kernen kleinere und effizientere CPUs bauen. Propus war auch kleiner und effizienter als Deneb, trotz gleicher Kerne. Auf gut Deutsch liest sich das für mich einfach wie, AMD wird keine grossen Serverdesigns ala Orochi mehr machen. Was ich nur begrüssen kann.
Naja, was dann? Statt nes 8 Core Orochi 4 Semicro-Kärtchen mit kleinen Dualcores? Das widerspräche der Effizienz, es ist nunmal am effizientesten soviele Kerne wie möglich auf ein Die zu pferchen, um den jeweiligen IO-Anteil einsparen zu können.
 
Hier wird plötzlich nur noch von CPUs gesprochen. Ist das APU-Konzept damit stillschweigend ad akta gelegt oder durfte sich der durchgeknallte Folienassistent wieder mal so richtig austoben? Eigentlich hatte ich die Hoffnung das RR den Kerl auf eine Partie Golf ins Minenfeld einlädt.
 
Nee, so wie sich das liest, ist da gar keine GPU drin. Würde an der Stelle wohl auch keiner Nutzen, also wäre es überflüssiger Ballast, sie zu verbauen. Im Gegensatz zu z.B. Kabini, der ja überall eingesetzt werden soll (Tablet, Desktop, Server) und daher auch eine GPU braucht, ist dieses Ding hier nichts für Client-Systeme: 2x 10GBit-Ethernet, FreedomFabric über PCIe, acht SATA3-Ports, acht 64bit-ARM-Kerne und ASICS für Krypto und Packen, aber z.B. kein USB, kein Videodecoder fürs Filmegucken und sonstiger Quatsch. Komplett rein ausgerichtet auf (Blade-)Server. Irgendein kleiner Grafikchip für eine rudimentäre Bildausgabe (falls man mal ne Console braucht) wird dann wohl auf der Backplane verbaut.
 
Naja, was dann? Statt nes 8 Core Orochi 4 Semicro-Kärtchen mit kleinen Dualcores? Das widerspräche der Effizienz, es ist nunmal am effizientesten soviele Kerne wie möglich auf ein Die zu pferchen, um den jeweiligen IO-Anteil einsparen zu können.
Ich lese da trotzdem nichts von Kernen auf der Folie. Das ist wie gesagt reine Spekulation. Das sollte in einer News eigentlich aussen vor bleiben. Dafür gibt's dann ja Diskussionsthreads. ;)
 
interessant ist in dem zusammenhang doch auch wie die apu's ihre grafikeinheiten nutzen können. wenn die software sich schnell genug anpasst mache eine apu mehr sinn als eine reiner cpu.
zumindest sehe ich diesen aspekt da mit drin...
 
Kleinere & effizientere Kerne sind für AMD genau das richtige, die Chips werden sowieso zu billig Preisen angeboten, große Kerne kann man sich komplett sparen, die Entwicklungskosten von BD kann man dann in andere Gebiete sinnvoll investieren, wichtig ist das AMD in Zukunft pro Jahr zwischen 500-1000 Millionen Gewinn erzielen kann.
 
Zuletzt bearbeitet:
Ich lese da trotzdem nichts von Kernen auf der Folie. Das ist wie gesagt reine Spekulation. Das sollte in einer News eigentlich aussen vor bleiben. Dafür gibt's dann ja Diskussionsthreads. ;)
Na dann sag doch einfach, wie Du das interpretierst :)
Ich interpretiere effiziente und kleine CPUs so, dass diese aus aus kleinen effizienten Kernen bestehen. Was wären Deiner Meinung nach die Alternativen?

Der Artikel ist auch nicht als "News" sondern als Gerücht getaggt .. passt schon so, keine Bange ;)
 
Die Überschrift finde ich schon etwas daneben. Alleine schon "2019"...das sind noch 5 Jahre bis dahin und ob das so kommt, weiß man doch heute noch nicht wirklich. Wenn ich alleine überlege, mit was für einem Rechner ich vor 5 oder 6 Jahren gearbeitet und gezockt habe und mit was für einem Mobiltelefon ich Anrufe getätigt habe...da ist schon eine ganze, ganze Menge passiert.

Und heute schon so weit zu denken, ist voll unsinnig.

Außerdem: für alle Arten von Produkten wird es Nutzer geben. Es soll ja auch Verbraucher geben, die sich eine GeForce Titan, FX-9590 für AM3+ oder einen i7 auf Sockel 2011 gekauft haben...obwohl das auch ansich "unsinnig" ist.
 
Zuletzt bearbeitet:
Ich gebe gruffi Recht.
Die Spekulation, dass mit kleineren CPUs auch kleinere Kerne kommen, geht viel zu weit.
Daneben teile ich die Spekulation auch nicht. AMD will vielleicht aus der Not eine Tugend machen, aber mindestens Intel wird den Teufel tun und sein Alleinstellungsmerkmal mächtigerer Kerne über Bord werfen.

Wohin so eine Überschrift führt, kann man daran sehen, wie der Artikel bereits zitiert wird.
3dCenter
M.E. sollte die Redaktion schnellstmöglich in Form eines Updates zurückrudern.
MfG
 
Na dann sag doch einfach, wie Du das interpretierst
Ich dachte, das hätte ich getan. ;)

Ich interpretiere effiziente und kleine CPUs so, dass diese aus aus kleinen effizienten Kernen bestehen. Was wären Deiner Meinung nach die Alternativen?
Ich lese erst mal nur kleinere CPUs, sonst nichts. Mit welchen Kernen die bestückt werden, davon steht nichts auf der Folie. Letztendlich kannst du kleinere CPUs auf zwei Arten realisieren. Entweder mehr kleine Kerne oder weniger grosse Kerne. Die Folie schliesst keine der beiden Möglichkeiten aus. Vermutlich weiss AMD heute selbst noch nicht genau, wie die Kerne in 5 Jahren konkret ausschauen. Da dürfte man sich maximal in der Planungsphase befinden.
 
Ich dachte, das hätte ich getan.
Ja, aber darauf hatte ich doch auch geantwortet. Weniger große Kerne sind wieder ineffizienter. Ansonsten würde man ja erst gleich gar nicht mit den ARM-Cores anfangen. Das widerspricht auch dem Leitspruch der Folie, dass die "One Size fits all"-Zeiten vorbei wären, denn unter nem großen Kern verstehe ich den klassische "one size fits all"-Ansatz.

Wie siehst Du das?

"Große Kerne" haben nur noch ne Berechtigung als Nischenprodukt, wenn man das "One size ist vorbei"-Motto ebenfalls auf sie anwendet. Also CPUs für irgendwelche Softwareprogramme, die viel single-thread Leistung verlangen. Erst Mal beruhigend, aber wenn man sich dann die Nische anschaut, sieht man dass sie nicht groß und fraglich ist, ob sie Gewinn abwirft. Teure Hobbys kann sich AMD aber nicht leisten ... die SOI-Prozesse wurden auch eingestampft, ab 20nm gibts nur noch Standardware. SHP28 ist mMn ein typischer Übergangsprozess/Lückenbüßer, weder Fisch noch Fleisch.

Die Indizen, dass die großen Kerne bei AMD dahin siechen mehren sich leider. Einziger Lichtblick war letztens das Steamroller-PDF mit den 16 Kernen, aber wie alt das wohl ist ...?

Ich sags mal so: Hören wir bis Ende 2014 nichts Offizielles zu ner neuen Serverplattform mit DDR4 und integriertem PCIe3 ( alternativ gerne auch ne neue FX-Plattform), dann wars das. Die Wahrscheinlichkeit dafür ist aber gering, Warsaw und die FXe stehen bis 2015 in den offiziellen Listen. Die Hoffnung beruht einzig darauf, dass AMD plötzlich sowas wie Richland aus dem Hut zaubert.

Die wahrscheinlichste Erklärung für die Tatsache, dass da nichts Neues angekündigt ist, ist aber die: Weil es nichts Neues geben wird.

Die Folie schliesst keine der beiden Möglichkeiten aus. Vermutlich weiss AMD heute selbst noch nicht genau, wie die Kerne in 5 Jahren konkret ausschauen. Da dürfte man sich maximal in der Planungsphase befinden.
Jo, Silizium ist natürlich noch ganz weit entfernt, aber genau in der Planungsphase muss man ja schon festlegen, ob ein Server-Prozessor nun auf ARM/Jaguar oder BD-Kernen aufbauen soll.

Einziger Lichtblick sind vielleicht noch die APUs. Falls AMD ziemlich viel Serverlast auf die GCN-Kerne verlagern könnte, könnten sich im Verbund dazu auch noch ein paar wenig "fette" Kerne rentieren.
Aber dann hat man wieder das APU-Problem mit den unterschiedlichen Anforderungen von Hochtakt-CPU- und Niedrigtakt GPU-Teilen, d.h. auch ne APU harmonisiert mit kleinen Kernen besser, weswegen das Design effizienter wird. Sieht man doch schön aktuell bei Kaveri: Die IPC ist toll, aber das Plus an Rechenleistung wird größtenteils durch das Minus beim Takt aufgefressen. Nachdem ein Shrink eher höhere Taktraten ermöglichen sollte, muss man das wohl dem Bulkprozess anlasten.

Das ist alles immer der Versuch der Quadratur des Kreises, optimal wird mans nie hinbekommen. Deswegen ist es leider plausibel, dass AMD BD einstampft. Sicherlich hat man damit Nachteile, die hat man allerdings immer, zusätzlich spart man noch ne schöne Stange Geld.


@Woerns/Zurückrudern: Ne, eher hau ich noch ne Meldung raus, dass bei AMD vormalige Bulldozerentwickler an ner "high-performance" ARM-Architektur arbeiten. Hatten wir ja schon mal vor längerem im Forum.
 
Weniger große Kerne sind wieder ineffizienter.
Du meinst effizienter, nicht ineffizienter? Aber selbst das ist nicht unbedingt gesagt. Kommt halt immer auf das Einsatzgebiet an.

Das widerspricht auch dem Leitspruch der Folie, dass die "One Size fits all"-Zeiten vorbei wären, denn unter nem großen Kern verstehe ich den klassische "one size fits all"-Ansatz.
Nö, wieso? Wenn man nur noch auf kleine Kerne setzen würde, wie du behauptest, würde das der Aussage auf der Folie widersprechen. Wenn man hingegen je nach Markt kleine oder grosse Kerne verwendet, passt das viel eher zu der Aussage. Ausserdem bedeutet grosser Kern nicht gleich Server. Carrizo hat auch grosse Kerne. Und der wird kommen. Vermutlich ebenso wie der Nachfolger Basilisk.

Das ist alles immer der Versuch der Quadratur des Kreises, optimal wird mans nie hinbekommen. Deswegen ist es leider plausibel, dass AMD BD einstampft.
Sehe ich nicht so. Zumindest nicht in den nächsten 2 Jahren. Dafür gibt es keine Belege. Ausserdem heisst ein Einstampfen von Bulldozer nicht automatisch ein Einstampfen grosser Kerne. Grosse Kerne lassen sich zB auch mit ARM designen.
 
Nee, so wie sich das liest, ist da gar keine GPU drin. Würde an der Stelle wohl auch keiner Nutzen, also wäre es überflüssiger Ballast, sie zu verbauen. Im Gegensatz zu z.B. Kabini, der ja überall eingesetzt werden soll (Tablet, Desktop, Server) und daher auch eine GPU braucht

3 Jahre seit Llano und Du hast immer noch nicht verstanden was der Unterschied zwischen einer APU und einer CPU mit integrierter GPU ist?

Ich bezog mich auf die Folien, auf denen klar zu lesen ist das AMD seine Zukunft in CPUs sieht. Entweder der durchgeknallte Folienassistent hat sich wieder ausgetobt oder wir erleben live und in Farbe dass AMD zurück rudert und das APU-Konzept beerdigt. Such Dir aus was wahrscheinlicher ist :-)
 
Du meinst effizienter, nicht ineffizienter? Aber selbst das ist nicht unbedingt gesagt. Kommt halt immer auf das Einsatzgebiet an.
Ne, eventuell doppeldeutig, ich meinte: "weniger - große Kerne", nicht "wenigergroße (also kleine)".

Bestes Beispiel sind die Spielekonsolen: Dort gibts 8 Jaguars und nicht weniger-große Kerne, z.B. 4 Steamroller.

Nö, wieso? Wenn man nur noch auf kleine Kerne setzen würde, wie du behauptest, würde das der Aussage auf der Folie widersprechen. Wenn man hingegen je nach Markt kleine oder grosse Kerne verwendet, passt das viel eher zu der Aussage.
Ok, so könnte mans sehen, aber inklusive des ARM-Kontexts hat man ja bei der Streichung von BD immernoch 2 Linien, ARM+Jaguar und 2 sind mehr als "one" ;-)

Ausserdem bedeutet grosser Kern nicht gleich Server. Carrizo hat auch grosse Kerne. Und der wird kommen.
Ja jetzt, aber wir reden ja über Zukünftiges. Was nach Carrizo und Excavator kommt, ist fraglich. Wenigstens ne Excavatornachfolgearchitektur könnte AMD ja schon mal ankündigen.
Vermutlich ebenso wie der Nachfolger Basilisk.
Dein Wort in Gottes Ohr, für den Chip gilt das oben von mir geschriebene: Auf der Roadmap ist nix und die beste Erklärung dafür ist, dass auch nix kommt.
Bis Ende 2014 wart ich noch, Warsaw könnte ja ne Art Richland-Funktion haben .. aber dann wirds eng.

Sehe ich nicht so. Zumindest nicht in den nächsten 2 Jahren. Dafür gibt es keine Belege.
Na darüber reden wird doch auch nicht, Carrizo wird kommen und auch noch 2015 kaufbar sein, das bestreitet keiner.
Ausserdem heisst ein Einstampfen von Bulldozer nicht automatisch ein Einstampfen grosser Kerne. Grosse Kerne lassen sich zB auch mit ARM designen.
Jo, das ginge natürlich noch, aber diese Meldung hier hat halt x86 und Bulldozer zum Thema. Wenn ein High-End ARM Kern kommt, ist BD erst recht weg vom Fenster, denn dann wäre die Opteronnische weg und nur noch das mickrige FX-Segment übrig. Definitiv zu wenig für ne eigene Architektur.
 
Zurück
Oben Unten