Beema - der Kabini Nachfolger

Opteron hat schon recht, die Taktbarkeit in Abhängigkeit von der Spannung verhält sich zwischen 28nm HP und 28nm fdSOI ähnlich wie zwischen 28nm HP und 28nm LP, was er auch vor längerer Zeit schon im Prozess-Thread gepostet hat.
Insofern lässt sich der Bonus von +35% CPU-Takt des NovaThor nicht auf einen etwaigen fdSOI Beema/Mullins übertragen, da wir annehmen müssen, dass Kabini/Temash mit einem dem HP ähnlichen 28nm HPM Prozess gebacken wurden. Bitte korrigiert mich, wenn hierzu genauere Informationen bekannt sind. Wenn dank der geringeren Leakage im Vergleich zu Kabini nur durchschnittlich 20% höhere Takte bei gleicher TDP erreicht würden, wäre das aber auch schon ein beachtlicher Schritt.

Man sollte berücksichtigen, dass beim NovaThor ARM involviert war und entsprechende, fdSOI-gerechte Vorlagen für die Kerne geliefert hat. Den Schritt müsste AMD bei Beema alleine gehen.
MfG
Dass ARM wesentliche fdSOI Design "Vorlagen" eingebracht hat, würde ich gerne mit einer Quelle belegt sehen.
The NovaThor L8580 is essentially a straight port from 28nm bulk to 28nm FD-SOI of the (very successful) NovaThor L8540, with just a bit of tweaking to fully leverage cool things you can do with FD-SOI, like biasing to increase performance and conserve power.
von der bekannten fdSOI-Publizistin
 
Zuletzt bearbeitet:
Ich würde auch gerne eine Quelle finden, muss aber wohl mindestens bis heute abend zurückrudern, weil ich auf die Schnelle nichts gefunden habe.
MfG
 
Ich würde auch gerne eine Quelle finden, muss aber wohl mindestens bis heute abend zurückrudern, weil ich auf die Schnelle nichts gefunden habe.
Hab davon auch noch nichts gehört. Auf der einen Seite wärs glaubhaft, wenn man überlegt, dass STM sich die LP-Sourcen geholt an, auf der anderen Seite machen sie ja selbst Grundlagenforschung mit IBM zusammen. Da mal schnell nen simplen ARM A9 umzustricken, ist wohl keine Hexerei.
Zu Beema: Glaube da im Moment auch eher, dass es bulk HP wird. Hintergrund ist der Leak-Informationsfetzen, dass die XBox1 mit Puma-Kernen kommt. Das gabs mal vorab inoffiziell. Nach der Präsentation hörte man aber komischerweise herzlich wenig davon, während bei der PS4 ganz offen Jaguar erwähnt wurde.

Bisschen merkwürdig, das sieht so aus, als ob die XBOx-Kerne noch unter NDA lägen. Wenn es Puma Kerne wären, würde es die Schweigsamkeit erklären.

Die Wahrscheinlichkeit, dass sich MS auf ein Risiko wie FS-SOI einließe sehe ich aber als gering an, ergo Bulk und deshalb auch bei Beema eher Bulk, da ich denke, dass Beema auf dem Xbox1-Design basiert. Für Sonderwünsche wie FDSOI hat AMD kein Geld. Aber warten wirs mal ab.
 
Ich würde durchaus nicht ausschließen, dass noch in H1/14 ein kleines Update von Jaguar kommt, bei dem dann endlich auch der Turbomodus vollwertig funktioniert. Womöglich hat AMD auf solche Features erst mal verzichtet, weil Jaguar ja auch für PS4/Xbox rechtzeitig fertig sein musste, sodass man womöglich all die Features, die dort keine Rolle spielen, zurückgestellt hat. Für Temash/Kabini wäre ein echter Turbomodus aber sehr wichtig, sodass es meines Erachtens jetzt erst mal Zeit wäre, diese Features nachzuliefern. Bei Puma sind derartige Features dann hoffentlich Standard.
 
Mein Tipp 8) zur Fertigung ist... das wir vor Anfang Q4/14 kein einziges AMD Produkt <=22nm sehen werden...

SR oder SRb FX (falls überhaupt) tippe ich auf 28nm SHP/HP
Kaveri in 28nm SHP/HP
Beema in 28nm HP/LP
und auch die 9000er GPUs in 28nm

und dann vllt wie gesagt als Tipp Anfang Q4/14 20nm für ARM Server & GPUs der rest dann danach Beema & Kaveri Nachfolger + FX (falls überhaupt)

Hätte den Vorteil für AMD gleich viel auf einmal in Auftrag zu geben und so vllt die Preise drücken zu können... Yields dürften dann auch relativ gut sein...
 
Mein Tipp 8) zur Fertigung ist... das wir vor Anfang Q4/14 kein einziges AMD Produkt <=22nm sehen werden...

Das halte ich ebenfalls für sehr wahrscheinlich. Die 20nm-Prozesse scheinen einfach zu wenig zu bringen. AMD kann es sich aus der aktuellen Situation gar nicht leisten, Geld für die Entwicklung auf einem neuen Prozess in die Hand zu nehmen, von dem nicht viel zu erwarten ist. Man wird schon alleine daher den sicheren Weg gehen, und auf den bestehenden Prozessen durch Optimierungen im Design Verbesserungen zu erzielen.
 
Den Vorteil der gesteigerten Flächeneffizienz, d.h. der etwa 1.8 bis 1.9-fachen Transistordichte gegenüber 28nm kann man den 20nm Prozessen nicht absprechen. Lediglich den Vorteil der vorerst geringfügig gesteigerten Energieeffizienz, (d.h. den nur um etwa 1.3 gesteigerten Transistorschaltzeiten), welcher sich erst mit kostspieligen Optimierungen, v.a. finFETs, nach Aufwendung von zusätzlicher Zeit und R&D-Budget ausbauen wird. Für Mobil-SOCs wie Kabini oder Beema in der Größenordnung von ~100mm² @28nm ergäben sich keine wirklichen Vorteile darin, bei sogar höheren Transistorkosten den Chip auf ~60mm² zu schrumpfen.
 
20nm scheinen sich nur vorerst nur für große GPU Chips zu lohnen. Die haben dann aber auch wieder schnell mit termischen Problemen zu kämpfen. Für extrem energiesparende Chips wärs auch noch interessant, wenn die Gewinnmarge stimmt.
Bei gleichen Transistorkosten dürfte sich 20nm für andere Produkte erst lohnen, wenn der Yield mit 28nm vergleichbar ist, da dann mehr Chips aus einem Wafer geholt werden können. Alles eine Kalkulation mit zig uns unbekannten Parametern.
 
Bei gleichen Transistorkosten dürfte sich 20nm für andere Produkte erst lohnen, wenn der Yield mit 28nm vergleichbar ist, da dann mehr Chips aus einem Wafer geholt werden können. Alles eine Kalkulation mit zig uns unbekannten Parametern.
Transistorenkosten? Kenn ich nicht, es wird eigentlich immer nur in Waferkosten gerechnet. Selbst wenn da ein Wafer doppelt so teuer ist, könnte es sich immer noch rechnen, dann bei nem Full-node Shrink bekommt man ja auch doppelt soviele Chips unter. Die Kosten wären in dem Fall dann zwar "nur" gleich, aber so ein 20nm Die verbraucht weniger Strom und/oder lässt sich höher takten, d.h. man wird sicherlich nen höheren Verkaufspreis erzielen können.

Aber natürlich hast Du recht ... da gibts viele Parameter und das blöde ist, dass man die Yields nicht vor dem Produktionsstart kennt ^^

Im Spezialfall von Globalfoundries wird AMD sicherlich aber auch erstmal mit schlechten Yields rechnen (wenn GF Dies überhaupt gebacken bekommt ^^)
 
;) meinte natürlich die Kosten / Transistor die für 20nm gleich denen bei 28nm sein sollen, wie es hier schon verschiedentlich angesprochen wurde. Da derselbe Chip bei 28nm und 20nm die gleiche Transistoranzahl hat, folgt daraus dass der Chip Preis in der Produktion gleich bliebe. Da man bei 20nm durch geringeren Verschnitt im Randbereich mehr als die doppelte Menge an Chips unterbringt, folgt daraus, dass die Waferkosten mehr als das doppelte betragen.
Jetzt müßte man nur noch wissen, ob sich die Kosten / Transistor, welche meines Wissens auf einer Folie von Nvidia auftauchten und ich meine auch seitens AMD schon davon gehört/gelesen zu haben, sich auf den ganzen Wafer beziehen oder auf die good Dies.
Selbst wenn da ein Wafer doppelt so teuer ist,
Ich finde meine Argumentationskette etwas plausibler ;D
Die Kosten wären in dem Fall dann zwar "nur" gleich, aber so ein 20nm Die verbraucht weniger Strom und/oder lässt sich höher takten, d.h. man wird sicherlich nen höheren Verkaufspreis erzielen können.
Und eben mehr Transistoren in großen Chips unterbringen die für 28nm zu groß wären und dadurch einen miserablen Yield hätten.

Mhh, da fällt mir ein, beim letztem Intel shrink war nicht so viel mit mehr Takt oder weniger Strom, hab das aber nicht so richtig verfolgt und bringe da womöglich was durcheinander.
 
;) meinte natürlich die Kosten / Transistor die für 20nm gleich denen bei 28nm sein sollen
Wieso?

Da derselbe Chip bei 28nm und 20nm die gleiche Transistoranzahl hat, folgt daraus dass der Chip Preis in der Produktion gleich bliebe.
Ne das eine sind doch 28nm Transistoren, das andere 20nm. die 20nm sind enger gepackt -> mehr Transistoren pro Wafer -> mehr Chips pro Wafer -> weniger Kosten pro Die *falls* ein 20nm Wafer den gleichen Preis hätte wie ein 28nm Wafer.

Da man bei 20nm durch geringeren Verschnitt im Randbereich mehr als die doppelte Menge an Chips unterbringt, folgt daraus, dass die Waferkosten mehr als das doppelte betragen.
Wieso nur im Randbereich? Das macht vielleicht max. so 5-10 Dies aus, wenn wir von kleinen DIes wie Kabini reden, passen ca. 500 davon in 28nm auf nen 300 mm Wafer, bei 20nm wärens knapp über 1000, der Randverschnitt spielt da keine große Rolle.

Ich finde meine Argumentationskette etwas plausibler ;D
Ich kann Dir da aber leider überhaupt nicht folgen :(

Und eben mehr Transistoren in großen Chips unterbringen die für 28nm zu groß wären und dadurch einen miserablen Yield hätten.
Yields sind von vielen Faktoren abhängig, Du nennst jetzt die Die-Größe. Ist ein Faktor, der *für* 20nm spräche, das stimmt, aber ich hab ihn nicht erwähnt, da ein eingefahrenen 28nm Prozess gegen nen neuen 20nm Prozess verglichen wird. Da ist der Faktor der Erfahrungskurve der wichtigere. Der eingefahrene 28nm Prozess hat pro Wafer schlicht weniger Defekte, die man meiner Einschätzung nach nicht mit kleineren Dies wettmachen kann. Defekt ist Defekt, kleinere Dies sind zwar besser, aber nicht so gut wie weniger Defekte/Wafer ;-)
Mhh, da fällt mir ein, beim letztem Intel shrink war nicht so viel mit mehr Takt oder weniger Strom, hab das aber nicht so richtig verfolgt und bringe da womöglich was durcheinander.
Intel hat auch Probleme, der 22nm Prozess ist/war noch nicht optimal, aber teilweise limitieren sie sich durch die miserable Paste zw. Gehäuse und DIE selbst. Da muss man mal auf die Ivy-E CPUs warten die bald kommen, die sind verlötet. Bin gespannt wie die laufen werden. So oder so, sie haben nen 2xnm Prozess mit Finfets in Massenproduktion, von sowas kann GF nur träumen.
Bei Haswell spielt außerdem auch noch mit rein, dass sie da FMA eingeführt haben, was die Rechenleistung verdoppelt. Damit steigt natürlich auch der Energiebedarf deutlich an, von nichts kommt nichts.
 
Intel hat auch Probleme, der 22nm Prozess ist/war noch nicht optimal, aber teilweise limitieren sie sich durch die miserable Paste zw. Gehäuse und DIE selbst. Da muss man mal auf die Ivy-E CPUs warten die bald kommen, die sind verlötet. Bin gespannt wie die laufen werden. So oder so, sie haben nen 2xnm Prozess mit Finfets in Massenproduktion, von sowas kann GF nur träumen.
So schlecht kann der Prozess aber nicht sein, einige berichten das ihr Gesamtes System mit einem Ivy Bridge 4,5Ghz ca. 50w weniger verbraucht als ein Sandy Bridge 4,5Ghz.
Das sind Fortschritte, das DIE ist nur 160mm² groß und die iGPU hat mehr EUs als beim 32nm SB.
 
So schlecht kann der Prozess aber nicht sein, einige berichten das ihr Gesamtes System mit einem Ivy Bridge 4,5Ghz ca. 50w weniger verbraucht als ein Sandy Bridge 4,5Ghz.
Das sind Fortschritte, das DIE ist nur 160mm² groß und die iGPU hat mehr EUs als beim 32nm SB.
Wer hat denn behauptet, dass es überhaupt keine Fortschrätte gäbe *noahnung*
Abgesehen davon gibts auch "einige", die nichtmal 4,5 Ghz schaffen, da sie es nicht gekühlt bekommen. Sinnlose Rosinenpickerei je nach Standpunkt ...
 
So schlecht kann der Prozess aber nicht sein, einige berichten das ihr Gesamtes System mit einem Ivy Bridge 4,5Ghz ca. 50w weniger verbraucht als ein Sandy Bridge 4,5Ghz.
Das sind Fortschritte, das DIE ist nur 160mm² groß und die iGPU hat mehr EUs als beim 32nm SB.

Ohne iGPU Anteil wäre Ivy/HW nur noch sehr schwer zu kühlen sein... allein deshalb muss Intel den iGPU Anteil aufbohren... Und solange kein anderer vergleichbar komplexer Chip geshrinkt wird von 32nm auf 22nm kann man die Qualität von Intel's Prozess auch nicht genau beurteilen weil man keine Vergleichswerte hat... Ich meine es wundert ja nun wirklich keinen das von 32nm -> 22nm die Effizenz steigt (bei ungefähr gleicher Chipbasis)

BTW: Es wird schon wieder sehr OT...
 
Zuletzt bearbeitet:
Ne das eine sind doch 28nm Transistoren, das andere 20nm. die 20nm sind enger gepackt -> mehr Transistoren pro Wafer -> mehr Chips pro Wafer -> weniger Kosten pro Die *falls* ein 20nm Wafer den gleichen Preis hätte wie ein 28nm Wafer.
Die Betrachtung der kleinsten Kosteneinheit der Fertigung kann durchaus sinnvoll sein, derartige Folien hatten wir schon vor längerer Zeit in einem anderen Thread. Insbesondere für die Betrachtung des Shrinks eines Designs oder einer Weiterentwicklung mit gleichem oder ähnlichem Transistorbudget haben die "Transistorkosten" doch eine direkte Aussagekraft.

6895537_orig.png
 
Die Betrachtung der kleinsten Kosteneinheit der Fertigung kann durchaus sinnvoll sein, derartige Folien hatten wir schon vor längerer Zeit in einem anderen Thread. Insbesondere für die Betrachtung des Shrinks eines Designs oder einer Weiterentwicklung mit gleichem oder ähnlichem Transistorbudget haben die "Transistorkosten" doch eine direkte Aussagekraft.


Und wie errechnet man die Transistorkosten? Wie teuer 1 Transistor ist weiss man ja erst wenn der Wafer fetig ist und man weiß wie viele Chips am Ende dabei wirklich herrausgekommen sind... und welche Chips hergestellt wurden mit was für einer Packdichte etc. ?!

Das ist doch ein reiner Theoriewert sowas kann man doch nur errechnen wenn man auf dem ganzen Wafer z.B. nur SRam zellen hat oder nicht?

Oder geht es jetzt nur um die reinen Produktionskosten also ohne was "hinten rauskommt" ?!
 
Zuletzt bearbeitet:
An der Kurvenform siehst du ja bereits, dass yields in der Rechnung der Kosten pro Transistor enthalten sind. Das folgende paper geht über die Kalkulation recht ausführlich ins Detail: http://users.ece.cmu.edu/~maly/maly/DAC94.pdf
Die anfangs höheren Verkaufserlöse von effizienteren Chips, dank Transistoren mit besseren elektrostatischen Eigenschaften, stehen natürlich auf einem anderen Blatt.

EDIT:
Ich hoffe, damit wäre der Fertigungs-Exkurs langsam zu Ende gebracht, und die eigentlich interessanten technischen Eigenschaften von Beema werden wieder thematisiert.
 
Ach das alte nVidia Schema. Naja ok .. aber so wie ich das sehe sind die aufgetragene "Transistorenkosten" ne Funktion aus Yields, Scaling-Faktor und Waferkosten (X'tor costs unten). Mit dem Scalingfaktor sind also die besseren Packungsdichten in der Kalkulation dabei:

nv-pres3bcbec.jpg


Außerdem sieht man an der Folie auch meine Argumentation. Am Anfang sind die neuen Prozesse ziemlich unrentabel, da die alten besser eingefahren sind.

Edit; Ja stimmt, wir sind hier langsam etwas vom Thema weg ^^
 
Wie von mir bereits Thread erwähnt, je mehr neue Features und technische Neuerungen die nächste "kleine" APU erhalten soll, desto länger wird sich deren Veröffentlichung hinziehen. Laut Digitimes soll Beema/Mullins erst H2/2014 erscheinen. Bis dahin sollen neue Kabini-Modelle (A4-5350, A4-5150, E1-2650) die Wartezeit überbrücken.
 
Wie von mir bereits Thread erwähnt, je mehr neue Features und technische Neuerungen die nächste "kleine" APU erhalten soll, desto länger wird sich deren Veröffentlichung hinziehen. Laut Digitimes soll Beema/Mullins erst H2/2014 erscheinen. Bis dahin sollen neue Kabini-Modelle (A4-5350, A4-5150, E1-2650) die Wartezeit überbrücken.

Ja aber obs an der Technik liegt? Grund scheint mir eher die Verschiebung der Kabini-Desktopmodelle zu sein. Wenn die später kommen, verkauft man die neuen Modelle ebenfalls später, da die alten sonst zu schnell verramscht werden müssen und sich nicht auszahlen. Kann auch ne Rolle bei der Kaveri-Verschiebung sein, Richland ist noch groß im Lager.

Mit Glücl kommt Beema dann doch nach altem Zeitplan - zumindest im Mobilebereich. Da wird Kabini ja schon verkauft.
 
Ja aber obs an der Technik liegt?
Ja. Mehr Neuerungen, mehr und längere Entwicklung, mehr Validierung; ein neuer Prozess, um gegen die 14nm Konkurrenz antreten zu können, würde ebenfalls Zeit kosten.
Doch um die Frage weniger pauschal beantworten zu können, müsste man wissen, ob die Prioritäten des Unternehmens bei der Produktentwicklung oder der Vermarktung liegen.
 
Doch um die Frage weniger pauschal beantworten zu können, müsste man wissen, ob die Prioritäten des Unternehmens bei der Produktentwicklung oder der Vermarktung liegen.
Jupp das ist der springende Punkt.
Eventuell passt es ihnen auch gut in den Kram, falls Beema schon 20nm sein sollte.
Falls nicht und das Teil noch in 28nm kommt, glaub ichs aber eher weniger. Die "neue Tecknik" ist ja nur der HSA-Baustein aus dem Kaveri/Playstation, glaube jetzt nicht, dass es da irgendwelche super-technischen Nova gäbe. Vermutlich ist Beema auch nur ein "Abfalldesign" aus den Verbesserungen der Konsolenchips.
 
So gesehen dürften das (weitgehend schon bekannte Bausteine sein, einschließlich GCN 2 und Platform Security Processor (ich vermute aus Kaveri). Connected Standby könnte u.U. auch den Konsolen APUs entstammen, wäre zumindest ganz im Geschmack der XBox. Das H2/14 Release könnte m.M. nach dem Versuch mit fdSOI geschuldet sein (FredD schon wieder mit seiner ollen fd-Kamelle ... ja ja ich weiß ;) )
 
Seit ich weiss, dass 20nm-FDSOI immer noch gatefirst benutzt bin ich eher skeptisch geworden ...
Eventuell wollen sie da des guten zuviel ... schon bei 28nm wars grenzwertig und jetzt wollen sies selbst noch bei 20nm machen? Auch wenn ich kein Experte bin, bekomm ich bei dem Gedanken leichte Bauchschmerzen, insbesonderer auch deshalb da GFs 28nm mit Gatefirst nicht gerade ruhmreich sonder eher das Gegenteil davon war ...
 
Zurück
Oben Unten