Bulldozer rollt an....

Status
Für weitere Antworten geschlossen.
Was den 28nm BD angeht, so denke ich dass eben diese Probleme die wir jetzt bei Llano mit 32nm SOI sehen dafür mitverantwortlich sind.

Damit stehst Du nicht alleine.

In diesem Zusammenhang möchte ich den aktuellen Artikel von Charlie in die Runde werfen:
http://semiaccurate.com/2011/08/18/intel-moves-transistors-from-2d-to-3d-and-more/

... in dem Charlie die Intel-Techniken beschreibt, richtig?

Meines Wissens nutzt AMD PD-SOI und das stößt bei 32nm wohl bereits an Grenzen. 22nm SOI ist bei GF grundsätzlich auf den Roadmaps, aber vielleicht wissen die AMD Ingenieure bereits, dass das nicht so läuft und planen den Wechsel auf Bulk auch bei den großen CPUs vor.

Möglich, aber ich halte es für wenig wahrscheinlich.
http://www.eetimes.com/electronics-news/4213478/ISSCC-panel-sees-challenges-at-20-nm-

Wahrscheinlicher wäre m.E. das AMD die gleichen Probleme wie beim 65nm Prozess sieht. Ein Prozess der auf zwei linken Füßen auf Treibsand tänzelt und kein Land mehr sieht

Möglich aber auch das AMD bei GF die gleichen Chancen sieht wie vorher bei TSMC.
Ein Prozess der wesentlich länger als erwartet braucht um aus dem tiefen Tal der Tränen zu kommen, dann aber mächtig durchstartet...
 
Nun, zumidnest scheint der aktulle Sweet Spot tiefer zu liegen als geplant, denn Llano wurde in den Folien als 3Ghz+ angegeben, und bisher schafft er offiziell noch nicht mal die 3Ghz ohne +
Die Spannung ist wieder ein anderes Thema...
 
Naja 2,9GHz bei 1,4V ist schon schwach es war ja mal die rede von angeblichen 3-3,5GHz für Llano von daher fehlen da einfach nochmal 500MHz und die 100W TDP nutzt die aktuelle Version auch mehr als hart aus aber wenn es ein neues Stepping gibt geht da evtl ja noch was. Die schlechtesten Llanos werden ja scheinbar jetzt als FM1 Athlon II vermarktet. 4*2,6GHz ohne L3 bei 100W da ist ein Phenom II (925) ja schon vor fast 3 Jahren weiter gewesen und der kostete damals auch nur 120€. Wundert mich wirklich das der X4 631 nicht in die 65W TDP klasse fallen kann.
 
Auch nicht gerade ein Indiz für einen gut laufenden 32nm Prozess...
inwieweit das Transitorlayout da abgeädnert werden kann in einem neuen Stepping werden wir sehen... aber das alles kostet zeit... Zeit die für die Konkurrenz spielt...
nicht schön....
 
... in dem Charlie die Intel-Techniken beschreibt, richtig?
Richtig, aber worauf ich hinauswollte ist der Absatz wo er das ganze in Perspektive zu PD-SOI und FD-SOI stellt. Der Artikel erklärt auch ein paar sachen über allgemeine Halbleitercharakteristik.

Der Kaffeesatz der Faktenlage der uns zur Verfügung steht deutet einfach auf Probleme bei 32nm hin. Wir haben ja nicht wirklich stichhaltige Infos zur Verfügung. Laut Seifert macht eh immer alles "good progress" und läuft "fine". Die DigiTimes-Meldung bezüglich Llano Yield hat ja wohl einen (vermutlich verärgerten) Mainboardhersteller als Quelle. Kann auch eine Spekulation sein und AMD liefert die ganzen Chips lieber an OEMs (insbesondere für Notebooks), da bleibt dann für den Channel nicht mehr viel übrig, was man dann auch als schlechten Yield verkaufen kann, kann ja niemand verifizieren. Nur die vergleichsweise hohe Spannung bei Llano (und diversen BD ES auch, auch wenn diese imo weniger aussagekräftig sind) und die Roadmap mit Bulk-BD spricht halt eher für die Theorie, dass 32nm SOI alles andere als gut läuft.

Die 3-Kern Llanos und non-GPU Llanos sind ja noch so eine Sache. Das sind meines Wissens doch die gleichen Dies. Ergo handelt es sich höchstwahrscheinlich um teildefekte Chips, sonst wäre AMD ja dumm diese so zu verkaufen, solange man für teurere Chips genügend Nachfrage hat (die uns zur Verfügung stehenden Fakten sagen, dass diese Nachfrage besteht). Die 100W TDP für das Modell ohne GPU sind auch verwunderlich, da laut Tests die GPU ca mit 20-25W zu Buche schlägt. Gut 100-25=75, da fehlt noch etwas, aber so weit ist das nicht mehr entfernt.
 
Naja 2,9GHz bei 1,4V ist schon schwach es war ja mal die rede von angeblichen 3-3,5GHz für Llano
Nein, war es nie. Für Llano standen lediglich ">3 GHz" im Raum. Ausserdem sollte man in solche Angaben nicht zu viel reininterpretieren. Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region. Es liegt halt ein Unterschied darin, ob man angibt, zu was das Design im Stande ist und was als Taktraten für den Launch geplant sind. 3,5+ GHz wurden jedenfalls lediglich bei Bulldozer erwähnt. Und da scheint man im Soll zu liegen.

4*2,6GHz ohne L3 bei 100W da ist ein Phenom II (925) ja schon vor fast 3 Jahren weiter gewesen und der kostete damals auch nur 120€. Wundert mich wirklich das der X4 631 nicht in die 65W TDP klasse fallen kann.
Wie oft eigentlich noch? TDP != Leistungsaufnahme.
 
eigentlich interessant wie wenig Strom die GPU im verhältnis schluckt, wenn man betrachtet wie viel Platz sie auf dem DIE einnimmt und dass man immerhin 400 Shader durchfüttern muss.
Dem gegenüber saufen also 4 K10-Kerne mal eben das 3-Fache von den 400 shadern... Unter Maximallast versteht sich...
Das ist zwar im Bulldozer-Thread etwas OT, wirft aber ein interessantes Licht auf die anderen APUs, die aktuelle Brazos-Plattform und auch auf Trinity...
.
EDIT :
.

Nein, war es nie. Für Llano standen lediglich ">3 GHz" im Raum. Ausserdem sollte man in solche Angaben nicht zu viel reininterpretieren. Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region. Es liegt halt ein Unterschied darin, ob man angibt, zu was das Design im Stande ist und was als Taktraten für den Launch geplant sind. 3,5+ GHz wurden jedenfalls lediglich bei Bulldozer erwähnt. Und da scheint man im Soll zu liegen.
Wie oft eigentlich noch? TDP != Leistungsaufnahme.

Öhm, Gruffi... Nichts für ungut, aber sooo weit Weg sind sie davon garnicht.
Es wurde nur nie ein solches Produkt auf den Markt gebracht (wozu auch)
Aber wenn man nen 5W embedded Ontario betrachtet, kann es keine so große Sache sein eine Bobkatze auf 1W zu kriegen. Die Frage ist nur, was will man damit?

Und es steht wohl auch ausser Frage dass Die Brazos-Plattform in ihrem Bereich exzellent dasteht, sowohl bei CPU wie bei GPU-Leistung.
Was man von Llano nicht grade behaupten kann. Ich seh ihn zwar bei Weitem nicht so schwarz wie BR das immer macht, aber etwas mehr takt stünde Llano schon gut zu Gesicht, wenn man bedenkt dass schon Thubans weit jenseits von 6x3Ghz gehen können und das noch im alten Prozess... *noahnung*
 
Ich bin mir sogar relativ sicher, dass ein Bobcat Kern den genannten 1 Watt sehr nahe kommt, allein die GPU eines Ontario bzw. C-50 macht meines Erachtens 3-4 Watt aus.

Ich habe unlängst gelesen, dass durch (sehr dezentes) Undervolting eines C-50 die Bobcat Kerne um die 2-3 Watt verbrauchen.
 
...Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region...

Du behauptest das AMD keinen 1W Bobcat Kern baut, gibst die aber selbst die korrekte Antwort und das deine Aussage nicht stimmt. Ein Bocat Kern ist ein CPU Kern dieser sollte zumindestens in der <6W Variante selbst unter Vollast möglich sein. Spätestens wenn man den Idle Zustand als Lauffähig betrachtet dürfte man in den Milliwatt-Bereich kommen.

Man sollte eben die Aussage seitens AMD nicht aus Kundensicht betrachten, sondern aus für AMD möglichst Werbewirksamster, dass wiederum für den Kunden idR der worst case bedeutet.
 
Ich glaube nicht, dass die GPU in dem Fall irgendwas limitiert. Wir haben in unserem Artikel Prime und FurMark über Stunden bei 1,08 V betrieben. ;)
ok, hab ich wohl überlesen! :-[
Allerdings habe ich das auch schon probiert. Dabei ist mir aufgefallen, dass Prime zuviel priorität bekommt so das FurMark die GPU nur teilweiße (~25%) auslastet.
Erst wenn ich ein Kern von Prime raus neheme und dem Kern FurMark zuteile via Taskmanager, wird die GPU voll ausgelastet. ;)
 
Öhm, Gruffi... Nichts für ungut, aber sooo weit Weg sind sie davon garnicht.
Es wurde nur nie ein solches Produkt auf den Markt gebracht (wozu auch)
Aber wenn man nen 5W embedded Ontario betrachtet, kann es keine so große Sache sein eine Bobkatze auf 1W zu kriegen. Die Frage ist nur, was will man damit?
Naja, darum ging es ja auch nicht. Llano ist mit 2,9 GHz auch nicht sooo weit weg von den ">3 GHz". Mit etwas Selektion wäre das sicherlich problemlos machbar. Die Frage ist nur, ob das bei einem Mainstream Produkt momentan Sinn macht.


Du behauptest das AMD keinen 1W Bobcat Kern baut, gibst die aber selbst die korrekte Antwort und das deine Aussage nicht stimmt.
So so, tue ich das? Wie lautete denn die Frage? Und welche Aussage soll nicht stimmen?

Spätestens wenn man den Idle Zustand als Lauffähig betrachtet dürfte man in den Milliwatt-Bereich kommen.
Es sollte klar sein, dass es hier nicht um Idle geht.
 
ok, hab ich wohl überlesen! :-[
Allerdings habe ich das auch schon probiert. Dabei ist mir aufgefallen, dass Prime zuviel priorität bekommt so das FurMark die GPU nur teilweiße (~25%) auslastet.
Erst wenn ich ein Kern von Prime raus neheme und dem Kern FurMark zuteile via Taskmanager, wird die GPU voll ausgelastet. ;)

Ich hab es auch nicht ausdrücklich hingeschrieben. Das hatte ich nur gemacht, um zu gucken, ob Grafik oder CPU-Teil "limitiert" beim Undervolten. Es sind die x86-Kerne.

Das mit dem FurMark und Prime ist hingegen ein interessanter Aspect, den ich gleich mal nachprüfen werde.
 
Naja, darum ging es ja auch nicht. Llano ist mit 2,9 GHz auch nicht sooo weit weg von den ">3 GHz". Mit etwas Selektion wäre das sicherlich problemlos machbar. Die Frage ist nur, ob das bei einem Mainstream Produkt momentan Sinn macht.

Das ist mir durchaus bewusst, aber im Zeitalter von Sandy Bridge-Notebooks usw. stünden Llano ein paar Mhz mehr sehr gut zu Gesicht.
Krass gesagt, Llano hätte den höheren Takt bitter nötig, Zacate kaum. *noahnung*

Wenn man es also bei Brazos nicht macht, kann ich das verstehen.
Bei Llano ist das nur bedingt nachvollziehbar.
Und soweit ich mich erinnere werden die Brazos-APUs auch nicht mit default-Spannungen am oberen Ende ihrer Spezifikation ausgeliefert... oder täusche ich mich da?
 
Selbst 400MHz mehr Takt würden Llano gegenüber Sandy nicht besser aussehen lassen, man kann nur mit Trinity ernste konkurrenz machen und das weis AMD auch selber ;)
AMD hat das bestimmt selber erkannt und hat deshalb nicht soviele Ressourcen in Llano inverstiert, siehe vermarktung mit B0 Stepping :)
Was man braucht ist mehr IPC, mehr Takt & aktuelle SSE Instructionen, dafür ist Llano nicht ausgelegt.
 
Wobei das ja dann 2 Module gegen 4 jetzige Stars Kerne sind...
Ob ein BD-Modul (x% mehr IPC, aber 20% weniger, als ein hyp. Dualcore - oder so;D) wirklich schneller wird, als 2 K10.6-Kerne?
 
Selbst 400MHz mehr Takt würden Llano gegenüber Sandy nicht besser aussehen lassen, man kann nur mit Trinity ernste konkurrenz machen und das weis AMD auch selber ;)
AMD hat das bestimmt selber erkannt und hat deshalb nicht soviele Ressourcen in Llano inverstiert, siehe vermarktung mit B0 Stepping :)
Was man braucht ist mehr IPC, mehr Takt & aktuelle SSE Instructionen, dafür ist Llano nicht ausgelegt.
Da hast du zwar recht, aber wenn man die Leistung die ein Llano nunmal liefern kann, mit etwas weniger gebrutzel erreichen könnte, im Klartext, mit weniger Spannung, wäre das Produkt gleich nochmal attraktiver gegenüber der Sandbrücke.

Ich meine, ist schließlich kein Beinbruch solange sich Llano verkauft. Aber wenn man veranschlagt was die K10-Kerne schon ohne Powergating im alten Prozess zu Leisten im Stande sind, und die GPU wirklich nur mit an die 25W zu Buche schlägt, dann beckleckert sich der einzige 32nm K10 nun wirklich nicht gerade mit Ruhm. *noahnung*
Es ist zwar auch klar dass man Llano in der Form nicht hätte in 45nm bringen können (viel zu groß) aber dennoch sind das deutliche indizien dafür dass der 32nm-Prozess aus dresden nicht so rund läuft wie man sich das wünschen würde. Und genau hier krieg ich auch wieder die Kurve zum Topic... das beeinflusst nämlich auch Bulldozer.
der 32nm Prozess ist ja nicht nur ein einfacher shrink gegenüber dem 45nm, sondern soll zusätzlich mit HKMG ein Feature bieten, das zumindest bei Intel schon in 45nm einiges gebracht zu haben scheint....
Ob es dann allerdings die zusätzliche Komplexität wert war (die ihnen jetzt vielleicht den Wind aus den Segeln nimmt...)
IMHO wäre es jedenfalls nur richtig von AMD wenn sie die SOI schiene verlassen.
Dann ist man nicht mehr auf derart exotische Prozesse angewiesen die nur 1 Fertiger bieten kann.... wirtschaftlich gesehen also durchaus schlüssig.
.
EDIT :
.

Wobei das ja dann 2 Module gegen 4 jetzige Stars Kerne sind...
Ob ein BD-Modul (x% mehr IPC, aber 20% weniger, als ein hyp. Dualcore - oder so;D) wirklich schneller wird, als 2 K10.6-Kerne?
Wenn nicht, sollte AMD das Ingineursteam entlassen.
das würde auch bedeuten ein 2-Modul AMD FX könnte es nicht mit einem Deneb aufnehmen... und das wäre sehr blamabel für die neue Architektur.
 
Das ist mir durchaus bewusst, aber im Zeitalter von Sandy Bridge-Notebooks usw. stünden Llano ein paar Mhz mehr sehr gut zu Gesicht.
Krass gesagt, Llano hätte den höheren Takt bitter nötig, Zacate kaum.
Da kann man genauso sagen, Sandy Bridge Notebooks hätten eine bessere GPU bitter nötig. Ich frage mich nur, warum da jetzt so ein Theater gemacht wird. Es war doch von vornherein klar, dass Llano CPU-seitig nicht an SB rankommt, dafür aber GPU-seitig um Längen voraus sein wird. Daran würden auch 200-300 MHz mehr für die CPU nichts ändern. Die Frage ist, worauf man mehr Wert legt. Braucht ein Durchschnittsuser wirklich maximale CPU Performance, damit zB ein Tab im Browser 0,00001 Sekunden schneller offen ist? Oder möchte man lieber ein ausgewogenen Multimediasystem, mit dem man auch mal ein aktuelles Spiel zocken kann bei vernünftiger Qualität und annehmbaren Frameraten? Letztendlich muss diese Fragen jeder für sich selbst beantworten. Ich sehe daher keinen Sinn, ständig über irgendwelche angeblichen Probleme zu sprechen, sei es der 32 nm Prozess oder was auch immer, die vermutlich gar nicht existieren. Auch bezüglich Energieeffizienz braucht man sich bei den Llano Notebooks nicht beschweren.

Die einzige Frage, die ich mir stelle, warum Llano eine relativ hohe Kernspannung besitzt. Das ist doch der einzige Punkt, der wirklich interessant und diskussionswürdig ist. Alles andere ist einfach nur Stochern im Dunkeln.
 
Die einzige Frage, die ich mir stelle, warum Llano eine relativ hohe Kernspannung besitzt. Das ist doch der einzige Punkt, der wirklich interessant und diskussionswürdig ist
das ist nichts neues: AMD scheint lieber etwas mehr Spannung zu geben, rel. großzügig bei allen Chips der letzten Generation.
Warum, das wäre wieder spekkulativ, denke jedoch, dass man annimmt, dass damit die CPUs nocht stabiler sind; ein Nebeneffekt wäre vllt. dass AMD nebenbei an die zunehmende Fan Gemeinde des OC denkt - Jeder Kunde will bedient sein;)
Ist imho auch OK, da man ja die Spannung bei Standardtakt in guten Maschinen allermeist etwas absenken kann.
Lieber zu großzügig angegeben und eingestellt, als dass wieder "Betrug" oder "Skandal" kommt, wenn eine CPU statt 125 W 126 hat...*suspect*
 
Keiner macht ein Fass auf...
Und du hast recht dass die CPU-Powert meist unnötig ist.
Allerdings ist der Stromverbrauch unter Vollast auch recht heftig.....
Und genau hier könnte man mit geringeren Spannungen etc. einiges reissen und SB zwar nicht in der Leistung, wohl aber im Stromverbrauch einen sehr deutlichen seitenhieb versetzen.
 
Hab mal gelesen, wie bei GF die Chips produziert werden:
Kann man sich vorstellen, wie ein langes Fließband mit verschiedenen Stationen wo belichtet, dotiert poliert wieder belichtet etc. wird. Man brauch ja auch zig Masken, die zueinander passen müssen.
Jede Station hat einige Parameter, an denen gedreht werden kann ( Temperatur, Verweilzeit, Belichtungszeit ).
Zur Optimierung des Prozesses wird während der Produktion an den einzelnen Parametern gedreht, manchmal eben in die falsche Richtung.
Somit dauert es seine Zeit, bis der Prozess wirklich beherrscht wird.

Llano scheint mir für GF der Testballon bei 32nm zu sein.
Ergebnis: erstmal 100W APUs bei hoher Spannung.

Schätze mal, dass diese 100W Llanos aus dem Programm fliegen sobald höher Taktende 65W Typen verlässlich produziert werden. Und dann kann auch der Stromverbrauch entsprechend runtergesetzt werden.

Momentan purzeln halt eine Woche lang akzeptable gute Chips aus der Produktion, die nächste Woche sind es dann nur gerade noch brauchbare.
 
das ist nichts neues: AMD scheint lieber etwas mehr Spannung zu geben, rel. großzügig bei allen Chips der letzten Generation.
Das Problem ist nur, man hatte im Vorfeld einen Spannungsbereich von 0,8-1,3 V angegeben. Das passt halt nicht. Taktraten von nicht ganz 3 GHz und relativ hohe Leistungsaufnahme unter Last sind dann eben die Folgeerscheinungen. Und gerade HKMG sollte ja dafür sorgen, dass die Spannungen im Vergleich zum 45 nm Prozess sinken. Also entweder versucht man wirklich alles an Yields rauszuholen und dimensioniert die Spannung etwas grosszügiger. Oder das B0 Stepping ist halt einfach noch nicht reif genug für die Zielvorgaben. Die Spannung beim B2 Bulldozer der Chinesen sah mit 1,32 V ja schon besser aus (vorausgesetzt der CPU-Z Screen zeigt korrekte Werte an).


Allerdings ist der Stromverbrauch unter Vollast auch recht heftig.....
Und genau hier könnte man mit geringeren Spannungen etc. einiges reissen und SB zwar nicht in der Leistung, wohl aber im Stromverbrauch einen sehr deutlichen seitenhieb versetzen.
Das kann man auch so. Die Leistungsaufnahme unter Idle und im Niedriglastbereich ist ja sehr gut. Und dort verbringt der Prozessor die meiste Zeit.
 
Hab mal gelesen, wie bei GF die Chips produziert werden:
Kann man sich vorstellen, wie ein langes Fließband mit verschiedenen Stationen wo belichtet, dotiert poliert wieder belichtet etc. wird. Man brauch ja auch zig Masken, die zueinander passen müssen.
Jede Station hat einige Parameter, an denen gedreht werden kann ( Temperatur, Verweilzeit, Belichtungszeit ).
Zur Optimierung des Prozesses wird während der Produktion an den einzelnen Parametern gedreht, manchmal eben in die falsche Richtung.
Somit dauert es seine Zeit, bis der Prozess wirklich beherrscht wird.

Llano scheint mir für GF der Testballon bei 32nm zu sein.
Ergebnis: erstmal 100W APUs bei hoher Spannung.

Schätze mal, dass diese 100W Llanos aus dem Programm fliegen sobald höher Taktende 65W Typen verlässlich produziert werden. Und dann kann auch der Stromverbrauch entsprechend runtergesetzt werden.

Momentan purzeln halt eine Woche lang akzeptable gute Chips aus der Produktion, die nächste Woche sind es dann nur gerade noch brauchbare.

Du hast vergessen, dass GF auf den gleichen Anlagen noch vie viel mehr Produkte herstellt. Llano von AMD immer schlecht Supported wurde und viele neue Dinge in den Core eingeflossen sind und aus Kaffeeleserei kann man kaum darauf schliessen, dass die Cores selber das Problem sind.
Wohl eher das Zusammenspiel CPU und GPU, oder warum hat das Intel gleich weg gelassen??
Dazu kommt, die massive Produktionssteigerung, die sicher auch zu seinen Problemen führen wird. Da ja bekanntlich auch die Analgenhersteller mit ihren Anlagen Angaben oft danaben liegen :D.
Beispiel wäre sicher deine angesprochenen Litho Anlagen, die lange nicht das schaffen, was sie eigentlich, laut Hersteller, schaffen sollten. Deshalb musste wohl ein Hersteller acuh seine Anlage auf seine Kosten abbauen (SC300)
Dazu kommen sicher auch Personalprobleme, wie man so hört, 250% Anlagen und nur 40% Personal soll sich auch nicht so gut vertragen.
Aber wie schon einmal erwähnt, hätte ein anderer Hersteller AMD in 32nm SOI CPU+GPU bauen können, hätten sie es auch dort in Auftrag gegeben. Was aber unmöglich war.
a) weil diese veraltete Anlagen haben (200mm), b) kein SOI machten, c) kein Verlustgeschäft machen wollten

Mal schauen wie BD mit 32nm SOI wird, denn das kann GF/AMD

Das Problem ist nur, man hatte im Vorfeld einen Spannungsbereich von 0,8-1,3 V angegeben. Das passt halt nicht. Taktraten von nicht ganz 3 GHz und relativ hohe Leistungsaufnahme unter Last sind dann eben die Folgeerscheinungen. Und gerade HKMG sollte ja dafür sorgen, dass die Spannungen im Vergleich zum 45 nm Prozess sinken. Also entweder versucht man wirklich alles an Yields rauszuholen und dimensioniert die Spannung etwas grosszügiger.
.
Nein, HK MetalGate wurde eingeführt, da man bei kleineren Strukturen die Durchbruchspannung mit SiO nicht mehr beherrschen konnte und massive Probleme mit der Taktrate bekommen hat. Also nicht höher kam.

http://maltiel-consulting.com/Integrating_high-k_Metal_Gate_first_or_last_maltiel_semiconductor.html

Man muss derzeit bedenken, dass die Prozessoren ein langes Leben haben sollen, also ein Kompromiss gemacht werden muss.
 
Zuletzt bearbeitet:
Du hast vergessen, dass GF auf den gleichen Anlagen noch vie viel mehr Produkte herstellt.
...
Mal schauen wie BD mit 32nm SOI wird, denn das kann GF/AMD

Wie ist der Yield und die Anforderungen der anderen Produkte in SOI HKMG?
Mir ging es nur darum, dass die Prozessparameter erst mal optimiert werden müssen. Bisschen zu viel vorne gedreht, kommt hinten nichts gescheites mehr raus.

Wie kommst du drauf, dass GF BD besser kann? Ist der gleiche Prozess, nur andere Masken.
Anlagen und Leute sind die gleichen wie bei Llano. Und gäbe es Probleme beim Zusammenspiel von Core und GPU würde Llano gar nicht laufen.

Und Intel? Die haben doch ihre GPU auch on Chip.
Verstehe da dein Problem nicht.
 
http://chip-architect.com/news/Llano_comp2.jpg
Wie ist der Yield und die Anforderungen der anderen Produkte in SOI HKMG?
Wie kommst du drauf, dass GF BD besser kann? Ist der gleiche Prozess, nur andere Masken.
Wer sagt das das SOI ist?? 8)
Was GF bisher gebaut? AMD CPU auf SOI, waren die gut im Yield?? JA. Also warum sollte es bei 32nm CPU only Probleme geben?

CPU+GPU ist da schon deutlich Problematischer.

Mir ging es nur darum, dass die Prozessparameter erst mal optimiert werden müssen.
Im Prinzip ist da nichts mehr zu optimieren, Wie soll man sonst pünklich 28nm bringen?
~1Jahr Vorlauf heisst für mich, das sich nun langsam alles zu 28nm dreht und nur noch kleine Gruppen 32nm anschauen. Aber wer weiß?

Anlagen und Leute sind die gleichen wie bei Llano. Und gäbe es Probleme beim Zusammenspiel von Core und GPU würde Llano gar nicht laufen.

Garnicht ist übertrieben, aber die direkte Anbindung und die Art der GPU ist schon ein Problem. Schliesslich gibt es so gut wie keine Referenz Modelle auf SOI, die in Massenfertigung sind.
Beiden Anlagen wäre ich mir da nicht so sicher. Beim 4Core 45nm waren auch Unterschiede zum 6Core

Also in der Folie die ich vor mir habe, Intel, finde ich nix darüber das die GPU im Nehelam direkt angebunden ist. Das sieht mir viel mehr nach einem extra Die/Modul aus.
Ich finde dazu aber keine Infos im Netz.
Wenn da jemand Lesestoff hätte?

Wenn wäre der Unterschied auf gewaltig,
siehe Die Nehalem
Die
Und Llano (der untere Teil ist alleine die GPU)
Die
 
Zuletzt bearbeitet:
[...]die direkte Anbindung und die Art der GPU ist schon ein Problem. Schliesslich gibt es so gut wie keine Referenz Modelle auf SOI, die in Massenfertigung sind.

Eines der vorhandenen Referenz Modelle ist aber ziemlich schwergewichtig:

http://www.advancedsubstratenews.com/2011/05/gpu-cpu-on-soi-the-xbox-360-did-it-first/

Als dieser Artikel frisch ins Netz kahm war man (behauptet mein Gedächtnis) sich hier einig das AMD maßgeblich beteiligt war.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten