Bulldozer rollt an....

Status
Für weitere Antworten geschlossen.

Markus Everson

Grand Admiral Special
Mitglied seit
22.10.2004
Beiträge
6.788
Renomée
270
Standort
Deutschland
Was den 28nm BD angeht, so denke ich dass eben diese Probleme die wir jetzt bei Llano mit 32nm SOI sehen dafür mitverantwortlich sind.

Damit stehst Du nicht alleine.

In diesem Zusammenhang möchte ich den aktuellen Artikel von Charlie in die Runde werfen:
http://semiaccurate.com/2011/08/18/intel-moves-transistors-from-2d-to-3d-and-more/

... in dem Charlie die Intel-Techniken beschreibt, richtig?

Meines Wissens nutzt AMD PD-SOI und das stößt bei 32nm wohl bereits an Grenzen. 22nm SOI ist bei GF grundsätzlich auf den Roadmaps, aber vielleicht wissen die AMD Ingenieure bereits, dass das nicht so läuft und planen den Wechsel auf Bulk auch bei den großen CPUs vor.

Möglich, aber ich halte es für wenig wahrscheinlich.
http://www.eetimes.com/electronics-news/4213478/ISSCC-panel-sees-challenges-at-20-nm-

Wahrscheinlicher wäre m.E. das AMD die gleichen Probleme wie beim 65nm Prozess sieht. Ein Prozess der auf zwei linken Füßen auf Treibsand tänzelt und kein Land mehr sieht

Möglich aber auch das AMD bei GF die gleichen Chancen sieht wie vorher bei TSMC.
Ein Prozess der wesentlich länger als erwartet braucht um aus dem tiefen Tal der Tränen zu kommen, dann aber mächtig durchstartet...
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
Nun, zumidnest scheint der aktulle Sweet Spot tiefer zu liegen als geplant, denn Llano wurde in den Folien als 3Ghz+ angegeben, und bisher schafft er offiziell noch nicht mal die 3Ghz ohne +
Die Spannung ist wieder ein anderes Thema...
 

Shadowtrooper

Grand Admiral Special
Mitglied seit
02.02.2009
Beiträge
2.476
Renomée
35
Standort
Krefeld
Naja 2,9GHz bei 1,4V ist schon schwach es war ja mal die rede von angeblichen 3-3,5GHz für Llano von daher fehlen da einfach nochmal 500MHz und die 100W TDP nutzt die aktuelle Version auch mehr als hart aus aber wenn es ein neues Stepping gibt geht da evtl ja noch was. Die schlechtesten Llanos werden ja scheinbar jetzt als FM1 Athlon II vermarktet. 4*2,6GHz ohne L3 bei 100W da ist ein Phenom II (925) ja schon vor fast 3 Jahren weiter gewesen und der kostete damals auch nur 120€. Wundert mich wirklich das der X4 631 nicht in die 65W TDP klasse fallen kann.
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
Auch nicht gerade ein Indiz für einen gut laufenden 32nm Prozess...
inwieweit das Transitorlayout da abgeädnert werden kann in einem neuen Stepping werden wir sehen... aber das alles kostet zeit... Zeit die für die Konkurrenz spielt...
nicht schön....
 

Starcraftfreak

Vice Admiral Special
Mitglied seit
02.04.2004
Beiträge
851
Renomée
7
... in dem Charlie die Intel-Techniken beschreibt, richtig?
Richtig, aber worauf ich hinauswollte ist der Absatz wo er das ganze in Perspektive zu PD-SOI und FD-SOI stellt. Der Artikel erklärt auch ein paar sachen über allgemeine Halbleitercharakteristik.

Der Kaffeesatz der Faktenlage der uns zur Verfügung steht deutet einfach auf Probleme bei 32nm hin. Wir haben ja nicht wirklich stichhaltige Infos zur Verfügung. Laut Seifert macht eh immer alles "good progress" und läuft "fine". Die DigiTimes-Meldung bezüglich Llano Yield hat ja wohl einen (vermutlich verärgerten) Mainboardhersteller als Quelle. Kann auch eine Spekulation sein und AMD liefert die ganzen Chips lieber an OEMs (insbesondere für Notebooks), da bleibt dann für den Channel nicht mehr viel übrig, was man dann auch als schlechten Yield verkaufen kann, kann ja niemand verifizieren. Nur die vergleichsweise hohe Spannung bei Llano (und diversen BD ES auch, auch wenn diese imo weniger aussagekräftig sind) und die Roadmap mit Bulk-BD spricht halt eher für die Theorie, dass 32nm SOI alles andere als gut läuft.

Die 3-Kern Llanos und non-GPU Llanos sind ja noch so eine Sache. Das sind meines Wissens doch die gleichen Dies. Ergo handelt es sich höchstwahrscheinlich um teildefekte Chips, sonst wäre AMD ja dumm diese so zu verkaufen, solange man für teurere Chips genügend Nachfrage hat (die uns zur Verfügung stehenden Fakten sagen, dass diese Nachfrage besteht). Die 100W TDP für das Modell ohne GPU sind auch verwunderlich, da laut Tests die GPU ca mit 20-25W zu Buche schlägt. Gut 100-25=75, da fehlt noch etwas, aber so weit ist das nicht mehr entfernt.
 

gruffi

Grand Admiral Special
Mitglied seit
08.03.2008
Beiträge
5.393
Renomée
65
Standort
vorhanden
Naja 2,9GHz bei 1,4V ist schon schwach es war ja mal die rede von angeblichen 3-3,5GHz für Llano
Nein, war es nie. Für Llano standen lediglich ">3 GHz" im Raum. Ausserdem sollte man in solche Angaben nicht zu viel reininterpretieren. Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region. Es liegt halt ein Unterschied darin, ob man angibt, zu was das Design im Stande ist und was als Taktraten für den Launch geplant sind. 3,5+ GHz wurden jedenfalls lediglich bei Bulldozer erwähnt. Und da scheint man im Soll zu liegen.

4*2,6GHz ohne L3 bei 100W da ist ein Phenom II (925) ja schon vor fast 3 Jahren weiter gewesen und der kostete damals auch nur 120€. Wundert mich wirklich das der X4 631 nicht in die 65W TDP klasse fallen kann.
Wie oft eigentlich noch? TDP != Leistungsaufnahme.
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
eigentlich interessant wie wenig Strom die GPU im verhältnis schluckt, wenn man betrachtet wie viel Platz sie auf dem DIE einnimmt und dass man immerhin 400 Shader durchfüttern muss.
Dem gegenüber saufen also 4 K10-Kerne mal eben das 3-Fache von den 400 shadern... Unter Maximallast versteht sich...
Das ist zwar im Bulldozer-Thread etwas OT, wirft aber ein interessantes Licht auf die anderen APUs, die aktuelle Brazos-Plattform und auch auf Trinity...
.
EDIT :
.

Nein, war es nie. Für Llano standen lediglich ">3 GHz" im Raum. Ausserdem sollte man in solche Angaben nicht zu viel reininterpretieren. Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region. Es liegt halt ein Unterschied darin, ob man angibt, zu was das Design im Stande ist und was als Taktraten für den Launch geplant sind. 3,5+ GHz wurden jedenfalls lediglich bei Bulldozer erwähnt. Und da scheint man im Soll zu liegen.
Wie oft eigentlich noch? TDP != Leistungsaufnahme.

Öhm, Gruffi... Nichts für ungut, aber sooo weit Weg sind sie davon garnicht.
Es wurde nur nie ein solches Produkt auf den Markt gebracht (wozu auch)
Aber wenn man nen 5W embedded Ontario betrachtet, kann es keine so große Sache sein eine Bobkatze auf 1W zu kriegen. Die Frage ist nur, was will man damit?

Und es steht wohl auch ausser Frage dass Die Brazos-Plattform in ihrem Bereich exzellent dasteht, sowohl bei CPU wie bei GPU-Leistung.
Was man von Llano nicht grade behaupten kann. Ich seh ihn zwar bei Weitem nicht so schwarz wie BR das immer macht, aber etwas mehr takt stünde Llano schon gut zu Gesicht, wenn man bedenkt dass schon Thubans weit jenseits von 6x3Ghz gehen können und das noch im alten Prozess... *noahnung*
 

deadohiosky

Gesperrt
Mitglied seit
13.07.2011
Beiträge
1.624
Renomée
26
Ich bin mir sogar relativ sicher, dass ein Bobcat Kern den genannten 1 Watt sehr nahe kommt, allein die GPU eines Ontario bzw. C-50 macht meines Erachtens 3-4 Watt aus.

Ich habe unlängst gelesen, dass durch (sehr dezentes) Undervolting eines C-50 die Bobcat Kerne um die 2-3 Watt verbrauchen.
 

bbott

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.370
Renomée
60
...Bei einem Bobcat Kern stand auch mal etwas auf einer Folie von weniger als ein Watt fähig. Trotzdem sehen wir noch keinen Bobcat in dieser Region...

Du behauptest das AMD keinen 1W Bobcat Kern baut, gibst die aber selbst die korrekte Antwort und das deine Aussage nicht stimmt. Ein Bocat Kern ist ein CPU Kern dieser sollte zumindestens in der <6W Variante selbst unter Vollast möglich sein. Spätestens wenn man den Idle Zustand als Lauffähig betrachtet dürfte man in den Milliwatt-Bereich kommen.

Man sollte eben die Aussage seitens AMD nicht aus Kundensicht betrachten, sondern aus für AMD möglichst Werbewirksamster, dass wiederum für den Kunden idR der worst case bedeutet.
 

WindHund

Grand Admiral Special
Mitglied seit
30.01.2008
Beiträge
11.190
Renomée
298
Standort
Im wilden Süden (0711)
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2021
Ich glaube nicht, dass die GPU in dem Fall irgendwas limitiert. Wir haben in unserem Artikel Prime und FurMark über Stunden bei 1,08 V betrieben. ;)
ok, hab ich wohl überlesen! :-[
Allerdings habe ich das auch schon probiert. Dabei ist mir aufgefallen, dass Prime zuviel priorität bekommt so das FurMark die GPU nur teilweiße (~25%) auslastet.
Erst wenn ich ein Kern von Prime raus neheme und dem Kern FurMark zuteile via Taskmanager, wird die GPU voll ausgelastet. ;)
 

gruffi

Grand Admiral Special
Mitglied seit
08.03.2008
Beiträge
5.393
Renomée
65
Standort
vorhanden
Öhm, Gruffi... Nichts für ungut, aber sooo weit Weg sind sie davon garnicht.
Es wurde nur nie ein solches Produkt auf den Markt gebracht (wozu auch)
Aber wenn man nen 5W embedded Ontario betrachtet, kann es keine so große Sache sein eine Bobkatze auf 1W zu kriegen. Die Frage ist nur, was will man damit?
Naja, darum ging es ja auch nicht. Llano ist mit 2,9 GHz auch nicht sooo weit weg von den ">3 GHz". Mit etwas Selektion wäre das sicherlich problemlos machbar. Die Frage ist nur, ob das bei einem Mainstream Produkt momentan Sinn macht.


Du behauptest das AMD keinen 1W Bobcat Kern baut, gibst die aber selbst die korrekte Antwort und das deine Aussage nicht stimmt.
So so, tue ich das? Wie lautete denn die Frage? Und welche Aussage soll nicht stimmen?

Spätestens wenn man den Idle Zustand als Lauffähig betrachtet dürfte man in den Milliwatt-Bereich kommen.
Es sollte klar sein, dass es hier nicht um Idle geht.
 

Onkel_Dithmeyer

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.04.2008
Beiträge
12.860
Renomée
3.698
Standort
Zlavti
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
ok, hab ich wohl überlesen! :-[
Allerdings habe ich das auch schon probiert. Dabei ist mir aufgefallen, dass Prime zuviel priorität bekommt so das FurMark die GPU nur teilweiße (~25%) auslastet.
Erst wenn ich ein Kern von Prime raus neheme und dem Kern FurMark zuteile via Taskmanager, wird die GPU voll ausgelastet. ;)

Ich hab es auch nicht ausdrücklich hingeschrieben. Das hatte ich nur gemacht, um zu gucken, ob Grafik oder CPU-Teil "limitiert" beim Undervolten. Es sind die x86-Kerne.

Das mit dem FurMark und Prime ist hingegen ein interessanter Aspect, den ich gleich mal nachprüfen werde.
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
Naja, darum ging es ja auch nicht. Llano ist mit 2,9 GHz auch nicht sooo weit weg von den ">3 GHz". Mit etwas Selektion wäre das sicherlich problemlos machbar. Die Frage ist nur, ob das bei einem Mainstream Produkt momentan Sinn macht.

Das ist mir durchaus bewusst, aber im Zeitalter von Sandy Bridge-Notebooks usw. stünden Llano ein paar Mhz mehr sehr gut zu Gesicht.
Krass gesagt, Llano hätte den höheren Takt bitter nötig, Zacate kaum. *noahnung*

Wenn man es also bei Brazos nicht macht, kann ich das verstehen.
Bei Llano ist das nur bedingt nachvollziehbar.
Und soweit ich mich erinnere werden die Brazos-APUs auch nicht mit default-Spannungen am oberen Ende ihrer Spezifikation ausgeliefert... oder täusche ich mich da?
 

Duplex

Admiral Special
Mitglied seit
02.05.2009
Beiträge
1.909
Renomée
57
Selbst 400MHz mehr Takt würden Llano gegenüber Sandy nicht besser aussehen lassen, man kann nur mit Trinity ernste konkurrenz machen und das weis AMD auch selber ;)
AMD hat das bestimmt selber erkannt und hat deshalb nicht soviele Ressourcen in Llano inverstiert, siehe vermarktung mit B0 Stepping :)
Was man braucht ist mehr IPC, mehr Takt & aktuelle SSE Instructionen, dafür ist Llano nicht ausgelegt.
 

Pirx

Admiral Special
Mitglied seit
11.11.2001
Beiträge
1.233
Renomée
7
Standort
Mädels auf Bäumen wachsen
Wobei das ja dann 2 Module gegen 4 jetzige Stars Kerne sind...
Ob ein BD-Modul (x% mehr IPC, aber 20% weniger, als ein hyp. Dualcore - oder so;D) wirklich schneller wird, als 2 K10.6-Kerne?
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
Selbst 400MHz mehr Takt würden Llano gegenüber Sandy nicht besser aussehen lassen, man kann nur mit Trinity ernste konkurrenz machen und das weis AMD auch selber ;)
AMD hat das bestimmt selber erkannt und hat deshalb nicht soviele Ressourcen in Llano inverstiert, siehe vermarktung mit B0 Stepping :)
Was man braucht ist mehr IPC, mehr Takt & aktuelle SSE Instructionen, dafür ist Llano nicht ausgelegt.
Da hast du zwar recht, aber wenn man die Leistung die ein Llano nunmal liefern kann, mit etwas weniger gebrutzel erreichen könnte, im Klartext, mit weniger Spannung, wäre das Produkt gleich nochmal attraktiver gegenüber der Sandbrücke.

Ich meine, ist schließlich kein Beinbruch solange sich Llano verkauft. Aber wenn man veranschlagt was die K10-Kerne schon ohne Powergating im alten Prozess zu Leisten im Stande sind, und die GPU wirklich nur mit an die 25W zu Buche schlägt, dann beckleckert sich der einzige 32nm K10 nun wirklich nicht gerade mit Ruhm. *noahnung*
Es ist zwar auch klar dass man Llano in der Form nicht hätte in 45nm bringen können (viel zu groß) aber dennoch sind das deutliche indizien dafür dass der 32nm-Prozess aus dresden nicht so rund läuft wie man sich das wünschen würde. Und genau hier krieg ich auch wieder die Kurve zum Topic... das beeinflusst nämlich auch Bulldozer.
der 32nm Prozess ist ja nicht nur ein einfacher shrink gegenüber dem 45nm, sondern soll zusätzlich mit HKMG ein Feature bieten, das zumindest bei Intel schon in 45nm einiges gebracht zu haben scheint....
Ob es dann allerdings die zusätzliche Komplexität wert war (die ihnen jetzt vielleicht den Wind aus den Segeln nimmt...)
IMHO wäre es jedenfalls nur richtig von AMD wenn sie die SOI schiene verlassen.
Dann ist man nicht mehr auf derart exotische Prozesse angewiesen die nur 1 Fertiger bieten kann.... wirtschaftlich gesehen also durchaus schlüssig.
.
EDIT :
.

Wobei das ja dann 2 Module gegen 4 jetzige Stars Kerne sind...
Ob ein BD-Modul (x% mehr IPC, aber 20% weniger, als ein hyp. Dualcore - oder so;D) wirklich schneller wird, als 2 K10.6-Kerne?
Wenn nicht, sollte AMD das Ingineursteam entlassen.
das würde auch bedeuten ein 2-Modul AMD FX könnte es nicht mit einem Deneb aufnehmen... und das wäre sehr blamabel für die neue Architektur.
 

gruffi

Grand Admiral Special
Mitglied seit
08.03.2008
Beiträge
5.393
Renomée
65
Standort
vorhanden
Das ist mir durchaus bewusst, aber im Zeitalter von Sandy Bridge-Notebooks usw. stünden Llano ein paar Mhz mehr sehr gut zu Gesicht.
Krass gesagt, Llano hätte den höheren Takt bitter nötig, Zacate kaum.
Da kann man genauso sagen, Sandy Bridge Notebooks hätten eine bessere GPU bitter nötig. Ich frage mich nur, warum da jetzt so ein Theater gemacht wird. Es war doch von vornherein klar, dass Llano CPU-seitig nicht an SB rankommt, dafür aber GPU-seitig um Längen voraus sein wird. Daran würden auch 200-300 MHz mehr für die CPU nichts ändern. Die Frage ist, worauf man mehr Wert legt. Braucht ein Durchschnittsuser wirklich maximale CPU Performance, damit zB ein Tab im Browser 0,00001 Sekunden schneller offen ist? Oder möchte man lieber ein ausgewogenen Multimediasystem, mit dem man auch mal ein aktuelles Spiel zocken kann bei vernünftiger Qualität und annehmbaren Frameraten? Letztendlich muss diese Fragen jeder für sich selbst beantworten. Ich sehe daher keinen Sinn, ständig über irgendwelche angeblichen Probleme zu sprechen, sei es der 32 nm Prozess oder was auch immer, die vermutlich gar nicht existieren. Auch bezüglich Energieeffizienz braucht man sich bei den Llano Notebooks nicht beschweren.

Die einzige Frage, die ich mir stelle, warum Llano eine relativ hohe Kernspannung besitzt. Das ist doch der einzige Punkt, der wirklich interessant und diskussionswürdig ist. Alles andere ist einfach nur Stochern im Dunkeln.
 

S.I.

Moderator
☆☆☆☆☆☆
Teammitglied
Mitglied seit
18.11.2008
Beiträge
10.747
Renomée
541
Standort
8685x <><
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • Docking@Home
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
Die einzige Frage, die ich mir stelle, warum Llano eine relativ hohe Kernspannung besitzt. Das ist doch der einzige Punkt, der wirklich interessant und diskussionswürdig ist
das ist nichts neues: AMD scheint lieber etwas mehr Spannung zu geben, rel. großzügig bei allen Chips der letzten Generation.
Warum, das wäre wieder spekkulativ, denke jedoch, dass man annimmt, dass damit die CPUs nocht stabiler sind; ein Nebeneffekt wäre vllt. dass AMD nebenbei an die zunehmende Fan Gemeinde des OC denkt - Jeder Kunde will bedient sein;)
Ist imho auch OK, da man ja die Spannung bei Standardtakt in guten Maschinen allermeist etwas absenken kann.
Lieber zu großzügig angegeben und eingestellt, als dass wieder "Betrug" oder "Skandal" kommt, wenn eine CPU statt 125 W 126 hat...*suspect*
 

Ge0rgy

Grand Admiral Special
Mitglied seit
14.07.2006
Beiträge
4.322
Renomée
82
Keiner macht ein Fass auf...
Und du hast recht dass die CPU-Powert meist unnötig ist.
Allerdings ist der Stromverbrauch unter Vollast auch recht heftig.....
Und genau hier könnte man mit geringeren Spannungen etc. einiges reissen und SB zwar nicht in der Leistung, wohl aber im Stromverbrauch einen sehr deutlichen seitenhieb versetzen.
 

amdfanuwe

Grand Admiral Special
Mitglied seit
24.06.2010
Beiträge
2.372
Renomée
34
Hab mal gelesen, wie bei GF die Chips produziert werden:
Kann man sich vorstellen, wie ein langes Fließband mit verschiedenen Stationen wo belichtet, dotiert poliert wieder belichtet etc. wird. Man brauch ja auch zig Masken, die zueinander passen müssen.
Jede Station hat einige Parameter, an denen gedreht werden kann ( Temperatur, Verweilzeit, Belichtungszeit ).
Zur Optimierung des Prozesses wird während der Produktion an den einzelnen Parametern gedreht, manchmal eben in die falsche Richtung.
Somit dauert es seine Zeit, bis der Prozess wirklich beherrscht wird.

Llano scheint mir für GF der Testballon bei 32nm zu sein.
Ergebnis: erstmal 100W APUs bei hoher Spannung.

Schätze mal, dass diese 100W Llanos aus dem Programm fliegen sobald höher Taktende 65W Typen verlässlich produziert werden. Und dann kann auch der Stromverbrauch entsprechend runtergesetzt werden.

Momentan purzeln halt eine Woche lang akzeptable gute Chips aus der Produktion, die nächste Woche sind es dann nur gerade noch brauchbare.
 

gruffi

Grand Admiral Special
Mitglied seit
08.03.2008
Beiträge
5.393
Renomée
65
Standort
vorhanden
das ist nichts neues: AMD scheint lieber etwas mehr Spannung zu geben, rel. großzügig bei allen Chips der letzten Generation.
Das Problem ist nur, man hatte im Vorfeld einen Spannungsbereich von 0,8-1,3 V angegeben. Das passt halt nicht. Taktraten von nicht ganz 3 GHz und relativ hohe Leistungsaufnahme unter Last sind dann eben die Folgeerscheinungen. Und gerade HKMG sollte ja dafür sorgen, dass die Spannungen im Vergleich zum 45 nm Prozess sinken. Also entweder versucht man wirklich alles an Yields rauszuholen und dimensioniert die Spannung etwas grosszügiger. Oder das B0 Stepping ist halt einfach noch nicht reif genug für die Zielvorgaben. Die Spannung beim B2 Bulldozer der Chinesen sah mit 1,32 V ja schon besser aus (vorausgesetzt der CPU-Z Screen zeigt korrekte Werte an).


Allerdings ist der Stromverbrauch unter Vollast auch recht heftig.....
Und genau hier könnte man mit geringeren Spannungen etc. einiges reissen und SB zwar nicht in der Leistung, wohl aber im Stromverbrauch einen sehr deutlichen seitenhieb versetzen.
Das kann man auch so. Die Leistungsaufnahme unter Idle und im Niedriglastbereich ist ja sehr gut. Und dort verbringt der Prozessor die meiste Zeit.
 

dekaisi

Grand Admiral Special
Mitglied seit
06.11.2006
Beiträge
3.930
Renomée
25
Standort
B
Hab mal gelesen, wie bei GF die Chips produziert werden:
Kann man sich vorstellen, wie ein langes Fließband mit verschiedenen Stationen wo belichtet, dotiert poliert wieder belichtet etc. wird. Man brauch ja auch zig Masken, die zueinander passen müssen.
Jede Station hat einige Parameter, an denen gedreht werden kann ( Temperatur, Verweilzeit, Belichtungszeit ).
Zur Optimierung des Prozesses wird während der Produktion an den einzelnen Parametern gedreht, manchmal eben in die falsche Richtung.
Somit dauert es seine Zeit, bis der Prozess wirklich beherrscht wird.

Llano scheint mir für GF der Testballon bei 32nm zu sein.
Ergebnis: erstmal 100W APUs bei hoher Spannung.

Schätze mal, dass diese 100W Llanos aus dem Programm fliegen sobald höher Taktende 65W Typen verlässlich produziert werden. Und dann kann auch der Stromverbrauch entsprechend runtergesetzt werden.

Momentan purzeln halt eine Woche lang akzeptable gute Chips aus der Produktion, die nächste Woche sind es dann nur gerade noch brauchbare.

Du hast vergessen, dass GF auf den gleichen Anlagen noch vie viel mehr Produkte herstellt. Llano von AMD immer schlecht Supported wurde und viele neue Dinge in den Core eingeflossen sind und aus Kaffeeleserei kann man kaum darauf schliessen, dass die Cores selber das Problem sind.
Wohl eher das Zusammenspiel CPU und GPU, oder warum hat das Intel gleich weg gelassen??
Dazu kommt, die massive Produktionssteigerung, die sicher auch zu seinen Problemen führen wird. Da ja bekanntlich auch die Analgenhersteller mit ihren Anlagen Angaben oft danaben liegen :D.
Beispiel wäre sicher deine angesprochenen Litho Anlagen, die lange nicht das schaffen, was sie eigentlich, laut Hersteller, schaffen sollten. Deshalb musste wohl ein Hersteller acuh seine Anlage auf seine Kosten abbauen (SC300)
Dazu kommen sicher auch Personalprobleme, wie man so hört, 250% Anlagen und nur 40% Personal soll sich auch nicht so gut vertragen.
Aber wie schon einmal erwähnt, hätte ein anderer Hersteller AMD in 32nm SOI CPU+GPU bauen können, hätten sie es auch dort in Auftrag gegeben. Was aber unmöglich war.
a) weil diese veraltete Anlagen haben (200mm), b) kein SOI machten, c) kein Verlustgeschäft machen wollten

Mal schauen wie BD mit 32nm SOI wird, denn das kann GF/AMD

Das Problem ist nur, man hatte im Vorfeld einen Spannungsbereich von 0,8-1,3 V angegeben. Das passt halt nicht. Taktraten von nicht ganz 3 GHz und relativ hohe Leistungsaufnahme unter Last sind dann eben die Folgeerscheinungen. Und gerade HKMG sollte ja dafür sorgen, dass die Spannungen im Vergleich zum 45 nm Prozess sinken. Also entweder versucht man wirklich alles an Yields rauszuholen und dimensioniert die Spannung etwas grosszügiger.
.
Nein, HK MetalGate wurde eingeführt, da man bei kleineren Strukturen die Durchbruchspannung mit SiO nicht mehr beherrschen konnte und massive Probleme mit der Taktrate bekommen hat. Also nicht höher kam.

http://maltiel-consulting.com/Integrating_high-k_Metal_Gate_first_or_last_maltiel_semiconductor.html

Man muss derzeit bedenken, dass die Prozessoren ein langes Leben haben sollen, also ein Kompromiss gemacht werden muss.
 
Zuletzt bearbeitet:

amdfanuwe

Grand Admiral Special
Mitglied seit
24.06.2010
Beiträge
2.372
Renomée
34
Du hast vergessen, dass GF auf den gleichen Anlagen noch vie viel mehr Produkte herstellt.
...
Mal schauen wie BD mit 32nm SOI wird, denn das kann GF/AMD

Wie ist der Yield und die Anforderungen der anderen Produkte in SOI HKMG?
Mir ging es nur darum, dass die Prozessparameter erst mal optimiert werden müssen. Bisschen zu viel vorne gedreht, kommt hinten nichts gescheites mehr raus.

Wie kommst du drauf, dass GF BD besser kann? Ist der gleiche Prozess, nur andere Masken.
Anlagen und Leute sind die gleichen wie bei Llano. Und gäbe es Probleme beim Zusammenspiel von Core und GPU würde Llano gar nicht laufen.

Und Intel? Die haben doch ihre GPU auch on Chip.
Verstehe da dein Problem nicht.
 

dekaisi

Grand Admiral Special
Mitglied seit
06.11.2006
Beiträge
3.930
Renomée
25
Standort
B
http://chip-architect.com/news/Llano_comp2.jpg
Wie ist der Yield und die Anforderungen der anderen Produkte in SOI HKMG?
Wie kommst du drauf, dass GF BD besser kann? Ist der gleiche Prozess, nur andere Masken.
Wer sagt das das SOI ist?? 8)
Was GF bisher gebaut? AMD CPU auf SOI, waren die gut im Yield?? JA. Also warum sollte es bei 32nm CPU only Probleme geben?

CPU+GPU ist da schon deutlich Problematischer.

Mir ging es nur darum, dass die Prozessparameter erst mal optimiert werden müssen.
Im Prinzip ist da nichts mehr zu optimieren, Wie soll man sonst pünklich 28nm bringen?
~1Jahr Vorlauf heisst für mich, das sich nun langsam alles zu 28nm dreht und nur noch kleine Gruppen 32nm anschauen. Aber wer weiß?

Anlagen und Leute sind die gleichen wie bei Llano. Und gäbe es Probleme beim Zusammenspiel von Core und GPU würde Llano gar nicht laufen.

Garnicht ist übertrieben, aber die direkte Anbindung und die Art der GPU ist schon ein Problem. Schliesslich gibt es so gut wie keine Referenz Modelle auf SOI, die in Massenfertigung sind.
Beiden Anlagen wäre ich mir da nicht so sicher. Beim 4Core 45nm waren auch Unterschiede zum 6Core

Also in der Folie die ich vor mir habe, Intel, finde ich nix darüber das die GPU im Nehelam direkt angebunden ist. Das sieht mir viel mehr nach einem extra Die/Modul aus.
Ich finde dazu aber keine Infos im Netz.
Wenn da jemand Lesestoff hätte?

Wenn wäre der Unterschied auf gewaltig,
siehe Die Nehalem
Die
Und Llano (der untere Teil ist alleine die GPU)
Die
 
Zuletzt bearbeitet:

Markus Everson

Grand Admiral Special
Mitglied seit
22.10.2004
Beiträge
6.788
Renomée
270
Standort
Deutschland
[...]die direkte Anbindung und die Art der GPU ist schon ein Problem. Schliesslich gibt es so gut wie keine Referenz Modelle auf SOI, die in Massenfertigung sind.

Eines der vorhandenen Referenz Modelle ist aber ziemlich schwergewichtig:

http://www.advancedsubstratenews.com/2011/05/gpu-cpu-on-soi-the-xbox-360-did-it-first/

Als dieser Artikel frisch ins Netz kahm war man (behauptet mein Gedächtnis) sich hier einig das AMD maßgeblich beteiligt war.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Oben Unten