Was kommt (nach den ersten Deneb (K10.5+)) fuer den Desktop bis zum Launch der BD(APUs)?

32Bit Farben = 4 Byte !
1680*1050*4 Byte = 7056000 Bytes = 6,73 MB
jedoch kommen nunmehr realistischere Farben bis 48 Bit = 6 Byte daher.
Nun 3 Byte reichen für die Darstellung.
Ggf. konvertiert ja Intel die 32 Bit Werte wenn die in den L3 geladen werden ?

Zumindest ist die Verbindung L3 und GPU mit aufgeführt ... Umsetzung ist abzuwarten.

Intel wird kaum versuchen seine GPUs per Sideport RAM aufzupolieren. Deren Performance wir eh nicht vom Kunden in Barem honriert.
AMD hingegen wird per Lima die 'kostbare' SOI-Fertigung für den GPU.Core opfern. Da muss schon erhöhte Performance her und zusätzlich Sideport RAM wäre auch zu prüfen.
Wie http://global.hkepc.com/3395/page/3#view zeigt kommen selbst die jetzigen AMD 785G schon mit Sideport an den Markt.
 
Sideport ist doch ansich keine schlechte Idee, muss halt nicht alles über die CPU zum RAM .... und diese Idee kann man ja beibehalten

RAM-CPU + GPU-TEIL-SIDEPORTRAM:

die kommenden AMD-CPUs haben doch schon um die 1600 bis 2000 Kontakte, da kann man auch ein paar für SIDEPORT verwenden - oder den RAM mit auf MCM - so in 32nm oder kleiner produziert dürfte ein 64MB RAM-MODULchen (reicht ? ) dürfte kaum mehr als 90-120mm² benötigen und bei den Sockel C32 oder gar G34 ist doch auch mehr Platz da als beim (aussterbenden) Sockel AM3
 
Sideport ist doch ansich keine schlechte Idee, muss halt nicht alles über die CPU zum RAM .... und diese Idee kann man ja beibehalten

RAM-CPU + GPU-TEIL-SIDEPORTRAM
Bisher hat AMD noch nichts zu den Sockets für Lima verlauten lassen.

Um wirklich gute Performnace bei der GPU zu erreichen müßte Sideport mit eher GDDR5 zum Einsatz kommen denn am Socket selbst wird ja schon Dual-Channel DDR3-1333 ff zur Verfügung stehen.
Andererseits möchten die OEMs und die Mainboardhersteller nicht übermäßige Kosten mit sich rum schleppen wollen. Und GDDR5-Geschwindigkeit über Socket abzuwickeln ist schon sehr anspruchsvolle Hochfrequenztechnik. Da wäre es sinnvoll den Speicher gleich mit auf dem Träger fürs das DIE zu integrieren.

Lt. http://en.wikipedia.org/wiki/GDDR5 hätte man im x32 Mode etwa 14 GByte/s zu erwarten während der Hauptspeicher bei DDR3-1333 etwa 21 GByte/s max. bietet.
Wenn die GPU beide Speicher zur Vergügung hätte und abzgl. CPU-Bedarf beim DRAM könnte man netto wohl Verdopplung per Zusatz-GDDR5 Chip ansetzen.
Ohne diesen Speicher ergeben sich Bandbreiten wie sie auch Intel einmal nutzen kann.

Lt. http://en.wikipedia.org/wiki/Intel_Sandy_Bridge_(microarchitecture) wird Sandy Bridge sogar GDDR optional angesprochen.

AMD wird es kaum vermeiden können die Lima-GPU durch GDDR5 noch zu puschen.Gggf. nur für die höherpreisigen Produktlinien.
Sonst lohnt sich der ganze Aufwand 'Fusion' einfach nicht.
 
Nun 3 Byte reichen für die Darstellung.
Ggf. konvertiert ja Intel die 32 Bit Werte wenn die in den L3 geladen werden ?

Zumindest ist die Verbindung L3 und GPU mit aufgeführt ... Umsetzung ist abzuwarten.

Intel wird kaum versuchen seine GPUs per Sideport RAM aufzupolieren. Deren Performance wir eh nicht vom Kunden in Barem honriert.
AMD hingegen wird per Lima die 'kostbare' SOI-Fertigung für den GPU.Core opfern. Da muss schon erhöhte Performance her und zusätzlich Sideport RAM wäre auch zu prüfen.
Wie http://global.hkepc.com/3395/page/3#view zeigt kommen selbst die jetzigen AMD 785G schon mit Sideport an den Markt.
Wenn du den L3 als Framebuffer nutzt bleibt kaum noch was für die CPU als solche über, so eine bescheuerte Lösung wird Intel nicht nutzen, vor allem, da beim FB die Latenz völlig egal ist :P. Man wird den L3 eher als Cache für die GPU mitnutzen, um z.B. Texturen oder Geometrieinformation auszulagern. Ich sehe die L3-Anbinung als mögliche Synergie zwischen GPU und CPU, beides jedoch jeweils auf Kosten des Anderen.
 
Zuletzt bearbeitet:
Wenn du den L3 als Framebuffer nutzt bleibt kaum noch was für die CPU als solche über, so eine bescheuerte Lösung wird Intel nicht nutzen, vor allem, da beim FB die Latenz völlig egal ist .
http://www.hardware-infos.com/news.php?news=3055

Kann durchaus zutreffen.
Die obige Abschätzung dass Intel über Perfromance Radeon 4300 oder Geforce 9400 kommt muss für AMD bedeuten überzeugende Mehrleistung bei Fusion zu bringen.
Und bei Intel erwart ich auch dass die das GPU-Designs nun in die letzten Entwicklungsstufe vor Larrabee tritt.
 
Nur mal so als Hinweis: Seit Ewigkeiten spart sich Intel bei den IGPs Transistoren und lässt bestimmte Berechnungen von der CPU machen. Und wenn nun die GPU mit auf dem selben Stück Silizium wohnt liegt es nahe, dass der Datenaustausch direkt über den L3 läuft um sich so einen Umweg über den Hauptspeicher zu ersparen.

Edit: @über mir:

Auch wenn sich Radeon 4300 jetzt toll anhört hat AMD bis dahin (Ende 2010) sicherlich kein Problem einen DX11-IGP-Chipsatz zu bringen. Was mich gleich daran erinnert, dass ich mal fragen wollte was eine Integrierte GPU im Moment für Vorteile bringen soll? Aktuell hat AMD die Möglichkeit jedem Kunden genau das zu verkaufen was er will: 1/2/3/4-Kerne + IGP/keine IGP + Southbridge. Wenn man nun die GPU mit auf die CPU bringt müssen entweder alle Käufer eines großen Rechners mit dedizierter Grafikkarte eine IGP mitfinanzieren oder man kann keine schnellen Prozessoren mehr mit einer integrierten Grafik kombinieren (siehe Intel). Da ist die Flexibilität der aktuellen Lösung wohl doch besser oder nicht?

Und eine Bastellösung mit IGP als extra Chip mit auf dem Package ist noch dümmer, da es letztlich egal ist wo sich das Hypertransport-Gerät befindet. Die Boards werden dadurch auch nicht wirklich billiger, da die Hersteller unabhängig vom Verbrauch des Chipsatzes heutzutage entweder eine an den 780i erinnernde Kupferdeponie draufschnallen oder einen 70ct. Kühlkörper von der Stange nehmen der den Boardpreis nicht wirklich negativ beeinflusst.

Außerdem möchte ich eigentlich nicht schon wieder das Geschrei ala "AM3 ist doch noch so jung und schon nach sooo kurzer Zeit bringen die jetzt den Fusion-Sockel" hören. Wenn man irgendwann mal auf DDR4 umsteigt (2012 - DDR4 - 22nm) kann man sich ja Gedanken darum machen. Bis dahin ist auch der "Anschlussring" um den CPU so groß geworden, dass man wirklich zu den 4 Kernen problemlos noch eine IGP mit auf den Chip legen kann. Im Mobilbereich wäre es sicher auch noch eher möglich, da dort dank Hybrid-Power eigentlich auch jeder eine IGP haben möchte (Spätestens dann ist Nvidia auch aus diesem Markt raus). Mal so als Rechnung: Regor ist laut AMD 117,5 mm² und Propus ca.150mm² groß was also durchaus zusammen mit einer RS785 NB (~64mm² @ 55nm -> ~50mm² @ 45nm) noch zu einer "mainstreamtauglichen" Chipgröße für einen Mobilprozessor geführt hätte. Aber da wäre auch ein neuer Sockel mit 1000 Kontakten nötig gewesen und blöderweise hat AMD offenbar keine Leute die mal eben Grafikhardware auf SOI portieren und eine neue Platform entwickeln. Sowas ähnliches war ja AMDs erster Plan für die Single/Dual-Swifts in 45nm.
 
Zuletzt bearbeitet:
Klingt sehr plausibel.
 
In erster linie soll das ganze zumindest bei Sandy wohl dazu dienen dass sich die Boardhersteller 1. die NB einsparen können (einfachere leiterbahnverlegung, weniger chips "im weg" etc.) und dass die Kühlung daher einfach wird, weil die IGP vom relativ Großen CPU-Kühler mitgekühlt wird und der Boardhersteller eben nicht noch unbedingt große Kuperdeponien zusätzlich braucht.
Ob das alles Leistungstechnish momentan so optimal ist wird sich zeigen müssen.
Da fällt mir grad ein... Geforce 9400? - Ist das nicht die Grafik von Nvidias ION-Plattform!?
Cool, dann kriegt der ein mainstream-Quadcore von Intel im jahre 2012 also endlich die Grafikleistung einer heutigen ATOM-Plattform (und daher zwangläufig low-End und Low-cost) spendiert... Wahnsinnsleistung.
Mag ja sein dass die Jüngt mit der GMA4500 für ihre verhältnisse einen deutlichen Sprung gemacht haben, aber tschuldigung, was ist heutzutage schon noch eine Geforce 9400? und auch Radeon 4300 mit ihren 80 shaderprozessoren... das ist ein zehntel dessen was die "ernstzunehmenden" grafikbeschleuniger liefern... und das bereits heute! - was bleibt von diese Leistung wohl im Jahre 2010 übrig, wenn die ersten DX11-IGPs erscheinen?
Ne also wirklich... sowas ist eine Graka für Office-Rechner, mehr aber auch nicht. Und wenn es darum ginge könnte sich intel die entwicklung gleich sparen und ne GMA3xxx oder 4xxx in kelinerer struktur benutzen, da wären noch transistoren eingespart...
Also der sinn und unsinn des ganzen erschließt sich mir in dem Rahmen überhaupt nicht.

Wie soll diese GPU-CPU-Integration überhaupt vonstatten gehen?
Bei den Speicherbandbreiten heutiger Grafikchips, müssten die ja ein QuadChannel - Interface an die Crossbar flanschen um nur nen modernen Quadcore und eine GPU des unteren Mainstreams anzuflanschen...!?
Richtig lustig wirds erst, wenn sich das ganze auf einem einzigen DIE befindet, und zwar in einer integrationsstufe dass sogar die caches untereinander ausgelesen werdne können bzw. die CPU ohne große umschweife die Shaderprozessoren befüttern kann etc.
Aber solange das in dem Rahmen hier passiert, ist das nix weiteres als "wie spare ich noch xxx cent bei der produktion meiner platine ein und dränge die IGP-Chipsethersteller aus dem markt"

grüßchen
ich
 
Wie soll diese GPU-CPU-Integration überhaupt vonstatten gehen?
...
Aber solange das in dem Rahmen hier passiert, ist das nix weiteres als "wie spare ich noch xxx cent bei der produktion meiner platine ein und dränge die IGP-Chipsethersteller aus dem markt"
Intel hat sich per Clarkdale erst einmal ein simples Design geschaffen um Beides zu integrieren.
'Sandy Bridge' wird eine Leistungsstufe höher und damit zumindest bei Einführung eher etwas höhere Kostenklasse werden.
Intel wird dann tatsächlich auch bei 3D-Leistung zulegen vs. heutigen Designs.

Bei AMD hingegen sind die Vorteile gering dafür aber wg. SOI-Fertigung eher Kostensteigerungen zu vermuten.
Eine 2-Chip Lösung mit ggf. 32 Bit HTr 3.0 als Anbindung wäre da sinnvoller geworden.
Zudem hätte AMD dann auch verschiedene GPUs mit den CPUs mischen können - je nach Nachfrage.
Gerade für AMD/ATI ist noch völlig offen was die Kunden favorisieren. Das könnten low budget/ low performance sein ähnlich zu Intel oder eben zügigere Designs.
Beim Liano muss AMD ins Blaue planen da sie den Markt für Fusion-Produkte nicht abschätzen können.

Ein fiktiver Quad-Core mit x16 zzgl. HTr 3.0 in 32 Bit Interfaces wäre leicht entwickelbar und in 32nm 150-170 mm2 groß (je nach Caches). Und der GPU-Teil wäre aus zwei Quellen (TSMC oder DD-Bulk 32/28 nm) verfügbar.
 
Die Angestellten von AMD und Intel haben ja sowieso keine Ahnung ... *noahnung*
 
Es geht nicht ums "Anung haben" sondern darum zu verstehen was denen im Kopf herumgeht bzw. was sie schätzen.
Denn mehr ist das nicht, als eine Schätzung, ich glaube kaum dass die Betriebswahrsager eingestellt haben die in ihrer Glaskugel auf Magische weise den Markt von morgen ablesen.
Zudem spielt das Marketing auch eine Rolle, nicht nur die Technik.

@rkinet
3D-Leistung von Intel wäre ja auch mal was neues. Abgesehen davon, wie soll das Speicherbandbreiten-Mäßig denn laufen!?
Gibt das dann genug Leistung für Mahjongg in 3D oder für Warcraft 3 in 1680x1024 mit FSAA?
Wenn man sich die heutigen 3DGames anguckt, welche aufgrund von Konsolenportierungen usw. noch recht genügsam mit den Ressourcen umgehen und noch nichtmal alle DX10 features nutzen (Wie lange hat intel nochmal gebraucht um beim GMA3000 funktionsfähiges DX10 abzuliefern?? - obwohl der Chip längst released war!) dann ist man für "ernstes" 3D schon mit einer Radeon 4700 eher am unteren Ende der Skala.
Und dabei sind Titel wie Crysis noch gar nicht eingerechnet, ganz zu schweigen von Irgendwelchen Games des jahres 2010.
Mein Bruder hat sich erst jüngst ein kleines Notebook von Acer beschafft, da ist ne Mobile Radeon 4550 verbaut, leider aus kostengründen nur mit DDR2 - Speicher statt GDDR5... und das ist noch nichtmal UMA. Es langt "gerade so" mit reduzierten Details für seinen lieblings online-Shooter namens "Combat Arms" auf 13xx mal 768 Auflösung....
Und das Game sieht zwar nicht so fürchterlich aus, ist aber auch weit von einer Kracher-Optik des jahres 2009 entfernt, von 2010 ganz zu schweigen.
Also sorry, vielleicht haben wir verschiedene auffassungen von 3D, aber wenn das dingens sich allen ernstes auf dem Niveau einer Radeon 4300 befindet in Sandy, dann wird das nett zum Videos decodieren ohne die CPU zuzunageln und für AERO des Betriebssystems, aber viel mehr auch nicht. 3D ist anders...
Also wo genau sollte AMD nur ansatzweise ein Problem bekommen das Leistungsmäßig zu toppen!?

grüßchen
Ich
 
Die Angestellten von AMD und Intel haben ja sowieso keine Ahnung ...
http://computer.t-online.de/c/19/56/30/86/19563086.html

Der Markt verändert sich rasant - nach unten.
Als AMD die Entscheidung zum ATI-Kauf machte waren viel höhere Durchschnitsspreise je Komponenten erzielbar.

Ob Intel. ob AMD, die Zukunftspläne 2005 ff. sind heute in ganz anderem Umsatzumfeld zu sehen.
Aber Intel brechen sprach die Umsätze/ Komponente ein, dafür haben sie immer noch hohe Stückzahlanteile und einige Premiumprodukte.AMD/ATI hingegen sind die Stückzahlen eingebrochen und auch die Durchschnittserlöse. Wobei AMD ja jahrelang fleißig aggressive Preispolitik betrieb ... selbst bei roten Zahlen.
 
Wie man hier lesen kann, ist nun AMDs neues Spitzenmodell verfuegbar und auch schon kaeuflich erwerbbar. Dieser Launch stellte AMD also nicht vor unloesbare Aufgaben - aber 140 Watt TDP deuten eher auf ein zukuenftiges Probleme hin.

Es ist kaum zu erwarten, dass es AMD gelingen wird den Mainboardhersteller/Marketing noch zu groesseren 'TDP-Faehigkeiten' zu ueberreden. Sicherlich wird AMD noch eine 'vCore TD'P gezaehmte 965 BE in die Runde werfen koennen, aber das zeigt doch, dass der aktuelle Prozess schon ziemlich am (TDP)Limit arbeitet.

Wie wird AMD 'sein' Highend bedienen in den naechsten 6-12 Monaten?

32nm wird wohl kaum frueh genug dasein um das TDP Problem noch ein wenig weiter raus zu schieben, oder!?
Oder wird es (endlich) neue Features geben? Turbo Modus?
 
Wie wird AMD 'sein' Highend bedienen in den naechsten 6-12 Monaten?
...
32nm wird wohl kaum frueh genug dasein um das TDP Problem noch ein wenig weiter raus zu schieben, oder!?
..
Oder wird es (endlich) neue Features geben?
Turbo Modus?
Die Quad-Performnace ist heute sowohl bei Intel als auch AMD jenseits vom Bedarf.

Aber Single-Thread Performance ist vielfach noch gefragt wg. dem Bestand an entsprechender Software. 1* 4 GHz beim 3* 2 GHz würde bei 80% aller Software sich mit 4 / 3,4 = +18% bemerkbar machen.
So eine Steigerung reicht normalerweise für 1 Jahr Modellentwicklung aus wenn man die Performanceschübe je Jahr der Vergangenheit betrachtet.

Und Mitte 2010 wäre 32nm nicht wirklich fern. Wobei allerdings lt. AMD-Roadmap nicht nur ein Shrink sondern gleich wieder eine Weiterentwicklung ansteht.
Hätte AMD /GF eine Roadmap hin zu SOI-40nm (bei Bulk gibts ja 40nm) könnte man Mitte 2010 den Deneb einfach auf 40nm shrinken und hätte nochmals 10-15% Performance bei ähnlicher TDP in Reserve. Wenn man sieht dass in Indien heute genügend AMD-Ingenieure sitzen und die eh viel am Shanghai/Deneb entwickelten dann wäre der ganze Aufwand kostengünstig und schnell zu haben.

Ich befürchte daher dass AMD wieder wie vor Barcelona länger mit alten Designs leben muss/will um dann (verzögert) ein neues 'Wunderdesign' zu bringen.
Dabei erfordert der Hauptmarkt von AMD bei Desktop und Opteron nicht das letzte HighEnd. Ein 40nm Shrink des Shanghai/Deneb egäbe DIEs die klein genig für die Mittelklasse und auch 2011 noch gut absetbar wären. (Die 90nm Oldies liefen ja auch fast ewig aus der Fertigung)
 
Falls du dich auf die Aussagen von JF-AMD berufst, möchte ich anmerken, dass er nur von den Server-Chips gesprochen hat. Ob es einen Shrink bei den Desktop CPUs geben wird, hat meines Wissens nach noch niemand offiziell gesagt. Da die Entwicklung von Server und Desktop laut JF auseinander geht, wäre also ein Shrink der Phenom II durchaus denkbar!

Für mich kommt da aber eher die Einführung von HKMG oder ein Shrink auf 32 nm Bulk in Frage. Beides könnte zu einem geringerem Verbrauch oder höheren Taktraten führen. 40 nm SOI Transistoren hätten keinen großen Unterschied bei den elektrischen Eigenschaften zu ihren 45 nm SOI Gegenstücken, da es nur ein optischer Shrink wäre! Man könnte also nur mehr Chips herstellen. Am Stromverbrauch oder der Taktbarkeit würde sich hingegen nicht viel ändern. Bei der jetzigen Überkapazität in Dresden kann ich mir eine Investition in diese Richtung nicht vorstellen.

MfG @
 
Zuletzt bearbeitet:
Falls du dich auf die Aussagen von JF-AMD berufst, möchte ich anmerken, dass er nur von den Server-Chips gesprochen hat. Ob es einen Shrink bei den Desktop CPUs geben wird, hat meines Wissens nach noch niemand offiziell gesagt. Da die Entwicklung von Server und Desktop laut JF auseinander geht, wäre also ein Shrink der Phenom II durchaus denkbar!
Es würde sicherlich auch die Einführung von SOI-32nm beschleunigen wenn ein ausgereiftes Design wie der Deneb einfach übertragen würde.

Für mich kommt da aber eher die Einführung von HKMG oder ein Shrink auf 32 nm Bulk in Frage. Beides könnte zu einem geringerem Verbrauch oder höheren Taktraten führen. 40 nm SOI Transistoren hätten keinen großen Unterschied ...
Bei der jetzigen Überkapazität in Dresden kann ich mir eine Investition in diese Richtung nicht vorstellen.
Gerade die Überkapazitäten machen auch für SOI-32nm Sorgen. Die Rechtfertigung liegt dafür beim Liano der aber bzgl. Markterfolg nicht gewiss ist. Zudem könnte man ihnen ggf. sogar in Bulk-32nm oder gar Bulk-28nm fertigen. Die Roadmap Bulk für Dresden ist nämlich sicher.
Es wäre also bei Verzicht auf SOI für den Liano möglich sich per SOI-40nm für einen Deneb II in SOI-40nm und extern bei IBM die SOI-32nm für Opteron und HighEnd Desktop zu retten.
Solange AMD nicht mehr Marktanteile erhält sollte man eher die SOI in DD so kostengünstig wie möglich halten. Zudem wäre eine SOI-40nm deutlich früher verfügbar als jene SOI-32nm. Eine Durststrecke 2010 wenn Intel mit 32nm kommt (ok, abhängig von der Inbetriebnahme neuer 32nm Fabs bei Intel) und 45nm bei AMD ist einfach ungünstig. Ein Duell SOI-40nm (AMD) vs. Bulk-32nm (Intel) hingegen wäre viel ausgeglichener.
 
@rkinet
Von einem 40nm SOI Performance Prozess habe ich noch nicht gehört.
Hast Du einen Link, wo man den Prozess (z.B. bei IBM) studieren kann?
MfG
 
Wie man hier und hier lesen kann, kommt die Welle der X4.

Leider haben wohl die X4(ohne E) Modelle eine TDP von 95Watt.
Die Preise sind erstaunlich niedrig - und werden wohl eher noch sinken...da bleibt wohl kaum noch Platz fuer hochpreisige AMD Dualcores.

Interessant wird das Duell zwischen X3 mit Cache und X4...und es sollen ja noch X3 ohne Cache kommen....
Das Preisgefuege wird interessant....

Damit sind nun alle erwarteten Dies am Markt (oder kurz davor). Mit dieser Garde muss AMD es bis Mitte 2010 es aushalten...
 
Es würde sicherlich auch die Einführung von SOI-32nm beschleunigen wenn ein ausgereiftes Design wie der Deneb einfach übertragen würde.
Tut man ja mit dem Llano. Gleichzeitig bringt man noch eine völlig neue Art GPU auf dem Die unter. Beschleunigen wird das aber nix, denn ich bin davon überzeugt, dass die Reife des Prozesses eher der limitierende Faktor ist, nicht die Reife des Designs. Es ist besser, beides dann zu bringen wenn beides fertig ist. In diesem Fall ist das wohl relativ gleichzeitig der Fall.
Gerade die Überkapazitäten machen auch für SOI-32nm Sorgen. Die Rechtfertigung liegt dafür beim Liano der aber bzgl. Markterfolg nicht gewiss ist. Zudem könnte man ihnen ggf. sogar in Bulk-32nm oder gar Bulk-28nm fertigen. Die Roadmap Bulk für Dresden ist nämlich sicher.
Es wäre also bei Verzicht auf SOI für den Liano möglich sich per SOI-40nm für einen Deneb II in SOI-40nm und extern bei IBM die SOI-32nm für Opteron und HighEnd Desktop zu retten.
Solange AMD nicht mehr Marktanteile erhält sollte man eher die SOI in DD so kostengünstig wie möglich halten. Zudem wäre eine SOI-40nm deutlich früher verfügbar als jene SOI-32nm. Eine Durststrecke 2010 wenn Intel mit 32nm kommt (ok, abhängig von der Inbetriebnahme neuer 32nm Fabs bei Intel) und 45nm bei AMD ist einfach ungünstig. Ein Duell SOI-40nm (AMD) vs. Bulk-32nm (Intel) hingegen wäre viel ausgeglichener.
K10-Desgin = SOI-Design. Vergiss das mit dem Bulk. Llano ist zu 99,99999% SOI. Da ist eher Orochi bulk als Llano (aber auch der wird SOI sein ;D). 40nm SOI ist offenbar garnicht in Planung, aber 40nm Bulk.

SOI: 45nm, 32nm HKMG und evtl 45nm HKMG (Option)
Bulk: 45nm, 40nm, 32nm HKMG (?), 28nm HKMG (?)

Es stellt sich eher die Frage, in welche Richtung die GPU-Entwicklung bei 22nm geht, da bei 22nm echte Fusion-Chips kommen dürften, die CPU und GPU-Funktionen wirklich vereinen. Dann dürften auch die AMD-GPUs komplett auf SOI setzen. Es geht also eher zu SOI hin als von SOI weg. Dass DD überhaupt Bulk anbietet, liegt eher daran, dass man jetzt auch für andere Hersteller fertigt und dadurch die Synergie nutzt um AMD-eigene Chips ebenfalls zu fertigen. AMD alleine wäre bei SOI geblieben.
 
Zuletzt bearbeitet:
@rkinet
Von einem 40nm SOI Performance Prozess habe ich noch nicht gehört.
Hast Du einen Link, wo man den Prozess (z.B. bei IBM) studieren kann?
Nun es gibt KEINE Informationen zu einem 40nm SOI-Prozess.

Bliebt aber die Frage ob nicht aus dem SOI-32nm bei Verwendung der etablierten Belichtungssysteme in DD mit überschaubaren Aufwand ein 40nm Prozess noch nachreichbar wäre.
In der Frühphase von Dresden wurden für 180nm einige Anleihen aus dem damals kommenden 130nm Prozess bereits im Athlon 4 verwendet.

Wenn man bedenkt dass TSMC quasi als Upgrade des eingekauften 45nm Prozesse sein 40nm entwickelte und heute viele Waferstarts für AMD/ATI so erfolgen wäre SOI-40nm nur eine Variante dazu.

Sicherlich wäre es eine Einschnitt in die bisherige Roadmap. Aber viel schlimmer wäre eine Verzögerung bei SOI-32nm weil die GF mangels Absatzstückzahlen noch etwas länger 45nm fertigen möchte/ muss.

Tut man ja mit dem Llano. Gleichzeitig bringt man noch eine völlig neue Art GPU auf dem Die unter. Beschleunigen wird das aber nix, denn ich bin davon überzeugt, dass die Reife des Prozesses eher der limitierende Faktor ist, nicht die Reife des Designs. Es ist besser, beides dann zu bringen wenn beides fertig ist. In diesem Fall ist das wohl relativ gleichzeitig der Fall.
AMD ist schon oft auf die Nase gefallen weil Chipdesign und Fertigung zugeliche eingeführt wurden. Der Brisbane kam als Übergangslösung weil der K10 nicht fertig wurde. Und der echte Kuma entfiel weil einfach die überzähligen Barcelona-DIEs weg mußten. Im Ergebnis fielen die Umsätze und Erlösoe bei AMD.

Intel hingegen hat erfolgreich banale Shrinks für die Einführung neuer Fertigungen verwendet. Und da fiel kaum auf ob der Prozess gut oder schlecht lief. Da wurde eben per Preis noch etwas häufiger 90nm oder später 65nm verkauft.
Hat man hingegen ein neues Modell und sogar neue Sockets gilt nur entweder / oder.

Es stellt sich eher die Frage, in welche Richtung die GPU-Entwicklung bei 22nm geht, da bei 22nm echte Fusion-Chips kommen dürften, die CPU und GPU-Funktionen wirklich vereinen. Dann dürften auch die AMD-GPUs komplett auf SOI setzen.
http://www.computerbase.de/news/allgemein/forschung/2009/august/ibm-forscher_dns_chipherstellung/

Wenn man sieht was bei der Fertigung unter 22nm schon angedacht ist brauch man sich über Designs davor kaum Gedanken machen.

Zudem ist es 80-90% aller AMD-Kunden egal was an Technik verbaut wird.
Bei Intel ist das nicht anders wobei das einfach 'gute Technik' in Medien oder
durch Experten der eigenen Firma dann die Entscheidung ergibt.

Wenn AMD einmal komplett auf SOI setzt muss Bulk praktisch sich lauter externe Kunden suchen.
Und selbst die Budget Designs müssen durch die GF statt eben alternativ auch extern.
Nachdem weltweit der Trend zu Budget Computer Wachstum erfolgt eine schlechte Situation.
AMD blockiert sich so Fertigungskapazität / Designsgrößen mit Budget-Kram bei dem eher Verluste entstehen.
 
Zuletzt bearbeitet:
@rkinet
Von einem 40nm SOI Performance Prozess habe ich noch nicht gehört.
Hast Du einen Link, wo man den Prozess (z.B. bei IBM) studieren kann?
MfG
Wo nichts ist, kann nur noch Phantasie Lücken füllen.

Einen recht guten Überblick, wo Intel, TSMC, IBM/GF/Freescale stehen steht im RealWorld Technologies-Artikel "Process Technology at IEDM 2008" von 2008, der vor kurzem nochmals im Sommer 2009 nachbearbeitet wurde: "VLSI 09 Update: IBM’s 32nm SOI".

Air-Gap, Low k und die Leiterbahnen
IBM scheint Abstand zu nehmen von Air-Gap-Technologie. Statt einem luftleeren Zwischenraum sollen nun doch andere Materialien wie SiCOH als Low-k Dielectrica die Eigenschaften der metallischen Leiterbahnen verbessern.
IBMs Air-Gap scheint doch fehlerträchtig zu sein und nutzt erst bei hohen Taktfrequenzen etwas. Derzeit ist ja IBMs Power6 und der Power6+ ja eines der am höchsten getakteten Prozessorprodukte. Was das lange Festhalten an Air-Gap trotz der Risiken bei Big-Blue erklärt.

High k und Metallgates
Bei High K scheint IBM noch auf SiN-Schichten zu setzen. Am Halfnode von 40 nm wollen Toshiba und NEC zwar auf neue Werkstoffe wie Hafnium(Oxid) setzen, dafür verwenden sie bei diesem Node noch keine Metall-Gates, sondern Poly-Silizium. Intel ist an dieser Stelle sehr progressiv gewesen schon bei 45 nm auf Hafnium-Oxiden zusammen mit Metall-Gates zu setzen.

Lithographie 45 und 32 nm
Ach ... noch ein kleiner Witz. Intel vermied bei 45 nm Nasslithographie und setzte ganz auf Doppelbelichtung. IBM/GF hingegen nutzte Immersion schon bei 45 nm ein, während bei den geplanten 32 nm dort auch Double Patterning (DP) Lithographie anstehen.

SOI
Die SOI-Technik wird weiterhin verwendet. Zwar sind die Chips immer etwas verspätet beim gleichen Node, dafür halten sie in den elektrischen Eigenschaften gut mit im Vergleich zum nächsten Node in Bulk-Technik. 45 nm High k zusammen mit Metall-Gates ist auf Augenhöhe mit Intels 32 nm-Technik.
MFG Bobo(2009)
 
in diesem Artikel kann man auch sehr gut nachlesen, dass der IBM/AMD Prozess bei 65 und 45 nm etwas schlechter ist als der von Intel ist. Es wird aber auch erwähnt, dass die Angaben in den Präsentationen eher das Optimum darstellen und nicht das was in der Massenproduktion erreicht wird.

Der 32 nm SOI sieht aber sehr gut aus!

MfG @
 
Zuletzt bearbeitet:
@Bobo
Anscheinend gibt es den 45nm SOI Prozess mit HKMG, aber der Author bezweifelt, dass er über die Entwicklung hinaus je angewendet worden ist. Insofern produziert AMD noch im 45nm SOI Prozess ohne HKMG. Damit ist hin zu 32nm SOI mit HKMG endlich mal wieder ein größerer Fortschritt zu erwarten. MfG
 
... Insofern produziert AMD noch im 45nm SOI Prozess ohne HKMG. Damit ist hin zu 32nm SOI mit HKMG endlich mal wieder ein größerer Fortschritt zu erwarten. MfG
Tja, das ist wohl immer eine Güterabwägung.

- Einen Node auszureizen (mit teilweise bekanntem guten Yield). Nachteil ist die Die-Größe.
- Auf einen neuen Node setzen, wo aber noch nicht mal mit Bulk-Chips Erfahrung gesammelt wurde.

Ich denke aber auch, dass GF sich auf kleinere Nodes konzentriert. Die wollen in Dresden ja auch noch Fremdchips fertigen, so dass kleinere Chips im Mix zusammen mit AMD-Produkten die Fertigungskapazität noch Reserven nach oben hat.

Bei einer mittelfristig mäßig ausgelasteten AMD-Fab, wären die SOI in 45 nm High k mit Metall-Gates aber sicherlich eine ernsthafte Alternative gewesen.
Von SOI in 40 nm war meines Wissens nach nie die Rede - bin da auch mal auf die sinnvolle Beantwortung deiner Frage gespannt.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
@Bobo
Von SOI in 40 nm war meines Wissens nach nie die Rede.
Ich hatte rkinet auch eher rhetorisch nach einem Link gefragt.;)

Den von Dir verlinkten Artikel habe ich jetzt nicht nochmal gelesen, weil ihn schon vor ein paar Tagen studiert habe.
Stand da nicht auch drin, dass AMD bei 45nm SOI wahrscheinlich auch schon Double Patterning verwendet hat? MfG
 
Zurück
Oben Unten