Intel Ivy Bridge

Die meisten Hersteller sprechen hinter den Kulissen schon weit vor einem Launch über ihre nächsten Generationen. Das müssen sie auch, um effektiv mit denen zusammenarbeiten zu können. Bei Intel wird das meist halt alles bekannt, bei anderen eben nicht. Durch deren Tick/Tock Modell ist es sowieso einfach, denn es kommt wirklich jedes Jahr was neues. Davon aber auf einen schlechten Sandy Bridge zu schließen ist wohl ziemlich an den Haaren herbeigezogen. Oder verteufelst du morgen auch Fusion/Bulldozer, wenn AMD etwas zum Nachfolger sagt?

Schlichte Antwort: Nein. BRs sichtweise der Dinge ist zwar gewöhnungsbedürftig, aber vorhersehbar.

AMDs GPU kommt später? Das liegt daran das AMD mehr Gewinn raus holen will!
NVIDIAs GPU kommt später? Das liegt daran das NVIDIA massive Probleme hat.

Es gibt keine Details zu AMDs folgenden GPUn? Das ist ein sicheres Zeichen dafür das AMD sich seiner Sache sehr sicher ist.

Es gibt keine Details zu NVIDIAs folgenden GPUn? Das ist ganz eindeutig ein Zeichen dafür das NVIDIA massive Probleme hat.

AMD könnte eine Monster GPU bauen? Super Sache, AMD wird damit NV begraben
NV könnte eine Monster GPU bauen? So ein Quatsch, sowas würde doch keiner kaufen.

Die Beispiele sind natürlich frei erfunden, aber möglicherweise erkennst Du nach einer gewissen Zeit ein Muster.

Dagegen ist rklnets Phrasendreschmaschine immer wieder für Überraschungen gut. Ich habe noch nicht rausgefunden in welchem Zyklus sie mit neuen Buzzwords gefüttert wird, tippe aber auf einen Dreimonatszyklus.
 
Dagegen ist rklnets Phrasendreschmaschine immer wieder für Überraschungen gut. Ich habe noch nicht rausgefunden in welchem Zyklus sie mit neuen Buzzwords gefüttert wird, tippe aber auf einen Dreimonatszyklus.

Göttlich! *rofl* *massa* *lol* Danke für abendlichen Lachanfall!
 
Dann werden wir ja bald erfahren wie Intel die GPU verstärkt.

Realistisch wär es dass Intel seine begrenzte 22nm Fabkapazität auf die kleinen Ivy Bridge für den Mobilmarkt konzentriert. Und das wäre dann sehr wahrscheinlich ein längliches DIE mit geometrischer Anschlußmöglichkeit für GDDR5.

Ob Llano der Brüller wird wie behauptet bleibt auch erstmal abzuwarten.
Bei dem Ding kann nicht überraschen denn die Perfromance von 4* K10.5 an DDR3 kennt man ja schon seit Jahren.
Und bei der GPU eben maximal das was schon bisher per 2* DDR3 in 128 Bit machbar ist.
 
Zuletzt bearbeitet:
Und das wäre dann sehr wahrscheinlich ein längliches DIE mit geometrischer Anschlußmöglichkeit für GDDR5.

Ganz abgesehen davon, dass ich nicht wissen will, wie wie du auf das längliche DIE kommst. (Nein, ehrlich, ich wills nicht wissen) Hast du auch nur den Hauch einer Ahnung, wie Chipbondig heutzutage abläuft? Auf die Anzahl der Anschlüsse hat die Geometrie des DIEs genau Null Einfluss, da zählt einzig und allein die Fläche.
 
...Realistisch wär es dass Intel seine begrenzte 22nm Fabkapazität auf die kleinen Ivy Bridge für den Mobilmarkt konzentriert. Und das wäre dann sehr wahrscheinlich ein längliches DIE mit geometrischer Anschlußmöglichkeit für GDDR5...

Auch IvyBrige wird kein GDDR5 brauchen, weil deren GPU vermutlich nur einen Bruchteil der Performance von Llano liefern wird, und bis dahin womöglich sogar schon DDR3-1866 selbst in Notebooks verbaut wird, sodass diese GPU gut genug versorgt sein dürfte.

Davon abgesehen bezweifle ich, dass die Notebook-Hersteller eine solche zusätzliche Komplexität sich wünschen.
 
Ganz abgesehen davon, dass ich nicht wissen will, wie wie du auf das längliche DIE kommst. (Nein, ehrlich, ich wills nicht wissen) Hast du auch nur den Hauch einer Ahnung, wie Chipbondig heutzutage abläuft? Auf die Anzahl der Anschlüsse hat die Geometrie des DIEs genau Null Einfluss, da zählt einzig und allein die Fläche.
http://www.hardware-infos.com/news.php?news=1887

Tock ... Tick 8)

Intel wird den Ivy Bridge wie gewohnt sehr ähnlich zum Sandy Bridge aufbauen was aber bei 24 satt 12 EUs. Und dann wird das DIE recht länglich - vgl. unten.
Und Intel hat ja seit langem schon 3-4 Channel DDR3 für Core Designs angebunden sodass 64 Bit GDDR5 als 2 DIE-Lösung auf einem Träger.

Wobei Intel ja seit 2006 / Kauf von ATI damit rechnen mußte dass AMD eine CPU-GPU Kombination mit leistungsstarken eDARM bringt: http://www.eetimes.com/electronics-news/4196326/IBM-makes-claims-for-32-nm-eDRAM-on-SOI
Dass jetzt so 'unerwartet' starke Intel GPUs kommen dürfte massiv als Gegenreaktion zu Möglichkeiten für AMD nach ATI-Kauf entstanden sein.

intel-sandy-bridge-die.jpg
 
Zuletzt bearbeitet:
@BavarianRealist

Lol das letzte Bild das einen Sandy Bridge Wafer zeigen soll legen nahen, das dieser ziemlich länglich ist. ca. doppelt so lange wie breit, wiederlegt deine Aussage schon bevor du sie geschrieben hast, aber vieleicht habe ich dich auch Falsch verstanden.
 
@BavarianRealist

Lol das letzte Bild das einen Sandy Bridge Wafer zeigen soll legen nahen, das dieser ziemlich länglich ist. ca. doppelt so lange wie breit, wiederlegt deine Aussage schon bevor du sie geschrieben hast, aber vieleicht habe ich dich auch Falsch verstanden.

Hiermit kannst Du meine These ganz einfach selbst nachprüfen, hiermit: http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html

Variiere mit verschiedenen Längen-Breiten-Verhältnissen, und Du wirst verstehen, was ich meine 8)

Es macht nicht die Welt aus, aber wenn es kein allzugroßer Aufwand ist, wird man versuchen, kein zu "längliches" Die zu produzieren.
.
EDIT :
.


Von was träumst Du denn? :]
 
@BavarianRealist

Lol das letzte Bild das einen Sandy Bridge Wafer zeigen soll legen nahen, das dieser ziemlich länglich ist. ca. doppelt so lange wie breit, wiederlegt deine Aussage schon bevor du sie geschrieben hast, aber vieleicht habe ich dich auch Falsch verstanden.
Beim Shrink auf 22nm werden die Anschluß-Pads (rechts im Bild) kaum kleiner werden sodass die Erweiterung (= Verlängerung) sich fast schon logisch ergibt. Das ganze DIE würde dann im absoluten Millimeter gemessen sogar etwas kleiner werden wobei die längere Seite weniger schrumpft.
Ivy Bridge könnte so trotz verstärkter GPU mit 150 mm2 ggf. auskommen. Und es ergäbe sich im linken (s. Bild oben) DIE-Bereich sogar Platz für weitere Pads ... GDDR5 ?
 
Zuletzt bearbeitet:
Hiermit kannst Du meine These ganz einfach selbst nachprüfen, hiermit: http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html

Variiere mit verschiedenen Längen-Breiten-Verhältnissen, und Du wirst verstehen, was ich meine 8)

Es macht nicht die Welt aus, aber wenn es kein allzugroßer Aufwand ist, wird man versuchen, kein zu "längliches" Die zu produzieren.
.
EDIT :
.



Von was träumst Du denn? :]

So wies aussieht macht es keinen grossen Unterschied ob das Seitenverhältnis 1:1 oder 1:2 ist, denn jetzt bringt auch AMD Prozessoren in dem Format.:]
Mir ist schon klar, dass ein unterschiedliches Seitenverhältnis von 1:40 nicht Sinvoll ist.
 
Zuletzt bearbeitet:
Ivy Bridge sollte sowas ähnliches wie Nehalem 45nm > Westmere 32nm sein

ein shrink von 32 auf 22nm, mehr Cores & mehr Cache, mehr erwarte ich nicht
 
ein shrink von 32 auf 22nm, mehr Cores & mehr Cache, mehr erwarte ich nicht
http://www.anandtech.com/show/3876/intels-core-2011-mobile-roadmap-revealed-sandy-bridge-part-ii

Mehr EUs = Grafikpower wobei ja offensichtlich Intel beim Ivy Bridge ein Design verwendet mit wahlweise 4/4 und 4/8 Cores.

Und wie http://www.chip.de/news/Intel-Larrabee-Geforce-Konkurrenz-setzt-auf-GDDR5_32246490.html hat sich Intel beim Larrabee ja schon intensiv sich mit GDDR5 beschäftigt. Wäre also Upgrade der GPU per DRAM denkbar.
 
Intel hat seit der einigung mit AMD auch zugriff auf die ATI Patente, sollte auch schon bekannt sein

@offtopic
hat AMD zugriff auf alle x86 Patente von Intel?
 
Also dann hätte Intel zugriff auf die Patente von AMD, Nvidia und die eigenen, damit sollten sie je eigentlich eine GPU bauen können. AMD und Nvidia währen dann die Dofen welche nur auf einen Teil der Patete zugreiffen können. Und wenn die SemiAccurate Quelle richtig liegt für einen kleinen Beitrag aus der Kaffekasse.
 
Ich glaube nicht, dass nv und amd nur auf nen teil zugreifen. Ich gehe von aus, dass die beide gegenseitig haufenweise Patente verletzen, es dürfte für beide unmöglich sein, ne gpu zu bauen ohne patente vom andern zu lizensieren. Also hat man halt eher nen Gentlemans Agreement und gut ist.
 
Die Intel GPU könnte besser werden als erwartet, da sie nach dieser Meldung Zugang zu den Nvidia Patente bekommen könnten.
Bei der Gelegenheit nutze ich immer den Vergleich, dass Deine Chinesischkenntnisse auch nicht besser werden, nur weil Du ein chin. Wörterbuch im Regal hat ...

Mit Patenten kann man ne GPU bauen, aber das heißt nicht, dass man es auch kann ;)
 
Bei der Gelegenheit nutze ich immer den Vergleich, dass Deine Chinesischkenntnisse auch nicht besser werden, nur weil Du ein chin. Wörterbuch im Regal hat ...

Mit Patenten kann man ne GPU bauen, aber das heißt nicht, dass man es auch kann
Du hast grundsätzlich Recht.
Wenn ich jedoch weiss, was ich sagen will, aber die Worte in Chinesisch kenne ich nicht, dann hilft ein gutes Wörterbuch ganz schnell weiter.
Vorausgesetzt ich weiss wie man das Wörterbuch benutzt.
 
Du hast grundsätzlich Recht.
Wenn ich jedoch weiss, was ich sagen will, aber die Worte in Chinesisch kenne ich nicht, dann hilft ein gutes Wörterbuch ganz schnell weiter.
Vorausgesetzt ich weiss wie man das Wörterbuch benutzt.
Naja, damit der Vergleich passt, muss man vorraussetzen, dass man das Wörterbuch dazu benutzt, um das Teil irgendwann mal zu beherrschen.

Nachschlagen alleine nützt nicht viel, wenn mans noch 5 min schon wieder vergessen hat.
 
Die Ergebnisse durch Nachschlagen im Wörterbuch sind manchmal ganz lustig.
 
Zurück
Oben Unten