AMD Zen - 14nm, 8 Kerne, 95W TDP & DDR4?

Hast du dir mal überlegt wie du dann was kühlen willst?
Der Bereich der micro Bumps ist bei meiner Fury vergossen, vermutlich wegen Korrosionsschutz und um mechanische Kräfte besser zu verteilen.
Übertrage das man auf deine Idee einer Stapelei und verrate mir wie man diese Huckel Landschaft dann noch vernünftig kühlen soll ohne eine extra Wurst nach der anderen zu machen, welche den Herstellungspreis noch weiter nach oben schrauben.

Was möglich ist ist nicht auch zwangsläufig sinnvoll oder rentabel.
 
Die Die Slices haben eine Schichthöhe von 0,2 mm. Grafische Abildungen stellen das grober dar.
 
Ich hätte jetzt gedacht Standardwafer wären etwas dicker (~300 µm), aber OK. Der CPU-/GPU-Dies wären also 200 µm hoch, die Flash-Stapel bei 48 Chips ohne Füllmaterial zwischen den Wafern 9,6 mm hoch. D.h. du brauchst 9,4 mm Füllmaterial über der GPU. Alternativ kann man die Flash-Dies auf ~4,2 µm abdünnen. Beides ist Blödsinn.
Und es hat auch absolut nichts mit Zen zu tun, macht das in eurem Interposer-Whatsoever-Thread aus. Hier geht es um die Zen-Architektur.
 
Es geht um falsche Einschätzungen und Zen wird durchaus auf einem Interposer erscheinen. Wenn Fehlinformationen verbreitet werden wirkt sich das direkt auf mögliche Produkte aus.

Ebenso wie du erneut eine Behauptung aufstellst die nicht haltbar ist
D.h. du brauchst 9,4 mm Füllmaterial über der GPU. Alternativ kann man die Flash-Dies auf ~4,2 µm abdünnen. Beides ist Blödsinn.
http://esl.epfl.ch/page-42448-en.html

testVehicle3D.png

3D-stack enclosed in sealed manifold with inter-layer cooling manufactured in CMOSAIC
image002.jpg

Figure 2. 3D-IC with TSVs and inter-layer cooling channels that is enclosed in a sealed manifold.

Wenn Leute immer erzählen was geht und was nicht - da hast sogar eine Wasser(Fuild)kühlung.

Vielleicht schaut man auch mal genauer auf eine AMD-Folie:
AMD-GCN-HBM-High-Bandwidth-Memory-900x505.jpg
 
Zuletzt bearbeitet:
Allerhöchstens wäre das etwas für den HPC Markt. Für einfache Server oder gar Desktop unpraktibel und wahrscheinlich extrem teuer.
Schon die Fury X mit WaKü war nur etwas für ganz wenige.
Klar, WaKü ist besser, aber auch teurer und unflexibler.
 
Wo eine Wakü drauf passt, lässt sich bei weniger TDP wie z.B lediglich 95W stattdessen jedderzeit ein Luftkühler montieren. Es geht ja lediglich um die Befürchtung die "Stufen" beim Die-Stcking könnten da Probleme machen. Dem ist nicht so.

Edit: Es spricht nichts gegen eine Vapor-Chamber die Unebenheiten ausgleicht oder eben leitendes Füllmaterial, falls nötig.
 
Zuletzt bearbeitet:
Abgesehen von GPUs und den mobilen ablegern kommen die APUs/CPUs ja eh mit Heatspreader. Da ergibt sich die Frage dann eh nicht, außer des geht wirklich um mehrere Millimeter. Da HBM doch bereits gestapelt ist und trotzdem auf annähernd gleicher Höhe landet wie die Fury-Chips, sollte das kein Problem sein.
 
Stimmt, man könnte den Kühler von unten mit einem entsprechenden Höhenprofil versehen (und hoffen, dass er wirklich nur auf der CPU-/GPU aufliegt). Die Flash-Zellen werden dann jedoch immer noch warm und halten nicht lange.
 
Oder man verwendet eine board&sip mit Loch und bringt die SSD unten am Interposer an mit separate kühler an. Intel hat doch mal für den Mobilbereich ein ähnliches Produkt geplant um die Dicke zu verringern.
http://www.computerbase.de/bildstrecke/59173/15/
Im Mobilbereich wäre die Anzahl der benötigten Pin ja überschaubar, bliebe nur Strom, 1-2 USB-C, 1x dp/hdmi, x8 pcie übrig. Bei den nicht mobilen Produkten sind der nicht besonders sinnvoll. Wobei das wieder wenig mit Zen zu tun hat.
 
Zuletzt bearbeitet:
die Flash-Stapel bei 48 Chips ohne Füllmaterial zwischen den Wafern 9,6 mm hoch.
Wer stapelt so viele Dies?

--- Update ---

Es geht um falsche Einschätzungen und Zen wird durchaus auf einem Interposer erscheinen.
Zen auf einem Interposer?
Gibt es dazu auch eine Quelle?

Bis jetzt gehen die Gerüchte für den EHP von einer GPU+HBM auf einem Interposer aus, das ganze auf dem Package.
Wird ein MCM auf das eine Zen-Die + der Interposer mit GPU+HBM kommt, aber Zen soll NICHT auf den Interposer kommen.
 
Streng genommen ist der MCM Träger auch ein Interposer. Nur eben nicht aus Silizium. Silizium Interposer sind wohl nur nötig, wenn wirklich einige tausend Leitungen verbunden werden müssen oder gar noch einfache Logik mit integriert wird ( aktive Interposer ).
 
Der MCM Träger ist das Package Substrat vom obrigen Bild, der Interposer hat damit recht wenig zu tuen.
Streng genommen war das also quatsch.

--- Update ---

@Complicated
ah ja, ne Flüssigkeitskühlung wo ne Pumpe die Flüssigkeit zwischen den Bumps durch pressen soll und wo die Kühlflüssigkeit nicht leitend sein darf und auch die Signale nicht beeinflussen darf. Da der Platz nur gering ist würde es auch nur für low Power Prodkte reichen und dann noch in einem System für Endverbraucher? Bei was für einem Preis landen wir dann?

Ich wiederhole mich nur ungern..
Was möglich ist ist nicht auch zwangsläufig sinnvoll oder rentabel.
 
Der Aufbau auf dem Bild aus deinem Beitrag #1629 setzt einen funktionierenden Kreislauf voraus der alle Chips umspült und genau das ist das Problem mit deiner Luftkühlung.
Die Verlußtleistung des gesammt Chips ist relativ egal da du die Wärme aller Teile abführen mußt. Genau das ist ja das Problem bei diesen Stapeln, weshalb die lediglich für Produkte mit sehr wenig Verlußtleistung sinnvoll sind. Die Chips in der Mitte dürften am heißesten werden da zusätzlich zu ihrer eigenen Abwärme auch noch die der umgebenen Chips abbekommen und um etwas kühlen zu können benötigst du eine gewisse Temperaturdifferenz.
 
Die Chips in der Mitte dürften am heißesten werden da zusätzlich zu ihrer eigenen Abwärme auch noch die der umgebenen Chips abbekommen und um etwas kühlen zu können benötigst du eine gewisse Temperaturdifferenz.
Das entspricht nicht den Tatsachen wie aus dem HBM Whitepaper zu entnehmen ist. Die Wärme Abfuhr der inneren Chips ist durch die TSVs enorm.
 
Die machen doch kein MCM mehr, wenn die Interposer haben, so ein Quatsch...
Grad im Serverbereich gibts richtiges Geld für gute Lösungen. Interposer werden ganz einfach Standard bei AMD werden mittelfristig.
 
Zuletzt bearbeitet:
Das entspricht nicht den Tatsachen wie aus dem HBM Whitepaper zu entnehmen ist. Die Wärme Abfuhr der inneren Chips ist durch die TSVs enorm.

Der HBM Speicher dürfte aber auch keine sonderlich große Verlußtleistung haben, wodurch auch nicht großartig was abgeführt werden muss.
Siehe die Fiji Chips der Fury Karten, wenn ich mich recht erinnere hat da der Speicher keinen Kontakt zum Kühler.

--- Update ---

Die machen doch kein MCM mehr, wenn die Interposer haben, so ein Quatsch...
Grad im Serverbereich gibts richtiges Geld für gute Lösungen. Interposer werden ganz einfach Standard bei AMD werden mittelfristig.

Darauf würde ich nicht wetten denn schließlich ist AMD ein gewinnorientiertes Unternehmen.
Wenn ein MCM Design ausreicht und billiger in der Herstellung ist dann wird man auch darauf zurück greifen allerdings kann ich mir vor allem für komplexe Designs eine Mischform vorstellen bei denen beide Technologieen zum Einsatz kommen.
 
Dort wird aber die TSV-Technik ausführlich erklärt und beschrieben. Diese Speicher sind darauf ausgelegt auf dem GPU-Die in richtigem 3D-Stacking verbaut zu werden, was eben diese Wärmebfuhr benötigt, um die unterliegenden CPUs/GPUs kühlen zu können. Der Temperaturuntertschied innerhalb des Chips liegt bei 2,5 °C bei 4 Layern, mindesten 10µm SI-Substrat Dicke, 9,3% Microbumpfläche auf dem Chip, Microbumpbreite 10µm, TSV-Breite 5 µm, 2% TSV-Fläche im Chip.
Diese Faktoren sind variabel und bei Verbesserung der thermischen Leistung kostet es halt mehr Chipfläche - hier gilt es den wirtschaftlichen Sweetspot zu treffen, was die eigentliche Herausforderung ist. Technisch sehe ich weniger Probleme.
Siehe Seite 28: http://www.sematech.org/meetings/archives/3d/8334/pres/Fukushima.pdf

We evaluated thermal characteristics of 3D LSI by
simulation and experiments. We confirmed,
1) The maximum temperatu
re rise in chip can be suppressed by increasing the ratio of total TSV area and microbumparea to a chip area.
2) Too thin Si substrate results in the increase of the
maximum temperature rise.
3) The maximum temperature o
f 3D chip can be lowered by reducing TSV pitch.
4) Heat transfer rate should be increased to decrease
the maximum temperature of 3D chip.
Und das gilt wohlgemerkt für echtes 3D-Stacking.
 
Exakt. Gewinnorientierung und Kostenreduktion ist das Zauberwort. Du musst aber die mittel/langfristigen Kostenstrukturen sehen, nicht das jetzt Interposer noch teuer sind. Da sind gerade aktive Interposer sehr sehr spannend.
 
Zuletzt bearbeitet:
Die machen doch kein MCM mehr, wenn die Interposer haben, so ein Quatsch...
Grad im Serverbereich gibts richtiges Geld für gute Lösungen. Interposer werden ganz einfach Standard bei AMD werden mittelfristig.
MCM kann man mit dem Package machen oder mit Interposern, das ändert nichts an dem Zustand, dass beides MCM sind, wie das letztendlich realisiert wird, ist absolut irrelevant.

Es heißt nur, dass mehrere Chips auf einem Package drauf sind, nicht mehr, nicht weniger.
Sogesehen ist auch AMDs Fiji ein MCM Chip...
 
[3DC]Payne;5074334 schrieb:
MCM kann man mit dem Package machen oder mit Interposern, das ändert nichts an dem Zustand, dass beides MCM sind, wie das letztendlich realisiert wird, ist absolut irrelevant.

Es heißt nur, dass mehrere Chips auf einem Package drauf sind, nicht mehr, nicht weniger.
Sogesehen ist auch AMDs Fiji ein MCM Chip...

Ich glaube du verwechselst da was.
Package = Chip Gehäuse bzw. dessen Träger Substrat
Der Interposer hat mit dem Package nichts am Hut, kommt aber ins Package rein.
 
ja, MCM versteht man im Allgemeinen eher als mehrere Dies in einem Package (G34-CPUs o.ä.), obwohl man natürlich strenggenommen "multi chip module" auch zu sowas wie Fiji sagen könnte, wo nur ein Die im Package ist und mehrere kleine Dies auf dem großen. Nur wird das mißverständlich, wenn jeder seine eigene Definition verwendet. Wenn Ihr Euch uneins seid, dann vermeidet den Begriff MCM doch einfach komplett. Sobald es Produkte gibt, wo in einem Package zwei oder mehr Interposer-Dies drin sind, die wiederum jeweils mehrere kleine Dies tragen, wird es spannend, was Ihr dann sagen wollt. Es kann gut sein, daß diese Riesen-CPU mit 32 Kernen genau sowas ist...

Exakt. Gewinnorientierung und Kostenreduktion ist das Zauberwort. Du musst aber die mittel/langfristigen Kostenstrukturen sehen, nicht das jetzt Interposer noch teuer sind. Da sind gerade aktive Interposer sehr sehr spannend.
ja, man könnte z.B. überlegen, die Strukturen, die sich sowieso schlecht shrinken lassen und die somit nur viel wertvolle Diefläche bei den teuren High-End-Prozessen verballern, so weit wie möglich/sinnvoll auf den Interposer auszulagern. Memory Controller evtl., dann muß man sich natürlich überlegen, wie man einen guten Interconnect baut, aber grundsätzlich ginge das sicherlich ganz gut. Und diverser Chipsatz-Krempel.
 
Sofern der Buschfunk stimmt sind die großen neuen Server-CPU:

2x native 16Core/32Thread DIE auf einem Träger die über in den Träger integrierte Datenleitungen verbunden sind - ist so ziemlich Sockel G34 wo auch 2 DIE drauf waren (2x Hydra für 61xx Optis bzw. 2x Orochi für 62xx und 63xx) --> MCM !?

Die "kleinen" Server-CPUs sind dann nur 1x native 16Core/32Thread DIE.

Aber es kommen nach bisherigen Stand wenigstens 4 verschiedene ZEN-DIE:
native bis 8C/16T --> Billig-Desktop
native bis 16C/32T --> Billig-Server/Midrange WS/Desktop
2x 16C/32T --> HPC/Datacenter
native 4C/8T mit GPU --> Billig-APU
und die XB1 bekommt auch Shrink
 
Zuletzt bearbeitet:
Zurück
Oben Unten