Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Ganz richtig, aber diese Meldungen, falls da etwas dran ist, lassen da wenig Gutes erhoffen. Insbesondere im Lichte anderer Meldungen von Intel frueher zu den eigenen Nodes, die sich als overoptimistic erwiesen haben.

Es gibt auch Stimmen, die die Horrorstorys von extrem schlechten Yields verneinen.
Unter anderem Ian Cutress und Patrick Moorhead.
 
Mein Reden - es ist einfach zu frueh den Prozess abzuschreiben.
Es ist vielleicht nur das Aufschnappen der Medien von einigen ach so passenden Geruechten, die dann in News gegossen werden.

Dennoch bleibt da ein ungutes Gefuehl bzw. in Anbetracht von Intels TrackRecord mit vollmundigen Ankuendigungen in diesem Bereich, waeren nur wenige ueberrascht, wenn dann der Process kommerziell scheitert oder?

Bislang laeuft Intels Foundry Geschaeft mau (und mag u.a Pat den CEO Posten gekostet haben) und da geht es um andere Nodes.
Das Abkuendigen von 20A klang auch eher nach Ausrede in Teilen.

Aber einfach mal abwarten, was da kommt.

Gruss,
TNT
 
Ich gehe einfach davon aus das 20A nicht Produktionsbereit war und es zu lange gedauert hätte ihn dort hin zu treiben, wenn er überhaupt so weit gekommen wäre. Er wäre dann ganz einfach zu spät. Die Entwicklung hätte noch mehr Geld verschlungen, der Fertigungsprozess hätte so die Entwicklungskosten nicht mehr rein geholt und man wäre noch weiter ins Abseits geraten. Der Cut bedeutet dann zwar einen Totalverlußt für die eingesetzten Ressourcen aber auch die Chance mit einem früher erscheinenden Nachfolger die Kurve wieder zu kriegen. Lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.
 
Aber man koennte auch denken oder sagen, wenn es mit dem 1m Sprung nicht klappt dann versuche ich gleich einen 2m Sprung und nehme neuen Anlauf.
Klingt erst mal nicht einleuchtend und nach Zeit erkaufen.

Oder, dass es tatsaechlich nicht mehr sinnvoll war den 20A Prozess zur Serienreife zu bringen, da man eh schon die halbe Arbeit/Erfahrung fuer 18A (mit)erledigen konnte/machen konnte, sodass der Sprung auf 18A nun eher ueberschaubar geworden ist.
Gewagte aber moegliche Vorgehensweise.

Die Wahrheit liegt vermutlich dazwischen und werden wir nie wirklich erfahren.

Jetzt gilt es abzuwarten.

Es waere doch wuenschenswert, wenn abseits von TSMC sich mit Intel und Samsung weitere Foundirys um die Spitzenposition der Nodes streiten. Leider zeigt Samsung als auch Intel, dass TSMC einen erheblichen Vorsprung geniesst.
Noch ist gegen TSMC Position kein Kraut gewachsen.

Fuer AMD waere es nur von Vorteil auf mehrere Partner bei den besten Prozessen setzen zu koennen.

Gruss,
TNT
 
Das ist sogar sehr einleuchtend denn die Entwicklung der Fertigungsprozesse bis zur Produktionsreife dauert Jahre, weshalb die Entwicklung des Nachfolgers parallel abläuft. Außerdem verschlingt die Entwicklung heutzutage Milliarden.
Das dürfte auch der Hauptgrund sein warum es heute weitaus weniger Fertiger gibt die sowas anbieten.
Die Entwicklung ist für kleinere Auftragsfertiger ganz einfach zu teuer geworden.
 
20A und 18A sollten doch sowieso die gleiche Basis haben, 20A jedoch nur HP libraries bieten und noch keine externen Tools für Foundry Kunden unterstützen..

Intel wollte 20A ursprünglich schon bei Arrow Lake verwenden, wo jetzt quasi TSMC als Ersatz herhält. Kann also sein, dass Verzögerungen an der 20/18A Basis dazu geführt haben, dass alle Libraries/Tools schon fertig sind und damit der Zwischenschritt überflüssig wird.

Man merkt im Moment, dass mit 18A und N2 endlich wieder etwas Konkurrenzkampf in die Fertigungsentwicklung kommt. Zumindest solange Intel nicht das Geld ausgeht....
 
Das bedeutet aber weder das 20A produktionstauglich war, noch das er bei erscheinen konkurrenzfähig gewesen wäre. Nur weil teile übertragbar sind heißt das eben noch lange nicht das der Rest in Zeitnah produktionsbereit gewesen wäre. Da reicht eben schon ein problematischer Teilschritt damit am Ende nur Schrott rauskommt. Spielt der beim Nachfolger keine Rolle mehr wäre es sinnlos weiterhin Ressourcen in den problematischeren und am Ende schlechteren Fertigungsprozess reinzupumpen.
 
Man merkt im Moment, dass mit 18A und N2 endlich wieder etwas Konkurrenzkampf in die Fertigungsentwicklung kommt. Zumindest solange Intel nicht das Geld ausgeht....
Hier muss aber vorallem Intel beweisen, dass sie es abseits von Ankuendigungen auch gewuppt bekommen.
Es ist noch nicht so lange her, dass eine Fremdfertigung von CPU Teilen im Intel Universum undenkbar war.
Intel came a long way.
Das 14nm+++ Trauerspiel (da im Widerspruch zum eigenen Plan) hat Spuren hinterlassen, die sich nicht so einfach wegwischen lassen.

Aber Intel hat alles um es hinzubekommen. Einfach ist bloss anders.

Gruss,
TNT
 
Zuletzt bearbeitet:
Screenshot-2024-12-05-201813.png


Intel würde mit TSMC 2nm nicht mal an AMD mit TSMC 4nm rankommen.
Nicht nur die Fertigung ist schwach, auch die Cores und das Design ist relativ schwach und extrem hungrig.

Intel ist dermaßen weit zurück, dass sie in dieser Dekade nichts mehr zu melden haben. Ab 2030 sehen wir uns vllt. wieder, falls überhaupt oder Intel ist Weg vom Fenster und aufgekauft.

TSMC 2nm erreicht 60% yield rate :


~30.000 USD pro 300mm-Wafer für 2nm
 
Zuletzt bearbeitet:
So dramatisch sehe ich das nicht. Intel hat einen schlechteren HT-Ansatz im Vergleich zu AMDs SMT. Auch bei AVX512 haben sie derzeit das Nachsehen.
Beim Takt ist man oft genug ein paar 100MHz voraus, die Effizienz leidet.
Wenn wir unterstellen, dass mit Manycores auf SMT für Desktop gut verzichtet werden könnte und dass Intel mit einem Design für mehr Effizienz vs. Takt anders optimieren könnte sehe ich die gar nicht so weit weg. Es dreht sich wohl vieles um deren Ringbus, wie viele Cores sind dort wirklich möglich oder braucht es dort andere Lösungsansätze? Auch mit Celeron hat man lange Zeit einen grossen Markt abseits jeder Gaming-Charts bedient.
Mit einem SoC mit 8 E-Cores, NPU und iGPU könnte man noch lange Office-Rechner in Massen im Markt platzieren. Die E-Cores mit AVX10 erweitert könnte gute Workstation-CPUs abgeben, je nachdem wie viele man integrieren könnte. Die meisten CPUs werden nunmal nicht fürs Gaming gebraucht.
Das Hauptproblem scheint doch eher die globale Überkapazität in der Fertigung zu sein wo Intel sich mit dem Verlust von Stückzahl-Marktanteilen bei eigenen Fabs verschlanken muss während man nach wie vor modernisiert.
 
Nicht nur die Fertigung ist schwach, auch die Cores und das Design ist relativ schwach und extrem hungrig.

Intel ist dermaßen weit zurück, dass sie in dieser Dekade nichts mehr zu melden haben. Ab 2030 sehen wir uns vllt. wieder, falls überhaupt oder Intel ist Weg vom Fenster und aufgekauft.
Na, so schnell kann man Intel nicht abschreiben auf ewig IMHO.

Gruss,
TNT
 
Da die Vorteile der X3Ds vor allem auf dem großen L3 Cache beruhen dürfte dieser Punkt für Intel nicht allso schwer zu bewältigen sein. Erst recht wo man jetzt ebenfalls eine Chiplet Strategie verfolgt. Bei der Multicore Performance rächt sich eher der Wegfall von Intels SMT Ausführung (HTT).
 
Da die Vorteile der X3Ds vor allem auf dem großen L3 Cache beruhen dürfte dieser Punkt für Intel nicht allso schwer zu bewältigen sein. Erst recht wo man jetzt ebenfalls eine Chiplet Strategie verfolgt.
Mag sein - aber auch hier gilt. dass Intel das erst mal beweisen muss. X3D Prozessoren fahren bei AMD nicht erst seit gestern (Gaming) Erfolge ein.
'Adamantine' L4 Cache sollte auch mal gestapelt werden (News aus 2023) wobei L4 nicht L3 Cache ist.

1733747236024.png
Davon ist aber nichts mehr zu hoeren. Das letzte was ich wahrgenommen habe, ist das diese Idee vorerst verworfen wurde (Wobei wir beim Thema Ankuendigung vs. mangelnde Umsetzung landen).

Oder gibt es da etwas neues?

Gruss,
TNT
 
Das Stapeln von Dies ist jetzt auch nichts allso neues mehr, die Frage ist eher ob Intel das passende Werkzeug dafür an der Hand hat.
Das du von der L4 Geschichte nichts mehr hörst liegt wohl nicht zuletzt daran das dieser nur für die IGP zuständig war. Dieser hatte also ein ähnliches Ziel wie AMDs Infinity Cache. Wir reden allerdings über den L3 für die CPU und entsprechend nutzlos ist dafür das Bild. Solte Intel also nicht mehr vor haben entsprechend dicke IGPs zu verbauen das diese darauf angewiesen wären hat sich die Nummer mit dem L4 ganz einfach erledigt. Das sind 2 verschiedene Paar Schuhe. Ich gehe eher davon aus das Intel in dem Bereich einen so großen L3 ganz einfach nicht auf dem Schirm hat. Das Anwendungsgebiet ist im Desktop Bereich zu speziell und die Margen zu gering. Da verdient man im professionellen Bereich ganz einfach besser daran.
 
Die Arc770 kann trotz der vielen internen Verbesserungen und großen technischen Daten nur wenig Leistung auf die Straße bringen.

Dieser GPU fehlt es deutlich and Cache bzw. L3 oder größeren L2.

Man hat das Gefühl, dass die fp8 262 TOPs und 38 Tflops fp32 gar nicht richtig ankommen, weil der L2 nur 16MB schmal ist bei der Arc770. Quasi ei Haufen XMX-cores mit eingebauter Handbremse.
 
Der Adamantium Cache auf den verwießen wurde ist ein CPU(+GPU) Cache (L4) auf einem extra gestackten Die. Also ähnlich wie die X3Ds aufgebaut und kein reiner GPU Cache. Adamantium sollte eigentlich auch mit Arrow Lake kommen, wurde dann aber eingestampft weil Intel Geld sparen musste. Was aber nicht ausschließt, dass er mit einem späteren Produkt dann doch noch kommt.

Das besondere an AMDs L3 ist aber, dass dieser deutlich schneller als Intels L3 am Ringbus ist. Ein L4 der nochmals langsamer als der L3 ist kann das nicht ganz aufwiegen. Eine zusätzliche Cache Stufe kostet außerdem auch wieder Latenz bis zum DRAM. Adamantium wäre also eher ein X3D light geworden und wohl eher als Weiterentwicklung von Broadwells eDRAM zu sehen.
 
Haben die GPUs nicht lediglich L1 und L2 Cache? AMDs Infinity Cache ist eher eine Sonderform die nochmal dazu kommt um die Speicherbandbreite für kleine Daten aufzublasen.

Intel hatte schonmal Produkte mit einem L4 Cache udn da stand er meiner Erinnerung nach ausschließlich der IGP zur Verfügung um die knappe Speicherbandbreite durch den RAM aufzublasen.
 
Das letzte mal gab es meines Wissens nach L4 bei Broadwell, da diente er vor allem als IGP Cache. Die CPU konnte ihn aber auch nutzen was damals schon zu deutlichen Verbesserungen in Spielen führte. Der L4 war aber ein eDRAM und kein SRAM. Ich glaube der Pentium 4 hatte auch mal einen L4....
GPUs haben typischerweiße eher nur L1 und L2 Caches. Bei GPUs ist die Trennung aber sowieso etwas schwieriger, da es zum L1 noch extra Texture Caches oder "L0" Caches geben kann.

Hier ein lesenswerter Artikel zu Broadwells eDRAM:
https://chipsandcheese.com/p/broadwells-edram-vcache-before-vcache
 
AMDs Infinity Cache ist eher eine Sonderform die nochmal dazu kommt um die Speicherbandbreite für kleine Daten aufzublasen.
Ist das nicht eher Marketing fuer einen GPU L3 Cache mit extra Sosse?
In gewisser Weise erhoeht jeder Cache die gefuehlte Bandbreite oder?

Gruss,
TNT
 
AMD infinity Cache ist secret sauce. Seit RDNA2 wurden keine Daten mehr veröffentlicht was Hitrates und Bandbreite angeht.

Bei RDNA2 gab's ne eigene Formel von AMD mit FCLK ~ 1940 bis 2200Mhz für die gelieferte Bandbreite.

W6800 ~ 16 x 64 x 1940 ~ 1984,56 GB/s Bandbreite bis 2 TB/s.

RDNA3 liefert ja 5,3 TB/s, +165%, also mehr als verdoppelte Bandbreite.
Formel und Hitrates gibs nicht und white paper auch nicht. Alles Mangelware bei RDNA3.
 
Intel hatte schonmal Produkte mit einem L4 Cache udn da stand er meiner Erinnerung nach ausschließlich der IGP zur Verfügung um die knappe Speicherbandbreite durch den RAM aufzublasen.
Nein - der L4 bei Broadwell stand genauso auch den CPU-Kernen zur Verfügung, was diese CPUs in vielen Szenarien (abseits der IGP) damals sehr schnell machte - obwohl der Vorgänger deutlich höher takten konnte. Ich hatte die CPU lange im Einsatz...
(Meine VII steckt z.B. aktuell noch in einem i7-5775C Rechner, weil ich dafür gerade keinen anderen übrig hab)
 
Dann hatte ich es wohl falsch in Erinnerung und er war im Desktop Umfeld abseits der IGP und Spielen einfach nur nutzlos und damit ein Kostentreiber. Also ähnlich dem was wir heute auch bei den X3Ds sehen, nur das AMD diese Modelle speziell für das Spieler Segment positioniert hat und sie sich gut bezahlen läßt.
 
average-fps-3840-2160.png


Der reale Leistungsgewinn in 4K ist wirklich gering durch die CPU. Und ich bezweifle dass jeder, der sich einen 9800X3D gönnt, auch eine RTX4090 wie im Testrig hat.

Aber gut, die NR.1 kassiert ohnehin 80-95% der Prämie, den Halo-Effekt und kann den Preis bestimmen. Ärgerlich, dass Intel leider nichts zu melden hat bei den CPUs und der 285K sehr enttäuscht.
 
Das ist doch völlig normal da sich Leistungsvorteile durch eine schnellere CPU in erster Linie im CPU Limit des Spiels wiederspiegeln.
Der Irrglaube das man für höhere Auflösungen mehr CPU Power benötigen würde ist allerdings recht weit verbreitet obwohl bei gleicher Grafikkarte durch die Verschiebung der Limitierung hin zur GPU genau das Gegenteil der Fall ist.
 
Zurück
Oben Unten