Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte


Ian Cutress (AnandTech) mit einigen sehr interessanten Ansichten.

Er betont auch noch mal, dass AMD in 2021 zwei Schwerpunkte hat:

  • Epyc
  • OEMs

Für Xilinx sieht er vor allem nur Mitnahmeeffekte für AMD, indem man den Kunden auch Epycs "andreht".

Indem Zuge betont er auch noch mal, dass Intel Altera zu schnell eingliedern wollte und denen gesagt hat, wir haben hier nen tollen 10nm-Prozess entwickelt mal darauf hin. Endergebnis ist ja bekannt.

Interessant ist auch, dass er bei Nvidia eine noch stärkere Konzentration auf HPC bei den Grafikkarten sieht und dass man dort sogar weniger in die Entwicklung der Gaming-Karten stecken könnte bzw. diesen Markt in Zukunft "vernachlässigen" wird.
 
Ich sehe diese Gewichtung schon vor 2 Jahren bei AMD eingeleitet, besonders die OEM-Schiene die nun ernsthaft angegriffen wird, was zu den Verknappungen im Retail führt derzeit. Mit Corona konnte man nicht rechnen, doch der konsequent weiter geführte Weg ist für AMD als Unternehmen die beste Strategie, nachdem bei Retail kaum noch Umsatzanteil im CPU-Segment zu gewinnen ist.

GPU ist noch nicht dran, doch Nvidias Strategie könnte AMD in die Hände spielen, da AMDs Server-Marktsegement mit Xilinx/Instinct/RocM 4.0 AI abdecken kann und AMD das Gaming wohl pushen wird. AMD könnte auch bei AI auf der Suche nach Übernahme-Kandidaten sein, was wohl bei weiter steigenden Kursen und nach Abschluß der Xilinx-Übernahme in 2022/2023 ein Thema werden könnte.
 
AMD könnte auch bei AI auf der Suche nach Übernahme-Kandidaten sein, was wohl bei weiter steigenden Kursen und nach Abschluß der Xilinx-Übernahme in 2022/2023 ein Thema werden könnte.

Muss man mal sehen. Ich hab schon Roadmaps gesehen, wo in naher Zukunft wenigstens was drin war, was man in Richtung AI interpretieren konnte.


Interessant war auch, dass er der Meinung war, dass Nvidia besser Nuvia hätte kaufen sollen. Die hat sich aber ja Qualkomm geschnappt.
Für 1,4 Milliarden hätte AMD die sich ja auch leisten können. ;)

Wobei sich ja diesen Sommer hoffentlich mal zeigt, was man mit Samsung so entwickelt hat.
 
Bei AI ist für mich die Rolle von FPGA noch immer nicht gefunden. Man sollte erwarten, dass man mit FPGA ein Neuronales Netz abbilden könnte und damit sehr performates Inferencing ermöglichen müsste. Dennoch ist das Thema hauptsächlich bei GPUs mit schnellerer Time2Market im Softwarestack aufgehoben. D.h. die Vorteile von FPGA überwiegen da noch nicht.

Ich meine mich erinnern zu können, dass in dem Broken Silicon Podcast darüber gesprochen wurde, dass AMD vorallem vom Xilinx Design Team für TSMC Verfahren profitieren könnte. Auch Xilinx musste erfolgreiche Die2Die Fabrics und Packaging entwickeln.

Der andere grosse Takeaway war für mich, dass 3d-Stacking mit der Problematik der Power-Delivery für höherliegende Chiplets wohl kaum einen bedeutenden Durchbruch in den nächsten Monaten erwarten lassen, das deutet für mich mehr in Richtung aktiver Interposer statt 3d Stacked SoCs. Dann bleibt das Stacking den gleichartigen Chip-Layer wie bei HBM vorbehalten und es bleibt bei SoCs auf (künftig aktivem) Interposer.
 
Ich lehne mich mal sehr weit aus dem Fenster und behaupte, AMD könnte bereits dabei sein einen eigenen ARM-Kern zu entwickeln.
Im Transkript des earnings calls bei Seeking Alpha wird explizit nach dem Status ihres früheren ARM-Designs gefragt. Lisa Su antwortet darauf: "In terms of that specific custom ARM design, we don’t have that in plans right now. In terms of whether we would do custom ARM designs, I think the answer is yes. That’s the whole idea of the semi-custom business."
Das muss natürlich für jetzt gar nichts heißen, aber andererseits: Wären sie nicht dabei mindestens etwas in die Richtung zu planen, würde sie dann so antworten? *suspect*

Auch interessant fand ich einige Aussagen zu EPYC und Instinct, mit zuversichtlichen Zukunftsaussichten:
"2021 marks an inflection point in terms of the scale, ecosystem support and customer adoption of our EPYC and Instinct processors. In the first quarter, data center product revenue more than doubled year-over-year and represented a high-teens percentage of our overall revenue. We expect data center product revenue to grow significantly as we go through the year"
 
....In terms of whether we would do custom ARM designs, I think the answer is yes. That’s the whole idea of the semi-custom business."
Das muss natürlich für jetzt gar nichts heißen, aber andererseits: Wären sie nicht dabei mindestens etwas in die Richtung zu planen, würde sie dann so antworten? *suspect*

Das sehe ich auch so: wenn AMD Kunden akquirieren will, die ARM-Cores wollen, brauchen sie die nötige IP, und da gehört auch ein aktuelles ARM-Core auf aktuellem Prozess (7nm/5nm) dazu.

UND: das ARM-Core ist letzlich nur ein Building-Block: warum sollte AMD für seine EPYC-Architekturen statt der eigenen X86-Cores nicht auch alternativ ARM-Cores anbieten? Wie groß ist der Mehraufwand, die Epyc-Systeme auch mit ARM anzubieten? Je mehr Anwendungen es gibt, die auch mit - oder gar besser auf - ARM laufen, desto wichtiger wird es, beides anbieten zu können, um im Server-Segment noch stärker zu werden.

Sollte AMD an einer ARM-Entwicklung dran sein, könnte dann womöglich AMD Nvidias Griff nach ARM verhindern, da dann beide maximale Konkurrenten wären?
 
Anscheinend geht es noch kleinere Strukturen zu fertigen.


Kann auch der Grund sein das man alles auf Chiplets aufteilt. Je nachdem was man in welcher Fertigungsgröße realisieren kann.
 
Hat das hier jemand mitbekommen: https://www.heise.de/news/Riesen-Rechenzentren-registrieren-tueckische-Prozessorfehler-6065794.html

Meine Spekulatius dazu:
Wenn Programme nicht den Cache nutzen und direkt auf den RAM Zugreifen und dieser kein Multi-Bit ECC hat, sind Fehler leider unvermeidbar (in großen Stil)
Das würde auch zu dem größeren L3 Cache passen, die AMD via Stacked dazu packen kann.

Die Cache Hierarchie ist komplett mit Multi-Bit ECC ausgestattet, natürlich ist das System schneller ohne ECC (Checksum pass trough) ;)
 
Nur glaub ich kaum, dass irgend ein Rechenzentrum RAM ohne ECC nutzt, gibt die wirklich großen Kapazitäten nur als reg. ECC. Außerdem denke ich schon, dass die Forscher zwischen Rechenfehler durch falsche Zahlen (gekipptes Bit im RAM) oder falsche Ergebnisse (Fehler im Rechenwerk) unterscheiden können.

Schade ist, dass nicht erwähnt wurde, um was für Rechenwerke es geht.
 
Nur glaub ich kaum, dass irgend ein Rechenzentrum RAM ohne ECC nutzt, gibt die wirklich großen Kapazitäten nur als reg. ECC. Außerdem denke ich schon, dass die Forscher zwischen Rechenfehler durch falsche Zahlen (gekipptes Bit im RAM) oder falsche Ergebnisse (Fehler im Rechenwerk) unterscheiden können.

Schade ist, dass nicht erwähnt wurde, um was für Rechenwerke es geht.
Es geht um TPUs wird auch im heise.de Artikel verlinkt im Text. (Unterstrichener Text enthält Links -> drauf klicken)

Was läuft den da auf dem Server, ein kleiner crypto Bot ? *chatt*
 
Das Thema Zuverlässigkeit und Nachvollziehbarkeit von dem was die Rechner da machen ist schon sehr lange umstritten. Jops und Gates haben damals ihr Studium geschmissen und mit ihren Firmen mehr oder weniger Consumer/Weckwerfartikel entwickelt und verkauft.

Was Opensource Entwickler schon vor langem Prophezeit haben tritt anscheinend immer mehr ein. 2017 mit Meltdown und Spectre das es so nicht mehr weitergehen kann.

Hardware - Architektur - Software muss wohl alles mal auf möglichst Sichere Beine gestellt werden. Nur mal so, was da Heutzutage in einer Desktop CPU pro Sekunde abgeht ist schon heftig. Transinstorenanzahl bzw. Taktzyklen.
 
Auch wenn es vielleicht eher eine Randnotiz ist:

President Biden Announces Members of President’s Council of Advisors on Science and Technology

[...]
PCAST MEMBERS
[...]

Lisa T. Su, Ph.D., is an electrical engineer who is an expert in semiconductor devices and high-performance processors. She pioneered new ways to connect computer chips using copper instead of aluminum, resulting in 20% faster chip speeds. An American immigrant from Taiwan, she is President and CEO of Advanced Micro Devices (AMD), a leading semiconductor and microprocessor company. She is a recipient of the IEEE Robert N. Noyce Medal (the first woman to receive the award), and has been named Fortune Magazine’s #2 “Business Person of the Year” for 2020 and one of Barron’s “World’s Best CEOs” of 2019.
 
Die Frontier-Installation läuft:


Edit:

Da gibt es noch mehr:


Edit2:

Da ist die Präsi:

 
Zuletzt bearbeitet:
Ich glaube AMD hat den GPU-Chiplet-Angriff auf Nvidia eingeläutet:
Dabei wir vor allem der Servermarkt in das Visier genommen, wo derzeit das Momentum und die Glaubwürdigkeit der Zen-Story in Kombination mit Xilinx im Gepäck auch der richtige Zeitpunkt gekommen zu sein scheint:
Hardwareluxx berichtet: https://www.hardwareluxx.de/index.p...-sich-30x-effizienzziel-fuers-datacenter.html
Nextplatform etwas ausführlicher: https://www.nextplatform.com/2021/0...ency-increase-line-in-the-datacenter-silicon/

amd-30x25-server-efficiency-goal.jpg



amd-30x25-server-datacenter-trends.jpg
 
Zuletzt bearbeitet:
TSMC erwartet bis mindestens Ende 2022 ein Anhalten der Wafer-Knappheit, wie sie heute mit den Zahlen kommentiert haben. Das bedeutet auch, dass die Preise der Wafer kaum fallen, sondern womöglich auch noch zusätzlich steigen dürften. Aber all das ist nicht neu und dürfte daher schon längst in die Roadmaps mehr oder minder Einfluss haben.
=> Diesize spielt aktuell wieder eine ganz neue Rolle, sodass hierdurch Produkt-"Abwandlungen" entstehen dürften, die bisher nicht auf der Roadmap standen, z.B. eine Version von Rembrandt ohne iGPU.

Hinzu kommt die neue Konkurrenz durch Intels Alderlake, dessen neues Konzept nicht nur Vorteile mit sich bringt, sodass dann vermutlich Intel und AMD nur noch jeweils in bestimmten Szenarien die bessere CPU haben und daher nicht mehr zwanglsäufig über den Preis konkurrieren müssen: jeder vermarktet seine Produkte dort, wo er besser ist. Zudem dürfte Alderlakes Die recht groß sein.
=> In einer knappen Welt muss keiner von beiden mehr über den Preis vekaufen

Vor diesem Hintergrund ist es für mich verständlich, dass sich AMD seit einiger Zeit sehr bedeckt über kommende Produkte hält, da die ursprünglich geplanten Konzepte sich heute als ungünstig und daher mehr oder minder als überholt darstellen könnten.
=> die bekannten Roadmaps dürften sich verändern (die klaren Milestones "Zen4", "RNDA3" ändern sich sicher nicht, aber die jeweiligen Produkte dürfte in ihrer Ausführung an die neue Situation anpasst werden um z.B. Diesize zu sparen).

Was ich meine, bisher von AMD vernommen zu haben:
So gäbe es aktuell klare Preferenzen: zuerst Server, dann Notebook, dann Desktop-CPU, dann Midrange APU und ganz am Ende GPU (hier Highend- vor Lowend-GPU).
Interessant dabei die Position von Notebook vor Desktop: hier heißt es neuerdings (siehe Video 5 Jahre Ryzen), dass AMD als zentrales Differnzierungsmerkmal für Notebook höchste Effizienz ansieht, woraus ich schließe, dass man sich sicher zu sein scheint, hier mit Rembrandt weit vor Intel zu landen und ein entsprechend gutes Produkt zu haben. Und hohe Effizienz ist ebenso für die großen Server-CPU nötig: für kommende 128-Corer muss die Effizienz deutlich steigen, damit diese Sinn ergeben.

Zuletzt: gegen Alderlake stellt man anfangs Ryzen-3D, der aufgrund des L3 vermutlich weiterhin die Gaming-Krone behalten dürfte. In MT-Anwendungen wird Threadripper weiterhin weit vor Alderlake bleiben vor allem weil die Threadripper-Plattform vom günstigen DDR4-Ram profitiert, von dem hier große Mengen zum Einsatz kommen.
 
=> Diesize spielt aktuell wieder eine ganz neue Rolle, sodass hierdurch Produkt-"Abwandlungen" entstehen dürften, die bisher nicht auf der Roadmap standen, z.B. eine Version von Rembrandt ohne iGPU.
Welchen Vorteil sollte das AMD einbringen? Wer heute diskrete GPUs kaufen muß, der verschiebt bei weiter anhaltender Chipknappheit den Kauf bis vernünftige Preise kommen - warum eine CPU kreieren für viel Geld, welche ebenfalls von der Verfügbarkeit von dGPUs abhängt? Den Unfug hast Du nun wirklich alles Nase lang geschrieben. AMD hat CPUs ohne iGPU im Markt und auf der Roadmap, da muss kein Rembrandt-Derivat her. Viel eher ist zu erwarten, dass die APUs die kleineren CPUs bis 8 Kerne ersetzen um mehr Chiplets verfügbar zu machen für Server/HEDT. Je mehr Kerne desto effizienter das Chipletdesign.

Derzeit ist zu erwarten, dass Rembrandt die Lücke von iGPUs im Desktop zur RX6600 etwas verkleinert und bei den Features aufholt . Damit die APUs für diejenigen interessant wird, die bisher dGPUs im Bereich bis 150.- € gekauft haben für Ihre Systeme.
=> die bekannten Roadmaps dürften sich verändern (die klaren Milestones "Zen4", "RNDA3" ändern sich sicher nicht, aber die jeweiligen Produkte dürfte in ihrer Ausführung an die neue Situation anpasst werden um z.B. Diesize zu sparen).
Das hat AMD vor Jahren mit den Chiplets schon getan und einen gewaltigen Vorsprung gegenüber der Konkurrenz. Welche Roadmap Anpassung sollte denn hier noch erfolgen? Erneut dieser Unsinn, der dir hier ebenfalls schon widerlegt wurde, wegen der Abhängigkeit zu den OEMs von einer langfristig planbaren Roadmap.

Alder Lake wird AMD über den Preis jederzeit kontern können, sollte dies überhaupt nötig sein, um Marktanteile schneller hinzu zu gewinnen. Bei der aktuellen Chipversorgung muss überhaupt keiner auf den anderen reagieren mit Preissenkungen - demzufolge auch sicher nicht mit einer Änderung der Roadmap.
AMD hat hier schon eine recht gute Positionierung erreicht.
 
So funktioniert das aber nicht.
Die Chipfertigung beginnt 4 - 5 Jahre vor dem Release eines Chips. Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen. Da das Tape-Out für Zen4 schon erfolgt ist, so gibt es da keinerlei Änderungsmöglichkeiten mehr. Änderungen um Diesize zu sparen sind nicht möglich.
 
...Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen....
Tape-outs gibt es vermutlich für viel mehr Produkte, als nachher kommen. Es sind letztlich nur Varianten der entsprechenden Produkt-Entwicklungen, so wie letztlich auch AMDs customized Abteilung dann agiert. So hatten Varianten von verschiedenen SoCs, die aber nur als ES aber nie als Produkt erschienen sind.

Nachdem die Wafer-Knappheit längst bekannt ist, gehe ich davon aus, dass man bereits anfangs auch einen Rembrandt ohne iGPU ins Tape-out geschickt haben dürfte, vermutlich auch mehr als nur die bekannte Version mit angeblich 12 CU. Ob in die Umsetzung später dann auch eine weitere Variante gegangen ist, wird sich zeigen. Ich gehe zumindest davon aus, dass eine Variante ohne iGPU später in die Pipline geschoben worden sein dürfte, aber ist natürlich nur eine Vermutung. Aufgrund wirtschaftlicher Aspekte hat sich AMDs Lage gegenüber dem Entwicklungsbeginn ja wesentlich weiter entwickelt, ebenso die Marktsituation. Vermultich glaubte auch bei AMD vor zwei Jahren noch kaum jemand so wirklich, dass sie heute da stehen, wo sie jetzt stehen.

Auffällig ist: bis zur CES sind nur noch drei Monate, aber dennoch erfährt man so gut wie gar nichts über die kommenden APUs, die aber den OEMs lange vorher bekannt sein müssen, da Notebooks ja lange Vorlaufzeiten haben. Daher: lassen wir uns überraschen, was wirklich kommt.
 
Zuletzt bearbeitet:
...Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen....
Tape-outs gibt es vermutlich für viel mehr Produkte, als nachher kommen.
Wie kommst Du denn darauf? Quelle?
Nachdem die Wafer-Knappheit längst bekannt ist, gehe ich davon aus, dass man bereits anfangs auch einen Rembrandt ohne iGPU ins Tape-out geschickt haben dürfte, vermutlich auch mehr als nur die bekannte Version mit angeblich 12 CU.
Erneut würde ich gerne wissen wie Du auf diese Prämisse kommst?

Hier mal eine grobe Übersicht über was Du da redest:
nano3.png

Ein Tapeout kostet in 5nm über 400 Mio. - das Tapeout wird benötigt um einen ersten Prototyp zu validieren. Also nur noch die beiden oberen Segmente des Prozesses müssen abgeschlossen werden. Wie viele solcher "Tapeouts für die Tonne" macht denn Deiner Meinung nach ein Chiphersteller pro Generation?
The term tapeout currently is used to describe the creation of the photomask itself from the final approved electronic CAD file. Designers may use this term to refer to the writing of the final file to disk or CD and its subsequent transmission to the semiconductor foundry; however, in current practice the foundry will perform checks and make modifications to the mask design specific to the manufacturing process before actual tapeout. These modifications of the mask data include:[2]
  • Chip finishing which includes custom designations and structures to improve manufacturability of the layout. Examples of the latter are a seal ring and filler structures.
  • Producing a reticle layout with test patterns and alignment marks.[2]
  • Layout-to-mask preparation that enhances layout data with graphics operations and adjusts the data to mask production devices. This step includes resolution enhancement technologies (RET), such as optical proximity correction (OPC) which corrects for the wave-like behavior of light when etching the nano scale features of the most modern integrated circuits.[1]
 
@Complicated:
Erst mal Danke für Dein Feedback! Es geht mir hier nicht darum irgenwie Recht zu haben, sondern Gedanken auszutauschen, was wie möglich sein könnte.

Die Grafik "Advanced Design Cost" kenne ich in ähnlicher Form, allerdings war dann dort ein Großteil davon als "Maskenkosten" dargestellt, was hier fehlt, weil es hier anscheinend um die Kosten bis zum ES geht. Sieht man sich die einzelnen Posten davon an, liegt nahe, dass diese entsprechend kleiner werden, wenn man ein fertiges Tape-out quasi nur customized, z.B. ein paar Building-Blocks hinzu fügt. Anders wären Customized Designs in 7nm gar nicht mehr möglich, wenn das Ding dann nicht >1 Mrd.$ einspielt.

Logischerweise sollte nur ein Bruchteil der Design-/Test-Kosten anfallen, wenn man in einer Variante eines Designs lediglich Building-Blocks weg fallen lässt, d.h. es wird ja nichts Neues aufwändig entwickelt. Vor allem: wenn ich Teile eines Designs deaktivieren kann (z.B. die iGPU von Renoir oder Cezanne), weil dort irgendetwas nicht richtig funktioniert, und das Ding so genauso läuft - nur ohne die deaktivierten Funktionen -, dann drängt sich in der Konsequenz auf, dass das gleiche Design bereits so konstruiert werden kann, dass es auch gleich ohne diesen Teil belichtet/hergestellt werden kann. Es fielen dann so gut wie keine neuen Design-Kosten mehr an, oder?
 
Erst mal Danke für Dein Feedback! Es geht mir hier nicht darum irgenwie Recht zu haben, sondern Gedanken auszutauschen, was wie möglich sein könnte.
Mir geht es auch nicht um Recht haben, sondern um die falschen Voraussetzungen, die Du aufstellst und dadurch zu den falschen Schlußfolgerungen gelangst.
Die Grafik "Advanced Design Cost" kenne ich in ähnlicher Form, allerdings war dann dort ein Großteil davon als "Maskenkosten" dargestellt, was hier fehlt, weil es hier anscheinend um die Kosten bis zum ES geht.
Das fehlt hier nicht. Es gibt kein Tapeout ohne fertige Masken. Die Masken fertig zu designen ist was vor dem Tapout kommt. Das Tapeout des produktionsfertigen Design benötigt Masken die funktionieren. Ansonsten kein Tapeout.
Sieht man sich die einzelnen Posten davon an, liegt nahe, dass diese entsprechend kleiner werden, wenn man ein fertiges Tape-out quasi nur customized, z.B. ein paar Building-Blocks hinzu fügt. Anders wären Customized Designs in 7nm gar nicht mehr möglich, wenn das Ding dann nicht >1 Mrd.$ einspielt.
Das ist einfach eine falsche Vorstellung - so funktioniert das nicht. Du kannst ja mal schauen was ein Respin (das wäre eine Änderung, wie Du sie beschreibst) an Zeit und Kosten verursacht, wenn das tapeout nicht die gewünschten Yields in Produktion bringt. Und ganz sicher ist das weglassen der iGPU kein einfacher Respin, sondern ein komplett neues Design mit den vollen Kosten.

Logischerweise sollte nur ein Bruchteil der Design-/Test-Kosten anfallen, wenn man in einer Variante eines Designs lediglich Building-Blocks weg fallen lässt, d.h. es wird ja nichts Neues aufwändig entwickelt. Vor allem: wenn ich Teile eines Designs deaktivieren kann (z.B. die iGPU von Renoir oder Cezanne), weil dort irgendetwas nicht richtig funktioniert, und das Ding so genauso läuft - nur ohne die deaktivierten Funktionen -, dann drängt sich in der Konsequenz auf, dass das gleiche Design bereits so konstruiert werden kann, dass es auch gleich ohne diesen Teil belichtet/hergestellt werden kann. Es fielen dann so gut wie keine neuen Design-Kosten mehr an, oder?
Das stellst Du Dir einfach falsch vor. Nichts davon ist logisch....und was Du beschreibst (deaktivieren) spart keine Waferfläche und benötigt kein eigenes Design. Sobald Du die Teile weg nimmst um tatsächlich den Die zu verkleinern ist ein komplettes Design nötig. Der Vorteil der Buidingblocks ist nicht , dass Du Designkosten für den Chip sparst bei Semi-Customs. Der Vorteil ist, dass Du beim Design auf diese IP zugreifen kannst um einen Leistungsfähigen Chip herzustellen, ohne die Architektur neu zu entwickeln.
 
Ein Tapeout kostet in 5nm über 400 Mio. - das Tapeout wird benötigt um einen ersten Prototyp zu validieren. Also nur noch die beiden oberen Segmente des Prozesses müssen abgeschlossen werden. Wie viele solcher "Tapeouts für die Tonne" macht denn Deiner Meinung nach ein Chiphersteller pro Generation?

Wow. Danke für die Info. Ich hatte irgendwie noch total alte Werte im Kopf und haette da etwa 40 bis 50 Millionen veranschlagt.


Zum Thema Design noch ein interessanter Fakt:

Nvidia hat sich Oski Technology einverleibt, die übrigens auch AMD zu ihren Kunden zählen.


Today, verification engineers rely on two very different methods to make sure bugs don’t make it into silicon — simulation and formal verification.

The first approach relies on millions of simulations that search for bugs, exercising corner cases in carefully designed tests.

Formal verification, Oski’s specialty, is a powerful alternative that uses mathematical analysis of a design instead of simulations to prove that a particular feature behaves correctly for all possible inputs.

Aber keine Ahnung wie weit das beim CPU- oder GPU-Design eine große Rolle spielt.
 
Derzeitige Entwicklungen bei dem Thema sprechen auch von schnellerer Entwicklung mit Hilfe von AI. Ich bin sicher, da ist Nvidia mit Hochdruck dran.
Interessanter Bericht zu dem Thema: https://www.tomshardware.com/news/synopsys-ai-eda-gpu-design-costs
Physical design of modern chips is an expensive and difficult process, and as fabrication technologies get thinner, IC design costs are escalating. Nowadays it takes years to develop a new CPU or GPU architecture and then it may easily take about 24 months or more to design physical implementation of the chip. At 3nm design cost of a sophisticated GPU will approach $1.5 billion, according to some analysts, a sum that not all companies can afford. But there is a way to cut these costs by as much as 50% and development time by orders of magnitude using AI-enabled design tools, says Synopsys.
1,5 Mrd bei 3nm für ein Design. Und mit AI kann man es lediglich halbieren. Aber die Beschleunigung von 24 Monaten zu 24 Wochen Designzeit ist natürlich hoch interessant für die Hersteller.
 
Zurück
Oben Unten