App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Ian Cutress (AnandTech) mit einigen sehr interessanten Ansichten.
Er betont auch noch mal, dass AMD in 2021 zwei Schwerpunkte hat:
- Epyc
- OEMs
Für Xilinx sieht er vor allem nur Mitnahmeeffekte für AMD, indem man den Kunden auch Epycs "andreht".
Indem Zuge betont er auch noch mal, dass Intel Altera zu schnell eingliedern wollte und denen gesagt hat, wir haben hier nen tollen 10nm-Prozess entwickelt mal darauf hin. Endergebnis ist ja bekannt.
Interessant ist auch, dass er bei Nvidia eine noch stärkere Konzentration auf HPC bei den Grafikkarten sieht und dass man dort sogar weniger in die Entwicklung der Gaming-Karten stecken könnte bzw. diesen Markt in Zukunft "vernachlässigen" wird.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich sehe diese Gewichtung schon vor 2 Jahren bei AMD eingeleitet, besonders die OEM-Schiene die nun ernsthaft angegriffen wird, was zu den Verknappungen im Retail führt derzeit. Mit Corona konnte man nicht rechnen, doch der konsequent weiter geführte Weg ist für AMD als Unternehmen die beste Strategie, nachdem bei Retail kaum noch Umsatzanteil im CPU-Segment zu gewinnen ist.
GPU ist noch nicht dran, doch Nvidias Strategie könnte AMD in die Hände spielen, da AMDs Server-Marktsegement mit Xilinx/Instinct/RocM 4.0 AI abdecken kann und AMD das Gaming wohl pushen wird. AMD könnte auch bei AI auf der Suche nach Übernahme-Kandidaten sein, was wohl bei weiter steigenden Kursen und nach Abschluß der Xilinx-Übernahme in 2022/2023 ein Thema werden könnte.
GPU ist noch nicht dran, doch Nvidias Strategie könnte AMD in die Hände spielen, da AMDs Server-Marktsegement mit Xilinx/Instinct/RocM 4.0 AI abdecken kann und AMD das Gaming wohl pushen wird. AMD könnte auch bei AI auf der Suche nach Übernahme-Kandidaten sein, was wohl bei weiter steigenden Kursen und nach Abschluß der Xilinx-Übernahme in 2022/2023 ein Thema werden könnte.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
AMD könnte auch bei AI auf der Suche nach Übernahme-Kandidaten sein, was wohl bei weiter steigenden Kursen und nach Abschluß der Xilinx-Übernahme in 2022/2023 ein Thema werden könnte.
Muss man mal sehen. Ich hab schon Roadmaps gesehen, wo in naher Zukunft wenigstens was drin war, was man in Richtung AI interpretieren konnte.
Interessant war auch, dass er der Meinung war, dass Nvidia besser Nuvia hätte kaufen sollen. Die hat sich aber ja Qualkomm geschnappt.
Für 1,4 Milliarden hätte AMD die sich ja auch leisten können.
Wobei sich ja diesen Sommer hoffentlich mal zeigt, was man mit Samsung so entwickelt hat.
AMD braucht fixe Interconnects mit Infiniband und Ethernet, am besten im IO-Die.Für Xilinx sieht er vor allem nur Mitnahmeeffekte für AMD, indem man den Kunden auch Epycs "andreht".
Da könnte Xilinx was beitragen.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Bei AI ist für mich die Rolle von FPGA noch immer nicht gefunden. Man sollte erwarten, dass man mit FPGA ein Neuronales Netz abbilden könnte und damit sehr performates Inferencing ermöglichen müsste. Dennoch ist das Thema hauptsächlich bei GPUs mit schnellerer Time2Market im Softwarestack aufgehoben. D.h. die Vorteile von FPGA überwiegen da noch nicht.
Ich meine mich erinnern zu können, dass in dem Broken Silicon Podcast darüber gesprochen wurde, dass AMD vorallem vom Xilinx Design Team für TSMC Verfahren profitieren könnte. Auch Xilinx musste erfolgreiche Die2Die Fabrics und Packaging entwickeln.
Der andere grosse Takeaway war für mich, dass 3d-Stacking mit der Problematik der Power-Delivery für höherliegende Chiplets wohl kaum einen bedeutenden Durchbruch in den nächsten Monaten erwarten lassen, das deutet für mich mehr in Richtung aktiver Interposer statt 3d Stacked SoCs. Dann bleibt das Stacking den gleichartigen Chip-Layer wie bei HBM vorbehalten und es bleibt bei SoCs auf (künftig aktivem) Interposer.
Ich meine mich erinnern zu können, dass in dem Broken Silicon Podcast darüber gesprochen wurde, dass AMD vorallem vom Xilinx Design Team für TSMC Verfahren profitieren könnte. Auch Xilinx musste erfolgreiche Die2Die Fabrics und Packaging entwickeln.
Der andere grosse Takeaway war für mich, dass 3d-Stacking mit der Problematik der Power-Delivery für höherliegende Chiplets wohl kaum einen bedeutenden Durchbruch in den nächsten Monaten erwarten lassen, das deutet für mich mehr in Richtung aktiver Interposer statt 3d Stacked SoCs. Dann bleibt das Stacking den gleichartigen Chip-Layer wie bei HBM vorbehalten und es bleibt bei SoCs auf (künftig aktivem) Interposer.
Impergator
Lieutnant
- Mitglied seit
- 03.04.2014
- Beiträge
- 77
- Renomée
- 9
- Mein Laptop
- HP Envy x360, Ryzen 5 4500U
- Prozessor
- Ryzen 7 3700X
- Mainboard
- ASRock Fatal1ty B450 Gaming K4
- Speicher
- 2 * 8GB Corsair Vengeance 3000MHz
- Grafikprozessor
- Gigabyte R9-285 Windforce
- SSD
- PNY XLR8 CS3030 M.2 NVMe SSD 500GB
- Gehäuse
- Cooler Master HAF 912 PLUS Midi Tower schwarz
- Webbrowser
- Vivaldi
Ich lehne mich mal sehr weit aus dem Fenster und behaupte, AMD könnte bereits dabei sein einen eigenen ARM-Kern zu entwickeln.
Im Transkript des earnings calls bei Seeking Alpha wird explizit nach dem Status ihres früheren ARM-Designs gefragt. Lisa Su antwortet darauf: "In terms of that specific custom ARM design, we don’t have that in plans right now. In terms of whether we would do custom ARM designs, I think the answer is yes. That’s the whole idea of the semi-custom business."
Das muss natürlich für jetzt gar nichts heißen, aber andererseits: Wären sie nicht dabei mindestens etwas in die Richtung zu planen, würde sie dann so antworten?
Auch interessant fand ich einige Aussagen zu EPYC und Instinct, mit zuversichtlichen Zukunftsaussichten:
"2021 marks an inflection point in terms of the scale, ecosystem support and customer adoption of our EPYC and Instinct processors. In the first quarter, data center product revenue more than doubled year-over-year and represented a high-teens percentage of our overall revenue. We expect data center product revenue to grow significantly as we go through the year"
Im Transkript des earnings calls bei Seeking Alpha wird explizit nach dem Status ihres früheren ARM-Designs gefragt. Lisa Su antwortet darauf: "In terms of that specific custom ARM design, we don’t have that in plans right now. In terms of whether we would do custom ARM designs, I think the answer is yes. That’s the whole idea of the semi-custom business."
Das muss natürlich für jetzt gar nichts heißen, aber andererseits: Wären sie nicht dabei mindestens etwas in die Richtung zu planen, würde sie dann so antworten?
Auch interessant fand ich einige Aussagen zu EPYC und Instinct, mit zuversichtlichen Zukunftsaussichten:
"2021 marks an inflection point in terms of the scale, ecosystem support and customer adoption of our EPYC and Instinct processors. In the first quarter, data center product revenue more than doubled year-over-year and represented a high-teens percentage of our overall revenue. We expect data center product revenue to grow significantly as we go through the year"
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
....In terms of whether we would do custom ARM designs, I think the answer is yes. That’s the whole idea of the semi-custom business."
Das muss natürlich für jetzt gar nichts heißen, aber andererseits: Wären sie nicht dabei mindestens etwas in die Richtung zu planen, würde sie dann so antworten?
Das sehe ich auch so: wenn AMD Kunden akquirieren will, die ARM-Cores wollen, brauchen sie die nötige IP, und da gehört auch ein aktuelles ARM-Core auf aktuellem Prozess (7nm/5nm) dazu.
UND: das ARM-Core ist letzlich nur ein Building-Block: warum sollte AMD für seine EPYC-Architekturen statt der eigenen X86-Cores nicht auch alternativ ARM-Cores anbieten? Wie groß ist der Mehraufwand, die Epyc-Systeme auch mit ARM anzubieten? Je mehr Anwendungen es gibt, die auch mit - oder gar besser auf - ARM laufen, desto wichtiger wird es, beides anbieten zu können, um im Server-Segment noch stärker zu werden.
Sollte AMD an einer ARM-Entwicklung dran sein, könnte dann womöglich AMD Nvidias Griff nach ARM verhindern, da dann beide maximale Konkurrenten wären?
Peet007
Admiral Special
Anscheinend geht es noch kleinere Strukturen zu fertigen.
Kann auch der Grund sein das man alles auf Chiplets aufteilt. Je nachdem was man in welcher Fertigungsgröße realisieren kann.
IBM präsentiert den ersten 2-Nanometer-Chip: Technischer Durchbruch
Die Herstellung eines 2-Nanometer-Chips galt lange als unmöglich. Nun hat IBM den Gegenbeweis angetreten. Der Computerkonzern rühmt seine Entwicklung als entscheidend für die gesamte IT-Branche.
www.faz.net
Kann auch der Grund sein das man alles auf Chiplets aufteilt. Je nachdem was man in welcher Fertigungsgröße realisieren kann.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Hat das hier jemand mitbekommen: https://www.heise.de/news/Riesen-Rechenzentren-registrieren-tueckische-Prozessorfehler-6065794.html
Meine Spekulatius dazu:
Wenn Programme nicht den Cache nutzen und direkt auf den RAM Zugreifen und dieser kein Multi-Bit ECC hat, sind Fehler leider unvermeidbar (in großen Stil)
Das würde auch zu dem größeren L3 Cache passen, die AMD via Stacked dazu packen kann.
Die Cache Hierarchie ist komplett mit Multi-Bit ECC ausgestattet, natürlich ist das System schneller ohne ECC (Checksum pass trough)
Meine Spekulatius dazu:
Wenn Programme nicht den Cache nutzen und direkt auf den RAM Zugreifen und dieser kein Multi-Bit ECC hat, sind Fehler leider unvermeidbar (in großen Stil)
Das würde auch zu dem größeren L3 Cache passen, die AMD via Stacked dazu packen kann.
Die Cache Hierarchie ist komplett mit Multi-Bit ECC ausgestattet, natürlich ist das System schneller ohne ECC (Checksum pass trough)
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.249
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Nur glaub ich kaum, dass irgend ein Rechenzentrum RAM ohne ECC nutzt, gibt die wirklich großen Kapazitäten nur als reg. ECC. Außerdem denke ich schon, dass die Forscher zwischen Rechenfehler durch falsche Zahlen (gekipptes Bit im RAM) oder falsche Ergebnisse (Fehler im Rechenwerk) unterscheiden können.
Schade ist, dass nicht erwähnt wurde, um was für Rechenwerke es geht.
Schade ist, dass nicht erwähnt wurde, um was für Rechenwerke es geht.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Es geht um TPUs wird auch im heise.de Artikel verlinkt im Text. (Unterstrichener Text enthält Links -> drauf klicken)Nur glaub ich kaum, dass irgend ein Rechenzentrum RAM ohne ECC nutzt, gibt die wirklich großen Kapazitäten nur als reg. ECC. Außerdem denke ich schon, dass die Forscher zwischen Rechenfehler durch falsche Zahlen (gekipptes Bit im RAM) oder falsche Ergebnisse (Fehler im Rechenwerk) unterscheiden können.
Schade ist, dass nicht erwähnt wurde, um was für Rechenwerke es geht.
Was läuft den da auf dem Server, ein kleiner crypto Bot ?
Peet007
Admiral Special
Das Thema Zuverlässigkeit und Nachvollziehbarkeit von dem was die Rechner da machen ist schon sehr lange umstritten. Jops und Gates haben damals ihr Studium geschmissen und mit ihren Firmen mehr oder weniger Consumer/Weckwerfartikel entwickelt und verkauft.
Was Opensource Entwickler schon vor langem Prophezeit haben tritt anscheinend immer mehr ein. 2017 mit Meltdown und Spectre das es so nicht mehr weitergehen kann.
Hardware - Architektur - Software muss wohl alles mal auf möglichst Sichere Beine gestellt werden. Nur mal so, was da Heutzutage in einer Desktop CPU pro Sekunde abgeht ist schon heftig. Transinstorenanzahl bzw. Taktzyklen.
Was Opensource Entwickler schon vor langem Prophezeit haben tritt anscheinend immer mehr ein. 2017 mit Meltdown und Spectre das es so nicht mehr weitergehen kann.
Hardware - Architektur - Software muss wohl alles mal auf möglichst Sichere Beine gestellt werden. Nur mal so, was da Heutzutage in einer Desktop CPU pro Sekunde abgeht ist schon heftig. Transinstorenanzahl bzw. Taktzyklen.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Auch wenn es vielleicht eher eine Randnotiz ist:
President Biden Announces Members of President’s Council of Advisors on Science and Technology
President Biden Announces Members of President’s Council of Advisors on Science and Technology
[...]
PCAST MEMBERS
[...]
Lisa T. Su, Ph.D., is an electrical engineer who is an expert in semiconductor devices and high-performance processors. She pioneered new ways to connect computer chips using copper instead of aluminum, resulting in 20% faster chip speeds. An American immigrant from Taiwan, she is President and CEO of Advanced Micro Devices (AMD), a leading semiconductor and microprocessor company. She is a recipient of the IEEE Robert N. Noyce Medal (the first woman to receive the award), and has been named Fortune Magazine’s #2 “Business Person of the Year” for 2020 and one of Barron’s “World’s Best CEOs” of 2019.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Die Frontier-Installation läuft:
Edit:
Da gibt es noch mehr:
Edit2:
Da ist die Präsi:
US Closes in on Exascale: Frontier Installation Is Underway
At the Advanced Scientific Computing Advisory Committee (ASCAC) meeting, held by Zoom this week (Sept. 29-30), it was revealed that the Frontier supercomputer is currently being installed at Oak Ridge National Laboratory in Oak Ridge, Tenn. The staff at the Oak Ridge Leadership...
www.hpcwire.com
Edit:
Da gibt es noch mehr:
Frontier – Oak Ridge Leadership Computing Facility
www.olcf.ornl.gov
Edit2:
Da ist die Präsi:
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich glaube AMD hat den GPU-Chiplet-Angriff auf Nvidia eingeläutet:
Dabei wir vor allem der Servermarkt in das Visier genommen, wo derzeit das Momentum und die Glaubwürdigkeit der Zen-Story in Kombination mit Xilinx im Gepäck auch der richtige Zeitpunkt gekommen zu sein scheint:
Hardwareluxx berichtet: https://www.hardwareluxx.de/index.p...-sich-30x-effizienzziel-fuers-datacenter.html
Nextplatform etwas ausführlicher: https://www.nextplatform.com/2021/0...ency-increase-line-in-the-datacenter-silicon/
AMD Announces Ambitious Goal to Increase Energy Efficiency of Processors Running AI Training and High Performance Computing Applications 30x by 2025
Browse AMD’s company-wide and financial press releases.
ir.amd.com
Hardwareluxx berichtet: https://www.hardwareluxx.de/index.p...-sich-30x-effizienzziel-fuers-datacenter.html
Nextplatform etwas ausführlicher: https://www.nextplatform.com/2021/0...ency-increase-line-in-the-datacenter-silicon/
Zuletzt bearbeitet:
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
TSMC erwartet bis mindestens Ende 2022 ein Anhalten der Wafer-Knappheit, wie sie heute mit den Zahlen kommentiert haben. Das bedeutet auch, dass die Preise der Wafer kaum fallen, sondern womöglich auch noch zusätzlich steigen dürften. Aber all das ist nicht neu und dürfte daher schon längst in die Roadmaps mehr oder minder Einfluss haben.
=> Diesize spielt aktuell wieder eine ganz neue Rolle, sodass hierdurch Produkt-"Abwandlungen" entstehen dürften, die bisher nicht auf der Roadmap standen, z.B. eine Version von Rembrandt ohne iGPU.
Hinzu kommt die neue Konkurrenz durch Intels Alderlake, dessen neues Konzept nicht nur Vorteile mit sich bringt, sodass dann vermutlich Intel und AMD nur noch jeweils in bestimmten Szenarien die bessere CPU haben und daher nicht mehr zwanglsäufig über den Preis konkurrieren müssen: jeder vermarktet seine Produkte dort, wo er besser ist. Zudem dürfte Alderlakes Die recht groß sein.
=> In einer knappen Welt muss keiner von beiden mehr über den Preis vekaufen
Vor diesem Hintergrund ist es für mich verständlich, dass sich AMD seit einiger Zeit sehr bedeckt über kommende Produkte hält, da die ursprünglich geplanten Konzepte sich heute als ungünstig und daher mehr oder minder als überholt darstellen könnten.
=> die bekannten Roadmaps dürften sich verändern (die klaren Milestones "Zen4", "RNDA3" ändern sich sicher nicht, aber die jeweiligen Produkte dürfte in ihrer Ausführung an die neue Situation anpasst werden um z.B. Diesize zu sparen).
Was ich meine, bisher von AMD vernommen zu haben:
So gäbe es aktuell klare Preferenzen: zuerst Server, dann Notebook, dann Desktop-CPU, dann Midrange APU und ganz am Ende GPU (hier Highend- vor Lowend-GPU).
Interessant dabei die Position von Notebook vor Desktop: hier heißt es neuerdings (siehe Video 5 Jahre Ryzen), dass AMD als zentrales Differnzierungsmerkmal für Notebook höchste Effizienz ansieht, woraus ich schließe, dass man sich sicher zu sein scheint, hier mit Rembrandt weit vor Intel zu landen und ein entsprechend gutes Produkt zu haben. Und hohe Effizienz ist ebenso für die großen Server-CPU nötig: für kommende 128-Corer muss die Effizienz deutlich steigen, damit diese Sinn ergeben.
Zuletzt: gegen Alderlake stellt man anfangs Ryzen-3D, der aufgrund des L3 vermutlich weiterhin die Gaming-Krone behalten dürfte. In MT-Anwendungen wird Threadripper weiterhin weit vor Alderlake bleiben vor allem weil die Threadripper-Plattform vom günstigen DDR4-Ram profitiert, von dem hier große Mengen zum Einsatz kommen.
=> Diesize spielt aktuell wieder eine ganz neue Rolle, sodass hierdurch Produkt-"Abwandlungen" entstehen dürften, die bisher nicht auf der Roadmap standen, z.B. eine Version von Rembrandt ohne iGPU.
Hinzu kommt die neue Konkurrenz durch Intels Alderlake, dessen neues Konzept nicht nur Vorteile mit sich bringt, sodass dann vermutlich Intel und AMD nur noch jeweils in bestimmten Szenarien die bessere CPU haben und daher nicht mehr zwanglsäufig über den Preis konkurrieren müssen: jeder vermarktet seine Produkte dort, wo er besser ist. Zudem dürfte Alderlakes Die recht groß sein.
=> In einer knappen Welt muss keiner von beiden mehr über den Preis vekaufen
Vor diesem Hintergrund ist es für mich verständlich, dass sich AMD seit einiger Zeit sehr bedeckt über kommende Produkte hält, da die ursprünglich geplanten Konzepte sich heute als ungünstig und daher mehr oder minder als überholt darstellen könnten.
=> die bekannten Roadmaps dürften sich verändern (die klaren Milestones "Zen4", "RNDA3" ändern sich sicher nicht, aber die jeweiligen Produkte dürfte in ihrer Ausführung an die neue Situation anpasst werden um z.B. Diesize zu sparen).
Was ich meine, bisher von AMD vernommen zu haben:
So gäbe es aktuell klare Preferenzen: zuerst Server, dann Notebook, dann Desktop-CPU, dann Midrange APU und ganz am Ende GPU (hier Highend- vor Lowend-GPU).
Interessant dabei die Position von Notebook vor Desktop: hier heißt es neuerdings (siehe Video 5 Jahre Ryzen), dass AMD als zentrales Differnzierungsmerkmal für Notebook höchste Effizienz ansieht, woraus ich schließe, dass man sich sicher zu sein scheint, hier mit Rembrandt weit vor Intel zu landen und ein entsprechend gutes Produkt zu haben. Und hohe Effizienz ist ebenso für die großen Server-CPU nötig: für kommende 128-Corer muss die Effizienz deutlich steigen, damit diese Sinn ergeben.
Zuletzt: gegen Alderlake stellt man anfangs Ryzen-3D, der aufgrund des L3 vermutlich weiterhin die Gaming-Krone behalten dürfte. In MT-Anwendungen wird Threadripper weiterhin weit vor Alderlake bleiben vor allem weil die Threadripper-Plattform vom günstigen DDR4-Ram profitiert, von dem hier große Mengen zum Einsatz kommen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Welchen Vorteil sollte das AMD einbringen? Wer heute diskrete GPUs kaufen muß, der verschiebt bei weiter anhaltender Chipknappheit den Kauf bis vernünftige Preise kommen - warum eine CPU kreieren für viel Geld, welche ebenfalls von der Verfügbarkeit von dGPUs abhängt? Den Unfug hast Du nun wirklich alles Nase lang geschrieben. AMD hat CPUs ohne iGPU im Markt und auf der Roadmap, da muss kein Rembrandt-Derivat her. Viel eher ist zu erwarten, dass die APUs die kleineren CPUs bis 8 Kerne ersetzen um mehr Chiplets verfügbar zu machen für Server/HEDT. Je mehr Kerne desto effizienter das Chipletdesign.=> Diesize spielt aktuell wieder eine ganz neue Rolle, sodass hierdurch Produkt-"Abwandlungen" entstehen dürften, die bisher nicht auf der Roadmap standen, z.B. eine Version von Rembrandt ohne iGPU.
Derzeit ist zu erwarten, dass Rembrandt die Lücke von iGPUs im Desktop zur RX6600 etwas verkleinert und bei den Features aufholt . Damit die APUs für diejenigen interessant wird, die bisher dGPUs im Bereich bis 150.- € gekauft haben für Ihre Systeme.
Das hat AMD vor Jahren mit den Chiplets schon getan und einen gewaltigen Vorsprung gegenüber der Konkurrenz. Welche Roadmap Anpassung sollte denn hier noch erfolgen? Erneut dieser Unsinn, der dir hier ebenfalls schon widerlegt wurde, wegen der Abhängigkeit zu den OEMs von einer langfristig planbaren Roadmap.=> die bekannten Roadmaps dürften sich verändern (die klaren Milestones "Zen4", "RNDA3" ändern sich sicher nicht, aber die jeweiligen Produkte dürfte in ihrer Ausführung an die neue Situation anpasst werden um z.B. Diesize zu sparen).
Alder Lake wird AMD über den Preis jederzeit kontern können, sollte dies überhaupt nötig sein, um Marktanteile schneller hinzu zu gewinnen. Bei der aktuellen Chipversorgung muss überhaupt keiner auf den anderen reagieren mit Preissenkungen - demzufolge auch sicher nicht mit einer Änderung der Roadmap.
AMD hat hier schon eine recht gute Positionierung erreicht.
So funktioniert das aber nicht.
Die Chipfertigung beginnt 4 - 5 Jahre vor dem Release eines Chips. Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen. Da das Tape-Out für Zen4 schon erfolgt ist, so gibt es da keinerlei Änderungsmöglichkeiten mehr. Änderungen um Diesize zu sparen sind nicht möglich.
Die Chipfertigung beginnt 4 - 5 Jahre vor dem Release eines Chips. Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen. Da das Tape-Out für Zen4 schon erfolgt ist, so gibt es da keinerlei Änderungsmöglichkeiten mehr. Änderungen um Diesize zu sparen sind nicht möglich.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Tape-outs gibt es vermutlich für viel mehr Produkte, als nachher kommen. Es sind letztlich nur Varianten der entsprechenden Produkt-Entwicklungen, so wie letztlich auch AMDs customized Abteilung dann agiert. So hatten Varianten von verschiedenen SoCs, die aber nur als ES aber nie als Produkt erschienen sind....Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen....
Nachdem die Wafer-Knappheit längst bekannt ist, gehe ich davon aus, dass man bereits anfangs auch einen Rembrandt ohne iGPU ins Tape-out geschickt haben dürfte, vermutlich auch mehr als nur die bekannte Version mit angeblich 12 CU. Ob in die Umsetzung später dann auch eine weitere Variante gegangen ist, wird sich zeigen. Ich gehe zumindest davon aus, dass eine Variante ohne iGPU später in die Pipline geschoben worden sein dürfte, aber ist natürlich nur eine Vermutung. Aufgrund wirtschaftlicher Aspekte hat sich AMDs Lage gegenüber dem Entwicklungsbeginn ja wesentlich weiter entwickelt, ebenso die Marktsituation. Vermultich glaubte auch bei AMD vor zwei Jahren noch kaum jemand so wirklich, dass sie heute da stehen, wo sie jetzt stehen.
Auffällig ist: bis zur CES sind nur noch drei Monate, aber dennoch erfährt man so gut wie gar nichts über die kommenden APUs, die aber den OEMs lange vorher bekannt sein müssen, da Notebooks ja lange Vorlaufzeiten haben. Daher: lassen wir uns überraschen, was wirklich kommt.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Wie kommst Du denn darauf? Quelle?Tape-outs gibt es vermutlich für viel mehr Produkte, als nachher kommen....Nach dem Tape-Out gibt es keinerlei Änderungsmöglichkeiten mehr denn dann wird die Photomaske produziert und der Produktionsprozess startet. Da der Tape-Out in der Regel 12 Monate vor Verkauf beginnt, bedeutet das, dass aller letzte Änderungen mind. 24 Monate vor Verkauf durchgeführt werden müssen....
Erneut würde ich gerne wissen wie Du auf diese Prämisse kommst?Nachdem die Wafer-Knappheit längst bekannt ist, gehe ich davon aus, dass man bereits anfangs auch einen Rembrandt ohne iGPU ins Tape-out geschickt haben dürfte, vermutlich auch mehr als nur die bekannte Version mit angeblich 12 CU.
Hier mal eine grobe Übersicht über was Du da redest:
Ein Tapeout kostet in 5nm über 400 Mio. - das Tapeout wird benötigt um einen ersten Prototyp zu validieren. Also nur noch die beiden oberen Segmente des Prozesses müssen abgeschlossen werden. Wie viele solcher "Tapeouts für die Tonne" macht denn Deiner Meinung nach ein Chiphersteller pro Generation?
Tape-out - Wikipedia
en.wikipedia.org
The term tapeout currently is used to describe the creation of the photomask itself from the final approved electronic CAD file. Designers may use this term to refer to the writing of the final file to disk or CD and its subsequent transmission to the semiconductor foundry; however, in current practice the foundry will perform checks and make modifications to the mask design specific to the manufacturing process before actual tapeout. These modifications of the mask data include:[2]
- Chip finishing which includes custom designations and structures to improve manufacturability of the layout. Examples of the latter are a seal ring and filler structures.
- Producing a reticle layout with test patterns and alignment marks.[2]
- Layout-to-mask preparation that enhances layout data with graphics operations and adjusts the data to mask production devices. This step includes resolution enhancement technologies (RET), such as optical proximity correction (OPC) which corrects for the wave-like behavior of light when etching the nano scale features of the most modern integrated circuits.[1]
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
@Complicated:
Erst mal Danke für Dein Feedback! Es geht mir hier nicht darum irgenwie Recht zu haben, sondern Gedanken auszutauschen, was wie möglich sein könnte.
Die Grafik "Advanced Design Cost" kenne ich in ähnlicher Form, allerdings war dann dort ein Großteil davon als "Maskenkosten" dargestellt, was hier fehlt, weil es hier anscheinend um die Kosten bis zum ES geht. Sieht man sich die einzelnen Posten davon an, liegt nahe, dass diese entsprechend kleiner werden, wenn man ein fertiges Tape-out quasi nur customized, z.B. ein paar Building-Blocks hinzu fügt. Anders wären Customized Designs in 7nm gar nicht mehr möglich, wenn das Ding dann nicht >1 Mrd.$ einspielt.
Logischerweise sollte nur ein Bruchteil der Design-/Test-Kosten anfallen, wenn man in einer Variante eines Designs lediglich Building-Blocks weg fallen lässt, d.h. es wird ja nichts Neues aufwändig entwickelt. Vor allem: wenn ich Teile eines Designs deaktivieren kann (z.B. die iGPU von Renoir oder Cezanne), weil dort irgendetwas nicht richtig funktioniert, und das Ding so genauso läuft - nur ohne die deaktivierten Funktionen -, dann drängt sich in der Konsequenz auf, dass das gleiche Design bereits so konstruiert werden kann, dass es auch gleich ohne diesen Teil belichtet/hergestellt werden kann. Es fielen dann so gut wie keine neuen Design-Kosten mehr an, oder?
Erst mal Danke für Dein Feedback! Es geht mir hier nicht darum irgenwie Recht zu haben, sondern Gedanken auszutauschen, was wie möglich sein könnte.
Die Grafik "Advanced Design Cost" kenne ich in ähnlicher Form, allerdings war dann dort ein Großteil davon als "Maskenkosten" dargestellt, was hier fehlt, weil es hier anscheinend um die Kosten bis zum ES geht. Sieht man sich die einzelnen Posten davon an, liegt nahe, dass diese entsprechend kleiner werden, wenn man ein fertiges Tape-out quasi nur customized, z.B. ein paar Building-Blocks hinzu fügt. Anders wären Customized Designs in 7nm gar nicht mehr möglich, wenn das Ding dann nicht >1 Mrd.$ einspielt.
Logischerweise sollte nur ein Bruchteil der Design-/Test-Kosten anfallen, wenn man in einer Variante eines Designs lediglich Building-Blocks weg fallen lässt, d.h. es wird ja nichts Neues aufwändig entwickelt. Vor allem: wenn ich Teile eines Designs deaktivieren kann (z.B. die iGPU von Renoir oder Cezanne), weil dort irgendetwas nicht richtig funktioniert, und das Ding so genauso läuft - nur ohne die deaktivierten Funktionen -, dann drängt sich in der Konsequenz auf, dass das gleiche Design bereits so konstruiert werden kann, dass es auch gleich ohne diesen Teil belichtet/hergestellt werden kann. Es fielen dann so gut wie keine neuen Design-Kosten mehr an, oder?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Das Big-Little Prinzip scheint ja beim Alder Lake-S ganz gut zu laufen: https://www.computerbase.de/2021-10...9-12900k-schlaegt-amd-ryzen-9-5950x-deutlich/
Allerdings gibt es ein kleines Detail, was mich direkt zum Lachen brachte:
108°C & 257W Package Power...
So Effizient sieht das noch nicht aus, da reicht das B2 Stepping um zu Kontern.
Allerdings gibt es ein kleines Detail, was mich direkt zum Lachen brachte:
108°C & 257W Package Power...
So Effizient sieht das noch nicht aus, da reicht das B2 Stepping um zu Kontern.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Mir geht es auch nicht um Recht haben, sondern um die falschen Voraussetzungen, die Du aufstellst und dadurch zu den falschen Schlußfolgerungen gelangst.Erst mal Danke für Dein Feedback! Es geht mir hier nicht darum irgenwie Recht zu haben, sondern Gedanken auszutauschen, was wie möglich sein könnte.
Das fehlt hier nicht. Es gibt kein Tapeout ohne fertige Masken. Die Masken fertig zu designen ist was vor dem Tapout kommt. Das Tapeout des produktionsfertigen Design benötigt Masken die funktionieren. Ansonsten kein Tapeout.Die Grafik "Advanced Design Cost" kenne ich in ähnlicher Form, allerdings war dann dort ein Großteil davon als "Maskenkosten" dargestellt, was hier fehlt, weil es hier anscheinend um die Kosten bis zum ES geht.
Das ist einfach eine falsche Vorstellung - so funktioniert das nicht. Du kannst ja mal schauen was ein Respin (das wäre eine Änderung, wie Du sie beschreibst) an Zeit und Kosten verursacht, wenn das tapeout nicht die gewünschten Yields in Produktion bringt. Und ganz sicher ist das weglassen der iGPU kein einfacher Respin, sondern ein komplett neues Design mit den vollen Kosten.Sieht man sich die einzelnen Posten davon an, liegt nahe, dass diese entsprechend kleiner werden, wenn man ein fertiges Tape-out quasi nur customized, z.B. ein paar Building-Blocks hinzu fügt. Anders wären Customized Designs in 7nm gar nicht mehr möglich, wenn das Ding dann nicht >1 Mrd.$ einspielt.
Das stellst Du Dir einfach falsch vor. Nichts davon ist logisch....und was Du beschreibst (deaktivieren) spart keine Waferfläche und benötigt kein eigenes Design. Sobald Du die Teile weg nimmst um tatsächlich den Die zu verkleinern ist ein komplettes Design nötig. Der Vorteil der Buidingblocks ist nicht , dass Du Designkosten für den Chip sparst bei Semi-Customs. Der Vorteil ist, dass Du beim Design auf diese IP zugreifen kannst um einen Leistungsfähigen Chip herzustellen, ohne die Architektur neu zu entwickeln.Logischerweise sollte nur ein Bruchteil der Design-/Test-Kosten anfallen, wenn man in einer Variante eines Designs lediglich Building-Blocks weg fallen lässt, d.h. es wird ja nichts Neues aufwändig entwickelt. Vor allem: wenn ich Teile eines Designs deaktivieren kann (z.B. die iGPU von Renoir oder Cezanne), weil dort irgendetwas nicht richtig funktioniert, und das Ding so genauso läuft - nur ohne die deaktivierten Funktionen -, dann drängt sich in der Konsequenz auf, dass das gleiche Design bereits so konstruiert werden kann, dass es auch gleich ohne diesen Teil belichtet/hergestellt werden kann. Es fielen dann so gut wie keine neuen Design-Kosten mehr an, oder?
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Ein Tapeout kostet in 5nm über 400 Mio. - das Tapeout wird benötigt um einen ersten Prototyp zu validieren. Also nur noch die beiden oberen Segmente des Prozesses müssen abgeschlossen werden. Wie viele solcher "Tapeouts für die Tonne" macht denn Deiner Meinung nach ein Chiphersteller pro Generation?
Wow. Danke für die Info. Ich hatte irgendwie noch total alte Werte im Kopf und haette da etwa 40 bis 50 Millionen veranschlagt.
Zum Thema Design noch ein interessanter Fakt:
Nvidia hat sich Oski Technology einverleibt, die übrigens auch AMD zu ihren Kunden zählen.
Oski Technology, an Expert in Formal Verification, Joins NVIDIA - Planet 3DNow!
Auf Planet 3DNow! gibt es alle wichtigen Informationen fr AMD-User: News, Downloads, Support, Tests
www.planet3dnow.de
Today, verification engineers rely on two very different methods to make sure bugs don’t make it into silicon — simulation and formal verification.
The first approach relies on millions of simulations that search for bugs, exercising corner cases in carefully designed tests.
Formal verification, Oski’s specialty, is a powerful alternative that uses mathematical analysis of a design instead of simulations to prove that a particular feature behaves correctly for all possible inputs.
Aber keine Ahnung wie weit das beim CPU- oder GPU-Design eine große Rolle spielt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Derzeitige Entwicklungen bei dem Thema sprechen auch von schnellerer Entwicklung mit Hilfe von AI. Ich bin sicher, da ist Nvidia mit Hochdruck dran.
Interessanter Bericht zu dem Thema: https://www.tomshardware.com/news/synopsys-ai-eda-gpu-design-costs
Interessanter Bericht zu dem Thema: https://www.tomshardware.com/news/synopsys-ai-eda-gpu-design-costs
1,5 Mrd bei 3nm für ein Design. Und mit AI kann man es lediglich halbieren. Aber die Beschleunigung von 24 Monaten zu 24 Wochen Designzeit ist natürlich hoch interessant für die Hersteller.Physical design of modern chips is an expensive and difficult process, and as fabrication technologies get thinner, IC design costs are escalating. Nowadays it takes years to develop a new CPU or GPU architecture and then it may easily take about 24 months or more to design physical implementation of the chip. At 3nm design cost of a sophisticated GPU will approach $1.5 billion, according to some analysts, a sum that not all companies can afford. But there is a way to cut these costs by as much as 50% and development time by orders of magnitude using AI-enabled design tools, says Synopsys.
Ähnliche Themen
- Antworten
- 731
- Aufrufe
- 50K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 763
- Aufrufe
- 100K