App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
Dass das Wachstum von AMD zur Zeit nur beschränkt erfolgen kann, sehe ich genauso. Leider erscheinen dieses Jahr alle neuen Produkte (CPUs, GPUs, Konsolen) zur gleichen Zeit. Man wird also nicht alle Produkte in ausreichender Menge anbieten können.
Warum man eine APU im Desktopsegment verkaufen will, werde ich wohl nie verstehen. Ich denke APUs wird man lieber im Notebook-Markt verkaufen wollen.
Warum man eine APU im Desktopsegment verkaufen will, werde ich wohl nie verstehen. Ich denke APUs wird man lieber im Notebook-Markt verkaufen wollen.
Maverick-F1
Grand Admiral Special
Warum man eine APU im Desktopsegment verkaufen will, werde ich wohl nie verstehen. Ich denke APUs wird man lieber im Notebook-Markt verkaufen wollen.
Längst nicht alle brauchen/wollen im Desktopbereich eine dGPU - also macht da eine APU schon Sinn, imho...
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Echt jetzt?Warum man eine APU im Desktopsegment verkaufen will, werde ich wohl nie verstehen. Ich denke APUs wird man lieber im Notebook-Markt verkaufen wollen.
al_ghandi
Commander
- Mitglied seit
- 31.10.2012
- Beiträge
- 195
- Renomée
- 8
Ich will auch ne APU - Vielleicht wird die Lieferbarkeit mit den Embedded Renoir endlich besser.
Wer nicht zockt braucht die Grafik nur als Mediaplayer. Für eine kleine aktuelle günstige stromsparende Grafikkarte ist bestimmt auch ein Nischenmarkt da.
Wer nicht zockt braucht die Grafik nur als Mediaplayer. Für eine kleine aktuelle günstige stromsparende Grafikkarte ist bestimmt auch ein Nischenmarkt da.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Die Xilinx Übernahme wird schon in Kooperationen umgemünzt:
IBM and AMD Partner Up to Accelerate Development in Cloud Computing and Artificial Intelligence
International Business Machines (NYSE: IBM) and Advanced Micro Devices (NASDAQ: AMD) today announced a multiyear agreement to bolster security and artificial intelligence (AI). Under terms of the deal, the two tech giants will collaborate on advancing confidential computing in hy
www.nasdaq.com
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Bin mir nicht sicher, ob AMD mit dem Chiplet Ansatz so weitermacht.
Es gibt in 7nm die Konsolenchips, die deutlich größer sind und anscheinend auch ein ordentliches Yield haben, sonst wären die Konsolen nicht wirtschaftlich. Dann kommt in 5nm Apple mit dem M1, der zeigt, dass im nächsten Node auch mit vielen Transistoren gute Yields möglich sind. Bis AMD in dem Node ankommt, ist der weitgehend ausgereift, auch wenn AMD höhere Takte fahren will.
MfG
Es gibt in 7nm die Konsolenchips, die deutlich größer sind und anscheinend auch ein ordentliches Yield haben, sonst wären die Konsolen nicht wirtschaftlich. Dann kommt in 5nm Apple mit dem M1, der zeigt, dass im nächsten Node auch mit vielen Transistoren gute Yields möglich sind. Bis AMD in dem Node ankommt, ist der weitgehend ausgereift, auch wenn AMD höhere Takte fahren will.
MfG
erde-m
Grand Admiral Special
- Mitglied seit
- 23.03.2002
- Beiträge
- 3.272
- Renomée
- 452
- Standort
- TF
- Mitglied der Planet 3DNow! Kavallerie!
- Lieblingsprojekt
- LHC
- Meine Systeme
- AMD Ryzen9 5950X+64 GB DDR3600+RX6900XT, AMD Epyc 7V12+256 GB ECC DDR3200+R VII, AMD Ryzen 5 2500U
- BOINC-Statistiken
- Mein Laptop
- HP Envy x360 15-bq102ng Ryzen 5 2500U
- Prozessor
- AMD Ryzen9 5950X
- Mainboard
- Asus Prime X470-Pro
- Kühlung
- be quiet Silent Loop 280mm
- Speicher
- 64GB (4x16GB) G.Skill TridentZ Neo F4-3600C16-64GTZNC Quad Kit
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- Acer Pro Designer PE320QK
- SSD
- M2: 2x Samsung 970Evo Plus 1TB
- HDD
- WDC WD100EFAX
- Soundkarte
- Onboard
- Gehäuse
- Fractal Define 7 Clear Tempered Glass White
- Netzteil
- bequiet Dark Power 12 1000W
- Tastatur
- Logitech G815
- Maus
- Logitech G402
- Betriebssystem
- Linux Mint 21.2; Win10Pro-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- Qnap Single-port Aquantia AQC107 10GbE
- Internetanbindung
- ▼225 MBit ▲45 MBit
Die Kosten steigen mit jeder weiteren Fertigungsnode deutlich an und der Chiplet-Ansatz bringt eine Mengen Flexibilität. Je nach Aufgabe des Chiplets läßt sich so die optimale Fertigung (auch aus Kostensicht) wählen. Aus wenigen verschiedenen Chiplet so eine Vielzahl verschiedener Prozessoren konfigurieren. Das wird wohl eher noch weiter ausgefeilt werden. Wenn sich so auch eine bereits gute Ausbeute weiter erhöhen lässt - warum nicht?
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Wenn die deutlich größeren Konsolenchips schon eine Ausbeute von, frei erfundenen, 90% haben, dann müssen die Chiplets eine Ausbeute von, nicht ernstnehmen, 140% haben, um die Kosten des Packaging, etc. wieder reinzuholen.
Jenseits der von mir fabulierten Prozentangaben - es gibt wohl einen Grenz-Yield, oberhalb dessen es wenig Sinn macht, die Chips in kleineren Portionen zu fertigen. Natürlich ist das Chiplet Konzept insgesamt gerade für Server gut, wo man Chiplets aus dem gleichen Binning zusammennehmen kann. Aber anscheinend hat sich AMD bei der APU ja schon gegen ein Chiplet Konzept entschieden, und warum braucht Apple das bei 5nm nicht zu machen?
MfG
Jenseits der von mir fabulierten Prozentangaben - es gibt wohl einen Grenz-Yield, oberhalb dessen es wenig Sinn macht, die Chips in kleineren Portionen zu fertigen. Natürlich ist das Chiplet Konzept insgesamt gerade für Server gut, wo man Chiplets aus dem gleichen Binning zusammennehmen kann. Aber anscheinend hat sich AMD bei der APU ja schon gegen ein Chiplet Konzept entschieden, und warum braucht Apple das bei 5nm nicht zu machen?
MfG
Nein müssen sie nicht. Man bekommt mit Chiplets aus einem Wafer viel mehr Chips. Damit steigen zwar die Kosten für das Packaging/Wafer aber man verkauft auch mehr Chips und holt damit die Mehrkosten locker wieder rein.Wenn die deutlich größeren Konsolenchips schon eine Ausbeute von, frei erfundenen, 90% haben, dann müssen die Chiplets eine Ausbeute von, nicht ernstnehmen, 140% haben, um die Kosten des Packaging, etc. wieder reinzuholen.
Ich denke nicht dass sich AMD bei den APUs gegen ein Chiplet Konzept entschieden hat, sondern erwarte erst mit RDNA3 Chiplets im GPU-Bereich.
Warum Apple das bei 5nm nicht tut ist eine gute Frage. Genau so interessant ist auch warum Intel das bei 14nm nicht tut.
Vielleicht haben die Entwickler das zu Beginn der Entwicklung nicht auf dem Schirm gehabt oder es ist technologisch nicht so einfach umsetzbar oder ...
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Meinst du mit dem Mehr an Chips jetzt den geringeren Randverschnitt? Dass kleinere Chips in größerer Anzahl auf dem Wafer daherkommen als größere, wird ja niemanden wundern...
Intel hat es bei 14nm nicht gemacht, weil es noch keinen Grund dazu gab. Es hat ja bei 14nm industrieweit auch sonst niemand gemacht. Man muss das ja auch beizeiten planen, wenn man noch keine so großen Erkenntnisse über den Prozess hat. M.E. ist AMD bei 7nm vorsichtig pessimistisch gewesen. Im Gegensatz zu z.B. Apple bei 5nm.
MfG
Intel hat es bei 14nm nicht gemacht, weil es noch keinen Grund dazu gab. Es hat ja bei 14nm industrieweit auch sonst niemand gemacht. Man muss das ja auch beizeiten planen, wenn man noch keine so großen Erkenntnisse über den Prozess hat. M.E. ist AMD bei 7nm vorsichtig pessimistisch gewesen. Im Gegensatz zu z.B. Apple bei 5nm.
MfG
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Die Fläche des Wafers nutzt man bei beiden gut aus. Bei kleineren Chiplets etwas besser, aber das ist das vorrangige Problem. Der wesentlichere Vorteil ist, dass du beim Chipletansatz einen großen Teil der finalen Fläche nicht im High-End Node produzieren musst (nämlich den IO Die) und das spart massiv Chipfläche ein.Meinst du mit dem Mehr an Chips jetzt den geringeren Randverschnitt? Dass kleinere Chips in größerer Anzahl auf dem Wafer daherkommen als größere, wird ja niemanden wundern...
Intel hat es bei 14nm nicht gemacht, weil es noch keinen Grund dazu gab. Es hat ja bei 14nm industrieweit auch sonst niemand gemacht. Man muss das ja auch beizeiten planen, wenn man noch keine so großen Erkenntnisse über den Prozess hat. M.E. ist AMD bei 7nm vorsichtig pessimistisch gewesen. Im Gegensatz zu z.B. Apple bei 5nm.
MfG
Dazu kommt, dass man im Design wesentlich Kosten einspart. AMD bietet derzeit auf Basis der Chiplets 4C, 6C, 8C, 12C, 16C, 24C, 32C, 64C an.
Alles mit einem Chiplet, d.h. einem Waferdesign. Natürlich dann noch + 2 weitere Designs für die IO Dies.
Würde man wie Intel monolithisch verfahren bräuchte man mindestens 5 Designs um das halbwegs vernünftig abzudecken und ob man so wirklich gut einen 64C hinbekommen würde (also bei gutem Yield etc.) steht in den Sternen.
Mit Chiplets ist im Grunde jeder dieser Prozessoren ein garantierter Gewinn, egal ob man nun 2, 4 oder 8 davon auf das Package packt.
Theoretisch könnte man natürlich hergehen und nur für den Desktopmarkt monolithische Designs herstellen, z.B. mit 8C.
Nur: wozu? Letztendlich macht es sich eigentlich nur im Idle-Verbrauch wirklich bemerkbar und da vermutlich auch eher weil der IO Die noch nicht wirklich perfekt ausoptimiert ist (die ca. 10W kommen hauptsächlich daher).
Ich denke das wird über die nächsten 2-3 Generationen noch deutlich verbessert.
Unter Volllast sieht Intel doch eh nur die Rücklichter.
Ansonsten bleibt als Argument eigentlich nur noch die Sache mit den Latenzen. Aber mal ehrlich: außer ein paar Über-Nerds interessiert das einfach niemanden, also sehe ich da auch nicht wirklich viel Grund deshalb was zu ändern.
Zumal das auch immer besser wird, trotz Chiplets.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Die Konsolen sind auch ein denkbar schlechter Vergleich/Maßstab mit der großen integrierten GPU. Da müsste bei Chiplets noch die GPU angebunden werden, was wiederum Kosten verursacht. Zudem bezahlen das Sony und MS, die keine Zweit-Verwendung für Chiplets haben und auch nicht für diskrete GPUs.
Die Kalkulation sieht da anders aus wenn nur eine SKU aus dem Design entsteht.
Die Chiplet-Strategie kann nur unternehmensweit im Mix beurteilt werden, und nicht auf SKU Ebene.
Die Kalkulation sieht da anders aus wenn nur eine SKU aus dem Design entsteht.
Die Chiplet-Strategie kann nur unternehmensweit im Mix beurteilt werden, und nicht auf SKU Ebene.
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Das Konzept hinter den Chiplets hatte ich bereits verstanden.
Die Konsolen sind auch insofern ein schlechter Vergleich, weil bisher niemand anderes GPU Chiplets mit CPU Chiplets mixt. Da ist es die Frage, ob das nicht generell Schwierigekeiten macht. Ganze GPUs aus einzelnen GPU-Chiplets herzustellen, schafft ja auch keiner, obwohl es ökonomisch von großem Vorteil wäre.
Wenn man allerdings bei den Konsolenchips schlechte Yields hätte und es technisch möglich wäre, könnte man seine Yields durch Trennung von CPU, GPU und IO Die deutlich steigern.
Ansonsten gilt die Argumentation bei Apple sicher auch, dass man ein IO-Die in einem günstigeren Node herstellen könnte als 5nm. Und Apple hat da noch viel mehr Bausteine auf dem Chip, das schreit geradezu nach einem Multi-Node-Ansatz.
Hier zieht dann eher Complicates Gegenargument, dass Apple (bisher) kein M1 Portfolio mit unterschiedlichen SKUs hat. Aber das kann ja noch kommen, schließlich sind wir erst am Anfang der Mac-ARM-Aera, und bei den iPhone/iPad Chips bringt Apple auch immer verschiedene Modelle raus, die dann teilweise einen Chip aus dem Vorjahr beherbergen. So weit ist das nicht entfernt.
Aber da lohnt sich der Chiplet Ansatz bisher offensichtlich nicht.
Ich denke, man muss es so sehen, dass AMD seine Chiplets für die Server Prozessoren ohnehin braucht und die Verwendung bei den Desktop CPUs der Beifang davon ist. Bis zur APU will man aber auch nicht gehen.
MfG
Die Konsolen sind auch insofern ein schlechter Vergleich, weil bisher niemand anderes GPU Chiplets mit CPU Chiplets mixt. Da ist es die Frage, ob das nicht generell Schwierigekeiten macht. Ganze GPUs aus einzelnen GPU-Chiplets herzustellen, schafft ja auch keiner, obwohl es ökonomisch von großem Vorteil wäre.
Wenn man allerdings bei den Konsolenchips schlechte Yields hätte und es technisch möglich wäre, könnte man seine Yields durch Trennung von CPU, GPU und IO Die deutlich steigern.
Ansonsten gilt die Argumentation bei Apple sicher auch, dass man ein IO-Die in einem günstigeren Node herstellen könnte als 5nm. Und Apple hat da noch viel mehr Bausteine auf dem Chip, das schreit geradezu nach einem Multi-Node-Ansatz.
Hier zieht dann eher Complicates Gegenargument, dass Apple (bisher) kein M1 Portfolio mit unterschiedlichen SKUs hat. Aber das kann ja noch kommen, schließlich sind wir erst am Anfang der Mac-ARM-Aera, und bei den iPhone/iPad Chips bringt Apple auch immer verschiedene Modelle raus, die dann teilweise einen Chip aus dem Vorjahr beherbergen. So weit ist das nicht entfernt.
Aber da lohnt sich der Chiplet Ansatz bisher offensichtlich nicht.
Ich denke, man muss es so sehen, dass AMD seine Chiplets für die Server Prozessoren ohnehin braucht und die Verwendung bei den Desktop CPUs der Beifang davon ist. Bis zur APU will man aber auch nicht gehen.
MfG
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Chiplets sind designbedingt auch mit einem Mindest-Stromverbrauch durch den Interconnect im Nachteil, je stromsparender das Endgerät sein muss. Es gibt einen Breakeven den AMD ja auch mit seinen APUs beschreitet, wie man an den Renoirs im Notebook sehen kann. Hier wird Apple, die ja aus der mobile Seite kommen, einen größeren Headroom haben, solange sie nicht vor haben mit den 32-Kern Server CPUs zu konkurrieren. AMD nutzt die Chiplets in Märkten, die ausser Intel niemand übergreifend bedient. Daher sind auch die Vorteile eines solchen Chipletsdesign geringer für andere.
Shearer
Grand Admiral Special
- Mitglied seit
- 21.11.2001
- Beiträge
- 3.051
- Renomée
- 71
- Standort
- Munich, Germany
- Mein Laptop
- HP Elitebook 745 G5 AMD Ryzen R7 2700U
- Prozessor
- Intel Core i5-4590T 4x 2.00 GHz
- Mainboard
- HP Elitedesk 800 DM G1
- Kühlung
- HP
- Speicher
- 2x 8 GB DDR3, Corsair
- Grafikprozessor
- Intel HD4600
- Display
- 2x HP E273q
- SSD
- 256 GB Samsung XP941
- HDD
- 1000 GB Crucial MX500
- Soundkarte
- Intel Onboard
- Gehäuse
- HP Elitedesk 800 DM G1
- Netzteil
- HP 65W
- Betriebssystem
- Win11 Pro 64
- Webbrowser
- Firefox
Jetzt wo Apple erfolgreich On-Package RAM eingeführt hat, wäre das ja auch eine Idee für AMD, zumindest bei den Mobile APU´s. Gleich 16GB LPDDR 4 oder 5 mit drauf löten und zufrieden sind die OEM´s. Der Performance und dem Stromverbrauch dürfte das auch gut tun.
Glaube BavarianRealist hat sich das bereits für Renoir gewünscht.
Konkurrenz belebt das Geschäft.
Glaube BavarianRealist hat sich das bereits für Renoir gewünscht.
Konkurrenz belebt das Geschäft.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Würde ich mir auch wünsche. Dann müßte allerdings AMD den RAM einkaufen und den Preis entsprechend höher ansetzen um bei den OEMs deren Preis erhöhen - ich denke es hängt hier an Preisschwankungen des RAMs (Kaufzeitpunkt wenn der OEM es braucht oder mit der Bestellung der CPU von AMD gekauft inkl. Packaging)
Apple hat diesen Faktor nicht. Ich denke der x86-OEM-Markt hat mit den Komponenten bestimmte eigene Preisdynakmiken und Kalkulationsvorlaufzeiten. Technisch ist glaube ich nicht das Problem. Doch wollen die Ram-Hersteller nur noch 3 Kunden im Mobile bedienen? Intel, Apple und AMD?
Apple hat diesen Faktor nicht. Ich denke der x86-OEM-Markt hat mit den Komponenten bestimmte eigene Preisdynakmiken und Kalkulationsvorlaufzeiten. Technisch ist glaube ich nicht das Problem. Doch wollen die Ram-Hersteller nur noch 3 Kunden im Mobile bedienen? Intel, Apple und AMD?
Shearer
Grand Admiral Special
- Mitglied seit
- 21.11.2001
- Beiträge
- 3.051
- Renomée
- 71
- Standort
- Munich, Germany
- Mein Laptop
- HP Elitebook 745 G5 AMD Ryzen R7 2700U
- Prozessor
- Intel Core i5-4590T 4x 2.00 GHz
- Mainboard
- HP Elitedesk 800 DM G1
- Kühlung
- HP
- Speicher
- 2x 8 GB DDR3, Corsair
- Grafikprozessor
- Intel HD4600
- Display
- 2x HP E273q
- SSD
- 256 GB Samsung XP941
- HDD
- 1000 GB Crucial MX500
- Soundkarte
- Intel Onboard
- Gehäuse
- HP Elitedesk 800 DM G1
- Netzteil
- HP 65W
- Betriebssystem
- Win11 Pro 64
- Webbrowser
- Firefox
AMD würde sowas vermutlich eh nur auf Kundenverlangen entwickeln. D.h. wenn die großen OEM´s sagen, ja RAM on Package das wollen wir, dann würde es AMD ggfs. entwickeln und anbieten und dann auch nur den OEM´s.
Und für den Einkauf gibt es garantiert entsprechende Möglichkeiten. Ein Smartphonehersteller muss ja auch seinen Flash-Speicher einkaufen und macht das bestimmt zu fixierten Preisen und nicht volatil je nach Marktlage. Und den OEMs gehts ja beim RAM auch nicht anders.
Und für den Einkauf gibt es garantiert entsprechende Möglichkeiten. Ein Smartphonehersteller muss ja auch seinen Flash-Speicher einkaufen und macht das bestimmt zu fixierten Preisen und nicht volatil je nach Marktlage. Und den OEMs gehts ja beim RAM auch nicht anders.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ja da gibt es sicherlich Möglichkeiten, nur das sind eben dann benötigte Absprachen die man treffen muss, die oft wenig mit der Technik selber zu tun haben.
Wenn die großen OEMs den Speicher billiger bekommen als AMD, da sie die ja noch für die Intels mit nutzen, dann wird es sich vielleicht mit mehr Marktanteil von AMD an einem bestimmten Punkt lohnen, wenn AMD dann für 3-4 große 20-30% des Speichers und für alle kleinen OEMs zusammen die entsprechende Mengen ordern kann um die selbe Preise zu bekommen mit Rabatt.
Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
Wenn die großen OEMs den Speicher billiger bekommen als AMD, da sie die ja noch für die Intels mit nutzen, dann wird es sich vielleicht mit mehr Marktanteil von AMD an einem bestimmten Punkt lohnen, wenn AMD dann für 3-4 große 20-30% des Speichers und für alle kleinen OEMs zusammen die entsprechende Mengen ordern kann um die selbe Preise zu bekommen mit Rabatt.
Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.249
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Auf der anderen Seite fällt für die OEM's das Design der Hauptplatine einfacher aus, wenn viele Leiterbahnen erst gar nicht gezogen werden müssen. Und so ein bereits zusammengelötetes Konstrukt wäre so leichter auf andere Hauptplatinen einsetzbar.Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
Ich glaube GPUs auf Chiplet-Basis kommen mit der nächsten Generation von AMD. Dann sehen wir auch Chiplets mit GPU und CPU bei den APUs.Ganze GPUs aus einzelnen GPU-Chiplets herzustellen, schafft ja auch keiner, obwohl es ökonomisch von großem Vorteil wäre.
Ich denke, man muss es so sehen, dass AMD seine Chiplets für die Server Prozessoren ohnehin braucht und die Verwendung bei den Desktop CPUs der Beifang davon ist. Bis zur APU will man aber auch nicht gehen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Auf jeden Fall.Auf der anderen Seite fällt für die OEM's das Design der Hauptplatine einfacher aus, wenn viele Leiterbahnen erst gar nicht gezogen werden müssen. Und so ein bereits zusammengelötetes Konstrukt wäre so leichter auf andere Hauptplatinen einsetzbar.Könnte auch mit ein Problem der HBM-GPUs im Consumer Segment sein bei den OEMs, dass das Package teurer ist als selber die Komponenten einzeln einzukaufen mit GDDR5/6.
Doch der HBM Speicher ist dann wiederum teurer als GDDR6+Interposer+Packaging für HBM. Da kommt es dann darauf an wann die Balance in die richtige Richtung kippt. Das kann sich durch plötzlich schwankenden Preis und Steigerung der Speichermenge schnell verschieben, wenn es knapp ist. Möglichweise warten die OEM erst auf einen deutlichen und dauerhaften Vorteil um das ganze dann insgesamt auf onPackage-RAM umzustellen. Du brauchst ja sonst auch beide Designs/Board-Fertigungen parallel. Damit geht dir viel Ersparnis durch simplere Boards wieder flöten, wenn du weiter komplexe Boards bauen musst mit weniger Stückzahlen - das ganze Portfolio betrachtet könnte das insgesamt mehr Unternehmenskosten bedeuten für GPU AIBs.
Doppelposting wurde automatisch zusammengeführt:
Huawei mit AMD-Desktop:
Huawei MateStation desktop available on its website, powered by AMD processors - CnTechPost
After many rumors, Huawei's desktop computer, the MateStation B515, has finally appeared on Huawei's website.
cntechpost.com
Zuletzt bearbeitet:
Shearer
Grand Admiral Special
- Mitglied seit
- 21.11.2001
- Beiträge
- 3.051
- Renomée
- 71
- Standort
- Munich, Germany
- Mein Laptop
- HP Elitebook 745 G5 AMD Ryzen R7 2700U
- Prozessor
- Intel Core i5-4590T 4x 2.00 GHz
- Mainboard
- HP Elitedesk 800 DM G1
- Kühlung
- HP
- Speicher
- 2x 8 GB DDR3, Corsair
- Grafikprozessor
- Intel HD4600
- Display
- 2x HP E273q
- SSD
- 256 GB Samsung XP941
- HDD
- 1000 GB Crucial MX500
- Soundkarte
- Intel Onboard
- Gehäuse
- HP Elitedesk 800 DM G1
- Netzteil
- HP 65W
- Betriebssystem
- Win11 Pro 64
- Webbrowser
- Firefox
APU´s auf Chiplet Basis kann ich mir nur schwer vorstellen, zumindest nicht von AMD... AMD braucht effiziente Mobile APU´s, die Desktop APU´s sind nur "Abfall" der mobilen Entwicklung.
Zudem, ist es fraglich, wieviel "mehr" an Grafikpower eine APU benötigt. Würde das ein Chiplet rechtfertigen? Die meisten APU´s gehen doch in Maschinen, die kaum Grafikpower benötigen.
On Package RAM, klingt für mich am spannensten. Energieeffizieter LPDDR4 oder 5, direkt auf dem Package.
Zudem, ist es fraglich, wieviel "mehr" an Grafikpower eine APU benötigt. Würde das ein Chiplet rechtfertigen? Die meisten APU´s gehen doch in Maschinen, die kaum Grafikpower benötigen.
On Package RAM, klingt für mich am spannensten. Energieeffizieter LPDDR4 oder 5, direkt auf dem Package.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
HBM ist für APUs viel zu teuer, dort tut es LPDDR auch.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.553
- Renomée
- 593
Zu Vega Zeiten war die Hoffnung auf HBM Cache von 2-4 GB. Das hätte schon das Bandbreitenproblem gelöst. Jetzt mit RDNA wird man wahrscheinlich einen grossen L3 Cache nehmen um das Bottleneck zu entschärfen. Auch Intel hatte mit dem Shared Cache sehr gute Ergebnisse erzielt. Ich finde es heute noch unverständlich, dass man davon wieder abrückte.HBM ist für APUs viel zu teuer, dort tut es LPDDR auch.
Peet007
Admiral Special
Ich denke mal das es bei der APU hauptsächlich um Sparsamkeit geht, was an Hardware nicht verhanden ist kann auch nichts verbrauchen.
Einfacher Aufbau, kurze Wege. Sieht man ja am Verbrauch bei den Laptops. Trotzdem sehr Leistungsfähig.
Einfacher Aufbau, kurze Wege. Sieht man ja am Verbrauch bei den Laptops. Trotzdem sehr Leistungsfähig.
Ähnliche Themen
- Antworten
- 731
- Aufrufe
- 51K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 763
- Aufrufe
- 100K