App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
Höhere Auflösungen brauchen auch höhere CPU Power, das ist teilweise richtig. Die Behauptung höhere Auflösung braucht weniger CPU-Power hält sich hartnäckig weil man in 4K und neueren Engines des Öfteren ins GPU-Limit stößt.
Die Frage ist halt wie verbreitet das Wissen ist.
Die Frage ist halt wie verbreitet das Wissen ist.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.180
- Renomée
- 2.298
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Einfach mal die Frameraten bei unterschiedlichen Auflösungen im harten CPU Limit vergleichen, sie falle sehr ähnlich aus.
Rückgänge der Framerate kommen in erster Linie durch die Verschiebung zum GPU Limit zustande. Am einfachsten läßt sich das bei alten Spielen nachvollziehen da diese für erheblich langsamere Grafikkarten ausgelegt sind.
Rückgänge der Framerate kommen in erster Linie durch die Verschiebung zum GPU Limit zustande. Am einfachsten läßt sich das bei alten Spielen nachvollziehen da diese für erheblich langsamere Grafikkarten ausgelegt sind.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.967
- Renomée
- 808
Wer spekulieren will wie es bei AMD weiter geht muss doch zunächst einmal die Gegenwart beachten:
Daraus könnte man schlussfolgern
PS:
Die Anforderungn an die CPU beim Gaming sind in Abhängkeit der Auflösung relativ gleich, der Einfluss in Muliplayer oder Sim ist situativ sicherlich grösser. Dennoch braucht höhere Auflösung z.B. bei UE5 mehr CPU-Leistung die Meshlets aus den komplexen Daten je Frame reduziert aufzubereiten, zu streamen und Drawcalls abzusetzen. Auch bei DirectStorage braucht es noch die CPU bis das mal vollständig implementiert wird.
Diese Diskussion lohnt eigentlich nicht,, man muss sich nur bewusst sein, dass auch für das Spielen in hohen Auflösungen die CPU einen Unterschied macht und nicht egal ist. Ich denke eine Daumenregel ist hier nicht angebracht, es kommt auf den Einzelfall drauf an.
- Der neue V-Cache ist als Chiplet gleich gross wie das Zen-Chiplet und untergeschoben, dadurch hat man die Nachteile kompensiert.
- Man geht voraussichtlich mit vielen Produkten auf 2nm, die 3nm sind kaum Gegenstand aktueller Diskussion.
- Ein GPU IF-Cache ist ein in SW dediziert verwalteter Read-Write Cache, ein Zen-L3 ist aber ein für SW zunächst transparenter Victim-Cache.
- CPU-L3 ist sehr latenzkritisch und soll on-die sein, GPU-IF ist weniger latenzkritisch.
- RDNA4 verzichtet voraussichtlich auf Chiplets, die Chiplets bei RDNA3 waren mit IFCache+Memory-PHY sehr klein.
- CDNA und RDNA haben und planten komplexe und teure Chiplet-Konstruktionen, der Consumer-Markt sucht nach günstigen Angeboten oder kauft Nvidia
- CDNA braucht wesentliche Teile der GPU von RDNA nicht, dennoch soll bei UDNA ein identisches Compute-Verhalten verwirklicht werden
- CDNA-Compute wird weiterhin HBM mit 1024b benötigen, RDNA-Gaming GDDR je nach SKU 128b - 256b
- CDNA-Compute braucht fürs Skalieren Chiplets, Gaming braucht bisher für Compute/Raster/L2 Monolithen
- Irgendetwas hat mit Navi31 Mem-Chiplets nicht gut genug funktioniert, das weder mit einem Respin noch mit einem RDNA4 Design bereits korrigiert werden konnte.
Daraus könnte man schlussfolgern
- CPU Chiplets können nicht zu gross werden wenn diese mit V-Cache kombiniert werden sollen, 12 Zen-Cores könnte ein Mittelweg sein
- V-Cache ist keine Lösung für GPU-Chiplets, es sei denn man kann unterschiedliche Funktion geschickt auf Chiplets verteilen
- Zen V-Cache ist nicht für GPU gleichermassen nutzbar, es müssen getrennte Caches bleiben
- IF Cache für GPUs ist immer notwendig um relativ schmalbandigen günstigen RAM für GPUs zu nutzen
- Ein 64b Mem-PHY Chiplet mit IF-Cache ist zu klein, man wird entweder weniger und grössere nutzen oder das auf einem "GPU-IO" vereinen
- AMD muss für Gaming-GPUs bei Compute-Monolithen bleiben bis man das Problem des shared L2 gelöst hat.
PS:
Die Anforderungn an die CPU beim Gaming sind in Abhängkeit der Auflösung relativ gleich, der Einfluss in Muliplayer oder Sim ist situativ sicherlich grösser. Dennoch braucht höhere Auflösung z.B. bei UE5 mehr CPU-Leistung die Meshlets aus den komplexen Daten je Frame reduziert aufzubereiten, zu streamen und Drawcalls abzusetzen. Auch bei DirectStorage braucht es noch die CPU bis das mal vollständig implementiert wird.
Diese Diskussion lohnt eigentlich nicht,, man muss sich nur bewusst sein, dass auch für das Spielen in hohen Auflösungen die CPU einen Unterschied macht und nicht egal ist. Ich denke eine Daumenregel ist hier nicht angebracht, es kommt auf den Einzelfall drauf an.
Hammerhead Shark
Fleet Captain Special
- Mitglied seit
- 22.04.2008
- Beiträge
- 340
- Renomée
- 366
- Prozessor
- AMD Ryzen 9 3900X
- Mainboard
- ASUS Prime X570-PRO
- Kühlung
- be quiet Dark Rock Pro 4
- Speicher
- 2x16GB G.Skill Trident Neo 3600 MHz CL16
- Grafikprozessor
- Sapphire Radeon RX 5700 XT Pulse
- SSD
- XPG SX8200 PRO PCIe; Lexar NM790 4TB
- Optisches Laufwerk
- LG GGW-H20L
- Gehäuse
- Thermaltake Xaser VI
- Netzteil
- Be Quiet Dark Power Pro 11 - 1200W
- Betriebssystem
- openSUSE Tumbleweed; Windows 10 Pro
- Webbrowser
- Firefox
Enthält nichts neues, aber ganz nettes Interview mit Lisa Su
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.180
- Renomée
- 2.298
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@E555user
Ich gehe davon aus das es eine schlechte Idee war den IF Cache zu zersplittern, könnte mir aber vorstellen das bei einem GPU Chiplet Design jedes GPU Chiplet seinen eigenen IF Cache bekommt und anschließend alle GPU Chiplets sich das Speicherinterface teilen bzw. die Speichercontroller der GPUs zu einem zusammengeschaltet werden.
Damit könnten alle mit einem VRAM Pool arbeiten und müßten sich dennoch nicht ständig um die Speicherzugriffe kloppen. Vielleicht wollte man auf diesen Weg auch die IF Caches koppeln, was aber am Ende womöglich wegen der Querzugriffe eher suboptimal lief.
Ich gehe davon aus das es eine schlechte Idee war den IF Cache zu zersplittern, könnte mir aber vorstellen das bei einem GPU Chiplet Design jedes GPU Chiplet seinen eigenen IF Cache bekommt und anschließend alle GPU Chiplets sich das Speicherinterface teilen bzw. die Speichercontroller der GPUs zu einem zusammengeschaltet werden.
Damit könnten alle mit einem VRAM Pool arbeiten und müßten sich dennoch nicht ständig um die Speicherzugriffe kloppen. Vielleicht wollte man auf diesen Weg auch die IF Caches koppeln, was aber am Ende womöglich wegen der Querzugriffe eher suboptimal lief.
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
Die technischen Sachen wird sie nur intern vermitteln und niemals in so einem YT-Video. Die Gefahr ist zu groß, dass evtl. Konkurrenz irgendwas spähen könnten zumal AMD nun rein fabless ist.
Insbesondere bei RDNA4 sollten die Lücken dicht sein.
Nvidia bei 90% Marktanteil
Am Grafikkarten-Desktop muss unbedingt noch was kommen zwei Jahre nach RDNA3.
In Vorbereitung auf die legendäre ATI "Radeon RX 9700 XTX Pro" mit RDNA5 uArch. Anfang 2025 RDNA4 und Anfang 2026 mit RDNA5 ist der Fahrplan. Am besten gleich in 2nm TSMC. Hoffe Lisa lässt für Gamer bissel was an Silizium und IF$ übrig.
Für einen unified IF$ würde viele ihre Brieftasche aufmachen. Dual GPU RX 8888 XT 128CU / 32GB VRAM / 256MB IF$ wäre ein absoluter Traum. Sowohl im KI Workloads als auch Gaming. Man muss nur den IF$ kohärent hinbekommen, so dass die Cache Zugriffe für die unterschiedlichen Sachen geordnet sind um die CUs auszulasten. Mitte 2025 oder Q3 / Q4 2025 : Release RX 8888 XT 128CU entweder als N41XTX oder Dual GPU wie diese hier:
Zwei GPUs drauf auf einem Board und ab geht die Post. Da sind die 128CUs machbar und noch bezahlbar in der "Mittelklasse" bis 1499 USD.
Zwei cutted downs RX 7900 XT sind ja 160CU derzeit für 1300 EUR verfügbar. Eine 128CU Karte mit RDNA4 müsste in dem Preisrahmen mit Gewinn machbar sein.
Bei den spekulierten 499 USD für die RX 8800 XT 16GB müsste sogar 999 USD für die 128CU 8888 XTX / 8900 XTX mit 32GB VRAM machbar sein. Wäre auch der absolute Verkaufsknaller unterhalb der spekulierten 2499 USD für die RTX 5090 32GB. Die 8900 XTX 32GB müsste AMD gegen die RTX 5080 16GB konkurrieren.
Die Situation gabs schon mit der RX 390X 8GB vs GTX 970 "3,5GB+0,5GB" wo AMD recht großzügig war mit dem Speicher in der gleichen Preisklasse. Könnte aber auch passieren, dass wir 32GB bei AMD erst mit RDNA5 sehen werden.
Ne kleine Sonderauflage würde ja reichen erstmal.
Insbesondere bei RDNA4 sollten die Lücken dicht sein.
Nvidia bei 90% Marktanteil
Grafikkarten-Absatz: Nvidias Marktanteil war noch nie so hoch wie jetzt
Laut einer neuen Studie zum globalen Absatz von dedizierten Grafikkarten für PCs besitzt Nvidia jetzt 90 Prozent Marktanteil.
www.computerbase.de
Am Grafikkarten-Desktop muss unbedingt noch was kommen zwei Jahre nach RDNA3.
In Vorbereitung auf die legendäre ATI "Radeon RX 9700 XTX Pro" mit RDNA5 uArch. Anfang 2025 RDNA4 und Anfang 2026 mit RDNA5 ist der Fahrplan. Am besten gleich in 2nm TSMC. Hoffe Lisa lässt für Gamer bissel was an Silizium und IF$ übrig.
Für einen unified IF$ würde viele ihre Brieftasche aufmachen. Dual GPU RX 8888 XT 128CU / 32GB VRAM / 256MB IF$ wäre ein absoluter Traum. Sowohl im KI Workloads als auch Gaming. Man muss nur den IF$ kohärent hinbekommen, so dass die Cache Zugriffe für die unterschiedlichen Sachen geordnet sind um die CUs auszulasten. Mitte 2025 oder Q3 / Q4 2025 : Release RX 8888 XT 128CU entweder als N41XTX oder Dual GPU wie diese hier:
Zwei GPUs drauf auf einem Board und ab geht die Post. Da sind die 128CUs machbar und noch bezahlbar in der "Mittelklasse" bis 1499 USD.
Zwei cutted downs RX 7900 XT sind ja 160CU derzeit für 1300 EUR verfügbar. Eine 128CU Karte mit RDNA4 müsste in dem Preisrahmen mit Gewinn machbar sein.
Bei den spekulierten 499 USD für die RX 8800 XT 16GB müsste sogar 999 USD für die 128CU 8888 XTX / 8900 XTX mit 32GB VRAM machbar sein. Wäre auch der absolute Verkaufsknaller unterhalb der spekulierten 2499 USD für die RTX 5090 32GB. Die 8900 XTX 32GB müsste AMD gegen die RTX 5080 16GB konkurrieren.
Die Situation gabs schon mit der RX 390X 8GB vs GTX 970 "3,5GB+0,5GB" wo AMD recht großzügig war mit dem Speicher in der gleichen Preisklasse. Könnte aber auch passieren, dass wir 32GB bei AMD erst mit RDNA5 sehen werden.
Ne kleine Sonderauflage würde ja reichen erstmal.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.180
- Renomée
- 2.298
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich gehe allerdings nicht von 2 getrennten GPUs sondern von 2 oder mehr in einem Chip Gehäuse/Träger weil sonst ganz einfach die Abstände zu groß wären um mehr als eine GPU vernünftig an einem Bild arbeiten lassen zu können und so die Probleme vom damaligen AFR Ansatz auszumerzen. Kann man wiederum mehrere GPUs so kombinieren benötigt man keien Riesenchips mehr um entsprechend komplexe und performante Grafikchips zu bauen.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.967
- Renomée
- 808
Dual-GPUs haben für das Gaming nicht gut funktioniert, weil die Latenzunterschiede und Effizienz bei abwechselnden Frame-Rendering sehr schlecht war. Mit DX12 und Vulkan hätte das funktionieren können da der Wechsel zwischen GPUs innerhalb der Drawcalls eines Frames gezielt genutzt werden kann, war aber den Entwicklern zu aufwändig, im Treiber allein nicht möglich.
Dass IF-Cache verteilt auf Chiplets gut möglich ist hat N31 bewiesen, die Anbindung war aufwändig, wie Naffziger erklärte. Man hat aber dort den L2 und somit die CUs alle auf einem Monolithen belassen. Der L2 wurde erst mit Tiled Rendering in der klassischen Renderpipeline ein wichtiger shared Cache, die Lokalität der Daten je Renderkachel hoch zu halten und Austausch möglich zu machen. Das wird mit Compute-Rendering je Pixel unwichtiger, bleibt aber wohl unverzichtbar. Die Unbekannte für mich ist hier ob die klassische Renderpipeline heute auf shared L2 verzichten könnte wenn L3 schnell genug wäre. Hier riskiert man negative Berichterstattung wenn in Einzelfällen eine GPU hinter den Erwartungen zurückfällt. Durch das Micromanagement beim RDNA-Cache sollte AMD heute mehr Wissen und Möglichkeiten haben die Caches für Gaming neu zu ordnen.
Wenn man CDNA300 mit dem IO unter dem Compute-Chiplets als Blaupause für Gaming-GPUs hernimmt müsste AMD für getrennte Compute Chiplets die Kommunikation auf L2 Ebene soweit steigern können, dass das kein Problem mehr ist. Ohne das muss das kleinste Gaming-Compute-Chiplet das nur als Monolith für Gaming funkionieren könnte so viele CUs wie möglich aufweisen.
Es darf aber schon erwartet werden, dass AMD für GPUs jeweils ein unteres Chiplet für IO und Cache entwickelt, in unterschiedlichen Grössen und Funtionseinheiten für klassische GPU je nach SKU. Für APUs braucht es kleinere GPU-Compute Chiplets als für dGPU und Instinkt, die wirklichen Vorteile wie bei Zen ergeben sich aber erst, wenn auch im Gaming mehere Chiplets wie bei Instinkt kombiniert werden könnten.
Das hängt aber alles davon ab ob AMD in der Sandwich-Chiplets-Fertigung wirklich schon günstiger produzieren kann als komplette einzelne Chipdesignes für den Massenmarkt kosten würde.
Dann könnte die Zukunft so aussehen, dass Zen6 als Core-Chiplets 2-3 Varianten hat, UDNA 1-2 Varianten. Dazu würde je CPU, APU, dGPU für jede SKU ein individuelles Cache-Chiplet und IO-Chiplet oder kombiniertes Cache-IO Chiplet hergestellt, auf das die anderen jeweils im Hybrid Bonding aufgelegt würden, oder anderen Stacking Technologien. Auf Interposer dann wo es gar nicht mehr latenzkritisch oder für Bandbreite kritisch ist.
Die Cache-IO Chiplets wären relativ günstig zu designen, da es tatsächlich im Layout standardisierte Varianten wären, weil vieles wiederverwendet werden könnte womglich sogar automatisiert als Varianten.
Dass IF-Cache verteilt auf Chiplets gut möglich ist hat N31 bewiesen, die Anbindung war aufwändig, wie Naffziger erklärte. Man hat aber dort den L2 und somit die CUs alle auf einem Monolithen belassen. Der L2 wurde erst mit Tiled Rendering in der klassischen Renderpipeline ein wichtiger shared Cache, die Lokalität der Daten je Renderkachel hoch zu halten und Austausch möglich zu machen. Das wird mit Compute-Rendering je Pixel unwichtiger, bleibt aber wohl unverzichtbar. Die Unbekannte für mich ist hier ob die klassische Renderpipeline heute auf shared L2 verzichten könnte wenn L3 schnell genug wäre. Hier riskiert man negative Berichterstattung wenn in Einzelfällen eine GPU hinter den Erwartungen zurückfällt. Durch das Micromanagement beim RDNA-Cache sollte AMD heute mehr Wissen und Möglichkeiten haben die Caches für Gaming neu zu ordnen.
Wenn man CDNA300 mit dem IO unter dem Compute-Chiplets als Blaupause für Gaming-GPUs hernimmt müsste AMD für getrennte Compute Chiplets die Kommunikation auf L2 Ebene soweit steigern können, dass das kein Problem mehr ist. Ohne das muss das kleinste Gaming-Compute-Chiplet das nur als Monolith für Gaming funkionieren könnte so viele CUs wie möglich aufweisen.
Es darf aber schon erwartet werden, dass AMD für GPUs jeweils ein unteres Chiplet für IO und Cache entwickelt, in unterschiedlichen Grössen und Funtionseinheiten für klassische GPU je nach SKU. Für APUs braucht es kleinere GPU-Compute Chiplets als für dGPU und Instinkt, die wirklichen Vorteile wie bei Zen ergeben sich aber erst, wenn auch im Gaming mehere Chiplets wie bei Instinkt kombiniert werden könnten.
Das hängt aber alles davon ab ob AMD in der Sandwich-Chiplets-Fertigung wirklich schon günstiger produzieren kann als komplette einzelne Chipdesignes für den Massenmarkt kosten würde.
Dann könnte die Zukunft so aussehen, dass Zen6 als Core-Chiplets 2-3 Varianten hat, UDNA 1-2 Varianten. Dazu würde je CPU, APU, dGPU für jede SKU ein individuelles Cache-Chiplet und IO-Chiplet oder kombiniertes Cache-IO Chiplet hergestellt, auf das die anderen jeweils im Hybrid Bonding aufgelegt würden, oder anderen Stacking Technologien. Auf Interposer dann wo es gar nicht mehr latenzkritisch oder für Bandbreite kritisch ist.
Die Cache-IO Chiplets wären relativ günstig zu designen, da es tatsächlich im Layout standardisierte Varianten wären, weil vieles wiederverwendet werden könnte womglich sogar automatisiert als Varianten.
Zuletzt bearbeitet:
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
AMD hat das größte TSMC Silizium-Kontingent und ist im AI in vielen Bereichen besser als NVIDIA. Bei den CPUs / HPC sowieso.
Ist nur Frage ob Lisa den Schuss für die consumer GPUs gibt oder "nur" die Nr. 1 bei den CPUs bleiben will, was prinzipiell schon gut genug ist für AMD die nächsten Jahre / Jahrzehnte.
Zwei kleine monolitische GPUs sind billiger und haben eine höhere Ausbeute als eine einzelne große GPU, sofern AMD nicht unbedingt die Leistungskrone haben muss.
Was Huang da baut, ist für mich nur noch überteuerter Kernschrott zu 99% ohne wirklichen Mehrwert.
Auch die RTX 5090 beeindruckt mich nur wenig bei den geforderten Preisen von 2499 USD bis 2999 USD teilweise.
Falls es wirklich so kommt und die Welt so dumm ist und sich von Huang steuern lässt, wäre es für AMD sehr klug eine 1499 USD Karte mit 32GB aufzulegen um größere Mengen an Silizium-Kontingent an die Leute zu bringen.
"Exynos x AMD x TSMC
Samsung’s 2026 flagship processor could apparently debut a new mobile AMD APU
It would also mean being manufactured by TSMC instead of Samsung Foundry"
Man sieht hier wahrscheinlich ARM iCPU + RDNA4 iGPU mit AI-Fähigkeiten in Samsungs Smartfone.
2nm Kontingent bei TSMC ist AMD die NR.1 vor Apple.^Also technologisch vor Apple und weit vor Nvidia.
Aber halt alles auf Zen6 uArch und CDNA 4/5 konzentriert.
Bei den Consumern wird heute noch über die Radeon RX 6750XT 12GB für 310€ (7nm) gesprochen. Das ist mittlerweile nach 6nm, 5nm, 4nm und 3nm mittlerweile vier Generationen zurück und vier Jahre her.
Spätestens bei 2nm erwarte ich, dass die GPU Abteilung von AMD ~40-50% Marktanteil erreicht. Also Q4 2026 / Q1 2027.
Ist nur Frage ob Lisa den Schuss für die consumer GPUs gibt oder "nur" die Nr. 1 bei den CPUs bleiben will, was prinzipiell schon gut genug ist für AMD die nächsten Jahre / Jahrzehnte.
Zwei kleine monolitische GPUs sind billiger und haben eine höhere Ausbeute als eine einzelne große GPU, sofern AMD nicht unbedingt die Leistungskrone haben muss.
Was Huang da baut, ist für mich nur noch überteuerter Kernschrott zu 99% ohne wirklichen Mehrwert.
Auch die RTX 5090 beeindruckt mich nur wenig bei den geforderten Preisen von 2499 USD bis 2999 USD teilweise.
Falls es wirklich so kommt und die Welt so dumm ist und sich von Huang steuern lässt, wäre es für AMD sehr klug eine 1499 USD Karte mit 32GB aufzulegen um größere Mengen an Silizium-Kontingent an die Leute zu bringen.
"Exynos x AMD x TSMC
Samsung’s 2026 flagship processor could apparently debut a new mobile AMD APU
It would also mean being manufactured by TSMC instead of Samsung Foundry"
Man sieht hier wahrscheinlich ARM iCPU + RDNA4 iGPU mit AI-Fähigkeiten in Samsungs Smartfone.
2nm Kontingent bei TSMC ist AMD die NR.1 vor Apple.^Also technologisch vor Apple und weit vor Nvidia.
Aber halt alles auf Zen6 uArch und CDNA 4/5 konzentriert.
Bei den Consumern wird heute noch über die Radeon RX 6750XT 12GB für 310€ (7nm) gesprochen. Das ist mittlerweile nach 6nm, 5nm, 4nm und 3nm mittlerweile vier Generationen zurück und vier Jahre her.
Spätestens bei 2nm erwarte ich, dass die GPU Abteilung von AMD ~40-50% Marktanteil erreicht. Also Q4 2026 / Q1 2027.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.180
- Renomée
- 2.298
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Latenzen waren meiner Meinung nach weniger das Problem als vielmehr die Tatsache das die Einzelbilder nunmal unterschiedliche Berechnungszeiten haben und es entsprechend schwierig ist die Bildfolge zu synchronisieren ohne die Bildausgabe großartig hinauszögern zu müssen, wodurch natürlich zwangsläufig die Eingabelatenz steigt.Dual-GPUs haben für das Gaming nicht gut funktioniert, weil die Latenzunterschiede und Effizienz bei abwechselnden Frame-Rendering sehr schlecht war.
Das grundsätzliche Problem ist also die abwechselnde Berechnung der Vollbilder, etwas was entfällt wenn wieder alle GPUs an einem Bild rechnen könnten. Dafür wäre aber auch das Scheduling der GPUs eine Herausforderung weil heutzutage viele Effekte über das gesammte Bild gezogen werden. Dementsprechend wäre ein zweistufiges Scheduling für die Grafikberechnung sinnvoll bei dem sozusagen grob vorsortiert, die Blöcke an die anderen GPUs verteilt und erst bei denen detailiert abarbeitet wird.
Die Frage ist natürlich ob diese Vorarbeit per Hard- oder Software erfolgen kann. Per Hardware hätte bei der Multichip Variante den Vorteil der räumlichen Nähe und damit der möglichen Bandbreite und Latenz.
Solche Probleme hat man mit einem monolithischen Chipdesign zwar nicht aber dafür andere, nämlich das mit steigender Chipgröße die Ausbeute in den Keller geht. (wenn beim Chip mehr da ist kann mehr kaputt gehen und das eckige passt nunmal schlecht auf das Runde)
Zudem muss man den Chip zwangsläufig für unterschiedliche Performanceklassen in unterschiedlichen Größen herstellen, was suboptimal für die Produktionsaufträge und Lagerhaltung ist.
Erwarten kann man viel, entscheidend ist was die Kundschaft kauft und für ein solches Ziel hat sie nvidia bisher zu gut dressiert.Spätestens bei 2nm erwarte ich, dass die GPU Abteilung von AMD ~40-50% Marktanteil erreicht. Also Q4 2026 / Q1 2027.
Da müßte nvidia schon extremen Bockmist bauen um das auch nur annähernd zu erreichen. Bockmist wie seinerzeit bei der GTX970 reicht(e) ja offensichtlich nicht.
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
So lange Huang die Zügel in der Hand bei NV hat, kann er weiter mit Speicher knausern und schlechte BQ anbieten.
Der braucht eine Stutzung von oben. Ich würde Nvidia verbieten wie Indonesien Apple verboten hat. Mittelwelle sehe ich so viele Kunden, die wieder Aufrüsten müssen, weil das Nvidia und Intel Zeugs, was die früher teuer gekauft haben heute einfach nichts mehr taugt, also quasi technologischer Schrott, der ganze Länder technologisch zurück hält und nur einzelne US Interessen dient.
In China ist Nvidia weitgehend verboten:
Andere Länder sollten folgen, auch Deutschland, dann fliegt auch 3dc und PCGH und Konsorten raus, die Jahrzehnte lang nur Schrott produziert und Schrott empfohlen haben von Intel & Nvidia.
Der braucht eine Stutzung von oben. Ich würde Nvidia verbieten wie Indonesien Apple verboten hat. Mittelwelle sehe ich so viele Kunden, die wieder Aufrüsten müssen, weil das Nvidia und Intel Zeugs, was die früher teuer gekauft haben heute einfach nichts mehr taugt, also quasi technologischer Schrott, der ganze Länder technologisch zurück hält und nur einzelne US Interessen dient.
In China ist Nvidia weitgehend verboten:
Nvidia targeted by China in new chip war probe
The investigation follows a US decision to further restrict sales to chip equipment makers in China.
www.bbc.com
Andere Länder sollten folgen, auch Deutschland, dann fliegt auch 3dc und PCGH und Konsorten raus, die Jahrzehnte lang nur Schrott produziert und Schrott empfohlen haben von Intel & Nvidia.
China tells firms to avoid Nvidia chips
China tells firms to avoid Nvidia chips - Taipei Times
Bringing Taiwan to the World and the World to Taiwan
www.taipeitimes.com
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.180
- Renomée
- 2.298
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Und haben sie daraus etwas aus dem vorzeitigen Wechsel gelernt oder machen sie weiter wie bisher?
Meiner persönlichen Erfahrung nach ist eher letzteres der Fall.
Meiner persönlichen Erfahrung nach ist eher letzteres der Fall.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.799
- Renomée
- 315
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Dürfte ein spannendes Jahr 2025 werden..
Auftragsherstellung: Notverkauf von Intel Foundry wird weiter vorbereitet - Golem.de
Wenn das Herstellungsverfahren 18A nicht die Erwartungen erfüllt, muss sich Intel offenbar von seiner milliardenteuren Foundry-Sparte trennen. Wenn auch widerwillig,
www.golem.de
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
Und haben sie daraus etwas aus dem vorzeitigen Wechsel gelernt oder machen sie weiter wie bisher?
Meiner persönlichen Erfahrung nach ist eher letzteres der Fall.
Gemischt. Einige wachen auf und wechseln. Boomer, die kurz vor der Rente stehen, ist das alles relativ Schnuppe.
Ich würde sagen, dass Intel lange Zeit und Nvidia auch seit längerer Zeit die Hauptverursacher für die Misere der IT in Deutschland ist und für deren Rückständigkeit, Abhängigkeit und Armut. Unwissenheit ist halt keine Stärke. Gilt auch für kritische IT-Infrastruktur wo das alte Zeugs einfach raus muss und nicht mehr konkurrenzfähig ist.
Der größte Schmerz beim Bau ist, dass Deutschland übelst rückständig ist und über jahrzehntelang verarscht wurde von den "mächtigen" US-Firmen. Die haben nur quasi nur lauwarme Semmel von vorgestern überteuert nach Deutschland / Europa verkauft für viel Kohle.
Einige Gewinner gibs trotzdem, die auf AMD setzen und gesetzt haben. Solide Leistung, bezahlbar und Langzeithaltbarkeit ist AMD doch deutlich besser.
Maverick-F1
Grand Admiral Special
Sorry - aber das ist schon arg übertrieben...Gemischt. Einige wachen auf und wechseln. Boomer, die kurz vor der Rente stehen, ist das alles relativ Schnuppe.
Ich würde sagen, dass Intel lange Zeit und Nvidia auch seit längerer Zeit die Hauptverursacher für die Misere der IT in Deutschland ist und für deren Rückständigkeit, Abhängigkeit und Armut. Unwissenheit ist halt keine Stärke. Gilt auch für kritische IT-Infrastruktur wo das alte Zeugs einfach raus muss und nicht mehr konkurrenzfähig ist.
Der größte Schmerz beim Bau ist, dass Deutschland übelst rückständig ist und über jahrzehntelang verarscht wurde von den "mächtigen" US-Firmen. Die haben nur quasi nur lauwarme Semmel von vorgestern überteuert nach Deutschland / Europa verkauft für viel Kohle.
Einige Gewinner gibs trotzdem, die auf AMD setzen und gesetzt haben. Solide Leistung, bezahlbar und Langzeithaltbarkeit ist AMD doch deutlich besser.
Übliche Leasing-Zyklen bei Unternehmen sind 3-4 Jahre - und da hält ein Intel-Rechner genauso gut wie ein AMD-Rechner...
Darüberhinaus sind professionielle Management-Features und ein entsprechender Support wichtig - ob der Chip von Intel oder AMD kommt ist da eher Nebensache.
Davon abgesehen, gab es gerade professionelle Management Features viele Jahre lang einfach nur von Intel (z.B. vPro und Vorgänger).
Und wieso nVidia an der "Misere der IT in Deutschland" schuld sein soll, erschließt sich mir schon gar nicht...
Oder meinst Du, dass Lederjacke schuld sein soll, dass in Deutschland die KI-Entwicklung so weit zurückhängt??
Das hat ganz andere Gründe...
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.799
- Renomée
- 315
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Der KI Hype zieht ohne Ende Geld, das woanders viel sinnvoller investiert wäre. Das muss man weiß Gott nicht Nvidia hinten rein schieben..
Maverick-F1
Grand Admiral Special
Das hab' ich auch nicht behauptet. Aber da profitieren alle, die Chips herstellen, welche rechnen können - ob uns das gefällt oder nicht. (Immerhin noch sinnvoller als der Kryptomist davor... )Der KI Hype zieht ohne Ende Geld, das woanders viel sinnvoller investiert wäre. Das muss man weiß Gott nicht Nvidia hinten rein schieben..
AMD's CEO Lisa Su Refutes "Wild" Intel-AMD Merger Rumors, Comments On The Bright Future of AI As Well
AMD's CEO Lisa Su says AI has the ability to evolve ten times more in the span of 12 months and also comments on Intel-AMD merger rumors.
wccftech.com
Wild, wild -
Gruss,
TNT
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.565
- Renomée
- 106
- Standort
- Switzerland
- Mein Laptop
- Lenovo IdeaPad Slim 3 (16", AMD Ryzen 5 7530U, 16GB) WIN11 / Zorin OS
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Die Einzigen die aktuell dabei profitieren würden wäre Intel, nene, so nicht, das weiss auch Lisa und wies das Greücht gleich wieder zurück.
vinacis_vivids
Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 1.121
- Renomée
- 148
- Prozessor
- AMD Ryzen 9 7950X 16C/32T
- Mainboard
- ASUS ProArt X670E-CREATOR WIFI
- Kühlung
- Arctic Liquid Freezer II 360 RGB
- Speicher
- HyperX Fury 64GB DDR5 6000Mhz CL30
- Grafikprozessor
- Sapphire Nitro+ RX 7900 XTX 24GB
- Display
- LG 5K HDR 10bit 5120x2160@60hz
- SSD
- Samsung SSD 980Pro 2TB
- Soundkarte
- Creative Soundblaster ZXR
- Gehäuse
- Cougar DarkBlader X5
- Netzteil
- InterTech Sama Forza 1200W
- Tastatur
- Cherry MX-10.0 RGB Mechanisch
- Maus
- Razer Mamba
- Betriebssystem
- Windows 11 Education Pro
- Webbrowser
- Google Chrome
- Internetanbindung
- ▼1000 Mbit
Intel konkurriert trotz der besseren Fertigung mit der 4 Jahre alten RX 6750XT 12GB, also zwei gens. zurück, mit RDNA2.
AMD verkauft RDNA2 7nm ganz normal weiter.
Bei den 12GB Karten gibs derzeit folgendes "Ranking" 2024/2025
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+
Neu in 2025 bei den 12GB GPUs?
RTX 5070 12GB - 899€+
RX 8700 XT 12GB -599€+
RTX 4070S 12GB - 639€+
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+
Und jetzt in Foundrys bei den 12GB GPUs, 2025 ff.
TSMC/NV RTX 5070Ti S 12GB
TSMC/NV RTX 5070Ti 12GB
TSMC/NV RTX 5070S 12GB
TSMC/NV RTX 5070 12GB
TSMC/AMD RX 8700 XT 12GB
TSMC/NV RTX 4070S 12GB
TSMC/NV RTX 4070 12GB
TSMC/AMD RX 7700 XT 12GB
TSMC/AMD RX 6750 XT 12GB
TSMC/Intel B580 12GB
Samsung/NV RTX 3060 12GB
10 : 1 das Verhältnis zwischen TSMC vs. Samsung
7 : 3 : 1 ist das Verhältnis zurzeit bei den Grafikkarten NV : AMD : Intel
Im kommenden Jahr 2025 dann wahrscheinlich 9 (NV) : 5 (AMD) : 1 (Intel) bei den 12GB Karten.
Bei den 16GB Karten wird der Kampf womöglich noch härter und Nvidia macht ne eigene "Geforce 2 MX" Oberklasse auf. Also die Hälfte bzw. Salvages vom Top-Dog wird an die armen Gamer teuer verscherbelt um den KI-Kram zu finanzieren.
TSMC/NV RTX 5080Ti S 16GB - 1999€
TSMC/NV RTX 5080Ti 16GB - 1799€
TSMC/NV RTX 5080 S 16GB - 1599€
TSMC/NV RTX 5080 16GB - 1499€
___________________________________________
TSMC/AMD RX 8800 XT 16GB - 899€
TSMC/AMD RX 8800 16GB -799€
TSMC/NV RTX 4080 S 16GB - 999€
TSMC/NV RTX 4080 16GB - 999€
TSMC/NV RTX 4070Ti S 16GB - 829€
TSMC/AMD RX 7900 GRE 16GB - 569€
TSMC/NV RTX 4070Ti 16GB - 829€
TSMC/AMD RX 7800 XT 16GB - 479€
TSMC/NV RTX 4060Ti 16GB - 479€
TSMC/AMD RX 7600 XT 16GB - 359€
TSMC/Intel Arc A770 16GB - 325€
Das ist das "Ergebnis" was sich USA/Deutschland sich so gewünscht haben die letzten 20 Jahre. Technologische Sackgasse und einen GPU-Diktator wie Huang wo alle ihr Geld reinschmeißen (für Salvage Schrott). Dass China dieses Spielchen nicht mitmacht, war klar, aber Deutschland muss wieder zahlen fürs Bücken vor der USA.
Wird wahrscheinlich die nächsten 5 Jahre so bleiben.
AMD verkauft RDNA2 7nm ganz normal weiter.
Bei den 12GB Karten gibs derzeit folgendes "Ranking" 2024/2025
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+
Neu in 2025 bei den 12GB GPUs?
RTX 5070 12GB - 899€+
RX 8700 XT 12GB -599€+
RTX 4070S 12GB - 639€+
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+
Und jetzt in Foundrys bei den 12GB GPUs, 2025 ff.
TSMC/NV RTX 5070Ti S 12GB
TSMC/NV RTX 5070Ti 12GB
TSMC/NV RTX 5070S 12GB
TSMC/NV RTX 5070 12GB
TSMC/AMD RX 8700 XT 12GB
TSMC/NV RTX 4070S 12GB
TSMC/NV RTX 4070 12GB
TSMC/AMD RX 7700 XT 12GB
TSMC/AMD RX 6750 XT 12GB
TSMC/Intel B580 12GB
Samsung/NV RTX 3060 12GB
10 : 1 das Verhältnis zwischen TSMC vs. Samsung
7 : 3 : 1 ist das Verhältnis zurzeit bei den Grafikkarten NV : AMD : Intel
Im kommenden Jahr 2025 dann wahrscheinlich 9 (NV) : 5 (AMD) : 1 (Intel) bei den 12GB Karten.
Bei den 16GB Karten wird der Kampf womöglich noch härter und Nvidia macht ne eigene "Geforce 2 MX" Oberklasse auf. Also die Hälfte bzw. Salvages vom Top-Dog wird an die armen Gamer teuer verscherbelt um den KI-Kram zu finanzieren.
TSMC/NV RTX 5080Ti S 16GB - 1999€
TSMC/NV RTX 5080Ti 16GB - 1799€
TSMC/NV RTX 5080 S 16GB - 1599€
TSMC/NV RTX 5080 16GB - 1499€
___________________________________________
TSMC/AMD RX 8800 XT 16GB - 899€
TSMC/AMD RX 8800 16GB -799€
TSMC/NV RTX 4080 S 16GB - 999€
TSMC/NV RTX 4080 16GB - 999€
TSMC/NV RTX 4070Ti S 16GB - 829€
TSMC/AMD RX 7900 GRE 16GB - 569€
TSMC/NV RTX 4070Ti 16GB - 829€
TSMC/AMD RX 7800 XT 16GB - 479€
TSMC/NV RTX 4060Ti 16GB - 479€
TSMC/AMD RX 7600 XT 16GB - 359€
TSMC/Intel Arc A770 16GB - 325€
Das ist das "Ergebnis" was sich USA/Deutschland sich so gewünscht haben die letzten 20 Jahre. Technologische Sackgasse und einen GPU-Diktator wie Huang wo alle ihr Geld reinschmeißen (für Salvage Schrott). Dass China dieses Spielchen nicht mitmacht, war klar, aber Deutschland muss wieder zahlen fürs Bücken vor der USA.
Wird wahrscheinlich die nächsten 5 Jahre so bleiben.
Maverick-F1
Grand Admiral Special
Sorry - aber versteh' ich nicht:Das ist das "Ergebnis" was sich USA/Deutschland sich so gewünscht haben die letzten 20 Jahre. Technologische Sackgasse und einen GPU-Diktator wie Huang wo alle ihr Geld reinschmeißen (für Salvage Schrott). Dass China dieses Spielchen nicht mitmacht, war klar, aber Deutschland muss wieder zahlen fürs Bücken vor der USA.
Wird wahrscheinlich die nächsten 5 Jahre so bleiben.
Auch in Deutschland haben Käufer immer noch die Wahl, ob sie AMD oder nVidia kaufen - und wenn sie sich für Letzteres entscheiden ist es nunmal Ihr Problem. Das nennt sich Marktwirtschaft...
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.967
- Renomée
- 808
Die Zukunft von AMD wird zum geringsten Teil vom Kaufverhalten in Deutschland beeinflusst. Wenn überhaupt gibt es in D ein global überdurschnittliches Interesse an Radeon und schon länger auch bei den CPUs. An Unis gibt es teilweise auch Interesse und Entwickler, sicherlich mehr als in den meisten anderen Ländern, v.a. Asien. Das nimmt aber eigentlich keinen nennenswerten Einfluss auf die globalen Marktanteile, es eröffnet nur Chancen.
Bei CPUs ist AMD nicht im Massenmarkt in ähnlichen Dimensionen wie Intel vertreten. Dort gibt es noch jede Menge Aufholbedarf, auch wenn Intel auf dem Papier bei der Hardware technisch bereits mehrere Jahre geschlagen wäre.
Bei GPUs ist AMD weiter hinter Nvidia zurückgefallen. Nicht was die Hardware sondern was die Adaption durch Software anbelangt. Das Konsolengeschäft und SuperComputer sind relativ geschlossene Systeme, die nicht Hype-getrieben sind.
Also wird AMD daran arbeiten die Märkte um Desktops und Laptops weiter aufzubrechen und CPU/APU Marktanteile zu übernehmen. Alles über 10% Zugewinn je Kalenderjahr wäre unerwartbar bis unrealistisch.
Bei GPU-Compute und AI wird man weiter am Ökosystem rund um ROCm arbeiten. Für 2025 darf da eine Reife und Konsolidierung erwartet werden die für Nischen gut funktionieren, bis nach der ersten UDNA-Generation bleibt das vermutlich holprig. Für FPGA und Xilinx-Beschleuniger bleibt man nach meinem Eindruck im Kundenstamm. Leider gibt es keine Abgrenzung durch AMD wo man ROCm/UDNA vs. Vitis/Versal im Einsatz sieht. Das ist betreffend AI eine offene Baustelle die unnötig verunsichert. Man kann für unsere Diskussion nur hoffen, dass AMD in der Kommunikation viel besser wird. Dass man heute so wenig öffentlich preisgibt bedeutet im Umkehrschluss, dass AMD bei Grossunternehmen als Partner zum Diskurs über Produktstrategien festhält. Der unmittelbare Consumer und DIY bekommt nur was dort übrig bleibt oder in fertige Produkte einfliesst. Bei GPUs fürs Gaming hat man vermutlich in wenigen Generationen eine Sättigung erreicht. Soweit die Partnerschaften in Semicustom gesund bleiben wird AMD dort gesetzt sein. Radeon kann theoretisch bei PCs über den gut genug Faktor mit P/L an Bedeutung gewinnen. RDNA4 ist da ein wichtiger Meilenstein, danach wissen wir mehr.
Mir fehlt die Phantasie was nach PhysX, Hairworks und RT noch Neues kommen soll um Gamern extra viel Geld aus der Tasche zu ziehen. PathTracing ist im Mainstream kaum vermittelbar, es bleibt deshalb spannend wie lange das Nvidia-Marketing noch funktioniert. Microsoft muss in der Gaming-Sparte milliarden an Dollar refinanzieren, hier könnte Nvidia offene Türen finden. DirectX hat die Kontrolle der Entwicklungen teilweise verloren. Microsoft wird meiner Meinung den grössten Einfluss auf die weitere Entwicklung und den Erfolg von Radeon haben, genauso Epic mit der UE5&6.
Bei CPUs ist AMD nicht im Massenmarkt in ähnlichen Dimensionen wie Intel vertreten. Dort gibt es noch jede Menge Aufholbedarf, auch wenn Intel auf dem Papier bei der Hardware technisch bereits mehrere Jahre geschlagen wäre.
Bei GPUs ist AMD weiter hinter Nvidia zurückgefallen. Nicht was die Hardware sondern was die Adaption durch Software anbelangt. Das Konsolengeschäft und SuperComputer sind relativ geschlossene Systeme, die nicht Hype-getrieben sind.
Also wird AMD daran arbeiten die Märkte um Desktops und Laptops weiter aufzubrechen und CPU/APU Marktanteile zu übernehmen. Alles über 10% Zugewinn je Kalenderjahr wäre unerwartbar bis unrealistisch.
Bei GPU-Compute und AI wird man weiter am Ökosystem rund um ROCm arbeiten. Für 2025 darf da eine Reife und Konsolidierung erwartet werden die für Nischen gut funktionieren, bis nach der ersten UDNA-Generation bleibt das vermutlich holprig. Für FPGA und Xilinx-Beschleuniger bleibt man nach meinem Eindruck im Kundenstamm. Leider gibt es keine Abgrenzung durch AMD wo man ROCm/UDNA vs. Vitis/Versal im Einsatz sieht. Das ist betreffend AI eine offene Baustelle die unnötig verunsichert. Man kann für unsere Diskussion nur hoffen, dass AMD in der Kommunikation viel besser wird. Dass man heute so wenig öffentlich preisgibt bedeutet im Umkehrschluss, dass AMD bei Grossunternehmen als Partner zum Diskurs über Produktstrategien festhält. Der unmittelbare Consumer und DIY bekommt nur was dort übrig bleibt oder in fertige Produkte einfliesst. Bei GPUs fürs Gaming hat man vermutlich in wenigen Generationen eine Sättigung erreicht. Soweit die Partnerschaften in Semicustom gesund bleiben wird AMD dort gesetzt sein. Radeon kann theoretisch bei PCs über den gut genug Faktor mit P/L an Bedeutung gewinnen. RDNA4 ist da ein wichtiger Meilenstein, danach wissen wir mehr.
Mir fehlt die Phantasie was nach PhysX, Hairworks und RT noch Neues kommen soll um Gamern extra viel Geld aus der Tasche zu ziehen. PathTracing ist im Mainstream kaum vermittelbar, es bleibt deshalb spannend wie lange das Nvidia-Marketing noch funktioniert. Microsoft muss in der Gaming-Sparte milliarden an Dollar refinanzieren, hier könnte Nvidia offene Türen finden. DirectX hat die Kontrolle der Entwicklungen teilweise verloren. Microsoft wird meiner Meinung den grössten Einfluss auf die weitere Entwicklung und den Erfolg von Radeon haben, genauso Epic mit der UE5&6.
Zuletzt bearbeitet:
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.565
- Renomée
- 106
- Standort
- Switzerland
- Mein Laptop
- Lenovo IdeaPad Slim 3 (16", AMD Ryzen 5 7530U, 16GB) WIN11 / Zorin OS
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Naja, nvidia wird sich sicher wieder einen proprietären Blödsinn einfallen lassen und es als "must have" verkaufen...
Wolfe Research: "Our Best Guess Is That AMD Won’t Be In A Position To Guide AI For CY25 – Which Will In Itself Drive Concerns"
Wolfe Research remains worried that AMD might not be able to deliver on Wall Street's sky-high expectations for 2025.
wccftech.com
Mhmm...wackelt die AI HypeTrain ein wenig fuer AMD?
Gruss,
TNT
Ähnliche Themen
- Antworten
- 871
- Aufrufe
- 67K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 788
- Aufrufe
- 110K