Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Höhere Auflösungen brauchen auch höhere CPU Power, das ist teilweise richtig. Die Behauptung höhere Auflösung braucht weniger CPU-Power hält sich hartnäckig weil man in 4K und neueren Engines des Öfteren ins GPU-Limit stößt.

Die Frage ist halt wie verbreitet das Wissen ist.
 
Einfach mal die Frameraten bei unterschiedlichen Auflösungen im harten CPU Limit vergleichen, sie falle sehr ähnlich aus.
Rückgänge der Framerate kommen in erster Linie durch die Verschiebung zum GPU Limit zustande. Am einfachsten läßt sich das bei alten Spielen nachvollziehen da diese für erheblich langsamere Grafikkarten ausgelegt sind.
 
Wer spekulieren will wie es bei AMD weiter geht muss doch zunächst einmal die Gegenwart beachten:
  1. Der neue V-Cache ist als Chiplet gleich gross wie das Zen-Chiplet und untergeschoben, dadurch hat man die Nachteile kompensiert.
  2. Man geht voraussichtlich mit vielen Produkten auf 2nm, die 3nm sind kaum Gegenstand aktueller Diskussion.
  3. Ein GPU IF-Cache ist ein in SW dediziert verwalteter Read-Write Cache, ein Zen-L3 ist aber ein für SW zunächst transparenter Victim-Cache.
  4. CPU-L3 ist sehr latenzkritisch und soll on-die sein, GPU-IF ist weniger latenzkritisch.
  5. RDNA4 verzichtet voraussichtlich auf Chiplets, die Chiplets bei RDNA3 waren mit IFCache+Memory-PHY sehr klein.
  6. CDNA und RDNA haben und planten komplexe und teure Chiplet-Konstruktionen, der Consumer-Markt sucht nach günstigen Angeboten oder kauft Nvidia
  7. CDNA braucht wesentliche Teile der GPU von RDNA nicht, dennoch soll bei UDNA ein identisches Compute-Verhalten verwirklicht werden
  8. CDNA-Compute wird weiterhin HBM mit 1024b benötigen, RDNA-Gaming GDDR je nach SKU 128b - 256b
  9. CDNA-Compute braucht fürs Skalieren Chiplets, Gaming braucht bisher für Compute/Raster/L2 Monolithen
  10. Irgendetwas hat mit Navi31 Mem-Chiplets nicht gut genug funktioniert, das weder mit einem Respin noch mit einem RDNA4 Design bereits korrigiert werden konnte.

Daraus könnte man schlussfolgern
  • CPU Chiplets können nicht zu gross werden wenn diese mit V-Cache kombiniert werden sollen, 12 Zen-Cores könnte ein Mittelweg sein
  • V-Cache ist keine Lösung für GPU-Chiplets, es sei denn man kann unterschiedliche Funktion geschickt auf Chiplets verteilen
  • Zen V-Cache ist nicht für GPU gleichermassen nutzbar, es müssen getrennte Caches bleiben
  • IF Cache für GPUs ist immer notwendig um relativ schmalbandigen günstigen RAM für GPUs zu nutzen
  • Ein 64b Mem-PHY Chiplet mit IF-Cache ist zu klein, man wird entweder weniger und grössere nutzen oder das auf einem "GPU-IO" vereinen
  • AMD muss für Gaming-GPUs bei Compute-Monolithen bleiben bis man das Problem des shared L2 gelöst hat.
Vielleicht fällt euch zur Gegenwart und Zukunft ja noch mehr ein....

PS:
Die Anforderungn an die CPU beim Gaming sind in Abhängkeit der Auflösung relativ gleich, der Einfluss in Muliplayer oder Sim ist situativ sicherlich grösser. Dennoch braucht höhere Auflösung z.B. bei UE5 mehr CPU-Leistung die Meshlets aus den komplexen Daten je Frame reduziert aufzubereiten, zu streamen und Drawcalls abzusetzen. Auch bei DirectStorage braucht es noch die CPU bis das mal vollständig implementiert wird.
Diese Diskussion lohnt eigentlich nicht,, man muss sich nur bewusst sein, dass auch für das Spielen in hohen Auflösungen die CPU einen Unterschied macht und nicht egal ist. Ich denke eine Daumenregel ist hier nicht angebracht, es kommt auf den Einzelfall drauf an.
 
Enthält nichts neues, aber ganz nettes Interview mit Lisa Su
 
@E555user
Ich gehe davon aus das es eine schlechte Idee war den IF Cache zu zersplittern, könnte mir aber vorstellen das bei einem GPU Chiplet Design jedes GPU Chiplet seinen eigenen IF Cache bekommt und anschließend alle GPU Chiplets sich das Speicherinterface teilen bzw. die Speichercontroller der GPUs zu einem zusammengeschaltet werden.
Damit könnten alle mit einem VRAM Pool arbeiten und müßten sich dennoch nicht ständig um die Speicherzugriffe kloppen. Vielleicht wollte man auf diesen Weg auch die IF Caches koppeln, was aber am Ende womöglich wegen der Querzugriffe eher suboptimal lief. *noahnung*
 
Die technischen Sachen wird sie nur intern vermitteln und niemals in so einem YT-Video. Die Gefahr ist zu groß, dass evtl. Konkurrenz irgendwas spähen könnten zumal AMD nun rein fabless ist.

Insbesondere bei RDNA4 sollten die Lücken dicht sein.


Nvidia bei 90% Marktanteil

Am Grafikkarten-Desktop muss unbedingt noch was kommen zwei Jahre nach RDNA3.

In Vorbereitung auf die legendäre ATI "Radeon RX 9700 XTX Pro" mit RDNA5 uArch. Anfang 2025 RDNA4 und Anfang 2026 mit RDNA5 ist der Fahrplan. Am besten gleich in 2nm TSMC. Hoffe Lisa lässt für Gamer bissel was an Silizium und IF$ übrig.

Für einen unified IF$ würde viele ihre Brieftasche aufmachen. Dual GPU RX 8888 XT 128CU / 32GB VRAM / 256MB IF$ wäre ein absoluter Traum. Sowohl im KI Workloads als auch Gaming. Man muss nur den IF$ kohärent hinbekommen, so dass die Cache Zugriffe für die unterschiedlichen Sachen geordnet sind um die CUs auszulasten. Mitte 2025 oder Q3 / Q4 2025 : Release RX 8888 XT 128CU entweder als N41XTX oder Dual GPU wie diese hier:


Untitled7512.png


Zwei GPUs drauf auf einem Board und ab geht die Post. Da sind die 128CUs machbar und noch bezahlbar in der "Mittelklasse" bis 1499 USD.
Zwei cutted downs RX 7900 XT sind ja 160CU derzeit für 1300 EUR verfügbar. Eine 128CU Karte mit RDNA4 müsste in dem Preisrahmen mit Gewinn machbar sein.

Bei den spekulierten 499 USD für die RX 8800 XT 16GB müsste sogar 999 USD für die 128CU 8888 XTX / 8900 XTX mit 32GB VRAM machbar sein. Wäre auch der absolute Verkaufsknaller unterhalb der spekulierten 2499 USD für die RTX 5090 32GB. Die 8900 XTX 32GB müsste AMD gegen die RTX 5080 16GB konkurrieren.

Die Situation gabs schon mit der RX 390X 8GB vs GTX 970 "3,5GB+0,5GB" wo AMD recht großzügig war mit dem Speicher in der gleichen Preisklasse. Könnte aber auch passieren, dass wir 32GB bei AMD erst mit RDNA5 sehen werden.

furyx2-W2x-EX-png-waifu2x-2048x2048-png.webp


Radeon-R9-295-X2-PCB-Front-png.png


Ne kleine Sonderauflage würde ja reichen erstmal.

Fire-Pro-S-10000-cutted.webp
 
Zuletzt bearbeitet:
Ich gehe allerdings nicht von 2 getrennten GPUs sondern von 2 oder mehr in einem Chip Gehäuse/Träger weil sonst ganz einfach die Abstände zu groß wären um mehr als eine GPU vernünftig an einem Bild arbeiten lassen zu können und so die Probleme vom damaligen AFR Ansatz auszumerzen. Kann man wiederum mehrere GPUs so kombinieren benötigt man keien Riesenchips mehr um entsprechend komplexe und performante Grafikchips zu bauen.
 
Dual-GPUs haben für das Gaming nicht gut funktioniert, weil die Latenzunterschiede und Effizienz bei abwechselnden Frame-Rendering sehr schlecht war. Mit DX12 und Vulkan hätte das funktionieren können da der Wechsel zwischen GPUs innerhalb der Drawcalls eines Frames gezielt genutzt werden kann, war aber den Entwicklern zu aufwändig, im Treiber allein nicht möglich.

Dass IF-Cache verteilt auf Chiplets gut möglich ist hat N31 bewiesen, die Anbindung war aufwändig, wie Naffziger erklärte. Man hat aber dort den L2 und somit die CUs alle auf einem Monolithen belassen. Der L2 wurde erst mit Tiled Rendering in der klassischen Renderpipeline ein wichtiger shared Cache, die Lokalität der Daten je Renderkachel hoch zu halten und Austausch möglich zu machen. Das wird mit Compute-Rendering je Pixel unwichtiger, bleibt aber wohl unverzichtbar. Die Unbekannte für mich ist hier ob die klassische Renderpipeline heute auf shared L2 verzichten könnte wenn L3 schnell genug wäre. Hier riskiert man negative Berichterstattung wenn in Einzelfällen eine GPU hinter den Erwartungen zurückfällt. Durch das Micromanagement beim RDNA-Cache sollte AMD heute mehr Wissen und Möglichkeiten haben die Caches für Gaming neu zu ordnen.

Wenn man CDNA300 mit dem IO unter dem Compute-Chiplets als Blaupause für Gaming-GPUs hernimmt müsste AMD für getrennte Compute Chiplets die Kommunikation auf L2 Ebene soweit steigern können, dass das kein Problem mehr ist. Ohne das muss das kleinste Gaming-Compute-Chiplet das nur als Monolith für Gaming funkionieren könnte so viele CUs wie möglich aufweisen.
Es darf aber schon erwartet werden, dass AMD für GPUs jeweils ein unteres Chiplet für IO und Cache entwickelt, in unterschiedlichen Grössen und Funtionseinheiten für klassische GPU je nach SKU. Für APUs braucht es kleinere GPU-Compute Chiplets als für dGPU und Instinkt, die wirklichen Vorteile wie bei Zen ergeben sich aber erst, wenn auch im Gaming mehere Chiplets wie bei Instinkt kombiniert werden könnten.
Das hängt aber alles davon ab ob AMD in der Sandwich-Chiplets-Fertigung wirklich schon günstiger produzieren kann als komplette einzelne Chipdesignes für den Massenmarkt kosten würde.

Dann könnte die Zukunft so aussehen, dass Zen6 als Core-Chiplets 2-3 Varianten hat, UDNA 1-2 Varianten. Dazu würde je CPU, APU, dGPU für jede SKU ein individuelles Cache-Chiplet und IO-Chiplet oder kombiniertes Cache-IO Chiplet hergestellt, auf das die anderen jeweils im Hybrid Bonding aufgelegt würden, oder anderen Stacking Technologien. Auf Interposer dann wo es gar nicht mehr latenzkritisch oder für Bandbreite kritisch ist.
Die Cache-IO Chiplets wären relativ günstig zu designen, da es tatsächlich im Layout standardisierte Varianten wären, weil vieles wiederverwendet werden könnte womglich sogar automatisiert als Varianten.
 
Zuletzt bearbeitet:
AMD hat das größte TSMC Silizium-Kontingent und ist im AI in vielen Bereichen besser als NVIDIA. Bei den CPUs / HPC sowieso.

Ist nur Frage ob Lisa den Schuss für die consumer GPUs gibt oder "nur" die Nr. 1 bei den CPUs bleiben will, was prinzipiell schon gut genug ist für AMD die nächsten Jahre / Jahrzehnte.

Zwei kleine monolitische GPUs sind billiger und haben eine höhere Ausbeute als eine einzelne große GPU, sofern AMD nicht unbedingt die Leistungskrone haben muss.

Was Huang da baut, ist für mich nur noch überteuerter Kernschrott zu 99% ohne wirklichen Mehrwert.

Auch die RTX 5090 beeindruckt mich nur wenig bei den geforderten Preisen von 2499 USD bis 2999 USD teilweise.

Falls es wirklich so kommt und die Welt so dumm ist und sich von Huang steuern lässt, wäre es für AMD sehr klug eine 1499 USD Karte mit 32GB aufzulegen um größere Mengen an Silizium-Kontingent an die Leute zu bringen.



"Exynos x AMD x TSMC
Samsung’s 2026 flagship processor could apparently debut a new mobile AMD APU
It would also mean being manufactured by TSMC instead of Samsung Foundry"


Man sieht hier wahrscheinlich ARM iCPU + RDNA4 iGPU mit AI-Fähigkeiten in Samsungs Smartfone.

2nm Kontingent bei TSMC ist AMD die NR.1 vor Apple.^Also technologisch vor Apple und weit vor Nvidia.

TSMC-N2-will-be-used-across-many-chips-from-Apple-AMD-Nvidia-and-Intel.jpg


Aber halt alles auf Zen6 uArch und CDNA 4/5 konzentriert.

Bei den Consumern wird heute noch über die Radeon RX 6750XT 12GB für 310€ (7nm) gesprochen. Das ist mittlerweile nach 6nm, 5nm, 4nm und 3nm mittlerweile vier Generationen zurück und vier Jahre her.

Spätestens bei 2nm erwarte ich, dass die GPU Abteilung von AMD ~40-50% Marktanteil erreicht. Also Q4 2026 / Q1 2027.
 
Zuletzt bearbeitet:
Dual-GPUs haben für das Gaming nicht gut funktioniert, weil die Latenzunterschiede und Effizienz bei abwechselnden Frame-Rendering sehr schlecht war.
Latenzen waren meiner Meinung nach weniger das Problem als vielmehr die Tatsache das die Einzelbilder nunmal unterschiedliche Berechnungszeiten haben und es entsprechend schwierig ist die Bildfolge zu synchronisieren ohne die Bildausgabe großartig hinauszögern zu müssen, wodurch natürlich zwangsläufig die Eingabelatenz steigt.
Das grundsätzliche Problem ist also die abwechselnde Berechnung der Vollbilder, etwas was entfällt wenn wieder alle GPUs an einem Bild rechnen könnten. Dafür wäre aber auch das Scheduling der GPUs eine Herausforderung weil heutzutage viele Effekte über das gesammte Bild gezogen werden. Dementsprechend wäre ein zweistufiges Scheduling für die Grafikberechnung sinnvoll bei dem sozusagen grob vorsortiert, die Blöcke an die anderen GPUs verteilt und erst bei denen detailiert abarbeitet wird.
Die Frage ist natürlich ob diese Vorarbeit per Hard- oder Software erfolgen kann. Per Hardware hätte bei der Multichip Variante den Vorteil der räumlichen Nähe und damit der möglichen Bandbreite und Latenz.

Solche Probleme hat man mit einem monolithischen Chipdesign zwar nicht aber dafür andere, nämlich das mit steigender Chipgröße die Ausbeute in den Keller geht. (wenn beim Chip mehr da ist kann mehr kaputt gehen und das eckige passt nunmal schlecht auf das Runde)
Zudem muss man den Chip zwangsläufig für unterschiedliche Performanceklassen in unterschiedlichen Größen herstellen, was suboptimal für die Produktionsaufträge und Lagerhaltung ist.

Spätestens bei 2nm erwarte ich, dass die GPU Abteilung von AMD ~40-50% Marktanteil erreicht. Also Q4 2026 / Q1 2027.
Erwarten kann man viel, entscheidend ist was die Kundschaft kauft und für ein solches Ziel hat sie nvidia bisher zu gut dressiert.
Da müßte nvidia schon extremen Bockmist bauen um das auch nur annähernd zu erreichen. Bockmist wie seinerzeit bei der GTX970 reicht(e) ja offensichtlich nicht.
 
So lange Huang die Zügel in der Hand bei NV hat, kann er weiter mit Speicher knausern und schlechte BQ anbieten.

Der braucht eine Stutzung von oben. Ich würde Nvidia verbieten wie Indonesien Apple verboten hat. Mittelwelle sehe ich so viele Kunden, die wieder Aufrüsten müssen, weil das Nvidia und Intel Zeugs, was die früher teuer gekauft haben heute einfach nichts mehr taugt, also quasi technologischer Schrott, der ganze Länder technologisch zurück hält und nur einzelne US Interessen dient.

In China ist Nvidia weitgehend verboten:


Andere Länder sollten folgen, auch Deutschland, dann fliegt auch 3dc und PCGH und Konsorten raus, die Jahrzehnte lang nur Schrott produziert und Schrott empfohlen haben von Intel & Nvidia.


China tells firms to avoid Nvidia chips​

 
Und haben sie daraus etwas aus dem vorzeitigen Wechsel gelernt oder machen sie weiter wie bisher?
Meiner persönlichen Erfahrung nach ist eher letzteres der Fall.
 
Und haben sie daraus etwas aus dem vorzeitigen Wechsel gelernt oder machen sie weiter wie bisher?
Meiner persönlichen Erfahrung nach ist eher letzteres der Fall.

Gemischt. Einige wachen auf und wechseln. Boomer, die kurz vor der Rente stehen, ist das alles relativ Schnuppe.

Ich würde sagen, dass Intel lange Zeit und Nvidia auch seit längerer Zeit die Hauptverursacher für die Misere der IT in Deutschland ist und für deren Rückständigkeit, Abhängigkeit und Armut. Unwissenheit ist halt keine Stärke. Gilt auch für kritische IT-Infrastruktur wo das alte Zeugs einfach raus muss und nicht mehr konkurrenzfähig ist.

Der größte Schmerz beim Bau ist, dass Deutschland übelst rückständig ist und über jahrzehntelang verarscht wurde von den "mächtigen" US-Firmen. Die haben nur quasi nur lauwarme Semmel von vorgestern überteuert nach Deutschland / Europa verkauft für viel Kohle.

Einige Gewinner gibs trotzdem, die auf AMD setzen und gesetzt haben. Solide Leistung, bezahlbar und Langzeithaltbarkeit ist AMD doch deutlich besser.
 
Gemischt. Einige wachen auf und wechseln. Boomer, die kurz vor der Rente stehen, ist das alles relativ Schnuppe.

Ich würde sagen, dass Intel lange Zeit und Nvidia auch seit längerer Zeit die Hauptverursacher für die Misere der IT in Deutschland ist und für deren Rückständigkeit, Abhängigkeit und Armut. Unwissenheit ist halt keine Stärke. Gilt auch für kritische IT-Infrastruktur wo das alte Zeugs einfach raus muss und nicht mehr konkurrenzfähig ist.

Der größte Schmerz beim Bau ist, dass Deutschland übelst rückständig ist und über jahrzehntelang verarscht wurde von den "mächtigen" US-Firmen. Die haben nur quasi nur lauwarme Semmel von vorgestern überteuert nach Deutschland / Europa verkauft für viel Kohle.

Einige Gewinner gibs trotzdem, die auf AMD setzen und gesetzt haben. Solide Leistung, bezahlbar und Langzeithaltbarkeit ist AMD doch deutlich besser.
Sorry - aber das ist schon arg übertrieben...

Übliche Leasing-Zyklen bei Unternehmen sind 3-4 Jahre - und da hält ein Intel-Rechner genauso gut wie ein AMD-Rechner...
Darüberhinaus sind professionielle Management-Features und ein entsprechender Support wichtig - ob der Chip von Intel oder AMD kommt ist da eher Nebensache.
Davon abgesehen, gab es gerade professionelle Management Features viele Jahre lang einfach nur von Intel (z.B. vPro und Vorgänger).

Und wieso nVidia an der "Misere der IT in Deutschland" schuld sein soll, erschließt sich mir schon gar nicht...
Oder meinst Du, dass Lederjacke schuld sein soll, dass in Deutschland die KI-Entwicklung so weit zurückhängt??
Das hat ganz andere Gründe...
 
Der KI Hype zieht ohne Ende Geld, das woanders viel sinnvoller investiert wäre. Das muss man weiß Gott nicht Nvidia hinten rein schieben..
 
Der KI Hype zieht ohne Ende Geld, das woanders viel sinnvoller investiert wäre. Das muss man weiß Gott nicht Nvidia hinten rein schieben..
Das hab' ich auch nicht behauptet. Aber da profitieren alle, die Chips herstellen, welche rechnen können - ob uns das gefällt oder nicht. (Immerhin noch sinnvoller als der Kryptomist davor... :] )
 
Die Einzigen die aktuell dabei profitieren würden wäre Intel, nene, so nicht, das weiss auch Lisa und wies das Greücht gleich wieder zurück. :)
 
Intel konkurriert trotz der besseren Fertigung mit der 4 Jahre alten RX 6750XT 12GB, also zwei gens. zurück, mit RDNA2.

AMD verkauft RDNA2 7nm ganz normal weiter.

Bei den 12GB Karten gibs derzeit folgendes "Ranking" 2024/2025

RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+

Neu in 2025 bei den 12GB GPUs?
RTX 5070 12GB - 899€+ ???
RX 8700 XT 12GB -599€+ ???

RTX 4070S 12GB - 639€+
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+

Und jetzt in Foundrys bei den 12GB GPUs, 2025 ff.

TSMC/NV RTX 5070Ti S 12GB
TSMC/NV RTX 5070Ti 12GB
TSMC/NV RTX 5070S 12GB
TSMC/NV RTX 5070 12GB
TSMC/AMD RX 8700 XT 12GB
TSMC/NV RTX 4070S 12GB
TSMC/NV RTX 4070 12GB
TSMC/AMD RX 7700 XT 12GB
TSMC/AMD RX 6750 XT 12GB
TSMC/Intel B580 12GB
Samsung/NV RTX 3060 12GB

10 : 1 das Verhältnis zwischen TSMC vs. Samsung

7 : 3 : 1 ist das Verhältnis zurzeit bei den Grafikkarten NV : AMD : Intel

Im kommenden Jahr 2025 dann wahrscheinlich 9 (NV) : 5 (AMD) : 1 (Intel) bei den 12GB Karten.

Bei den 16GB Karten wird der Kampf womöglich noch härter und Nvidia macht ne eigene "Geforce 2 MX" Oberklasse auf. Also die Hälfte bzw. Salvages vom Top-Dog wird an die armen Gamer teuer verscherbelt um den KI-Kram zu finanzieren.

TSMC/NV RTX 5080Ti S 16GB - 1999€ :-(
TSMC/NV RTX 5080Ti 16GB - 1799€ :-(
TSMC/NV RTX 5080 S 16GB - 1599€ :-(
TSMC/NV RTX 5080 16GB - 1499€ :-(
___________________________________________

TSMC/AMD RX 8800 XT 16GB - 899€
TSMC/AMD RX 8800 16GB -799€
TSMC/NV RTX 4080 S 16GB - 999€
TSMC/NV RTX 4080 16GB - 999€
TSMC/NV RTX 4070Ti S 16GB - 829€
TSMC/AMD RX 7900 GRE 16GB - 569€
TSMC/NV RTX 4070Ti 16GB - 829€
TSMC/AMD RX 7800 XT 16GB - 479€
TSMC/NV RTX 4060Ti 16GB - 479€
TSMC/AMD RX 7600 XT 16GB - 359€
TSMC/Intel Arc A770 16GB - 325€

Das ist das "Ergebnis" was sich USA/Deutschland sich so gewünscht haben die letzten 20 Jahre. Technologische Sackgasse und einen GPU-Diktator wie Huang wo alle ihr Geld reinschmeißen (für Salvage Schrott). Dass China dieses Spielchen nicht mitmacht, war klar, aber Deutschland muss wieder zahlen fürs Bücken vor der USA.

Wird wahrscheinlich die nächsten 5 Jahre so bleiben.
 
Das ist das "Ergebnis" was sich USA/Deutschland sich so gewünscht haben die letzten 20 Jahre. Technologische Sackgasse und einen GPU-Diktator wie Huang wo alle ihr Geld reinschmeißen (für Salvage Schrott). Dass China dieses Spielchen nicht mitmacht, war klar, aber Deutschland muss wieder zahlen fürs Bücken vor der USA.

Wird wahrscheinlich die nächsten 5 Jahre so bleiben.
Sorry - aber versteh' ich nicht:
Auch in Deutschland haben Käufer immer noch die Wahl, ob sie AMD oder nVidia kaufen - und wenn sie sich für Letzteres entscheiden ist es nunmal Ihr Problem. Das nennt sich Marktwirtschaft... :]
 
Die Zukunft von AMD wird zum geringsten Teil vom Kaufverhalten in Deutschland beeinflusst. Wenn überhaupt gibt es in D ein global überdurschnittliches Interesse an Radeon und schon länger auch bei den CPUs. An Unis gibt es teilweise auch Interesse und Entwickler, sicherlich mehr als in den meisten anderen Ländern, v.a. Asien. Das nimmt aber eigentlich keinen nennenswerten Einfluss auf die globalen Marktanteile, es eröffnet nur Chancen.

Bei CPUs ist AMD nicht im Massenmarkt in ähnlichen Dimensionen wie Intel vertreten. Dort gibt es noch jede Menge Aufholbedarf, auch wenn Intel auf dem Papier bei der Hardware technisch bereits mehrere Jahre geschlagen wäre.
Bei GPUs ist AMD weiter hinter Nvidia zurückgefallen. Nicht was die Hardware sondern was die Adaption durch Software anbelangt. Das Konsolengeschäft und SuperComputer sind relativ geschlossene Systeme, die nicht Hype-getrieben sind.

Also wird AMD daran arbeiten die Märkte um Desktops und Laptops weiter aufzubrechen und CPU/APU Marktanteile zu übernehmen. Alles über 10% Zugewinn je Kalenderjahr wäre unerwartbar bis unrealistisch.
Bei GPU-Compute und AI wird man weiter am Ökosystem rund um ROCm arbeiten. Für 2025 darf da eine Reife und Konsolidierung erwartet werden die für Nischen gut funktionieren, bis nach der ersten UDNA-Generation bleibt das vermutlich holprig. Für FPGA und Xilinx-Beschleuniger bleibt man nach meinem Eindruck im Kundenstamm. Leider gibt es keine Abgrenzung durch AMD wo man ROCm/UDNA vs. Vitis/Versal im Einsatz sieht. Das ist betreffend AI eine offene Baustelle die unnötig verunsichert. Man kann für unsere Diskussion nur hoffen, dass AMD in der Kommunikation viel besser wird. Dass man heute so wenig öffentlich preisgibt bedeutet im Umkehrschluss, dass AMD bei Grossunternehmen als Partner zum Diskurs über Produktstrategien festhält. Der unmittelbare Consumer und DIY bekommt nur was dort übrig bleibt oder in fertige Produkte einfliesst. Bei GPUs fürs Gaming hat man vermutlich in wenigen Generationen eine Sättigung erreicht. Soweit die Partnerschaften in Semicustom gesund bleiben wird AMD dort gesetzt sein. Radeon kann theoretisch bei PCs über den gut genug Faktor mit P/L an Bedeutung gewinnen. RDNA4 ist da ein wichtiger Meilenstein, danach wissen wir mehr.
Mir fehlt die Phantasie was nach PhysX, Hairworks und RT noch Neues kommen soll um Gamern extra viel Geld aus der Tasche zu ziehen. PathTracing ist im Mainstream kaum vermittelbar, es bleibt deshalb spannend wie lange das Nvidia-Marketing noch funktioniert. Microsoft muss in der Gaming-Sparte milliarden an Dollar refinanzieren, hier könnte Nvidia offene Türen finden. DirectX hat die Kontrolle der Entwicklungen teilweise verloren. Microsoft wird meiner Meinung den grössten Einfluss auf die weitere Entwicklung und den Erfolg von Radeon haben, genauso Epic mit der UE5&6.
 
Zuletzt bearbeitet:
Naja, nvidia wird sich sicher wieder einen proprietären Blödsinn einfallen lassen und es als "must have" verkaufen...
 
Zurück
Oben Unten