App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.969
- Renomée
- 453
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das liest sich als sei AMD soweit Multi-Chiplet-Gaming GPUs zu bringen, die allerdings sehr teuer sind. Möglicherweise auch nur wenig Packaging-Kapazität.[..] Don’t worry. We will have a great strategy for the enthusiasts on the PC side, but we just haven’t disclosed it. We'll be using chiplets, which doesn't impact what I want to do on scale, but it still takes care of enthusiasts. [...]
Vermittelt man Entwicklern, dass wenige Optimierungen für die Single-Chiplets dann auch problemlos skalieren bei erscheinen der Mulit-Chplets.
Hier würde der "Software First" Ansatz greifen.
Was sagt er nicht? Ich sehe den Widerspruch nicht.Nein, das sagt er m.M. gerade nicht. Seine Aussage ist aus der Perspektive des Chipdesigns zu interpretieren.
Dass man Das HighEnd/Enthusiasten Segment vorerst aufgibt oder dass man sich aber die Moeglichkeit laesst irgendwann ein Halo Produkt fuer den Gamer in den Markt zu entlassen? Wo sagt er etwas anders?
Selbst wenn man intern sich dauerhaft vom Enthusiasten/HighEnd Bereich verabschiedet, wird er das so jetzt nie sagen (duerfen).
Es geht ihm in den Aussagen vor allem um das Volumenargument (Stueckzahlen). Aus dieser Logik leitet scheidet fuer ihn das Enthusiastensegment vorerst automatisch aus. Volumen gibt es in diesem Segment nicht aber weit darunter. Mainstream Leistungen sind der Fokus.
Wie die Umsetzungen erfolgt (mit oder ohne Chiplets oder eine Mischung) ist hiermit nicht gesagt. Aber kann zurecht annehmen, dass Chiplets fuer lower Mainstream noch keinen grossen Vorteil bieten.
Mit dem geringen Marktanteil ist im Moment kein Eindruck zu schinden. Ein weiteres Absacken waere vielleicht fatal fuer diesen Zweig bei AMD.
u.a. RDN4 (also Monolith) soll anfangen, diese negative Entwicklung zu stoppen.
Gut, lasst AMD damit anfangen.
Der Verweis auf die vermeintlichen Zyklen bei Nvidia verstehe ich im Kontext hier nicht so ganz.
Der Marktanteil von AMD ist wie er ist.
Gruss,
TNT
Doppelposting wurde automatisch zusammengeführt:
Richtig. Die Frage ist nur wann. Ich lese es so, dass sie zuerst Marktanteile ausbauen wollen (entscheidet) und dann auch wieder ein Strategie fuer das Enthuisastensegement haben werden oder wollen.Das liest sich als sei AMD soweit Multi-Chiplet-Gaming GPUs zu bringen, die allerdings sehr teuer sind.
'One day' - also irgendwann nichts konkretes auf jeden Fall erst mal nach 'scale'.TH: Price point-wise, you have leadership, but you won't go after the flagship market?
JH: One day, we may. But my priority right now is to build scale for AMD. Because without scale right now, I can't get the developers.
Seine Aussage klingt etwas konstruiert aber gut (Man koennte sogar beides anstreben aber AMD hat sich da nichts in den Koecher gesteckt).
Vielleicht sieht man auch, dass Nvidia den unteren Mainstreambereich nicht priaemar adressiert sondern meist von oben kommt.
AMD sucht hier den Weg von unten in den Markt?
Klar ist das Interview wenig konkret und laesst einiges an Spielraum fuer Interpretation.
Aber aktuell sind keine Enthuisastensegement dGPUs von AMD geplant.
Gruss,
TNT
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.763
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Nun ja, man sieht die Corona Blase, das Tal des Jammers danach und wie sich der Absatz am Ende wieder normalisiert.Hier mal wie es dem grössten Konkurrenten mit Gaming-GPUs so ergeht:
Das sieht schon recht zyklisch aus, leider fehlen die früheren Jahre.
Doppelposting wurde automatisch zusammengeführt:
Hieß es nicht schon länger das es AMDs Ziel wäre die GPUs aus vielen kleineren Chips zusammenzusetzen und sie somit weniger Chips besser skalieren zu können?Das liest sich als sei AMD soweit Multi-Chiplet-Gaming GPUs zu bringen, die allerdings sehr teuer sind. Möglicherweise auch nur wenig Packaging-Kapazität.[..] Don’t worry. We will have a great strategy for the enthusiasts on the PC side, but we just haven’t disclosed it. We'll be using chiplets, which doesn't impact what I want to do on scale, but it still takes care of enthusiasts. [...]
Vermittelt man Entwicklern, dass wenige Optimierungen für die Single-Chiplets dann auch problemlos skalieren bei erscheinen der Mulit-Chplets.
Hier würde der "Software First" Ansatz greifen.
Den auf viele kleine Chiplets ausgelagerten Infinity Cache und Speichercontroller sehe ich da eher als Feldversuch an, mich würde es nicht wundern wenn als nächstes ein 2 stufiger Sheduler kommt (erste Stufe zum groben Vorsortieren im IO Die, zweite Stufe verwaltet die ausgelagerten Shader/Render Part von denen man mehrere am IO Die anschließen könnte. Also sehr ähnlich dem aktuellen CPU Aufbau.
Die größte Hürde war offenbar bisher die erforderliche Bandbreite allerdings dürfte der Bedarf bei dem aktuell zersplitterten Speichercontroller und Infinity Cache auch nicht ohne sein.
Zuletzt bearbeitet:
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Seine Aussage war lediglich nicht mehr danach zu streben in jeder Generation den König der GPUs entwickeln zu wollen.Dass man Das HighEnd/Enthusiasten Segment vorerst aufgibt oder dass man sich aber die Moeglichkeit laesst irgendwann ein Halo Produkt fuer den Gamer in den Markt zu entlassen? Wo sagt er etwas anders?Nein, das sagt er m.M. gerade nicht. Seine Aussage ist aus der Perspektive des Chipdesigns zu interpretieren.
Selbst wenn man intern sich dauerhaft vom Enthusiasten/HighEnd Bereich verabschiedet, wird er das so jetzt nie sagen (duerfen).
Das ist wegen seiner Bestätigung weiterhin Chiplets-GPU machen zu wollen keine generelle Absage ans High-End. Die Absage gilt dem Wettstreit für die schnellste GPU. Davon hängen im Chipdesign eine Vielzahl kleiner Entscheidungen ab. Wenn dann ein Chiplet-Design im High-End nur mitschwimmt um ein Fähnchen hoch zu halten wäre das für ihn keine Niederlage, so verstehe ich ihn. Das ist etwas anderes als Koduri mit Vega wollte und was mit RDNA3 versucht wurde. Er sagt auch ganz klar, er will GPU-Chips (Monolithen) für den Mainstream und das Volumengeschäft, denn er wird Chiplets für High-End bringen.
Der Fehler wäre m.M. Nvidia weiterhin in der Launch-Strategie zu folgen und damit dauerhaft zu unterliegen. AMD müsste zu Nvidia antizyklisch zuerst die neuen/teureren von Apple erprobten TSMC-Nodes in Masse in kleinen GPUs auf den Markt bringen. So wie der Konsolenzyklus das auch vorgibt. Das würde helfen den Markt ordentlich aufzumischen. Nivida hatte es leider gemeistert den ganzen populären PC-Gaming-Markt für eigene Marketing-Zwecke zu instrumentalisieren. AMD sollte da auf einer anderen Wiese kämpfen die "gut genug mit besserem P/L" heisst. AMD ist mit Microsoft und Sony eigentlich in bester Position die kommenden GPU-Features und Leistungsparameter weiterhin festzulegen. Nvidia macht vor allem Rabatz mit proprietären Ansätzen und muss dann doch mittelfristig auf AMDs Designphilosophie reagieren. Bestes Beispiel ist die Entwicklung um UE5 Softwareshading und reingezwungenes HW-Raytracing ala Nvidia.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.806
- Renomée
- 466
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Waren das schlechte Produkte, oder gar der "Untergang der Grafiksparte"? Nein.Videocardz schrieb:"It’s worth noting that AMD has twice focused on the mainstream segment in recent history, first with the Polaris 10/20/30 series and later with the first-gen RDNA chips."
Das Rennen um die letzten Millimeter des längsten Balkens ist für AMD eh sinnlos, weil in diesem Bereich die Menge zu klein ist und zu viele verblendete Fanboys unterwegs sind. Da, wo es mit vertretbarem Aufwand machbar ist, werden auch wieder Lösungen mit dem längsten Balken kommen, wie es nach RDNA1 auch der Fall war.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.969
- Renomée
- 453
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Gut möglich, dass Multi-Chiplet nicht völlig ohne Softwareseitige Anpassungen möglich ist. Dann wäre das der folgerichtig Schritt, um beim Launch nicht 20-30% Leistung liegen zu lassen.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Die Radeon Gruppe und deren Fans dürfen sich gerne mal die Geschichte ansehen wie Nvidia vom "Niemand" sich gegen die Platzhirsche durchzusetzen begann... Ich zitiere mal Thomas Pabst von 1998:
Das Raytracing-Thema kann man im Generationswechsel mit den Konsolen zurückgewinnen, den meisten Nutzern ist der geringe Unterschied den Nvidia-Aufpreis auch nicht wert. Spiele ohne RT verkaufen sich nicht schlechter als mit RT, bis dann mal der Mainstream mit Konsolen richtig loslegt. Radeon braucht bis dahin das Image "gut genug" im Raytracing und ein paar Effekte in populären Games mit Work-Graph-Rendering für "whatabout Work-Graphs?".
[..würde intelligentes Marketing voraussetzen...leider...]
AMD muss ein deutlich günstigeres Produkt auf den Markt werfen, das den "DLSS-whataboutism" genauso beerdigt wie FreeSync das mit G-Sync gemacht hat. Das sollte doch mit MS als Partner und DirectSR via NPU/GPU/CPU und DirectML möglich sein, es fehlt nur noch sehr wenig.So it may be true that Unreal is currently best played on a Voodoo2 in SLI and that there are a few more Glide applications that make the 3Dfx products look better, but in the long run TNT will easily win. The clear advantages
are more important than huge frame rates of Voodoo2 SLI in some applications.
- price,
- higher screen resolutions,
- image quality significantly better,
- AGP 2x texturing,
Das Raytracing-Thema kann man im Generationswechsel mit den Konsolen zurückgewinnen, den meisten Nutzern ist der geringe Unterschied den Nvidia-Aufpreis auch nicht wert. Spiele ohne RT verkaufen sich nicht schlechter als mit RT, bis dann mal der Mainstream mit Konsolen richtig loslegt. Radeon braucht bis dahin das Image "gut genug" im Raytracing und ein paar Effekte in populären Games mit Work-Graph-Rendering für "whatabout Work-Graphs?".
[..würde intelligentes Marketing voraussetzen...leider...]
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.657
- Renomée
- 3.138
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
FreeSync das mit G-Sync
Das probiert nVidia gerade wieder zu beleben - das Problem ist auch das viele ein Vendor Lock unbesehen mit machen.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.806
- Renomée
- 466
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Und wir haben nicht mehr 1998, wir sind 26 Jahre weiter. Was damals gewesen ist, gilt heute nicht mehr, und was damals geklappt hat, ist im heutigen Markt nicht plötzlich "die Lösung".
Sie machen es einfach nicht mehr da es sich nicht lohnt (oder wenn man boese ist, sie koennen es nicht im Moment - RDNA3 hat es knapp verfehlt).Seine Aussage war lediglich nicht mehr danach zu streben in jeder Generation den König der GPUs entwickeln zu wollen.
Bislang war im Marketing dennoch immer von Gaming Leadership die Rede. Das kann man sich nun sparen.
Es ist einfach auch Stueckchen ehrlich machen ohne das im Moment fehlende Potential oder aktuelle Shortcommings der aktuellen Generation einstehen zu muessen. Die Strategie aendert sich nur . So kann man das auch verkaufen.
AMD entzieht sich so dem selbst gemachten Druck (oder des Marktes) mit dem absoluten TopEnd mitzuhalten zu wollen oder zu muessen.
Man darf nicht vergessen, dass das schon lange wenig gelungen ist liegt nicht daran, dass AMD hier schlechte Produkte produziert haette (sicher - nicht ohne Makel) aber Nvidia als Hauptkonkurrent hat eben einiges besser gemacht (weniger nur die Hardware sondern viel mehr die prop. Software und vor allem das Marketing IMHO).
Wie man die anderen Segmente zu bedienen bedenkt mittelfristig ist offen. RDNA4 wird aller Hinsicht nach monolitisch,
Was danach kommt, ist nicht klar. Ich denke nicht, dass Chiplets mittelfristig nur dem vermeintlich HighEnd vorbehalten werden.
Bei dem genannten CAP von 80% TAM - da ist gar nicht soviel HightEnd dabei (Stueckzahlen).
AMD will und wird weiter relevant bleiben im Markt und Marktanteile gewinnen.
Wenn man nicht den King hat, geht es ueber das P/L Verhaeltniss plus gut('smarte", gut genug) Produkte fuer das jeweils angepeilte Segment.
Mir persoenlich gefaellt es besser so, wenn AMD sich hier ein wenig BackToTheRoots orientiert. Und das Rennen, was man im Moment nicht gewinnen kann, Rennen sein laesst. Es wirkt gesuender als das hinter Nividia herrennen auf Dauer.
So tut sich vielleicht auch ein neuer Konkurrent auf -> Intel - who knows?
Vor allem sollte AMD weiter in Software investieren auch abseits von AI/Datacenter IMHO.
Und keep a straight face to the customer (das muss noch ein wenig geuebt werden).
Gruss,
TNT
Doppelposting wurde automatisch zusammengeführt:
Ich weiss nicht, wie man ohne Not den Vendor Lock gut finden kann aber das ist nur meine Meinung.Das probiert nVidia gerade wieder zu beleben - das Problem ist auch das viele ein Vendor Lock unbesehen mit machen.
Ich kann da nur wenig gutes oder noetiges sehen. Hier ist AMDs Ansatz auf jeden Fall smarter .
Gruss,
TNT
Doppelposting wurde automatisch zusammengeführt:
Wenn man diese Grafik sieht - kann es fuer AMD Grafiksparte fast nur aufwaerst gehen sonst wird es finster:
Zumindest war der Anteil fast noch nie so gering bei dGPU.
Zuletzt bearbeitet:
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Damals war die Situation aber offensichtlich ähnlich, Geschichte wiederholt sich weil es immer wieder menschelt. Es geht eben nicht nur allein um max-FPS, es kann auch bewusst anders eine erfolgreiche Verkaufsstory geschrieben werden, wenn man hier durch die Position der Konkurrenz nicht gewinnen kann muss man andere Vorteile ausspielen. Das ist tatsächlich die Lösung.Und wir haben nicht mehr 1998, wir sind 26 Jahre weiter. Was damals gewesen ist, gilt heute nicht mehr, und was damals geklappt hat, ist im heutigen Markt nicht plötzlich "die Lösung".
Genau das denke ich auch. Der Top-GPU-Anlauf in 2017 und in 2023 ging schief. Der erfolgreiche Anlauf in 2013 mit der 290x hat den Markt nicht gross bewegt. Heute erwartet kaum ein potentieller Kunde die teuerste und beste GPU von AMD. Bei Zen war das auch noch für mehrere Jahre der Fall, die Leistungsspitze kam dann fast überraschend, bis dahin war P/L für die Gamer massgebend.Es ist einfach auch Stueckchen ehrlich machen ohne das im Moment fehlende Potential oder aktuelle Shortcommings der aktuellen Generation einstehen zu muessen. Die Strategie aendert sich nur . So kann man das auch verkaufen.
AMD entzieht sich so dem selbst gemachten Druck (oder des Marktes) mit dem absoluten TopEnd mitzuhalten zu wollen oder zu muessen.
Die Strategie ist sogesehen auch aufgezwungen, aber man muss realistische Ziele ausgeben, auch wenn man einzelne Mitstreiter damit enttäuscht.
PS: was mich an der 3dCenter Grafik zu Marktanteilen immer wieder stört, ist dass da nicht steht ob es nach Umsatz oder nach Stückzahlen die Marktanteile sind. Schlimmer aber ist, dass das Gesamtvolumen nicht angegeben ist. D.h. auch wenn sich Marktanteile signifikant verschieben kann das deutlich mit dem geänderten Volumen zu tun haben. Bei Nvidia waren wie in meiner Grafik weiter oben zu sehen die Umsätze im Gaming jedenfalls eher stagnierend und schlechter als zu Corona.
Zuletzt bearbeitet:
Tom's Hardware: AMD announces unified UDNA GPU architecture — bringing RDNA and CDNA together to take on Nvidia's CUDA ecosystem
Mhmmm.... Jack hat aber auch einen Lauf ...No more RDNA? Alles UDNA?
Das koennte eine weitreichende Entscheidung sein oder 'nur' Marketing.
Ob das sinnvoll ist?
Oder ist das eher eine Software Sache (oder schlicht beides)?
Eine Wette auf die Zukunft!
Gruss,
TNT
PS.
Und ob das nun ein offizielles Announcement zaehlt - NoAhnung.
Oder Jack ist ein leaker from the inside?
Edit:
VideoCardz: AMD UDNA to unify gaming and data-center GPU architectures, successor to RDNA and CDNA
Zuletzt bearbeitet:
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Ich hoffe man hat bei CDNA ähnliche Vorteile oder zumindest keine Nachteile in der WGP Organisation und der Cache-Hierarchie von Navi32 gesehen. Sonst könnte das einen grossen Umbruch und Leistungsverlust fürs Gaming bedeuten. Auf der anderen Seite frage ich mich wie das mit HBM weiter gehen soll. Die Hoffnung wäre, dass HBM in Massen für Gaming in 2 Jahren endlich günstig würde. Wäre sogar möglich nachdem für Compute relativ viel mehr VRAM benötigt wird. Dann müsste HBM die Geschwindigkeit des IF-Cache von RDNA 4 mit UDNA 6 aufholen und RDNA 5 könnte noch "little bumps" ohne IF-Cache haben. Beides zusammen scheint mir zu viel des Guten. IF-Cache im Compute kann ich mir nicht vorstellen, die LLM sind afaik nicht dafür geeignet.JH: So, one of the things we want to do is ...we made some mistakes with the RDNA side; each time we change the memory hierarchy, the subsystem, it has to reset the matrix on the optimizations. I don't want to do that.
So, going forward, we’re thinking about not just RDNA 5, RDNA 6, RDNA 7, but UDNA 6 and UDNA 7. We plan the next three generations because once we get the optimizations, I don't want to have to change the memory hierarchy, and then we lose a lot of optimizations. So, we're kind of forcing that issue about full forward and backward compatibility. We do that on Xbox today; it’s very doable but requires advanced planning. It’s a lot more work to do, but that’s the direction we’re going.
:
We forked it because we wanted to micro-optimize in the near term, but now that we have scale, we have to unify back, and I believe it's the right approach. There might be some little bumps.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.783
- Renomée
- 299
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Erst trennt man GCN in RDNA und CDNA und jetzt Rolle rückwärts? Da bekommt man ja wieder die Rohleistung nicht auf die Straße..
Könnte aber softwareseitig von Vorteil sein, wenn man mit Rocm nicht mehr abgespeckte Gamer GPUs unterstützen muss.
Könnte aber softwareseitig von Vorteil sein, wenn man mit Rocm nicht mehr abgespeckte Gamer GPUs unterstützen muss.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Ein Chiplet-UDNA könnte im Gaming unter vergleichbar niedrigen Werten bei LoRes HighFPS leiden während es für Compute keine Skalierungsprobleme gäbe. Im HighRes Gaming um die 100Hz würde ich da weniger Nachteile sehen, Halo-Produkt als Top-Gaming Performer ist damit aber unwahrscheinlich. Wie bei CPUs würde man gegen Monolithen für minimste Latenzen den Kürzeren ziehen.
Wenn er das mit der Rückwärtskompatibilität ernst meint müsste er die ISA von CDNA und RDNA in einem UDNA unterbringen, maximal Funktionen ersetzen, nicht gänzlich streichen.
Musste gerade nochmal nachsehen. CDNA in den Instincts hat 1GHz Baseclock bis 1.7GHz Boost (Vega2 MI25 1.4 bis 1.5 Ghz). Das ist nix womit Gaming in hohen FPS möglich ist. Bin gespannt wie die das auf einen Nenner bringen wollen.
Wenn er das mit der Rückwärtskompatibilität ernst meint müsste er die ISA von CDNA und RDNA in einem UDNA unterbringen, maximal Funktionen ersetzen, nicht gänzlich streichen.
Musste gerade nochmal nachsehen. CDNA in den Instincts hat 1GHz Baseclock bis 1.7GHz Boost (Vega2 MI25 1.4 bis 1.5 Ghz). Das ist nix womit Gaming in hohen FPS möglich ist. Bin gespannt wie die das auf einen Nenner bringen wollen.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.763
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das war allerdings noch zu einer Zeit wo ernsthafter Wettbewerb bestand und sich der Marktführer nicht inDie Radeon Gruppe und deren Fans dürfen sich gerne mal die Geschichte ansehen wie Nvidia vom "Niemand" sich gegen die Platzhirsche durchzusetzen begann... Ich zitiere mal Thomas Pabst von 1998:
AMD muss ein deutlich günstigeres Produkt auf den Markt werfen, das den "DLSS-whataboutism" genauso beerdigt wie FreeSync das mit G-Sync gemacht hat.So it may be true that Unreal is currently best played on a Voodoo2 in SLI and that there are a few more Glide applications that make the 3Dfx products look better, but in the long run TNT will easily win. The clear advantages
are more important than huge frame rates of Voodoo2 SLI in some applications.
- price,
- higher screen resolutions,
- image quality significantly better,
- AGP 2x texturing,
proprietären Funktionen einmauert welche die Konkurrenz hanz einfach nicht unterstützen kann.
Die Firma die dem am nächsten kam war 3dfx und die schafften sich mit Eigentoren selbst ab.
Über den Preis zu gehen hatte AMD übrigens lange Zeit versucht, damit kaum was erreicht und sich damit letztendlich nur die eigene Margen ruiniert.
Man kann eben keinen Kunden der Konkurrenz erreichen wenn er nichts anderes kaufen will.
Man kann auch fragen, was AMD's Grafiksparte fuer dGPU sonst uebrig bleibt aktuell? Enthusiastensegment ist mit RDN4 nicht anpeilbar.Über den Preis zu gehen hatte AMD übrigens lange Zeit versucht, damit kaum was erreicht und sich damit letztendlich nur die eigene Margen ruiniert.
Eine gesunde Mischung muss also fuer den Markt (good enough) und guenstig(er) (good/best value proposition).
Nichts neues eigentlich nur das Anerkennen der Realitaeten.
Wie das Verheiraten beider Ansaetze ohne grosse Verluste fuer den einen als auch fuer den anderen Bereich gehen soll, kann ich mir im Moment nicht so recht vorstellen. Aber da ist meine Kenntnis begrenzt.
Es kann in der Tat so werden, dass GPUs ein gefuehltes Anhaengsel von Compute werden (somit auch ein klares dauerhaftes Argument gegen HighEnd/Enthusiastensegement). AI Featureset wichtiger werden als FPS usw.
Aber lohnt sich das? Kann man damit wirklich einheitliche Dies bauen und in beiden Produkten verwenden (chiplets)?
Oder heisst UDNA nur, dass es verschiedene Auspraegungen eines Grunddesigns geben wird mit unterschiedlichen Schwerpunkten.
Sprich, dass es weiterhin designierte Arichtekturen in Hardware einmal fuer Gaming und einemal fuer Compute geben wird?
Und man teilt sich 'nur' die Tools und grundsaetzliche Faehigkeiten also eine Art Grundtstock?
(Waere gar nicht so ganz anders als heute - man nennt es nur anders).
Aber wer weiss vielleicht steht in den naechsten fuenf Jahren ein Ryzen Moment an in der Grafiksparte..aeh Compute Sparte.
Gruss,
TNT
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.763
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Will die Kundschaft der Konkurrenz nichts anderes kaufen bleibt ihnen nur übrig ihre Kunden weiter zu bedienen und dabei Preise zu verlangen von denen man auch leben kann. Also am Ende das was sie bereits seit längerer Zeit machen.
Gibt es Anzeichen das nvidias Kundschaft von deren Geschäftspraktiken die Schnauze voll hat und offen für Alternativen wird können sie immernoch in den Preiskampf gehen aber die Sparte garantiert nicht lange überleben wenn sinnlose Preisschlachten zu einem dicken Minus führen. Dann droht eher der Schritt den so viele ehemalige Konkurrenten zuvor gegangen sind. Eine unrentable Sparte wird eingestellt.
Gibt es Anzeichen das nvidias Kundschaft von deren Geschäftspraktiken die Schnauze voll hat und offen für Alternativen wird können sie immernoch in den Preiskampf gehen aber die Sparte garantiert nicht lange überleben wenn sinnlose Preisschlachten zu einem dicken Minus führen. Dann droht eher der Schritt den so viele ehemalige Konkurrenten zuvor gegangen sind. Eine unrentable Sparte wird eingestellt.
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.518
- Renomée
- 93
- Standort
- Switzerland
- Mein Laptop
- Lenovo IdeaPad Slim 3 (16", AMD Ryzen 5 7530U, 16GB) WIN11 / Zorin OS
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Als früherer nv Fanboy kann mich sogar noch sehr gut errinnern als nvidia sagte dass sich die Hersteller gefälligst an Standards halten sollen, damit auch kleinere Firmen wie sie eine Chance am Markt haben.as war allerdings noch zu einer Zeit wo ernsthafter Wettbewerb bestand und sich der Marktführer nicht in
proprietären Funktionen einmauert welche die Konkurrenz hanz einfach nicht unterstützen kann.
Die Firma die dem am nächsten kam war 3dfx und die schafften sich mit Eigentoren selbst ab.
Genau das machte für mich nv symphatisch, da ich ein Verfechter von Standards bin.
Was daraus geworden ist wissen wir ja mittlerweile und habe dann, als AMD ATi übernahm, defnitiv das Lager gewechselt.
Wave64 von RDNA3 war gefühlt doch schon die Rolle rückwärts Richtung GCN/CDNA. Hat leider eher weniger gut funktioniert. Kann also fast nur besser werden.
Der Artikel klingt so als würden dann auch die Matrix Units von CDNA in den Radeons einzig halten. Das ist definitiv zu begrüßen, benötigt aber auch Software die diese dann nutzen kann.
Der Artikel klingt so als würden dann auch die Matrix Units von CDNA in den Radeons einzig halten. Das ist definitiv zu begrüßen, benötigt aber auch Software die diese dann nutzen kann.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.758
- Renomée
- 707
Ich denke RDNA konnte immer Wave64 abarbeiten in einem dualCU mit 2x32. Neu war doch der WGP, der für 128Threads einen gemeinsamen Cache etablierte. Deshalb sehen die relativ gut aus bei UE5 mit 128Triangles per Wave. Auch RDNA3 hat wie CDNA Matrix-Ops in Hardware, nur unterschiedlich.
Nunja, die Designziele sind in den letzen Jahren bei Gaming RDNA und Compute CDNA unterschiedliche gewesen:
Beim Gaming grosse möglichst lokale Caches und günstiger VRAM, weil die Daten von parallel arbeitenden Shadereinheiten oft gleichermasen gelesen werden müssen oder auch aufs gleiche zusammenhängende Target schreiben müssen. Dennoch günstiger VRAM weil es für die Spitze nicht genügt. Für 150FPS und mehr dafür dennoch auch noch möglichst hohen Takt, damit die Latenzen sinken.
Gegenüber GCN musste man einen viel schnelleren Thread bzw. Taskwechsel hinbekommen um die Auslastung zu steigern, die Cachehierarchie ebenso, hat in CU-Gruppen das Heil gesucht. Die Erweiterungen für RT in der CU an den Textureinheiten erweitert. So ist man Leistungsfähiger je mm² als Nvidia geworden, nur nicht effizienter und taktfreudiger, da Nvidia wieder den Nodevorsprung bei TSMC für sich nutzen kann.
Bei Compute geht es um möglichst hohe Effizienz und Leistung je Rack bzw. Höheneineit. Da wird nach dem erwarteten Zugriffsmuster auf den VRAM kein Cache zu gross gestaltet und möglichst breit bei geringerem Takt gefahren.
Habe nochmal nachgesehen: CDNA3 hat ja wirklich enormen IF-Cache von 256MB bekommen, dafür aber 3 Stufen ab L1 mit nur 32kB/4MB/256MB wo RDNA3 durch den L0 gleich 4 Stufen hat mit 2x32kB/256kB/6MB/96MB. Dazu war bei CDNA das HBM Pflicht, weil man Unmengen an unterschiedlichen Speicherzugriffen in hoher Bandbreite benötigt. Erweiterte Matrixops und Datentypen für AI und dafür den Rucksack der Graphik-Pipeline abgeworfen, das Frontend erleichtert. Dazu ohne Syncprobleme mit Chiplets auf normalem IF hochskaliert. So ist man effizienter und leistungsfähiger je mm² als Nvidia geworden, auch auf gleicher Node. Am Ende zählt da SoC Integration und Menge an HBM mehr als die reine Compute-Leistung. Nvidia glänzt dennoch mit dem CUDA-ökosystem und All-in-One Lösungen. AMD glänzt nur bei den Top500 und Hyperscalern.
Wenn man das wieder zusammenbringt hat man die Schwierigkeiten und Chancen von GCN5. Die Gefahr ist teurerer RAM, niedrigerer Takt und weniger IPC fürs Gaming, weniger Effizienz in Energie und mm² für Data Center Compute. Dafür können die Chips beliebig zwischen den Märkten verschoben werden, die besten Yields gehen nur ins Pro-Segment, der Gamer gibt ordentlich Watt.
Nur dass man heute vielleicht mit viel mehr Transistoren mehr Funktionen einfacher integriert und günstigerem HBM verwenden kann. Oder dass mit gleichem Compute-Die mit unterschiedlichem I/O und Control Chiplet je Markt die grössten Kompromisse von damals wegbügeln kann?
z. B. ein zu grosser L0/L1/L2 kostet relativ weniger Energie als damals und bei den CUs kann man etwas komplexer bauen weil man neue Cache-Konzepte hat oder ein paar Logik-Transistoren nicht mehr so ins Gewicht fallen relativ zu Chipgrösse und den Cache-Stufen oder dem Si und I/O? Man hat mit RDNA3 unterschiedliche Clock-Domains für CUs und GPU-Frontend eingeführt, die Einheiten getrennt. Vielleicht ist das eine Schlüsselentwicklung die GCN fehlte
Nunja, die Designziele sind in den letzen Jahren bei Gaming RDNA und Compute CDNA unterschiedliche gewesen:
Beim Gaming grosse möglichst lokale Caches und günstiger VRAM, weil die Daten von parallel arbeitenden Shadereinheiten oft gleichermasen gelesen werden müssen oder auch aufs gleiche zusammenhängende Target schreiben müssen. Dennoch günstiger VRAM weil es für die Spitze nicht genügt. Für 150FPS und mehr dafür dennoch auch noch möglichst hohen Takt, damit die Latenzen sinken.
Gegenüber GCN musste man einen viel schnelleren Thread bzw. Taskwechsel hinbekommen um die Auslastung zu steigern, die Cachehierarchie ebenso, hat in CU-Gruppen das Heil gesucht. Die Erweiterungen für RT in der CU an den Textureinheiten erweitert. So ist man Leistungsfähiger je mm² als Nvidia geworden, nur nicht effizienter und taktfreudiger, da Nvidia wieder den Nodevorsprung bei TSMC für sich nutzen kann.
Bei Compute geht es um möglichst hohe Effizienz und Leistung je Rack bzw. Höheneineit. Da wird nach dem erwarteten Zugriffsmuster auf den VRAM kein Cache zu gross gestaltet und möglichst breit bei geringerem Takt gefahren.
Habe nochmal nachgesehen: CDNA3 hat ja wirklich enormen IF-Cache von 256MB bekommen, dafür aber 3 Stufen ab L1 mit nur 32kB/4MB/256MB wo RDNA3 durch den L0 gleich 4 Stufen hat mit 2x32kB/256kB/6MB/96MB. Dazu war bei CDNA das HBM Pflicht, weil man Unmengen an unterschiedlichen Speicherzugriffen in hoher Bandbreite benötigt. Erweiterte Matrixops und Datentypen für AI und dafür den Rucksack der Graphik-Pipeline abgeworfen, das Frontend erleichtert. Dazu ohne Syncprobleme mit Chiplets auf normalem IF hochskaliert. So ist man effizienter und leistungsfähiger je mm² als Nvidia geworden, auch auf gleicher Node. Am Ende zählt da SoC Integration und Menge an HBM mehr als die reine Compute-Leistung. Nvidia glänzt dennoch mit dem CUDA-ökosystem und All-in-One Lösungen. AMD glänzt nur bei den Top500 und Hyperscalern.
Wenn man das wieder zusammenbringt hat man die Schwierigkeiten und Chancen von GCN5. Die Gefahr ist teurerer RAM, niedrigerer Takt und weniger IPC fürs Gaming, weniger Effizienz in Energie und mm² für Data Center Compute. Dafür können die Chips beliebig zwischen den Märkten verschoben werden, die besten Yields gehen nur ins Pro-Segment, der Gamer gibt ordentlich Watt.
Nur dass man heute vielleicht mit viel mehr Transistoren mehr Funktionen einfacher integriert und günstigerem HBM verwenden kann. Oder dass mit gleichem Compute-Die mit unterschiedlichem I/O und Control Chiplet je Markt die grössten Kompromisse von damals wegbügeln kann?
z. B. ein zu grosser L0/L1/L2 kostet relativ weniger Energie als damals und bei den CUs kann man etwas komplexer bauen weil man neue Cache-Konzepte hat oder ein paar Logik-Transistoren nicht mehr so ins Gewicht fallen relativ zu Chipgrösse und den Cache-Stufen oder dem Si und I/O? Man hat mit RDNA3 unterschiedliche Clock-Domains für CUs und GPU-Frontend eingeführt, die Einheiten getrennt. Vielleicht ist das eine Schlüsselentwicklung die GCN fehlte
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.657
- Renomée
- 3.138
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Wann UDMA realisiert wird wissen sie ja noch gar nicht - Entwickelung von CDNA5 und RDNA5 sollten schon lange in in Gange sein.
Wenn man sich das aktuelle Portfolio von Nvidia so anschaut liegt zwischen 4080 und 4090 ein große Leistung und Preis Lücke.
Da wohl nicht mal was im Bereich der 4080 an bieten zu wollen ist für mich schon ein Offenbarungseid.
Nun wir werden sehen zu was es führt.
Wenn man sich das aktuelle Portfolio von Nvidia so anschaut liegt zwischen 4080 und 4090 ein große Leistung und Preis Lücke.
Da wohl nicht mal was im Bereich der 4080 an bieten zu wollen ist für mich schon ein Offenbarungseid.
Nun wir werden sehen zu was es führt.
Keiner redet von sinnlosen Preisschlachten. Und es geht auch nicht nur um die Fanboys oder technikaffinen.wenn sinnlose Preisschlachten zu einem dicken Minus führen.
Das Volumen des Marktes liegt woanders auch wenn diese Spezialgruppe durchaus hoerbar und nicht zu unterschaetzen ist.
Frag doch mal den unbedarften welche GPU in seinem Geraet werkelt? Wer weiss das schon so genau.
Und wer schon im Notebook - falls eine dGPU ueberhaupt vorhanden ist.
Deiner Meinung nach sollte AMD hier passiv bleiben und weiter so machen wie zuvor und nur den Markt beobachten?
Das halte ich fuer fatal und falsch. Die aktuellen Marktanteile hast Du gesehen.
Es wird an dieser Stelle mehr als deutlich, dass AMD falls sie den dGPU Markt bedienen wollen, sie etwas aendern muessen.
Hier fangen sie an einzugestehen, dass sie kein FlagShip koennen verpackt in eine Marketing Message zum Strategiewechsel.
Gut so.
AMD nimmt Druck aus dem Kessel fuer sich selbst und bewahrt die Gruppe der Enthusiasten vor falschen Erwartungen (aber nicht vor hohen Preisen Nvidia).
AMD Slogan: "AMD, the smarter choice":
Genau diesen Stunt muessten sie in der Grafik Sparte sprichwoertlich hinlegen und diese Message in den Markt (Endkunden, OEMs und AIB Manuf, Software Entwickler) tragen (Nicht ganz GPU Koenig aber einfach eine smartere Loesung fuer 90% der Anwendungen).
Bessere AI Funktionen waere hier sicherlich (im Moment) ein Weg Anschluss zu finden usw. Ausgebaute Software ist auch ein Punkt wo kann man sich von der Konkurrenz weiter absetzen (FSR, FreeSync -> closed vs. open source, HybridGrafik (wann wird das Versprechen eingeloest? Besserer IDLE Verbrauch usw.) muesste. Driver etc.
Das ganze umfasst auch einen klaren Produktportfolio in allen addressierten Segmenten sowie eine grundsaetzliche gute Lieferfaehigkeit/Volumenfaehigkeit usw.
Aber ein Triggerpoint fuer mehr Marktanteile ist nach wie vor die Preisgestaltung; denn die war in letzter Zeit bei AMD leicht ueberzogen z.T. oder schon mal etwas komisch (RX 7900 XTX vs, RX 7900 XT) IMHO.
Ordentliche Gewinne werden nicht allein ueber Margen erzielt.
Aber mal ehrlich, wenn man von 12% Marktanteil kommt und auf mittelfristig 40-50% schielt, dann geht es nur ueber eine wahrgenommene bessere Loesung und eben ueber einen mehr als konkurrenzfaehigen Preis. AMD braucht da einiges an Spielraum sowohl beim Preis als auch bei angebotenen Palette.
Das Unterfangen wird ohne einen Invest in Marktanteile nicht funktionieren. Nicht einfach aber moeglich.
Der AIB Markt soll insgesamt deutlich wachsen. Das wird AMD bei dieser Aufgabe helfen.
Festgefahrene Meinungen zu aendern im Markt ist schwer und braucht Zeit. Die nimmt sich AMD vielleicht in diesem Moment.
Oder es ist der leise Abgesang auf die dGPU Sparte.
Nur Marktanteile haben zu wollen um gegen CUDA Pool von 4 Mio. Developers zu wachsen und ebenfalls Mio. an Developers aufzubieten, klingt beim zweiten Hoeren nicht gerade, dass hier der Fokus auf Gaming/Desktop liegt. Aber vielleicht ist das (mit)gemeint.
Falls die neue Strategie weiterverfolgt wird, reden wir in 6 bis 8 Jahren nochmal.
Dann sollte sichtbar sein was hier der Plan war und was daraus geworden ist.
Warten wir es ab, was AMD so umtreibt.
Wir duerfen zugucken aber AMD darf es nicht, wenn sie etwas aendern wollen an ihrer Position in diesem Markt,
Die Konkurrenz schlaeft nicht.
Gruss,
TNT
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.763
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@TNT
Du gehst von einer unvoreingenommenen Kundschaft aus, also etwas vollkommen fiktiven.
Das was du dir vorstellst wurde das letzte mal zu Zeiten der R200 und R300 Serie versucht und noch nicht einmal das Debakel um das Speicherinterface der GTX970 konnte nichts daran ändern das diese Speicherkrüppel bevorzugt gekauft wurde. Nicht umsonst markiert dieser Zeitpunkt das Ende der Zeit wo AMD über den Preis versuchte Martanteile zu gewinnen und in jedem Leistungsbereich ein Konkurrenzprodukt aufzustellen und setzen die Preise nur noch leischt unterhalb des Konkurrenzmodells an. Man verkauft dadurch vielleicht weniger Einheiten aber pro Einheit eben deutlich mehr.
Ich glaube kaum das die Kundschaft heute aufgeschlossener ist, eher im Gegenteil und genau deshalb wäre es eine sinnlose Preisschlacht weil nichts außer geringere Einnahmen dabei rum kämen.
Das was du dir vorstellst ist schon damals gescheitert.
Auch ist die Strategie alles andere als neu oder kannst du dich seit Vega an ein direktes Konkurrenzmodell für nvidias Topmodelle erinnern?
Wenn das so weiter geht hat der Großteil der Kundschaft eben genau das was sie wollten, keine Wahl denn nicht nur nvidia ist ein gewinnorientiertes Unternehmen sondern auch AMD und nicht nur der Preisdrücker für die Konkurrenz.
Du gehst von einer unvoreingenommenen Kundschaft aus, also etwas vollkommen fiktiven.
Das was du dir vorstellst wurde das letzte mal zu Zeiten der R200 und R300 Serie versucht und noch nicht einmal das Debakel um das Speicherinterface der GTX970 konnte nichts daran ändern das diese Speicherkrüppel bevorzugt gekauft wurde. Nicht umsonst markiert dieser Zeitpunkt das Ende der Zeit wo AMD über den Preis versuchte Martanteile zu gewinnen und in jedem Leistungsbereich ein Konkurrenzprodukt aufzustellen und setzen die Preise nur noch leischt unterhalb des Konkurrenzmodells an. Man verkauft dadurch vielleicht weniger Einheiten aber pro Einheit eben deutlich mehr.
Ich glaube kaum das die Kundschaft heute aufgeschlossener ist, eher im Gegenteil und genau deshalb wäre es eine sinnlose Preisschlacht weil nichts außer geringere Einnahmen dabei rum kämen.
Das was du dir vorstellst ist schon damals gescheitert.
Auch ist die Strategie alles andere als neu oder kannst du dich seit Vega an ein direktes Konkurrenzmodell für nvidias Topmodelle erinnern?
Wenn das so weiter geht hat der Großteil der Kundschaft eben genau das was sie wollten, keine Wahl denn nicht nur nvidia ist ein gewinnorientiertes Unternehmen sondern auch AMD und nicht nur der Preisdrücker für die Konkurrenz.
Das tue ich nicht aber man muss aus der Blase der Interessierten und Technikbegeisterten/Nerds/RetailMarkt aussteigen.Du gehst von einer unvoreingenommenen Kundschaft aus, also etwas vollkommen fiktiven.
Das groesste Volumen(Stueckzahlen) liegt da nicht.
AMD needs to be smarter!
Mitnichten meine ich AMD muesste sich in einen runinoesen Preiskampf werfen aber AMD muss bessere Preispunkte treffen bzw. die eigene Preisgestaltung als auch die Palette ueberdenken, wenn man Volumen im grossem Stil abgreifen will. Du siehst es zu sehr schwarz/weiss.
Ein attraktives Paket sollte AMD schnueren auch ohne den Sticker 'Abkoemmling der besten Grafikkarte to-date mit Preisen >1k'.
Der Sticker 'AMD inside' allein bei Grafikkarten reisst keinen aus dem Sitz mittelfristig.
Volumen erlangt man auf jeden Fall nicht, wenn man relevante Preise nicht trifft und im Markt als unterlegen in der Leistung und Technik (z.B. DLSS, RT) wahrgenommen wird. Die Marktanteile der letzten Zeit zeigen dies eindeutig. Das Hinterherhecheln und vernachlaessigen gewisser Preispunkte.Marktsegmente hat dazu gefuehrt.
Das hat auch nichts damit zu tun, ob das fair ist und Nvidia das unsympathischere Unternehmen vielleicht ist.
Ich denke, dass AMD mit der Grafiksparte an einem Wendepunkt steht. Die Frage ist, ob man weiter so duempeln will bei dGPU und eventuell ueber kurz oder lang diese Sparte aufgibt oder ob man versucht weiter relevant zu bleiben.
Als Konzern kann AMD auf Grafik nicht ganz verzichten, die in Form von APUs(iGPUs) und Konsolenchips weiter gebraucht wird.
Diese Marketing Message klingt nun so, dass AMD einen Wechsel an dieser Stelle vornimmt um daraus Synergien zu schoepfen und so das Marktpotential in den unteren 80% der dGPUs erobern will. Ob das nur MarketingSprech ist NoAhnung. Es aber nichts was morgen im Markt gleich sichbar ist.
Bisdahin muss man den Markt auch mit solchen Messages fuettern und sich erklaeren, so dass der Markt mit entsprechenden Erwartungen reagieren kann.
Vielleicht war das hier ein vorsichtiger Anfang davon.
Ich gehe auch davon aus, dass wir weiterhin Chips/Chiplets/Dies sehen werden, die auf den jeweiligen Zielmarkt zugeschnitten sind.
Aber vielleicht teilen sie mehr und mehr Eigenschaften/Funktionen/Software untereinander als bislang oder vielleicht auch nur Entwicklung Ressourcen.
Who knows.
Gruss,
TNT
Ähnliche Themen
- Antworten
- 850
- Aufrufe
- 63K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 782
- Aufrufe
- 108K