AMD RDNA2 / Navi-2 und "Bignavi"

aber müssten nicht nutzlos entsorgt werden.
Müssen sie nicht, die Abstufungen brauchen sie für mobile GPUs, vielleicht auch für OEM-Desktops. Aber für Privatkunden sehe ich da generell schon kaum einen Markt (Volumen-mäßig, denkt daran, dass Do it yourself eine kleine Nische ist). Und während der Chipkrise ist es nicht drin.
 
Wenn mobile GPUs ein Grund sind, dieseGPU auf den Markt zu bringen, verstehe ich die Verwunderung noch viel weniger.
 
Naja, dass solche kleinen GPUs in Hardware existieren, und es für (OEM-)Notebooks und OEM-Desktops deutlich mehr Modelle gibt, war ja schon immer so, auch vor der Chipkrise. Sinnvoll sind sie da meist auch nicht. Es gibt ja regelrecht "überflüssige" Kombinationen aus einer schnellen iGPU und einem langsameren(!) Extra-Chip. Aber der Kunde (OEM) will es so und er zahlt dafür, inkl. neuer Modellnummern im Jahrestakt.

Womöglich gibt es bei Endverbrauchern in Asien auch solche "Glaubenssätze" wie im asiatischen Smartphone-Markt: nur ein großes Smartphone ist ein gutes Statussymbol. Ein "vernünftiger PC" braucht eine Grafikkarte? Keine Ahnung, jedenfalls läuft der Markt scheinbar so. Und womöglich buchen die Hersteller auch "Pakete" aus xx großen / mittleren / kleinen CPUs sowie xx großen / kleinen GPUs. Wenn du irgendwo nichts anbieten kannst, dein Konkurrent aber schon, hast du ein Problem. Dann macht es mehr Sinn, die ganze Serie auf deinen Konkurrenten auszulegen. Ist jetzt nur ne Vermutung, aber dass die OEMs in der wirtschafltichen Bedeutung weit, weit vor dem DIY-Markt kommen, wissen wir ja alle.

Ich denke, AMD hätte ohne die Chipkrise auch ein paar 6 nm-Chips über (oder würde weiter Polaris fertigen). Ferner können wir davon ausgehen, dass man in jedem Preissegment vertreten sein möchte, was noch Gewinn abwirft.
 
Zuletzt bearbeitet:
Ich denke das man wieder die gleiche Strategie wie in der Vergangenheit fahren wird, ein Modell mit einem neuen Chip Design/Fertigungsprozess in einer bestehenden Serie als Pilot Modell für die nächste Kartengeneration starten um vor dem Start auf breiter Front Produktionserfahrungen zu sammeln.
 
Der Mai-Treiber bringt einen so großen Performance-Sprung für Radeon-Karten (zwischen 3 und 41 %), dass die Tests von DX11-Spielen wiederholt werden müssen.


Weitere Werte des Twitterers CapFrameX: Assassin's Creed Odyssey +34 % / God of War +41 %

Hier zeigt sich wie schon in den letzten Jahren, dass AMDs Karten tatsächlich besser reifen als die von Nvidia. Man kann also zum Launch gedanklich noch etwas drauf schlagen, und sollte sich von den oftmals knappen Unterschieden nicht so beeindrucken lassen.
 
Zuletzt bearbeitet:
Weitere Werte des Twitterers CapFrameX: Assassin's Creed Odyssey +34 % / God of War +41 %

Hier zeigt sich wie schon in den letzten Jahren, dass AMDs Karten tatsächlich besser reifen als die von Nvidia. Man kann also zum Launch gedanklich noch etwas drauf schlagen, und sollte sich von den oftmals knappen Unterschieden nicht so beeindrucken lassen.

Und Crysis Remastered bis zu +24%.
 
Hier zeigt sich wie schon in den letzten Jahren, dass AMDs Karten tatsächlich besser reifen als die von Nvidia. Man kann also zum Launch gedanklich noch etwas drauf schlagen, und sollte sich von den oftmals knappen Unterschieden nicht so beeindrucken lassen.

Klar kann das jeder machen. Zumindest ich brauche solche Hilfskrüken nicht, um mir AMD Hardware schönzureden. Ich kaufe diese, weil ich bisher gute Erfahrung damit gesammet habe und mit deren Eigenheiten gut klar komme. Besser Langzeitsupport ist auch einer Gründe für mich. Ich spiele gerne ältere Spiele und bisher sind diese alle mit normal spielen (maximal kleinen Grafikfehler). Laut einem älteren Artikel von CB ist die Wahrscheinlichkeit das ein Spiel mit einer AMD Karte nicht läuft geringer als mit einer Nvidia Karte. Ich noch von keiner Neuauflage gehört . Aber Nvidia ist ja auch mehr auf die neuste Hardware und Software fixiert. Die bessere Leistungsentwicklung kommt bei mir dann nur noch oben drauf. Ich finde AMD sollte noch ein bishen mehr in diese richtung gehen. ich finde es nicht gut das Navi 33 bei RX 6800 XT Leistung nur 8 GB VRAM bekommen soll. Auch das die neusten Schnittstellen, Videounterstützung, ... lange brauchen bis diese eingeführt werden. Passt für mich nicht zum längeren Nutzungszeitraum.

Das die Tech Presse das macht, glaube ich nicht (Erfahrung). Es wird dann gesagt, dass Nvidia ab beginn die volle Leistung bringt. Schon das Wort reifen deutet eine langsame Entwicklung an. Die Gründe dafür interesieren dort auch niemanden. Auch das Einplanen einer zukünfigen Entwicklung ist schwierig.

Aus der Beschreibung ist mir nicht klar, ob es eine allegemeine Verbesserung gibt (für alle DX11 Spiele) oder die Handbremse nur einige wenigen Spielen gelöst wurden?
 
Das ist keine "Hilfskrücke", und ich rede nichts schön. Es es ist einfach ein Argument, ein weiterer Aspekt, den man beachten sollte.

Es hat ja auch seinen Grund: weil das Team bei AMD kleiner ist, sind die Karten zum Launch noch nicht so ausoptimiert wie bei Nvidia. Aber schlechter werden sie nicht mehr, sondern besser. Das plane ich mit ein, auch wenn es nicht der einzige Kaufgrund sein sollte. Auch ich habe weitere Gründe für AMD-Karten, allen voran Linux. Nvidias neueste "Nummer" (ich meine die Pseudo-Öffnung der Treiber, um Jahre zu spät) ist ja nur Fassade.


Das die Tech Presse das macht, glaube ich nicht (Erfahrung). Es wird dann gesagt, dass Nvidia ab beginn die volle Leistung bringt.
Die Gründe dafür interesieren dort auch niemanden.
Ja, leider, und sie tun so, als würde sich das nie mehr ändern.

Das gilt auch für den ganzen proprietären Kram von Nvidia. Dabei weiß man eigentlich: sobald irgendjemand (z. B. AMD, Intel, ...) eine Open Source-Lösung bringt, die überall läuft, ist Nvidias proprietärer Kack ganz schnell wieder tot, siehe Gsync. Oder nehmen wir FSR. Wenn ich damit alle Karten erreichen kann, weshalb sollte ich noch DLSS einbauen? Bleibt die Frage: Warum wird das vorher so gehypt? Können manche Schreiber nicht so weit denken?

Aus der Beschreibung ist mir nicht klar, ob es eine allegemeine Verbesserung gibt (für alle DX11 Spiele) oder die Handbremse nur einige wenigen Spielen gelöst wurden?
Man hat wohl durch Beobachtung festgestellt, dass die CPU-Kerne besser ausgelastet werden, also eine allgemeine Verbesserung.
 
Zuletzt bearbeitet:
Das gilt auch für den ganzen proprietären Kram von Nvidia. Dabei weiß man eigentlich: sobald irgendjemand (z. B. AMD, Intel, ...) eine Open Source-Lösung bringt, die überall läuft, ist Nvidias proprietärer Kack ganz schnell wieder tot, siehe Gsync. Oder nehmen wir FSR. Wenn ich damit alle Karten erreichen kann, weshalb sollte ich noch DLSS einbauen? Bleibt die Frage: Warum wird das vorher so gehypt? Können manche Schreiber nicht so weit denken?
Da hat Nvidia mit Ihrer Marketingabteilung einfach auch immer eine gute Informationspolitik an die Multiplikatoren. Die Infos sind zwar nie ganz vollständig und lassen Schwächen aus, doch viele übernehmen diese unkritisch und publizieren.
Man schaue sich nur mal an, welche Art der Berichterstattung rund um AMDs SAM-Feature ablief. Man konnte den Eindruck bekommen man ging nur vom schlechtesten für den Anwender aus. Das war zum Teil wirklich abstrus und man konnte erkennen, dass kaum eine Redaktion Kenntnisse hat wie die Abläufe und Zuständigkeiten für Rollouts bei Opensource gelagert sind, im Gegensatz zu Nvidias proprietären Features.
 
Zurück
Oben Unten