AMD RDNA2 / Navi-2 und "Bignavi"

Wieso sollte AMD seine RX6800(XT) für 579/649 verkaufen, wenn es wohl auch für 650/800 geht, weil es von Nvidia sowieso nichts gibt? Auch bei der 3070 sieht es anscheinend mehr als sparsam aus und auf digitimes heißt es:


Wie viel Spaß die AIB an Nvidias Ampere haben? Wieso sollen sie dann nicht die AMD-Navi mit ordentlich Gewinn verkaufen, wenn es zudem ohne Probleme möglich sein dürfte?
 
OffTopic:
Natürlich können die mit Kühldesigns für eine RTX3090 auch versuchen eine 6900XT bei 350W Designs für das Prestige stark übertaktet anzubieten. Wann die OEMs überhaupt solche Chips verbauen dürfen bleibt abzuwarten.

Ich wollte mit dem Preis-Leistungs Hinweis nur auf die technische Frage dahinter aufmerksam machen.

OnTopic TechTalk:
Bei Preisen und SKUs der CPUs ist der mögliche Takt im Vordergrund. Der niedrigere Takt bei der 6800 würde von meiner Seite auch dem Binning geschuldet sein. Wenn dann der Preisunterschied so gering zur XT ist will man vielleicht dort die Nachfrage niedrig halten. Aber ich denke vor allem ist es im Basis und Game-Takt ein Sweet-Spot für die Chips. Bei den XT Modellen hat man die Takte im exponetiellen Anstieg des Leistungsbedarfs an der 300W Grenze festgemacht. Sowohl für Boarddesign und Kühlung, als auch als Marketingargument. Bei CPUs entspricht das den X Varianten.

Wie schon in meinem letzten Post geschrieben ist der Preis einer 6900XT vs. 6800XT nur vertretbar wenn die Chipgüte absolute Spitze ist und Seltenheitswert hat. Zumindest scheint bei exakt gleichem PowerBudget trotz der 11% mehr CUs der Chip pro CU wesentlich genügsamer zu sein.

Würden wir grob annehmen die 6800 und 6800XT gebinnt nach funktionierenden CUs hätten die gleiche Chipgüte bei Takt, der Verbrauch für eine CU wäre je GHz linear bei ca. 1,4W. Der Rest des Chips und des Boards dann bei 100W. Bei dem XTX Chip für die 9800XT wären da nur ca. 1,2W je CU je GHz übrig. Da der Verbrauch bei GHz aber nicht linear sondern exponentiell ansteigt ist das eine grobe Vereinfachung. Die Richtng stimmt zumindest.

Es wird sicherlich einzelne GPUs der günstige Modelle geben, die sich bei höherem PowerBudget und besserer Kühlung besser Übertakten lassen, der Cache löst das Speicherproblem und mit dem Takt sollten gute Ergebnisse erreichbar sein. Ich vermute aber starkt, dass es im Binning eben nicht nur um funktionierende CUs auf den grossen Dies geht sondern mindestens genauso sehr um Leckströme und Qualität wie wir es bei CPUs bereits kennen. Das deaktivieren von einzelnen CUs hängt bei 60 aus 80 hauptsächlich von der individuellen Leakage ab, vermute ich.
 
Überraschende Einschätzung von Youtuber MLID:
Smart Access Memory - Sharing Information between Caches of GPU and CPU - Sony Co-Developed

Ich dachte solche Konzepte würden unter Infinity Cache laufen, aber SAM als IF basierte Kohärenz auch bei Caches könnte einer Erklärung sein für die Notwendigkeit modernster Varianten bei CPU, Chipset und GPU. Wobei die GPU idR direkt am CPU PCIe angebunden ist.
 
Wenn dem so ist, wäre ja mal interessant, ob die Grafikkarten bei Threadripper "5000" mit ihren schier "unendlichen" L3-Cache nochmals etwas mehr zulegen wie gegenüber Ryzen 5000.
 
Überraschende Einschätzung von Youtuber MLID:
Smart Access Memory - Sharing Information between Caches of GPU and CPU - Sony Co-Developed
Ähm, das hatte die PS4 als hUMA schon verbaut und AMD hat das mit HSA definiert. APUs machen das ja schon lange und das ist die angekündigte Erweiterung auf dGPUs über IF (Infitnity Architecture). Stichwort FCL und RMB (Onion+Garlic bei Llano)

IF%20v2.jpg
 
Wenn dem so ist, wäre ja mal interessant, ob die Grafikkarten bei Threadripper "5000" mit ihren schier "unendlichen" L3-Cache nochmals etwas mehr zulegen wie gegenüber Ryzen 5000.

Aber die CPU greift ja nur auf den Cache der GPU zu und nicht umgekehrt. ;)
 
Bei 1:09:30 geht ehr auf seine Spekulation mehr ein. Wegen der Die Grössen und was er so gehört hat vermutet er bei Xbox Series X grössere Caches bei CPU und GPU Teil aber nicht kohärent und bei PS5 unified hybrid Cache, aber kleiner.

Tatsächlich war der CPU-Cache in APUs noch nie für den GPU-Part erreichbar. Die HSA Architektur erlaubte das Übergeben von Pointern, der Speicher war aber getrennt verwaltet (tatsächlich würde das aber bei 64bit schon lange Sinn machen). Es mussten aber keine Copies gemacht werden vom Hauptspeicher in den dGPU Speicher. Allerdings ist der Copy-Prozess üblicher Weise in der Game-Software bereits festgelegt. Ein APU-Treiber muss da schon explizit die Pointer Copy ersetzen wo möglich, besser der Game-Code berücksichtigt iGPU. Dann darf der Code aber auch nicht mehr auf den unterschiedlichen Images der Speicherobjekte schreiben wollen. Bei APU ging das bislang nicht auf, mittels Konsole gibt es da schon mehr Möglichkeiten.
 
@E555user

er sagt er hält es durchaus für möglich das Sam mit früheren CPU funktionieren könnte falls es im Treiber implementiert wird.
 
Ich denke auch AMD könnte wegend der echten SoC Architektur mit direkter Anbidung von GPU via PCIe viel mehr möglich machen, als man bisher bereit war anzubieten. Aber bestimmte Dinge werden nunmal für das Upselling vorbehalten, das war schon bei StoreMI so. Muss man akzeptieren.
 
Nehm' wa ma' an, ma wolle a jaaaaaannz groooobe Röchnung der Pörformenz anstelle für die neue Navi-Kaade, die da komme solle.

Wie würdet ihr das machen?

Performance der 6800 / Anzahl CUs der 6800 * Anzahl CUs der 6700?

Oder den Takt noch mit einbeziehen? Immerhin steigt die Performance / CU mit den kleineren Modellen an, obwohl die 6800 weniger Takt hat als die großen Schwestern. Als Ausgangswert würde ich einen Index für die 6900XT / 6800 XT / 6800 verwenden.
 
Zuletzt bearbeitet:
Nanu, hat euch meine flappsige Formulierung verwirrt, oder stellt Ihr Euch diese Frage nicht?
Mir geht's halt darum, eine grobe Einschätzung zur Performance der kommenden Radeon-Karten zu haben, wo man nur die Anzahl CUs kennt.
 
Zuletzt bearbeitet:
Dazu hat doch Igor was geschrieben. Der Artikel war nicht schlecht. Ob es tatsächlich so kommt?
 
Dazu hat doch Igor was geschrieben. Der Artikel war nicht schlecht. Ob es tatsächlich so kommt?

Lassen wir uns überraschen. Für den Preis und den Verbrauch wird die 6700 eh nichts für mich.

Irgendwas zwischen 150 und 200 Euro. Mindestens 3 Ausgänge und vor allem ein vernünftiger Verbrauch im Idle, sowie im Multi-Monitor-Betrieb.
Bin mal gespannt, ob man sowas von AMD dieses Jahr bekommen wird.
 
Erstmal danke für den interessanten Artikel.
Ich meinte es zwar etwas allgemeiner (auch auf die Radeon 6600, 6500 bezogen), aber mit den Werten aus dem Artikel gehe ich jetzt davon aus, dass man die Performance-Klasse durchaus nur anhand der CUs abschätzen kann. Die Performance pro CU steigt bei den kleineren Modellen eher etwas.
Demnach würde die 6700 XT um 4 % über der Radeon 7 liegen, und die 6700 auf dem Niveau der 5700.
 
Zuletzt bearbeitet:
Dazu hat doch Igor was geschrieben. Der Artikel war nicht schlecht. Ob es tatsächlich so kommt?

Lassen wir uns überraschen. Für den Preis und den Verbrauch wird die 6700 eh nichts für mich.

Irgendwas zwischen 150 und 200 Euro. Mindestens 3 Ausgänge und vor allem ein vernünftiger Verbrauch im Idle, sowie im Multi-Monitor-Betrieb.
Bin mal gespannt, ob man sowas von AMD dieses Jahr bekommen wird.
Ich denke das kannst du vergessen.

Wenn man sich mal anschaut, dass derzeit noch nicht mal die 5500 XT für unter 200 € zu bekommen ist und zudem viele Modelle auch nur wenige Anbieter haben:

Für die 8GB Variante legt man schon 250 € auf den Tisch. Und da reden wir von Karten die zu diesem (bzw. glaube ich sogar etwas geringerem) Preis schon bei der Vorstellung vor über einem Jahr als überteuert angesehen wurden … *chatt*
 
Die Situation vor einem Jahr spielt doch für heute keine Rolle mehr, wenn du dir den Markt anguckst. In der jetzigen (Corona-)Phase ist alles ausverkauft.

Wenn man auf 200 € aus ist, kommt wohl die 6600 oder 6500XT in Frage.
 
Die derzeitige Marktsituation stellt sich eigentlich wie folgt dar:

Aktuelle (Top)Modelle sind kaum zu bekommen bzw. deutlich über der UVP zu kaufen
Alte Topmodelle sollten eigentlich im Abverkauf günstiger sein, steigen aber sogar noch im Preis wegen der Knappheit der neuen Modelle/Chips
Neue Mittelklassekarten werden noch nicht verkauft, da sie noch gar nicht vorgestellt wurden (AMD) oder schlicht nicht verfügbar sind (nvidia)
Alte Mittelklassekarten gibt es zwar gut zu kaufen, die Preise sind aber deutlich höher als noch Anfang letzten Jahres wegen der allgemeinen Knappheit der Produkte.

Also wie man es dreht und wendet: Entweder abwarten und hoffen, eine Karte kaufen die preiswerter ist oder einen Haufen Geld auf den Tisch legen um das zu kaufen was man braucht zu einem Preis der wirklich weh tut.
 
Derzeit kauft wohl nur der welche es entweder muss aus den verschiedensten Gründen oder es sich leisten will/kann auch wenn der Preis sehr überhöht ist.
Gebrauchte Radeon VII für =/>700 EUR in der Bucht spricht Bände *nein*
 
Derzeit kauft wohl nur der welche es entweder muss aus den verschiedensten Gründen oder es sich leisten will/kann auch wenn der Preis sehr überhöht ist.
Gebrauchte Radeon VII für =/>700 EUR in der Bucht spricht Bände *nein*

Selbst die R9 390 marschiert wieder Richtung 130 in der Bucht. Letztes Jahr ging die für unter 100 weg. *chatt*
 
Man merkt eben das sich Mining per GPU langsam wieder rentiert.
 
Meine RX 5700 Pulse von Sapphire ist ab 640,- € bei geizhals gelistet.
In der Bucht liegen alle 5700 Modelle über meinem EK von 379,- € im Juli 2019....Bei mir kommen auch keine neueren Modelle zum Aufrüsten in Frage bei den Preisen der neuen Generation. Denke die wird mir noch eine ganze Weile gute Dienste leisten 😎
 
Die Situation vor einem Jahr spielt doch für heute keine Rolle mehr, wenn du dir den Markt anguckst. In der jetzigen (Corona-)Phase ist alles ausverkauft.

Wenn man auf 200 € aus ist, kommt wohl die 6600 oder 6500XT in Frage.
Ja, das ist mir schon klar. Wollte nur darauf hinweisen wie absurd das ist. ;)

Ich bräuchte für meinen neuen Desktop PC eigentlich auch eine GPU, aber ich zahle keine 200-250€ für eine 5500 XT und eine Polaris will ich auch nicht mehr haben in 2021.
Zum Glück hab ich noch eine alte 280X rumliegen, die muss dann halt herhalten bis dann irgendwas in Richtung 6500 (XT) zu vernünftigen Preisen verfügbar ist.
(Will auch die Option für AV1 Decoding haben, daher bevorzugt Navi 2x.)
 
Eine 6700 mit 12GB Ram und einem 335sqmm-Die in 7nm wird es unter 500€ kaum geben. Müsste sie billiger sein, wird es sie vermutlich mehr oder minder gar nicht geben, weil es sich einfach nicht lohnt, GDDR6 und 7nm-Wafer sind dafür aktuelle schlichtweg viel zu teuer.

Und wenn eine 6700 kaum über 3060- bzw. 5700-Niveau kommt, könnte sie AMD ganz getrost vergessen. Braucht kein Mensch, AMD auch nicht, weil es aktuell ungleich besser Verwendung der 7nm-Wafer gibt. Entweder die 6700XT wird viel mehr können, oder sie könnte zu einer Luftnummer werden, die AMD aktuell aber kaum weh täte.

Könnte dann Sinn ergeben, dass AMD die 6700-Graka erst mal gar nicht gelauncht hat. Und laut pcgameshardware würden Grakas laut Lisa Su noch im gesamten H1/2021 knapp bleiben. Es könnte dann so enden, dass es Navi22 erst gar nicht mehr in Serie schafft und man für H2/2021 dann ganz was neues präsentiert. Wie schon von mir vermutet: AMD muss die 7nm-Wafer klug verteilen und könnte daher einige der geplanten Produkte canceln: so z.B. Van-Gogh und Navi22....
 
Zuletzt bearbeitet:
Tom von MLID will gehört haben dass die geplante Vorstellung der Radeon 6700 zur CES zurückbehalten wurde und die Präsentation auch deshalb so uninteressant blieb.
Allgemein ist denkbar dass durch höhere Stückzahlen für Konsolen und margenträchtige GPUs die Mittelklasse verschoben wurde. Allerdings ist die Rechnung von möglicher Marge je Wafer bei unterschiedlichen GPUs auch eher kompliziert. Man verliert auch potenzielle Marge im Midrange wegen höheren möglichen Stückzahlen beim Speicher und anderen Komponenten, sofern die entsprechend verfügbar wären.

Allgemein bleibt aber jegliche Aussage von AMD und anderen 7nm Kunden, dass die Fertigung nicht das Problem sei. Das spricht dann eher für Verschiebungen für einige Wochen weil der Bedarf unterschätzt wurde.

Weil das Design fertig ist wird man auch Produkte sehen. Ich denke alles andere verschiebt sich nach hinten solange die Konkurrenz nicht zur Eile zwingt und das Design unverkäuflich wird. Eventuell werden Polaris nochmal bei GloFo nachbestellt um den Einsteigermarkt zu bedienen. Navi sollte wegen der Marge aber nur noch als RDNA2 in Produktion kommen. Radeon 5000 wurde so teuer dass der Bestand bis zum Launch der 6000er genügend wäre, höhere Nachfrage zieht die Preise zusätzlich im Retail nach oben.
 
Tom von MLID will gehört haben dass die geplante Vorstellung der Radeon 6700 zur CES zurückbehalten wurde und die Präsentation auch deshalb so uninteressant blieb.
Allgemein ist denkbar dass durch höhere Stückzahlen für Konsolen und margenträchtige GPUs die Mittelklasse verschoben wurde. Allerdings ist die Rechnung von möglicher Marge je Wafer bei unterschiedlichen GPUs auch eher kompliziert. Man verliert auch potenzielle Marge im Midrange wegen höheren möglichen Stückzahlen beim Speicher und anderen Komponenten, sofern die entsprechend verfügbar wären.

Ich glaube auch, dass AMD gerade sich auf Grund der Rahmenbedingungen nicht hetzen lassen will. Was nützt es AMD denn in nen Volumenmarkt gerade einzusteigen, wenn dann die Händler auf jede Karte auch noch Summe X drauf hauen.

Bei Nvidia gibts ja Gerüchte, dass man die 2000er Karten teilweise wieder auflegen will.

An AMDs Stelle würde ich die Zeit auch nutzen, um bei Samsung die Fertigung zu testen. Die Zusammenarbeit scheint beim neuen Exynos ja bereits sehr eng gewesen zu sein und das sollte man zügig ausbauen, um eine Alternative zu haben. Auch wenn die Foundries gerade wohl eher nicht die limitierenden Faktoren sind (bzw. der Hauptfaktor).

Der Gebrauchtmarkt bei Grafikkarten eskaliert gerade auch weiter, aber kein Wunder, da man fast nichts kaufen kann.

1611396889876.png
 
Zurück
Oben Unten