AMD Radeon RX 6400/6500/6600/6650/6700/6750/6800/6900/6950 (XT) (Navi2x/RDNA2/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Ist ja logisch, die Pro Duo mit ihren 3x 8 Pin fraß ja auch 525W...oh wait! ^^
Ich denke eher das man irgendwo bei 300W liegen könnte und zur Vereinfachung einfach gleich 2x 8 Pin einsetzt.
Vielleicht gibt es ja auch wieder eine Quiet und eine Performance Firmware wie seinerzeit bei der den 290er Modellen. Die eine macht bei 275W dicht und die andere könnte sie bei 300W oder mehr arbeiten lassen.
 
Ist ja logisch, die Pro Duo mit ihren 3x 8 Pin fraß ja auch 525W...oh wait! ^^
Ich denke eher das man irgendwo bei 300W liegen könnte und zur Vereinfachung einfach gleich 2x 8 Pin einsetzt.
Vielleicht gibt es ja auch wieder eine Quiet und eine Performance Firmware wie seinerzeit bei der den 290er Modellen. Die eine macht bei 275W dicht und die andere könnte sie bei 300W oder mehr arbeiten lassen.

Vielleicht sehen wir mit den Custom-Modellen auch einfach mehr Differenzierung beim Chip- und Speichertakt und damit auch bei der Stromaufnahme. *noahnung*
 
Nachdem nvidia bereits beim Referenz Design die 300W Marke ignoriert hat und Custom Designs mit 400W in der Rede sind kann ich mir gut vorstellen das es auch von den 6000er Modellen Custom Designs mit deutlich mehr als 300W geben wird. Die Preisfrage ist eher wie gut der Chip taktbar ist damit nicht wie bei Vega nur hauptsächlich der Verbrauch explodiert.
 
igor hatte afaik mal infos von board-partnern geleaked, wonach amd innerhalb von nvidias power-target noch mehr an leistung rausholen will. sprich wenn nvidia 320w für die 3080 ansetzt, kann sich amd daran orientieren und dieses budget ausreizen, insofern der chip entsprechend skaliert.

wenn sie effizienz gegenüber navi tatsächlich um 50% steigern können, wäre das auch gar nicht mal unrealistisch. fragt sich wo die kotzgrenze liegen wird.

das verspricht aber imho vor allem einiges in der mittelklasse deutlich unterhalb der kotzgrenze. im sweetspot könnte amd mit dem besseren fertigungsprozess evtl. sogar besser darstehen als nvidia. aber das ist nur die vermutung eines grafikkarten-daus. ;)


btw ... da bei ampere tdp und tgp munter durcheinander gewürfelt werden, stell ich mal die doofe frage ... die 320w der 3080 sind doch tgp? also für die gesamte karte?
 
Wenn ich an anderer Stelle lese das bei den Geforce Karten Powerlimits bei 370W liegen würden dann hoffe ich definitiv nich das sich AMD daran orientieren könnte denn auf solche Strom Monster habe ich wieder keine Lust. ;D

Die 320W der 3080er habe ich als TDP in Erinnerung, weshalb auf dem Weg zum Temperatur Limit durchaus mehr drin sein könnte.
Doppelposting wurde automatisch zusammengeführt:

Könnte man nicht 2 VIIs im Crossfire laufen lassen um die Performance abzuschätzen? Abseits des VRAM Überlaufs scheinen die ja ähnlich wie diie 5700XT zu performen und könnten so ein Anhaltspunkt für UHD tests sein. *kopfkratz
 
Ich habe mal nachgesehen was das der 2x VII Verbund in UHD so mit einem Threadripper 1950x so ausspuckt.

3Dmark Time Spy Extreme: 8051 (Grafik: 8517, CPU: 6149)

Rise of the Tomb Raider (DX12, SMAA + alles auf Max.):
Berggipfel: 115,87 (min. 49,68 max. 197,09)
Syrien: 89,23 (min. 40,16 max. 124,59)
Geothermales Tal: 90,55 (min. 35,17 max. 122,56)

Shadow of the Tomb Raider (Ultrahoch preset):
Spiel schmiert bei DX12 im Crossfire Modus ab sobald man ins Menü für die Einstellungen geht

Hat jemand ne 3080 um die ersten beiden Kandidaten gegenzutesten? :D
 
Eseltreiber hat ja eine erwischt, schreib ihn am besten mal per PM an.
 
Und schon ist er angeschrieben, da hatte ich garnicht mehr daran gedacht. :D
 
Ich peitsche die 3080 heute Abend mal durch den TimeSpy Extreme. Die anderen Spiele habe ich leider nicht.
 
Frisch gezapfter TimeSpy Extreme: 9320 (8956 GPU, 12112 CPU).
 
Warum lässt sich AMD eigentlich so viel Zeit, die erwartete Leistung von RDNA2 zu verkünden? Man könnte die schlechte Liefersituation der 3080 doch nutzen, zumindest ein paar Käufer zu überzeugen, dass sich das Warten auf AMD lohnen könnte. Oder kommt man nicht an die 3080 ran?
 
Vermutlich weil es taktisch klüger ist erst die Konkurrenz liefern zu lassen und erst dann die finalen Specs festzulegen denn so kann man noch darauf reagieren und danach benötigt man natürlich auch noch Zeit um einen ausreichenden Kartenbestand für den Marktstart zu produzieren. Gut möglich das bereits nvidia genau darauf gewartet hatte und deshal beim Takt "all in" gegangen ist.
 
Warum lässt sich AMD eigentlich so viel Zeit, die erwartete Leistung von RDNA2 zu verkünden? Man könnte die schlechte Liefersituation der 3080 doch nutzen, zumindest ein paar Käufer zu überzeugen, dass sich das Warten auf AMD lohnen könnte. Oder kommt man nicht an die 3080 ran?

Gute Frage. Vor allem, warum macht AMD zwei Events für Zen 3 und RDNA2 mit dem Abstand von 3 Wochen wenn man den Zen 3 mehr oder weniger mit Gaming anpreist.
 
Zuletzt bearbeitet:
Bin gespannt. Seit Khoduri weg ist, scheint es bei AMD in Sachen Grafik langsam aber sicher nach oben zu gehen..

Sollten die neuen RXe einschlagen, dürfte nVidias Kurs erstmal nach unten korrigiert werden und Softbank wachsen reihenweise graue Haare..
 
Bin gespannt. Seit Khoduri weg ist, scheint es bei AMD in Sachen Grafik langsam aber sicher nach oben zu gehen..
Das liegt aber wahrscheinlich mehr daran was Koduri vor 5-6 Jahren begann zu ändern und einzuleiten als daran was er nicht mehr beim Finalisieren der kommenden SKUs noch ändern könnte. Vom Whiteboard erster Zielsetzungen für eine Chipgeneration bis zur Verpackung beim Händler sind es in der Regel 5 Jahre. Ich bin sicher das ist bei RDNA genauso wie bei Zen auch.
 
Wenn man von den Daten der 5700xt ausgeht, 200 Watt Chip der Rest Board. möglichst viel Takt. Meine schafft ohne zuthun 2150 MHz.

Nach dem Kühler zu urteilen wird es eine 300 Watt Karte. Fertigungsferbesserung, Architekturverbesserungen da kann man grob sagen doppelte Leistung von einer 5700xt wäre maximum. Und da ist man im Bereich einer 3080 und setzt sich deutlich von der 3070 ab.

Das AMD eine sehr großen Chip gemacht hat und ihn dann Teildeaktiviert so wie Nvidia kann ich mir nicht vorstellen. Da der dann auch mit 350 Watt plus Boardpower laufen würde.
 
Bin gespannt. Seit Khoduri weg ist, scheint es bei AMD in Sachen Grafik langsam aber sicher nach oben zu gehen..
Das liegt aber wahrscheinlich mehr daran was Koduri vor 5-6 Jahren begann zu ändern und einzuleiten als daran was er nicht mehr beim Finalisieren der kommenden SKUs noch ändern könnte. Vom Whiteboard erster Zielsetzungen für eine Chipgeneration bis zur Verpackung beim Händler sind es in der Regel 5 Jahre. Ich bin sicher das ist bei RDNA genauso wie bei Zen auch.

Ich weiß nicht, bei Koduri gab es immer wieder Gerüchte, dass er in ganz andere Richtungen entwickeln wollte und Vega mit wohl teilweise nicht funktionieren Hardwareeinheiten hatte ja doch etwas größere Probleme.

Mit den Iterationen Zen 1, Zen 2 usw. RDNA, RDNA2 usw. dürfte da wohl auch grundsätzlich eine Richtung bei der Entwicklung vorgegeben worden sein, die auf zielgerichtete inkrementelle Verbesserungen ausgelegt ist. Wenn AMD es im Grafikbereich schafft auch die Entwicklung zu beschleunigen, wie man es bei Zen gezeigt hat, dann dürfte sich Nvidia auch umschauen. Über RTX 4000 "Hopper" wird zwar auch für 2021 rumgerüchtet, aber das muss sich erstmal zeigen.

Und Frank Azor hat mal im Mai in einem Videointerview gesagt, dass man mit RDNA2 zu Nvidia aufschließen wird und RDNA3 dann der richtige Angriff wäre.
 
Die Basis mit GCN ist immer noch in RDNA wiederzuerkennen und Mike Mantor war so weit ich erinnern kann immer einer der entscheidenden Architekten über alle Jahrzehnte bis heute. Einen Chip kann weder Keller noch Koduri allein aus dem Ärmel schütteln. Die Entwicklungsstrategie wie man von GCN zu CDNA und RDNA kommt und Raytracing implementiert fällt zumindest in Koduris Ära und die Teams die er dort geleitet hatte.
Bei Polaris hat er die neuen Namen eingeführt, vielleicht war er noch für GCN mit gemeinsamen L2 Cache verantwortlich. Vermutlich waren HBM-Cache und SSD auf der GPU-Platine seine Ideen bei Vega, er hat das sehr stark beworben und vorangetrieben inkl. indischem Filmstudio, seltsam genug dass die ISA Vega genannt wurde und nicht GCN5. Auch der Primitive Shader könnte so ein Element gewesen sein, das er vorangetrieben hatte. Die Früchte wird man erst mit RDNA2 sehen.
GCN und Bulldozer waren genauso inkrementelle Weiterentwicklungen schlecht hin. Das besondere bei Zen und RDNA in der Weiterentwicklung ist der Wechsel zu TSMC. Die Designer bei AMD werden beim Erfolg nicht mehr durch die Fertigung gebremst, man konnte dann mit dem ersten Zen-Erfolg auch wieder mehr Entwicklerteams aufbauen die all die Designs erstellen. Bei Wegen Zen musste Koduri den Gerüchten nach auf Spezialisten für Energieoptimierung verzichten. Bulldozer war als Design zu extravagant und in der Fertigung viel zu weit hinterher. GCN war auch sehr viel anders als das vom Wettbewerb aber durch die HAL nicht so Abhängig von der Software wie die CPUs, wenn die Software dort massgeschneidert ist geht die Arch auch sehr gut. Aber am Ende ist doch über all die Jahre der Chipentwicklung der entscheidende Wettbewerbsvorteil mehr in der Fertigung als in der Arch zu finden. Ich denke die Arch tritt erst deutlich in den Vordergrund wenn die Fertigung auf gleichem Niveau ist, dann ist die Softwareoptimierung vs. Arch entscheidend.
 
Zuletzt bearbeitet:
Langsam wird es interessant... In der Beta von macOS 11 Big Sur kann man scheinbar die Firmware der nächsten Navi-Karten auslesen und damit auch CU, Taktraten, Shader, TDP.

Mal noch ein Kommentar dazu von einem dort, der sich in Sachen Computertechnik auskennt, soweit ich das beurteilen kann nachdem, was er jeweils so schreibt, also halte ich diese Einschätzung noch für einigermassen realistisch, macht auch irgendwie Sinn, denke ich:

Ich erwarte eigentlich schon länger für das grösste Modell von Navi 2 etwa eine Leistung, die zwischen 3070 und 3080 liegt, je näher an 3080, desto besser natürlich. Wenn das noch mit ein bisschen weniger Verbrauch daherkommt, ist gut. Die Umsetzung von Raytracing wird sicher auch interessant, wobei das für mich noch nicht so ein Feature sein muss, dass man jetzt unbedingt haben muss. Als NVIDIA das gebracht habe, habe ich gesagt, mal 3, 4 Jahre warten, bis das wirklich eine Rolle spielt und gut funktioniert ohne zuviel Leistungseinbusse, der Meinung bin ich immer noch. Bei DLSS weiss ich auch nicht so recht, wäre aber sicher nicht schlecht, wenn AMD mal etwas ähnliches bringen würde, oder was meint ihr dazu?

PS: War wieder mal nicht mehr lustig, wie sich die Fanboys dort an die Gurgel gegangen sind in den letzten 2 Wochen, aber unterhaltsam, wenn einem sonst zu langweilig ist. ;D
 
Die Forenthreads sind voll von Vermutungen, die dann alle paar Seiten auch noch wiederholt werden. Wird Zeit das es Fakten von AMD in ca 4 Wochen gibt.
 
Zurück
Oben Unten