AMD RDNA2 / Navi-2 und "Bignavi"

BavarianRealist

Grand Admiral Special
Mitglied seit
06.02.2010
Beiträge
3.358
Renomée
80
Inhalt dieses Threads: Spekulationen und Infos rund um RDNA2 sowie alle Navi-GPUs auf Basis von RDNA2

--- Erstes Posting hier: ---

Leider gibt es hier noch kaum eine Diskussion zum Techday und RDNA2 von AMD, daher gleich meine ersten Gedanken hier dazu:

Soll Bignavi wirklich 80 CUs haben, also doppelt so viele wie Navi-10 (5700XT), würde das bei gleichem Takt, gleicher IPC bedeuten, dass eine mögliche 6900XT dann bereits 200% der Performance von 5700XT haben müsste.

Auf dem Techday spricht AMD für RDNA2 nicht nur von "+50% Performance/Watt", sondern auch von höherer IPC und höheren Takten, siehe Folie unten:

AMD_FAD2020_David_Wang_driving_gpu_leadership_10.png


Das würde bedeuten, dass die kommenden RDNA2-GPUs eher höhere Takte haben dürften, vermutlich 2Ghz+. Berücksichtigt man auch noch, dass die IPC höher liegt, würde eine 6900XT mit 80CU weit mehr als die doppelte Performance einer 5700XT liefern.

Bliebe es bei genau +50% Performance/Watt, dann verbrauchen 60CU von RDNA2 genauso viel wie 40CU von RDNA1. Eine 5700XT ist mit 225Watt spezifiziert. 80CU benötigen genau 4/3 der Energie von 60CU. Oder: 4/3*225W=300W.

Nachdem HBM2 bzw. HBM2e weniger Energie verbraucht als GDDR6, wäre noch etwas TDP-Spielraum gegenüber einer 5700XT mit GDDR6 vorhanden, den man mit höherem Takt "kompensieren" kann. +5% Takt wären etwa +100Mhz. Legt man die TDP auf 350W, wären vielleicht nochmals rund 5-10% Taktplus möglich, also etwa 10-15% gegenüber einer 5700XT, um bei TDP=350Watt für eine 6900XT zu bleiben.

Eine 6900XT könnte also 80CU bei Boostakt von 2,2Ghz haben. Geht man von einer IPC-Steigerung von mindestens +5% aus, könnte "Bignavi" im Leistungsbereich von 230%-250% einer 5700XT landen...
 
Zuletzt bearbeitet:
Das klingt für mich danach das deutlich an der Architektur gefeilt wurde wodurch sich die Architektur besser takten läßt und gleichzeitig auch mehr IPC liefern kann. Ich bin mal gespannt ob dabei auch die Hotspot Problematik gelöst werden konnte.
Beim HBM2(e) vs. GDDR6 Vergleich wäre ich aber im Bezug auf den Strombedarf vorsichtig denn die bessere Effizienz wird sich mit Sicherheit auf die gleiche Bandbreite beziehen. Da die 5700XT aber eher ein Schmalspur Interface besitzt würde ich mit Aussagen zum Power Budget eher vorsichtig sein.
 
Laut Gamestar 04/20 gibt es folgendes Gerücht:

Radeon RX 5950 XT mit 5120 Shader-Einheiten (80CUs),
24 GBbyte HBM2e-VRAM, 4096 Bit, 2048 GB/s,
20 TMUs, 96 ROPs,
12 MB L2 Cache

mal schauen ob es stimmt.
 
Laut Gamestar 04/20 gibt es folgendes Gerücht:

Radeon RX 5950 XT mit 5120 Shader-Einheiten (80CUs),
24 GBbyte HBM2e-VRAM, 4096 Bit, 2048 GB/s,
20 TMUs, 96 ROPs,
12 MB L2 Cache

mal schauen ob es stimmt.
Das hat Hynix explizit dementiert.
(Die Info stammte aus einem gefakten Hynix Prospekt.)
 
Ja, die ganze Konfiguration macht keinen Sinn. Auch das ROP zu CU Verhältnis nicht.
 
Interessant für Spekulationen zur BigNavi:

Hat das auf Reddit von MyopicInsanity schon jemand gesehen: https://www.reddit.com/r/Amd/comments/fjjxzo/xbox_series_x_full_specs_revealed/

FULL SPECS:


CPU 8x Cores @ 3.8 GHz (3.66 GHz w/ SMT)

Custom Zen 2 CPU

GPU 12 TFLOPS, 52 CUs @ 1.825 GHz Custom RDNA 2 GPU

Die Size 360.45 mm2

Process 7nm Enhanced

Memory 16 GB GDDR6 w/ 320mb bus

Memory Bandwidth 10GB @ 560 GB/s, 6GB @ 336 GB/s

Internal Storage 1 TB Custom NVME SSD

I/O Throughput 2.4 GB/s (Raw), 4.8 GB/s (Compressed, with custom hardware decompression block)

Expandable Storage 1 TB Expansion Card (matches internal storage exactly)

External Storage USB 3.2 External HDD Support

Optical Drive 4K UHD Blu-Ray Drive

Performance Target 4K @ 60 FPS, Up to 120 FPS

und das Bild unten von hier: https://www.reddit.com/r/Amd/comments/fjjehs/xbox_series_x_apu_looks_like_20gb_of_gddr6/

0du0ip2ar0n41.jpg
 
Laut ersten Infos auf wccftech sollen die 36 CU der RDNA-GPU in der Playstation-5 mit 2,23Ghz laufen :o

Da kann man sich ausrechnen, dass BigNavi mit 80CU dann eher 2,5-mal schneller als 5700XT werden dürfte und an den Gerüchten von +50% gegenüber 2080Ti doch was dran sein könnte.
 
Zuletzt bearbeitet:
Schon das ist eine Ansage:

GPU 12 TFLOPS, 52 CUs @ 1.825 GHz Custom RDNA 2 GPU

Von Sony wissen wir, dass die mit 36CUs einen Boost bis 2,23 GHZ fahren wollen/sollen...

Ich würde rein defensiv gesehen von 60/64 Cus bei 2 GHZ ausgehen... wenn die 80 kommen wäre das natürlich ne üble Ansage.

Ist xBox und Sony eigentlich ne APU vom Grundgedanken her - oder wird der GPUTeil auf ner eigene Platine laufen? Weil wenn APU like muss das TDP Budget ja auf GPU/CPU verteilt werden.
 
BavarianRealist;5273017 [IMG schrieb:
https://i.redd.it/0du0ip2ar0n41.jpg[/IMG]
Ist euch schon mal aufgefallen, dass die Specs der XBone SeX falsch sind?
Also wir haben jetzt 10 Chips a 32bit aka 320bit Speicher Interface.


Hälfte davon sind 5+5.
Also 5x2 GiB -> 10GiB. Aber dann bleiben nur 5x1GiB über, ergo 15GiB Speicher
Die andere Möglichkeit ist 6x2 + 4x1. Aber dann haben wir 12GiB "full Bandwith" und 4GiB slow memory.

Ganz ab davon ist das einfach dämlich. Nur um ein paar Dollar zu sparen...
Die SeX hätte 20GiB VRAM haben sollen. Aber MS scheint ihren segmentierten Speicher zu lieben. Hat ja bei der Xbox 360 auch funktioniert. vor 15 Jahren...

--- Update ---

interesting
3 RDNA2 Chips are worked on
as I thought, Radeon 5700 will be replaced
3 Chips are, allegedly:
505mm²
340mm²
240mm²
We do know they use an "improved 7nm" Process
my guess would be:
256bit GDDR6 for 23
320/384bit GDDR6 for 22
2048bit HBM2E for 21
Speculation from WCCTF Users:
240mm2 is 40/48CU. Updated 5700XT with RT capabilities and RDNA2 cores.
340mm2 is 56/64 CU.
505mm2 is 80CU.
PS5 GPU -> Navi 23
XBox SeX GPU -> Navi 22
and something even more, bigger
and since 512bit GDDR6 is said to be not viable, that doesn't seem like an option

Source:
https://wccftech.com/amd-radeon-big-navi-21-gpu-505-mm-die/

4096bit HBM2E halte ich für unwahrscheinlich...
 
Zuletzt bearbeitet:
Ist euch schon mal aufgefallen, dass die Specs der XBone SeX falsch sind?
Also wir haben jetzt 10 Chips a 32bit aka 320bit Speicher Interface.


Hälfte davon sind 5+5.
Also 5x2 GiB -> 10GiB. Aber dann bleiben nur 5x1GiB über, ergo 15GiB Speicher
Die andere Möglichkeit ist 6x2 + 4x1. Aber dann haben wir 12GiB "full Bandwith" und 4GiB slow memory.
Da fällt mir nur auf, dass du die Anbindung nicht verstanden hast.
Memory Bandwidth 10GB @ 560 GB/s, 6GB @ 336 GB/s
Bei den 10GB werden alle 10 Chips angesprochen, gibt 10 GB a 10*56GB/s = 560 GB/s
Da nur 6 Chips 2GB haben können im oberem Adressbereich nur 6 Chips Daten liefern, macht dann 6GB a 56*6 GB/s = 336 GB/s

Anders gesagt: Der Speicher ist mit 320 Bit angebunden. Bei Adressierung über 10GB liefern nur noch die 6 2GB Chips auf 192 Bit Daten.

Wird den Programmierer nicht jucken, der merkt nur, dass von 10 bis 16GB die Daten langsamer kommen.

Just for Info: eine 5700XT hat einen 256 Bit Bus mit 448GB/s, ein Ryzen 3900X kommt auf ~48GB/s. Da sind die "langsam" angebundenen 6GB mehr als schnell genug für OS und Programmcode für die CPU. Hat natürlich den Nachteil, dass nicht GPU und CPU gleichzeitig bedient werden können.
 
Da fällt mir nur auf, dass du die Anbindung nicht verstanden hast.
Warum so aggro? Hab ich deine Mutter genagelt oder warum gleich so aggressiv?

Bei den 10GB werden alle 10 Chips angesprochen, gibt 10 GB a 10*56GB/s = 560 GB/s
Da nur 6 Chips 2GB haben können im oberem Adressbereich nur 6 Chips Daten liefern, macht dann 6GB a 56*6 GB/s = 336 GB/s
Und was ist mit den anderen 2 GiB, die du bei 6+4 hättest?

ändert auch nichts daran, dass das Moppelkotze ist und der Xbox SeX auf die Füße fallen wird.

Wird den Programmierer nicht jucken, der merkt nur, dass von 10 bis 16GB die Daten langsamer kommen.
Das ist eine glatte Lüge.
Natürlich wird das den programmierer jucken, weil der jetzt höllisch aufpassen muss, dass das Spiel mit dem geteilten Speicher klar kommt und die performance relevanten Sachen unter 10GiB bleiben.
Das ist einfach nur Müll.
Gut, nicht ganz so extrem wie 660ti oder 970...

Just for Info: eine 5700XT hat einen 256 Bit Bus mit 448GB/s, ein Ryzen 3900X kommt auf ~48GB/s. Da sind die "langsam" angebundenen 6GB mehr als schnell genug für OS und Programmcode für die CPU. Hat natürlich den Nachteil, dass nicht GPU und CPU gleichzeitig bedient werden können.
Blöder Vergleich.
Denn die 5700XT hat 8GiB für sich und der 3900 idR ebenso 8+16 GiB...

Wenn man schon einen "Unified Memory" Pool hat, dann sollte man den nicht splitten. Und warum? Nur um 5€ zu sparen??
 
Rogame behauptet das komplette SKU Lineup zu kennen. (via WCCFTech)

RDNA2 in 4 Varianten für Gamer, 4 Apple Produkte, 2 WS Karten und ein komplettes Refresh der RDNA1 Serie zusätzlich.
 
Rogame behauptet das komplette SKU Lineup zu kennen. (via WCCFTech)

RDNA2 in 4 Varianten für Gamer, 4 Apple Produkte, 2 WS Karten und ein komplettes Refresh der RDNA1 Serie zusätzlich.
4 Varianten pro Chip meinst du?

Weil bisher sind 3 Chips bekannt?
NAVI 21, 22 und 23.
IIRC war 23 der 36CU Chip.

Also im Prinzip wissen wir:
XBox SeX GPU wird es als Desktop Lösung geben (IIRC Navi 22)
Playstation 5 GPU wird es als Desktop Lösung geben (ersetzt NAVI10 aka 5600-5700XT) (IIRC Navi 23)

Und Navi 21 wird der fette Brocken, bei dem nicht klar ist, welchen Speicher man nutzen wird. GDDR6 ist möglich aber IMO zu langsam, persönlich denke ich, dass das HBM2E sein wird, da man schon mit 2048bit (bei doppelter Frequenz) 'nen gutes Stück vor 2080ti in der Bandbreite liegt (~900GB/Sec). Es ist aber auch möglich, dass AMD voll auf vernichtung geht und auf 4096bit, was dann etwa 1,8TB/Sec macht...

Aber 900GB/Sec machen mehr Sinn. Zumal wir hier von einem doppelten NAVI10 sprechen, in RDNA2 Architektur natürlich...
Und Navi1 hat ja um die 450GB/Sec. Das zu verdoppeln (oder fast), klingt sinnvoll. "nur" 384bit GDDR6 könnte zu wenig sein...
 
Kann man auch ohne Ton angucken - Es geht eh nur um die Diagramme ;D
 
Man kann auch einfach nur den Artikel lesen.
 
Ich denke die obskuren Code Namen sind den OEM Designs in Auftragsfertigung vorbehalten. Apples Produktbezeichner hatten schon deutlich eigenständige Namen, AMD hat nicht wirklich einen Grund von den Sternensystemen abzuweichen.

Deshalb würde ich am ehesten vermuten es handelt sich um die RDNA2 Variante für Googles Stadia, oder etwas ähnliches.

(es sei denn man möchte das erste Design ganz ohne Koduris Erbe nun lieber nach Buntbarschen statt nach den Sternen benennen?)
 
Zuletzt bearbeitet:
Wenn AMD mit Zen3 die 5nm angehen kann man vermuten das Navi auch in 5nm erschienen wird. Normal war immer die GPU im kleineren Fertigungsprozess erster.
 
Wenn AMD mit Zen3 die 5nm angehen kann man vermuten das Navi auch in 5nm erschienen wird. Normal war immer die GPU im kleineren Fertigungsprozess erster.
CDNA2 wird wohl die Basis für erste Chips in 5nm sein.

Für Desktop GPU wird das wohl erst mit RDNA3 (laut Roadmap) kommen.
 
Zurück
Oben Unten