AMD RDNA2 / Navi-2 und "Bignavi"

Ein paar Daten mit denen man rumspeckulieren kann.

5700xt 1700 MHz bei 0,85 Volt 130 Watt Boardpower max. bei Einstein@home pulsar
3090 um die 1700MHz bei 0,9 Volt 350 Watt Boradpower (der 8auer mit Shuntmod über 2000MHz bei 500 Watt)

Wenn Big Navi die doppelte größe von Navi hat kommt das mit den um die 300 Watt gut hin.

Auf jeden Fall braucht man Chips mit guter Güte um das zu realisieren.
 
Zuletzt bearbeitet:
MLID Big Navi Leak Video *Could be Maxwell Moment"


AMD hätte absichtlich viele Fake Informationen in Treibern und bei AIB Partner platziert.

(von mir vereinfacht) - seine Info:
ProSumer N21 - 250W, 80CU, 2.2GHz, 32GB GDDR6, 256bit, 3090/Quadro6000 Niveau (Q1/2021, 2k-3k$)
TopGamer N21 - 250W-300W, 72+CU, 2.3GHz, 16GB GDDR6, 256bit, >3080 Niveau (Thanksgiving 26.Nov.2020, 550-700$)
HighGamer N21 - 200W-250W, 60+CU, 2.3GHz, 16GB GDDR6, 256bit, >3070 Niveau (Dec.2020, 450-600$)

InfinityCache ist eher ein grooser Cache-Pool OnDie ähnlich wie bei Zen.

überwiegend spekulativ
UpperMid N22 - 160W-200W, 40 CU, 2.5GHz, 12GB GDDR6, 192bit (Jan.2021, 380-450$)
LowerMid N22 - 150W-180W, 32+CU, xGHz, 6/12GB GDDR6, 192bit (später, 300-380$)
Professional N22 - 155W, 36CU, 10GB GDDR6, 160bit

überwiegend spekulativ
EntryFamily N23 - 90W-150W, 24+ CU, 2.3GHz, 8GB GDDR6, 128bit (Q2/2021, 180-280$)
1080p @144Hz Gaming
Doppelposting wurde automatisch zusammengeführt:

Um auf das Cache-Thema zurückzukommen. MLID zitiert einige Quellen für einen Shared L1 Cache für alle CUs. Dieser würde gemäss Quellen je nach Pipeline-Stage bzw. Softwareanforderung dynamisch zwischen Shared und Private für die angehängten CUs wechseln können. Instruktionen, die weniger Latenz-Sensitiv sind könnten die Cache-Objekte dann ein einziges Mal für alle CUs vorhalten, statt dass die L1 Caches das gleiche Objekt vorhalten. Damit soll gemäss Paper rund 22% bis zu 52% mehr Performance, Faktor 2.3 bei Deep Learning, bis zu 49% mehr Energieeffizienz bei hoher Datenreplikation möglich sein.

(mein Take) Übersetzt aus der RDNA1 Grafik würde eine Art Infinity Fabric Protokoll notwendig sein um aus separaten L1 Caches einen gemeinsamen kohärenten Cache zu erstellen, der wie der L3 bei Zen CCX verteilt ist und via IF abgeglichen wird (das IF-Clock Tuning Thema via RAM der Zen1 Gen).
7nm-navi-gpu-a-gpu-built-for-performance-20-1024.jpg
14-AMD-Zen-x86-Core.png-nggid048363-ngg0dyn-800x0x100-00f0w010c010r110f110r010t010.png


Was der neue Cache aber genau ist und warum RGT den als Infinity Cache bezeichnet hat ist weiterhin Spekulation. Gesichert scheint nur, dass hier viel Neues zu erwarten ist, was die 256bit Speicheranbindung ermöglicht.

Habe gerade noch nachgelesen, der RDNA1 L1 Cache ist zumindest schon per Shader Array vereinheitlicht
The graphics L1 cache is shared across a group of dual compute units and can satisfy many data requests, reducing the data that is transmitted across the chip thereby boosting performance and improving power consumption. In addition, the intermediate graphics L1 cache improves scalability and simplifies the design of the L2 cache. ...
In the GCN architecture, the globally L2 cache was responsible for servicing all misses from the per-core L1 caches, requests from the geometry engines and pixel back-ends, and any other memory requests. In contrast, the RDNA graphics L1 centralizes all caching functions within each shader array. Accesses from any of the L0 caches (instruction, scalar, or vector data) proceed to the graphics L1. In addition, the graphics L1 also services requests from the associated pixel engines in the shader array.The graphics L1 cache is a read-only cache that is backed by the globally shared graphics L2; a write to any line in the graphics L1 will invalidate that line and hit in the L2 or memory. There is an explicit bypass control mode so that shaders can avoid putting data in the graphics L1.
 
Zuletzt bearbeitet:
von mir vereinfacht) - seine Info:
ProSumer N21 - 250W, 80CU, 2.2GHz, 32GB GDDR6, 256bit, 3090/Quadro6000 Niveau (Q1/2021, 2k-3k$)
TopGamer N21 - 250W-300W, 72+CU, 2.3GHz, 16GB GDDR6, 256bit, >3080 Niveau (Thanksgiving 26.Nov.2020, 550-700$)
HighGamer N21 - 200W-250W, 60+CU, 2.3GHz, 16GB GDDR6, 256bit, >3070 Niveau (Dec.2020, 450-600$)

InfinityCache ist eher ein grooser Cache-Pool OnDie ähnlich wie bei Zen.

überwiegend spekulativ
UpperMid N22 - 160W-200W, 40 CU, 2.5GHz, 12GB GDDR6, 192bit (Jan.2021, 380-450$)
LowerMid N22 - 150W-180W, 32+CU, xGHz, 6/12GB GDDR6, 192bit (später, 300-380$)
Professional N22 - 155W, 36CU, 10GB GDDR6, 160bit

überwiegend spekulativ
EntryFamily N23 - 90W-150W, 24+ CU, 2.3GHz, 8GB GDDR6, 128bit (Q2/2021, 180-280$)
1080p @144Hz Gaming


Danke für die Zusammenfassung. Ich sehe allerdings Moore's Law is Dead etwas kritisch.

Er behauptet ja auch, AMD würde gezielt Falschinformationen streuen. Warum sollen seine dann richtig sein?

Ich hab das vor ein paar Monaten mal aus Scherz zu jemanden auf Twitter geschrieben, aber eigentlich müsste es mal ein Gegengewicht zu den ganzen Leakern geben, indem man gezielt für alle eine Datenbank mit den Leaks führt und dann nach nem Jahr oder dem Launch des betreffenden Produktes diese noch mal bewertet.

Interessanter weil weniger konkret, aber mit Rückblenden auf AMD-Aussagen finde ich dagegen das Video von Not an Apple Fan:


Das einzige was er konkret nennt sind die 80 CUs und unter anderem die Aussagen von AMDs Wang über die Effizienzsprünge und die Ansage von Multi-GHz Takten.

Außerdem gibt er noch mal zu bedenken, dass Big Navi erstmal nur als AMD-Referenzdesign kommt, auf dass die AIBs nur ihre Aufkleber drauf pappen.


Abschliessend noch etwas von Frank Azor, der im Mai auch noch mal angekündigt hat, dass man mit RDNA2 zu Nvidia zumindest aufschliessen will und der Bang dann mit RDNA3 kommt.

 
Navi mal 2 davon gehen viele aus, ob AMD dann auch noch die Shader, wie Nvidia, massiv erhöht ist fraglich. Wenn das auch so ein großer Chip wird gibt es die selben Probleme. Ein bisschen an der Spannung gedreht und das Ding haut hab Richtung 500 Watt.
 
Dieser Spekulationsmarathon ist nicht mehr mein Fall, da werden zig Säue (gerade beim Speicherinterface) mehrmals durch das Dorf getrieben (nicht hier) - bin froh wenn das bald ein Ende hat.
 
Schaut aus wie Zen1, jetzt kommt Zen 2 und mit Zen 3 wird zugeschnappt wie bei Intel.....
 
@E555user Danke für die Zusammenfassung.

@eratte Ich bin auch froh wenn endlich die Fakten auf dem Tisch sind. Macht gerade keinen Spaß in den Spekulationsthreads in manchen Foren.
 
Interessanter weil weniger konkret, aber mit Rückblenden auf AMD-Aussagen finde ich dagegen das Video von Not an Apple Fan:
Das einzige was er konkret nennt sind die 80 CUs und unter anderem die Aussagen von AMDs Wang über die Effizienzsprünge und die Ansage von Multi-GHz Takten.
Er sagt vor allem Paul von Red Gaming Tech ist "unbelievable accurate... might be AMD employee" und "will release CPUs first so the GPUs won't be bottlenecked"

Wie auch immer. Wenn ich mir RDNA1 Methoden für die ersten 50% Steigerung ansehe und dann eine Evolution suchen müsste, dann ist viel besserer/grössere Cache die naheliegende Konklusion. Nach dem Motto was bei RDNA1 richtig war kann bei RDNA2 noch besser werden. Ein unerwartet schmales SI wäre dann sicherlich ein Mitnahmeeffekt für Powersavings.
 
überwiegend spekulativ
EntryFamily N23 - 90W-150W, 24+ CU, 2.3GHz, 8GB GDDR6, 128bit (Q2/2021, 180-280$)
1080p @144Hz Gaming
Wir wissen ja, dass Navi 23 eine 32 CU Konfiguration hat. Insofern muten 24 hier etwas seltsam an.
Ich weiß, da steht 24+, dennoch …
 
Danke für die Zusammenfassung. Ich sehe allerdings Moore's Law is Dead etwas kritisch.
Er behauptet ja auch, AMD würde gezielt Falschinformationen streuen. Warum sollen seine dann richtig sein?
Weil er nur Infos raus gibt, wo er mehrere Bestätigungen hat. Laut eigenen Aussagen hat er ja Informanten in der höheren Etage bei AMD, bei Tier 1 Partnern (Sapphire & Co die nur für AMD fertigen) und Tier 2 Partnern (ASUS und Co die auch für NVIDIA fertigen).
Auch bei NVIDIA lag er ja die letzten Monate nur richtig:
- Dass die Turing Karten quasi wertlos werden, weil Ampere soviel Mehrleistung zum niedrigen Preis bieten
- Dass die Founders Edition Karten nicht verfügbar sein werden, weil die Produktion erst im August gestartet wurde und der Hersteller des Kühlers nicht mit der Produktion nachkommt
Verglichen mit Adored TV und Red Gaming Tech die wirklich alles raushauen ist der wirklich Gold wert. Gut, seine Broken Silicon Podcasts dauern 2 Stunden und mehr, aber sind wirlich informativ.
 
Wir wissen ja, dass Navi 23 eine 32 CU Konfiguration hat. Insofern muten 24 hier etwas seltsam an.
Ich weiß, da steht 24+, dennoch …
Ja, ich habe in der Übersicht immer nur die untere Grenze genannt, die maximale obere +Grenze ergibt sich durch den nächst grösseren Chip. In seinem Video spricht er von 24-32 CUs und erklärt die untere/obere Grenze, vermutet absichtliche Limitierung des N23 via Bandbreite bzw. Cache weil die CUs ohnehin viel zu klein wären um bei kleinen Chips über CUs noch zu segmentieren... wenn N22 wirklich max 40CU sind käme N23 mit 32CU aber tatsächlich relativ gross für ein separates Design.

RDNA1 N10 hatte 20 DualCU in 4 Arrays je 5. Bei N14 sind es 12 DualCU in 2 Arrays je 6.
3 Arrays je 5 wären 15 DualCU bzw. 30CU. Eine 32er Grösse würde bei den Rechenbeispielen nur mit 4 oder 8 DualCUs im Array möglich werden. Das wäre aber ein extremer Sprung zu einem max 40CU. Dort ist eine Array Basis von 5 DualCUs einfacher.

Woher wissen wir die 32CUs bei Navi 23? Vielleicht gestreute Fehlinformation oder verworfene Samples, vielleicht sind andererseits die 40CUs von N22 falsch. Vielleicht will RDNA2 die Arrays ganz in eins verschmelzen oder die neue Basis wäre tatsächlich 4 DualCUs je Array, der Trend würde nach meiner Vermutung aber eher in mehr Kerne an einem L1 Segment sein. ...up in the air...

PS: falls Du des Englischen nicht so mächtig bist, die roten Texte zu den Specs will er als gesicherte Info via mehrere gute Quellen bestätigt wissen, alles was er in den Übersichten in weissem Text schreibt ist von ihm spekulative Ableitung aus *seinen Fakten* + sinnvolle Interpretation der Mengenlage an Informationen...

PPS: ich fände ein N22 mit 48CUs auch logischer bei dem grossen Abstand zu N21 mit min 60CUs. Er lässt die 40CUs noch in weissem Text.
 
Zuletzt bearbeitet:
Woher wissen wir die 32CUs bei Navi 23? Vielleicht gestreute Fehlinformation oder verworfene Samples, vielleicht sind andererseits die 40CUs von N22 falsch. Vielleicht will RDNA2 die Arrays ganz in eins verschmelzen oder die neue Basis wäre tatsächlich 4 DualCUs je Array, der Trend würde nach meiner Vermutung aber eher in mehr Kerne an einem L1 Segment sein. ...up in the air...

Die Informationen die da stehen stammen aus der Firmware von AMD Treibern zu MacOS und Linux. Das ist ziemlich safe. Kannst du im Zweifelsfall auch selbst nachprüfen.
Wesentlich sicherer als irgendeiner der hier genannten Youtuber jemals irgendwas präsentieren könnte.
Klar, prinzipiell könnte AMD gezielt falsche Firmware Dateien verbreiten, aber auch das würde wohl einen Shitstorm nach sich ziehen, wenn Leute dann irgendwann versuchen diese Treiber mit den GPUs zu nutzen und Probleme haben.
Kann ich mir nicht jedenfalls nicht vorstellen.

Meine Einschätzung zu Navi 23 ist, dass es sich hierbei um einen auf mobile Anwendungen optimierten Chip handelt. Daher genügt ein 128 Bit Speicherinterface, aber man spendiert lieber ein paar CU mehr, damit man ihn bei geringerer Taktrate laufen lassen kann, d.h. näher am Sweetspot.
Eine bessere Erklärung dafür habe ich ehrlich gesagt nicht. Hab ich auch auf 3DCenter schon genau so geäußert direkt nachdem die Chipdaten veröffentlicht wurden.

Ich kann auch nicht einschätzen, ob MLID oder sonst wer richtige Infos hat oder nur Blödsinn verzapft. Aber mein Eindruck bislang war, dass die alle nur nebulös vor sich hinreden, aber stetig behaupten sie hätten exklusive Informationen die sie aber aus ungenannten Gründen noch zurückhalten oder so extrem vage halten, dass man nix daraus herleiten kann.
Und wenn dann mal was konkretes kommt, dann bezieht es sich wieder eher auf andere Leaks, wie eben den Post auf Reddit.

Abgesehen davon: ich halte es für wesentlich wahrscheinlicher, dass Leute wie MLID gezielt mit falschen Informationen gefüttert werden als dass AMD gezielt falsche Firmwares und Treiber verbreitet …
 
MLID Big Navi Leak Video *Could be Maxwell Moment"

Möchte von AMD keine Wunderdinge mehr erwarten, dafür waren sie jetzt zu lange der Underdog. Aber ein RV770 Moment, als sie es innerhalb eines Jahres schafften, den katastrophalen R600 zu retten, das wär doch was ;D
 
Die Informationen die da stehen stammen aus der Firmware von AMD Treibern zu MacOS und Linux. Das ist ziemlich safe. Kannst du im Zweifelsfall auch selbst nachprüfen.
Wesentlich sicherer als irgendeiner der hier genannten Youtuber jemals irgendwas präsentieren könnte.
Klar, prinzipiell könnte AMD gezielt falsche Firmware Dateien verbreiten, aber auch das würde wohl einen Shitstorm nach sich ziehen, wenn Leute dann irgendwann versuchen diese Treiber mit den GPUs zu nutzen und Probleme haben.
Die Tabelle kannte ich noch nicht. Soweit ich das sehe hat MLID nichts anderes als bestätigt angegeben, der Rest ist in der Tabelle genauer, er hat sich hier nicht festgelegt sondern streut Zweifel.
Was mich an dem finalen Status dieser Beta-Treiber zweifeln lässt ist die bereits enthaltene RDNA3 Info und keinerlei Hinweise auf ein anderes Cache Design, am Ende doch nur Platzhalter?
Die unbekannten Zusatzparameter haben vielleicht mit RT zu tun, als Light ohne RT...

Aber wo soll da der Cache herkommen das SI zu entlasten?
 
Abschliessend noch etwas von Frank Azor, der im Mai auch noch mal angekündigt hat, dass man mit RDNA2 zu Nvidia zumindest aufschliessen will und der Bang dann mit RDNA3 kommt.

Das erwarte ich eigentlich auch so. Der Rückstand war groß - den zu "egalisieren" wird schon ein großer Erfolg sein. RDNA3 wird dann MCM ?!*em_hurra*
 
Die Tabelle kannte ich noch nicht. Soweit ich das sehe hat MLID nichts anderes als bestätigt angegeben, der Rest ist in der Tabelle genauer, er hat sich hier nicht festgelegt sondern streut Zweifel.
Klar, im Sinne von "das was da steht hab ich eh schon immer aus meinen Quellen gewusst". Kennen wir mittlerweile.
So wie ich das sehe hat AMD die typischen Leaker offensichtlich trocken gelegt.
Die sind aber davon abhängig, weil das Klicks bringt. Entsprechend labert man halt nebulös vor sich hin und sagt bei halbwegs sicheren Infos, dass das das ist was man eh schon immer gewusst hat.
Schau dir doch mal die Datenlage bzgl. Zen 3 an … da ist praktisch nichts. Weniger als eine Woche vor Release.
Und das was wir zu Zen 3 wissen (8C CCX, 32MB Cache) wissen wir von AMD selbst auf Grund des versehentlich veröffentlichten Vortrags vor einem Jahr.
Was mich an dem finalen Status dieser Beta-Treiber zweifeln lässt ist die bereits enthaltene RDNA3 Info und keinerlei Hinweise auf ein anderes Cache Design, am Ende doch nur Platzhalter?
Kann man nicht vollständig ausschließen, aber warum dann überhaupt hinzufügen.
AMD hat wohl nicht damit gerechnet, dass jemand die discovery Binary entschlüsselt.
Hat ja auch ne ganze Weile gedauert, laut dem Typen der das gemacht hat stehen die Daten zu Navi 2x auch schon in einem Treiber aus dem letzten Jahr so drin.

bzgl. Cache: sowas muss da nicht unbedingt drinnen stehen. Muss nicht mal unbedingt im Code enthalten sein, da die Logik vermutlich so wie bei den CPUs in der Hardware selbst enthalten ist.
Ist natürlich nicht auszuschließen, dass man im Treiber darauf hin optimieren kann, aber davon haben wir bislang nichts gesehen.
Doppelposting wurde automatisch zusammengeführt:

RDNA3 wird dann MCM ?!*em_hurra*
So zumindest die Spekulation. Ich würde mich aber da noch nicht zu sehr darauf versteifen.
Es gab genau ein Gerücht das das angedeutet hat und bislang wurde nichts sonst aus dem Gerücht bisher bestätigt. Also abwarten. ;)

Zudem, wenn man den Treiberdaten glaubt, dann ist Navi 31 weitgehend identisch zu Navi 21.
Würde in meinen Augen bedeuten, dass man evtl. Navi 21 in 5nm shrinkt (sowie evtl. ein paar Optimierungen vornimmt).
 
Aber wo soll da der Cache herkommen das SI zu entlasten?
Meine Spekulkation ist derzeit, dass AMD den in den Texturprozessoren vorhandenen größeren Cache für Hybrid-Raytracing bei deaktiviertem RT als Cache für normales Rendering verwenden kann. AMD Hybrid-RT-Patent schreibt davon eine FFU für RT nutzen zu können mit einem eigenen Datachannel, der paralelle zur TXT verläuft und auch davon, dass man diese umgehen kann mit "programable state machine"

1-1-880x451.jpg


2-1-880x507.jpg



Möglicherweise lässt sich sogar hier ein Wechsel von Frame zu Frame durch die Spieleentwickler nutzen zwischen RT on und RT off...das wäre mal etwas, wenn RT nicht komplett für jeden Frame neu gemacht werden muss, sondern die Daten teilweise über mehrere Frames hinweg nicht neu berechnet werden müssen.
 
@Takte von RDNA2:

Wenn in Sonys PS5-SoCs von allen SoCs 36 von 40 CUs (also 90%) 2,23Ghz bei auch noch begrenzter TDP erreichen müssen, und das Ganze schon deutlich früher festgelegt werden musste, als AMD sollten auch in AMDs GPUs mindestens 90% der funktionierenden CUs mindestens 2,23Ghz schaffen. Hinzu kommt: AMD kann bis zuletzt selektieren, weitere CUs deaktivieren und auch eine höhere TDP zulassen...
...wo wäre es dann ungewöhnlich, wenn Navi21-GPUs auch mindestens 2,2Ghz im Boost erreichen, selektierte aber weit darüber takten?
Für realistisch halte ich, dass AMDs Navi21-Referenz-Design mindestens 2,2Ghz Boost macht und die späteren Custom-Designs weit mehr...mehr als 2,4Ghz...gar 2,5Ghz?

Wenn das neue Cache-Design tatsächlich soviel IPC-Steigerung bringt, dann dürfte RDNA2s IPC womöglich >20% IPC-Steigerung gegenüber RDNA1 haben und womöglich auch noch 25% höhere Takte....
 
Die Informationen die da stehen stammen aus der Firmware von AMD Treibern zu MacOS und Linux. Das ist ziemlich safe. Kannst du im Zweifelsfall auch selbst nachprüfen.

Ich habe versucht mir ein Bild zu den Tabellen aus den Treiberdaten zu machen und werde aus wesentlichen Teilen der Information nicht ganz schlau, mal auf die unklaren Unterschiede bezogen. Mir ist ja einiges an Abkürzungs-Chinesisch geläufig, aber wofür stehen die folgenden Parameter, kann das jemand aufschlüsseln?
  • num_tccs (Texture Channel CacheS?)
  • num_sc_per_sh (Shader Cluster per Shader Hub?)
  • num_packer_per_sc (Gruppierung von CUs im Shader Cluster, also künftig QuadCU statt DualCU?)
  • num_gl2a (Good Luck Anti Aliasing?)
... und warum hat Cezanne mit Vega die genannten Punkte 2 u. 3 und ansonsten nur die RDNA Varianten?
 
Zuletzt bearbeitet:
Bei tccs liegst du richtig. Im Normalfall ist das auch gleich der Anzahl an Speicherkanälen, allerdings gibt es Beispiele bei denen sich mehrere Speicherkanäle einen Cache teilen.
Bei der XBox One war es wohl im Verhältnis 1:1.5, bei Arcturus dürfte es vermutlich 1:2 sein.
SC als shader cluster könnte auch stimmen, aber sicher bin ich mir da nicht.
Zu gl2a konnte ich auch noch nichts finden, das kommt im Code nur als Abkürzung vor.

Bei num_tccs und auch einigen anderen der Parameter muss man noch berücksichtigen, dass das immer das Maximum angibt. Die eigentliche Zahl wird dann aus dem VBIOS ausgelesen (->atomfirmware.h).
Ist aber für die Diskussion die wir hier um die Chips führen nicht weiter wichtig. ;)
 
Ich bin ja auf den Preis gespannt. Ich hab 800 € zurück gelegt für CPU und GPU
 
  • num_tccs (Texture Channel CacheS?)
  • num_sc_per_sh (Shader Cluster per Shader Hub?)
  • num_packer_per_sc (Gruppierung von CUs im Shader Cluster, also künftig QuadCU statt DualCU?)
  • num_gl2a (Good Luck Anti Aliasing?)
Also:
SH ist Shader Array.
GL2A ist das was bei Vega TCA war (steht so in pal). Leider hab ich auch keine Ahnung was TCA bedeutet. xD
 
Also:
SH ist Shader Array.
GL2A ist das was bei Vega TCA war (steht so in pal). Leider hab ich auch keine Ahnung was TCA bedeutet. xD
Shader Hive würde mir eingängier sein.... aber in den Slides für RDNA Developer wird es auch als Array bezeichnet. Wenn ein SC per SH bei RDNA =1 ist könnte damit der L1 Shader Cache gemeint sein. Der ist zumindest 1 je SH in NAVI gemäss Blockdarstellungen.
Etwas ungewöhnlich wirkt im Wechsel zu RDNA2 die Halbierung der Anzahl Render Backends an, sowie umgekehrt die Verdoppelung der "Packer" je SC.
TC war bei AMD eigentlich immer Synonym für Textrue Cache L1, GL2A könnte dann für Global L2 Addressing, Array oder Access stehen.
 
Also:
SH ist Shader Array.
GL2A ist das was bei Vega TCA war (steht so in pal). Leider hab ich auch keine Ahnung was TCA bedeutet. xD
Shader Hive würde mir eingängier sein.... aber in den Slides für RDNA Developer wird es auch als Array bezeichnet. Wenn ein SC per SH bei RDNA =1 ist könnte damit der L1 Shader Cache gemeint sein. Der ist zumindest 1 je SH in NAVI gemäss Blockdarstellungen.
Etwas ungewöhnlich wirkt im Wechsel zu RDNA2 die Halbierung der Anzahl Render Backends an, sowie umgekehrt die Verdoppelung der "Packer" je SC.
TC war bei AMD eigentlich immer Synonym für Textrue Cache L1, GL2A könnte dann für Global L2 Addressing, Array oder Access stehen.
Haben wir im 3DC inzwischen aufgelöst. GL2A steht für "GL2 Arbiter". Das sagt mir zwar auch nicht sonderlich viel und "GL2" ist damit immer noch nicht geklärt, aber egal … *chatt*
TCA ist die Entsprechung dazu auf Vega und ist wohl "tightly coupled accelerator".
 
Zurück
Oben Unten