App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD RDNA 3 - Chiplet NAVI - NAVI 3X
- Ersteller E555user
- Erstellt am
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Die Vorstellung von RDNA von heute war etwas merkwürdig.
Die RX 7900XTX und 7900XT sind für mich etwas ungewöhnlich positioniert. So ganz simpel auf dem Papier hat die XTX 14% mehr CUs und nochmal 15% mehr Takt für voraussichtlich 25-30% mehr Leistung als die XT, soll aber nur 11% teurer werden.
Mit Advanced Desktops sollen die neuen dGPUs in AMD only Komplettsystemen der grossen OEMs angeboten werden. Das ist ein guter Schritt in der Vermarktung.
Technisch bei den RDNA3 dGPUs überrascht der Takt. Man bleibt bei rohen TFLOP Angaben 36% hinter der Nvidia-Leistung zurück. Ich hätte höheren Takt erwartet. Aber mit Übertakten wird die Rohleistung von Nvidia nicht erreichbar sein. Man sagt hingegen man haben gegenüber den 23 TFLOPs von RDNA2 auf 61 TFLOPs zwischen den Generationen zugelegt, also um Faktor 2.65. Die relative Game-Performance zur Rohleistung könnte AMD vielleicht weiterhin etwas helfen.
Dass man im GCD zwei Frequenzbereiche mit 2.3GHz für Shader und 2.5GHz für Frontend macht könnte ein Schlüssel sein, oft sind die Shader nicht ausgelastet, das Frontend dagegen schon. Nvidia selbst bewirbt 2.52GHz Boost für die 4090. Da taktet man mit mehr Watt gleich schnell aber mit viel grösserem Die.
Enttäuscht bin ich etwas über die nur "bis zu 50%" mehr RT Leistung je CU, ich hätte mir 100% gewünscht. Wir waren bei 80CUs. Mit 20% mehr CUs für die XTX liegen wir dann bei bis zu 80% mehr RT-Leistung. Offensichtlich glaubt AMD nicht an einen rasanten Zuwachs des RT-Bedarfs. Bei den Features mit neuen Instruktionen für Box-Sorting und Traversal wird es Patches brauchen.
Dual Issue Wave32 Units für zwei Instruktion je 32 Lanes SIMD oder parallele Ausführung wie bei RDNA2. Mixing von belibigen Int/Float Operationen.
Doppelte Anzahl Instruktionen per Clock je CU. Von WGP ist keine Rede mehr. Mir ist nicht so ganz klar was das am Ende wirklich bedeutet.
Die zwei neuen AI-Accelerator sind noch völlig ein Rätsel, man spricht von "Enhanced" und Faktor 2.7 more Performance. Bei RDNA2 wusste ich nichteinmal dass sowas Teil der CUs war. Ich denke hier wird nur Marketing gemacht und es sind wie zuvor auch einfach neue Instruktionen in der CU. Ist dann eine Dopplung den gedoppelten CUs zuzurechnen? Dann gibt es je Wave32 Unit neue Instruktionen die 35% mehr Durchsatz ermöglichen...
6x37mm² MCD und 300mm² GCD könnten ja wohl gerundete Werte sein und die bisher bekannten weiterhin stimmen.
Im Grossen und Ganzen ist das aber noch sehr undurchsichtig was da mit der CU respektive dem WGP gemacht wurde, was wirklich bei RT zusätzlich möglich ist und was es mit der verbesserten AI-Beschleunigung aufsich hat.
Wir müssen technische Präsentationen und Unterlagen abwarten. Es ging heute wohl mehr um die Endprodukte als um die Technik.
Die RX 7900XTX und 7900XT sind für mich etwas ungewöhnlich positioniert. So ganz simpel auf dem Papier hat die XTX 14% mehr CUs und nochmal 15% mehr Takt für voraussichtlich 25-30% mehr Leistung als die XT, soll aber nur 11% teurer werden.
Mit Advanced Desktops sollen die neuen dGPUs in AMD only Komplettsystemen der grossen OEMs angeboten werden. Das ist ein guter Schritt in der Vermarktung.
Technisch bei den RDNA3 dGPUs überrascht der Takt. Man bleibt bei rohen TFLOP Angaben 36% hinter der Nvidia-Leistung zurück. Ich hätte höheren Takt erwartet. Aber mit Übertakten wird die Rohleistung von Nvidia nicht erreichbar sein. Man sagt hingegen man haben gegenüber den 23 TFLOPs von RDNA2 auf 61 TFLOPs zwischen den Generationen zugelegt, also um Faktor 2.65. Die relative Game-Performance zur Rohleistung könnte AMD vielleicht weiterhin etwas helfen.
Dass man im GCD zwei Frequenzbereiche mit 2.3GHz für Shader und 2.5GHz für Frontend macht könnte ein Schlüssel sein, oft sind die Shader nicht ausgelastet, das Frontend dagegen schon. Nvidia selbst bewirbt 2.52GHz Boost für die 4090. Da taktet man mit mehr Watt gleich schnell aber mit viel grösserem Die.
Enttäuscht bin ich etwas über die nur "bis zu 50%" mehr RT Leistung je CU, ich hätte mir 100% gewünscht. Wir waren bei 80CUs. Mit 20% mehr CUs für die XTX liegen wir dann bei bis zu 80% mehr RT-Leistung. Offensichtlich glaubt AMD nicht an einen rasanten Zuwachs des RT-Bedarfs. Bei den Features mit neuen Instruktionen für Box-Sorting und Traversal wird es Patches brauchen.
Dual Issue Wave32 Units für zwei Instruktion je 32 Lanes SIMD oder parallele Ausführung wie bei RDNA2. Mixing von belibigen Int/Float Operationen.
Doppelte Anzahl Instruktionen per Clock je CU. Von WGP ist keine Rede mehr. Mir ist nicht so ganz klar was das am Ende wirklich bedeutet.
Die zwei neuen AI-Accelerator sind noch völlig ein Rätsel, man spricht von "Enhanced" und Faktor 2.7 more Performance. Bei RDNA2 wusste ich nichteinmal dass sowas Teil der CUs war. Ich denke hier wird nur Marketing gemacht und es sind wie zuvor auch einfach neue Instruktionen in der CU. Ist dann eine Dopplung den gedoppelten CUs zuzurechnen? Dann gibt es je Wave32 Unit neue Instruktionen die 35% mehr Durchsatz ermöglichen...
6x37mm² MCD und 300mm² GCD könnten ja wohl gerundete Werte sein und die bisher bekannten weiterhin stimmen.
Im Grossen und Ganzen ist das aber noch sehr undurchsichtig was da mit der CU respektive dem WGP gemacht wurde, was wirklich bei RT zusätzlich möglich ist und was es mit der verbesserten AI-Beschleunigung aufsich hat.
Wir müssen technische Präsentationen und Unterlagen abwarten. Es ging heute wohl mehr um die Endprodukte als um die Technik.
cologne46
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.291
- Renomée
- 223
- Lieblingsprojekt
- medizinische
- Meine Systeme
- A10-5700, 6x Odroid N2
- BOINC-Statistiken
- Mein Laptop
- Dell Vostro 3700
- Prozessor
- A10-5700
- Mainboard
- Asrock FM2A75 Pro4-M
- Kühlung
- EKL Alpenföhn Groß Clockner mit be quiet! Silent Wings PWM
- Speicher
- 16GB G.Skill 2400
- Grafikprozessor
- HD 7660D
- Display
- 27" IIYAMA XUB2792UHSU
- SSD
- Corsair Neutron XTI 480 GB
- HDD
- Seagate ST6000VN 6 TB
- Optisches Laufwerk
- LG BH16
- Soundkarte
- onboard
- Gehäuse
- Sharkoon Revenge Economy
- Netzteil
- BeQuiet 300W
- Betriebssystem
- Win 7 x64
- Webbrowser
- Firefox
und um den Preis. Damit werden sie vermute ich einige vom Kauf der Nvidia Karten momentan abhalten können bis erste Benchmarks und Tests veröffentlicht sind.Es ging heute wohl mehr um die Endprodukte als um die Technik.
Ich hoffe nur, dass die viel Wert auf von Anfang gute Treiber legen und nicht die Testperformance mit neueren Treibern ein paar Wochen später einige Prozente höher ausfällt. Dann sind die Reviews geschrieben und in der Welt.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Die Vorstellung von RDNA von heute war etwas merkwürdig.
Die RX 7900XTX und 7900XT sind für mich etwas ungewöhnlich positioniert. So ganz simpel auf dem Papier hat die XTX 14% mehr CUs und nochmal 15% mehr Takt für voraussichtlich 25-30% mehr Leistung als die XT, soll aber nur 11% teurer werden.
Mit Advanced Desktops sollen die neuen dGPUs in AMD only Komplettsystemen der grossen OEMs angeboten werden. Das ist ein guter Schritt in der Vermarktung.
Da gehe ich mit, wenn man sich Reaktionen dazu in den Foren durchliest ist die Range auch ungewöhnlich groß von ganz mies bis überragend.
Meine Vermutung ist, dass es mal wieder an der Software etwas hakt. FSR 3 kommt erst in 2023 und auch andere Features klangen, als wenn sie noch nicht ganz fertig sind.
Erfreulich ist aber, dass man sich technische gesehen mit den Schnittstellen und En-/Decodern auf der Höhe der Zeit oder sogar noch vor Nvidia platziert.
PCI-E 5.0 scheint man aber auch nicht zu brauchen. Wäre gut, wenn es dazu eine Erklärung noch gibt.
Die Präsentation gerade durch Sam Naffziger war aber auch irgendwie ein wenig "lahm" und es gab halt wenig konkrete Perfomancewerte, so dass man irgendwie bei der genauen Einschätzung in der Luft hängt.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Der Preisunterschied von nur 100$ zwischen 7900XT und 7900XTX macht gar keinen Sinn, als wenn Navi31 100% Yield hätte. Sicherlich kaum, es sei denn, 7900XTX wäre nicht der Vollausbau...
Letztlich hat AMD gestern meines Erachtens vor allem Nvidias Geschäft mit deren kommender 4080 vermasselt: Wer kauft die noch, wenn es einen Monat später eine AMD-Graka geben soll, die die 4080 deutlich überflügeln, 8GB mehr Ram hat und sogar 200$ billiger sein soll? Will AMD sich doch wieder als Freund der Gamer präsentieren?
Letztlich hat AMD gestern meines Erachtens vor allem Nvidias Geschäft mit deren kommender 4080 vermasselt: Wer kauft die noch, wenn es einen Monat später eine AMD-Graka geben soll, die die 4080 deutlich überflügeln, 8GB mehr Ram hat und sogar 200$ billiger sein soll? Will AMD sich doch wieder als Freund der Gamer präsentieren?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Die Referenz-XTX wird verschwinden und AMD wird mit dem Chip nur noch die 200,- teureren Customs bedienen - die XT wird im Referenz Design bleiben und Customs nehmen den jetzigen Preispunkt der Referenz-XTX ein. So hatte man zum Release den Preis unter 1.000 und verdient als Partner-Karten Hersteller später doch mehr: Partner-Service von AMD, von dem AMD profitiert bei der Vorstellung. Und länger die Preise für die GPU-Packages auf dem Level halten kann.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Genau so sehe ich das auch. Und man hat gestern Nvidia vor deren 4080-Präsentation etwas nervös gemacht.Die Referenz-XTX wird verschwinden und AMD wird mit dem Chip nur noch die 200,- teureren Customs bedienen - die XT wird im Referenz Design bleiben und Customs nehmen den jetzigen Preispunkt der Referenz-XTX ein. So hatte man zum Release den Preis unter 1.000 und verdient als Partner-Karten Hersteller später doch mehr: Partner-Service von AMD, von dem AMD profitiert bei der Vorstellung. Und länger die Preise für die GPU-Packages auf dem Level halten kann.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
AMD Radeon RX 7600/7700/7800/7900 (GRE/XT/XTX) (Navi3x/RDNA3/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1
Wer kauft aber jetzt noch ne RX6X00 zu den aktuellen Preisen? Jeder der Weihnachtsgeschenke kauft für Gamer-Kids - was wissen denn Eltern über Releasetermine?
forum.planet3dnow.de
Ich hoffe es wird nicht wie bei der Vega64, die auch ursprünglich mal für 1.7GHz designt war, aber bei der Vorstellung nur 1.5GHz im Boost erreichen konnte. Ich habe aber in TSMC mehr vertrauen als in Glofo von damals.
Die offiziellen Specs sprechen für die Referenz-Designes von 2.4GHz Boost für XT und 2.5GHz Boost für XTX. Was das nun wieder für die "decoupled" Taktraten von CUs und Frontend bedeutet muss man abwarten.
Doppelposting wurde automatisch zusammengeführt:
MLID sieht das ähnlich, er listet noch andere Möglichkeiten zur Skalierung für künftige Modelle basierend auf N31.
Leider auch hier keine Details zur Technik.
Zuletzt bearbeitet:
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Die Referenz-XTX wird verschwinden und AMD wird mit dem Chip nur noch die 200,- teureren Customs bedienen - die XT wird im Referenz Design bleiben und Customs nehmen den jetzigen Preispunkt der Referenz-XTX ein. So hatte man zum Release den Preis unter 1.000 und verdient als Partner-Karten Hersteller später doch mehr: Partner-Service von AMD, von dem AMD profitiert bei der Vorstellung. Und länger die Preise für die GPU-Packages auf dem Level halten kann.
So wird es wahrscheinlich kommen, weil $100 Unterschied ist wirklich dämlich. Sie hätten sie ja wenigstens auf 879 machen können auch wenn das nur rein optisch weniger aussieht.
Ich hoffe das Chiplet-Design zeigt nicht irgendwo Schwächen, ansonsten ist AMD scheinbar softwareseitig mal wieder spät dran. Zu AI wurde leider auch nicht viel gesagt.
Aber was will man von einer Firma erwarten die mit der Mannstärke von Nvidia auch noch CPUs und FPGAs abdeckt. Im Earnings Call wurde übrigens auch gesagt, dass AMD das Einstellen neuer Leute verlangsamt hat. Naja im Februar wissen wir mehr, wie viele Leute AMD wirklich mittlerweile eingestellt hat und da müssen sich zusammen mit der Xilinx Übernahme ja erst Arbeitsschritte und Teams verwirklichen.
vinacis_vivids
Vice Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 848
- Renomée
- 87
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Videocardz glaubt ein valides Foto eines Arch-Schaubildes mit Erläuterungen zu haben. In der Regel waren solche Folien von AMD allerdings mit weniger Text belegt und eher mehrere nacheinander, statt alles auf einem Bild.
Alleged AMD Navi 31 GPU block diagram leaks out - VideoCardz.com
AMD RDNA3 architecture ‘to exceed 3 GHz’ We received a picture showing the new Navi 31 GPU block diagram. AMD Navi 31 GPU is a chiplet design with one GCD (Graphics Compute Die) and six Memory Cache Dies (MCDs). The outer dies house dual 32-bit memory controllers each, combined with large L3...
videocardz.com
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
In der Regel waren solche Folien von AMD allerdings mit weniger Text belegt und eher mehrere nacheinander, statt alles auf einem Bild.
Könnte ne Zusammenfassung sein, mich irritiert eher die rot abgesetzte Schrift, das sieht eigentlich nicht nach AMD aus.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich glaube ehrlich gesagt auch es ist eher ein Fake, gibt es da schon Details über die Herkunft?
Mich irritiert am auffäligsten die Bezeichnung "Full DX12 Ultimate" - Dieses vorangestellt "Full" ist eher etwas das Unternehmen nicht nutzen, sondern Foristen - DX12 Ultimate ist soweit ich weiss klar definiert.
Zumal RDNA2 schon das Featureset 12_2 vollständig konnte, auch in den Konsolen:
Mich irritiert am auffäligsten die Bezeichnung "Full DX12 Ultimate" - Dieses vorangestellt "Full" ist eher etwas das Unternehmen nicht nutzen, sondern Foristen - DX12 Ultimate ist soweit ich weiss klar definiert.
Zumal RDNA2 schon das Featureset 12_2 vollständig konnte, auch in den Konsolen:
DirectX 12_2: Neue Grafik-Features für Next-Gen-Spiele und -GPUs
Microsoft bastelt weiter an der Programmierschnittstelle (API) DirectX 12. Das Redmonder Unternehmen hat das neue Feature-Level 12_2 angekündigt. Auf dem PC sind alle aktuellen GeForce RTX-Grafikkarten mit Turing-Architektur vollständig kompatibel.
winfuture.de
Auch folgende Bezeichnungen sind eher Forensprache als offizielle AMD-Sprache:Unterstützung für Turing, Ampere, RDNA 2 und mehr
Leicht verwirrend an der heutigen Ankündigung von Microsoft ist, dass die wichtigsten Merkmale des DirectX Feature-Level 12_2 schon zuvor unter dem Namen DirectX 12 Ultimate zusammengefasst worden waren. Ob die beiden Bezeichnungen tatsächlich exakt dasselbe meinen, ist vorerst unklar. Fest steht hingegen, dass neben Nvidias aktueller GeForce-Generation auch die kommenden Ampere-Grafikchips sowie AMDs neue RDNA-2-GPUs sämtliche Funktionen unterstützen werden. Zur Erinnerung: Auch die beiden Next-Gen-Konsolen Sony PlayStation 5 und Microsoft Xbox Series X werden einen Grafikprozessor auf Basis der RDNA-2-Architektur integrieren.
- Up to 2xALU rates plus BF16 Support (Wo ist das "Double Issue" - denn es müssen ja die selben Instruktionen vorliegen um gemeinsam verarbeitet zu werden. AMD würde niemals einfach pauschal doppelte Rate da hin schreiben.
- Industry Defining Chiplet Architecture - das finde ich ein merkwürdiges Wording als Überschrift. AMD nutzt da Formulierungen anders: https://ir.amd.com/news-events/pres...ls-worlds-most-advanced-gaming-graphics-cards - The AMD RDNA 3 architecture’s chiplet design combines 5nm and 6nm process nodes.
- Random Order Opaque Export - Abgekürzt ROOE? Nun AMD nennt das Feature OREO: Opaque Random Export Order.
Die beiden neuen Karten sehen ganz interessant aus und entsprechen wohl genau den von AMD angekündigten +50% perf/Watt. Und damit bei gleicher TDP eben 50% schneller.
Das neue Dual issue design finde ich nach heutigem Wissensstand aber nicht besonders gelungen. Man verdoppelt die Shader verhungert dann aber am front end das nur ca. 50% schneller geworden ist. Und die RT engines sind auch nur 50% gewachsen. Damit bleibt das Verhältnis von Raster zu RT Leistung bestenfalls auf RDNA2 Niveau. Da bietet sogar Intel mittlerweile ein besseres Verhältnis wobei deren Karten in allen anderen Punkten klar verlieren.
AMD versucht das jetzt zu kompensieren indem das Front mit ein paar MHz mehr läuft, wodurch man dann vlt. gerade noch so 60% Mehrleistung herausholen kann.
Da habe ich im Vorfeld etwas mehr erwartet.
Nichts desto trotz werden es denke ich gute Karten zu einem scheinbar sehr guten Preis-Punkt im Vergleich zu Nvidia.
Ich finde die XT wegen max. 300W TDP eigentlich sogar interessanter als die XTX, aber die von AMD angesetzten Taktraten scheinen viel zu gering zu liegen. Bei 10% weniger TDP propagierte ca. 30% weniger Performance würde zu einer deutlich schlechten Perf/W als XTX führen, wobei bei weniger Takt die Perf/W normalerweise steigen sollte.
Eventuell boostet die XT also doch höher als von AMD propagiert? Oder sind deren Chips einfach so viel schlechter als die der XTX?
Dann wiederum wäre der Preis der XT etwas hoch angesetzt. Ich bleibe gespannt was der Dezember bringt.
Das neue Dual issue design finde ich nach heutigem Wissensstand aber nicht besonders gelungen. Man verdoppelt die Shader verhungert dann aber am front end das nur ca. 50% schneller geworden ist. Und die RT engines sind auch nur 50% gewachsen. Damit bleibt das Verhältnis von Raster zu RT Leistung bestenfalls auf RDNA2 Niveau. Da bietet sogar Intel mittlerweile ein besseres Verhältnis wobei deren Karten in allen anderen Punkten klar verlieren.
AMD versucht das jetzt zu kompensieren indem das Front mit ein paar MHz mehr läuft, wodurch man dann vlt. gerade noch so 60% Mehrleistung herausholen kann.
Da habe ich im Vorfeld etwas mehr erwartet.
Nichts desto trotz werden es denke ich gute Karten zu einem scheinbar sehr guten Preis-Punkt im Vergleich zu Nvidia.
Ich finde die XT wegen max. 300W TDP eigentlich sogar interessanter als die XTX, aber die von AMD angesetzten Taktraten scheinen viel zu gering zu liegen. Bei 10% weniger TDP propagierte ca. 30% weniger Performance würde zu einer deutlich schlechten Perf/W als XTX führen, wobei bei weniger Takt die Perf/W normalerweise steigen sollte.
Eventuell boostet die XT also doch höher als von AMD propagiert? Oder sind deren Chips einfach so viel schlechter als die der XTX?
Dann wiederum wäre der Preis der XT etwas hoch angesetzt. Ich bleibe gespannt was der Dezember bringt.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.724
- Renomée
- 433
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
AMD hat am gestern einen Foliensatz mit mehr Details zu RDNA3 freigegeben:
RDNA 3 Technik-Deep Dive: Radeon RX 7900 XT/X unter der Lupe - Seitenhieb gegen RTX 4080
AMD gewährt einen genaueren Blick auf seine neuen Grafikkarten Radeon RX 7900 XT/X und zieht Vergleiche zu Nvidias Ada Lovelace.
www.pcgameshardware.de
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Noch wissen wir zwar wenig über die RDNA3-GPUs, aber wenn ein Navi33 mit 5120 CUs nur etwas über 200mm² haben soll, frage ich mich, ob es für AMD nicht die günstigste Lösung wäre, einen doppelten Navi33 mit 10240CU als monolithische GPU zu bringen, da nun 400mm²-Dice in 6nm sicherlich ungleich günstiger sein dürften, als das geplante Navi32-MCM-Design, oder?
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Wenn ich mir Navi31 so ansehe, frage ich mich, ob es wirklich einen Navi32 im selben Konzept wie Navi31 geben wird? Warum nicht einfach den 6nm Navi33 "verdoppeln", sodass eine monolithische GPU entsteht, mit gerade mal 400mm² in N6. Das dürfte ungleich billiger sein als das Navi32-Konstrukt mit 200mm² GCD in N5 + 4x MCD in 37,5mm² + MCM-Aufbau.
Hinzu kommt, dass bei Navi32 zwar die CUs in 5nm effizienter sein dürften, dafür aber zusätzlicher Energieverbrauch für die "Bridge" zwischen dem 5nm-GCD und den 6nm-MCDs diesen Vorteil zum Teil wieder eliminiert, zumal die MCDs auch "nur" in N6 sind, sodass Navi31 letztlich gerade mal 54% effizienter als Navi21 ist. RDNA3 in 6nm wird sicherlich auch etwas effizienter als RDNA2 in N7 sein, sodass nicht mehr viel Effizienz-Nachteil für einen solchen Monolithen verbleiben dürfte.
Ebenso verursacht die "Bridge" zwischen GCD und MCD auch ein Speed-Problem (zusätzliche Latency), was Performance-Einbußen gegenüber einem monolithischen Aufbau verursacht (wie bei den Desktop-CPUs). Zuletzt dürfte RDNA3 in N6 auch noch etwas mehr Takt schaffen als RDNA2 in N7 und damit wohl auch in etwa 3Ghz erreichen.
Aktuell sind nur die 5nm-Wafer knapp und von daher vemutlich auch extrem viel teurer als N6-Wafer. Ein Navi32 in N6 dürfte also weit günstigere Möglichkeiten und auch Verfügbarkeiten zulassen als der bisher spekulierte Navi32, sodass AMD damit Nvidia im Mainstream vermultich viel effektiver "angreifen" könnte.
Hinzu kommt, dass bei Navi32 zwar die CUs in 5nm effizienter sein dürften, dafür aber zusätzlicher Energieverbrauch für die "Bridge" zwischen dem 5nm-GCD und den 6nm-MCDs diesen Vorteil zum Teil wieder eliminiert, zumal die MCDs auch "nur" in N6 sind, sodass Navi31 letztlich gerade mal 54% effizienter als Navi21 ist. RDNA3 in 6nm wird sicherlich auch etwas effizienter als RDNA2 in N7 sein, sodass nicht mehr viel Effizienz-Nachteil für einen solchen Monolithen verbleiben dürfte.
Ebenso verursacht die "Bridge" zwischen GCD und MCD auch ein Speed-Problem (zusätzliche Latency), was Performance-Einbußen gegenüber einem monolithischen Aufbau verursacht (wie bei den Desktop-CPUs). Zuletzt dürfte RDNA3 in N6 auch noch etwas mehr Takt schaffen als RDNA2 in N7 und damit wohl auch in etwa 3Ghz erreichen.
Aktuell sind nur die 5nm-Wafer knapp und von daher vemutlich auch extrem viel teurer als N6-Wafer. Ein Navi32 in N6 dürfte also weit günstigere Möglichkeiten und auch Verfügbarkeiten zulassen als der bisher spekulierte Navi32, sodass AMD damit Nvidia im Mainstream vermultich viel effektiver "angreifen" könnte.
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.321
- Renomée
- 180
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Epyc 7F52
- Mainboard
- TYAN S8030 GM2NE
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 128 GB Samsung M393A4K40DB3-CWEGQ
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- Cooler Master SFX Gold 850W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Die Folie sieht einer der offiziellen EPYC Genoa Folien sehr ähnlich:Videocardz glaubt ein valides Foto eines Arch-Schaubildes mit Erläuterungen zu haben. In der Regel waren solche Folien von AMD allerdings mit weniger Text belegt und eher mehrere nacheinander, statt alles auf einem Bild.
Alleged AMD Navi 31 GPU block diagram leaks out - VideoCardz.com
AMD RDNA3 architecture ‘to exceed 3 GHz’ We received a picture showing the new Navi 31 GPU block diagram. AMD Navi 31 GPU is a chiplet design with one GCD (Graphics Compute Die) and six Memory Cache Dies (MCDs). The outer dies house dual 32-bit memory controllers each, combined with large L3...videocardz.com
AMD EPYC Genoa Gaps Intel Xeon in Stunning Fashion
AMD EPYC 9004 "Genoa" gaps Intel Xeon in stunning fashion with 96 cores, PCIe Gen5, and DDR5 and massive performance gains
www.servethehome.com
Gleich die oberste...
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.375
- Renomée
- 1.980
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Es ist müßig darüber zu spekulieren denn ein entsprechend großer monolytischer N6 Chip hätte so oder so eine schlechtere Effizienz und würde für die gleichen Stückzahlen mehr Wafer benötigen weil der Wafer weniger effizient genutzt werden könnte und größere Chips tendenziell auf die Ausbeute geht. Man hätte also ein schlechteres Produkt das mehr Wafer Kapazität bindet. Wo soll da der Sinn für so eine Entscheidung sein?
Des weiteren waren die heutigen Auslastungsprobleme der Auftragsfertiger zum Zeitpunkt des Starts der Entwicklung wohl kaum absehbar gewesen.
Des weiteren waren die heutigen Auslastungsprobleme der Auftragsfertiger zum Zeitpunkt des Starts der Entwicklung wohl kaum absehbar gewesen.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Zum Zeitpunkt des Entwicklungs-Startes wusste man weder, wie heute die Wafer-Situation sein wird, noch, wie gut/mäßig das MCM-N5-N6-Konstrukt im Verglich zu einer monoltihischen N6-GPU verhalten würde. Nachdem man aber anscheinend von Anfang an auch eine Parallel-Entwicklung von RDNA3 auf N6 (Navi33) gestartet zu haben scheint, sollte AMD seit einiger Zeit einordnen können, wo RDNA3 in N6 gegenüber dem N5-N6-Konstrukt zu liegen kommt. Mit diesem Wissen und der aktuellen Wafer-Situation könnte man heute womöglich zu anderen Ergebnissen kommen, als noch zu Projekt-Start, zumal Navi32 sowieso erst mit Verzögerung eingeplant war/ist....Man hätte also ein schlechteres Produkt das mehr Wafer Kapazität bindet. Wo soll da der Sinn für so eine Entscheidung sein?
Des weiteren waren die heutigen Auslastungsprobleme der Auftragsfertiger zum Zeitpunkt des Starts der Entwicklung wohl kaum absehbar gewesen.
Die N5-Wafer sind jedenfalls ungleich teurer und knapper. N6-Wafer inzwischen reichlich zu haben und womöglich noch günstiger in Verhältnis zu N5, als bei Projekt-Start, da die N6/N7-Linien bei TSMC ja angeblich nicht mehr ausgelastet seinen. Dahin ging meine Überlegung.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.375
- Renomée
- 1.980
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Natürlich wurde der parallel entwickelt, so wie jede GPU einer Serie für sich selbst entwickelt werden muss um sie anschließend produzieren zu können. Auch das die kleinste der 3 GPUs als singlechip entwickelt wurde dürfte einen recht einfachen Grund haben.
Sie ist nunmal die Kleinste und entsprechend halten sich die Probleme mit der Chip Größe ebenso in Grenzen wie ein möglicher Vorteil durch das Multichip Design. Um den zusätzlichen Strombedarf durch den schlechteren Fertigungsprozess zu zügeln gibt es ein recht einfaches Mittel, man taktet sie geringer um die Effizienz zu verbessern und gewinnt so gleichzeitig Abstand zu den teureren Modellen. Man kann die schlechtere Effizienz aber auch einfach in kauf nehmen.
Es gibt aber noch einen anderen Grund der für eine solche Aufteilung sprechen würde. Man verteilt die Produkte auf mehrere Prozesse, streut so das Risiko und schont die Produktionskapazitäten für den höherwertigeren Prozess was wiederum wichtig wäre wenn man die verkauften Stückzahlen steigern will. FAB Kapazitäten wachsen bei den Auftragsfertigern eben nicht auf Bäumen.
Und warum sind jetzt reichlich N7/6 Kapazitäten verfügbar? Weil der Halbleitermarkt absäuft und viele Kunden gebuchte Produktionskapazitäten gekündigt haben, also genau das was ich oben im letzten Satz andeutete.
Sie ist nunmal die Kleinste und entsprechend halten sich die Probleme mit der Chip Größe ebenso in Grenzen wie ein möglicher Vorteil durch das Multichip Design. Um den zusätzlichen Strombedarf durch den schlechteren Fertigungsprozess zu zügeln gibt es ein recht einfaches Mittel, man taktet sie geringer um die Effizienz zu verbessern und gewinnt so gleichzeitig Abstand zu den teureren Modellen. Man kann die schlechtere Effizienz aber auch einfach in kauf nehmen.
Es gibt aber noch einen anderen Grund der für eine solche Aufteilung sprechen würde. Man verteilt die Produkte auf mehrere Prozesse, streut so das Risiko und schont die Produktionskapazitäten für den höherwertigeren Prozess was wiederum wichtig wäre wenn man die verkauften Stückzahlen steigern will. FAB Kapazitäten wachsen bei den Auftragsfertigern eben nicht auf Bäumen.
Und warum sind jetzt reichlich N7/6 Kapazitäten verfügbar? Weil der Halbleitermarkt absäuft und viele Kunden gebuchte Produktionskapazitäten gekündigt haben, also genau das was ich oben im letzten Satz andeutete.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Es geht mir hier um die grundlegende Architektur. Hier ist AMD erstmals den teuren Weg gegangen, RDNA3 parallel auf zwei verschiedenen Prozessen zu entwickeln, auf N6 (7nm) und N5 (5nm), sodass die RDNA3-Technologie auf beiden Prozessen in etwa gleichzeitig verfügbar sein wird. Vermutlich hat man das schon aus Weitsicht gemacht, weil die Preise für Entwicklung eines jeweiligen Produktes in 5nm und die 5nm-Wafer extrem viel höher liegen als die für die letzte Prozess-Generation. Dieser Kosten-Anstieg jeder neuen Prozess-Generation geht immer mehr durch die Decke; gleichzeitig schrumpfen die technologischen Vorteile einer neuen Prozessgeneration gegenüber der letzten.Natürlich wurde der parallel entwickelt, so wie jede GPU einer Serie für sich selbst entwickelt werden muss
Insbesondere für customized Produkte werden dadurch die neuesten Prozesse langsam zu teuer, sodass AMD gerade hierfür die Entscheidung getroffen haben dürfte, RDNA3 nun für beide Prozessgenerationen (7nm und 5nm) parallel zu entwickeln. Hat man nun RDNA3 erstmals parallel für beide Prozesse vorliegen, hat man auch erstmals die Möglichkeit, abzuwägen für welchen Fall eine Produkt-Umsetzung in 5nm oder 7nm die bessere Wahl sein dürfte: es ist natürlich immer ein Kompromiss zwischen Kosten- und Performance-Vorteilen. Aber genau diese erstmals mögliche Abwägung kann AMD nur machen, wenn man beides auch im Baukasten hat. Daher bin ich insbesondere auf die Leistungswerte von Navi33 gegenüber Navi31 gespannt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.375
- Renomée
- 1.980
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Was soll daran teuer sein?Hier ist AMD erstmals den teuren Weg gegangen, RDNA3 parallel auf zwei verschiedenen Prozessen zu entwickeln, auf N6 (7nm) und N5 (5nm), sodass die RDNA3-Technologie auf beiden Prozessen in etwa gleichzeitig verfügbar sein wird.
Die Architektur entwickelt man nicht für einen Prozess sondern das daraus resultierende Produkt welches ohnehin für den entsprechenden Fertigungsprozess angepasst werden muss da sie sich nunmal zwangsläufig unterscheiden. Und genau das ist der Knackpunkt, es wird nicht ein Produkt für 2 Prozesse entwickelt sondern unterschiedliche Produkte nutzen verschiedene Fertigungsprozesse was vermutlich eher der Normalzustand ist.
Die einzigen die bisher einen teuren Weg gegangen sind ist nvidia mit ihren großen N4 GPUs.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Oder anders formuliert. Jeder Chip wird ganz normal auf seinen Fertigungsprozess designt. RDNA3-Architektur ist nur auf dem GCD zu finden. Auf dem MCD sind Interconnect/Cache-Technologie zu finden, die wohl auch mit RDNA4 weiter funktionieren (zuzüglich Verbesserungen) - oder andersherum, wenn nötig ein neuer MCD für RDNA3 aufgelegt werden kann mit anderen Eigenschaften. Bei Ryzen/Epyc macht sich ja auch keiner Sorgen in welchem Prozess der IO-Chip gefertigt wird.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 491
- Antworten
- 1K
- Aufrufe
- 71K
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 731
- Aufrufe
- 51K
- Antworten
- 8
- Aufrufe
- 1K