App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD RDNA2 vs Nvidia Ampere
- Ersteller BavarianRealist
- Erstellt am
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Dass 7nm lange knapp bleiben und 5nm für GPUs wohl bis Ende 2022 zu teuer bleiben dürfte, sollte inzwischen AMD bekannt sein. Wenn es einen Rembrandt in N6 (ist auch ein Derivat von 7nm) geben soll, muss AMD dafür alle Elemente auf N6 portieren, sodass man wohl als erster Pipecleaner mit einer GPU dafür beginnen dürfte.
Und seit einiger Zeit (AMD dürfte hier ganz vorne dran sein, da sie ja mit den Consolen-Herstellern kommunizieren, die selbst viel GDDR brauchen) dürfte AMD auch erkannte haben, dass GDDR6 (Ram ingesamt!) nicht nur nicht mehr billiger, sondern womöglich unerwartet teuer werden könne, sodass der Einsatz von HBM wieder interessanter wird.
Könnte AMD aus dieser Not eine Tugend gemacht haben und hierfür ein bisher eher nicht geplantes Produkt womöglich nun doch schnell umzusetzten, und zwar eine schnelle Stopgap-"Weiterentwicklung" von Navi21 entwickeln, der genau all diese Probleme auf einfache und naheliegende Weise adressiert, und zwar:
- N6-Prozess spart 15% Diesize und sollte aufgrund von EUV etwas günstiger werden bzw. dürfte für AMDs Mainstream Produkte im Bereich APU und GPUs ein long-lasting-process werden, da hierfür N5 aus Kostengründen vor 2023 kaum in Frage kommen dürfte
- eine reine Highend-GPU mit HBM könnte auf den GDDR6-Controller und den großen L3 komplett komplett verzichten => spart viel Diesize!
- dafür ein paar CUs mehr, z.B. 96 oder gleich noch mehr?
=> eine solche GPU mit nur 96 CU dürfte mit kaum mehr als 400mm² in N6 möglich werden und mit etwas Optimierung dann womöglich sogar für 2,5Ghz sein...
Evtl. im Sommer 2021?
Und seit einiger Zeit (AMD dürfte hier ganz vorne dran sein, da sie ja mit den Consolen-Herstellern kommunizieren, die selbst viel GDDR brauchen) dürfte AMD auch erkannte haben, dass GDDR6 (Ram ingesamt!) nicht nur nicht mehr billiger, sondern womöglich unerwartet teuer werden könne, sodass der Einsatz von HBM wieder interessanter wird.
Könnte AMD aus dieser Not eine Tugend gemacht haben und hierfür ein bisher eher nicht geplantes Produkt womöglich nun doch schnell umzusetzten, und zwar eine schnelle Stopgap-"Weiterentwicklung" von Navi21 entwickeln, der genau all diese Probleme auf einfache und naheliegende Weise adressiert, und zwar:
- N6-Prozess spart 15% Diesize und sollte aufgrund von EUV etwas günstiger werden bzw. dürfte für AMDs Mainstream Produkte im Bereich APU und GPUs ein long-lasting-process werden, da hierfür N5 aus Kostengründen vor 2023 kaum in Frage kommen dürfte
- eine reine Highend-GPU mit HBM könnte auf den GDDR6-Controller und den großen L3 komplett komplett verzichten => spart viel Diesize!
- dafür ein paar CUs mehr, z.B. 96 oder gleich noch mehr?
=> eine solche GPU mit nur 96 CU dürfte mit kaum mehr als 400mm² in N6 möglich werden und mit etwas Optimierung dann womöglich sogar für 2,5Ghz sein...
Evtl. im Sommer 2021?
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.336
- Renomée
- 1.974
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Für den Zocker Einsatz dürfte es relativ egal sein aber für den Compute Einsatz könnte der HBM Einsatz durchaus was bringen weil dafür die Kapazität vom Cache vermutlich nicht ausreicht und dann in der Bandbreite des GDDR6 Speichers hängen bleibt.Aber hat man nicht den großen 128MB-L3 eingebaut, um weniger von der Ram-Anbindung anhängig zu sein. Oder bringt das trotzdem etwas, bzw. bringt 16GB HBM doch einen Spurng gegenüber GDDR6
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Das "neue" GPU-Chiplet-Patent, über das an versiedenen Stellen gesprochen wird, halte ich in dieser Form für die kommenden Jahre für nicht so interessant, weil:
- der 5nm-Prozess wird sehr, sehr teuer und das auch erst mal bleiben, d.h. wenn er für GPUs interessant werden soll, muss alles aus dem 5nm-GPU-Chiplet raus, was nicht sinnvoll mit shinkt, und das sind SRAM und vor allem alle Ram-Controller => ein Chiplet-Design nach dem Patent dürfte daher meines Erachtens eher für ältere, billigere Prozesse interessant werden, um die Diesize nicht explodieren zu lassen
- je kleiner und teurer die Prozesse werden, desto interessanter wird der Ansatz, wie ihn AMD bei den Zen-Chiplets verfolgt: nur die Core-Komponenten, die vom kleineren Prozess profitieren (höhere Takte, weniger Energie-Verbrauch) im Highend-Prozess, und den Rest (vor allem Cache und Controller aller Art) auf ein I/O-Chiplet auslagern
- die Trennung von Cores in Chiplets und den Rest auf ein I/O-Chiplet dürfte auch schon deshalb interessant werden, weil AMD dann für die performance- und Energie-sensiblen Core-Elemente die teuren Prozesse auch in anderen Massen-Produkten (APUs!) eher nutzen kann, ohne zu hohe Kosten zu haben und ohne zu abhängig von teuren und begrenzt verfügbaren Highend-Prozessen zu sein: es dürfte für ein I/O-Chiplet weniger problematisch sein, auf welchem älteren Prozesse er ensteht, sodass man auch GF und Samsung leichter einbinden kann
- last but not least: eine solche Trennung erspart extrem viel Design-Aufwand und -Kosten, weil erst mal nur die CPU/GPU-Cores auf den neuen Highend-Prozess portiert werden müssen, womit zuletzt auch noch time-to-market deutlich verbessert wird
- der 5nm-Prozess wird sehr, sehr teuer und das auch erst mal bleiben, d.h. wenn er für GPUs interessant werden soll, muss alles aus dem 5nm-GPU-Chiplet raus, was nicht sinnvoll mit shinkt, und das sind SRAM und vor allem alle Ram-Controller => ein Chiplet-Design nach dem Patent dürfte daher meines Erachtens eher für ältere, billigere Prozesse interessant werden, um die Diesize nicht explodieren zu lassen
- je kleiner und teurer die Prozesse werden, desto interessanter wird der Ansatz, wie ihn AMD bei den Zen-Chiplets verfolgt: nur die Core-Komponenten, die vom kleineren Prozess profitieren (höhere Takte, weniger Energie-Verbrauch) im Highend-Prozess, und den Rest (vor allem Cache und Controller aller Art) auf ein I/O-Chiplet auslagern
- die Trennung von Cores in Chiplets und den Rest auf ein I/O-Chiplet dürfte auch schon deshalb interessant werden, weil AMD dann für die performance- und Energie-sensiblen Core-Elemente die teuren Prozesse auch in anderen Massen-Produkten (APUs!) eher nutzen kann, ohne zu hohe Kosten zu haben und ohne zu abhängig von teuren und begrenzt verfügbaren Highend-Prozessen zu sein: es dürfte für ein I/O-Chiplet weniger problematisch sein, auf welchem älteren Prozesse er ensteht, sodass man auch GF und Samsung leichter einbinden kann
- last but not least: eine solche Trennung erspart extrem viel Design-Aufwand und -Kosten, weil erst mal nur die CPU/GPU-Cores auf den neuen Highend-Prozess portiert werden müssen, womit zuletzt auch noch time-to-market deutlich verbessert wird
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Eigentlich ist doch der Proof of Concept beim Die Shrink, dass der Fertiger funktionierenden SRAM vorstellt und dieser dann in den neuen Chipdesigns entsprechend verwendet/optimiert wird.
Ob nun ein gemeinsamer LLC auf Chiplets verteilt wird oder in einen zentralen IO wandert hatte AMD bislang immer als On-Chiplets beantwortet. Der HBM-Cache von Vega war da die Ausnahme.
Gerade weil ein Prozess teuer oder in grossen Flächen den Takt nicht bietet macht man Chiplets, damit der Yield maximiert werden kann und das Risiko sinkt, dafür nimmt man dann die zus. Latenzen in Kauf.
Unterschiedliche Fertigungsgrössen sind nur ein weiterer Bonus, das hat Zen1 vs Zen2 gezeigt. Alles spricht eher dafür, dass AMD wie bei Zen1 auf 4 vollwertige Chiplets setzt und IO Dies später kommen so lange man auf 7nm+ setzt. Wenn man mit CUs auf 5nm baut könnte ein Zen2 Modell mit IO Die vom 7nm Design kopiert interessanter werden.
Ob nun ein gemeinsamer LLC auf Chiplets verteilt wird oder in einen zentralen IO wandert hatte AMD bislang immer als On-Chiplets beantwortet. Der HBM-Cache von Vega war da die Ausnahme.
Gerade weil ein Prozess teuer oder in grossen Flächen den Takt nicht bietet macht man Chiplets, damit der Yield maximiert werden kann und das Risiko sinkt, dafür nimmt man dann die zus. Latenzen in Kauf.
Unterschiedliche Fertigungsgrössen sind nur ein weiterer Bonus, das hat Zen1 vs Zen2 gezeigt. Alles spricht eher dafür, dass AMD wie bei Zen1 auf 4 vollwertige Chiplets setzt und IO Dies später kommen so lange man auf 7nm+ setzt. Wenn man mit CUs auf 5nm baut könnte ein Zen2 Modell mit IO Die vom 7nm Design kopiert interessanter werden.
Zuletzt bearbeitet:
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.369
- Renomée
- 9.694
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Und es gibt die Gerüchte einer 6900 XTXH... evtl. eine Version mit HBM-Speicher? Wenn jetzt GDDR6 knapp und teuer wird, dürfte eine HBM-Lösung interessanter werden.
Eventuell ist das ja nur eine Profikarte.
Man muss ja jetzt sehen, wie AMD das weiter segmentiert. Wobei die CNDA-Lösungen da ja praktisch außer Konkurrenz laufen.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.336
- Renomée
- 1.974
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Genau anders herum wird ein Schuh draus. Gerade wenn der Prozess neu und teuer ist ist ein solches Chiplet Design dafür interessant.- der 5nm-Prozess wird sehr, sehr teuer und das auch erst mal bleiben, d.h. wenn er für GPUs interessant werden soll, muss alles aus dem 5nm-GPU-Chiplet raus, was nicht sinnvoll mit shinkt, und das sind SRAM und vor allem alle Ram-Controller => ein Chiplet-Design nach dem Patent dürfte daher meines Erachtens eher für ältere, billigere Prozesse interessant werden, um die Diesize nicht explodieren zu lassen
Mit kleineren DIE läßt sich die Wafer Fläche besser nutzen als mit einem großen Chip, sie haben idR. an sich schon eine bessere Ausbeute (es ist einfach weniger da was kaputt gehen kann) und mit vielen Kleinen ließe sich eine große GPU zusammensetzen die so als single Chip noch nicht einmal sinnvoll produzierbar wäre. Ein weiterer Punkt wäre der flexiblere Einsatz denn man könnte alle Leistungsklassen mit einem Chip abdecken und man müßte die Produktionskapazitäten nicht auf die verschiedenen Chip Größen aufteilen.
Weniger Verschnitt, bessere Ausbeute und auch noch ein flexiblerer Einsatzbereich. 3 Gründe mit denen sich die Kosten senken lassen. Des weiteren dürfte SRAM Speicher geradezu ideal für einen Shrink sein. Mit einer geringen Überkapazität und einem redundanten Aufbau könnte man defekte und überschüssige Speicherzellen einfach abschalten.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 2K
- Aufrufe
- 111K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 32
- Aufrufe
- 12K
- Antworten
- 12
- Aufrufe
- 7K