News AMD APU Rembrandt mit Zen 3 in 6 nm?

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.386
Renomée
9.729
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Obwohl die ersten Zen 3 Prozessoren von AMD noch gar nicht vorgestellt sind — erster Termin ist der 8. Oktober — gibt es bereits wieder vermehr Gerüchte zu Produkten, die wahrscheinlich frühestens Anfang 2022 erscheinen werden. In diesem Fall die APU mit dem Codenamen “Rembrandt”, die Nachfolger des “Renoir”-Nachfolgers “Cezanne” ist.

(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Hmm, liest sich, als würde es lediglich Die Fläche sparen, IPC Steigerungen aufgrund des Shrinks dann eher weniger?
 
Ich bin gespannt was am 8.Oktober vorgestellt wird.

Es ist irgendwie verdächtig still bei und um AMD.
Das ist nicht wirklich gewöhnlich so kurz vor einem Termin.

Ich hoffe das Renoir Desktop es nun in den Consumer Markt schafft. Oder gar Cezanne ist kurzfristig fertig?
 
6 nm?! :o Okay... Ich dachte, der 5-nm-Prozess bei TSMC wäre schon so weit fortgeschritten. Das passt irgendwie gar nicht zu dieser Meldung: *kopfkratz
Scheint, als hätten sie N6 von 7 nm in 6 nm umbenannt.
Seit Zen hat AMD eigentlich keine Portierungen von Architekturen auf andere Fertigungsprozesse vorgenommen (Ausnahme Vega 7nm, wegen MI50/60), außer auf vollständig kompatible Prozesse wie 14nm/12nm. Ich nehme an, dass das einfach hoher Enticklungsaufwand (= Zeit von guten Ingenieuren), eine große Streuung von verschiedenen Produkten und zusätzliche Kosten sind, die sie damit einsparen. Das "neue AMD" will ja effizient und fokussiert arbeiten. Da Rembrandt anscheinend Zen 3 + RDNA 2 ist, kommt wohl deswegen 5nm dafür nicht infrage. Neue Architekturen haben seit Zen meist etwas Zeit gebraucht, bis sie in die APUs gefunden haben, Zen 4 + RDNA3 sind zu dem Zeitpunkt wohl noch nicht soweit.

Ich bin gespannt was am 8.Oktober vorgestellt wird.

Es ist irgendwie verdächtig still bei und um AMD.
Das ist nicht wirklich gewöhnlich so kurz vor einem Termin.
Ja diese Stille wundert mich auch. Sie haben wohl viel Hirnschmalz auf die Verhinderung von Leaks aufgewandt... *idee*
 
6 nm?! :o Okay... Ich dachte, der 5-nm-Prozess bei TSMC wäre schon so weit fortgeschritten. Das passt irgendwie gar nicht zu dieser Meldung: *kopfkratz
Scheint, als hätten sie N6 von 7 nm in 6 nm umbenannt.

Ich glaube wir müssen uns bei AMD beginnend im nächsten Jahr und dann ab 2022 verstärkt darauf einstellen, dass nicht mehr alle Chips einer Generation gleich sind.

Ergo werden nicht mehr alle im selben Fertigungsprozess hergestellt und es wird eine deutliche Differenzierung zum Beispiel über den IO-Die geben. Wahrscheinlich wird es dann PCI-Express 5.0 erstmal exklusiv für die Serverprozessoren geben. Denn man sieht ja, dass PCI-Express 4.0 selbst bei Ampere bislang keine Bäume ausreißt.

Außerdem werden ja anscheinend selbst die Desktopprozessoren wie Raphael eine integrierte Grafik bekommen.
 
Also ich würde begrüßen, wenn die Desktop-CPUs endlich eine simple iGPU bekommen; viele Büro- oder Rechenknechte brauchen keine dGPU. Zusätzlich pflichte ich Dir bei, dass technische Neuerungen meist eher auf spezielle Anwendungsfälle abzielen wie z.B. den Servermarkt. Und da ist die Marge eh vergleichsweise hoch. Ausserdem interessiert die meisten Anwender doch eh nur, was am Ende rauskommt; wie das geschieht wird in Tech-Foren gerne mal übermäßig in den Fokus gerückt.
 
Decoder, Encoder, 4 CUs in die IOD und es würde wohl für so ziemlich alle reichen.

Wer wirklich Grafikleistung braucht, wird eh eine dGPU anschaffen.
 
viele Büro- oder Rechenknechte brauchen keine dGPU.
Die brauchen aber auch keine 8 kern CPUs, 4 Kerne und iGPU reicht aus. (Wenn die Bürorechner nicht eh schon alle Laptops sind)
Aus meiner Sicht ist es schon i.O. wenn die schnelleren prozessoren nicht noch eine unnütze iGPU mitschleppen - braucht kein Mensch ;)
 
Brauchen vielleicht nicht (hier bei mir allerdings schon), aber wenn AMD so etwas im Angebot hätte, dann würde das auch Absatz finden. Es kaufen ja öfters mal eher Leute ein, die nicht so viel Ahnung haben....nach dem Motto "haben ist besser als brauchen". Aber ja, vieles wird (zum Glück) auf Notebooks umgestellt, wobei die dann öfters mal auch von alleine das Laufen lernen...
 
Die brauchen aber auch keine 8 kern CPUs, 4 Kerne und iGPU reicht aus.
Das kannst Du so nicht sagen. Ich z.B. wäre so ein Kandidat. Mir würde die allerkleinste iGPU ausreichen, weil ich überhaupt nicht spiele. Wichtig ist nur, dass alle aktuellen Videocodecs hardwarebeschleunigt wiedergegeben werden. Mir würde also eine schmale iGPU wie die Intel UHD locker reichen.

CPU-seitig dagegen kann ich wegen Videoencoding, BOINC und einigen VMs die immer mal wieder, auch parallel, zwecks Tests/Fehlersuche, laufen müssen, nicht genug Kerne haben. Für mich wäre eine Ryzen 7 oder Ryzen 9 mit Vega 3 iGPU ideal. Renoir geht in die richtige Richtung, aber der wurde ja CPU-seitig beschnitten zugunsten einer iGPU, die viel zu viel Leistung hat für meine Zwecke, Diefläche für L3-Cache, die der CPU geklaut wurde.

Deswegen bin ich gezwungen, meiner Ryzen-CPU immer eine dGPU dazuzustecken. Hatte es, wie bei einigen Kunden mit gleichem Einsatzprofil, zuerst mit einer Radeon R7 240 versucht, die eigentlich reichen würde, musste sie aber wieder rausschmeißen, da sie Full-HD-Video in MPEG-4 nicht ruckelfrei mit 60 fps darstellen kann:
Die kleinste moderne Radeon, die RX 5500 XT, hingegen kostet 170 EUR :o Mal sehen, was Rembrandt so bieten wird :)
 
Zuletzt bearbeitet:
Außerdem werden ja anscheinend selbst die Desktopprozessoren wie Raphael eine integrierte Grafik bekommen.
Hast Du eine Idee wie das umgesetzt werden soll?
Chiplet mit 4 Cores + iGPU?
 
Außerdem werden ja anscheinend selbst die Desktopprozessoren wie Raphael eine integrierte Grafik bekommen.
Hast Du eine Idee wie das umgesetzt werden soll?
Chiplet mit 4 Cores + iGPU?

Keine Ahnung. AMD bohrt ja den Infinity Fabric mit Zen 3 noch mal kräftig auf. Was danach kommt weiß man nicht.

Allerdings machten für RDNA3 ja auch wieder MCM-Gerüchte die Runde, wobei man sowas für Nvidias Hopper auch lesen konnte.
 
Die kann man doch genauso gut eigenständig als Chiplet an den IO Die hängen. Dürfte besser für Ausbeute und Effizienz sein.
 
Das kannst Du so nicht sagen. Ich z.B. wäre so ein Kandidat. Mir würde die allerkleinste iGPU ausreichen, weil ich überhaupt nicht spiele. Wichtig ist nur, dass alle aktuellen Videocodecs hardwarebeschleunigt wiedergegeben werden. Mir würde also eine schmale iGPU wie die Intel UHD locker reichen.

CPU-seitig dagegen kann ich wegen Videoencoding, BOINC und einigen VMs die immer mal wieder, auch parallel, zwecks Tests/Fehlersuche, laufen müssen, nicht genug Kerne haben. Für mich wäre eine Ryzen 7 oder Ryzen 9 mit Vega 3 iGPU ideal.

Eigendlich wärst Du somit Mitglied der " angeblich nicht vorhandenen " Zielgruppe für eine von mir angerissene bislang fiktiven RX6100 mit 50W TDP

Wär mal eigendlich wieder Zeit für eine 50W&drunter-Graka :o
Was glauben die denn so, was Nichtgamer einem Ryzen 7 4800X zugesellen wollen - eine HD6450 ?!??

Mit RDNA2 & 7nm stehen die Zeichen doch wirklich günstig und im Grunde könnte man sowas " aus dem Mülleimer " ziehen


Renoir geht in die richtige Richtung, aber der wurde ja CPU-seitig beschnitten zugunsten einer iGPU, die viel zu viel Leistung hat für meine Zwecke, Diefläche für L3-Cache, die der CPU geklaut wurde.

Deswegen bin ich gezwungen, meiner Ryzen-CPU immer eine dGPU dazuzustecken. Hatte es, wie bei einigen Kunden mit gleichem Einsatzprofil, zuerst mit einer Radeon R7 240 versucht, die eigentlich reichen würde, musste sie aber wieder rausschmeißen, da sie Full-HD-Video in MPEG-4 nicht ruckelfrei mit 60 fps darstellen kann:

Die kleinste moderne Radeon, die RX 5500 XT, hingegen kostet 170 EUR :o Mal sehen, was Rembrandt so bieten wird :)

Teilaktivierte Navi14-Dies wird es wohl geben, einfach 4Cluster weglasern und und den Takt runterregeln....
Eine von mir angerissene RX6100 wäre nach gut 10 Jahren mal wieder eine LowPowerkarte "auf den Punkt"
und unter Linux ohne grosse Blobs performen würde sie auch noch 8)
Sowas würde sich womöglich doch verkaufen.....
*Seufz* .... irgendwie versteht mich keiner *Augenroll*
Mir ging es eben um eine moderne/aktuelle LoPowerGraka , die auch h.265,h.266, VP9, DX12, Vulkan usw..usw... lässig aus dem Handgelenk schüttelt in HW....
Die Karte, die ich hier zu skizzieren versuche hätte bei 50W einen guten Tacken mehr Leistung als eine RX560, da dürfen die auch 150€ nehmen
Mal überlegen....... wieviele Threadripper haben die jetzt verkauft? wieviele Ryzen 2700X , wieviele Ryzen 9 3900X ? ? ? alles nur an Spieler ?!?? wohl weniger... auch hat nicht mehr Jeder ein FHD-Display...
Ich denke eher, inzwischen dürfte die Zielgruppe überaus üppig ausfallen
oder einer davon abgeleiteten passiven Graka
 
Die kann man doch genauso gut eigenständig als Chiplet an den IO Die hängen. Dürfte besser für Ausbeute und Effizienz sein.
Ein Chiplet dieser Art mit vielleicht 50mm^2 für bspw. eine Vega 3 hat mehr Nach- als Vorteile. Der Preisvorteil ist bei den Größen vermutlich sehr gering, falls überhaupt vorhanden. Jeder Chip hat Kantenverluste an Fläche, die Ausbeute pro Wafer steigt bei kleineren Dies immer langsamer, man braucht zusätzliche Die-Fläche für die zusätzlichen Interconnects, und ich schätze eine extra Maske kostet ebenfalls mehr. Ist aber nur meine persönliche Einschätzung.
 
Im Chiplet wäre es blöd, dann hat man bei 2 Chiplets wieder unnötig GPU-Fläche mitgekauft
Wieso?
Damit könnte AMD flexibel APUs von 4 bis 12 Kernen bauen. Im IOD ist das Risiko für defekte nicht verwendbarer Chips größer.
 
Bei Epyc braucht man diese iGPUs aber nicht.
Eben, deshalb die reinen CPU-Chiplets für Epyc.
Die Desktop APUs könnten dann beispielsweise wie folgt aussehen
CPU/iGPU Chiplet (4 Kerne mit Grafik)
CPU-Chiplet (8Kerne) + CPU/iGPU (4Kerne mit Grafik)
Teildefekte Chiplets ergeben dann kleine Varianten
 
Scheint, als hätten sie N6 von 7 nm in 6 nm umbenannt.
Sowas in der Art ist es ja im Grunde auch.

Das kannst Du so nicht sagen. Ich z.B. wäre so ein Kandidat. Mir würde die allerkleinste iGPU ausreichen, weil ich überhaupt nicht spiele. Wichtig ist nur, dass alle aktuellen Videocodecs hardwarebeschleunigt wiedergegeben werden. Mir würde also eine schmale iGPU wie die Intel UHD locker reichen.

CPU-seitig dagegen kann ich wegen Videoencoding, BOINC und einigen VMs die immer mal wieder, auch parallel, zwecks Tests/Fehlersuche, laufen müssen, nicht genug Kerne haben. Für mich wäre eine Ryzen 7 oder Ryzen 9 mit Vega 3 iGPU ideal. Renoir geht in die richtige Richtung, aber der wurde ja CPU-seitig beschnitten zugunsten einer iGPU, die viel zu viel Leistung hat für meine Zwecke, Diefläche für L3-Cache, die der CPU geklaut wurde.
Kenn ich. ;)

Ich hätte auch gerne eine 16C APU mit Mini-iGPU, aber da sind wir halt in einer ziemlich kleinen Nische drin.
Wobei bei Raphael ja spekuliert wird, dass der ein Navi 3x Chiplet mitbringt, dann könnte es was werden.

Das Gute ist aber: mit Navi 2x wird auch Decoding von AV1 unterstützt. Das sollte dann bei den RDNA2-basierten APUs (van Gogh, Rembrandt) und späteren auch mit an Bord sein.
Es besteht also Hoffnung. ;)

Für mein neues Desktop-System (mein Kaveri ist inzwischen ziemlich am rumröcheln …) mit 16C Vermeer CPU brauche ich tatsächlich auch noch eine GPU.
Hab noch eine 280X rumliegen, was aber (auch in Bezug auf den Stromverbrauch) nicht optimal ist. Aber für das nächste 1/2-3/4 Jahr muss die wohl oder übel genügen, bis der mattgraue Höhlenfisch dann Einzug findet.
Doppelposting wurde automatisch zusammengeführt:

Chiplet mit 4 Cores + iGPU?
Hoffentlich wandert die iGPU in die IOD.

Im Chiplet wäre es blöd, dann hat man bei 2 Chiplets wieder unnötig GPU-Fläche mitgekauft.
Wenn RDNA3 tatsächlich MCM umsetzt, dann wird es wohl eher ein extra Chiplet. d.h. am Desktop hätte man wohl bis zu 3 Chiplets + IO Die.
 
Zurück
Oben Unten